Nothing Special   »   [go: up one dir, main page]

DE102012218390B4 - Optimierung der Erkennung von Objekten in Bildern - Google Patents

Optimierung der Erkennung von Objekten in Bildern Download PDF

Info

Publication number
DE102012218390B4
DE102012218390B4 DE102012218390.6A DE102012218390A DE102012218390B4 DE 102012218390 B4 DE102012218390 B4 DE 102012218390B4 DE 102012218390 A DE102012218390 A DE 102012218390A DE 102012218390 B4 DE102012218390 B4 DE 102012218390B4
Authority
DE
Germany
Prior art keywords
image
lighting
detection process
object detection
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102012218390.6A
Other languages
English (en)
Other versions
DE102012218390A1 (de
Inventor
Ying Li
Sharathchandra Pankanti
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE102012218390A1 publication Critical patent/DE102012218390A1/de
Application granted granted Critical
Publication of DE102012218390B4 publication Critical patent/DE102012218390B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0098Details of control systems ensuring comfort, safety or stability not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren für das Erkennen von Objekten in einem digitalen Bild mithilfe eines Informationsverarbeitungssystems; das Verfahren aufweisend:Empfangen mindestens von Positionsdaten, die einem Fahrzeug zugeordnet sind (304);Erhalten von geographischen Informationen, die den Positionsdaten zugeordnet sind (306);auf der Grundlage der geographischen Informationen Ermitteln einer Wahrscheinlichkeit für das Erkennen eines Zielobjekts in einem entsprechenden geographischen Bereich, der dem Fahrzeug zugeordnet ist (310);Vergleichen der Wahrscheinlichkeit mit einem gegebenen Schwellenwert (312);mindestens eines von Aktivieren eines Objekterkennungsprozesses und Halten des Objekterkennungsprozesses in einem aktivierten Zustand, als Reaktion darauf, dass die Wahrscheinlichkeit entweder über oder gleich dem gegebenen Schwellenwert ist, wobei der Objekterkennungsprozess Zielobjekte in mindestens einem Bild erkennt, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung ist (314); undmindestens eines von Deaktivieren des Objekterkennungsprozesses und Halten des Objekterkennungsprozesses in einem deaktivierten Zustand, als Reaktion darauf, dass die Wahrscheinlichkeit unter dem gegebenen Schwellenwert liegt;wobei das Erkennen der Zielobjekte durch den Objekterkennungsprozess in mindestens einem Bild umfasst:Empfangen von mindestens einem Bild, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung eines Fahrzeugs darstellt;Identifizieren einer Gruppe von Umgebungsbedingungen, die einem geographischen Bereich zugeordnet sind, der einem Fahrzeugstandort entspricht;Auswählen eines Beleuchtungsmodells auf der Grundlage der Gruppe von Umgebungsfaktoren (410); undVerarbeiten des mindestens einen Bildes in Bezug auf das Beleuchtungsmodell (412), wobei das Verarbeiten des mindestens einen Bildes in Bezug auf das Beleuchtungsmodell (412) mindestens eines aufweist von:Normalisieren einer Gruppe von Beleuchtungseigenschaften von Objekten in dem mindestens einen Bild;Erzeugen eines beleuchtungsinvarianten Bildes von dem mindestens einen Bild; Erzeugen eines beleuchtungsspezifischen Bildes von dem mindestens einen Bild; und Erzeugen eines beleuchtungssynthetisierten Bildes von dem mindestens einen Bild;wobei das Erkennen der Zielobjekte durch den Objekterkennungsprozess in mindestens einem Bild ferner umfasst:Abrufen mindestens einer Objektvorlage, die dem interessierenden Objekt zugeordnet ist;Auswählen eines Objekterscheinungsmodells auf der Grundlage der Gruppe der Umgebungsfaktoren;Verarbeiten der mindestens einen Objektvorlage in Bezug auf das Beleuchtungsmodell und auf das Objekterscheinungsmodell (406);Analysieren des mindestens einen Bildes, das in Bezug auf die mindestens eine verarbeitete Objektvorlage verarbeitet wurde; undErmitteln auf der Grundlage des Analysierens, ob das mindestens eine verarbeitete Bild das interessierende Objekt aufweist (416).

Description

  • GEGENSTAND DER ERFINDUNG
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf die Erkennung von Objekten in digitalen Bildern und insbesondere bezieht sie sich auf die Optimierung der Erkennung von Objekten in digitalen Bildern mithilfe von Kamerasensoren in einer den Menschen unterstützenden Umgebung.
  • HINTERGRUND DER ERFINDUNG
  • Die Objekterkennung auf der Grundlage digitaler Bilder speziell in Bezug auf die Verkehrszeichenerkennung (Traffic Sign Recognition, TSR) hat in den letzten Jahren eine verstärkte Aufmerksamkeit erlangt. Zum Beispiel werden aktuell Objekterkennungssysteme in die Fahrerassistenzsysteme (FAS, Advanced Driver Assistance Systems, ADAS) eingeführt. Herkömmliche Objekterkennungsverfahren beinhalten üblicherweise zwei Stufen. Zunächst werden in der Erkennungsstufe die Bildbereiche, welche Kandidaten für das Zielobjekt enthalten, erkannt oder aufgespürt. Danach werden in der Wiedererkennungsstufe diese Bereiche weiter analysiert, um den spezifischen Inhalt wiederzuerkennen. Diese herkömmlichen Objekterkennungssysteme und -verfahren erfordern jedoch eine große Menge an Rechnerkapazitäten, haben eine geringe Erkennungsgeschwindigkeit und können ungenau sein.
  • Aus der Druckschrift Amlacher et al.: „Geo-Contextual Priors for Attentive Urban Object Recognition“ ist ein Verfahren zum An- und Abschalten eines Objekterkennungsprozesses je nach Geo-Kontext bekannt.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Bei einer Ausführungsform wird ein Verfahren für das Erkennen von Objekten in einem digitalen Bild offengelegt. Das Verfahren weist das Empfangen mindestens der zu einem Fahrzeug gehörigen Positionsdaten auf. Geographische Informationen, die zu den Positionsdaten gehören, werden empfangen. Auf der Grundlage der geographischen Daten wird eine Wahrscheinlichkeit für das Erkennen eines Zielobjektes innerhalb eines entsprechenden geographischen Bereichs ermittelt. Die Wahrscheinlichkeit wird mit einem gegebenen Schwellenwert verglichen. Als Reaktion darauf, dass die Wahrscheinlichkeit größer oder gleich dem gegebenen Schwellenwert ist, wird ein Objekterkennungsprozess mindestens eines von aktiviert und in einem aktivierten Zustand gehalten. Der Objekterkennungsprozess erkennt Zielobjekte innerhalb eines Bildes, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung darstellt. Als Reaktion darauf, dass die Wahrscheinlichkeit unter dem gegebenen Schwellenwert liegt, wird der Objekterkennungsprozess mindestens eines von deaktiviert und in einem deaktivierten Zustand gehalten.
  • Erfindungsgemäß wird ein Verfahren für das Erkennen von Objekten in einem digitalen Bild offengelegt. Das Verfahren weist das Empfangen von mindestens einem Bild auf, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung eines Fahrzeugs darstellt. Eine Gruppe von Umgebungsbedingungen, die einem geographischen Bereich zugeordnet sind, der einem Fahrzeugstandort entspricht, wird identifiziert. Auf der Grundlage einer Gruppe von Umgebungsfaktoren wird ein Beleuchtungsmodell ausgewählt. Das mindestens eine Bild wird in Bezug auf das Beleuchtungsmodell verarbeitet.
  • Bei einer weiteren Ausführungsform wird ein Informationsverarbeitungssystem für das Erkennen von Objekten in einem digitalen Bild offengelegt. Das Informationsverarbeitungssystem weist einen Speicher und einen Prozessor auf, der kommunikativ mit dem Speicher verbunden ist. Das Informationsverarbeitungssystem weist auch ein Objekterkennungssystem auf, das kommunikativ mit dem Speicher und dem Prozessor verbunden ist. Das Objekterkennungssystem ist dazu ausgelegt, ein Verfahren auszuführen. Das Verfahren weist das Empfangen mindestens der zu einem Fahrzeug gehörigen Positionsdaten auf. Geographische Informationen, die zu den Positionsdaten gehören, werden empfangen. Auf der Grundlage der geographischen Daten wird eine Wahrscheinlichkeit für das Erkennen eines Zielobjektes innerhalb eines entsprechenden geographischen Bereichs ermittelt. Die Wahrscheinlichkeit wird mit einem gegebenen Schwellenwert verglichen. Als Reaktion darauf, dass die Wahrscheinlichkeit größer oder gleich dem gegebenen Schwellenwert ist, wird ein Objekterkennungsprozess mindestens eines von aktiviert und in einem aktivierten Zustand gehalten. Der Objekterkennungsprozess erkennt Zielobjekte innerhalb eines Bildes, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung darstellt. Als Reaktion darauf, dass die Wahrscheinlichkeit unter dem gegebenen Schwellenwert liegt, wird der Objekterkennungsprozess mindestens eines von deaktiviert und in einem deaktivierten Zustand gehalten.
  • Bei einer weiteren Ausführungsform wird ein Computerprogrammprodukt für das Erkennen von Objekten in einem digitalen Bild offengelegt. Das Computerprogrammprodukt weist ein durch eine Verarbeitungsschaltung lesbares Speichermedium und Speicheranweisungen auf, die von der Verarbeitungsschaltung für das Ausführen eines Verfahrens durchgeführt werden. Das Verfahren weist das Empfangen mindestens der zu einem Fahrzeug gehörigen Positionsdaten auf. Geographische Informationen, die zu den Positionsdaten gehören, werden empfangen. Auf der Grundlage der geographischen Daten wird eine Wahrscheinlichkeit für das Erkennen eines Zielobjektes innerhalb eines entsprechenden geographischen Bereichs ermittelt. Die Wahrscheinlichkeit wird mit einem gegebenen Schwellenwert verglichen. Als Reaktion darauf, dass die Wahrscheinlichkeit größer oder gleich dem gegebenen Schwellenwert ist, wird ein Objekterkennungsprozess mindestens eines von aktiviert und in einem aktivierten Zustand gehalten. Der Objekterkennungsprozess erkennt Zielobjekte innerhalb mindestens eines Bildes, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung darstellt. Als Reaktion darauf, dass die Wahrscheinlichkeit unter dem gegebenen Schwellenwert liegt, wird der Objekterkennungsprozess mindestens eines von deaktiviert und in einem deaktivierten Zustand gehalten.
  • Figurenliste
  • Die begleitenden Figuren, in denen in den einzelnen Ansichten gleiche Bezugszeichen sich auf identische oder funktionell ähnliche Bauteile beziehen und die zusammen mit der nachfolgenden detaillierten Beschreibung in die Beschreibung aufgenommen werden und einen Teil davon bilden, dienen dazu verschiedene Ausführungsformen darzustellen und verschiedene Prinzipien und Vorteile gemäß der vorliegenden Erfindung zu erklären, wobei:
    • 1 ein Blockdiagramm ist, das eine allgemeine Übersicht eines Systems zum Erkennen von Objekten in digitalen Bildern gemäß einer Ausführungsform der vorliegenden Erfindung darstellt;
    • 2 ein transaktionsorientiertes Schaubild ist, das einen mehrstufigen Betriebsmodus des Systems in 1 gemäß einer Ausführungsform der vorliegenden Erfindung darstellt;
    • 3 ein ausführbarer Ablaufplan ist, der ein Beispiel eines Prozesses für das Aktivieren/Deaktivieren einer oder mehrerer Bestandteile des Systems in 1 gemäß einer Ausführungsform der vorliegenden Erfindung darstellt;
    • 4 ein ausführbarer Ablaufplan ist, der einen Prozess für das Optimieren eines Objekterkennungsprozesses durch das System in 1 gemäß einer Ausführungsform der vorliegenden Erfindung darstellt; und
    • 5 ein Blockschaltbild ist, das eine detailliertere Ansicht eines Informationsverarbeitungssystems gemäß einer Ausführungsform der vorliegenden Erfindung darstellt.
  • DETAILLIERTE BESCHREIBUNG
  • Wie erforderlich werden detaillierte Ausführungsformen der vorliegenden Erfindung in dieser Beschreibung offengelegt, aber die offengelegten Ausführungsformen sind so zu verstehen, dass sie nur Beispiele der Erfindung sind, die in verschiedenen Formen ausgeführt werden kann. Daher dürfen die hier offengelegten spezifischen strukturellen und funktionellen Einzelheiten nicht als Einschränkung interpretiert werden, sondern nur als Grundlage für die Ansprüche und als eine repräsentative Grundlage, um dem Fachmann zu erklären, wie er die vorliegende Erfindung in verschiedener Weise virtuell in beliebigen geeigneten detaillierten Strukturen und Funktionen anwenden kann. Außerdem sind die hier verwendeten Begriffe und Aussagen nicht als einschränkend zu verstehen, sondern sie dienen vielmehr, dazu eine verständliche Beschreibung der Erfindung bereitzustellen.
  • Die Begriffe „ein“ oder „eine“ sind hier generell definiert als ein/eine oder mehr als ein/eine. Der Begriff „Vielzahl“ ist hier generell definiert als zwei oder mehr als zwei. Der Begriff „andere“ ist hier generell definiert als mindestens ein Zweiter/eine Zweite oder mehr. Die Begriffe „beinhalten“ und/oder „umfassen“ sind hier generell definiert als „aufweisen“ (d.h. im weitesten Sinne). Der Begriff „gekoppelt“ ist hier generell definiert als „verbunden“, obwohl dies nicht unbedingt direkt und nicht unbedingt mechanisch der Fall sein muss.
  • Betriebsumgebung
  • Gemäß einer Ausführungsform zeigt 1 eine allgemeine Übersicht einer Betriebsumgebung 100 für das Erkennen von Objekten in einem oder mehreren Bildfeldern/Bildern. 1 zeigt insbesondere ein Informationsverarbeitungssystem 102, das in einem Fahrzeug wie zum Beispiel einem Auto, einem Motorrad, einem Wasserfahrzeug oder Ähnlichem umgesetzt werden kann. Zusätzlich kann das System 102 zu Trainingszwecken kommunikativ mit einer benutzerunterstützten Trainingsumgebung verbunden sein. Das System 102 umfasst unter anderem ein Objekterkennungssystem (object detection system, ODS) 104, ein oder mehrere Bildaufnahmesysteme 106 und ein oder mehrere globale Positionsbestimmungssysteme (global positioning systems, GPS) 108. Das System 102 weist auch eine Bilddatenbank 110, GPS-Daten 112, eine geographische Informationsdatenbank 114, eine Beleuchtungsmodelldatenbank 116, eine Erscheinungsmodelldatenbank 118 und eine Objektvorlagendatenbank 120 auf.
  • Die Bilddatenbank 110 weist ein oder mehrere Bildfelder/Bilder 122 auf. Die Bildfelder/Bilder 122 stellen in einer Ausführungsform Einzelbilder einer Videobildfolge (oder einer Standbildabfolge) einer externen Umgebung dar, die von einem oder mehreren Bildaufnahmeeinheiten (z.B. Kameras) des Bildaufnahmesystems 106 aufgenommen wurden. Zwei oder mehr dieser Bildaufnahmeeinheiten können sich überschneidende Blickfelder haben. Die geographische Informationsdatenbank 114 weist geographische Informationen 124 auf, wie zum Beispiel, ohne darauf beschränkt zu sein, Karten und Kartierungsinformationen, Sehenswürdigkeiten und zugehörige Informationen (z.B. Adressen, Telefonnummern usw.) und alle anderen Informationen, die in einer Kartierungs- oder Navigationsumgebung verwendet werden können.
  • Die Erscheinungsmodelldatenbank 118 weist Erscheinungsmodelle 126 für verschiedene Umgebungsfaktoren auf, wie zum Beispiel, ohne darauf beschränkt zu sein, für Wetterbedingungen (z.B. sonnig, bewölkt, bedeckt, Regen, Schneefall, Schneedecke usw.), Jahreszeiten (z.B. Winter, Frühjahr, Sommer, Herbst), Tageszeit (z.B. Vormittag, Nachmittag, Abenddämmerung, Nacht) und Ähnliches. Diese Erscheinungsmodelle 126 bilden ab, wie ein gegebenes Objekt als Ergebnis der obigen Umgebungsfaktoren erscheint. Ein Objekt kann zum Beispiel bei Tag und bei Nacht unterschiedlich erscheinen oder wahrgenommen werden. Objekte können auch auf der Grundlage des Betrachtungswinkels unterschiedlich erscheinen oder wahrgenommen werden. Die Erscheinungsmodelle 126 erlauben dem ODS 104 diese Veränderlichkeit in der Erscheinung/Wahrnehmung zu berücksichtigen/auszugleichen.
  • Die Beleuchtungsmodelldatenbank 116 weist Beleuchtungsmodi 128 auf, wie zum Beispiel beleuchtungsspezifische Modelle, beleuchtungsinvariante Modelle und synthetisierte Beleuchtungsmodelle, die vom ODS 104 verwendet werden, um die aktuellen Beleuchtungsbedingungen (z.B. Licht- und Spiegelungsbedingungen) der externen Umgebung auszugleichen. Jede dieser Beleuchtungsmodellarten wird weiter unten näher erörtert. Die Objektvorlagendatenbank 120 weist eine Vielzahl von Objektvorlagen 130 auf, die vom ODS 104 verwendet werden, wenn ein Zielobjekt in den Bildfeldern/Bildern 122 erkannt wird. Bei einer Ausführungsform weist die Objektdatenbank 120 Objektvorlagen für alle Arten von Objekten auf, die durch das ODS 104 erkennbar sind, wie zum Beispiel (ohne darauf beschränkt zu sein) Straßenschilder, Verkehrsschilder, Ampeln, Straßenmarkierungen, Adressen, Geschäfts-/Gebäudeschilder, Plakatwände, Gebäude, Geschäfte, Scheinwerfer, Straßenschäden, Fahrzeuge, Fußgänger, Tiere usw.
  • Eine Objektvorlage 130 kann eines oder mehrere Bilder sein, die einem erkennbaren Objekt zugeordnet sind. Wenn zum Beispiel eine Objektart, die für das ODS 104 erkennbar ist, ein Tankstellenschild ist, kann die Objektvorlage 130 ein aktuelles Bild eines Tankstellenschildes einer gegebenen interessierenden Tankstelle sein. Eine gegebene Tankstelle kann mit mehreren verschiedenen Tankstellenschildern verbunden sein. Daher können die Bilder von jedem dieser verschiedenen Schilder als eine einzige Objektvorlage oder als mehrere getrennte Objektvorlagen in der Objektdatenbank 120 enthalten sein. Als Vorlage(n) kann (können) auch Bilder des erkennbaren Objektes aus verschiedenen Winkeln, mit unterschiedlichen Lichtbedingungen und bei unterschiedlichen Umgebungsbedingungen gespeichert werden. Dies ermöglicht, dass der vom ODS 104 ausgeführte Erkennungsprozess leistungsfähiger wird. Bei einer anderen Ausführungsform wird jedoch eine minimale Anzahl an Bildern als Objektvorlagen für jedes/jede erkennbare Objekt/Objektart verwendet. Bei dieser Ausführungsform können die Erscheinungsmodelle 126 und/oder die Beleuchtungsmodelle 128 auf die Objektvorlagen angewandt werden, um verschiedene Winkel, Lichtbedingungen und Umgebungsbedingungen zu berücksichtigen/auszugleichen, unter denen ein Objekt durch das Bildaufnahmesystem 106 erfasst wird. Dies erlaubt dem ODS 104, weniger Objektvorlagen 130 (und zugehörige Bilder) aufzubewahren/abzurufen, wodurch Speicherplatz und Verarbeitungsressourcen eingespart werden, während gleichzeitig ein leistungsfähiger und genauer Objekterkennungsprozess bereitgestellt wird. Zusätzlich zu den Bildern (oder anstatt der Bilder) eines erkennbaren Objektes, kann eine Objektvorlage 130 Informationen enthalten, die von einem Bild eines interessierenden Objektes extrapoliert wurden. Dies erlaubt, dass die Informationen, die ein Bild darstellen, als Vergleich mit dem Bild selbst gespeichert werden, wodurch Speicherplatz eingespart wird.
  • Es wird darauf hingewiesen, dass jede der oben erwähnten Datenbanken und ihre Bestandteile weiter unten ausführlicher erörtert werden. Es wird auch darauf hingewiesen, dass eine oder mehrere der geographischen Informationsdatenbank 114, der Erscheinungsmodelldatenbank 118, der Beleuchtungsmodelldatenbank 116 und der Objektdatenbank 120 auf einem (nicht gezeigten) fernen System abgelegt sein kann, das kommunikativ mit dem System 102 über ein oder mehrere (nicht gezeigte) Netze verbunden sein kann. Die Daten von dieser einen oder mehreren Datenbanken können nach Bedarf an das System 102 übertragen werden, wodurch der vom System 102 benötigte Speicherplatz verringert wird.
  • Das ODS 104 weist in einer Ausführungsform einen GPS-Datenprozessor 132, einen geographischen Informationsprozessor 134, einen Umgebungsprozessor 136, einen Objekterscheinungsprozessor 137 einen Beleuchtungsprozessor 138 und einen Objektdetektor 140 auf. Es wird darauf hingewiesen, dass sich eines oder mehrere dieser Bauteile außerhalb des ODS 104 befinden können. Es wird auch darauf hingewiesen, dass die Funktionen eines oder mehrerer dieser Bauteile in einem einzigen Bauteil kombiniert werden können. Der GPS-Datenprozessor 132 verarbeitet/analysiert die GPS-Daten 112, die vom GPS-System 108 bereitgestellt werden. Der GPS-Datenprozessor 132 kann zum Beispiel die GPS-Daten 112 analysieren, um Informationen zu ermitteln, wie zum Beispiel (ohne darauf beschränkt zu sein) die aktuelle Zeit, die Fahrzeuggeschwindigkeit, die Fahrzeugrichtung, den Standort des Fahrzeugs, die Fahrzeughöhe usw. Der geographische Informationsprozessor 134 verwendet die GPS-Daten 112, um die geographischen Informationen 124 zu identifizieren, die zur aktuellen Position/zum aktuellen Standort und zum umgebenden Bereich des Fahrzeugs gehören. Der geographische Informationsprozessor 134 kann zum Beispiel auf der Grundlage der Standortinformation in den GPS-Daten 112 innerhalb der geographischen Informationsdatenbank 114 eine Karte identifizieren, die der Standortinformation der GPS-Daten 112 entspricht.
  • Der Umgebungsprozessor 136 ermittelt einen aktuellen Kontext der Umgebung, in der sich das Fahrzeug bewegt. Der Umgebungsprozessor 136 kann zum Beispiel die Art des geographischen Bereichs ermitteln, in dem das Fahrzeug sich befindet, wie zum Beispiel einen ländlichen Bereich oder einen städtischen Bereich. Der Umgebungsprozessor 136 kann außerdem einen differenzierten Kontext ermitteln, wie zum Beispiel, ob der aktuelle Bereich ein Waldbereich, ein bergiger Bereich, ein Wüstenbereich, ein industrieller Bereich, das Zentrum einer Stadt, ein Vorort usw. ist. Das ODS 104 verwendet diese Umgebungs- oder geographischen Kontextinformationen, um die Wahrscheinlichkeit zu ermitteln, dass sich ein Zielobjekt im aktuellen Bereich des Fahrzeugs befindet.
  • Der Umgebungsprozessor 136 kann auch die Informationen der Umgebungsfaktoren/-bedingungen ermitteln, wie zum Beispiel die aktuellen Wetterbedingungen (z.B. sonnig, bewölkt, bedeckt, Regen, Schneefall, Schneedecke, Nebel, usw.), Jahreszeiten (z.B. Winter, Frühjahr, Sommer, Herbst), Tageszeit (z.B. Vormittag, Nachmittag, Abenddämmerung, Nacht). Bei einer Ausführungsform kann die Tageszeitinformation auch die durchschnittliche Licht-/Beleuchtungsinformation beinhalten, die in einem gegebenen Bereich zu einer gegebenen Tageszeit, wie zum Beispiel Vormittag, Nachmittag, Abenddämmerung und Nacht, herrscht. Der Umgebungsprozessor 136 kann diese Faktoren/Bedingungen ermitteln, indem die vom Bildaufnahmesystem 106 erfassten Bildfelder/Bilder 122 analysiert werden. Umgebungsfaktoren/-bedingungen können auch aus den Wetterbedingungen ermittelt werden, die mit den GPS-Daten 112 übertragen werden. Der Umgebungsprozessor 136 kann auch Informationen der Umgebungsfaktoren/-bedingungen von einem oder mehreren fernen Systemen abrufen/empfangen. Bei einer anderen Ausführungsform kann der Benutzer die Umgebungsfaktoren/-bedingungen in das ODS 104 eingeben. Diese Arten der Umgebungsfaktoren/-bedingungen können vom ODS 104 verwendet werden, um die geeigneten Erscheinungsmodelle 126 und/oder Beleuchtungsmodelle 128 für eine Objektvorlage 130 und/oder die vom Bildaufnahmesystem 106 erfassten Bildfelder/Bilder 122 zu identifizieren, um den Objektdetektor 104 in Bezug auf die aktuellen Umgebungsfaktoren/-bedingungen zu optimieren.
  • Bei einer weiteren Ausführungsform können im Wesentlichen statische Umgebungsinformationen, wie zum Beispiel Jahreszeitinformationen (z.B. ein Jahreszeitenkalender) Tageszeitinformationen (z.B. Sonnenaufgangszeit, Sonnenuntergangszeit usw.) vorab in die geographische Informationsdatenbank 114 (oder in eine andere Datenbank) geladen werden. Dynamische Umgebungsinformationen, wie zum Beispiel die Wetterinformationen, die aktuelle Zeit, Fahrzeugrichtung/-geschwindigkeit/-höhe, können von einem oder mehreren Bauteilen des Systems 102 wie zum Beispiel dem GPS-Datenprozessor 132 und/oder von einem oder mehreren fernen Systemen, die über eine oder mehrere (verdrahtete und/oder drahtlose) Netze kommunikativ mit dem System 102 verbunden sind, für die geographische Informationsdatenbank 114 bereitgestellt werden. Die dynamischen Informationen können vom System 102 in gegebenen Zeitabständen und/oder auf Anfrage empfangen/abgerufen werden (z.B. wenn der Umgebungsprozessor 136, der Erscheinungsprozessor 137 und/oder der Beleuchtungsprozessor 138 die Umgebungsfaktoren/-bedingungen für einen gegebenen Fahrzeugstandort benötigen).
  • Der Erscheinungsprozessor 137 identifiziert auf der Grundlage der vom Umgebungsprozessor 136 ermittelten Umgebungskontextinformationen zunächst die richtigen Erscheinungsmodelle 126 und wendet danach diese Modelle auf die richtigen Objektvorlagen 130 an, um die an die Erscheinung angepassten Objektvorlagen zu erzeugen. Diese an die Erscheinung angepassten Objektvorlagen werden später verwendet, um die interessierenden Objekte zu identifizieren, wenn die vom Bildaufnahmesystem 106 erfassten Bildfelder/Bilder 122 verarbeitet werden. Der Erscheinungsprozessor 137 wählt zum Beispiel auf der Grundlage der Tageszeit, der Jahreszeit, den Wetterbedingungen usw., die vom Umgebungsprozessor 136 erkannt wurden, ein Erscheinungsmodell 126 aus, und erzeugt automatisch auf der Grundlage einer vorhandenen Objektvorlage 130 eine angepasste Objektvorlage. Diese neue Objektvorlage wird danach verwendet, wenn ein Einzelbild/Bild 122 verarbeitet wird.
  • Der Beleuchtungsprozessor 138 erzeugt zunächst von einer gegebenen Objektvorlage 130 (oder, wenn der Erscheinungsprozessor 137 aktiviert wurde, von einer an die Erscheinung angepassten Objektvorlage) eine auf die Beleuchtung angepasste Objektvorlage, indem eines der folgenden drei Beleuchtungsmodelle angewandt wird: ein beleuchtungsspezifisches Modell, ein beleuchtungsinvariantes Modell und ein synthetisiertes Beleuchtungsmodell. Die Ausführung einer Beleuchtungsanpassung hat bei einer Ausführungsform den Zweck, dass die aktuelle Beleuchtungsbedingung des Objekts mit derjenigen der Objektvorlage 130 übereinstimmt oder auf diese normalisiert wird. Diese an die Beleuchtung angepasste Objektvorlage wird später verwendet, um interessierende Objekte zu erkennen, wenn die vom Bildaufnahmesystem 106 erfassten Bildfelder/Bilder 122 verarbeitet werden. Dies erlaubt dem ODS 104 während der Ausführung des Objekterkennungsprozesses verschiedene Beleuchtungsbedingungen in Betracht zu ziehen.
  • Das ODS 104 weist außerdem einen oder mehrere Objektdetektoren 140 auf. Der Objektdetektor 140 empfängt Eingaben von einem oder mehreren der verschiedenen, oben erörterten Bauteile des Systems 102. Der Objektdetektor 140 verwendet die Informationen, die er von diesen Bauteilen erhält, um die Bildfelder/Bilder 122 zu analysieren, um daraus zu ermitteln, ob die Bildfelder/Bilder 122 ein Zielobjekt aufweisen oder nicht. Bei einer Ausführungsform ist (sind) der (die) Objektdetektor(en) 140 ein (mehrere) merkmalsbasierter (merkmalsbasierte) Detektor(en) und/oder ein (mehrere) Detektor(en) auf der Grundlage von maschinellem Lernen. Andere Objektdetektoren können jedoch genauso gut verwendet werden. Eine detaillierte Erörterung der merkmalsbasierten Detektoren und der Detektoren auf der Grundlage von maschinellem Lernen kann in der im gemeinsamen Eigentum befindlichen und gleichzeitig anhängigen US-Patentanmeldung Seriennummer 13/085 985 mit dem Titel „Object Recognition Using HAAR Features and Histograms of Oriented Gradients“ und der im gemeinsamen Eigentum befindlichen und gleichzeitig anhängigen US-Patentanmeldung Seriennummer 13/086 023 mit dem Titel „Detection of Objects in Digital Images“ gefunden werden, die hiermit durch Bezugnahme vollinhaltlich aufgenommen werden.
  • Obiekterkennung/-wiedererkennunig in digitalen Bildfeldern/Bildern
  • Das ODS 104 arbeitet bei einer Ausführungsform in Echtzeit, um automatisch verschiedene Objekte einer gegebenen, gewünschten Objektart/-klasse in den Bildfeldern/Bildern 122 zu erkennen, die von dem (den) Bildaufnahmesystem(en) 106 mithilfe der GPS- und der geographischen Informationen erfasst wurden. Es wird darauf hingewiesen, dass die verschiedenen Beispiele von Zielobjekten, die in der folgenden Erörterung gegeben werden, nicht einschränkend sind. Das ODS 104 ist mit anderen Worten in der Lage jede Art von Objekten zu erkennen. Das ODS 104 kann zum Beispiel Gebäude, Wahrzeichen (und andere Strukturen), Fahrzeuge, Scheinwerfer, Fußgänger, Tiere und/oder Ähnliches erkennen.
  • Bei einer Ausführungsform führt das ODS 104 einen mehrstufigen (multimodalen) Prozess aus. In einer Stufe identifiziert das ODS 104 zum Beispiel den aktuellen Umgebungskontext eines unmittelbaren Bereichs, eines umgebenden Bereichs und/oder eines zukünftigen Bereichs, die dem aktuellen Standort des Fahrzeugs entsprechen, um zu ermitteln, ob es wahrscheinlich ist oder nicht, dass ein Zielobjekt innerhalb einer gegebenen Zeitspanne oder Entfernung erkannt werden wird. Wenn es wahrscheinlich ist, dass ein Zielobjekt erkannt werden wird, aktiviert das ODS 104 die Bauteile für die Objekterkennung des Systems 102. Wenn es nicht wahrscheinlich ist, dass ein Zielobjekt erkannt werden wird, können die Bauteile für die Objekterkennung des Systems 102 deaktiviert werden. Dies spart Energie- und Verarbeitungsressourcen.
  • Nachstehend folgt eine detaillierte Erörterung in Bezug auf den mehrstufigen (multimodalen) Prozess des ODS 104. Diese Erörterung wird in Bezug auf das transaktionsorientierte Ablaufschaubild in 2 gegeben. Der erste Betriebsmodus des ODS 104 arbeitet, um zu ermitteln ob der Detektor 140 und die ihm zugeordneten Bauteile aktiviert oder deaktiviert werden sollen oder nicht. Wie oben erörtert, empfängt das GPS-System 108 die GPS-Daten 112. Der GPS-Datenprozessor 132 analysiert diese Daten 112 in 202, um zum Beispiel die Koordinaten der Breiten- und Längengrade des Fahrzeugs, die Fahrtrichtung, die Fahrzeuggeschwindigkeit, die Höhe usw. zu ermitteln. Diese Informationen werden dann an den geographischen Informationsprozessor 134 weitergegeben. Der geographische Informationsprozessor 134 verwendet diese Informationen in 204, um die geographischen Informationen 124 zu identifizieren, wie zum Beispiel eine Karte, die dem aktuellen Standort des Fahrzeugs zugeordnet ist, der durch den GPS-Datenprozessor 132 ermittelt wurde. Die Karte kann eine Straßenkarte, eine topographische Karte, eine Satellitenkarte, eine Kombination davon oder Ähnliches sein. Der Informationsprozessor 134 kann je nach Bedarf zwischen diesen Karten umschalten.
  • Der Umgebungsprozessor 136 analysiert in 206 eine entsprechende Karte, um in 208 einen Umgebungskontext des aktuellen Bereichs, des zukünftigen Bereichs und/oder des umgebenden Bereichs des Fahrzeugs zu ermitteln. Der Umgebungsprozessor 136 kann zum Beispiel ermitteln, ob sich das Fahrzeug aktuell in einem ländlichen Bereich oder in einem städtischen Bereich usw. befindet oder dorthin fahren wird. Der Umgebungsprozessor 136 kann außerdem einen differenzierteren Kontext ermitteln, wie zum Beispiel, ob der Bereich ein Waldbereich, ein bergiger Bereich, ein industrieller Bereich, das Zentrum einer Stadt, ein Vorort usw. ist. Bei einer Ausführungsform ist der Umgebungsprozessor 136 in der Lage diesen Kontext auf der Grundlage innerhalb der Karte erkannter Merkmale, wie zum Beispiel Wälder, Gebäude, Häuser usw., zu ermitteln. Bei einer anderen Ausführungsform sind der Karte Metadaten zugeordnet, welche die verschiedenen Bereiche innerhalb der Karte beschreiben. Auf der Grundlage dieser Metadaten kann der Umgebungsprozessor 136 einen Umgebungskontext ermitteln, der diesen Metadaten zugeordnet ist. Der Umgebungsprozessor 136 kann die Ansicht auch verkleinern und einen größeren Ausschnitt der Karte anzeigen. Dies erlaubt dem Umgebungsprozessor 136 einen größeren Ausschnitt der Karte zu analysieren, um bevorstehende Umgebungskontexte zu identifizieren. Eine anfängliche Ansicht der Karte kann zum Beispiel zeigen, dass sich das Fahrzeug aktuell in einem ländlichen Bereich bewegt, aber eine verkleinerte Ansicht, zeigt, dass sich in einer gegebenen Entfernung eine Stadt befindet.
  • Der Umgebungsprozessor 136 kann außerdem die Karte analysieren, um mögliche Zielobjekte oder Objekte zu identifizieren, die den Zielobjekten zugeordnet sind. Wenn das Zielobjekt zum Beispiel ein Verkehrsschild ist, wie zum Beispiel ein Stoppschild oder eine Ampel, kann der Umgebungsprozessor 136 die Karte analysieren, um zu ermitteln, ob der aktuelle Bereich oder ein bevorstehender Bereich eines der Zielobjekte aufweist. Der Umgebungsprozessor 136 kann auch ermitteln, ob die Karte Elemente/Merkmale aufweist, die einem Zielobjekt zugeordnet sind. Der Umgebungsprozessor 136 kann zum Beispiel die Karte analysieren, um zu ermitteln, ob die Karte eine Kreuzung aufweist, die im Allgemeinen mit einem Stoppschild oder einer Ampel in Zusammenhang steht. Der Umgebungsprozessor 136 ist in der Lage eine Karte für eine differenziertere/detailliertere Ansicht zu vergrößern, wenn er versucht mögliche Zielobjekte zu identifizieren. Der Umgebungsprozessor 136 kann auch verkleinern, um einen größeren Bereich zu analysieren.
  • Auf der Grundlage dieses ermittelten Umgebungskontexts kann der Umgebungsprozessor 136 ermitteln, ob es wahrscheinlich ist, dass ein Zielobjekt gefunden wird, und kann den Objektdetektor 140 und die zugeordneten Bauteile, wie zum Beispiel das Bildaufnahmesystem 106 entweder aktivieren oder deaktivieren. Wenn das Zielobjekt zum Beispiel ein bestimmtes Cafe ist und der Umgebungsprozessor 136 ermittelt hat, dass sich das Fahrzeug aktuell in einem ländlichen Bereich bewegt oder, dass es für den Bereich in der Karte versäumt wurde, irgendwelche Gebäude aufzunehmen, ermittelt der Umgebungsprozessor 136, dass die Wahrscheinlichkeit, dass sich in diesem Bereich ein Zielobjekt befindet, unterhalb eines (oder gleich einem) gegebenen Schwellenwert liegt und deaktiviert den Objektdetektor 140 (oder hält ihn im deaktivierten Zustand). Wenn das aktuelle Zielobjekt jedoch ein Fußgänger ist und der Umgebungsprozessor 136 ermittelt hat, dass sich das Fahrzeug in einen bevölkerten Bereich bewegt, dann ermittelt der Umgebungsprozessor 136, dass die Wahrscheinlichkeit, dass sich in diesem Bereich ein Zielobjekt befindet, über einem (oder gleich einem) gegebenen Schwellenwert liegt und aktiviert den Objektdetektor 140 (oder hält ihn im aktivierten Zustand).
  • Der Umgebungsprozessor 136 kann den aktuellen Maßstab der Karte und die aktuelle Geschwindigkeit des Fahrzeugs verwenden, um einen gegebenen Zeitrahmen abzuschätzen, in dem das Fahrzeug einen Bereich erreicht, in dem es wahrscheinlich ist, dass er ein Zielobjekt aufweist. Bei dieser Ausführungsform kann der Umgebungsprozessor 136 einen Zeitgeber einstellen (oder einen vorhandenen Zeitgeber auf der Grundlage der Fahrzeuggeschwindigkeit anpassen), um den Objektdetektor 140 und seine zugehörigen Bauteile automatisch zu aktivieren. Das Gleiche kann ausgeführt werden in Bezug auf die Abschätzung, wann das Fahrzeug einen Bereich erreichen wird, in dem es nicht wahrscheinlich ist, dass Zielobjekte erkannt werden. Ein Zeitgeber kann dann eingestellt (oder aktualisiert) werden, um den Objektdetektor 140 und seine zugehörigen Bauteile, wie zum Beispiel das Bildaufnahmesystem 106, den Objekterscheinungsprozessor 137 und den Beleuchtungsprozessor 138 automatisch zu deaktivieren. Es wird darauf hingewiesen, dass der obige Betriebsmodus für das Ermitteln, ob der Objektdetektor 140 und seine zugehörigen Bauteile aktiviert/deaktiviert werden, optional ist. Der Objektdetektor 140 und seine zugehörigen Bauteile können mit anderen Worten immer aktiv sein oder sie können nur dann aktiv sein, wenn sie von einem Benutzer manuell aktiviert werden.
  • Wenn das ODS 104 ermittelt, dass der Objektdetektor 140 und seine zugehörigen Bauteile aktiviert (oder aktiviert gehalten) werden sollten, arbeitet das ODS 104 danach in einem zweiten Betriebsmodus für das Erkennen von Zielobjekten. Zielobjekte und ihre Klassifizierungen werden in 2 durch das „Taxonomie“-Element 201 dargestellt. Es wird darauf hingewiesen, dass in diesem Modus der durch den Umgebungsprozessor 136 ermittelte Umgebungskontext an den Objektdetektor 140 oder ein anders Bauteil des ODS 104 weitergegeben werden kann. Alternativ kann die Umgebungskontextinformation während des ersten Betriebsmodus gespeichert werden und später vom ODS 104 abgerufen werden, während es im zweiten Betriebsmodus arbeitet.
  • Wenn der Objektdetektor 140 sich im aktivierten Zustand befindet, kann der Umgebungsprozessor 136 die in 210 in 2 gezeigten Informationen der Umgebungsfaktoren/-bedingungen identifizieren, wie zum Beispiel die Wetterbedingungen (z.B. sonnig, bewölkt, bedeckt, Regen, Schneefall, Schneedecke usw.), Jahreszeiten (z.B. Winter, Frühjahr, Sommer, Herbst), Tageszeit (z.B. Vormittag, Nachmittag, Abenddämmerung, Nacht) und Ähnliches. Es wird darauf hingewiesen, dass diese Umgebungsfaktoren/-bedingungen, wie bereits oben erörtert, auch als Teile des ersten Betriebsmodus identifiziert werden können. Der Objekterscheinungsprozessor 137 analysiert die Informationen der Umgebungsfaktoren/-bedingungen, die vom Umgebungsprozessor 136 gesammelt wurden. Auf der Grundlage dieser Analyse wählt der Objekterscheinungsprozessor 137 ein Erscheinungsmodell 126 aus, wendet es auf die Zielobjekte in der Objektvorlage-DB 120 an und erzeugt eine an die Erscheinung angepasste Objektvorlage. Diese angepassten Objektvorlagen werden verwendet, um in 212 die interessierenden Objekte in den vom Bildaufnahmesystem 106 erfassten Bildfeldern/Bildern 122 zu erkennen. Alternativ kann das Erscheinungsmodell 126 an den Objektdetektor 140 weitergegeben werden, um für die Erscheinung der vom Bildaufnahmesystem 106 erfassten Bildfelder/Bilder 122 einen Normalisierungsprozess auszuführen, sodass die Erscheinung der Objekte in den normalisierten Bildfeldern/Bildern mit denen der Objekte in der Objektvorlage-DB 120 übereinstimmt. Wie oben erörtert, kann ein Objekt auf verschiedene Weise in den Bildfeldern/Bildern 122 erscheinen (oder wahrgenommen werden), je nachdem aus welchem Winkel das Objekt betrachtet wird sowie auf der Grundlage der Wetterbedingungen, der aktuellen Jahreszeit, der Tageszeit, der Beleuchtungsbedingungen usw. Daher wird das Erscheinungsmodell 126 vom ODS 104 verwendet, um ein erfasstes Einzelbild/Bild 122 auf der Grundlage der aktuellen Umgebungsfaktoren/-bedingungen zu normalisieren. Dies verbessert die Genauigkeit des Objektdetektors 140.
  • Der Beleuchtungsprozessor 138 ermittelt außerdem einen Beleuchtungskontext, der dem Bereich und/oder dem umgebenden Bereich zugeordnet ist, in dem sich das Fahrzeug aktuell befindet und optional einem zukünftigen Bereich, in den das Fahrzeug fahren kann. Es wird darauf hingewiesen, dass der Beleuchtungskontext, wie oben erörtert, während des ersten Betriebsmodus/der ersten Betriebsstufe ermittelt werden kann. Der Beleuchtungskontext kann auch entweder durch den Umgebungsprozessor 136 und/oder den Beleuchtungsprozessor 138 ermittelt werden. Wenn der Beleuchtungsprozessor 138 diese Informationen ermittelt/erhält, kann der Beleuchtungsprozessor 138 den gleichen Prozess ausführen, wie er oben in Bezug auf den Umgebungsprozessor 136 beschrieben wurde.
  • Bei einer Ausführungsform wird der Beleuchtungskontext auf der Grundlage der Beleuchtungsbedingungen ermittelt, wie zum Beispiel den vom Umgebungsprozessor ermittelten Licht- und Spiegelungsbedingungen. Diese Licht- und Spiegelungsbedingungen können auf der Grundlage der Fahrzeugrichtung/-geschwindigkeit/-höhe, den Wetterbedingungen, der Jahreszeitinformation, der Tageszeitinformation und Ähnlichem variieren. Dies führt dazu, dass die Beleuchtungs-/Spiegelungseigenschaften eines Objektes in einem Einzelbild/Bild in Abhängigkeit von den Umgebungsfaktoren variieren. Ein Verkehrsschild kann zum Beispiel in einem Bild unterschiedlich erscheinen in Abhängigkeit davon, ob auf dem Boden Schnee liegt, der das Sonnenlicht auf das Schild spiegelt oder ob eine Wolkendecke vorhanden ist.
  • Der Beleuchtungskontext wird vom Beleuchtungsprozessor 138 verwendet, um in Bezug auf die aktuellen Beleuchtungsbedingungen, die erkannt wurden, ein oder mehrere Beleuchtungsmodelle 128 für das Optimieren des Objektdetektors 140 auszuwählen.
  • Der Beleuchtungsprozessor 138 wählt auf der Grundlage des ermittelten Beleuchtungskontexts ein oder mehrere Beleuchtungsmodelle 128 aus. Die Bildfelder/Bilder 122 in 214 und/oder die Objektvorlagen 130 in 216 werden danach auf der Grundlage des/der ausgewählten Beleuchtungsmodells/e 128 verarbeitet. Alternativ kann (können) das (die) ausgewählte(n) Beleuchtungsmodell(e) 128 an den Objektdetektor 140 weitergegeben werden, um den Erkennungsprozess in Bezug auf den ermittelten Beleuchtungskontext zu optimieren.
  • Eine Art von Beleuchtungsmodell, das ausgewählt werden kann, ist ein beleuchtungsspezifisches Modell. Ein beleuchtungsspezifisches Modell ist ein Modell, dass für ein Zielobjekt in Bezug auf eine spezifische Beleuchtungsbedingung vorbereitet wurde, wie zum Beispiel Morgendämmerung, Tageslicht, Abenddämmerung, Nacht usw. Zum Beispiel kann ein Zielobjekt, wie zum Beispiel ein Stoppschild, einem der beleuchtungsspezifischen Modelle zugeordnet werden, die für das Stoppschild in Bezug auf die Lichtbedingungen am frühen Morgen, die Lichtbedingungen bei Tag, die Lichtbedingungen in der Dämmerung und die Lichtbedingungen bei Nacht vorbereitet wurden. Wenn der aktuelle Beleuchtungskontext anzeigt, dass die aktuellen Lichtbedingungen den Lichtbedingungen einer Dämmerung entsprechen, kann daher der Beleuchtungsprozessor 138 ein Beleuchtungsmodell für Dämmerung auswählen. Dieses Beleuchtungsmodell kann danach vom ODS 104 verwendet werden, um den Objektdetektor 140 für die Lichtbedingungen der Dämmerung anzupassen/zu optimieren. Daher wird der Objektdetektor 140 nicht nur für spezifische Lichtbedingungen optimiert, sondern der Objektdetektor wird für das Erkennen eines gegebenen Zielobjekts unter diesen spezifischen Lichtbedingungen optimiert.
  • Eine andere Art eines Beleuchtungsmodells ist ein beleuchtungsinvariantes Modell. Diese Modellart erlaubt es, den Objektdetektor 140 auf verschiedene Beleuchtungsbedingungen anzupassen/zu optimieren, ohne mehrere beleuchtungsspezifische Modelle für jedes erkennbare Objekt bereithalten zu müssen. Bei dieser Ausführungsform verwendet der Beleuchtungsprozessor 138 ein beleuchtungsinvariantes Modell, um die Bildfelder/Bilder 122 zu normalisieren, die von zwei oder mehreren Bildaufnahmeeinheiten mit sich überschneidenden Blickfeldern erfasst wurden. Der Normalisierungsprozess erlaubt dem Objektdetektor 140, einen genauen Erkennungsprozess für variierende Beleuchtungsbedingungen auszuführen. Ein Vorteil des beleuchtungsinvarianten Modells ist, dass es nicht erforderlich ist, mehrere beleuchtungsspezifische Modelle für ein interessierendes Objekt zu erzeugen und bereitzuhalten, wodurch Verarbeitungs- und Speicherressourcen eingespart werden.
  • Ein beleuchtungsinvariantes Modell verwendet eine Epipolargeometrie, um entsprechende Merkmale/Formen in den Bildern aufzulösen. Siehe zum Beispiel: P. Fua, Y.G. Leclerc, „Object-Centered Surface Reconstruction: Combining Multi-Image Stereo and Shading“, IJCV, 1995, das hiermit durch Bezugnahme vollinhaltlich aufgenommen wird. Mit diesem Modell wird die Helligkeit der jeweils gleichen Punkte in den Ansichten mehrerer Kameras zueinander in Beziehung gestellt, um die Randbedingungen für das Abschätzen der Beleuchtungsbedingungen und der Albedo eines Zielobjekts bereitzustellen. Für eine Anwendung einer Beleuchtungskorrektur in den Bildern führt der Beleuchtungsprozessor 138 auch eine Abschätzung der Albedo und der Beleuchtung aus, um Bilder mit einer normalisierten Beleuchtung zu erhalten. Unter Berücksichtigung der Albedo kann der Beleuchtungsprozessor 138 die Leistung der Objekterkennung verbessern, indem das Vorhandensein eines Zielobjekts in mehreren Kameraansichten bestätigt wird. Wenn die Beleuchtung normalisiert wurde, kann der Beleuchtungsprozessor 138 das beleuchtungsinvariante Modell auf Bildfelder/Bilder unter variierenden Lichtbedingungen anwenden. Es wird darauf hingewiesen, dass, wenn im Bildaufnahmesystem 106 nicht mehrere Kameras zur Verfügung stehen, eine auf Quotientenbildern basierende Technik verwendet werden kann, um ein normalisiertes Modell eines Zielobjekts für eine genauere Übereinstimmung zu erhalten. Siehe zum Beispiel: Nishiyama, T. Kozakaya und O. Yamaguchi, „Illumination normalization using quotient image-based techniques“, Recent advances in face recognition, 2008, das hiermit durch Bezugnahme vollinhaltlich aufgenommen wird.
  • Der Beleuchtungsprozessor 138 kann auch ein synthetisiertes Beleuchtungsmodell auswählen/erzeugen. Ein synthetisiertes Beleuchtungsmodell wird aus mindestens einem beleuchtungsspezifischen Modell (z.B. einem Beleuchtungsmodell für Tageslicht) und einem beleuchtungsinvarianten Modell erzeugt. Mit anderen Worten können zusätzliche beleuchtungsspezifische Modelle aus einem einzigen beleuchtungsspezifischen Modell und einem beleuchtungsinvarianten Modell erzeugt werden. Dies erlaubt, dass beleuchtungsspezifische Modelle auf beliebigen Differenzierungsniveaus erzeugt werden können, ohne die Kosten für das Sammeln von Trainingsdaten für jede Beleuchtungsbedingung tragen zu müssen.
  • Es wird darauf hingewiesen, dass es für das ODS 104 nicht erforderlich ist, sowohl die Erscheinungsmodelle 126 als auch die Beleuchtungsmodelle 128 zu verwenden. Das ODS 104 kann zum Beispiel nur eine dieser Modellarten 126, 128 verwenden. Sobald die Bildfelder/Bilder 122 und/oder die Objektvorlagen 130 in Bezug auf mindestens ein Erscheinungsmodell 126 und/oder mindestens ein Beleuchtungsmodell 128 verarbeitet wurden (oder sobald diese Modelle an den Objektdetektor 140 weitergegeben wurden), analysiert der Objektdetektor 140 die Bildfelder/Bilder 122, um zu ermitteln, ob in den Bildfeldern/Bildern 122 ein Zielobjekt vorhanden ist oder nicht. Bei einer Ausführungsform zum Beispiel vergleicht der Objektdetektor 140 die Bildfelder/Bilder 122 mit einer oder mehreren entsprechend verarbeiteten Objektvorlagen 130. Wenn die in den Bildfeldern/Bildern 122 identifizierten Merkmale im Wesentlichen mit den Merkmalen der verarbeiteten Objektvorlage(n) 130 übereinstimmen, ermittelt der Objektdetektor 140, dass ein Zielobjekt innerhalb der Bildfelder/Bilder 122 identifiziert wurde. Der Benutzer kann dann über das erkannte Objekt benachrichtigt werden oder es können andere Aktionen ausgeführt werden. Es wird darauf hingewiesen, dass der Objektdetektor 140 mehrere Objekterkennungsprozesse verwenden kann. Ein Beispiel eines Objekterkennungsprozesses wird in der US-Patentanmeldung mit dem Titel „Object Recognition Using HAAR Features and Histograms of Oriented Gradients“ erörtert; US-Anmeldung mit der Seriennummer 13/085 985. Ein weiteres Beispiel eines Objekterkennungsprozesses wird in der US-Patentanmeldung mit dem Titel „Detection of Objects in Digital Images“ erörtert; US-Anmeldung mit der Seriennummer 13/086 023.
  • Ausführbarer Ablaufplan
  • 3 ist ein ausführbarer Ablaufplan, der ein Beispiel für den Betrieb eines Objekterkennungssystems in einem ersten Betriebsmodus zum Aktivieren oder Deaktivieren von Bauteilen des Objekterkennungssystems zeigt. Es wird darauf hingewiesen, dass eine detailliertere Erörterung dieses Prozesses oben in Bezug auf die 1 und 2 gegeben wurde. Der ausführbare Ablaufplan beginnt bei Schritt 302 und geht weiter zu Schritt 304. Das ODS 104 empfängt und analysiert im Schritt 304 die GPS-Daten 112. Das ODS 104 erhält im Schritt 306 geographische Informationen 124, wie zum Beispiel, ohne darauf beschränkt zu sein, eine Karte von einer geographischen Informationsdatenbank 114.
  • Das ODS 104 analysiert im Schritt 308 die geographischen Informationen, um den Umgebungskontext zu ermitteln, dem mindestens einer eines aktuellen Bereichs, eines umgebenden Bereichs und eines zukünftigen Bereichs zugeordnet ist, in denen sich das Fahrzeug aktuell bewegt und/oder sich in der Zukunft bewegen wird. Das ODS 104 kann zum Beispiel ermitteln, ob sich das Fahrzeug in einem ländlichen Bereich oder in einem städtischen Bereich befindet. Das ODS 104 kann außerdem einen differenzierteren Kontext ermitteln, wie zum Beispiel, ob der aktuelle Bereich ein Waldbereich, ein bergiger Bereich, ein industrieller Bereich, das Zentrum einer Stadt, ein Vorort usw. ist. Wie oben erörtert, kann das ODS 104 auch die Merkmale einer Karte analysieren, um zu ermitteln, ob der aktuelle Ausschnitt der Karte ein mögliches Zielobjekt und/oder Merkmale aufweist, die einem Zielobjekt zugeordnet sind.
  • Auf der Grundlage dieser Analyse ermittelt das ODS 104 im Schritt 310 eine Wahrscheinlichkeit, dass ein Zielobjekt in dem analysierten Bereich der Karte erkannt wird. Das ODS 104 ermittelt danach im Schritt 312, ob diese Wahrscheinlichkeit über oder gleichauf mit einem gegebenen Schwellenwert liegt. Wenn das Ergebnis dieser Ermittlung positiv ist, aktiviert das ODS 104 im Schritt 314 den Objektdetektor 140 und alle Bauteile, die vom Detektor 140 benötigt werden. Der Steuerungsablauf geht dann zum Eingangspunkt A der 4. Wenn das Ergebnis dieser Ermittlung negativ ist, kehrt der Steuerungsablauf zum Schritt 304 zurück.
  • 4 ist ein ausführbarer Ablaufplan, der ein Beispiel für den Betrieb eines Objekterkennungssystems in einem zweiten Betriebsmodus zeigt, in dem sich ein Objektdetektor und alle erforderlichen Bauteile in einem aktivierten Zustand befinden. Es wird darauf hingewiesen, dass eine detailliertere Erörterung dieses Prozesses oben in Bezug auf die 1 und 2 gegeben wurde. In diesem zweiten Betriebsmodus ermittelt das ODS 104 im Schritt 402 einen Erscheinungskontext auf der Grundlage von Umgebungsfaktoren/-bedingungen, wie zum Beispiel, ohne darauf beschränkt zu sein, Wetterbedingungen (z.B. sonnig, bewölkt, bedeckt, Regen, Schneefall, Schneedecke usw.), Jahreszeiten (z.B. Winter, Frühjahr, Sommer, Herbst), Tageszeit (z.B. Vormittag, Nachmittag, Abenddämmerung, Nacht) und Ähnlichem. Es wird darauf hingewiesen, dass diese Umgebungsfaktoren/- bedingungen auch genauso gut während des ersten Betriebsmodus durch das ODS 104 ermittelt werden können. Diese Umgebungsfaktoren/-bedingungen können durch einen Benutzer manuell eingegeben oder aus den GPS-Daten 112, aus Informationen in der geographischen Informationsdatenbank 114, aus Bildfeldern/Bildern 122, die durch das Bildaufnahmesystem 106 erfasst wurden, und Ähnlichem identifiziert werden.
  • Das ODS 104 wählt danach im Schritt 404 auf der Grundlage des ermittelten Erscheinungskontexts ein oder mehrere Erscheinungsmodelle 126 aus. Das ODS 104 verarbeitet danach im Schritt 406 auf der Grundlage des einen oder der mehreren Erscheinungsmodelle 126 die Bildfelder/Bilder 122, die durch das Bildaufnahmesystem 106 erfasst wurden, und/oder die Objektvorlagen 130, die erkennbaren Objekten zugeordnet sind. Diese Verarbeitung normalisiert entweder die Erscheinung von Objekten in den Bildfeldern/Bildern 122 oder sie wendet ein oder mehrere Erscheinungsmodelle auf die Zielobjektvorlagen 130 an, um ein oder mehrere an die Erscheinung angepasste Objektvorlagen zu erzeugen und/oder optimiert den Objektdetektor 140 in Bezug auf die aktuellen Umgebungsfaktoren/- bedingungen.
  • Das ODS 104 ermittelt im Schritt 408 auf der Grundlage der Umgebungsfaktoren/- bedingungen auch einen Beleuchtungskontext. Es wird jedoch darauf hingewiesen, dass es nicht notwendig ist, dass das System 104 sowohl einen Erscheinungskontext als auch einen Beleuchtungskontext ermitteln muss. Wie oben erörtert, identifiziert der Beleuchtungskontext die unterschiedlichen Beleuchtungsbedingungen (z.B. Licht und Spiegelung), d.h. die Bedingungen der Umgebung, in der sich das Fahrzeug bewegt oder bewegen wird. Das ODS 104 erzeugt oder wählt danach im Schritt 410 auf der Grundlage des ermittelten Beleuchtungskontexts ein oder mehrere Beleuchtungsmodelle 128 aus. Das ODS 104 verarbeitet danach im Schritt 412 auf der Grundlage des einen oder der mehreren Beleuchtungsmodells/e 128 die Bildfelder/Bilder 122, die durch das Bildaufnahmesystem 106 erfasst wurden, und/oder die Objektvorlagen 130, die erkennbaren Objekten zugeordnet sind. Diese Verarbeitung normalisiert entweder die Beleuchtung der Objekte in den Bildfeldern/Bildern 122 und erzeugt beleuchtungsinvariante Bildfelder/Bilder oder sie erzeugt beleuchtungsspezifische oder beleuchtungssynthetisierte Bildfelder/Bilder und erzeugt beleuchtungsspezifische oder beleuchtungsinvariante oder beleuchtungssynthetisierte Objektvorlagen und/oder optimiert den Objektdetektor 140 in Bezug auf die Beleuchtungsbedingungen der Umgebung.
  • Das ODS 104 führt im Schritt 414 einen Objekterkennungsprozess in den Bildfeldern/Bildern 122 aus, die mithilfe der Erscheinungs- und/oder Beleuchtungsmodelle 126, 128 verarbeitet wurden. Das ODS 104 ermittelt im Schritt 416, ob ein Zielobjekt erkannt wurde. Wenn das Ergebnis dieser Ermittlung negativ ist, kehrt der Steuerungsablauf zum Schritt 402 zurück. Wenn das Ergebnis dieser Ermittlung positiv ist, benachrichtigt das ODS 104 im Schritt 418 den Benutzer über das erkannte Objekt und/oder führt eine andere Aktion aus. Die Ablaufsteuerung kehrt danach zum Schritt 402 zurück. Es wird darauf hingewiesen, dass das ODS 104 gleichzeitig sowohl im ersten Modus als auch im zweiten Modus arbeiten kann. Wenn sich das ODS 104 zum Beispiel im zweiten Modus befindet, kann das ODS 104 die Analyse der geographischen Informationen 124 fortsetzen, um zu ermitteln, ob der Objektdetektor 140 deaktiviert werden sollte oder nicht.
  • Informationsverarbeitungssvstem
  • 5 ist ein Blockschaltbild, das ein Informationsverarbeitungssystem zeigt, das in Ausführungsformen der vorliegenden Erfindung verwendet werden kann. Das Informationsverarbeitungssystem 500 stützt sich auf ein zweckmäßig konfiguriertes Verarbeitungssystem, dass angepasst wurde, um eine oder mehrere Ausführungsformen der vorliegenden Erfindung (z.B. das System 102 aus 1) umzusetzen. Jedes zweckmäßig konfigurierte Verarbeitungssystem kann in einigen Ausführungsformen der vorliegenden Erfindung als das Informationsverarbeitungssystem 500 verwendet werden.
  • Das Informationsverarbeitungssystem 500 weist einen Computer 502 auf. Der Computer 502 weist einen (einige) Prozessor(en) 504 auf, der (die) mit einem Hauptspeicher 506, einer Massenspeicherschnittstelle 508, einer Netzadapterhardware 510. einem Bildaufnahmesystem 106 und einem GPS-System 108 verbunden ist (sind). Ein Systembus 512 verbindet diese Systembauteile untereinander. Obwohl für den Computer 502 nur eine CPU 504 dargestellt ist, können Computersysteme mit mehreren CPUs gleichermaßen wirkungsvoll verwendet werden. Der Hauptspeicher 506 weist in dieser Ausführungsform das Objekterkennungssystem 104 und seine Bauteile, die Bilddatenbank 110 und ihre Inhalte, die geographische Informationsdatenbank 114, die Beleuchtungsmodelldatenbank 116 und ihre Inhalte, die Erscheinungsmodelldatenbank 118 und ihre Inhalte und die Objektvorlagendatenbank 120 und ihre Inhalte auf.
  • Die Massenspeicherschnittstelle 508 wird dazu verwendet die Massenspeichereinheiten, wie zum Beispiel die Massenspeichereinheit 514, mit dem Informationsverarbeitungssystem 500 zu verbinden. Eine spezifische Art einer Datenspeichereinheit ist ein optisches Laufwerk, wie zum Beispiel ein CD/DVD-Laufwerk, das dazu verwendet werden kann, Daten auf einem computerlesbaren Medium oder einem Speicherprodukt, wie zum Beispiel (ohne darauf beschränkt zu sein) einer CD/DVD 516, zu speichern und von dort zu lesen. Eine andere Art einer Datenspeichereinheit ist eine Datenspeichereinheit, die dazu ausgelegt ist, zum Beispiel NTFS-artige Dateisystemoperationen zu unterstützen.
  • Ein im Hauptspeicher enthaltenes Betriebssystem ist ein geeignetes Multitasking-Betriebssystem, wie zum Beispiel eines der Betriebssysteme die auf der Grundlage von Linux, UNIX, Windows und Windows Server arbeiten. Ausführungsformen der vorliegenden Erfindung sind auch in der Lage beliebige andere geeignete Betriebssysteme zu verwenden. Einige Ausführungsformen der vorliegenden Erfindung verwenden Architekturen, wie zum Beispiel einen objektorientierte Framework-Mechanismus, der es erlaubt Befehle der Bauteile des Betriebssystems auf jedem beliebigen im Informationsverarbeitungssystem 500 angeordneten Prozessor auszuführen. Die Netzadapterhardware 510 wird verwendet, um eine Schnittstelle zu einem Netz 511 bereitzustellen. Ausführungsformen der vorliegenden Erfindung sind in der Lage an die Arbeit mit beliebigen Datenübertragungsverbindungen angepasst zu werden, einschließlich moderner Analog- und/oder Digitaltechniken oder über einen zukünftigen Vernetzungsmechanismus.
  • Obwohl die beispielhaften Ausführungsformen der vorliegenden Erfindung im Zusammenhang mit einem vollständig funktionsfähigen Computersystem beschrieben wurden, wird der Fachmann verstehen, dass verschiedene Ausführungsformen in der Lage sind als Programmprodukt über CD oder DVD, CD-ROM oder andere Formen von beschreibbaren Datenträgern oder über andere Arten elektronischer Übertragungsmechanismen verbreitet zu werden. Aspekte der vorliegenden Erfindung können auch die Form einer vollständigen Hardware-Ausführungsform, einer vollständigen Software-Ausführungsform (einschließlich Firmware, residenter Software, Mikrocode usw.) oder einer Ausführungsform annehmen, die Software und Hardware-Komponenten kombiniert, wobei diese hier alle als „Schaltkreis“, „Modul“ oder „System“ bezeichnet werden.
  • Jede beliebige Kombination eines oder mehrerer computerlesbarer Medien kann verwendet werden. Das computerlesbare Medium kann ein computerlesbares Signalmedium oder ein computerlesbares Speichermedium sein. Ein computerlesbares Speichermedium kann unter anderem beispielsweise, ohne darauf beschränkt zu sein, ein System, eine Vorrichtung oder eine Einheit zur elektronischen, magnetischen, optischen, elektromagnetischen, Infrarot- oder Halbleiterspeicherung sein oder jede geeignete Kombination davon. Konkrete Beispiele computerlesbarer Speichermedien umfassen (in einer unvollständigen Liste) eine Computerdiskette, eine Festplatte, einen RAM, einen ROM, einen EPROM oder einen Flash-Speicher, einen Lichtwellenleiter, einen CD-ROM, eine optische Speichereinheit, eine magnetische Speichereinheit oder jede geeignete Kombination der Vorgenannten. Ein computerlesbares Speichermedium kann jedes verfügbare Medium sein, auf dem ein Programm zur Verwendung durch oder in Verbindung mit einem System, einer Vorrichtung oder einer Einheit zur Befehlsausführung enthalten sein oder gespeichert werden kann.
  • Ein computerlesbares Signalmedium kann ein übertragenes Datensignal umfassen, dass einen computerlesbaren Programmcode enthält beispielsweise im Basisband oder als Teil einer Trägerwelle. Ein solches übertragenes Signal kann eine von einer Vielzahl von Formen annehmen, einschließlich, ohne darauf beschränkt zu sein, eine elektromagnetische oder optische Form oder jede geeignete Kombination davon. Ein computerlesbares Signalmedium kann jedes computerlesbare Medium sein, das kein computerlesbares Speichermedium ist und welches Programmdaten für eine Verwendung durch oder in Verbindung mit einem System, einer Vorrichtung oder einer Einheit zur Befehlsausführung austauschen, verbreiten oder übertragen kann.
  • Ein Programmcode, der auf einem computerlesbaren Medium enthalten ist, kann unter Verwendung eines geeigneten Mediums übertragen werden, einschließlich, ohne darauf beschränkt zu sein, drahtlos oder leitungsgebunden, Lichtwellenleiter, HF usw. oder jeder geeigneten Kombination davon.
  • Der Computerprogrammcode zur Durchführung von Operationen für einige Aspekte der vorliegenden Erfindung kann in jeder beliebigen Kombination von Programmiersprachen geschrieben werden, einschließlich objektorientierter Programmiersprachen, wie zum Beispiel Java, Smalltalk, C++ oder ähnlicher Programmiersprachen, und herkömmlicher prozeduraler Programmiersprachen, wie zum Beispiel der Programmiersprache „C“ oder ähnlicher Programmiersprachen. Der Programmcode kann entweder vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als unabhängiges Softwarepaket, teilweise auf dem Computer des Benutzers und teilweise auf einem fernen Computer oder vollständig auf einem fernen Computer oder Server ausgeführt werden. Im letzten Szenario kann der ferne Computer mit dem Computer des Benutzers entweder über ein beliebiges Netz verbunden werden, einschließlich eines lokalen Netzes (LAN) oder eines Fernnetzes (WAN), oder die Verbindung kann über einen externen Computer (z.B. über das Internet unter Verwendung eines Internet-Dienstanbieters) hergestellt werden.
  • Nichteinschränkende Beispiele
  • Obwohl spezifische Ausführungsformen der Erfindung offengelegt wurden, wird der Fachmann verstehen, dass an den spezifischen Ausführungsformen Änderungen vorgenommen werden können, ohne von Erfindungsgedanken und Umfang der Erfindung abzuweichen. Der Umfang der Erfindung ist daher nicht auf die spezifische Ausführungsformen beschränkt und die nachfolgenden Patentansprüche sind so zu verstehen, dass sie innerhalb des Umfangs der vorliegenden Erfindung alle diese Anwendungen, Veränderungen und Ausführungsformen abdecken.

Claims (10)

  1. Verfahren für das Erkennen von Objekten in einem digitalen Bild mithilfe eines Informationsverarbeitungssystems; das Verfahren aufweisend: Empfangen mindestens von Positionsdaten, die einem Fahrzeug zugeordnet sind (304); Erhalten von geographischen Informationen, die den Positionsdaten zugeordnet sind (306); auf der Grundlage der geographischen Informationen Ermitteln einer Wahrscheinlichkeit für das Erkennen eines Zielobjekts in einem entsprechenden geographischen Bereich, der dem Fahrzeug zugeordnet ist (310); Vergleichen der Wahrscheinlichkeit mit einem gegebenen Schwellenwert (312); mindestens eines von Aktivieren eines Objekterkennungsprozesses und Halten des Objekterkennungsprozesses in einem aktivierten Zustand, als Reaktion darauf, dass die Wahrscheinlichkeit entweder über oder gleich dem gegebenen Schwellenwert ist, wobei der Objekterkennungsprozess Zielobjekte in mindestens einem Bild erkennt, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung ist (314); und mindestens eines von Deaktivieren des Objekterkennungsprozesses und Halten des Objekterkennungsprozesses in einem deaktivierten Zustand, als Reaktion darauf, dass die Wahrscheinlichkeit unter dem gegebenen Schwellenwert liegt; wobei das Erkennen der Zielobjekte durch den Objekterkennungsprozess in mindestens einem Bild umfasst: Empfangen von mindestens einem Bild, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung eines Fahrzeugs darstellt; Identifizieren einer Gruppe von Umgebungsbedingungen, die einem geographischen Bereich zugeordnet sind, der einem Fahrzeugstandort entspricht; Auswählen eines Beleuchtungsmodells auf der Grundlage der Gruppe von Umgebungsfaktoren (410); und Verarbeiten des mindestens einen Bildes in Bezug auf das Beleuchtungsmodell (412), wobei das Verarbeiten des mindestens einen Bildes in Bezug auf das Beleuchtungsmodell (412) mindestens eines aufweist von: Normalisieren einer Gruppe von Beleuchtungseigenschaften von Objekten in dem mindestens einen Bild; Erzeugen eines beleuchtungsinvarianten Bildes von dem mindestens einen Bild; Erzeugen eines beleuchtungsspezifischen Bildes von dem mindestens einen Bild; und Erzeugen eines beleuchtungssynthetisierten Bildes von dem mindestens einen Bild; wobei das Erkennen der Zielobjekte durch den Objekterkennungsprozess in mindestens einem Bild ferner umfasst: Abrufen mindestens einer Objektvorlage, die dem interessierenden Objekt zugeordnet ist; Auswählen eines Objekterscheinungsmodells auf der Grundlage der Gruppe der Umgebungsfaktoren; Verarbeiten der mindestens einen Objektvorlage in Bezug auf das Beleuchtungsmodell und auf das Objekterscheinungsmodell (406); Analysieren des mindestens einen Bildes, das in Bezug auf die mindestens eine verarbeitete Objektvorlage verarbeitet wurde; und Ermitteln auf der Grundlage des Analysierens, ob das mindestens eine verarbeitete Bild das interessierende Objekt aufweist (416).
  2. Verfahren nach Anspruch 1, wobei die geographischen Informationen eine Karte aufweisen.
  3. Verfahren nach Anspruch 1, wobei das Ermitteln der Wahrscheinlichkeit für das Erkennen des Zielobjekts aufweist: Analysieren der geographischen Informationen; und Ermitteln eines dem entsprechenden Bereich zugeordneten Umgebungskontexts auf der Grundlage des Analysierens, wobei der Umgebungskontext zumindest eine Art des geographischen Bereichs anzeigt, in dem sich das Fahrzeug befindet, wobei die Wahrscheinlichkeit für das Erkennen des Zielobjekts sich auf den Umgebungskontext stützt.
  4. Verfahren nach Anspruch 1, wobei das Ermitteln der Wahrscheinlichkeit für das Erkennen des Zielobjekts aufweist: Analysieren der geographischen Informationen in Bezug auf den entsprechenden geographischen Bereich; und Ermitteln auf der Grundlage des Analysierens, ob die geographischen Informationen mindestens ein dem Zielobjekt zugeordnetes Merkmal aufweisen.
  5. Verfahren nach Anspruch 1, wobei die Gruppe von Umgebungsbedingungen als Reaktion auf mindestens eines von Aktivieren des Objekterkennungsprozesses und Halten des Objekterkennungsprozesses in einem aktivierten Zustand identifiziert wird.
  6. Verfahren nach Anspruch 1, wobei das Verarbeiten der mindestens einen Objektvorlage mindestens eines aufweist von: Normalisieren einer Gruppe von Beleuchtungseigenschaften der mindestens einen Objektvorlage; Erzeugen einer beleuchtungsinvarianten Objektvorlage; Erzeugen einer beleuchtungsspezifischen Objektvorlage von der mindestens einen Objektvorlage; Erzeugen einer beleuchtungssynthetisierten Objektvorlage von der mindestens einen Objektvorlage; und Erzeugen einer an die Erscheinung angepassten Objektvorlage.
  7. Verfahren nach Anspruch 1, wobei die Gruppe von Umgebungsbedingungen mindestens eine aufweist von: eine Wetterbedingung, die dem entsprechenden geographischen Bereich zugeordnet ist; eine Tageszeit, die dem entsprechenden geographischen Bereich zugeordnet ist; eine aktuelle Jahreszeit, die dem entsprechenden geographischen Bereich zugeordnet ist; und eine Lichtbedingung, die dem entsprechenden geographischen Bereich zugeordnet ist.
  8. Verfahren nach Anspruch 1, wobei das Beleuchtungsmodell eines ist von einem beleuchtungsinvarianten Modell, einem beleuchtungsspezifischen Modell und einem synthetisierten Beleuchtungsmodell, das auf mindestens einem anderen Beleuchtungsmodell basiert, das einer unterschiedlichen Gruppe von Umgebungsbedingungen zugeordnet ist.
  9. Informationsverarbeitungssystem für das Erkennen von Objekten in einem digitalen Bild, das Informationsverarbeitungssystem (102,500) aufweisend: einen Speicher (506); einen Prozessor (504), der kommunikativ mit dem Speicher (506) verbunden ist; und ein Objekterkennungssystem (104), das kommunikativ mit dem Speicher (506) und dem Prozessor (504) verbunden ist, wobei das Objekterkennungssystem (104) dazu ausgelegt ist, ein Verfahren auszuführen, das aufweist: Empfangen mindestens von Positionsdaten, die einem Fahrzeug zugeordnet sind; Erhalten von geographischen Informationen, die den Positionsdaten zugeordnet sind; auf der Grundlage der geographischen Informationen Ermitteln einer Wahrscheinlichkeit für das Erkennen eines Zielobjekts in einem entsprechenden geographischen Bereich, der dem Fahrzeug zugeordnet ist; Vergleichen der Wahrscheinlichkeit mit einem gegebenen Schwellenwert; mindestens eines von Aktivieren eines Objekterkennungsprozesses und Halten des Objekterkennungsprozesses in einem aktivierten Zustand, als Reaktion darauf, dass die Wahrscheinlichkeit entweder über oder gleich dem gegebenen Schwellenwert ist, wobei der Objekterkennungsprozess Zielobjekte in mindestens einem Bild erkennt, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung ist; und mindestens eines von Deaktivieren des Objekterkennungsprozesses und Halten des Objekterkennungsprozesses in einem deaktivierten Zustand, als Reaktion darauf, dass die Wahrscheinlichkeit unter dem gegebenen Schwellenwert liegt; wobei das Erkennen der Zielobjekte durch den Objekterkennungsprozess in mindestens einem Bild umfasst: Empfangen von mindestens einem Bild, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung eines Fahrzeugs darstellt; Identifizieren einer Gruppe von Umgebungsbedingungen, die einem geographischen Bereich zugeordnet sind, der einem Fahrzeugstandort entspricht; Auswählen eines Beleuchtungsmodells auf der Grundlage der Gruppe von Umgebungsfaktoren; und Verarbeiten des mindestens einen Bildes in Bezug auf das Beleuchtungsmodell, wobei das Verarbeiten des mindestens einen Bildes in Bezug auf das Beleuchtungsmodell mindestens eines aufweist von: Normalisieren einer Gruppe von Beleuchtungseigenschaften von Objekten in dem mindestens einen Bild; Erzeugen eines beleuchtungsinvarianten Bildes von dem mindestens einen Bild; Erzeugen eines beleuchtungsspezifischen Bildes von dem mindestens einen Bild; und Erzeugen eines beleuchtungssynthetisierten Bildes von dem mindestens einen Bild; wobei das Erkennen der Zielobjekte durch den Objekterkennungsprozess in mindestens einem Bild ferner umfasst: Abrufen mindestens einer Objektvorlage, die dem interessierenden Objekt zugeordnet ist; Auswählen eines Objekterscheinungsmodells auf der Grundlage der Gruppe der Umgebungsfaktoren; Verarbeiten der mindestens einen Objektvorlage in Bezug auf das Beleuchtungsmodell und auf das Objekterscheinungsmodell; Analysieren des mindestens einen Bildes, das in Bezug auf die mindestens eine verarbeitete Objektvorlage verarbeitet wurde; und Ermitteln auf der Grundlage des Analysierens, ob das mindestens eine verarbeitete Bild das interessierende Objekt aufweist.
  10. Computerprogrammprodukt zum Erkennen von Objekten in einem digitalen Bild, das Computerprogrammprodukt aufweisend: ein durch eine Verarbeitungsschaltung lesbares Speichermedium und Speicheranweisungen, die von der Verarbeitungsschaltung für das Ausführen eines Verfahrens durchgeführt werden, das aufweist: Empfangen mindestens von Positionsdaten, die einem Fahrzeug zugeordnet sind; Erhalten von geographischen Informationen, die den Positionsdaten zugeordnet sind; auf der Grundlage der geographischen Daten Ermitteln einer Wahrscheinlichkeit für das Erkennen eines Zielobjekts in einem entsprechenden geographischen Bereich, der dem Fahrzeug zugeordnet ist; Vergleichen der Wahrscheinlichkeit mit einem gegebenen Schwellenwert; mindestens eines von Aktivieren eines Objekterkennungsprozesses und Halten des Objekterkennungsprozesses in einem aktivierten Zustand, als Reaktion darauf, dass die Wahrscheinlichkeit entweder über oder gleich dem gegebenen Schwellenwert ist, wobei der Objekterkennungsprozess Zielobjekte in mindestens einem Bild erkennt, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung ist; und mindestens eines von Deaktivieren des Objekterkennungsprozesses und Halten des Objekterkennungsprozesses in einem deaktivierten Zustand, als Reaktion darauf, dass die Wahrscheinlichkeit unter dem gegebenen Schwellenwert liegt; wobei das Erkennen der Zielobjekte durch den Objekterkennungsprozess in mindestens einem Bild umfasst: Empfangen von mindestens einem Bild, das mindestens ein Einzelbild einer Videobildfolge einer externen Umgebung eines Fahrzeugs darstellt; Identifizieren einer Gruppe von Umgebungsbedingungen, die einem geographischen Bereich zugeordnet sind, der einem Fahrzeugstandort entspricht; Auswählen eines Beleuchtungsmodells auf der Grundlage der Gruppe von Umgebungsfaktoren; und Verarbeiten des mindestens einen Bildes in Bezug auf das Beleuchtungsmodell, wobei das Verarbeiten des mindestens einen Bildes in Bezug auf das Beleuchtungsmodell mindestens eines aufweist von: Normalisieren einer Gruppe von Beleuchtungseigenschaften von Objekten in dem mindestens einen Bild; Erzeugen eines beleuchtungsinvarianten Bildes von dem mindestens einen Bild; Erzeugen eines beleuchtungsspezifischen Bildes von dem mindestens einen Bild; und Erzeugen eines beleuchtungssynthetisierten Bildes von dem mindestens einen Bild; wobei das Erkennen der Zielobjekte durch den Objekterkennungsprozess in mindestens einem Bild ferner umfasst: Abrufen mindestens einer Objektvorlage, die dem interessierenden Objekt zugeordnet ist; Auswählen eines Objekterscheinungsmodells auf der Grundlage der Gruppe der Umgebungsfaktoren; Verarbeiten der mindestens einen Objektvorlage in Bezug auf das Beleuchtungsmodell und auf das Objekterscheinungsmodell; Analysieren des mindestens einen Bildes, das in Bezug auf die mindestens eine verarbeitete Objektvorlage verarbeitet wurde; und Ermitteln auf der Grundlage des Analysierens, ob das mindestens eine verarbeitete Bild das interessierende Objekt aufweist.
DE102012218390.6A 2011-10-20 2012-10-09 Optimierung der Erkennung von Objekten in Bildern Active DE102012218390B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/277,936 2011-10-20
US13/277,936 US9235766B2 (en) 2011-10-20 2011-10-20 Optimizing the detection of objects in images

Publications (2)

Publication Number Publication Date
DE102012218390A1 DE102012218390A1 (de) 2013-04-25
DE102012218390B4 true DE102012218390B4 (de) 2022-09-22

Family

ID=47144403

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012218390.6A Active DE102012218390B4 (de) 2011-10-20 2012-10-09 Optimierung der Erkennung von Objekten in Bildern

Country Status (3)

Country Link
US (2) US9235766B2 (de)
DE (1) DE102012218390B4 (de)
GB (1) GB2495807B (de)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
DE102011085689A1 (de) * 2011-11-03 2013-05-08 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln einer Gruppe aus zumindest zwei benachbart angeordneten Beleuchtungseinheiten während der Fahrt eines Fahrzeugs
CN103577788A (zh) * 2012-07-19 2014-02-12 华为终端有限公司 增强现实的实现方法和装置
US9823745B1 (en) 2012-08-30 2017-11-21 Atheer, Inc. Method and apparatus for selectively presenting content
US9142185B2 (en) 2012-08-30 2015-09-22 Atheer, Inc. Method and apparatus for selectively presenting content
JP5987660B2 (ja) * 2012-11-30 2016-09-07 富士通株式会社 画像処理装置、画像処理方法及びプログラム
JP6063315B2 (ja) * 2013-03-26 2017-01-18 富士フイルム株式会社 真贋判定システム,特徴点登録装置およびその動作制御方法,ならびに照合判定装置およびその動作制御方法
SE539051C2 (sv) * 2013-07-18 2017-03-28 Scania Cv Ab Hantering av detektion hos sensor
JP2015035704A (ja) * 2013-08-08 2015-02-19 株式会社東芝 検出装置、検出方法および検出プログラム
CN103465908B (zh) * 2013-09-13 2017-02-08 广汽吉奥汽车有限公司 一种路面探测方法、装置及车辆
JP6325806B2 (ja) * 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 車両位置推定システム
US9558411B1 (en) * 2014-08-29 2017-01-31 Google Inc. Plane estimation for contextual awareness
CN105654023B (zh) * 2014-11-12 2019-05-03 株式会社理光 识别物体危险性的方法和装置
DE102015200437A1 (de) * 2015-01-14 2016-07-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Ermittlung der Konfidenz einer Objekterkennung
DE102015200434A1 (de) * 2015-01-14 2016-07-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Verbesserung der Objekterkennung bei unterschiedlichenBeleuchtungssituationen
DE102015200433A1 (de) * 2015-01-14 2016-07-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Reduzierung des Testaufwandes bei der Evaluierung eines Objekterkennungssystems
JP6384419B2 (ja) * 2015-07-24 2018-09-05 トヨタ自動車株式会社 動物種類判定装置
US10275669B2 (en) * 2015-09-09 2019-04-30 Lightmetrics Technologies Pvt. Ltd. System and method for detecting objects in an automotive environment
US9875575B2 (en) * 2015-10-07 2018-01-23 Google Llc Smoothing 3D models of objects to mitigate artifacts
US11017477B1 (en) * 2016-09-07 2021-05-25 United Services Automobile Association (Usaa) Digital imagery, audio, and meta-data
JP2018081404A (ja) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 識別方法、識別装置、識別器生成方法及び識別器生成装置
JP6804965B2 (ja) * 2016-12-15 2020-12-23 株式会社日立製作所 画像処理装置、画像処理システム、および画像処理方法
US10902276B2 (en) 2016-12-22 2021-01-26 Samsung Electronics Co., Ltd. Apparatus and method for processing image
KR102407815B1 (ko) * 2016-12-22 2022-06-13 삼성전자주식회사 영상 처리 장치 및 방법
DE102017117594A1 (de) 2017-08-03 2019-02-07 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Automatisierte Erkennung einer Scheinwerferfehlstellung
DE102017214731A1 (de) * 2017-08-23 2019-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen einer hochgenauen Position und zum Betreiben eines automatisierten Fahrzeugs
JP7043755B2 (ja) 2017-08-29 2022-03-30 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
US10586132B2 (en) 2018-01-08 2020-03-10 Visteon Global Technologies, Inc. Map and environment based activation of neural networks for highly automated driving
US10657388B2 (en) * 2018-03-13 2020-05-19 Honda Motor Co., Ltd. Robust simultaneous localization and mapping via removal of dynamic traffic participants
US11501572B2 (en) 2018-03-26 2022-11-15 Nvidia Corporation Object behavior anomaly detection using neural networks
JP7275556B2 (ja) * 2018-12-14 2023-05-18 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
EP3709628B1 (de) * 2019-03-14 2020-12-23 Axis AB Steuerung einer beleuchtungsvorrichtung
CN110086916B (zh) * 2019-05-27 2021-01-08 维沃移动通信(杭州)有限公司 拍照方法及终端
US11281217B2 (en) * 2019-06-25 2022-03-22 Ford Global Technologies, Llc Enhanced vehicle operation
US11151404B2 (en) 2019-12-03 2021-10-19 International Business Machines Corporation Object recognition with dynamic switching of visual recognition processes using an image capturing device
DE102019219144A1 (de) * 2019-12-09 2021-06-10 Continental Automotive Gmbh Verfahren und System zur Bildauswertung für eine Objekterkennung in der Umgebung von Fahrzeugen

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587782B1 (en) 2000-03-14 2003-07-01 Navigation Technologies Corp. Method and system for providing reminders about points of interests while traveling
US6873998B1 (en) 2000-10-18 2005-03-29 Navteq North America, Llc System and method for updating a geographic database using satellite imagery
US20040254729A1 (en) * 2003-01-31 2004-12-16 Browne Alan L. Pre-collision assessment of potential collision severity for road vehicles
US7433889B1 (en) 2002-08-07 2008-10-07 Navteq North America, Llc Method and system for obtaining traffic sign data using navigation systems
US7499949B2 (en) 2002-08-07 2009-03-03 Navteq North America, Llc Method and system for obtaining recurring delay data using navigation systems
JP2004297478A (ja) 2003-03-27 2004-10-21 Fuji Photo Film Co Ltd デジタルカメラ
US7561966B2 (en) 2003-12-17 2009-07-14 Denso Corporation Vehicle information display system
US7460953B2 (en) 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
JP4363642B2 (ja) 2004-07-02 2009-11-11 富士フイルム株式会社 地図表示システム及びデジタルカメラ
JP4321821B2 (ja) * 2005-01-28 2009-08-26 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法
ES2258399B1 (es) * 2005-02-04 2007-11-16 Fico Mirrors, S.A. Metodo y sistema para mejorar la supervision de un ambiente exterior de un vehiculo automovil.
US7728869B2 (en) 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
JP2007155528A (ja) 2005-12-06 2007-06-21 Matsushita Electric Ind Co Ltd 表示制御装置
JP4724043B2 (ja) 2006-05-17 2011-07-13 トヨタ自動車株式会社 対象物認識装置
US7688229B2 (en) 2007-04-30 2010-03-30 Navteq North America, Llc System and method for stitching of video for routes
US8212812B2 (en) * 2007-05-21 2012-07-03 Siemens Corporation Active shape model for vehicle modeling and re-identification
DE102008024707A1 (de) 2008-05-21 2009-11-26 Adc Automotive Distance Control Systems Gmbh Fahrerassistenzsystem zum Fußgängerschutz
JP5649568B2 (ja) 2008-05-21 2015-01-07 アー・デー・ツェー・オートモーティブ・ディスタンス・コントロール・システムズ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 車両と歩行者との衝突を回避するための運転者援助システム
JP5227110B2 (ja) 2008-08-07 2013-07-03 株式会社トプコン Gps付全方位カメラ及び空間データ収集装置
US9672736B2 (en) * 2008-10-22 2017-06-06 Toyota Motor Engineering & Manufacturing North America, Inc. Site map interface for vehicular application
KR20100068062A (ko) 2008-12-12 2010-06-22 엘지전자 주식회사 내비게이션 장치 및 그 방법
US8254670B2 (en) 2009-02-25 2012-08-28 Toyota Motor Engineering & Manufacturing North America, Inc. Self-learning object detection and classification systems and methods
JP2011084224A (ja) 2009-10-18 2011-04-28 Masahide Tanaka モータ駆動可能な車両
KR101410040B1 (ko) 2010-12-08 2014-06-27 주식회사 만도 어린이 보행자 보호 장치 및 그의 어린이 보행자 보호 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Amlacher, K., et al., "Geo-Contextual Priors for Attentive Urban Object Recognition," IEEE International Conference on Robotics and Automation, May 12-17, 2009, pp. 1214-1219
NISHIYAMA, Masashi; KOZAKAYA, Tatsuo; YAMAGUCHI, Osamu: Illumination normalization using quotient image-based techniques. Recent Advances in Face Recognition, 2008, S. 97-108.

Also Published As

Publication number Publication date
GB201216591D0 (en) 2012-10-31
US9405981B2 (en) 2016-08-02
GB2495807A (en) 2013-04-24
US20130101157A1 (en) 2013-04-25
DE102012218390A1 (de) 2013-04-25
US20160092741A1 (en) 2016-03-31
GB2495807B (en) 2013-09-04
US9235766B2 (en) 2016-01-12

Similar Documents

Publication Publication Date Title
DE102012218390B4 (de) Optimierung der Erkennung von Objekten in Bildern
CN110188807B (zh) 基于级联超分辨率网络与改进Faster R-CNN的隧道行人目标检测方法
DE102018105417A1 (de) Fahrzeugortung unter verwendung von kameras
US10628890B2 (en) Visual analytics based vehicle insurance anti-fraud detection
CN110399856B (zh) 特征提取网络训练方法、图像处理方法、装置及其设备
DE112019001310T5 (de) Systeme und verfahren zum reduzieren der menge an datenspeicher beim maschinellen lernen
DE102012207620B4 (de) System und Verfahren für die Lichtsignaldetektierung
Zakaria et al. Lane detection in autonomous vehicles: A systematic review
DE102009049849B4 (de) Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
DE102018101125A1 (de) Rekurrentes tiefes neuronales Faltungsnetzwerk zur Detektion von Objekten
DE102017127346A1 (de) Bremslichterkennung
Yan et al. A low-cost video-based pavement distress screening system for low-volume roads
CN111507226B (zh) 道路图像识别模型建模方法、图像识别方法及电子设备
DE202012013403U1 (de) Erfassen und Verarbeiten adaptiver Bilder mit Bildanalyse-Rückmeldung
DE102013206153A1 (de) Verfahren und system zur robusten neigungseinstellung und zum zuschneiden von nummernschildbildern
JP2010515135A (ja) カメラからのカメラ画像に基づいて位置を判定する装置、方法およびコンピュータ・プログラム
DE202014010966U1 (de) Geo-Foto-Suche basierend auf den zu erwartenden Bedingungen an einem Standort
DE102018116036A1 (de) Training eines tiefen konvolutionellen neuronalen Netzwerks für individuelle Routen
CN111753610B (zh) 天气识别方法及装置
Juneja et al. A systematic review on foggy datasets: Applications and challenges
DE102021116356A1 (de) Einstellung von zielen in fahrzeugnavigationssystemen basierend auf bildmetadaten von tragbaren elektronischen vorrichtungen und von aufgenommenen bildern unter verwendung von nullklick-navigation
CN116597270A (zh) 基于注意力机制集成学习网络的道路损毁目标检测方法
DE102018220018A1 (de) Verfahren zur Objekterkennung mittels Sensorsystem von Fahrzeugen
DE202018100752U1 (de) Bayesische Methodik für georäumliche Objekt-/Merkmalserkennung
CN116188587A (zh) 定位方法、装置及车辆

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: INTERNATIONAL BUSINESS MACHINES CORPORATION, A, US

Free format text: FORMER OWNER: IBM INTERNATIONAL BUSINESS MACHINES CORPORATION, ARMONK, N.Y., US

R082 Change of representative

Representative=s name: RICHARDT PATENTANWAELTE PARTG MBB, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R084 Declaration of willingness to licence
R020 Patent grant now final