Nothing Special   »   [go: up one dir, main page]

DE102019220335A1 - SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION - Google Patents

SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION Download PDF

Info

Publication number
DE102019220335A1
DE102019220335A1 DE102019220335.3A DE102019220335A DE102019220335A1 DE 102019220335 A1 DE102019220335 A1 DE 102019220335A1 DE 102019220335 A DE102019220335 A DE 102019220335A DE 102019220335 A1 DE102019220335 A1 DE 102019220335A1
Authority
DE
Germany
Prior art keywords
image
pixel
network model
driver
view camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019220335.3A
Other languages
German (de)
Inventor
Krishna CHINNI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/388,190 external-priority patent/US10929715B2/en
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of DE102019220335A1 publication Critical patent/DE102019220335A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

Verfahren zum Erzeugen von trainierten semantischen Segmentierungsnetzmodellen und dem Betreiben von Fahrzeugen unter Verwendung des Modells. Ein beispielhaftes Verfahren beinhaltet eine Außenansichtkamera, die dafür ausgelegt ist, Bilder zu erfassen, die eine künstliche Darstellung der Fahrersicht repräsentieren, eine auf den Fahrer gerichtete Kamera, die dafür ausgelegt ist, die Augenbewegungen eines Fahrers zu erfassen, und eine elektronische Steuerung. Die elektronische Steuerung ist dafür ausgelegt, Bilder von den Kameras zu empfangen; das Bild der Augenbewegungen des Fahrers mit der künstlichen Fahrersicht zu kalibrieren; eine pixelgewichtete Wärmekarte der kalibrierten Bilder zu erzeugen; unter Verwendung der pixelgewichteten Wärmekarte und der künstlichen Fahrersicht ein trainiertes semantisches neuronales Segmentierungsnetzmodell und ein trainiertes aufmerksamkeitsbasiertes neuronales Netzmodell zu erzeugen; und das Fahrzeug unter Verwendung des trainierten semantischen neuronalen Segmentierungsnetzmodells und des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells zu betreiben.

Figure DE102019220335A1_0000
Method for generating trained semantic segmentation network models and operating vehicles using the model. An exemplary method includes an exterior view camera configured to capture images that represent an artificial representation of the driver's view, a driver-facing camera configured to capture a driver's eye movements, and electronic control. The electronic control is designed to receive images from the cameras; calibrate the image of the driver's eye movements with the artificial driver's vision; generate a pixel-weighted thermal map of the calibrated images; generate a trained semantic neural segmentation network model and a trained attention-based neural network model using the pixel-weighted heat map and the artificial driver view; and operate the vehicle using the trained semantic neural segmentation network model and the trained attention-based neural network model.
Figure DE102019220335A1_0000

Description

QUERVERWEIS AUF VERWANDTE PATENTANMELDUNGENCROSS REFERENCE TO RELATED PATENT APPLICATIONS

Diese Patentanmeldung beansprucht Priorität vor der vorläufigen US-Patentanmeldung Nr. 62/786.711 , eingereicht am 31. Dezember 2018, deren gesamter Inhalt durch Verweis als insgesamt hierin aufgenommen gilt.This patent application claims priority over the provisional one U.S. Patent Application No. 62 / 786,711 , filed on December 31, 2018, the entire contents of which are incorporated by reference.

GEBIETAREA

Ausführungsformen betreffen unter anderem das Beziehen von Trainingsdaten für ein aufmerksamkeitsbasiertes neuronales Netzmodell und das Verwenden des trainierten Modells für autonome Fahrfunktionen.Embodiments relate, inter alia, to the acquisition of training data for an attention-based neural network model and the use of the trained model for autonomous driving functions.

HINTERGRUNDBACKGROUND

Moderne Fahrzeuge weisen eine autonome oder semiautonome Fahrfunktionalität auf, die semantische Segmentierungsnetzmodelle nutzt. Diese Segmentierungsnetzmodelle werden beispielsweise in Bezug auf eine Objektidentifizierung und Kennzeichnungen, die jedem Pixel in den definierten Objekten zugewiesen sind, trainiert.Modern vehicles have an autonomous or semi-autonomous driving functionality that uses semantic segmentation network models. These segmentation network models are trained, for example, with regard to object identification and identifications that are assigned to each pixel in the defined objects.

KURZDARSTELLUNGSUMMARY

Die Wichtigkeit von Pixeln wird während des Trainings der Segmentierungsnetzmodelle ignoriert, und jedes Pixel wird gleich betrachtet. In Wirklichkeit haben Pixel eine unterschiedliche Relevanz, und einige Pixel sollten als wichtiger betrachtet werden als andere. Auch wenn Segmentierungsnetzmodelle bekannt sind, ist das Trainieren von Segmentierungsnetzmodellen unter Einbeziehung der Verwendung von gewichteten Pixeln für das Darstellen einer unterschiedlichen Wichtigkeit entweder nicht verfügbar oder bei der Nutzung einer fahrerbezogenen Augenverfolgung nicht implementiert.The importance of pixels is ignored during training of the segmentation network models, and each pixel is viewed the same. In reality, pixels have different relevance, and some pixels should be considered more important than others. Even if segmentation network models are known, the training of segmentation network models, including the use of weighted pixels for representing a different importance, is either not available or is not implemented when using driver-related eye tracking.

Hier beschriebene Ausführungsformen stellen unter anderem ein System und ein Verfahren zum Verwenden eines semantischen Segmentierungsmodells bereit, das mit Daten trainiert wird, die bezogen werden, um eine auf Wichtigkeit basierende Pixelgewichtung zu integrieren.Embodiments described herein provide, among other things, a system and method for using a semantic segmentation model that is trained with data that is referenced to incorporate pixel weighting based on importance.

Eine Ausführungsform stellt ein System zum Erzeugen eines trainierten semantischen neuronalen Segmentierungsnetzmodells und eines trainierten aufmerksamkeitsbasierten neuronalen Netzmodells für das Betreiben eines Fahrzeugs bereit. Das System beinhaltet eine Außenansichtkamera, eine auf den Fahrer gerichtete Kamera und eine oder mehrere elektronische Steuerungen. Die ein oder mehreren elektronischen Steuerungen sind dafür ausgelegt, ein Bild von der Außenansichtkamera und ein Bild der Augenbewegungen eines Fahrers von der auf den Fahrer gerichteten Kamera zu empfangen. Die ein oder mehreren elektronischen Steuerungen sind dafür ausgelegt, das Bild der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera zu kalibrieren, um kalibrierte Bilder zu erzeugen, die verwendet werden, um eine pixelgewichtete Wärmekarte der kalibrierten Bilder zu erzeugen. Die ein oder mehreren elektronischen Steuerungen sind außerdem dafür konfiguriert, das trainierte semantische neuronale Segmentierungsnetzmodell unter Verwendung des Bildes von der Außenansichtkamera zu erzeugen, und das trainierte aufmerksamkeitsbasierte neuronale Netzmodell unter Verwendung der pixelgewichteten Wärmekarte zu erzeugen. Die ein oder mehreren elektronischen Steuerungen sind dafür ausgelegt, das Fahrzeug unter Verwendung des trainierten semantischen neuronalen Segmentierungsnetzmodells und des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells zu betreiben.One embodiment provides a system for generating a trained semantic neural segmentation network model and a trained attention-based neural network model for operating a vehicle. The system includes an exterior view camera, a driver-facing camera, and one or more electronic controls. The one or more electronic controls are designed to receive an image from the exterior view camera and an image of a driver's eye movements from the camera directed at the driver. The one or more electronic controls are configured to calibrate the image of the driver's eye movements with the image from the outside view camera to produce calibrated images that are used to generate a pixel-weighted thermal map of the calibrated images. The one or more electronic controls are also configured to generate the trained semantic neural segmentation network model using the image from the outside view camera, and to generate the trained attention-based neural network model using the pixel-weighted thermal map. The one or more electronic controls are designed to operate the vehicle using the trained semantic neural segmentation network model and the trained attention-based neural network model.

Eine andere Ausführungsform stellt ein Verfahren zum Erzeugen eines trainierten semantischen neuronalen Segmentierungsnetzmodells und eines trainierten aufmerksamkeitsbasierten neuronalen Netzmodells für das Betreiben eines Fahrzeugs bereit. Das Verfahren beinhaltet das Empfangen, über eine oder mehrere Steuerungen, eines Bildes von einer Außenansichtkamera und eines Bildes der Augenbewegungen eines Fahrers von einer auf den Fahrer gerichteten Kamera. Die Verfahren beinhaltet außerdem das Kalibrieren, über die ein oder mehreren elektronischen Steuerungen, des Bildes der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera, um kalibrierte Bilder zu erzeugen, die verwendet werden, um eine pixelgewichtete Wärmekarte der kalibrierten Bilder zu erzeugen. Das Verfahren beinhaltet außerdem das Erzeugen, über die ein oder mehreren elektronischen Steuerungen, des trainierten semantischen neuronalen Segmentierungsnetzmodells unter Verwendung des Bildes von der Außenansichtkamera und das Erzeugen des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells unter Verwendung der pixelgewichteten Wärmekarte. Das Verfahren beinhaltet außerdem das Betreiben, über die ein oder mehreren elektronischen Steuerungen, des Fahrzeugs unter Verwendung des trainierten semantischen neuronalen Segmentierungsnetzmodells und des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells.Another embodiment provides a method for generating a trained semantic neural segmentation network model and a trained attention-based neural network model for operating a vehicle. The method includes receiving, via one or more controls, an image from an outside view camera and an image of a driver's eye movements from a camera directed at the driver. The method also includes calibrating, via the one or more electronic controls, the image of the driver's eye movements with the image from the exterior view camera to produce calibrated images that are used to generate a pixel-weighted thermal map of the calibrated images. The method also includes creating, via the one or more electronic controls, the trained semantic neural segmentation network model using the image from the outside view camera and generating the trained attention-based neural network model using the pixel-weighted thermal map. The method also includes operating, via the one or more electronic controls, the vehicle using the trained semantic neural segmentation network model and the trained attention-based neural network model.

Andere Aspekte, Merkmale und Ausführungsformen werden bei Berücksichtigung der ausführlichen Beschreibung sowie der begleitenden Zeichnungen offensichtlich.Other aspects, features, and embodiments will become apparent upon consideration of the detailed description and accompanying drawings.

Figurenliste Figure list

  • 1 ist ein Blockschaltbild eines Systems zum Verbessern des Bezugs von Trainingsdaten für ein semantisches Segmentierungsmodell gemäß einer Ausführungsform. 1 10 is a block diagram of a system for improving the acquisition of training data for a semantic segmentation model according to an embodiment.
  • 2 ist ein Blockschaltbild einer ersten elektronischen Steuerung des Systems von 1 gemäß einer Ausführungsform. 2nd is a block diagram of a first electronic control of the system of 1 according to one embodiment.
  • 3 ist ein Blockschaltbild einer zweiten elektronischen Steuerung des Systems von 1 gemäß einer Ausführungsform. 3rd FIG. 4 is a block diagram of a second electronic control of the system of FIG 1 according to one embodiment.
  • 4 ist ein Blockschaltbild einer Außenansichtkamera des Systems von 1 gemäß einer Ausführungsform. 4th Figure 3 is a block diagram of an exterior view camera of the system of 1 according to one embodiment.
  • 5 ist ein Blockschaltbild einer auf den Fahrer gerichteten Kamera des Systems von 1 gemäß einer Ausführungsform. 5 FIG. 4 is a block diagram of a driver-facing camera of the system of FIG 1 according to one embodiment.
  • 6 ist ein Flussdiagramm eines Verfahrens zum Verwenden einer Bildkalibrierungsengine der elektronischen Steuerung von 2, um, gemäß einer Ausführungsform, eine Eingabe von den Kameras von 1 und 2 zu empfangen und eine pixelgewichtete Wärmekarte basierend auf der Eingabe zu erzeugen. 6 FIG. 10 is a flow diagram of a method of using an image calibration engine of the electronic controller of FIG 2nd to, according to one embodiment, input from the cameras of 1 and 2nd to receive and generate a pixel-weighted heat map based on the input.
  • 7 ist ein Flussdiagramm eines Verfahrens zum Verwenden eines aufmerksamkeitsbasierten neuronalen Netzmodell-Trainers der elektronischen Steuerung von 3, um die pixelgewichtete Wärmekarte und das Außenansichtbild mit einer Kostenfunktion zu integrieren, die beim Trainieren des aufmerksamkeitsbasierten neuronalen Netzmodells gemäß einer Ausführungsform verwendet wird. 7 FIG. 10 is a flow diagram of a method of using an attention-based neural network model trainer of the electronic controller of FIG 3rd to integrate the pixel-weighted thermal map and the exterior view image with a cost function used in training the attention-based neural network model according to one embodiment.
  • 8 ist ein Flussdiagramm eines Verfahrens zum Verwenden eines semantischen neuronalen Segmentierungsnetzmodell-Trainers der elektronischen Steuerung von 3, um das Außenansichtbild beim Trainieren des semantischen neuronalen Segmentierungsnetzmodells gemäß einer Ausführungsform zu integrieren. 8th FIG. 10 is a flow diagram of a method of using a semantic neural segmentation network model trainer of the electronic controller of FIG 3rd to integrate the exterior view image while training the semantic neural segmentation network model according to one embodiment.
  • 9 ist ein Blockschaltbild eines Systems zum Betreiben eines autonomen Fahrzeugs unter Verwendung eines semantischen Segmentierungsklassifikators gemäß einer Ausführungsform. 9 10 is a block diagram of a system for operating an autonomous vehicle using a semantic segmentation classifier according to an embodiment.
  • 10 ist ein Flussdiagramm eines Verfahrens für das Verwenden einer Fahrzeugbetriebsengine der dritten elektronischen Steuerung von 9, um ein Außenansichtbild von einer zweiten Außenansichtkamera zu empfangen und das Bild durch trainierte Modelle zu verarbeiten, um ein Fahrzeug zu betreiben. 10th FIG. 10 is a flowchart of a method for using a vehicle operating engine of the third electronic controller of FIG 9 to receive an exterior view image from a second exterior view camera and process the image by trained models to operate a vehicle.
  • 11 ist eine konzeptuelle Veranschaulichung einer gekennzeichneten Wärmekarte, die in dem Verfahren von 6 erzeugt wurde, um beim Training des aufmerksamkeitsbasierten neuronalen Netzmodells verwendet zu werden. 11 Fig. 3 is a conceptual illustration of a labeled thermal map used in the process of 6 was generated to be used in training the attention-based neural network model.

AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION

Bevor irgendwelche Ausführungsformen im Einzelnen erläutert werden, sei darauf hingewiesen, dass diese Offenbarung in ihrer Anwendung nicht auf die in der nachstehenden Beschreibung dargelegten oder in den nachstehenden Zeichnungen veranschaulichten Konstruktionsdetails und Komponentenanordnungen beschränkt sein soll. Ausführungsformen sind auch für andere Ausgestaltungen ausgelegt und dafür, auf verschiedene Art und Weise praktisch genutzt oder ausgeführt zu werden.Before explaining any embodiments in detail, it should be understood that the application of this disclosure is not intended to be limited to the construction details and component arrangements set forth in the description below or illustrated in the drawings below. Embodiments are also designed for other configurations and for being practically used or implemented in various ways.

Mehrere hardware- und softwarebasierte Vorrichtungen, ebenso wie mehrere unterschiedliche Strukturkomponenten können verwendet werden, um verschiedene Ausführungsform zu implementieren. Zusätzlich können Ausführungsformen Hardware, Software und elektronische Komponenten oder Module beinhalten, die, zum Zwecke der Erörterung, so veranschaulicht und beschrieben sein können, als wenn die meisten Komponenten allein in Hardware implementiert wären. Allerdings würden Durchschnittsfachleute, basierend auf einem Lesen dieser ausführlichen Beschreibung, erkennen, dass, in wenigstens einer Ausführungsform, die elektronikbasierten Aspekte der Erfindung in (beispielsweise auf einem nicht-transitorischen computerlesbaren Medium gespeicherter) Software implementiert sein können, die von einem oder mehreren Prozessoren ausführbar ist. Beispielsweise können in der Beschreibung beschriebene „Steuerungseinheiten“ und „Steuerungen“ einen oder mehrere elektronische Prozessoren, ein oder mehrere Speichermodule mit einem nicht-transitorischen computerlesbaren Medium, eine oder mehrere Kommunikationsschnittstellen, eine oder mehrere anwendungsspezifische integrierte Schaltungen (Application-Specific Integrated Circuits, ASICs) und verschiedene Verbindungen (beispielsweise einen Systembus oder ein oder mehrere Netze), die die verschiedenen Komponenten verbinden, aufweisen.Multiple hardware and software based devices as well as multiple different structural components can be used to implement different embodiments. In addition, embodiments may include hardware, software, and electronic components or modules that, for purposes of discussion, may be illustrated and described as if most of the components were implemented in hardware alone. However, those of ordinary skill in the art, based on reading this detailed description, would recognize that, in at least one embodiment, the electronics-based aspects of the invention may be implemented in software (e.g., stored on a non-transitory computer readable medium) software executable by one or more processors is. For example, “control units” and “controls” described in the description can include one or more electronic processors, one or more memory modules with a non-transitory computer-readable medium, one or more communication interfaces, one or more application-specific integrated circuits (ASICs) ) and various connections (for example a system bus or one or more networks) that connect the various components.

1 veranschaulicht ein Fahrzeugsystem 100 zum Kalibrieren von Bildern außerhalb des Fahrzeugs mit erfassten Augenbewegungen des Fahrers, die verwendet werden, um ein aufmerksamkeitsbasiertes neuronales Netzmodell zu trainieren. Das System 100 beinhaltet ein Fahrzeug 105. Das Fahrzeug 105, auch wenn es als vierrädriges Fahrzeug veranschaulicht ist, kann verschiedene Arten von Fahrzeugkonstruktionen umfassen. Beispielsweise kann es sich bei dem Fahrzeug 105 um ein Automobil, ein Kraftrad, einen Lastkraftwagen, einen Bus, einen Halbtraktor und andere Fahrzeuge handeln. In dem veranschaulichten Beispiel weist das Fahrzeug 105 mehrere Hardwarekomponenten auf, unter anderem eine erste elektronische Steuerung 110, eine erste Außenansichtkamera 115 und eine auf den Fahrer gerichtete Kamera 120. Die erste elektronische Steuerung 110 ist, unter Verwendung einer oder mehrerer Verbindungen, beispielsweise Direktverbindungen und Netzverbindungen (beispielsweise ein Steuerungsnetz oder CAN-Bus), kommunikativ mit der ersten Außenansichtkamera 115, der auf den Fahrer gerichteten Kamera 120 und einer zweiten elektronischen Steuerung 125 verbunden. Drahtgebundene und drahtlose Verbindungen sind möglich. 1 illustrates a vehicle system 100 for calibrating images outside of the vehicle with detected driver eye movements that are used to train an attention-based neural network model. The system 100 includes a vehicle 105 . The vehicle 105 Even though it is illustrated as a four-wheeled vehicle, it can include various types of vehicle designs. For example, the vehicle 105 an automobile, a motorcycle, a truck, a bus, trade a half tractor and other vehicles. In the illustrated example, the vehicle is facing 105 several hardware components, including a first electronic control 110 , a first exterior view camera 115 and a camera aimed at the driver 120 . The first electronic control 110 is communicative with the first exterior view camera using one or more connections, for example direct connections and network connections (for example a control network or CAN bus) 115 , the camera aimed at the driver 120 and a second electronic control 125 connected. Wired and wireless connections are possible.

Die erste Außenansichtkamera 115 ist dafür ausgelegt, Bilder außerhalb des Fahrzeugs zu erfassen. Die auf den Fahrer gerichtete Kamera 120 ist dafür ausgelegt, Augenbewegungen des Fahrers zu erfassen. Die erste Außenansichtkamera 115 und die auf den Fahrer gerichtete Kamera 120 stellen Daten (Bilder) für die erste elektronische Steuerung 110 des Systems 100 bereit.The first exterior view camera 115 is designed to capture images outside the vehicle. The camera aimed at the driver 120 is designed to record driver eye movements. The first exterior view camera 115 and the camera aimed at the driver 120 provide data (images) for the first electronic control 110 of the system 100 ready.

In dem veranschaulichten Beispiel befindet sich die zweite elektronische Steuerung 125 außerhalb des Fahrzeugs 105 und ist über eine oder mehrere Kommunikationsverbindungen und, in diesem Beispiel, über eine drahtlose Verbindung kommunikativ mit der ersten elektronischen Steuerung 110 verbunden. Allerdings kann sich die zweite elektronische Steuerung 125 auch in dem Fahrzeugsystem 100 befinden und über Direktverbindungen oder über ein Fahrzeugnetz oder einen Bus verbunden sein.The second electronic control is in the illustrated example 125 outside the vehicle 105 and is communicative with the first electronic controller over one or more communication links and, in this example, over a wireless link 110 connected. However, the second electronic control can 125 also in the vehicle system 100 located and connected via direct connections or via a vehicle network or a bus.

2 ist ein Blockschaltbild der ersten elektronischen Steuerung 110 des Systems von 1. Die erste elektronische Steuerung 110 weist mehrere elektrische und elektronische Komponenten auf, die Strom, Betriebssteuerung und Schutz für die Komponenten und Module in der ersten elektronischen Steuerung 110 bereitstellen. Die erste elektronische Steuerung 110 weist unter anderem einen ersten elektronischen Prozessor 205 (beispielsweise einen programmierbaren elektronischen Mikroprozessor, einen Mikrocontroller oder eine ähnliche Vorrichtung) und einen ersten Speicher 210 auf. Der erste Speicher 210 ist beispielsweise ein nicht-transitorischer, maschinenlesbarer Speicher. Die erste elektronische Steuerung weist außerdem eine erste Kommunikationsschnittstelle 215 auf. 2nd is a block diagram of the first electronic control 110 of the system of 1 . The first electronic control 110 has multiple electrical and electronic components that provide power, operational control, and protection for the components and modules in the first electronic control 110 provide. The first electronic control 110 has, among other things, a first electronic processor 205 (for example a programmable electronic microprocessor, a microcontroller or a similar device) and a first memory 210 on. The first store 210 is, for example, a non-transitory, machine-readable memory. The first electronic control also has a first communication interface 215 on.

Der erste elektronische Prozessor 205 ist kommunikativ mit dem ersten Speicher 210 und der ersten Kommunikationsschnittstelle 215 verbunden. Der erste Speicher 210 weist eine Bildkalibrierungsengine 220 auf. Die Bildkalibrierungsengine 220 ist beispielsweise eine Software oder ein Satz von computerlesbaren Anweisungen, die/der eine Eingabe von der ersten Außenansichtkamera 115 und der auf den Fahrer gerichteten Kamera 120 kalibriert. Nachdem die Eingabe kalibriert wurde, ist der die erste elektronische Steuerung 110 dafür ausgelegt, die kalibrierte Eingabe und die Eingabe von der ersten Außenansichtkamera 115 für die zweite elektronische Steuerung 125 bereitzustellen. In anderen Ausführungsformen kann sich die Bildkalibrierungsengine 220 in der zweiten elektronischen Steuerung befinden125. In Ausführungsformen, in denen sich die Bildkalibrierungsengine 220 in der zweiten elektronischen Steuerung 125 befindet, stellt die erste elektronische Steuerung 110 die Eingabe von der ersten Außenansichtkamera 115 und der auf den Fahrer gerichteten Kamera 120 direkt für die zweite elektronische Steuerung 125 bereit. Der erste elektronische Prozessor 205, in Koordination mit der im ersten Speicher 210 gespeicherten Software (beispielsweise der vorstehend beschriebenen Software), und die erste Kommunikationsschnittstelle 215 sind dafür ausgelegt, ein oder mehrere der hier beschriebenen Verfahren zu implementieren.The first electronic processor 205 is communicative with the first memory 210 and the first communication interface 215 connected. The first store 210 has an image calibration engine 220 on. The image calibration engine 220 For example, software or a set of computer-readable instructions that input from the first exterior camera 115 and the camera aimed at the driver 120 calibrated. After the input has been calibrated, it is the first electronic control 110 designed for calibrated input and input from the first exterior camera 115 for the second electronic control 125 to provide. In other embodiments, the image calibration engine may itself 220 located in the second electronic control 125. In embodiments in which the image calibration engine 220 in the second electronic control 125 is the first electronic control 110 the input from the first outside view camera 115 and the camera aimed at the driver 120 directly for the second electronic control 125 ready. The first electronic processor 205 , in coordination with that in the first store 210 stored software (e.g. the software described above), and the first communication interface 215 are designed to implement one or more of the methods described here.

Die erste elektronische Steuerung 110 kann in mehreren unabhängigen Steuerungen (beispielsweise programmierbaren elektronischen Steuerungen) implementiert sein, die jeweils dafür ausgelegt sind, spezifische Funktionen oder Unterfunktionen durchzuführen. Zusätzlich kann die erste elektronische Steuerung 110 Untermodule enthalten, die zusätzliche elektronische Prozessoren, Speicher oder anwendungsspezifische integrierte Schaltungen (Application-Specific Integrated Circuits, ASICs) zum Handhaben von Kommunikationsfunktionen, dem Verarbeiten von Signalen und der Anwendung der nachstehend aufgelisteten Verfahren aufweisen. In anderen Ausführungsformen weist die erste elektronische Steuerung 110 zusätzliche, weniger oder andere Komponenten auf.The first electronic control 110 can be implemented in several independent controls (e.g. programmable electronic controls), each designed to perform specific functions or sub-functions. In addition, the first electronic control 110 Include sub-modules that include additional electronic processors, memory, or application-specific integrated circuits (ASICs) to handle communication functions, process signals, and use the methods listed below. In other embodiments, the first electronic controller 110 additional, fewer or different components.

3 ist ein Blockschaltbild der zweiten elektronischen Steuerung 125 des Fahrzeugs 105. Die zweite elektronische Steuerung 125 ist, in Allgemeinen, ähnlich wie die erste elektronische Steuerung 110. Daher werden nachstehend nicht alle Einzelheiten von deren Architektur und deren Verbindungen zu anderen Komponenten beschrieben. Die zweite elektronische Steuerung 125 weist unter anderem einen zweiten elektronischen Prozessor 305 (beispielsweise einen programmierbaren elektronischen Mikroprozessor, einen Mikrocontroller oder eine ähnliche Vorrichtung) und einen zweiten Speicher 310 auf. Der zweite Speicher 310 ist beispielsweise ein nicht-transitorischer, maschinenlesbarer Speicher. Die zweite elektronische Steuerung weist außerdem eine zweite Kommunikationsschnittstelle 315 auf. 3rd is a block diagram of the second electronic control 125 of the vehicle 105 . The second electronic control 125 is, in general, similar to the first electronic control 110 . Therefore, not all details of their architecture and their connections to other components are described below. The second electronic control 125 among other things, has a second electronic processor 305 (e.g., a programmable electronic microprocessor, microcontroller, or similar device) and a second memory 310 on. The second store 310 is, for example, a non-transitory, machine-readable memory. The second electronic control also has a second communication interface 315 on.

Der zweite elektronische Prozessor 305 ist kommunikativ mit dem zweiten Speicher 310 und der zweiten Kommunikationsschnittstelle 315 verbunden. Der zweite Speicher 310 weist einen aufmerksamkeitsbasierten neuronalen Netzmodell-Trainer 320 und einen semantischen neuronalen Segmentierungsnetzmodell-Trainer 325 auf. Bei dem aufmerksamkeitsbasierten neuronalen Netzmodell-Trainer 320 kann es sich beispielsweise um Software oder einen Satz von computerlesbaren Anweisungen handeln, die/der eine Eingabe von der ersten elektronischen Steuerung 110 empfängt und ein aufmerksamkeitsbasiertes neuronales Netzmodell mit der empfangenen Eingabe trainiert, um ein trainiertes aufmerksamkeitsbasiertes neuronales Netzmodell zu erzeugen. Bei dem semantischen Segmentierungsnetzmodell-Trainer 325 kann es sich beispielsweise um Software oder einen Satz von computerlesbaren Anweisungen handeln, die/der eine Eingabe von der ersten elektronischen Steuerung 110 empfängt und ein semantisches neuronales Segmentierungsnetzmodell mit der empfangenen Eingabe trainiert, um ein trainiertes semantisches neuronales Segmentierungsnetzmodell zu erzeugen. In dem veranschaulichten Beispiel stammt die Eingabe von der ersten elektronischen Steuerung 110, die sich im Fahrzeug 105 befindet. Allerdings können, in anderen Ausführungsformen, mehrere Fahrzeuge der zweiten elektronischen Steuerung 125 Eingaben senden.The second electronic processor 305 is communicative with the second memory 310 and the second communication interface 315 connected. The second store 310 has an attention-based neural network model trainer 320 and a semantic neural segmentation network model trainer 325 on. With the attention-based neural network model trainer 320 For example, it can be software or a set of computer-readable instructions that input from the first electronic controller 110 receives and trains an attention-based neural network model with the received input to generate a trained attention-based neural network model. With the semantic segmentation network model trainer 325 For example, it can be software or a set of computer-readable instructions that input from the first electronic controller 110 receives and trains a semantic neural segmentation network model with the received input to generate a trained semantic neural segmentation network model. In the illustrated example, the input comes from the first electronic control 110 that are in the vehicle 105 located. However, in other embodiments, multiple vehicles of the second electronic control can 125 Send entries.

Wie die erste elektronische Steuerung 110 kann auch die zweite elektronische Steuerung 125 in mehreren unabhängigen Steuerungen implementiert sein, die jeweils dafür ausgelegt sind, spezifische Funktionen oder Unterfunktionen durchzuführen. Zusätzlich kann die zweite elektronische Steuerung 125 Untermodule enthalten, die zusätzliche elektronische Prozessoren, Speicher oder anwendungsspezifische integrierte Schaltungen (Application-Specific Integrated Circuits, ASICs) zum Handhaben von Kommunikationsfunktionen, dem Verarbeiten von Signalen und der Anwendung der nachstehend aufgelisteten Verfahren aufweisen. Darüber hinaus weist die zweite elektronische Steuerung 125 zusätzliche, weniger oder andere Komponenten als die gezeigten auf.Like the first electronic control 110 can also use the second electronic control 125 be implemented in several independent controls, each designed to perform specific functions or sub-functions. In addition, the second electronic control 125 Include sub-modules that include additional electronic processors, memory, or application-specific integrated circuits (ASICs) to handle communication functions, process signals, and use the methods listed below. In addition, the second electronic control 125 additional, fewer or different components than those shown.

4 ist ein Blockschaltbild der ersten Außenansichtkamera 115 des Fahrzeugs 105. Die erste Außenansichtkamera 115 weist unter anderem eine dritte Kommunikationsschnittstelle 405, einen ersten Bildsignalprozessor 410 und eine erste Linsen- und Bildsensorbaugruppe 415 auf. In dem System 100 handelt es sich bei der Kamera um eine nach vom gerichtete Kamera, die dergestalt ausgelegt ist, dass die bereitgestellten Bilder dem ähneln, was der Fahrer beim Blick durch die Windschutzscheibe des Fahrzeugs 105 nach außen sieht. 4th Fig. 3 is a block diagram of the first outside view camera 115 of the vehicle 105 . The first exterior view camera 115 has, among other things, a third communication interface 405 , a first image signal processor 410 and a first lens and image sensor assembly 415 on. In the system 100 The camera is a rear-facing camera that is designed in such a way that the images provided resemble what the driver looks through the windshield of the vehicle 105 looks outside.

5 ist ein Blockschaltbild der auf den Fahrer gerichteten Kamera 120 des Fahrzeugs 105. Die auf den Fahrer gerichtete Kamera 120 weist unter anderem eine vierte Kommunikationsschnittstelle 505, einen zweiten Bildsignalprozessor 510 und eine zweite Linsen- und Bildsensorbaugruppe 515 auf. Wie der Name impliziert, ist die auf den Fahrer gerichtete Kamera 120 dem Fahrer zugewandt und ist dafür ausgelegt, die Augenbewegungen des Fahrers zu verfolgen. Wie nachstehend ausführlicher erläutert, werden die verfolgten Augenbewegungen verwendet, um Bilder von der ersten Außenansichtkamera 115 zu kalibrieren. 5 is a block diagram of the driver-facing camera 120 of the vehicle 105 . The camera aimed at the driver 120 has, among other things, a fourth communication interface 505 , a second image signal processor 510 and a second lens and image sensor assembly 515 on. As the name implies, the camera is aimed at the driver 120 faces the driver and is designed to track the driver's eye movements. As explained in more detail below, the tracked eye movements are used to capture images from the first outside view camera 115 to calibrate.

Bilder, die von der ersten Außenansichtkamera 115 und der auf den Fahrer gerichteten Kamera 120 erfasst werden, werden für die Bildkalibrierungsengine 220 bereitgestellt. 6 veranschaulicht ein beispielhaftes Verfahren 600 der Bildkalibrierungsengine 220. Die Bildkalibrierungsengine 220 steuert die Kalibrierung der Bilder und erzeugt eine kalibrierte Wärmekarte. Auch wenn semantische Segmentierungsnetzmodelle derzeit nur mit Kennzeichnungen, die Objekte in einem Bild kategorisieren, und Vorhersagen dazu, für welche Kennzeichnung jedes Pixel relevant ist, trainiert werden, entsteht auf diese Weise ein semantisches Segmentierungsmodell, bei dem jedes Pixel oder jede Gruppe von Pixeln in einem Objekt eine gleiche Relevanz hat. Allerdings verarbeitet ein menschlicher Verstand jedes Objekt in einem Blickfeld nicht mit gleicher Relevanz. Somit ist das Schauen auf eine Augenbewegung des Fahrers in Relation zu den Bildern, die von der ersten Außenansichtkamera 115 erfasst werden, vorteilhaft und stellt eine zweite Relevanzebene oder Information von Interesse für Pixel in einem Objekt bereit, das in Bildern enthalten ist, die von der ersten Außenansichtkamera 115 erfasst werden.Images from the first exterior camera 115 and the camera aimed at the driver 120 are captured for the image calibration engine 220 provided. 6 illustrates an exemplary method 600 the image calibration engine 220 . The image calibration engine 220 controls the calibration of the images and generates a calibrated heat map. Even if semantic segmentation network models are currently only trained with labels that categorize objects in an image and predictions as to which label each pixel is relevant, a semantic segmentation model is created in this way, in which each pixel or group of pixels in one Object has the same relevance. However, a human mind does not process every object in a field of view with the same relevance. Thus, looking at a driver's eye movement in relation to the pictures taken by the first exterior view camera 115 are detected, advantageous and provides a second level of relevance or information of interest for pixels in an object contained in images by the first exterior view camera 115 are recorded.

In Schritt 605 empfängt der erste elektronische Prozessor 205 ein erstes Bild von der ersten Außenansichtkamera 115. Das erste Bild wird als künstliche Darstellung der Fahrersicht verwendet. In Schritt 610 wird ein zweites Bild der Augenbewegung des Fahrers empfangen. Als Nächstes wird eine Kalibrierung durchgeführt, um zu bestimmen, welche Pixel der Augenbewegung des Fahrers entsprechen (Schritt 615). Die Kalibrierung von Pixeln auf die Augenbewegung wird durch eine Pixelgewichtung basierend auf dem Mittelpunkt des Fahrerblicks (d. h., wohin der Fahrer gerade schaut) erzielt. Bekannte Techniken zum Bestimmen des Mittelpunkts des Blickes einer Person können in beschriebenen Ausführungsformen verwendet werden. Unter Bezugnahme auf die Gewichtung wird, in einem Beispiel, wenn der Fahrer auf einen Fußgänger schaut, der gerade die Straße überquert, der Fußgänger stärker gewichtet als ein Vogel, der am Himmel fliegt. In einem Fall wird jedem Pixel in dem Bild von der Außenansichtkamera eine Gewichtung zugewiesen, die auf dem Bild der Augenbewegungen des Fahrers basiert. Die kalibrierten Bilder werden dann von dem ersten elektronischen Prozessor 205 verarbeitet, um eine pixelgewichtete Wärmekarte zu erzeugen (Schritt 620). In einem Beispiel gibt die pixelgewichtete Wärmekarte Gewichtungen durch die Dunkelheit von Farbe an. Je dunkler die Farbe in der Wärmekarte, desto höher die Gewichtung des entsprechenden Pixels. In anderen Ausführungsformen wird die Gewichtung von Pixeln in anderen Formen dargestellt. Beispielsweise kann eine Form ein Nummernort von Pixeln mit entsprechenden Gewichtungswerten sein. Sobald die Bilder kalibriert sind, wird die Darstellung der kalibrierten Bilder (beispielsweise die Wärmekarte) für die zweite elektronische Steuerung 125 bereitgestellt (Schritt 625). In einer Ausführungsform kann die Darstellung der kalibrierten Bilder nach dem Erzeugen für die zweite elektronische Steuerung 125 bereitgestellt werden. Allerdings können, in anderen Ausführungsformen, die kalibrierten Bilder an einem Datenspeicherort gespeichert werden und zu einem späteren Zeitpunkt an die zweite elektronische Steuerung 125 übertragen werden.In step 605 receives the first electronic processor 205 a first picture from the first exterior view camera 115 . The first image is used as an artificial representation of the driver's view. In step 610 a second image of the driver's eye movement is received. Next, a calibration is performed to determine which pixels correspond to the driver's eye movement (step 615 ). The calibration of pixels for eye movement is accomplished by pixel weighting based on the center of the driver's gaze (ie, where the driver is looking). Known techniques for determining the center of a person's gaze can be used in described embodiments. Referring to the weighting, in one example, when the driver looks at a pedestrian crossing the street, the pedestrian is weighted more than a bird flying in the sky. In one case, each pixel in the image is assigned a weight by the outside view camera based on the image of the driver's eye movements. The calibrated images are then sent from the first electronic processor 205 processed to generate a pixel weighted thermal map (step 620 ). In one example there is the pixel-weighted heat map Weightings by the darkness of color. The darker the color in the thermal map, the higher the weighting of the corresponding pixel. In other embodiments, the weighting of pixels is represented in other shapes. For example, a shape can be a number location of pixels with corresponding weighting values. As soon as the images are calibrated, the representation of the calibrated images (for example the heat map) for the second electronic control 125 provided (step 625 ). In one embodiment, the representation of the calibrated images after generation for the second electronic control 125 to be provided. However, in other embodiments, the calibrated images can be stored in a data storage location and at a later time to the second electronic controller 125 be transmitted.

7 veranschaulicht ein beispielhaftes Verfahren 700 des aufmerksamkeitsbasierten neuronalen Netzmodell-Trainers 320. In Schritt 705 empfängt der aufmerksamkeitsbasierte neuronale Netzmodell-Trainer 320 eine pixelgewichtete Wärmekarte und ein Außenansichtbild, das von der ersten Außenansichtkamera 115 erfasst worden ist. Wie schon angemerkt, werden semantische Segmentierungsmodelle derzeit unter Verwendung von Kennzeichnungen trainiert, um Pixel in Objektgruppen zu klassifizieren, und sie berücksichtigen keine Pixelgewichtung. In der beispielhaften Ausführungsform wird die pixelgewichtete Wärmekarte als klassifizierende Kennzeichnung und das Außenansichtbild als Eingabe verwendet. Das Training kann durch Verwenden einer Kreuzentropie-Kostenfunktion erfolgen. Der zweite elektronische Prozessor 305 trainiert das Modell unter Verwendung einer Kostenfunktion, die die Gewichtung von Pixeln einbezieht, welche von der pixelgewichteten Wärmekarte dargestellt werden (Schritt 710). 7 illustrates an exemplary method 700 of the attention-based neural network model trainer 320 . In step 705 receives the attention-based neural network model trainer 320 a pixel-weighted thermal map and an exterior view image taken by the first exterior view camera 115 has been recorded. As noted, semantic segmentation models are currently trained using labels to classify pixels in object groups and do not take pixel weighting into account. In the exemplary embodiment, the pixel-weighted thermal map is used as a classification identifier and the exterior view image is used as input. Training can be done using a cross entropy cost function. The second electronic processor 305 trains the model using a cost function that includes the weighting of pixels represented by the pixel-weighted thermal map (step 710 ).

8 veranschaulicht ein beispielhaftes Verfahren 800 des semantischen neuronalen Segmentierungsnetzmodell-Trainers 325. In Schritt 805 empfängt der semantische neuronale Segmentierungsnetzmodell-Trainer 325 ein Außenansichtbild von der ersten Außenansichtkamera 115. Der zweite elektronische Prozessor 305 trainiert das Modell unter Verwendung einer Kreuzentropie-Kostenfunktion, die das Außenansichtbild einbezieht (Schritt 810). Auch wenn eine Kreuzentropie-Kostenfunktion in einem Beispiel verwendet wird, kann in anderen Ausführungsformen eine andere Kostenfunktion verwendet werden. Das trainierte semantische neuronale Segmentierungsnetzmodell stellt einen Mechanismus für das Analysieren von Bildern und das Kategorisieren von Segmentierungsmerkmalen in einem Bild bereit. 8th illustrates an exemplary method 800 of the semantic neural segmentation network model trainer 325 . In step 805 receives the semantic neural segmentation network model trainer 325 an exterior view image from the first exterior view camera 115 . The second electronic processor 305 trains the model using a cross entropy cost function that includes the exterior view image (step 810 ). Although a cross entropy cost function is used in one example, another cost function may be used in other embodiments. The trained semantic neural segmentation network model provides a mechanism for analyzing images and categorizing segmentation features in an image.

Nachdem das trainierte semantische neuronale Segmentierungsnetzmodell und das trainierte aufmerksamkeitsbasierte neuronale Netzmodell erzeugt worden sind, können Fahrzeuge mit autonomer Fahrfunktionalität die Modelle in autonome und semiautonome Fahrsysteme integrieren, und ein Fahrzeug kann gemäß den Modellen betrieben werden. 9 veranschaulicht ein automatisiertes Fahrzeugsystem 900 zum Betreiben eines automatisiert fahrenden Fahrzeugs. In dem veranschaulichten Beispiel beinhaltet das automatisierte Fahrzeugsystem 900 eine ähnliche Architektur wie das Fahrzeug 105 von 1. Allerdings verfügt das automatisierte Fahrzeugsystem 900 nicht über eine auf den Fahrer gerichtete Kamera. Die Hardwarekomponenten in dem automatisierten Fahrzeugsystem 900 weisen eine dritte elektronischen Steuerung 905 und eine zweite Außenansichtkamera 910 auf. Die dritte elektronische Steuerung 905 ist kommunikativ mit der zweiten Außenansichtkamera 910 verbunden.After the trained semantic neural segmentation network model and the trained attention-based neural network model have been generated, vehicles with autonomous driving functionality can integrate the models into autonomous and semi-autonomous driving systems, and a vehicle can be operated according to the models. 9 illustrates an automated vehicle system 900 for operating an automated vehicle. In the illustrated example, the automated vehicle system includes 900 a similar architecture to the vehicle 105 from 1 . However, the automated vehicle system 900 not a camera aimed at the driver. The hardware components in the automated vehicle system 900 have a third electronic control 905 and a second outside view camera 910 on. The third electronic control 905 is communicative with the second exterior camera 910 connected.

Die zweite Außenansichtkamera 910 ist dafür ausgelegt, Bilder außerhalb des automatisiert fahrenden Fahrzeugs zu erfassen. Die zweite Außenansichtkamera 910 stellt Daten (Bilder) für die dritte elektronische Steuerung 905 des Systems 900 bereit. Die dritte elektronische Steuerung 905 weist unter anderem einen dritten elektronischen Prozessor 915 (beispielsweise einen programmierbaren elektronischen Mikroprozessor, einen Mikrocontroller oder eine ähnliche Vorrichtung) und einen dritten Speicher 920 auf Kommunikationsverbindungen zwischen dem dritten elektronischen Prozessor 915 und dem dritten Speicher 920 ähneln den Verbindungen zwischen den vorstehend beschriebenen elektronischen Prozessoren und dem Speicher. Der dritte Speicher 920 ist beispielsweise ein nicht-transitorischer, maschinenlesbarer Speicher. Der dritte Speicher 920 weist eine Fahrzeugbetriebsengine 930 auf. Die Fahrzeugbetriebsengine 930 ist beispielsweise Software oder ein Satz von computerlesbaren Anweisungen, die/der eine Eingabe von der zweiten Außenansichtkamera 910 verarbeitet und generierte Bildmerkmale für autonome und semiautonome Fahrsysteme bereitstellt. Der dritte elektronische Prozessor 915 ist, in Koordination mit der im dritten Speicher 920 gespeicherten Software (beispielsweise der vorstehend beschriebenen Software), dafür ausgelegt, ein oder mehrere der hier beschriebenen Verfahren zu implementieren.The second exterior view camera 910 is designed to capture images outside of the automated vehicle. The second exterior view camera 910 provides data (pictures) for the third electronic control 905 of the system 900 ready. The third electronic control 905 among other things, has a third electronic processor 915 (e.g., a programmable electronic microprocessor, microcontroller, or similar device) and a third memory 920 on communication links between the third electronic processor 915 and the third memory 920 are similar to the connections between the electronic processors described above and the memory. The third store 920 is, for example, a non-transitory, machine-readable memory. The third store 920 has a vehicle operating engine 930 on. The vehicle operating engine 930 For example, software or a set of computer-readable instructions that input from the second exterior camera 910 processed and generated image features for autonomous and semi-autonomous driving systems. The third electronic processor 915 is in coordination with that in the third memory 920 stored software (for example, the software described above), designed to implement one or more of the methods described herein.

10 veranschaulicht ein beispielhaftes Verfahren 1000 der Fahrzeugbetriebsengine 930, die autonome und semiautonome Fahrsysteme steuert, welche sogenannte fortschrittliche Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADASs) aufweisen. Beispiele für ADASs beinhalten Spurerkennungs- und Spurhaltesysteme, Auffahrwarn- und Kollisionsvermeidungssysteme, Objekterkennungssysteme und Freiraumerkennungssysteme. In Schritt 1005 wird ein von der zweiten Außenansichtkamera 910 erfasstes Außenansichtbild von einer dritten elektronischen Steuerung 905 empfangen. Das Außenansichtbild wird dann von dem trainierten semantischen neuronalen Segmentierungsnetzmodell verarbeitet, das in Verfahren 800 trainiert wurde. Die Verarbeitung des Außenansichtbilds mit dem semantischen neuronalen Segmentierungsnetzmodell extrahiert Segmentierungsmerkmale (Schritt 1010). In einem Beispiel identifiziert die Extraktion von Segmentierungsmerkmalen das Vorhandensein eines Fahrzeugs. Das Außenansichtbild wird außerdem von dem trainierten aufmerksamkeitsbasierten neuronalen Netzmodell verarbeitet, das in Verfahren 700 trainiert wurde. Eine pixelgewichtete Wärmekarte wird anhand der Verarbeitung des Außenansichtbilds mit dem aufmerksamkeitsbasierten neuronalen Netzmodell erzeugt (Schritt 1015). Die pixelgewichtete Wärmekarte stellt eine von dem aufmerksamkeitsbasierten neuronalen Netzmodell getätigte Vorhersage dar, die eine Wichtigkeit von Pixeln in einem Bild basierend auf einem Training anhand von Daten der Augenbewegungen eines Fahrers angibt. Nachdem die pixelgewichtete Wärmekarte und die Segmentierungsmerkmale bezogen worden sind, werden die Merkmale und die Wärmekarte verkettet (Schritt 1020). Als Nächstes werden die verketteten Segmentierungsmerkmale und die Wärmekarte mit einer modifizierten Kostenfunktion eines Segmentierungsklassifikators verarbeitet (Schritt 1025). In einigen Ausführungsformen kann die Kostenfunktion des Segmentierungsklassifikators modifiziert sein, um beide Eingaben zu akzeptieren, ohne dass die Eingaben verkettet sind. Der Segmentierungsklassifikator verwendet eine Kreuzentropie-Kostenfunktion, die die Gewichtung von Pixeln, welche von der pixelgewichteten Wärmekarte dargestellt werden, sowie die Segmentierungsmerkmale einbezieht. Ein Beispiel für eine Kreuzentropie-Kostenfunktion lautet wie folgt: p i x e l c l a s s y t r u e log ( y p r e d i c t )

Figure DE102019220335A1_0001
10th illustrates an exemplary method 1000 the vehicle operating engine 930 , which controls autonomous and semi-autonomous driving systems, which have so-called advanced driver assistance systems (ADASs). Examples of ADASs include lane detection and lane keeping systems, collision warning and collision avoidance systems, object detection systems and free space detection systems. In step 1005 becomes one of the second exterior view camera 910 captured external view image from a third electronic control 905 receive. The exterior view image is then processed by the trained semantic neural segmentation network model, which is in process 800 was trained. Processing the exterior view image with the semantic neural segmentation network model extracts segmentation features (step 1010 ). In one example, segmentation feature extraction identifies the presence of a vehicle. The exterior view image is also processed by the trained attention-based neural network model that is in process 700 was trained. A pixel-weighted heat map is generated based on the processing of the exterior view image with the attention-based neural network model (step 1015 ). The pixel-weighted heat map represents a prediction made by the attention-based neural network model, which indicates the importance of pixels in an image based on training based on data from a driver's eye movements. After the pixel-weighted heat map and the segmentation features have been obtained, the features and the heat map are chained (step 1020 ). Next, the chained segmentation features and the thermal map are processed with a modified cost function of a segmentation classifier (step 1025 ). In some embodiments, the segmentation classifier's cost function may be modified to accept both inputs without the inputs being chained. The segmentation classifier uses a cross entropy cost function that includes the weighting of pixels represented by the pixel-weighted thermal map and the segmentation features. An example of a cross entropy cost function is as follows: p i x e l c l a s s y t r u e log ( y p r e d i c t )
Figure DE102019220335A1_0001

Unter Verwendung der pixelgewichteten Wärmekarte wird Gleichung 1 wie folgt geändert: p i x e l c l a s s y t r u e w p i x e l log ( y p r e d i c t )

Figure DE102019220335A1_0002
wpixel ist hierbei die mit jedem Pixel verknüpfte Gewichtung, die basierend auf der Gewichtung bestimmt wird, welche als Teil der Korrelation von Blickinformationen von der auf den Fahrer gerichteten Kamera 120 zu den Bildern von der ersten Außenkamera 115 durchgeführt wird, bestimmt durch die Kalibrierungsengine 220 in Verfahren 600. Als Nächstes wird das Fahrzeug gemäß der Verarbeitung der verketteten Segmentierungsmerkmale und der pixelgewichteten Wärmekarte mit dem Segmentierungsklassifikator betrieben.Using the pixel weighted heat map, equation 1 is changed as follows: p i x e l c l a s s y t r u e w p i x e l log ( y p r e d i c t )
Figure DE102019220335A1_0002
w pixel is the weighting associated with each pixel, which is determined based on the weighting, which is part of the correlation of gaze information from the camera directed at the driver 120 to the pictures from the first outdoor camera 115 is performed, determined by the calibration engine 220 in proceedings 600 . Next, the vehicle is operated with the segmentation classifier according to the processing of the concatenated segmentation features and the pixel weighted thermal map.

Auch wenn eine Kreuzentropie-Kostenfunktion in einem Beispiel verwendet wird, kann in anderen Ausführungsformen eine andere Kostenfunktion verwendet und verändert werden, um die Gewichtung von Pixeln einzubeziehen, die von der Bildkalibrierungsengine 220 bestimmt werden.Although a cross entropy cost function is used in one example, another cost function may be used and altered in other embodiments to include the weighting of pixels provided by the image calibration engine 220 be determined.

Die Gewichtung von Pixeln, die wie vorstehend angegeben durch die Bildkalibrierung bestimmt wird, wird als eine pixelgewichtete Wärmekarte dargestellt. 11 ist eine Veranschaulichung einer pixelgewichteten Wärmekarte 1100 gemäß einer Ausführungsform. In dem bereitgestellten Beispiel steht der Schattierungsgrad einer Region für die Gewichtung der Pixel in der Region. Beispielsweise hat der Bereich ohne Schattierung 1105 eine sehr geringe bis gar keine Gewichtung, während die am stärksten schattierte Region 1110 die höchste Gewichtung hat. In dem veranschaulichten Beispiel sind Pixel zu Regionen mit einer zugewiesenen Gewichtung gruppiert. Allerdings können die Pixel in der Gruppe tatsächliche Gewichtungen aufweisen, die innerhalb einer Toleranz der zugewiesenen Gewichtung liegen, beispielsweise innerhalb von 1 % der zugewiesenen Gewichtung. In anderen Ausführungsformen gibt es keine Regionen, und bei der Gewichtung der Pixel handelt es sich um tatsächliche Werte, die durch Kalibrieren der Augenbewegungen eines Fahrers mit dem Außenansichtbild empfangen werden.The weighting of pixels determined by the image calibration as indicated above is presented as a pixel weighted thermal map. 11 Figure 3 is an illustration of a pixel weighted thermal map 1100 according to one embodiment. In the example provided, the degree of shading of a region represents the weighting of the pixels in the region. For example, the area has no shading 1105 a very little to no weighting, while the most shaded region 1110 has the highest weight. In the illustrated example, pixels are grouped into regions with an assigned weight. However, the pixels in the group may have actual weights that are within a tolerance of the assigned weight, for example within 1% of the assigned weight. In other embodiments, there are no regions and the weighting of the pixels are actual values received by calibrating a driver's eye movements with the exterior view image.

Durch Hinzufügen von Gewichtungen zu diesen Pixeln wird die autonome und semiautonome Fahrfunktionalität verbessert, beispielsweise das Ignorieren von Objekten, die weniger relevant sind, und das Ergreifen von Maßnahmen (beispielsweise Bremsen, Steuern oder Beschleunigen) basierend auf Objekten mit höherer Relevanz.Adding weights to these pixels improves autonomous and semi-autonomous driving functionality, such as ignoring objects that are less relevant and taking action (such as braking, controlling, or accelerating) based on objects that are more relevant.

Auch wenn eine bestimmte Reihenfolge von Schritten in den Verfahren angegeben ist, die in 6-8 und 10 veranschaulicht werden, können der Zeitablauf, die Abfolge und die Einbeziehung von Schritten gegebenenfalls variieren, ohne den Zweck und die Vorteile der bereitgestellten Beispiele in Abrede zu stellen.Even if a certain sequence of steps is given in the procedures that are described in 6-8 and 10th As illustrated, the timing, sequence, and inclusion of steps may vary without compromising the purpose and advantages of the examples provided.

Somit stellen die hier beschriebenen Ausführungsformen unter anderem ein System und ein Verfahren zum Erfassen und Kalibrieren von Bildern bereit, um eine Darstellung von kalibrierten Bildern zu erzeugen, die eine Gewichtung von Pixeln basierend auf der Relevanz angibt. Verschiedene Merkmale und Vorteile der Ausführungsformen sind in den nachstehenden Ansprüchen dargelegt.Thus, the embodiments described herein provide, among other things, a system and method for capturing and calibrating images to produce a representation of calibrated images that indicates a weighting of pixels based on relevance. Various features and advantages of the embodiments are set out in the claims below.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent literature cited

  • US 62786711 [0001]US 62786711 [0001]

Claims (17)

System zum Erzeugen eines trainierten semantischen neuronalen Segmentierungsnetzmodells und eines trainierten aufmerksamkeitsbasierten neuronalen Netzmodells für das Betreiben eines Fahrzeugs, wobei das System umfasst: eine Außenansichtkamera; eine auf den Fahrer gerichtete Kamera; eine oder mehrere elektronische Steuerungen, dafür ausgelegt: ein Bild von der Außenansichtkamera zu empfangen; ein Bild der Augenbewegungen eines Fahrers von der auf den Fahrer gerichteten Kamera zu empfangen; das Bild der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera zu kalibrieren, um kalibrierte Bilder zu erzeugen; eine pixelgewichtete Wärmekarte der kalibrierten Bilder zu erzeugen; das trainierte semantische neuronale Segmentierungsnetzmodell unter Verwendung des Bildes von der Außenansichtkamera zu erzeugen; das trainierte aufmerksamkeitsbasierte neuronale Netzmodell unter Verwendung der pixelgewichteten Wärmekarte und des Bildes von der Außenansichtkamera zu erzeugen; und das Fahrzeug unter Verwendung des trainierten semantischen neuronalen Segmentierungsnetzmodells und des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells zu betreiben. A system for generating a trained semantic neural segmentation network model and a trained attention-based neural network model for operating a vehicle, the system comprising: an outside view camera; a camera aimed at the driver; one or more electronic controls, designed for: receive an image from the outside view camera; receive an image of a driver's eye movements from the driver-facing camera; calibrate the image of the driver's eye movements with the image from the outside view camera to produce calibrated images; generate a pixel-weighted thermal map of the calibrated images; generate the trained semantic neural segmentation network model using the image from the outside view camera; generate the trained attention-based neural network model using the pixel-weighted thermal map and the image from the outside view camera; and operate the vehicle using the trained semantic neural segmentation network model and the trained attention-based neural network model. System gemäß Anspruch 1, wobei eine erste elektronische Steuerung das Bild von der Außenansichtkamera empfängt; das Bild der Augenbewegungen eines Fahrers von der auf den Fahrer gerichteten Kamera empfängt; das Bild der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera kalibriert, um kalibrierte Bilder zu erzeugen; und die pixelgewichtete Wärmekarte der kalibrierten Bilder erzeugt und wobei eine zweite elektronische Steuerung die pixelgewichtete Wärmekarte der kalibrierten Bilder und das Bild von der Außenansichtkamera empfängt.System according to Claim 1 wherein a first electronic controller receives the image from the outside view camera; receives the image of a driver's eye movements from the driver-facing camera; the image of the driver's eye movements calibrated with the image from the outside view camera to produce calibrated images; and generates the pixel-weighted thermal map of the calibrated images, and wherein a second electronic controller receives the pixel-weighted thermal map of the calibrated images and the image from the outside view camera. System gemäß Anspruch 2, wobei die zweite elektronische Steuerung dafür ausgelegt ist, das trainierte semantische neuronale Segmentierungsnetzmodell und das trainierte aufmerksamkeitsbasierte neuronale Netzmodell mit einer Kostenfunktion zu erzeugen, die die pixelgewichtete Wärmekarte einbezieht.System according to Claim 2 , wherein the second electronic controller is designed to generate the trained semantic neural segmentation network model and the trained attention-based neural network model with a cost function that includes the pixel-weighted heat map. System gemäß Anspruch 3, wobei die zweite elektronische Steuerung ferner dafür ausgelegt ist, einen semantischen Segmentierungsklassifikator mit einer Kostenfunktion zu trainieren, die die pixelgewichtete Wärmekarte einbezieht.System according to Claim 3 , wherein the second electronic controller is further configured to train a semantic segmentation classifier with a cost function that includes the pixel-weighted heat map. System gemäß Anspruch 2, wobei die zweite elektronische Steuerung dafür ausgelegt ist, pixelgewichtete Wärmekarten von mehreren Fahrzeugen zu empfangen.System according to Claim 2 , wherein the second electronic control is designed to receive pixel-weighted heat cards from several vehicles. System gemäß Anspruch 1, wobei die Außenansichtkamera eine nach vorn gerichtete Kamera ist.System according to Claim 1 , with the outside view camera being a front-facing camera. System gemäß Anspruch 1, wobei die ein oder mehreren elektronischen Steuerungen dafür ausgelegt sind, das Bild der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera zu kalibrieren, indem jedem Pixel in dem Bild von der Außenansichtkamera eine Gewichtung zugewiesen wird, die auf dem Bild der Augenbewegungen des Fahrers basiert.System according to Claim 1 , wherein the one or more electronic controls are configured to calibrate the driver's eye movement image with the image from the exterior view camera by assigning a weight to each pixel in the image from the exterior view camera based on the image of the driver's eye movement . System gemäß Anspruch 1, wobei das Erzeugen des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells das Verwenden der pixelgewichteten Wärmekarte als klassifizierende Kennzeichnung und des Außenansichtbildes als eine Eingabe beinhaltet.System according to Claim 1 , wherein the generation of the trained attention-based neural network model includes using the pixel-weighted heat map as a classification identifier and the exterior view image as an input. Verfahren zum Erzeugen eines trainierten semantischen neuronalen Segmentierungsnetzmodells und eines trainierten aufmerksamkeitsbasierten neuronalen Netzmodells für das Betreiben eines Fahrzeugs, wobei das Verfahren umfasst: Empfangen, über eine oder mehrere elektronische Steuerungen, eines Bildes von einer Außenansichtkamera; Empfangen, über die ein oder mehreren elektronischen Steuerungen, eines Bildes der Augenbewegungen eines Fahrers von einer auf den Fahrer gerichteten Kamera; Kalibrieren, über die ein oder mehreren elektronischen Steuerungen, des Bildes der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera, um kalibrierte Bilder zu erzeugen; Erzeugen, über die ein oder mehreren elektronischen Steuerungen, einer pixelgewichteten Wärmekarte der kalibrierten Bilder; Erzeugen, über die ein oder mehreren elektronischen Steuerungen, des trainierten semantischen neuronalen Segmentierungsnetzmodells unter Verwendung des Bildes von der Außenansichtkamera; Erzeugen, über die ein oder mehreren elektronischen Steuerungen, des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells unter Verwendung der pixelgewichteten Wärmekarte und des Bildes von der Außenansichtkamera; und Betreiben, über die ein oder mehreren elektronischen Steuerungen, des Fahrzeugs unter Verwendung des trainierten semantischen neuronalen Segmentierungsnetzmodells und des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells.A method for generating a trained semantic neural segmentation network model and a trained attention-based neural network model for operating a vehicle, the method comprising: Receiving, via one or more electronic controls, an image from an outside view camera; Receiving, via the one or more electronic controls, an image of a driver's eye movements from a camera directed at the driver; Calibrating, via the one or more electronic controls, the image of the driver's eye movements with the image from the exterior view camera to produce calibrated images; Generating, via the one or more electronic controls, a pixel-weighted thermal map of the calibrated images; Generating, via the one or more electronic controls, the trained semantic neural segmentation network model using the image from the exterior view camera; Generating, via the one or more electronic controls, the trained attention-based neural network model using the pixel-weighted thermal map and the image from the exterior view camera; and Operate, via the one or more electronic controls, the vehicle using the trained semantic neural segmentation network model and the trained attention-based neural network model. Verfahren gemäß Anspruch 9, wobei das Empfangen eines Bildes von der Außenansichtkamera; das Empfangen eines Bildes der Augenbewegungen eines Fahrers von der auf den Fahrer gerichteten Kamera; das Kalibrieren des Bildes der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera, um kalibrierte Bilder zu erzeugen; und das Erzeugen einer pixelgewichteten Wärmekarte der kalibrierten Bilder über eine erste elektronische Steuerung durchgeführt werden und wobei das Verfahren ferner das Bereitstellen, über eine erste elektronische Steuerung, der pixelgewichteten Wärmekarte der kalibrierten Bilder für eine zweite elektronische Steuerung umfasst.Procedure according to Claim 9 , in which receiving an image from the outside view camera; receiving an image of a driver's eye movements from the driver-facing camera; calibrating the image of the driver's eye movements with the image from the outside view camera to produce calibrated images; and generating a pixel weighted thermal map of the calibrated images via a first electronic controller, and the method further comprising providing, via a first electronic controller, the pixel weighted thermal map of the calibrated images for a second electronic controller. Verfahren gemäß Anspruch 10, wobei das Betreiben, über die ein oder mehreren elektronischen Steuerungen, des Fahrzeugs unter Verwendung des trainierten semantischen neuronalen Segmentierungsnetzmodells und des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells über die zweite elektronische Steuerung durchgeführt wird.Procedure according to Claim 10 , wherein the operation, via the one or more electronic controls, of the vehicle using the trained semantic neural segmentation network model and the trained attention-based neural network model is carried out via the second electronic control. Verfahren gemäß Anspruch 11, ferner umfassend das Trainieren, über die zweite elektronische Steuerung, eines semantischen Segmentierungsklassifikators mit einer Kostenfunktion, die die pixelgewichtete Wärmekarte einbezieht.Procedure according to Claim 11 , further comprising training, via the second electronic control, a semantic segmentation classifier with a cost function that includes the pixel-weighted heat map. Verfahren gemäß Anspruch 10, ferner umfassend das Empfangen von mehreren Fahrzeugen, die pixelgewichtete Wärmekarten bereitstellen.Procedure according to Claim 10 , further comprising receiving multiple vehicles that provide pixel-weighted thermal maps. Verfahren gemäß Anspruch 9, wobei das Kalibrieren des Bildes der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera ferner umfasst, dass jedem Pixel in dem Bild von der Außenansichtkamera eine Gewichtung zugewiesen wird, die auf dem Bild der Augenbewegungen des Fahrers basiert.Procedure according to Claim 9 wherein calibrating the image of the driver's eye movements with the image from the exterior view camera further comprises assigning a weight to each pixel in the image from the exterior view camera based on the image of the driver's eye movements. Verfahren gemäß Anspruch 9, wobei das Erzeugen des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells das Verwenden der pixelgewichteten Wärmekarte als klassifizierende Kennzeichnung und des Außenansichtbildes als eine Eingabe beinhaltet.Procedure according to Claim 9 , wherein the generation of the trained attention-based neural network model includes using the pixel-weighted heat map as a classification identifier and the exterior view image as an input. System für das Betreiben eines Fahrzeugs unter Verwendung eines trainierten semantischen neuronalen Segmentierungsnetzmodells und eines trainierten aufmerksamkeitsbasierten neuronalen Netzmodells, wobei das System umfasst: eine Außenansichtkamera; eine oder mehrere elektronische Steuerungen, dafür ausgelegt: ein Bild von der Außenansichtkamera zu empfangen; das Bild von der Außenansichtkamera mit dem trainierten semantischen neuronalen Segmentierungsnetzmodell zu verarbeiten, um Segmentierungsmerkmale zu extrahieren; das Bild von der Außenansichtkamera mit dem trainierten aufmerksamkeitsbasierten neuronalen Netzmodell zu verarbeiten, um eine pixelgewichtete Wärmekarte zu erzeugen; die Segmentierungsmerkmale mit der pixelgewichteten Wärmekarte zu verketten; die verketteten Segmentierungsmerkmale und die pixelgewichtete Wärmekarte mit einem Segmentierungsklassifikator zu verarbeiten; und das Fahrzeug gemäß der Verarbeitung der verketteten Segmentierungsmerkmale und der pixelgewichteten Wärmekarte mit dem Segmentierungsklassifikator zu betreiben.A system for operating a vehicle using a trained semantic neural segmentation network model and a trained attention-based neural network model, the system comprising: an outside view camera; one or more electronic controls, designed for: receive an image from the outside view camera; process the image from the outside view camera with the trained semantic neural segmentation network model to extract segmentation features; process the image from the exterior view camera with the trained attention-based neural network model to generate a pixel-weighted thermal map; to chain the segmentation features with the pixel-weighted thermal map; process the chained segmentation features and the pixel-weighted heat map with a segmentation classifier; and operate the vehicle according to the processing of the chained segmentation features and the pixel-weighted heat map with the segmentation classifier. System gemäß Anspruch 16, wobei das Verarbeiten der verketteten Segmentierungsmerkmale und der pixelgewichteten Wärmekarte mit dem Segmentierungsklassifikator das Verwenden einer modifizierten Kostenfunktion beinhaltet, die die pixelgewichtete Wärmekarte einbezieht.System according to Claim 16 , wherein processing the concatenated segmentation features and the pixel-weighted thermal map with the segmentation classifier includes using a modified cost function that incorporates the pixel-weighted thermal map.
DE102019220335.3A 2018-12-31 2019-12-20 SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION Pending DE102019220335A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862786711P 2018-12-31 2018-12-31
US62/786,711 2018-12-31
US16/388,190 2019-04-18
US16/388,190 US10929715B2 (en) 2018-12-31 2019-04-18 Semantic segmentation using driver attention information

Publications (1)

Publication Number Publication Date
DE102019220335A1 true DE102019220335A1 (en) 2020-07-02

Family

ID=71079838

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019220335.3A Pending DE102019220335A1 (en) 2018-12-31 2019-12-20 SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION

Country Status (1)

Country Link
DE (1) DE102019220335A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529081A (en) * 2020-12-11 2021-03-19 大连大学 Real-time semantic segmentation method based on efficient attention calibration
CN116433697A (en) * 2023-06-13 2023-07-14 南京航空航天大学 Abdominal multi-organ CT image segmentation method based on eye movement instrument
CN118386842A (en) * 2024-05-13 2024-07-26 江西省行之成汽车电子有限公司 Intelligent interaction control system and method for automobile display screen

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529081A (en) * 2020-12-11 2021-03-19 大连大学 Real-time semantic segmentation method based on efficient attention calibration
CN112529081B (en) * 2020-12-11 2023-11-07 大连大学 Real-time semantic segmentation method based on efficient attention calibration
CN116433697A (en) * 2023-06-13 2023-07-14 南京航空航天大学 Abdominal multi-organ CT image segmentation method based on eye movement instrument
CN116433697B (en) * 2023-06-13 2023-09-12 南京航空航天大学 Abdominal multi-organ CT image segmentation method based on eye movement instrument
CN118386842A (en) * 2024-05-13 2024-07-26 江西省行之成汽车电子有限公司 Intelligent interaction control system and method for automobile display screen

Similar Documents

Publication Publication Date Title
DE102018101318A1 (en) OBJECT RECOGNITION USING A RECURRENT NEURONAL NETWORK AND A LINKED CHARACTERIZATION OF FIGURE
DE102018130821A1 (en) Method for assessing an environment of a motor vehicle using an artificial neural network with an aggregation unit; Control unit, driver assistance system and computer program product
DE102018101125A1 (en) Recurrent deep neuronal convolution network for the detection of objects
US10929715B2 (en) Semantic segmentation using driver attention information
DE102018201054A1 (en) System and method for image representation by a driver assistance module of a vehicle
DE112018007287T5 (en) VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE
DE112018000335T5 (en) SYSTEMS AND METHOD FOR A CALCULATION FRAME FOR A VISUAL WARNING OF THE DRIVER USING A "FULLY CONVOLUTIONAL" ARCHITECTURE
DE102009048699A1 (en) Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface
DE102019220335A1 (en) SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION
DE102018100909A1 (en) Method of reconstructing images of a scene taken by a multifocal camera system
DE102018010039A1 (en) Method for recognizing at least one pattern in an environment of a vehicle, control device for executing such a method, and vehicle with such a control device
EP3644239A1 (en) Device and method for abstracting a dataset
DE102018128634A1 (en) Method for providing visual information about at least part of an environment, computer program product, mobile communication device and communication system
DE102019208233A1 (en) Method and device for automatically executing a control function of a vehicle
DE112018005749T5 (en) Lane marking determination device for automated driving
EP3748454B1 (en) Method and device for automatically executing a control function of a vehicle
DE102016101149A1 (en) A method for detecting smoke in an environmental area of a motor vehicle with the aid of a camera of the motor vehicle, driver assistance system and motor vehicle
DE102017127493A1 (en) DETECTION OF LANE SPLITTING MOTORCYCLES
DE102020004790A1 (en) Device for recognizing traffic signs from a vehicle
DE102019129029A1 (en) OBJECT DETECTION SYSTEM AND METHOD
DE102018132627A1 (en) Method for capturing an environment of a motor vehicle by means of temporal fusion of images through an artificial neural network; Control unit, driver assistance system; Computer program product
DE102019204187A1 (en) Classification and temporal recognition of tactical driving maneuvers by road users
CN112989978A (en) Driving assistance recognition method based on high-precision map
DE102018221625A1 (en) Transfer of additional information between camera systems
DE102014007994A1 (en) Method for detecting light signals from road users

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BARTH , DE

R016 Response to examination communication