DE102019220335A1 - SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION - Google Patents
SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION Download PDFInfo
- Publication number
- DE102019220335A1 DE102019220335A1 DE102019220335.3A DE102019220335A DE102019220335A1 DE 102019220335 A1 DE102019220335 A1 DE 102019220335A1 DE 102019220335 A DE102019220335 A DE 102019220335A DE 102019220335 A1 DE102019220335 A1 DE 102019220335A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- pixel
- network model
- driver
- view camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zum Erzeugen von trainierten semantischen Segmentierungsnetzmodellen und dem Betreiben von Fahrzeugen unter Verwendung des Modells. Ein beispielhaftes Verfahren beinhaltet eine Außenansichtkamera, die dafür ausgelegt ist, Bilder zu erfassen, die eine künstliche Darstellung der Fahrersicht repräsentieren, eine auf den Fahrer gerichtete Kamera, die dafür ausgelegt ist, die Augenbewegungen eines Fahrers zu erfassen, und eine elektronische Steuerung. Die elektronische Steuerung ist dafür ausgelegt, Bilder von den Kameras zu empfangen; das Bild der Augenbewegungen des Fahrers mit der künstlichen Fahrersicht zu kalibrieren; eine pixelgewichtete Wärmekarte der kalibrierten Bilder zu erzeugen; unter Verwendung der pixelgewichteten Wärmekarte und der künstlichen Fahrersicht ein trainiertes semantisches neuronales Segmentierungsnetzmodell und ein trainiertes aufmerksamkeitsbasiertes neuronales Netzmodell zu erzeugen; und das Fahrzeug unter Verwendung des trainierten semantischen neuronalen Segmentierungsnetzmodells und des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells zu betreiben. Method for generating trained semantic segmentation network models and operating vehicles using the model. An exemplary method includes an exterior view camera configured to capture images that represent an artificial representation of the driver's view, a driver-facing camera configured to capture a driver's eye movements, and electronic control. The electronic control is designed to receive images from the cameras; calibrate the image of the driver's eye movements with the artificial driver's vision; generate a pixel-weighted thermal map of the calibrated images; generate a trained semantic neural segmentation network model and a trained attention-based neural network model using the pixel-weighted heat map and the artificial driver view; and operate the vehicle using the trained semantic neural segmentation network model and the trained attention-based neural network model.
Description
QUERVERWEIS AUF VERWANDTE PATENTANMELDUNGENCROSS REFERENCE TO RELATED PATENT APPLICATIONS
Diese Patentanmeldung beansprucht Priorität vor der vorläufigen
GEBIETAREA
Ausführungsformen betreffen unter anderem das Beziehen von Trainingsdaten für ein aufmerksamkeitsbasiertes neuronales Netzmodell und das Verwenden des trainierten Modells für autonome Fahrfunktionen.Embodiments relate, inter alia, to the acquisition of training data for an attention-based neural network model and the use of the trained model for autonomous driving functions.
HINTERGRUNDBACKGROUND
Moderne Fahrzeuge weisen eine autonome oder semiautonome Fahrfunktionalität auf, die semantische Segmentierungsnetzmodelle nutzt. Diese Segmentierungsnetzmodelle werden beispielsweise in Bezug auf eine Objektidentifizierung und Kennzeichnungen, die jedem Pixel in den definierten Objekten zugewiesen sind, trainiert.Modern vehicles have an autonomous or semi-autonomous driving functionality that uses semantic segmentation network models. These segmentation network models are trained, for example, with regard to object identification and identifications that are assigned to each pixel in the defined objects.
KURZDARSTELLUNGSUMMARY
Die Wichtigkeit von Pixeln wird während des Trainings der Segmentierungsnetzmodelle ignoriert, und jedes Pixel wird gleich betrachtet. In Wirklichkeit haben Pixel eine unterschiedliche Relevanz, und einige Pixel sollten als wichtiger betrachtet werden als andere. Auch wenn Segmentierungsnetzmodelle bekannt sind, ist das Trainieren von Segmentierungsnetzmodellen unter Einbeziehung der Verwendung von gewichteten Pixeln für das Darstellen einer unterschiedlichen Wichtigkeit entweder nicht verfügbar oder bei der Nutzung einer fahrerbezogenen Augenverfolgung nicht implementiert.The importance of pixels is ignored during training of the segmentation network models, and each pixel is viewed the same. In reality, pixels have different relevance, and some pixels should be considered more important than others. Even if segmentation network models are known, the training of segmentation network models, including the use of weighted pixels for representing a different importance, is either not available or is not implemented when using driver-related eye tracking.
Hier beschriebene Ausführungsformen stellen unter anderem ein System und ein Verfahren zum Verwenden eines semantischen Segmentierungsmodells bereit, das mit Daten trainiert wird, die bezogen werden, um eine auf Wichtigkeit basierende Pixelgewichtung zu integrieren.Embodiments described herein provide, among other things, a system and method for using a semantic segmentation model that is trained with data that is referenced to incorporate pixel weighting based on importance.
Eine Ausführungsform stellt ein System zum Erzeugen eines trainierten semantischen neuronalen Segmentierungsnetzmodells und eines trainierten aufmerksamkeitsbasierten neuronalen Netzmodells für das Betreiben eines Fahrzeugs bereit. Das System beinhaltet eine Außenansichtkamera, eine auf den Fahrer gerichtete Kamera und eine oder mehrere elektronische Steuerungen. Die ein oder mehreren elektronischen Steuerungen sind dafür ausgelegt, ein Bild von der Außenansichtkamera und ein Bild der Augenbewegungen eines Fahrers von der auf den Fahrer gerichteten Kamera zu empfangen. Die ein oder mehreren elektronischen Steuerungen sind dafür ausgelegt, das Bild der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera zu kalibrieren, um kalibrierte Bilder zu erzeugen, die verwendet werden, um eine pixelgewichtete Wärmekarte der kalibrierten Bilder zu erzeugen. Die ein oder mehreren elektronischen Steuerungen sind außerdem dafür konfiguriert, das trainierte semantische neuronale Segmentierungsnetzmodell unter Verwendung des Bildes von der Außenansichtkamera zu erzeugen, und das trainierte aufmerksamkeitsbasierte neuronale Netzmodell unter Verwendung der pixelgewichteten Wärmekarte zu erzeugen. Die ein oder mehreren elektronischen Steuerungen sind dafür ausgelegt, das Fahrzeug unter Verwendung des trainierten semantischen neuronalen Segmentierungsnetzmodells und des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells zu betreiben.One embodiment provides a system for generating a trained semantic neural segmentation network model and a trained attention-based neural network model for operating a vehicle. The system includes an exterior view camera, a driver-facing camera, and one or more electronic controls. The one or more electronic controls are designed to receive an image from the exterior view camera and an image of a driver's eye movements from the camera directed at the driver. The one or more electronic controls are configured to calibrate the image of the driver's eye movements with the image from the outside view camera to produce calibrated images that are used to generate a pixel-weighted thermal map of the calibrated images. The one or more electronic controls are also configured to generate the trained semantic neural segmentation network model using the image from the outside view camera, and to generate the trained attention-based neural network model using the pixel-weighted thermal map. The one or more electronic controls are designed to operate the vehicle using the trained semantic neural segmentation network model and the trained attention-based neural network model.
Eine andere Ausführungsform stellt ein Verfahren zum Erzeugen eines trainierten semantischen neuronalen Segmentierungsnetzmodells und eines trainierten aufmerksamkeitsbasierten neuronalen Netzmodells für das Betreiben eines Fahrzeugs bereit. Das Verfahren beinhaltet das Empfangen, über eine oder mehrere Steuerungen, eines Bildes von einer Außenansichtkamera und eines Bildes der Augenbewegungen eines Fahrers von einer auf den Fahrer gerichteten Kamera. Die Verfahren beinhaltet außerdem das Kalibrieren, über die ein oder mehreren elektronischen Steuerungen, des Bildes der Augenbewegungen des Fahrers mit dem Bild von der Außenansichtkamera, um kalibrierte Bilder zu erzeugen, die verwendet werden, um eine pixelgewichtete Wärmekarte der kalibrierten Bilder zu erzeugen. Das Verfahren beinhaltet außerdem das Erzeugen, über die ein oder mehreren elektronischen Steuerungen, des trainierten semantischen neuronalen Segmentierungsnetzmodells unter Verwendung des Bildes von der Außenansichtkamera und das Erzeugen des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells unter Verwendung der pixelgewichteten Wärmekarte. Das Verfahren beinhaltet außerdem das Betreiben, über die ein oder mehreren elektronischen Steuerungen, des Fahrzeugs unter Verwendung des trainierten semantischen neuronalen Segmentierungsnetzmodells und des trainierten aufmerksamkeitsbasierten neuronalen Netzmodells.Another embodiment provides a method for generating a trained semantic neural segmentation network model and a trained attention-based neural network model for operating a vehicle. The method includes receiving, via one or more controls, an image from an outside view camera and an image of a driver's eye movements from a camera directed at the driver. The method also includes calibrating, via the one or more electronic controls, the image of the driver's eye movements with the image from the exterior view camera to produce calibrated images that are used to generate a pixel-weighted thermal map of the calibrated images. The method also includes creating, via the one or more electronic controls, the trained semantic neural segmentation network model using the image from the outside view camera and generating the trained attention-based neural network model using the pixel-weighted thermal map. The method also includes operating, via the one or more electronic controls, the vehicle using the trained semantic neural segmentation network model and the trained attention-based neural network model.
Andere Aspekte, Merkmale und Ausführungsformen werden bei Berücksichtigung der ausführlichen Beschreibung sowie der begleitenden Zeichnungen offensichtlich.Other aspects, features, and embodiments will become apparent upon consideration of the detailed description and accompanying drawings.
Figurenliste Figure list
-
1 ist ein Blockschaltbild eines Systems zum Verbessern des Bezugs von Trainingsdaten für ein semantisches Segmentierungsmodell gemäß einer Ausführungsform.1 10 is a block diagram of a system for improving the acquisition of training data for a semantic segmentation model according to an embodiment. -
2 ist ein Blockschaltbild einer ersten elektronischen Steuerung des Systems von1 gemäß einer Ausführungsform.2nd is a block diagram of a first electronic control of the system of1 according to one embodiment. -
3 ist ein Blockschaltbild einer zweiten elektronischen Steuerung des Systems von1 gemäß einer Ausführungsform.3rd FIG. 4 is a block diagram of a second electronic control of the system of FIG1 according to one embodiment. -
4 ist ein Blockschaltbild einer Außenansichtkamera des Systems von1 gemäß einer Ausführungsform.4th Figure 3 is a block diagram of an exterior view camera of the system of1 according to one embodiment. -
5 ist ein Blockschaltbild einer auf den Fahrer gerichteten Kamera des Systems von1 gemäß einer Ausführungsform.5 FIG. 4 is a block diagram of a driver-facing camera of the system of FIG1 according to one embodiment. -
6 ist ein Flussdiagramm eines Verfahrens zum Verwenden einer Bildkalibrierungsengine der elektronischen Steuerung von2 , um, gemäß einer Ausführungsform, eine Eingabe von den Kameras von1 und2 zu empfangen und eine pixelgewichtete Wärmekarte basierend auf der Eingabe zu erzeugen.6 FIG. 10 is a flow diagram of a method of using an image calibration engine of the electronic controller of FIG2nd to, according to one embodiment, input from the cameras of1 and2nd to receive and generate a pixel-weighted heat map based on the input. -
7 ist ein Flussdiagramm eines Verfahrens zum Verwenden eines aufmerksamkeitsbasierten neuronalen Netzmodell-Trainers der elektronischen Steuerung von3 , um die pixelgewichtete Wärmekarte und das Außenansichtbild mit einer Kostenfunktion zu integrieren, die beim Trainieren des aufmerksamkeitsbasierten neuronalen Netzmodells gemäß einer Ausführungsform verwendet wird.7 FIG. 10 is a flow diagram of a method of using an attention-based neural network model trainer of the electronic controller of FIG3rd to integrate the pixel-weighted thermal map and the exterior view image with a cost function used in training the attention-based neural network model according to one embodiment. -
8 ist ein Flussdiagramm eines Verfahrens zum Verwenden eines semantischen neuronalen Segmentierungsnetzmodell-Trainers der elektronischen Steuerung von3 , um das Außenansichtbild beim Trainieren des semantischen neuronalen Segmentierungsnetzmodells gemäß einer Ausführungsform zu integrieren.8th FIG. 10 is a flow diagram of a method of using a semantic neural segmentation network model trainer of the electronic controller of FIG3rd to integrate the exterior view image while training the semantic neural segmentation network model according to one embodiment. -
9 ist ein Blockschaltbild eines Systems zum Betreiben eines autonomen Fahrzeugs unter Verwendung eines semantischen Segmentierungsklassifikators gemäß einer Ausführungsform.9 10 is a block diagram of a system for operating an autonomous vehicle using a semantic segmentation classifier according to an embodiment. -
10 ist ein Flussdiagramm eines Verfahrens für das Verwenden einer Fahrzeugbetriebsengine der dritten elektronischen Steuerung von9 , um ein Außenansichtbild von einer zweiten Außenansichtkamera zu empfangen und das Bild durch trainierte Modelle zu verarbeiten, um ein Fahrzeug zu betreiben.10th FIG. 10 is a flowchart of a method for using a vehicle operating engine of the third electronic controller of FIG9 to receive an exterior view image from a second exterior view camera and process the image by trained models to operate a vehicle. -
11 ist eine konzeptuelle Veranschaulichung einer gekennzeichneten Wärmekarte, die in dem Verfahren von6 erzeugt wurde, um beim Training des aufmerksamkeitsbasierten neuronalen Netzmodells verwendet zu werden.11 Fig. 3 is a conceptual illustration of a labeled thermal map used in the process of6 was generated to be used in training the attention-based neural network model.
AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION
Bevor irgendwelche Ausführungsformen im Einzelnen erläutert werden, sei darauf hingewiesen, dass diese Offenbarung in ihrer Anwendung nicht auf die in der nachstehenden Beschreibung dargelegten oder in den nachstehenden Zeichnungen veranschaulichten Konstruktionsdetails und Komponentenanordnungen beschränkt sein soll. Ausführungsformen sind auch für andere Ausgestaltungen ausgelegt und dafür, auf verschiedene Art und Weise praktisch genutzt oder ausgeführt zu werden.Before explaining any embodiments in detail, it should be understood that the application of this disclosure is not intended to be limited to the construction details and component arrangements set forth in the description below or illustrated in the drawings below. Embodiments are also designed for other configurations and for being practically used or implemented in various ways.
Mehrere hardware- und softwarebasierte Vorrichtungen, ebenso wie mehrere unterschiedliche Strukturkomponenten können verwendet werden, um verschiedene Ausführungsform zu implementieren. Zusätzlich können Ausführungsformen Hardware, Software und elektronische Komponenten oder Module beinhalten, die, zum Zwecke der Erörterung, so veranschaulicht und beschrieben sein können, als wenn die meisten Komponenten allein in Hardware implementiert wären. Allerdings würden Durchschnittsfachleute, basierend auf einem Lesen dieser ausführlichen Beschreibung, erkennen, dass, in wenigstens einer Ausführungsform, die elektronikbasierten Aspekte der Erfindung in (beispielsweise auf einem nicht-transitorischen computerlesbaren Medium gespeicherter) Software implementiert sein können, die von einem oder mehreren Prozessoren ausführbar ist. Beispielsweise können in der Beschreibung beschriebene „Steuerungseinheiten“ und „Steuerungen“ einen oder mehrere elektronische Prozessoren, ein oder mehrere Speichermodule mit einem nicht-transitorischen computerlesbaren Medium, eine oder mehrere Kommunikationsschnittstellen, eine oder mehrere anwendungsspezifische integrierte Schaltungen (Application-Specific Integrated Circuits, ASICs) und verschiedene Verbindungen (beispielsweise einen Systembus oder ein oder mehrere Netze), die die verschiedenen Komponenten verbinden, aufweisen.Multiple hardware and software based devices as well as multiple different structural components can be used to implement different embodiments. In addition, embodiments may include hardware, software, and electronic components or modules that, for purposes of discussion, may be illustrated and described as if most of the components were implemented in hardware alone. However, those of ordinary skill in the art, based on reading this detailed description, would recognize that, in at least one embodiment, the electronics-based aspects of the invention may be implemented in software (e.g., stored on a non-transitory computer readable medium) software executable by one or more processors is. For example, “control units” and “controls” described in the description can include one or more electronic processors, one or more memory modules with a non-transitory computer-readable medium, one or more communication interfaces, one or more application-specific integrated circuits (ASICs) ) and various connections (for example a system bus or one or more networks) that connect the various components.
Die erste Außenansichtkamera
In dem veranschaulichten Beispiel befindet sich die zweite elektronische Steuerung
Der erste elektronische Prozessor
Die erste elektronische Steuerung
Der zweite elektronische Prozessor
Wie die erste elektronische Steuerung
Bilder, die von der ersten Außenansichtkamera
In Schritt
Nachdem das trainierte semantische neuronale Segmentierungsnetzmodell und das trainierte aufmerksamkeitsbasierte neuronale Netzmodell erzeugt worden sind, können Fahrzeuge mit autonomer Fahrfunktionalität die Modelle in autonome und semiautonome Fahrsysteme integrieren, und ein Fahrzeug kann gemäß den Modellen betrieben werden.
Die zweite Außenansichtkamera
Unter Verwendung der pixelgewichteten Wärmekarte wird Gleichung 1 wie folgt geändert:
Auch wenn eine Kreuzentropie-Kostenfunktion in einem Beispiel verwendet wird, kann in anderen Ausführungsformen eine andere Kostenfunktion verwendet und verändert werden, um die Gewichtung von Pixeln einzubeziehen, die von der Bildkalibrierungsengine
Die Gewichtung von Pixeln, die wie vorstehend angegeben durch die Bildkalibrierung bestimmt wird, wird als eine pixelgewichtete Wärmekarte dargestellt.
Durch Hinzufügen von Gewichtungen zu diesen Pixeln wird die autonome und semiautonome Fahrfunktionalität verbessert, beispielsweise das Ignorieren von Objekten, die weniger relevant sind, und das Ergreifen von Maßnahmen (beispielsweise Bremsen, Steuern oder Beschleunigen) basierend auf Objekten mit höherer Relevanz.Adding weights to these pixels improves autonomous and semi-autonomous driving functionality, such as ignoring objects that are less relevant and taking action (such as braking, controlling, or accelerating) based on objects that are more relevant.
Auch wenn eine bestimmte Reihenfolge von Schritten in den Verfahren angegeben ist, die in
Somit stellen die hier beschriebenen Ausführungsformen unter anderem ein System und ein Verfahren zum Erfassen und Kalibrieren von Bildern bereit, um eine Darstellung von kalibrierten Bildern zu erzeugen, die eine Gewichtung von Pixeln basierend auf der Relevanz angibt. Verschiedene Merkmale und Vorteile der Ausführungsformen sind in den nachstehenden Ansprüchen dargelegt.Thus, the embodiments described herein provide, among other things, a system and method for capturing and calibrating images to produce a representation of calibrated images that indicates a weighting of pixels based on relevance. Various features and advantages of the embodiments are set out in the claims below.
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant has been generated automatically and is only included for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent literature cited
- US 62786711 [0001]US 62786711 [0001]
Claims (17)
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862786711P | 2018-12-31 | 2018-12-31 | |
US62/786,711 | 2018-12-31 | ||
US16/388,190 | 2019-04-18 | ||
US16/388,190 US10929715B2 (en) | 2018-12-31 | 2019-04-18 | Semantic segmentation using driver attention information |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102019220335A1 true DE102019220335A1 (en) | 2020-07-02 |
Family
ID=71079838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102019220335.3A Pending DE102019220335A1 (en) | 2018-12-31 | 2019-12-20 | SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102019220335A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529081A (en) * | 2020-12-11 | 2021-03-19 | 大连大学 | Real-time semantic segmentation method based on efficient attention calibration |
CN116433697A (en) * | 2023-06-13 | 2023-07-14 | 南京航空航天大学 | Abdominal multi-organ CT image segmentation method based on eye movement instrument |
CN118386842A (en) * | 2024-05-13 | 2024-07-26 | 江西省行之成汽车电子有限公司 | Intelligent interaction control system and method for automobile display screen |
-
2019
- 2019-12-20 DE DE102019220335.3A patent/DE102019220335A1/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529081A (en) * | 2020-12-11 | 2021-03-19 | 大连大学 | Real-time semantic segmentation method based on efficient attention calibration |
CN112529081B (en) * | 2020-12-11 | 2023-11-07 | 大连大学 | Real-time semantic segmentation method based on efficient attention calibration |
CN116433697A (en) * | 2023-06-13 | 2023-07-14 | 南京航空航天大学 | Abdominal multi-organ CT image segmentation method based on eye movement instrument |
CN116433697B (en) * | 2023-06-13 | 2023-09-12 | 南京航空航天大学 | Abdominal multi-organ CT image segmentation method based on eye movement instrument |
CN118386842A (en) * | 2024-05-13 | 2024-07-26 | 江西省行之成汽车电子有限公司 | Intelligent interaction control system and method for automobile display screen |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018101318A1 (en) | OBJECT RECOGNITION USING A RECURRENT NEURONAL NETWORK AND A LINKED CHARACTERIZATION OF FIGURE | |
DE102018130821A1 (en) | Method for assessing an environment of a motor vehicle using an artificial neural network with an aggregation unit; Control unit, driver assistance system and computer program product | |
DE102018101125A1 (en) | Recurrent deep neuronal convolution network for the detection of objects | |
US10929715B2 (en) | Semantic segmentation using driver attention information | |
DE102018201054A1 (en) | System and method for image representation by a driver assistance module of a vehicle | |
DE112018007287T5 (en) | VEHICLE SYSTEM AND METHOD FOR DETECTING OBJECTS AND OBJECT DISTANCE | |
DE112018000335T5 (en) | SYSTEMS AND METHOD FOR A CALCULATION FRAME FOR A VISUAL WARNING OF THE DRIVER USING A "FULLY CONVOLUTIONAL" ARCHITECTURE | |
DE102009048699A1 (en) | Travel's clear path detection method for motor vehicle i.e. car, involves monitoring images, each comprising set of pixels, utilizing texture-less processing scheme to analyze images, and determining clear path based on clear surface | |
DE102019220335A1 (en) | SEMANTIC SEGMENTATION USING DRIVER ATTENTION INFORMATION | |
DE102018100909A1 (en) | Method of reconstructing images of a scene taken by a multifocal camera system | |
DE102018010039A1 (en) | Method for recognizing at least one pattern in an environment of a vehicle, control device for executing such a method, and vehicle with such a control device | |
EP3644239A1 (en) | Device and method for abstracting a dataset | |
DE102018128634A1 (en) | Method for providing visual information about at least part of an environment, computer program product, mobile communication device and communication system | |
DE102019208233A1 (en) | Method and device for automatically executing a control function of a vehicle | |
DE112018005749T5 (en) | Lane marking determination device for automated driving | |
EP3748454B1 (en) | Method and device for automatically executing a control function of a vehicle | |
DE102016101149A1 (en) | A method for detecting smoke in an environmental area of a motor vehicle with the aid of a camera of the motor vehicle, driver assistance system and motor vehicle | |
DE102017127493A1 (en) | DETECTION OF LANE SPLITTING MOTORCYCLES | |
DE102020004790A1 (en) | Device for recognizing traffic signs from a vehicle | |
DE102019129029A1 (en) | OBJECT DETECTION SYSTEM AND METHOD | |
DE102018132627A1 (en) | Method for capturing an environment of a motor vehicle by means of temporal fusion of images through an artificial neural network; Control unit, driver assistance system; Computer program product | |
DE102019204187A1 (en) | Classification and temporal recognition of tactical driving maneuvers by road users | |
CN112989978A (en) | Driving assistance recognition method based on high-precision map | |
DE102018221625A1 (en) | Transfer of additional information between camera systems | |
DE102014007994A1 (en) | Method for detecting light signals from road users |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R082 | Change of representative |
Representative=s name: ISARPATENT - PATENT- UND RECHTSANWAELTE BARTH , DE |
|
R016 | Response to examination communication |