Nothing Special   »   [go: up one dir, main page]

DE102021003153B4 - Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung - Google Patents

Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung Download PDF

Info

Publication number
DE102021003153B4
DE102021003153B4 DE102021003153.9A DE102021003153A DE102021003153B4 DE 102021003153 B4 DE102021003153 B4 DE 102021003153B4 DE 102021003153 A DE102021003153 A DE 102021003153A DE 102021003153 B4 DE102021003153 B4 DE 102021003153B4
Authority
DE
Germany
Prior art keywords
motor vehicle
recording
distance range
found
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102021003153.9A
Other languages
English (en)
Other versions
DE102021003153A1 (de
Inventor
Fridtjof Stein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler Truck Holding AG
Original Assignee
Daimler Truck AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Truck AG filed Critical Daimler Truck AG
Priority to DE102021003153.9A priority Critical patent/DE102021003153B4/de
Priority to CN202280042962.6A priority patent/CN117501151A/zh
Priority to US18/571,023 priority patent/US20240190349A1/en
Priority to PCT/EP2022/066149 priority patent/WO2022263435A1/de
Priority to EP22736185.4A priority patent/EP4356163A1/de
Publication of DE102021003153A1 publication Critical patent/DE102021003153A1/de
Application granted granted Critical
Publication of DE102021003153B4 publication Critical patent/DE102021003153B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/18Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein range gates are used
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

Verfahren zum Betreiben einer Gated-Kamera (7), die eine Beleuchtungseinrichtung (11) und einen optischen Sensor (13) aufweist, in einem Kraftfahrzeug (1) entgegen der Fahrtrichtung (5) des Kraftfahrzeugs (1), wobei- eine Ansteuerung der Beleuchtungseinrichtung (11) und des optischen Sensors (13) zeitlich aufeinander abgestimmt werden, wobei- einer ersten abgestimmten Ansteuerung ein erster sichtbarer Abstandsbereich (19.1) zugeordnet wird, wobei- mittels der ersten abgestimmten Ansteuerung eine erste Aufnahme (33.1) des ersten sichtbaren Abstandsbereichs (19.1) entgegen der Fahrtrichtung (5) des Kraftfahrzeugs (1) aufgenommen wird, wobei- mittels der ersten Aufnahme (33.1) nach Objekten (29) gesucht wird, wobei- wenn ein Objekt (29) gefunden wird, ein erster Objekt-Abstand (31.1) als Abstand zwischen dem gefundenen Objekt (29) und dem optischen Sensor (13) geschätzt wird, wobei- eine geplante Bewegungstrajektorie des Kraftfahrzeugs (1) basierend auf dem ersten Objekt-Abstand (31.1) bewertet wird, dadurch gekennzeichnet, dass- falls ein Objekt (29) gefunden wurde und der erste Objekt-Abstand (31.1) geschätzt wurde, eine dritte abgestimmte Ansteuerung derart bestimmt wird, dass das gefundene Objekt (29) innerhalb eines dritten sichtbaren Abstandsbereichs (19.3), welcher der dritten abgestimmten Ansteuerung zugeordnet wird, liegt, wobei- eine dritte Breite (27.3) des dritten sichtbaren Abstandsbereichs (19.3) kleiner ist als eine erste Breite (27.1) des ersten sichtbaren Abstandsbereichs (19.1), wobei- mittels der dritten abgestimmten Ansteuerung eine dritte Aufnahme (33.3) des dritten sichtbaren Abstandsbereichs (19.3) entgegen der Fahrtrichtung (5) des Kraftfahrzeugs (1) aufgenommen wird, wobei- mittels der dritten Aufnahme (33.3) nach einem Objekt (29) gesucht wird, wobei- wenn ein Objekt (29) gefunden wird, ein zweiter Objekt-Abstand (31.2) als Abstand zwischen dem gefundenen Objekt (29) und dem optischen Sensor (13) geschätzt wird, wobei- die geplante Bewegungstrajektorie des Kraftfahrzeugs (1) zusätzlich basierend auf dem zweiten Objekt-Abstand (31.2) bewertet wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Betreiben einer Gated-Kamera, eine Steuervorrichtung zur Durchführung eines solchen Verfahrens, eine Schulterblickvorrichtung mit einer solchen Steuervorrichtung und ein Kraftfahrzeug mit einer solchen Schulterblickvorrichtung.
  • Insbesondere bei autonom fahrenden Kraftfahrzeugen ist eine Wahrnehmung und Vermessung der Umgebung zwingend notwendig, um das Kraftfahrzeug sicher und gefahrenfrei zu bewegen. Eine große Herausforderung hierbei - insbesondere bei autonom fahrenden Lastkraftwagen - stellen ein Spurwechsel und/oder ein Einfädeln in eine Fahrspur dar.
  • Aus der US 2008/0046150 A1 ist ein Verfahren bekannt, bei dem ein Sensor-System in einem Fahrzeug dazu verwendet wird, um die Schwere eines möglichen Aufpralls zu bestimmen und darauf aufbauend mögliche Maßnahmen definiert werden. Die Analyse der Schwere des Aufpralls basiert auf einem Mustererkennungs-Verfahren.
  • Weiterhin zeigt die US 2005/0134440 A1 ein Verfahren, um Informationen über Objekte in der Umgebung eines Fahrzeugs zu gewinnen. Dies geschieht durch einen Laserstrahl, dessen Reflektionen analysiert werden, um Informationen über die diesen reflektierenden Objekte zu bekommen.
  • Auch zeigt die DE 10 2018 002 955 A1 ein Verfahren zur Wahrnehmung der Umgebung während des Fahrens eines Fahrzeugs. Mittels eines Sensors werden Informationen in Bezug auf ein Fahrzeugumgebungsobjekt eingeholt, diese werden anschließend digitalisiert und als eine digitalisierte Darstellung ausgegeben.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Betreiben einer Gated-Kamera, eine Steuervorrichtung zur Durchführung eines solchen Verfahrens, eine Schulterblickvorrichtung mit einer solchen Steuervorrichtung und ein Kraftfahrzeug mit einer solchen Schulterblickvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
  • Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
  • Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zum Betreiben einer Gated-Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, in einem Kraftfahrzeug entgegen der Fahrtrichtung des Kraftfahrzeugs geschaffen wird, wobei eine Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zeitlich aufeinander abgestimmt werden. Einer ersten abgestimmten Ansteuerung wird ein erster sichtbarer Abstandsbereich zugeordnet, wobei mittels der ersten abgestimmten Ansteuerung eine erste Aufnahme des ersten sichtbaren Abstandsbereichs entgegen der Fahrtrichtung des Kraftfahrzeugs - also nach hinten - aufgenommen wird. Mittels der ersten Aufnahme wird nach Objekten gesucht, wobei wenn ein Objekt gefunden wird, ein erster Objekt-Abstand als Abstand zwischen dem gefundenen Objekt und dem optischen Sensor geschätzt wird. Anschließend wird eine geplante Bewegungstrajektorie des Kraftfahrzeugs basierend auf dem ersten Objekt-Abstand bewertet.
  • Dabei ist vorgesehen, dass, falls ein Objekt gefunden wurde und der erste Objekt-Abstand geschätzt wurde, eine dritte abgestimmte Ansteuerung derart bestimmt wird, dass das gefundene Objekt - insbesondere der erste Objekt-Abstand - innerhalb eines dritten sichtbaren Abstandsbereichs, welcher der dritten abgestimmten Ansteuerung zugeordnet wird, liegt, wobei eine dritte Breite des dritten sichtbaren Abstandsbereichs kleiner ist als die erste Breite des ersten sichtbaren Abstandsbereichs. Mittels der dritten abgestimmten Ansteuerung wird eine dritte Aufnahme des dritten sichtbaren Abstandsbereichs entgegen der Fahrtrichtung des Kraftfahrzeugs aufgenommen. Mittels der dritten Aufnahme wird nach Objekten gesucht, wobei wenn das Objekt gefunden wird, ein zweiter Objekt-Abstand als Abstand zwischen dem gefundenen Objekt und dem optischen Sensor geschätzt wird. Basierend auf dem ersten Objekt-Abstand und zusätzlich basierend auf dem zweiten Objekt-Abstand wird die geplante Bewegungstrajektorie des Kraftfahrzeugs bewertet.
  • Vorteilhafterweise können mittels des Verfahrens Objekte, insbesondere andere Verkehrsteilnehmer, welche sich in Fahrtrichtung hinter dem Kraftfahrzeug befinden, erkannt und mittels der Abstandsmessung vermessen werden. Damit kann vorteilhafterweise die geplante Bewegungstrajektorie des Kraftfahrzeugs - insbesondere ein Spurwechsel und/oder ein Einfädeln in eine Fahrspur - bewertet werden, um die Bewegung sicher und gefahrfrei durchzuführen.
  • Vorzugsweise wird für die Abstandsberechnung ein Verfahren nach der deutschen Offenlegungsschrift DE 10 2020 002 994 A1 verwendet. Vorzugsweise wird der erste Objekt-Abstand mittels eines Verfahrens nach der deutschen Offenlegungsschrift DE 10 2020 002 994 A1 geschätzt. Insbesondere werden bei einem Verfahren nach der deutschen Offenlegungsschrift DE 10 2020 002 994 A1 eine nahe Grenze und eine entfernte Grenze des sichtbaren Abstandsbereichs - insbesondere eine erste nahe Grenze und eine erste entfernte Grenze des ersten sichtbaren Abstandsbereichs - genutzt, um eine Abstandsbestimmung durchzuführen.
  • Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung einer Beleuchtungseinrichtung und eines optischen Sensors ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie, insbesondere den sichtbaren Abstandsbereich, auszuleuchten.
  • Insbesondere wird durch die Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und die Dauer der abgegebenen Lichtimpulse und einen Start der Beleuchtung gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtlicher Lage, das heißt insbesondere in bestimmten Abständen der nahen und der entfernten Grenze des sichtbaren Abstandsbereichs von dem optischen Sensor, durch den optischen Sensor erfasst werden. Aus dem Aufbau der Gated-Kamera ist eine örtliche Lage des optischen Sensors und der Beleuchtungseinrichtung bekannt. Vorzugsweise ist außerdem ein örtlicher Abstand zwischen der Beleuchtungseinrichtung und dem optischen Sensor bekannt und klein im Vergleich zu dem Abstand der Beleuchtungseinrichtung bzw. des optischen Sensors zu dem sichtbaren Abstandsbereich. Damit ist im Kontext der vorliegenden technischen Lehre ein Abstand zwischen dem optischen Sensor und dem sichtbaren Abstandsbereich gleich einem Abstand zwischen der Gated-Kamera und dem sichtbaren Abstandsbereich.
  • Der sichtbare Abstandsbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welcher durch die Anzahl und die Dauer der Lichtimpulse der Beleuchtungseinrichtung und dem Start der Beleuchtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
  • Der Beobachtungsbereich ist demgegenüber insbesondere der - objektseitige - Bereich im dreidimensionalen Raum, welcher bei ausreichender Beleuchtung und Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme insgesamt - insbesondere maximal - abgebildet werden könnte. Insbesondere entspricht der Beobachtungsbereich dem gesamten belichtbaren Bildbereich des optischen Sensors, der theoretisch ausgeleuchtet werden könnte. Der sichtbare Abstandsbereich ist somit eine Teilmenge des Beobachtungsbereichs im realen Raum. Entsprechend wird auch nur eine Teilmenge der Bildebene des optischen Sensors bei dem hier vorgeschlagenen Verfahren belichtet, wobei dieser Teilbereich der Bildebene insbesondere zwischen einer Start-Bildzeile und einer End-Bildzeile gegeben ist.
  • Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der Beobachtungsbereich und der sichtbare Abstandsbereich sind dabei objektseitig gegeben. Ihnen entsprechen durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordnete bildseitigen Bereiche auf der Bildebene.
  • Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Dabei verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
  • Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch eine entsprechend geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits die Lage und die räumliche Breite des sichtbaren Abstandsbereichs, insbesondere einen Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Abstandsbereichs, zu definieren.
  • In einer bevorzugten Ausgestaltung des Verfahrens wird der sichtbare Abstandsbereich vorgegeben, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits entsprechend vorgegeben wird.
  • In einer weiteren bevorzugten Ausgestaltung des Verfahrens wird die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits vorgegeben, wobei daraus entsprechend der sichtbare Abstandsbereich vorgegeben wird.
  • Unter einer Bildzeile wird hier insbesondere die Menge aller Bildpunkte einer Aufnahme in der Bildebene des optischen Sensors verstanden, die auf einer gemeinsamen horizontalen Linie in der Bildebene liegen.
  • Die Beleuchtungseinrichtung weist in einer bevorzugten Ausgestaltung mindestens einen Oberflächenemitter, insbesondere einen sogenannten VCSE-Laser, auf. Alternativ oder zusätzlich ist der optische Sensor bevorzugt eine Kamera.
  • Vorzugsweise wird zusätzlich zu dem ersten Objekt-Abstand ein Sensorsignal eines Knickwinkel-Sensors in die Bewertung der geplanten Bewegungstrajektorie einbezogen. Insbesondere ist es mittels des Knickwinkel-Sensors möglich zu entscheiden, ob ein Anhänger und/oder ein Aufleger die Sicht entgegen der Fahrtrichtung des Kraftfahrzeugs verdeckt und somit eine Bewertung der geplanten Bewegungstrajektorie nicht möglich ist.
  • Vorzugsweise misst der Knickwinkel-Sensor einen Winkel zwischen dem Kraftfahrzeug und einem mit dem Kraftfahrzeug verbundenen Anhänger.
  • Im Kontext der vorliegenden technischen Lehre wird die geplante Bewegungstrajektorie des Kraftfahrzeugs mittels einer Aktuatorik des Kraftfahrzeugs, insbesondere mittels Lenkbewegungen, Beschleunigungsvorgängen und/oder Bremsvorgängen, umgesetzt.
  • Bei dem Verfahren nach der deutschen Offenlegungsschrift DE 10 2020 002 994 A1 wird eine Start-Bildzeile für die nahe Grenze des sichtbaren Abstandsbereichs in der Aufnahme bestimmt. Weiterhin wird eine End-Bildzeile für die entfernte Grenze des sichtbaren Abstandsbereichs in der Aufnahme bestimmt. Es wird eine Fußpunkt-Bildzeile in der Aufnahme bestimmt, wobei die Fußpunkt-Bildzeile diejenige Bildzeile ist, in der einerseits das Objekt detektierbar ist und die andererseits den geringsten Abstand - in der Bildebene des optischen Sensors - zu der Start-Bildzeile aufweist. Schließlich wird der Abstand des Objekts ermittelt, indem die Bild-Lage der Fußpunkt-Bildzeile relativ zu der Start-Bildzeile und der End-Bildzeile unter Berücksichtigung der örtlichen Lage des sichtbaren Abstandsbereichs ausgewertet wird.
  • Insbesondere erfolgt die Ermittlung der Fußpunkt-Bildzeile bevorzugt folgendermaßen: In der Aufnahme wird eine Objekterkennung insbesondere mittels Mustererkennung, vorzugsweise unter Anwendung eines Klassifikationsalgorithmus und/oder mittels Deep Learning durchgeführt. Wird ein Objekt erkannt, werden in der Aufnahme auf der Grundlage dieser Erkennung beziehungsweise Klassifikation alle Bildzeilen ermittelt, in denen das Objekt dargestellt ist. Sodann wird diejenige Bildzeile als Fußpunkt-Bildzeile ermittelt, die den kleinsten Abstand zu der Start-Bildzeile aufweist.
  • Vorzugsweise wird der Objekt-Abstand als Abstand zwischen dem Objekt und dem optischen Sensor bestimmt, wobei eine Abstandsbereichsbreite als Differenz von dem Ende des sichtbaren Abstandsbereichs und dem Beginn des sichtbaren Abstandsbereichs bestimmt wird. Es wird ein Fußpunkt-Abstand als Bildzeilen-Abstand auf dem optischen Sensor zwischen der Fußpunkt-Bildzeile und der Start-Bildzeile bestimmt. Weiterhin wird eine Abstandsbereichs-Bildbreite als Bildzeilen-Abstand zwischen der End-Bildzeile und der Start-Bildzeile ermittelt. Der Objekt-Abstand wird dann schließlich ermittelt als Summe aus dem Beginn des sichtbaren Abstandsbereichs, das heißt insbesondere des räumlichen Abstands zwischen dem Beginn des sichtbaren Abstandsbereichs und dem optischen Sensor, und dem Produkt aus der Abstandsbereichsbreite mit dem Verhältnis des Fußpunkt-Abstands zu der Abstandsbereichs-Bildbreite. Insbesondere wird der Objekt-Abstand bestimmt nach folgender Formel: x = x n e a r + ( x f a r x n e a r ) v v n e a r v f a r v n e a r
    Figure DE102021003153B4_0001
    wobei xnear der Beginn des sichtbaren Abstandsbereichs, xfar das Ende des sichtbaren Abstandsbereichs, entsprechend (xfar - xnear) die Abstandsbereichsbreite, vnear die Start-Bildzeile, vrar die End-Bildzeile, und entsprechend (vfar - vnear) die Abstandsbereichs-Bildbreite, v die Fußpunkt-Bildzeile, entsprechend (v - vnear) der Fußpunkt-Abstand, und x der Objekt-Abstand ist.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass mittels eines Radar-Sensors eine Geschwindigkeit des gefundenen Objekts ermittelt wird. Alternativ oder zusätzlich ist vorgesehen, dass mittels eines Lidar-Sensors die Geschwindigkeit des gefundenen Objekts ermittelt wird. Vorteilhafterweise kann mittels der Geschwindigkeit des gefundenen Objekts die geplante Bewegungstrajektorie noch besser und zuverlässiger bewertet werden.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass das gefundene Objekt mittels der ersten Aufnahme einer Fahrspur zugeordnet wird. Vorteilhafterweise kann damit bestimmt werden, ob sich das gefundene Objekt auf einer Fahrspur befindet, die von dem Kraftfahrzeug basierend auf der geplanten Bewegungstrajektorie befahren werden soll. Damit kann vorteilhafterweise zwischen für die geplante Bewegungstrajektorie relevanten und irrelevanten Objekten unterschieden werden.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass, falls in der ersten Aufnahme kein Objekt gefunden wird, einer zweiten abgestimmten Ansteuerung ein zweiter sichtbarer Abstandsbereich zugeordnet wird, wobei mittels der zweiten abgestimmten Ansteuerung eine zweite Aufnahme des zweiten sichtbaren Abstandsbereichs entgegen der Fahrtrichtung des Kraftfahrzeugs aufgenommen wird. Mittels der zweiten Aufnahme wird nach Objekten gesucht, wobei wenn ein Objekt gefunden wird, der erste Objekt-Abstand als Abstand zwischen dem gefundenen Objekt und dem optischen Sensor geschätzt wird. Basierend auf dem ersten Objekt-Abstand wird die geplante Bewegungstrajektorie des Kraftfahrzeugs bewertet.
  • Vorzugsweise sind eine erste Breite des ersten sichtbaren Abstandsbereichs und eine zweite Breite des zweiten sichtbaren Abstandsbereichs identisch. Alternativ oder zusätzlich überlappen sich vorzugsweise der erste sichtbare Abstandsbereich und der zweite sichtbare Abstandsbereich höchstens teilweise. Alternativ oder zusätzlich entspricht vorzugsweise eine entfernte Grenze des ersten sichtbaren Abstandsbereichs einer nahen Grenze des zweiten sichtbaren Abstandsbereichs oder vorzugsweise entspricht eine nahe Grenze des ersten sichtbaren Abstandsbereichs einer entfernten Grenze des zweiten sichtbaren Abstandsbereichs.
  • Im Kontext der vorliegenden technischen Lehre ist eine Breite des sichtbaren Abstandsbereichs ein Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Abstandsbereichs.
  • Vorzugsweise beträgt die Breite des sichtbaren Abstandsbereichs von mindestens 50 m bis höchstens 300 m.
  • Vorteilhafterweise kann damit ein objektseitiger Bereich mittels einer Mehrzahl an sichtbaren Abstandsbereichen insbesondere in einer scannenden Weise beobachtet werden. Vorzugsweise beträgt bei der Beobachtung in der scannenden Weise die Breite der sichtbaren Abstandsbereiche mindestens 80 m.
  • Vorteilhafterweise ist eine Bestimmung des Abstands zwischen dem optischen Sensor und dem gefundenen Objekt genauer, je kleiner die Breite des sichtbaren Abstandsbereichs ist. Somit ist vorteilhafterweise die Abschätzung des zweiten Objekt-Abstandes genauer als die Abschätzung des ersten Objekt-Abstandes.
  • Vorzugsweise beträgt mindestens eine Breite, ausgewählt aus der ersten Breite des ersten sichtbaren Abstandsbereichs, der zweiten Breite des zweiten sichtbaren Abstandsbereichs, und einer Bereite eines Bereichs der Mehrzahl an sichtbaren Abstandsbereichen, von mindestens 150 m bis höchstens 300 m. Alternativ oder zusätzlich beträgt die dritte Breite des dritten sichtbaren Abstandsbereichs von mindestens 50 m bis höchstens 150 m.
  • Vorzugsweise wird der zweite Objekt-Abstand mittels eines Verfahrens nach der deutschen Offenlegungsschrift DE 10 2020 002 994 A1 geschätzt.
  • Vorzugsweise wird eine Eigen-Geschwindigkeit des Kraftfahrzeugs in die Bestimmung der dritten abgestimmten Ansteuerung miteinbezogen, sodass das gefundene Objekt in dem dritten sichtbaren Abstandsbereich angeordnet ist. Alternativ oder zusätzlich wird vorzugsweise die Geschwindigkeit des gefundenen Objekts in die Bestimmung der dritten abgestimmten Ansteuerung miteinbezogen, sodass das gefundene Objekt in dem dritten sichtbaren Abstandsbereich angeordnet ist. Alternativ oder zusätzlich wird vorzugsweise eine Geschwindigkeitsdifferenz als Differenz der Eigen-Geschwindigkeit und der Geschwindigkeit des gefundenen Objekts in die Bestimmung der dritten abgestimmten Ansteuerung miteinbezogen, sodass das gefundene Objekt in dem dritten sichtbaren Abstandsbereich angeordnet ist.
  • In einer bevorzugten Ausgestaltung wird der objektseitige Bereich solange mittels mindestens eines sichtbaren Abstandsbereichs, insbesondere des ersten sichtbaren Abstandsbereichs, oder einer Mehrzahl an sichtbaren Abstandsbereichen in der scannenden Weise beobachtet, bis ein Objekt gefunden wird. Anschließend wird mittels der dritten abgestimmten Ansteuerung der zweite Objekt-Abstand bestimmt, um vorteilhafterweise eine genauere Abschätzung der Entfernung des gefundenen Objekts von dem optischen Sensor zu bestimmen.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass in mindestens einer Aufnahme, ausgewählt aus der ersten Aufnahme, der zweiten Aufnahme, der dritten Aufnahme, und einer Aktivierungsaufnahme, mittels eines Scheinwerfer-Detektionsverfahrens nach Objekten gesucht wird. Dabei wird die Aktivierungsaufnahme mittels des optischen Sensors entgegen der Fahrtrichtung des Kraftfahrzeugs zeitlich vor der ersten Aufnahme aufgenommen. Vorteilhafterweise kann damit gesteuert werden, ob die geplante Bewegungstrajektorie bewertet wird. Insbesondere ist eine Bewertung der geplanten Bewegungstrajektorie nur dann notwendig, wenn entgegen der Fahrtrichtung des Kraftfahrzeugs mindestens ein Scheinwerfer mittels des Scheinwerfer-Detektionsverfahrens erkannt wird. Zusätzlich kann das Scheinwerfer-Detektionsverfahren in einer einfachen und zuverlässigen Weise ein Objekt insbesondere bei einer niedrigen Helligkeit finden und/oder detektieren.
  • Vorzugsweise ist das Scheinwerfer-Detektionsverfahren ein Verfahren, das eingerichtet ist, um in einer Aufnahme vorzugsweise des optischen Sensors Abbildungen von Scheinwerfern zu finden, wobei daraus dann auf die Anwesenheit von Objekten, insbesondere von Kraftfahrzeugen und/oder Krafträdern, geschlossen werden kann.
  • In einer bevorzugten Ausgestaltung werden die Aufnahmen - insbesondere die erste Aufnahme und die zweite Aufnahme, die erste Aufnahme und die dritte Aufnahme, oder die Mehrzahl an Aufnahmen - mit einer Aufnahmerate von mindestens 20 Hz bis höchstens 90 Hz aufgenommen. Vorteilhafterweise ist bei einer Aufnahmerate von mindestens 20 Hz bis höchstens 90 Hz nicht notwendig, die Eigen-Geschwindigkeit und/oder die Geschwindigkeit des gefundenen Objekts zu betrachten, um eine weitere abgestimmte Ansteuerung zu bestimmen.
  • Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Bewegungstrajektorie dahingehend bewertet wird, ob ein Spurwechsel begonnen werden kann und/oder ob ein Einfädeln in eine Fahrspur möglich ist.
  • Die Aufgabe wird auch gelöst, indem eine Steuervorrichtung geschaffen wird, die zur Durchführung eines erfindungsgemäßen Verfahrens oder eines Verfahrens gemäß einer oder mehrerer der zuvor beschriebenen Ausführungsformen eingerichtet ist. Die Steuervorrichtung ist vorzugsweise als Rechenvorrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Kraftfahrzeugs, ausgebildet. In Zusammenhang mit der Steuervorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
  • Die Steuervorrichtung ist bevorzugt eingerichtet, um mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, wirkverbunden zu werden, und eingerichtet zu deren jeweiliger Ansteuerung.
  • Zusätzlich ist die Steuervorrichtung bevorzugt eingerichtet, um mit dem Knickwinkel-Sensor wirkverbunden zu werden, und zusätzlich vorzugsweise eingerichtet zu dessen Ansteuerung. Alternativ oder zusätzlich ist die Steuervorrichtung bevorzugt eingerichtet, um mit dem Radar-Sensor wirkverbunden zu werden, und eingerichtet zu dessen Ansteuerung. Alternativ oder zusätzlich ist die Steuervorrichtung bevorzugt eingerichtet, um mit dem Lidar-Sensor wirkverbunden zu werden, und eingerichtet zu dessen Ansteuerung.
  • Die Aufgabe wird auch gelöst, indem eine Schulterblickvorrichtung geschaffen wird, die eine Gated-Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, und eine erfindungsgemäße Steuervorrichtung oder eine Steuervorrichtung nach einer oder mehrerer der zuvor beschriebenen Ausführungsformen aufweist. In Zusammenhang mit der Schulterblickvorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuervorrichtung erläutert wurden.
  • In einer bevorzugten Ausgestaltung weist die Schulterblickvorrichtung zusätzlich einen Knickwinkel-Sensor auf, der eingerichtet ist, um ein Sensorsignal zu erzeugen, welches einen Rückschluss erlaubt, ob ein Anhänger und/oder ein Auflieger die Sicht entgegen der Fahrtrichtung blockiert. Alternativ oder zusätzlich weist die Schulterblickvorrichtung vorzugsweise einen Radar-Sensor auf, der eingerichtet ist, um die Geschwindigkeit des gefundenen Objekts abzuschätzen. Alternativ oder zusätzlich weist die Schulterblickvorrichtung vorzugsweise einen Lidar-Sensor auf, der eingerichtet ist, um die Geschwindigkeit des gefundenen Objekts abzuschätzen.
  • Die Steuervorrichtung ist bevorzugt mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung.
  • Zusätzlich ist die Steuervorrichtung bevorzugt mit dem Knickwinkel-Sensor wirkverbunden und zusätzlich vorzugsweise eingerichtet zu dessen Ansteuerung. Alternativ oder zusätzlich ist die Steuervorrichtung bevorzugt mit dem Radar-Sensor wirkverbunden und eingerichtet zu dessen Ansteuerung. Alternativ oder zusätzlich ist die Steuervorrichtung bevorzugt mit dem Lidar-Sensor wirkverbunden und eingerichtet zu dessen Ansteuerung.
  • Die Aufgabe wird auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Schulterblickvorrichtung oder einer Schulterblickvorrichtung nach einer oder mehrerer der zuvor beschriebenen Ausführungsformen geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuervorrichtung und der Schulterblickvorrichtung erläutert wurden.
  • In einer bevorzugten Ausgestaltung ist das Kraftfahrzeug als autonom fahrendes Kraftfahrzeug ausgebildet. Alternativ oder zusätzlich ist das Kraftfahrzeug vorzugsweise als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug als ein Personenkraftwagen, ein Nutzfahrzeug, oder ein anderes Kraftfahrzeug ausgebildet ist.
  • Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert.
  • Dabei zeigen:
    • 1 eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs mit einem ersten sichtbaren Abstandsbereich,
    • 2 eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs mit einem ersten und einem zweiten sichtbaren Abstandsbereich,
    • 3 eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs mit einem ersten und einem dritten sichtbaren Abstandsbereich, und
    • 4 eine schematische Darstellung eines Ablaufdiagramms eines Ausführungsbeispiels eines Verfahrens zum Betreiben einer Gated-Kamera.
  • 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1 mit einer Schulterblickvorrichtung 3, die zur Aufnahme von Aufnahmen 33 entgegen einer Fahrtrichtung 5 eingerichtet ist. Die Schulterblickvorrichtung 3 weist eine Gated-Kamera 7 und eine Steuervorrichtung 9 auf. Weiterhin weist die Gated-Kamera 7 eine Beleuchtungseinrichtung 11 - vorzugsweise einen Laser, insbesondere einen VSCE-Laser - und einen optischen Sensor 13 - vorzugsweise eine Kamera - auf. Die Steuervorrichtung 9 ist hier nur schematisch dargestellt und in nicht explizit dargestellter Weise mit der Gated-Kamera 7, insbesondere der Beleuchtungseinrichtung 11 und dem optischen Sensor 13, wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung. Dargestellt in 1 ist insbesondere ein Beleuchtungs-Frustum 15 der Beleuchtungseinrichtung 11 und ein Beobachtungsbereich 17 des optischen Sensors 13.
  • Schraffiert dargestellt ist außerdem ein erster sichtbarer Abstandsbereich 19.1, der sich als Teilmenge des Beleuchtungs-Frustums 15 der Beleuchtungseinrichtung 11 und dem Beobachtungsbereichs 17 des optischen Sensors 13 ergibt. Der erste sichtbare Abstandsbereich 19.1 weist eine erste nahe Grenze 21.1 und eine erste entfernte Grenze 23.1 auf. Die erste nahe Grenze 21.1 des ersten sichtbaren Abstandsbereichs 19.1 weist eine erste Entfernung 25.1 zu dem optischen Sensor 13 auf. Zusätzlich weist der erste sichtbare Abstandsbereich 19.1 eine erste Breite 27.1 als Abstand zwischen der ersten nahen Grenze 21.1 und der ersten entfernten Grenze 23.1 auf.
  • In dem ersten sichtbaren Abstandsbereich 19.1 ist ein Objekt 29, insbesondere ein Motorrad, angeordnet. Ein erster Objekt-Abstand 31.1 wird mittels einer ersten Aufnahme 33.1 des ersten sichtbaren Abstandsbereichs 19.1 geschätzt. Vorzugsweise wird der erste Objekt-Abstand 31.1 mittels der ersten nahen Grenze 21.1 und der ersten entfernten Grenze 23.1 des ersten sichtbaren Abstandsbereichs 19.1 insbesondere unter Anwendung eines Verfahrens gemäß der deutschen Offenlegungsschrift DE 10 2020 002 994 A1 geschätzt.
  • 2 zeigt eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs 1 mit einem ersten sichtbaren Abstandsbereich 19.1 und einem zweiten sichtbaren Abstandsbereich 19.2.
  • Gleiche und funktionsgleiche Elemente sind in allen Figuren mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangegangene Beschreibung verwiesen wird.
  • In 2 a) ist in dem ersten sichtbaren Abstandsbereich 19.1 kein Objekt angeordnet. Insbesondere ist das Objekt 29, insbesondere das Motorrad, außerhalb des ersten sichtbaren Abstandsbereichs 19.1, insbesondere hinter der ersten entfernten Grenze 23.1, angeordnet. Damit kann mittels der ersten Aufnahme 33.1 kein Objekt gefunden werden.
  • Eine Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 1 und 2 sind vorzugsweise verschieden. Alternativ sind vorzugsweise die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 1 und 2 identisch.
  • In 2 b) ist der zweite sichtbare Abstandsbereich 19.2 dargestellt. Insbesondere ist die erste entfernte Grenze 23.1 des ersten sichtbaren Abstandsbereichs 19.1 eine zweite nahe Grenze 21.2 des zweiten sichtbaren Abstandsbereichs 19.2. Insbesondere wird somit mittels des ersten sichtbaren Abstandsbereichs 19.1 und des zweiten sichtbaren Abstandsbereichs 19.2 ein Schnittbereich des Beleuchtungs-Frustums 15 der Beleuchtungseinrichtung 11 und dem Beobachtungsbereichs 17 des optischen Sensors 13 in einer scannenden Weise beobachtet.
  • Vorzugsweise weist die zweite nahe Grenze 21.2 des zweiten sichtbaren Abstandsbereichs 19.2 eine zweite Entfernung 25.2 zu dem optischen Sensor 13 auf. Zusätzlich weist der zweite sichtbare Abstandsbereich 19.2 eine zweite Breite 27.2 als Abstand zwischen der zweiten nahen Grenze 21.2 und der zweiten entfernten Grenze 23.2 auf. Vorzugsweise sind die erste Breite 27.1 und die zweite Breite 27.2 identisch.
  • Innerhalb des zweiten sichtbaren Abstandsbereichs 19.2 ist das Objekt 29, insbesondere das Motorrad, angeordnet. Der erste Objekt-Abstand 31.1 wird mittels einer zweiten Aufnahme 33.2 des zweiten sichtbaren Abstandsbereichs 19.2 geschätzt.
  • 3 zeigt eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs 1 mit einem ersten sichtbaren Abstandsbereich 19.1 und einem dritten sichtbaren Abstandsbereich 19.3.
  • In 3 a) ist der erste sichtbare Abstandsbereich 19.1 dargestellt. Insbesondere ist innerhalb des ersten sichtbaren Abstandsbereichs 19.1 das Objekt 29, insbesondere das Motorrad, angeordnet. Der erste Objekt-Abstand 31.1 wird mittels der ersten Aufnahme 33.1 des ersten sichtbaren Abstandsbereichs 19.1 geschätzt.
  • Die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 1 und 3 sind vorzugsweise verschieden. Alternativ sind vorzugsweise die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 1 und 3 identisch. Alternativ sind vorzugsweise die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 2 und 3 verschieden. Alternativ sind vorzugsweise die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 2 und 3 identisch.
  • In 3 b) ist der dritte sichtbare Abstandsbereich 19.3 dargestellt. Vorzugsweise weist eine dritte nahe Grenze 21.3 des dritten sichtbaren Abstandsbereichs 19.3 eine dritte Entfernung 25.3 zu dem optischen Sensor 13 auf. Zusätzlich weist der dritte sichtbare Abstandsbereich 19.3 eine dritte Breite 27.3 als Abstand zwischen der dritten nahen Grenze 21.3 und einer dritten entfernten Grenze 23.3 auf. Zusätzlich ist vorzugsweise die dritte Breite 27.3 kleiner als die erste Breite 27.1. Insbesondere ist der dritte sichtbare Abstandsbereich 19.3 derart gewählt, dass das gefundene Objekt 29 innerhalb des dritten sichtbaren Abstandsbereichs 19.3 liegt.
  • Ein zweiter Objekt-Abstand 31.2 wird mittels einer dritten Aufnahme 33.3 des dritten sichtbaren Abstandsbereichs 19.3 geschätzt.
  • In den 1, 2 und 3 ist die Steuervorrichtung 7 insbesondere eingerichtet, um ein Verfahren zum Betreiben der Gated-Kamera 7 durchzuführen und eine geplante Bewegungstrajektorie des Kraftfahrzeugs 1 zu bewerten.
  • 4 zeigt eine schematische Darstellung eines Ablaufdiagramms eines Ausführungsbeispiels des Verfahrens zum Betreiben der Gated-Kamera 7.
  • In einem ersten Schritt a) wird einer abgestimmten Ansteuerung ein sichtbarer Abstandsbereich 19 zugeordnet - insbesondere wird einer ersten abgestimmten Ansteuerung der erste sichtbare Abstandsbereich 19.1 zugeordnet. Weiterhin wird mittels der abgestimmten Ansteuerung eine Aufnahme 33 des sichtbaren Abstandsbereichs 19 entgegen der Fahrtrichtung 5 des Kraftfahrzeugs 1 aufgenommen - insbesondere wird mittels der ersten abgestimmten Ansteuerung die erste Aufnahme 33.1 des ersten sichtbaren Abstandsbereichs 19.1 aufgenommen.
  • In einem zweiten Schritt b) wird mittels der Aufnahme 33 - insbesondere mittels der ersten Aufnahme 33.1 - nach Objekten 29 gesucht.
  • Falls das Objekt 29 gefunden wird, wird in einem dritten Schritt c) ein Objekt-Abstand 31 - insbesondere der erste Objekt-Abstand 31.1 - als Abstand zwischen dem gefundenen Objekt 29 und dem optischen Sensor 13 geschätzt.
  • In einem vierten Schritt d) wird basierend auf dem Objekt-Abstand 31 - insbesondere dem ersten Objekt-Abstand 31.1 - eine geplante Bewegungstrajektorie des Kraftfahrzeugs 1 bewertet. Vorzugsweise wird die Bewegungstrajektorie dahingehend bewertet, ob ein Spurwechsel begonnen werden kann. Alternativ oder zusätzlich wird vorzugsweise die Bewegungstrajektorie dahingehend bewertet, ob ein Einfädeln in eine Fahrspur möglich ist.
  • Falls in dem zweiten Schritt b) kein Objekt 29 gefunden wird, wird in einer bevorzugten Ausgestaltung des Verfahrens erneut mit dem ersten Schritt a) gestartet. Vorzugsweise wird in der erneuten Ausführung des ersten Schritts a) einer zweiten abgestimmten Ansteuerung der zweite sichtbare Abstandsbereich 19.2 zugeordnet. Zusätzlich wird vorzugsweise mittels der zweiten abgestimmten Ansteuerung die zweite Aufnahme 33.2 des zweiten sichtbaren Abstandsbereichs 19.2 entgegen der Fahrtrichtung 5 des Kraftfahrzeugs 1 aufgenommen. Anschließend wird vorzugsweise in einer erneuten Ausführung des zweiten Schritts b) mittels der zweiten Aufnahme 33.2 nach Objekten 29 gesucht. Falls bei der zweiten Ausführung des zweiten Schritts b) das Objekt 29 gefunden wird, wird vorzugsweise der Objekt-Abstand 31 - insbesondere der erste Objekt-Abstand 31.1 - anhand der zweiten Aufnahme 33.2 geschätzt. Falls bei der erneuten Ausführung des zweiten Schritts b) erneut kein Objekt 29 gefunden wird, kann vorzugsweise das Verfahren erneut mit dem ersten Schritt a) gestartet werden.
  • In einer weiteren bevorzugten Ausgestaltung wird nach dem dritten Schritt c) erneut der erste Schritt a) durchgeführt. Vorzugsweise wird bei der erneuten Durchführung des ersten Schritts a) eine dritte abgestimmte Ansteuerung derart bestimmt, dass der erste Objekt-Abstand 31.1 innerhalb des dritten sichtbaren Abstandsbereichs 19.3, welcher der dritten abgestimmten Ansteuerung zugeordnet wird, liegt. Vorzugsweise ist die dritte Breite 27.3 des dritten sichtbaren Abstandsbereichs 19.3 kleiner als die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1. Zusätzlich wird vorzugsweise mittels der dritten abgestimmten Ansteuerung die dritte Aufnahme 33.3 des dritten sichtbaren Abstandsbereichs 19.3 entgegen der Fahrtrichtung 5 des Kraftfahrzeugs 1 aufgenommen. Anschließend wird vorzugsweise in einer erneuten Ausführung des zweiten Schritts b) mittels der dritten Aufnahme 33.3 nach Objekten 29 - insbesondere nach dem Objekt 29, insbesondere dem Motorrad - gesucht. Wenn das Objekt 29 gefunden wird, wird bei einer erneuten Ausführung des dritten Schritts c) der zweite Objekt-Abstand 31.2 als Abstand zwischen dem gefundenen Objekt 29, insbesondere dem Motorrad, und dem optischen Sensor 13 geschätzt. Anschließend wird in dem vierten Schritt d) basierend auf dem ersten Objekt-Abstand 31.1 und zusätzlich basierend auf dem zweiten Objekt-Abstand 31.2 die geplante Bewegungstrajektorie des Kraftfahrzeugs 1 bewertet.
  • In einem optionalen fünften Schritt e) wird vorzugsweise vor dem dritten Schritt c) mittels eines Radar-Sensors und/oder eines Lidar-Sensors eine Geschwindigkeit des gefundenen Objekts 29 ermittelt.
  • Vorzugsweise wird in dem zweiten Schritt b) mittels einer Aufnahme 33, insbesondere ausgewählt aus der ersten Aufnahme 33.1, vorzugsweise der zweiten Aufnahme 33.2, und vorzugsweise der dritten Aufnahme 33.3, das gefundene Objekt 29 einer Fahrspur zugeordnet. Alternativ wird vorzugsweise in dem dritten Schritt c) mittels einer Aufnahme 33, insbesondere ausgewählt aus der ersten Aufnahme 33.1, vorzugsweise der zweiten Aufnahme 33.2, und vorzugsweise der dritten Aufnahme 33.3, das gefundene Objekt 29 einer Fahrspur zugeordnet.
  • In einem optionalen sechsten Schritt f) wird vorzugsweise eine Aktivierungsaufnahme 35 mittels des optischen Sensors 13 insbesondere ohne Beleuchtung mittels der Beleuchtungseinrichtung 11 entgegen der Fahrtrichtung 5 des Kraftfahrzeugs 1 vorzugsweise vor der ersten Aufnahme 33.1 aufgenommen. Zusätzlich wird vorzugsweise in der Aktivierungsaufnahme 35 mittels eines Scheinwerfer-Detektionsverfahrens nach Objekten 29 gesucht.
  • Vorzugsweise wird in dem zweiten Schritt b) mittels des Scheinwerfer-Detektionsverfahrens in der ersten Aufnahme 33.1 nach Objekten 29 gesucht. Alternativ oder zusätzlich wird vorzugsweise in dem zweiten Schritt b) mittels des Scheinwerfer-Detektionsverfahrens in der zweiten Aufnahme 33.2 nach Objekten 29 gesucht. Alternativ oder zusätzlich wird vorzugsweise in dem zweiten Schritt b) mittels des Scheinwerfer-Detektionsverfahrens in der dritten Aufnahme 33.3 nach Objekten 29 gesucht.

Claims (9)

  1. Verfahren zum Betreiben einer Gated-Kamera (7), die eine Beleuchtungseinrichtung (11) und einen optischen Sensor (13) aufweist, in einem Kraftfahrzeug (1) entgegen der Fahrtrichtung (5) des Kraftfahrzeugs (1), wobei - eine Ansteuerung der Beleuchtungseinrichtung (11) und des optischen Sensors (13) zeitlich aufeinander abgestimmt werden, wobei - einer ersten abgestimmten Ansteuerung ein erster sichtbarer Abstandsbereich (19.1) zugeordnet wird, wobei - mittels der ersten abgestimmten Ansteuerung eine erste Aufnahme (33.1) des ersten sichtbaren Abstandsbereichs (19.1) entgegen der Fahrtrichtung (5) des Kraftfahrzeugs (1) aufgenommen wird, wobei - mittels der ersten Aufnahme (33.1) nach Objekten (29) gesucht wird, wobei - wenn ein Objekt (29) gefunden wird, ein erster Objekt-Abstand (31.1) als Abstand zwischen dem gefundenen Objekt (29) und dem optischen Sensor (13) geschätzt wird, wobei - eine geplante Bewegungstrajektorie des Kraftfahrzeugs (1) basierend auf dem ersten Objekt-Abstand (31.1) bewertet wird, dadurch gekennzeichnet, dass - falls ein Objekt (29) gefunden wurde und der erste Objekt-Abstand (31.1) geschätzt wurde, eine dritte abgestimmte Ansteuerung derart bestimmt wird, dass das gefundene Objekt (29) innerhalb eines dritten sichtbaren Abstandsbereichs (19.3), welcher der dritten abgestimmten Ansteuerung zugeordnet wird, liegt, wobei - eine dritte Breite (27.3) des dritten sichtbaren Abstandsbereichs (19.3) kleiner ist als eine erste Breite (27.1) des ersten sichtbaren Abstandsbereichs (19.1), wobei - mittels der dritten abgestimmten Ansteuerung eine dritte Aufnahme (33.3) des dritten sichtbaren Abstandsbereichs (19.3) entgegen der Fahrtrichtung (5) des Kraftfahrzeugs (1) aufgenommen wird, wobei - mittels der dritten Aufnahme (33.3) nach einem Objekt (29) gesucht wird, wobei - wenn ein Objekt (29) gefunden wird, ein zweiter Objekt-Abstand (31.2) als Abstand zwischen dem gefundenen Objekt (29) und dem optischen Sensor (13) geschätzt wird, wobei - die geplante Bewegungstrajektorie des Kraftfahrzeugs (1) zusätzlich basierend auf dem zweiten Objekt-Abstand (31.2) bewertet wird.
  2. Verfahren nach Anspruch 1, wobei mittels eines Radar-Sensors und/oder eines Lidar-Sensors eine Geschwindigkeit des gefundenen Objekts (29) ermittelt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei das gefundene Objekt (29) mittels der ersten Aufnahme (33.1) einer Fahrspur zugeordnet wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei - falls in der ersten Aufnahme (33.1) kein Objekt (29) gefunden wird, einer zweiten abgestimmten Ansteuerung ein zweiter sichtbarer Abstandsbereich (19.2) zugeordnet wird, wobei - mittels der zweiten abgestimmten Ansteuerung eine zweite Aufnahme (33.2) des zweiten sichtbaren Abstandsbereichs (19.2) entgegen der Fahrtrichtung (5) des Kraftfahrzeugs (1) aufgenommen wird, wobei - mittels der zweiten Aufnahme (33.2) nach Objekten (29) gesucht wird, wobei - wenn ein Objekt (29) gefunden wird, der erste Objekt-Abstand (31.1) als Abstand zwischen dem gefundenen Objekt (29) und dem optischen Sensor (13) geschätzt wird, wobei - die geplante Bewegungstrajektorie des Kraftfahrzeugs (1) basierend auf dem ersten Objekt-Abstand (31.1) bewertet wird.
  5. Verfahren nach Anspruch 4, wobei in mindestens einer Aufnahme (33, 35), ausgewählt aus der ersten Aufnahme (33.1), der zweiten Aufnahme (33.2), der dritten Aufnahme (33.3), und einer Aktivierungsaufnahme (35), mittels eines Scheinwerfer-Detektionsverfahrens nach Objekten (29) gesucht wird, wobei die Aktivierungsaufnahme (35) mittels des optischen Sensors (13) entgegen der Fahrtrichtung (5) des Kraftfahrzeugs (1) zeitlich vor der ersten Aufnahme (33.1) aufgenommen wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die geplante Bewegungstrajektorie dahingehend bewertet wird, ob ein Spurwechsel begonnen werden kann und/oder ob ein Einfädeln in eine Fahrspur möglich ist.
  7. Steuervorrichtung (9), eingerichtet zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
  8. Schulterblickvorrichtung (3) mit einer Gated-Kamera (7), die eine Beleuchtungseinrichtung (11) und einen optischen Sensor (13) aufweist, und einer Steuervorrichtung (9) nach Anspruch 7.
  9. Kraftfahrzeug (1) mit einer Schulterblickvorrichtung (3) nach Anspruch 8.
DE102021003153.9A 2021-06-18 2021-06-18 Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung Active DE102021003153B4 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102021003153.9A DE102021003153B4 (de) 2021-06-18 2021-06-18 Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung
CN202280042962.6A CN117501151A (zh) 2021-06-18 2022-06-14 选通摄像头操作方法、用于执行这种方法的控制装置、具有这种控制装置的回望装置和具有这种回望装置的机动车
US18/571,023 US20240190349A1 (en) 2021-06-18 2022-06-14 Method for Operating a Gated Camera, Control Device for Carrying Out Such a Method, Over-The-Shoulder View Device Having Such a Control Device, and Motor Vehicle Having Such an Over-The-Shoulder View Device
PCT/EP2022/066149 WO2022263435A1 (de) 2021-06-18 2022-06-14 Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, schulterblickvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen schulterblickvorrichtung
EP22736185.4A EP4356163A1 (de) 2021-06-18 2022-06-14 Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, schulterblickvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen schulterblickvorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021003153.9A DE102021003153B4 (de) 2021-06-18 2021-06-18 Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung

Publications (2)

Publication Number Publication Date
DE102021003153A1 DE102021003153A1 (de) 2022-12-22
DE102021003153B4 true DE102021003153B4 (de) 2024-10-02

Family

ID=82361343

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021003153.9A Active DE102021003153B4 (de) 2021-06-18 2021-06-18 Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung

Country Status (5)

Country Link
US (1) US20240190349A1 (de)
EP (1) EP4356163A1 (de)
CN (1) CN117501151A (de)
DE (1) DE102021003153B4 (de)
WO (1) WO2022263435A1 (de)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050134440A1 (en) 1997-10-22 2005-06-23 Intelligent Technolgies Int'l, Inc. Method and system for detecting objects external to a vehicle
US20080046150A1 (en) 1994-05-23 2008-02-21 Automotive Technologies International, Inc. System and Method for Detecting and Protecting Pedestrians
DE102018002955A1 (de) 2017-04-20 2018-10-25 Scania Cv Ab Verfahren und steueranordnung zur umgebungswahrnehmung
DE102020002994A1 (de) 2020-05-19 2020-07-02 Daimler Ag Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3428687A1 (de) * 2017-07-14 2019-01-16 Veoneer Sweden AB Sichtsystem und sichtverfahren für ein fahrzeug

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080046150A1 (en) 1994-05-23 2008-02-21 Automotive Technologies International, Inc. System and Method for Detecting and Protecting Pedestrians
US20050134440A1 (en) 1997-10-22 2005-06-23 Intelligent Technolgies Int'l, Inc. Method and system for detecting objects external to a vehicle
DE102018002955A1 (de) 2017-04-20 2018-10-25 Scania Cv Ab Verfahren und steueranordnung zur umgebungswahrnehmung
DE102020002994A1 (de) 2020-05-19 2020-07-02 Daimler Ag Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung

Also Published As

Publication number Publication date
CN117501151A (zh) 2024-02-02
DE102021003153A1 (de) 2022-12-22
EP4356163A1 (de) 2024-04-24
WO2022263435A1 (de) 2022-12-22
US20240190349A1 (en) 2024-06-13

Similar Documents

Publication Publication Date Title
DE102020002994B4 (de) Verfahren zur Messung eines Abstandes zwischen einem Objekt und einem optischen Sensor, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Abstandsmessvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Abstandsmessvorrichtung
EP1407293A1 (de) Erfassungsverfahren und -vorrichtung
DE102020004690A1 (de) Verfahren zur Erkennung von Objekten, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Erkennungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Erkennungsvorrichtung
DE102020007613A1 (de) Verfahren zur Generierung einer dreidimensionalen Tiefeninformationskarte einer Umgebung
DE112018003346T5 (de) Anzeigesystem, Informationsdarstellungssystem, Verfahren zum Steuern eines Anzeigesystems, Aufzeichnungsmedium und mobiler Körper
WO2021239323A1 (de) Verfahren zur erkennung von bildartefakten, steuereinrichtung zur durchführung eines solchen verfahrens, erkennungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen erkennungsvorrichtung
EP1628141B1 (de) Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge
EP4241114A1 (de) Verfahren zum detektieren eines objekts mittels einer beleuchtungseinrichtung und eines optischen sensors, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung
DE102021003153B4 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Schulterblickvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Schulterblickvorrichtung
DE102009038406B4 (de) Verfahren und Vorrichtung zur Vermessung des Umfeldes eines Kraftfahrzeugs
DE102020007760A1 (de) Verfahren zur Klassifizierung von Fahrbahnmarkierungen und Fahrzeug
DE102005003191A1 (de) Vorrichtung und Verfahren zur Umfelderfassung eines bewegbaren Objektes
WO2022042902A1 (de) Verfahren zur objektverfolgung von mindestens einem objekt, steuereinrichtung zur durchführung eines solchen verfahrens, objektverfolgungsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen objektverfolgungsvorrichtung
DE102020007061B4 (de) Verfahren zum Betreiben einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102021004521B4 (de) Gated-Kamera-Vorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
EP1962245B1 (de) Verfahren und Vorrichtung zum Ermitteln des Bewegungszustands von Objekten
DE102021003728B4 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera-Vorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera-Vorrichtung
DE102021004516B3 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Gated-Kamera mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Gated-Kamera
DE102020005762B4 (de) Verfahren zum Kalibrieren einer Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung sowie Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
DE102018219420A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Entfernung von zumindest einem Objekt in einem Umfeld eines Fahrzeugs unter Verwendung einer Lasereinheit und einer Kameraeinheit
WO2021239322A1 (de) Verfahren zur detektion von verlorenen bildinformationen, steuereinrichtung zur durchführung eines solchen verfahrens, detektionsvorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen detektionsvorrichtung
DE102020007064B4 (de) Verfahren zum Kalibrieren einer ersten Beleuchtungseinrichtung, einer zweiten Beleuchtungseinrichtung und eines optischen Sensors, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
EP4352547A1 (de) Verfahren zum betreiben einer gated-kamera, steuervorrichtung zur durchführung eines solchen verfahrens, sichtweitenmessvorrichtung mit einer solchen steuervorrichtung und kraftfahrzeug mit einer solchen sichtweitenmessvorrichtung
WO2022184738A1 (de) Verfahren zum betreiben einer gated-kamera, steuereinrichtung zur durchführung eines solchen verfahrens, kameravorrichtung mit einer solchen steuereinrichtung und kraftfahrzeug mit einer solchen kameravorrichtung
DE102021000447A1 (de) Verfahren zum Betreiben einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kameravorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kameravorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R083 Amendment of/additions to inventor(s)
R081 Change of applicant/patentee

Owner name: DAIMLER TRUCK AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division