-
Die Erfindung betrifft ein Verfahren zum Betreiben einer Gated-Kamera, eine Steuervorrichtung zur Durchführung eines solchen Verfahrens, eine Schulterblickvorrichtung mit einer solchen Steuervorrichtung und ein Kraftfahrzeug mit einer solchen Schulterblickvorrichtung.
-
Insbesondere bei autonom fahrenden Kraftfahrzeugen ist eine Wahrnehmung und Vermessung der Umgebung zwingend notwendig, um das Kraftfahrzeug sicher und gefahrenfrei zu bewegen. Eine große Herausforderung hierbei - insbesondere bei autonom fahrenden Lastkraftwagen - stellen ein Spurwechsel und/oder ein Einfädeln in eine Fahrspur dar.
-
Aus der
US 2008/0046150 A1 ist ein Verfahren bekannt, bei dem ein Sensor-System in einem Fahrzeug dazu verwendet wird, um die Schwere eines möglichen Aufpralls zu bestimmen und darauf aufbauend mögliche Maßnahmen definiert werden. Die Analyse der Schwere des Aufpralls basiert auf einem Mustererkennungs-Verfahren.
-
Weiterhin zeigt die
US 2005/0134440 A1 ein Verfahren, um Informationen über Objekte in der Umgebung eines Fahrzeugs zu gewinnen. Dies geschieht durch einen Laserstrahl, dessen Reflektionen analysiert werden, um Informationen über die diesen reflektierenden Objekte zu bekommen.
-
Auch zeigt die
DE 10 2018 002 955 A1 ein Verfahren zur Wahrnehmung der Umgebung während des Fahrens eines Fahrzeugs. Mittels eines Sensors werden Informationen in Bezug auf ein Fahrzeugumgebungsobjekt eingeholt, diese werden anschließend digitalisiert und als eine digitalisierte Darstellung ausgegeben.
-
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Betreiben einer Gated-Kamera, eine Steuervorrichtung zur Durchführung eines solchen Verfahrens, eine Schulterblickvorrichtung mit einer solchen Steuervorrichtung und ein Kraftfahrzeug mit einer solchen Schulterblickvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
-
Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
-
Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zum Betreiben einer Gated-Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, in einem Kraftfahrzeug entgegen der Fahrtrichtung des Kraftfahrzeugs geschaffen wird, wobei eine Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zeitlich aufeinander abgestimmt werden. Einer ersten abgestimmten Ansteuerung wird ein erster sichtbarer Abstandsbereich zugeordnet, wobei mittels der ersten abgestimmten Ansteuerung eine erste Aufnahme des ersten sichtbaren Abstandsbereichs entgegen der Fahrtrichtung des Kraftfahrzeugs - also nach hinten - aufgenommen wird. Mittels der ersten Aufnahme wird nach Objekten gesucht, wobei wenn ein Objekt gefunden wird, ein erster Objekt-Abstand als Abstand zwischen dem gefundenen Objekt und dem optischen Sensor geschätzt wird. Anschließend wird eine geplante Bewegungstrajektorie des Kraftfahrzeugs basierend auf dem ersten Objekt-Abstand bewertet.
-
Dabei ist vorgesehen, dass, falls ein Objekt gefunden wurde und der erste Objekt-Abstand geschätzt wurde, eine dritte abgestimmte Ansteuerung derart bestimmt wird, dass das gefundene Objekt - insbesondere der erste Objekt-Abstand - innerhalb eines dritten sichtbaren Abstandsbereichs, welcher der dritten abgestimmten Ansteuerung zugeordnet wird, liegt, wobei eine dritte Breite des dritten sichtbaren Abstandsbereichs kleiner ist als die erste Breite des ersten sichtbaren Abstandsbereichs. Mittels der dritten abgestimmten Ansteuerung wird eine dritte Aufnahme des dritten sichtbaren Abstandsbereichs entgegen der Fahrtrichtung des Kraftfahrzeugs aufgenommen. Mittels der dritten Aufnahme wird nach Objekten gesucht, wobei wenn das Objekt gefunden wird, ein zweiter Objekt-Abstand als Abstand zwischen dem gefundenen Objekt und dem optischen Sensor geschätzt wird. Basierend auf dem ersten Objekt-Abstand und zusätzlich basierend auf dem zweiten Objekt-Abstand wird die geplante Bewegungstrajektorie des Kraftfahrzeugs bewertet.
-
Vorteilhafterweise können mittels des Verfahrens Objekte, insbesondere andere Verkehrsteilnehmer, welche sich in Fahrtrichtung hinter dem Kraftfahrzeug befinden, erkannt und mittels der Abstandsmessung vermessen werden. Damit kann vorteilhafterweise die geplante Bewegungstrajektorie des Kraftfahrzeugs - insbesondere ein Spurwechsel und/oder ein Einfädeln in eine Fahrspur - bewertet werden, um die Bewegung sicher und gefahrfrei durchzuführen.
-
Vorzugsweise wird für die Abstandsberechnung ein Verfahren nach der deutschen Offenlegungsschrift
DE 10 2020 002 994 A1 verwendet. Vorzugsweise wird der erste Objekt-Abstand mittels eines Verfahrens nach der deutschen Offenlegungsschrift
DE 10 2020 002 994 A1 geschätzt. Insbesondere werden bei einem Verfahren nach der deutschen Offenlegungsschrift
DE 10 2020 002 994 A1 eine nahe Grenze und eine entfernte Grenze des sichtbaren Abstandsbereichs - insbesondere eine erste nahe Grenze und eine erste entfernte Grenze des ersten sichtbaren Abstandsbereichs - genutzt, um eine Abstandsbestimmung durchzuführen.
-
Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung einer Beleuchtungseinrichtung und eines optischen Sensors ist insbesondere ein als Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie, insbesondere den sichtbaren Abstandsbereich, auszuleuchten.
-
Insbesondere wird durch die Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und die Dauer der abgegebenen Lichtimpulse und einen Start der Beleuchtung gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtlicher Lage, das heißt insbesondere in bestimmten Abständen der nahen und der entfernten Grenze des sichtbaren Abstandsbereichs von dem optischen Sensor, durch den optischen Sensor erfasst werden. Aus dem Aufbau der Gated-Kamera ist eine örtliche Lage des optischen Sensors und der Beleuchtungseinrichtung bekannt. Vorzugsweise ist außerdem ein örtlicher Abstand zwischen der Beleuchtungseinrichtung und dem optischen Sensor bekannt und klein im Vergleich zu dem Abstand der Beleuchtungseinrichtung bzw. des optischen Sensors zu dem sichtbaren Abstandsbereich. Damit ist im Kontext der vorliegenden technischen Lehre ein Abstand zwischen dem optischen Sensor und dem sichtbaren Abstandsbereich gleich einem Abstand zwischen der Gated-Kamera und dem sichtbaren Abstandsbereich.
-
Der sichtbare Abstandsbereich ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welcher durch die Anzahl und die Dauer der Lichtimpulse der Beleuchtungseinrichtung und dem Start der Beleuchtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
-
Der Beobachtungsbereich ist demgegenüber insbesondere der - objektseitige - Bereich im dreidimensionalen Raum, welcher bei ausreichender Beleuchtung und Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme insgesamt - insbesondere maximal - abgebildet werden könnte. Insbesondere entspricht der Beobachtungsbereich dem gesamten belichtbaren Bildbereich des optischen Sensors, der theoretisch ausgeleuchtet werden könnte. Der sichtbare Abstandsbereich ist somit eine Teilmenge des Beobachtungsbereichs im realen Raum. Entsprechend wird auch nur eine Teilmenge der Bildebene des optischen Sensors bei dem hier vorgeschlagenen Verfahren belichtet, wobei dieser Teilbereich der Bildebene insbesondere zwischen einer Start-Bildzeile und einer End-Bildzeile gegeben ist.
-
Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der Beobachtungsbereich und der sichtbare Abstandsbereich sind dabei objektseitig gegeben. Ihnen entsprechen durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordnete bildseitigen Bereiche auf der Bildebene.
-
Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Dabei verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
-
Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch eine entsprechend geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits die Lage und die räumliche Breite des sichtbaren Abstandsbereichs, insbesondere einen Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Abstandsbereichs, zu definieren.
-
In einer bevorzugten Ausgestaltung des Verfahrens wird der sichtbare Abstandsbereich vorgegeben, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits entsprechend vorgegeben wird.
-
In einer weiteren bevorzugten Ausgestaltung des Verfahrens wird die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits vorgegeben, wobei daraus entsprechend der sichtbare Abstandsbereich vorgegeben wird.
-
Unter einer Bildzeile wird hier insbesondere die Menge aller Bildpunkte einer Aufnahme in der Bildebene des optischen Sensors verstanden, die auf einer gemeinsamen horizontalen Linie in der Bildebene liegen.
-
Die Beleuchtungseinrichtung weist in einer bevorzugten Ausgestaltung mindestens einen Oberflächenemitter, insbesondere einen sogenannten VCSE-Laser, auf. Alternativ oder zusätzlich ist der optische Sensor bevorzugt eine Kamera.
-
Vorzugsweise wird zusätzlich zu dem ersten Objekt-Abstand ein Sensorsignal eines Knickwinkel-Sensors in die Bewertung der geplanten Bewegungstrajektorie einbezogen. Insbesondere ist es mittels des Knickwinkel-Sensors möglich zu entscheiden, ob ein Anhänger und/oder ein Aufleger die Sicht entgegen der Fahrtrichtung des Kraftfahrzeugs verdeckt und somit eine Bewertung der geplanten Bewegungstrajektorie nicht möglich ist.
-
Vorzugsweise misst der Knickwinkel-Sensor einen Winkel zwischen dem Kraftfahrzeug und einem mit dem Kraftfahrzeug verbundenen Anhänger.
-
Im Kontext der vorliegenden technischen Lehre wird die geplante Bewegungstrajektorie des Kraftfahrzeugs mittels einer Aktuatorik des Kraftfahrzeugs, insbesondere mittels Lenkbewegungen, Beschleunigungsvorgängen und/oder Bremsvorgängen, umgesetzt.
-
Bei dem Verfahren nach der deutschen Offenlegungsschrift
DE 10 2020 002 994 A1 wird eine Start-Bildzeile für die nahe Grenze des sichtbaren Abstandsbereichs in der Aufnahme bestimmt. Weiterhin wird eine End-Bildzeile für die entfernte Grenze des sichtbaren Abstandsbereichs in der Aufnahme bestimmt. Es wird eine Fußpunkt-Bildzeile in der Aufnahme bestimmt, wobei die Fußpunkt-Bildzeile diejenige Bildzeile ist, in der einerseits das Objekt detektierbar ist und die andererseits den geringsten Abstand - in der Bildebene des optischen Sensors - zu der Start-Bildzeile aufweist. Schließlich wird der Abstand des Objekts ermittelt, indem die Bild-Lage der Fußpunkt-Bildzeile relativ zu der Start-Bildzeile und der End-Bildzeile unter Berücksichtigung der örtlichen Lage des sichtbaren Abstandsbereichs ausgewertet wird.
-
Insbesondere erfolgt die Ermittlung der Fußpunkt-Bildzeile bevorzugt folgendermaßen: In der Aufnahme wird eine Objekterkennung insbesondere mittels Mustererkennung, vorzugsweise unter Anwendung eines Klassifikationsalgorithmus und/oder mittels Deep Learning durchgeführt. Wird ein Objekt erkannt, werden in der Aufnahme auf der Grundlage dieser Erkennung beziehungsweise Klassifikation alle Bildzeilen ermittelt, in denen das Objekt dargestellt ist. Sodann wird diejenige Bildzeile als Fußpunkt-Bildzeile ermittelt, die den kleinsten Abstand zu der Start-Bildzeile aufweist.
-
Vorzugsweise wird der Objekt-Abstand als Abstand zwischen dem Objekt und dem optischen Sensor bestimmt, wobei eine Abstandsbereichsbreite als Differenz von dem Ende des sichtbaren Abstandsbereichs und dem Beginn des sichtbaren Abstandsbereichs bestimmt wird. Es wird ein Fußpunkt-Abstand als Bildzeilen-Abstand auf dem optischen Sensor zwischen der Fußpunkt-Bildzeile und der Start-Bildzeile bestimmt. Weiterhin wird eine Abstandsbereichs-Bildbreite als Bildzeilen-Abstand zwischen der End-Bildzeile und der Start-Bildzeile ermittelt. Der Objekt-Abstand wird dann schließlich ermittelt als Summe aus dem Beginn des sichtbaren Abstandsbereichs, das heißt insbesondere des räumlichen Abstands zwischen dem Beginn des sichtbaren Abstandsbereichs und dem optischen Sensor, und dem Produkt aus der Abstandsbereichsbreite mit dem Verhältnis des Fußpunkt-Abstands zu der Abstandsbereichs-Bildbreite. Insbesondere wird der Objekt-Abstand bestimmt nach folgender Formel:
wobei x
near der Beginn des sichtbaren Abstandsbereichs, x
far das Ende des sichtbaren Abstandsbereichs, entsprechend (x
far - x
near) die Abstandsbereichsbreite, v
near die Start-Bildzeile, v
rar die End-Bildzeile, und entsprechend (v
far - v
near) die Abstandsbereichs-Bildbreite, v die Fußpunkt-Bildzeile, entsprechend (v - v
near) der Fußpunkt-Abstand, und x der Objekt-Abstand ist.
-
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass mittels eines Radar-Sensors eine Geschwindigkeit des gefundenen Objekts ermittelt wird. Alternativ oder zusätzlich ist vorgesehen, dass mittels eines Lidar-Sensors die Geschwindigkeit des gefundenen Objekts ermittelt wird. Vorteilhafterweise kann mittels der Geschwindigkeit des gefundenen Objekts die geplante Bewegungstrajektorie noch besser und zuverlässiger bewertet werden.
-
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass das gefundene Objekt mittels der ersten Aufnahme einer Fahrspur zugeordnet wird. Vorteilhafterweise kann damit bestimmt werden, ob sich das gefundene Objekt auf einer Fahrspur befindet, die von dem Kraftfahrzeug basierend auf der geplanten Bewegungstrajektorie befahren werden soll. Damit kann vorteilhafterweise zwischen für die geplante Bewegungstrajektorie relevanten und irrelevanten Objekten unterschieden werden.
-
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass, falls in der ersten Aufnahme kein Objekt gefunden wird, einer zweiten abgestimmten Ansteuerung ein zweiter sichtbarer Abstandsbereich zugeordnet wird, wobei mittels der zweiten abgestimmten Ansteuerung eine zweite Aufnahme des zweiten sichtbaren Abstandsbereichs entgegen der Fahrtrichtung des Kraftfahrzeugs aufgenommen wird. Mittels der zweiten Aufnahme wird nach Objekten gesucht, wobei wenn ein Objekt gefunden wird, der erste Objekt-Abstand als Abstand zwischen dem gefundenen Objekt und dem optischen Sensor geschätzt wird. Basierend auf dem ersten Objekt-Abstand wird die geplante Bewegungstrajektorie des Kraftfahrzeugs bewertet.
-
Vorzugsweise sind eine erste Breite des ersten sichtbaren Abstandsbereichs und eine zweite Breite des zweiten sichtbaren Abstandsbereichs identisch. Alternativ oder zusätzlich überlappen sich vorzugsweise der erste sichtbare Abstandsbereich und der zweite sichtbare Abstandsbereich höchstens teilweise. Alternativ oder zusätzlich entspricht vorzugsweise eine entfernte Grenze des ersten sichtbaren Abstandsbereichs einer nahen Grenze des zweiten sichtbaren Abstandsbereichs oder vorzugsweise entspricht eine nahe Grenze des ersten sichtbaren Abstandsbereichs einer entfernten Grenze des zweiten sichtbaren Abstandsbereichs.
-
Im Kontext der vorliegenden technischen Lehre ist eine Breite des sichtbaren Abstandsbereichs ein Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Abstandsbereichs.
-
Vorzugsweise beträgt die Breite des sichtbaren Abstandsbereichs von mindestens 50 m bis höchstens 300 m.
-
Vorteilhafterweise kann damit ein objektseitiger Bereich mittels einer Mehrzahl an sichtbaren Abstandsbereichen insbesondere in einer scannenden Weise beobachtet werden. Vorzugsweise beträgt bei der Beobachtung in der scannenden Weise die Breite der sichtbaren Abstandsbereiche mindestens 80 m.
-
Vorteilhafterweise ist eine Bestimmung des Abstands zwischen dem optischen Sensor und dem gefundenen Objekt genauer, je kleiner die Breite des sichtbaren Abstandsbereichs ist. Somit ist vorteilhafterweise die Abschätzung des zweiten Objekt-Abstandes genauer als die Abschätzung des ersten Objekt-Abstandes.
-
Vorzugsweise beträgt mindestens eine Breite, ausgewählt aus der ersten Breite des ersten sichtbaren Abstandsbereichs, der zweiten Breite des zweiten sichtbaren Abstandsbereichs, und einer Bereite eines Bereichs der Mehrzahl an sichtbaren Abstandsbereichen, von mindestens 150 m bis höchstens 300 m. Alternativ oder zusätzlich beträgt die dritte Breite des dritten sichtbaren Abstandsbereichs von mindestens 50 m bis höchstens 150 m.
-
Vorzugsweise wird der zweite Objekt-Abstand mittels eines Verfahrens nach der deutschen Offenlegungsschrift
DE 10 2020 002 994 A1 geschätzt.
-
Vorzugsweise wird eine Eigen-Geschwindigkeit des Kraftfahrzeugs in die Bestimmung der dritten abgestimmten Ansteuerung miteinbezogen, sodass das gefundene Objekt in dem dritten sichtbaren Abstandsbereich angeordnet ist. Alternativ oder zusätzlich wird vorzugsweise die Geschwindigkeit des gefundenen Objekts in die Bestimmung der dritten abgestimmten Ansteuerung miteinbezogen, sodass das gefundene Objekt in dem dritten sichtbaren Abstandsbereich angeordnet ist. Alternativ oder zusätzlich wird vorzugsweise eine Geschwindigkeitsdifferenz als Differenz der Eigen-Geschwindigkeit und der Geschwindigkeit des gefundenen Objekts in die Bestimmung der dritten abgestimmten Ansteuerung miteinbezogen, sodass das gefundene Objekt in dem dritten sichtbaren Abstandsbereich angeordnet ist.
-
In einer bevorzugten Ausgestaltung wird der objektseitige Bereich solange mittels mindestens eines sichtbaren Abstandsbereichs, insbesondere des ersten sichtbaren Abstandsbereichs, oder einer Mehrzahl an sichtbaren Abstandsbereichen in der scannenden Weise beobachtet, bis ein Objekt gefunden wird. Anschließend wird mittels der dritten abgestimmten Ansteuerung der zweite Objekt-Abstand bestimmt, um vorteilhafterweise eine genauere Abschätzung der Entfernung des gefundenen Objekts von dem optischen Sensor zu bestimmen.
-
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass in mindestens einer Aufnahme, ausgewählt aus der ersten Aufnahme, der zweiten Aufnahme, der dritten Aufnahme, und einer Aktivierungsaufnahme, mittels eines Scheinwerfer-Detektionsverfahrens nach Objekten gesucht wird. Dabei wird die Aktivierungsaufnahme mittels des optischen Sensors entgegen der Fahrtrichtung des Kraftfahrzeugs zeitlich vor der ersten Aufnahme aufgenommen. Vorteilhafterweise kann damit gesteuert werden, ob die geplante Bewegungstrajektorie bewertet wird. Insbesondere ist eine Bewertung der geplanten Bewegungstrajektorie nur dann notwendig, wenn entgegen der Fahrtrichtung des Kraftfahrzeugs mindestens ein Scheinwerfer mittels des Scheinwerfer-Detektionsverfahrens erkannt wird. Zusätzlich kann das Scheinwerfer-Detektionsverfahren in einer einfachen und zuverlässigen Weise ein Objekt insbesondere bei einer niedrigen Helligkeit finden und/oder detektieren.
-
Vorzugsweise ist das Scheinwerfer-Detektionsverfahren ein Verfahren, das eingerichtet ist, um in einer Aufnahme vorzugsweise des optischen Sensors Abbildungen von Scheinwerfern zu finden, wobei daraus dann auf die Anwesenheit von Objekten, insbesondere von Kraftfahrzeugen und/oder Krafträdern, geschlossen werden kann.
-
In einer bevorzugten Ausgestaltung werden die Aufnahmen - insbesondere die erste Aufnahme und die zweite Aufnahme, die erste Aufnahme und die dritte Aufnahme, oder die Mehrzahl an Aufnahmen - mit einer Aufnahmerate von mindestens 20 Hz bis höchstens 90 Hz aufgenommen. Vorteilhafterweise ist bei einer Aufnahmerate von mindestens 20 Hz bis höchstens 90 Hz nicht notwendig, die Eigen-Geschwindigkeit und/oder die Geschwindigkeit des gefundenen Objekts zu betrachten, um eine weitere abgestimmte Ansteuerung zu bestimmen.
-
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Bewegungstrajektorie dahingehend bewertet wird, ob ein Spurwechsel begonnen werden kann und/oder ob ein Einfädeln in eine Fahrspur möglich ist.
-
Die Aufgabe wird auch gelöst, indem eine Steuervorrichtung geschaffen wird, die zur Durchführung eines erfindungsgemäßen Verfahrens oder eines Verfahrens gemäß einer oder mehrerer der zuvor beschriebenen Ausführungsformen eingerichtet ist. Die Steuervorrichtung ist vorzugsweise als Rechenvorrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Kraftfahrzeugs, ausgebildet. In Zusammenhang mit der Steuervorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
-
Die Steuervorrichtung ist bevorzugt eingerichtet, um mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, wirkverbunden zu werden, und eingerichtet zu deren jeweiliger Ansteuerung.
-
Zusätzlich ist die Steuervorrichtung bevorzugt eingerichtet, um mit dem Knickwinkel-Sensor wirkverbunden zu werden, und zusätzlich vorzugsweise eingerichtet zu dessen Ansteuerung. Alternativ oder zusätzlich ist die Steuervorrichtung bevorzugt eingerichtet, um mit dem Radar-Sensor wirkverbunden zu werden, und eingerichtet zu dessen Ansteuerung. Alternativ oder zusätzlich ist die Steuervorrichtung bevorzugt eingerichtet, um mit dem Lidar-Sensor wirkverbunden zu werden, und eingerichtet zu dessen Ansteuerung.
-
Die Aufgabe wird auch gelöst, indem eine Schulterblickvorrichtung geschaffen wird, die eine Gated-Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, und eine erfindungsgemäße Steuervorrichtung oder eine Steuervorrichtung nach einer oder mehrerer der zuvor beschriebenen Ausführungsformen aufweist. In Zusammenhang mit der Schulterblickvorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuervorrichtung erläutert wurden.
-
In einer bevorzugten Ausgestaltung weist die Schulterblickvorrichtung zusätzlich einen Knickwinkel-Sensor auf, der eingerichtet ist, um ein Sensorsignal zu erzeugen, welches einen Rückschluss erlaubt, ob ein Anhänger und/oder ein Auflieger die Sicht entgegen der Fahrtrichtung blockiert. Alternativ oder zusätzlich weist die Schulterblickvorrichtung vorzugsweise einen Radar-Sensor auf, der eingerichtet ist, um die Geschwindigkeit des gefundenen Objekts abzuschätzen. Alternativ oder zusätzlich weist die Schulterblickvorrichtung vorzugsweise einen Lidar-Sensor auf, der eingerichtet ist, um die Geschwindigkeit des gefundenen Objekts abzuschätzen.
-
Die Steuervorrichtung ist bevorzugt mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung.
-
Zusätzlich ist die Steuervorrichtung bevorzugt mit dem Knickwinkel-Sensor wirkverbunden und zusätzlich vorzugsweise eingerichtet zu dessen Ansteuerung. Alternativ oder zusätzlich ist die Steuervorrichtung bevorzugt mit dem Radar-Sensor wirkverbunden und eingerichtet zu dessen Ansteuerung. Alternativ oder zusätzlich ist die Steuervorrichtung bevorzugt mit dem Lidar-Sensor wirkverbunden und eingerichtet zu dessen Ansteuerung.
-
Die Aufgabe wird auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Schulterblickvorrichtung oder einer Schulterblickvorrichtung nach einer oder mehrerer der zuvor beschriebenen Ausführungsformen geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuervorrichtung und der Schulterblickvorrichtung erläutert wurden.
-
In einer bevorzugten Ausgestaltung ist das Kraftfahrzeug als autonom fahrendes Kraftfahrzeug ausgebildet. Alternativ oder zusätzlich ist das Kraftfahrzeug vorzugsweise als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug als ein Personenkraftwagen, ein Nutzfahrzeug, oder ein anderes Kraftfahrzeug ausgebildet ist.
-
Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert.
-
Dabei zeigen:
- 1 eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs mit einem ersten sichtbaren Abstandsbereich,
- 2 eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs mit einem ersten und einem zweiten sichtbaren Abstandsbereich,
- 3 eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs mit einem ersten und einem dritten sichtbaren Abstandsbereich, und
- 4 eine schematische Darstellung eines Ablaufdiagramms eines Ausführungsbeispiels eines Verfahrens zum Betreiben einer Gated-Kamera.
-
1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1 mit einer Schulterblickvorrichtung 3, die zur Aufnahme von Aufnahmen 33 entgegen einer Fahrtrichtung 5 eingerichtet ist. Die Schulterblickvorrichtung 3 weist eine Gated-Kamera 7 und eine Steuervorrichtung 9 auf. Weiterhin weist die Gated-Kamera 7 eine Beleuchtungseinrichtung 11 - vorzugsweise einen Laser, insbesondere einen VSCE-Laser - und einen optischen Sensor 13 - vorzugsweise eine Kamera - auf. Die Steuervorrichtung 9 ist hier nur schematisch dargestellt und in nicht explizit dargestellter Weise mit der Gated-Kamera 7, insbesondere der Beleuchtungseinrichtung 11 und dem optischen Sensor 13, wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung. Dargestellt in 1 ist insbesondere ein Beleuchtungs-Frustum 15 der Beleuchtungseinrichtung 11 und ein Beobachtungsbereich 17 des optischen Sensors 13.
-
Schraffiert dargestellt ist außerdem ein erster sichtbarer Abstandsbereich 19.1, der sich als Teilmenge des Beleuchtungs-Frustums 15 der Beleuchtungseinrichtung 11 und dem Beobachtungsbereichs 17 des optischen Sensors 13 ergibt. Der erste sichtbare Abstandsbereich 19.1 weist eine erste nahe Grenze 21.1 und eine erste entfernte Grenze 23.1 auf. Die erste nahe Grenze 21.1 des ersten sichtbaren Abstandsbereichs 19.1 weist eine erste Entfernung 25.1 zu dem optischen Sensor 13 auf. Zusätzlich weist der erste sichtbare Abstandsbereich 19.1 eine erste Breite 27.1 als Abstand zwischen der ersten nahen Grenze 21.1 und der ersten entfernten Grenze 23.1 auf.
-
In dem ersten sichtbaren Abstandsbereich 19.1 ist ein Objekt 29, insbesondere ein Motorrad, angeordnet. Ein erster Objekt-Abstand 31.1 wird mittels einer ersten Aufnahme 33.1 des ersten sichtbaren Abstandsbereichs 19.1 geschätzt. Vorzugsweise wird der erste Objekt-Abstand 31.1 mittels der ersten nahen Grenze 21.1 und der ersten entfernten Grenze 23.1 des ersten sichtbaren Abstandsbereichs 19.1 insbesondere unter Anwendung eines Verfahrens gemäß der deutschen Offenlegungsschrift
DE 10 2020 002 994 A1 geschätzt.
-
2 zeigt eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs 1 mit einem ersten sichtbaren Abstandsbereich 19.1 und einem zweiten sichtbaren Abstandsbereich 19.2.
-
Gleiche und funktionsgleiche Elemente sind in allen Figuren mit gleichen Bezugszeichen versehen, sodass insofern auf die vorangegangene Beschreibung verwiesen wird.
-
In 2 a) ist in dem ersten sichtbaren Abstandsbereich 19.1 kein Objekt angeordnet. Insbesondere ist das Objekt 29, insbesondere das Motorrad, außerhalb des ersten sichtbaren Abstandsbereichs 19.1, insbesondere hinter der ersten entfernten Grenze 23.1, angeordnet. Damit kann mittels der ersten Aufnahme 33.1 kein Objekt gefunden werden.
-
Eine Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 1 und 2 sind vorzugsweise verschieden. Alternativ sind vorzugsweise die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 1 und 2 identisch.
-
In 2 b) ist der zweite sichtbare Abstandsbereich 19.2 dargestellt. Insbesondere ist die erste entfernte Grenze 23.1 des ersten sichtbaren Abstandsbereichs 19.1 eine zweite nahe Grenze 21.2 des zweiten sichtbaren Abstandsbereichs 19.2. Insbesondere wird somit mittels des ersten sichtbaren Abstandsbereichs 19.1 und des zweiten sichtbaren Abstandsbereichs 19.2 ein Schnittbereich des Beleuchtungs-Frustums 15 der Beleuchtungseinrichtung 11 und dem Beobachtungsbereichs 17 des optischen Sensors 13 in einer scannenden Weise beobachtet.
-
Vorzugsweise weist die zweite nahe Grenze 21.2 des zweiten sichtbaren Abstandsbereichs 19.2 eine zweite Entfernung 25.2 zu dem optischen Sensor 13 auf. Zusätzlich weist der zweite sichtbare Abstandsbereich 19.2 eine zweite Breite 27.2 als Abstand zwischen der zweiten nahen Grenze 21.2 und der zweiten entfernten Grenze 23.2 auf. Vorzugsweise sind die erste Breite 27.1 und die zweite Breite 27.2 identisch.
-
Innerhalb des zweiten sichtbaren Abstandsbereichs 19.2 ist das Objekt 29, insbesondere das Motorrad, angeordnet. Der erste Objekt-Abstand 31.1 wird mittels einer zweiten Aufnahme 33.2 des zweiten sichtbaren Abstandsbereichs 19.2 geschätzt.
-
3 zeigt eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs 1 mit einem ersten sichtbaren Abstandsbereich 19.1 und einem dritten sichtbaren Abstandsbereich 19.3.
-
In 3 a) ist der erste sichtbare Abstandsbereich 19.1 dargestellt. Insbesondere ist innerhalb des ersten sichtbaren Abstandsbereichs 19.1 das Objekt 29, insbesondere das Motorrad, angeordnet. Der erste Objekt-Abstand 31.1 wird mittels der ersten Aufnahme 33.1 des ersten sichtbaren Abstandsbereichs 19.1 geschätzt.
-
Die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 1 und 3 sind vorzugsweise verschieden. Alternativ sind vorzugsweise die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 1 und 3 identisch. Alternativ sind vorzugsweise die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 2 und 3 verschieden. Alternativ sind vorzugsweise die Position und die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1 in 2 und 3 identisch.
-
In 3 b) ist der dritte sichtbare Abstandsbereich 19.3 dargestellt. Vorzugsweise weist eine dritte nahe Grenze 21.3 des dritten sichtbaren Abstandsbereichs 19.3 eine dritte Entfernung 25.3 zu dem optischen Sensor 13 auf. Zusätzlich weist der dritte sichtbare Abstandsbereich 19.3 eine dritte Breite 27.3 als Abstand zwischen der dritten nahen Grenze 21.3 und einer dritten entfernten Grenze 23.3 auf. Zusätzlich ist vorzugsweise die dritte Breite 27.3 kleiner als die erste Breite 27.1. Insbesondere ist der dritte sichtbare Abstandsbereich 19.3 derart gewählt, dass das gefundene Objekt 29 innerhalb des dritten sichtbaren Abstandsbereichs 19.3 liegt.
-
Ein zweiter Objekt-Abstand 31.2 wird mittels einer dritten Aufnahme 33.3 des dritten sichtbaren Abstandsbereichs 19.3 geschätzt.
-
In den 1, 2 und 3 ist die Steuervorrichtung 7 insbesondere eingerichtet, um ein Verfahren zum Betreiben der Gated-Kamera 7 durchzuführen und eine geplante Bewegungstrajektorie des Kraftfahrzeugs 1 zu bewerten.
-
4 zeigt eine schematische Darstellung eines Ablaufdiagramms eines Ausführungsbeispiels des Verfahrens zum Betreiben der Gated-Kamera 7.
-
In einem ersten Schritt a) wird einer abgestimmten Ansteuerung ein sichtbarer Abstandsbereich 19 zugeordnet - insbesondere wird einer ersten abgestimmten Ansteuerung der erste sichtbare Abstandsbereich 19.1 zugeordnet. Weiterhin wird mittels der abgestimmten Ansteuerung eine Aufnahme 33 des sichtbaren Abstandsbereichs 19 entgegen der Fahrtrichtung 5 des Kraftfahrzeugs 1 aufgenommen - insbesondere wird mittels der ersten abgestimmten Ansteuerung die erste Aufnahme 33.1 des ersten sichtbaren Abstandsbereichs 19.1 aufgenommen.
-
In einem zweiten Schritt b) wird mittels der Aufnahme 33 - insbesondere mittels der ersten Aufnahme 33.1 - nach Objekten 29 gesucht.
-
Falls das Objekt 29 gefunden wird, wird in einem dritten Schritt c) ein Objekt-Abstand 31 - insbesondere der erste Objekt-Abstand 31.1 - als Abstand zwischen dem gefundenen Objekt 29 und dem optischen Sensor 13 geschätzt.
-
In einem vierten Schritt d) wird basierend auf dem Objekt-Abstand 31 - insbesondere dem ersten Objekt-Abstand 31.1 - eine geplante Bewegungstrajektorie des Kraftfahrzeugs 1 bewertet. Vorzugsweise wird die Bewegungstrajektorie dahingehend bewertet, ob ein Spurwechsel begonnen werden kann. Alternativ oder zusätzlich wird vorzugsweise die Bewegungstrajektorie dahingehend bewertet, ob ein Einfädeln in eine Fahrspur möglich ist.
-
Falls in dem zweiten Schritt b) kein Objekt 29 gefunden wird, wird in einer bevorzugten Ausgestaltung des Verfahrens erneut mit dem ersten Schritt a) gestartet. Vorzugsweise wird in der erneuten Ausführung des ersten Schritts a) einer zweiten abgestimmten Ansteuerung der zweite sichtbare Abstandsbereich 19.2 zugeordnet. Zusätzlich wird vorzugsweise mittels der zweiten abgestimmten Ansteuerung die zweite Aufnahme 33.2 des zweiten sichtbaren Abstandsbereichs 19.2 entgegen der Fahrtrichtung 5 des Kraftfahrzeugs 1 aufgenommen. Anschließend wird vorzugsweise in einer erneuten Ausführung des zweiten Schritts b) mittels der zweiten Aufnahme 33.2 nach Objekten 29 gesucht. Falls bei der zweiten Ausführung des zweiten Schritts b) das Objekt 29 gefunden wird, wird vorzugsweise der Objekt-Abstand 31 - insbesondere der erste Objekt-Abstand 31.1 - anhand der zweiten Aufnahme 33.2 geschätzt. Falls bei der erneuten Ausführung des zweiten Schritts b) erneut kein Objekt 29 gefunden wird, kann vorzugsweise das Verfahren erneut mit dem ersten Schritt a) gestartet werden.
-
In einer weiteren bevorzugten Ausgestaltung wird nach dem dritten Schritt c) erneut der erste Schritt a) durchgeführt. Vorzugsweise wird bei der erneuten Durchführung des ersten Schritts a) eine dritte abgestimmte Ansteuerung derart bestimmt, dass der erste Objekt-Abstand 31.1 innerhalb des dritten sichtbaren Abstandsbereichs 19.3, welcher der dritten abgestimmten Ansteuerung zugeordnet wird, liegt. Vorzugsweise ist die dritte Breite 27.3 des dritten sichtbaren Abstandsbereichs 19.3 kleiner als die erste Breite 27.1 des ersten sichtbaren Abstandsbereichs 19.1. Zusätzlich wird vorzugsweise mittels der dritten abgestimmten Ansteuerung die dritte Aufnahme 33.3 des dritten sichtbaren Abstandsbereichs 19.3 entgegen der Fahrtrichtung 5 des Kraftfahrzeugs 1 aufgenommen. Anschließend wird vorzugsweise in einer erneuten Ausführung des zweiten Schritts b) mittels der dritten Aufnahme 33.3 nach Objekten 29 - insbesondere nach dem Objekt 29, insbesondere dem Motorrad - gesucht. Wenn das Objekt 29 gefunden wird, wird bei einer erneuten Ausführung des dritten Schritts c) der zweite Objekt-Abstand 31.2 als Abstand zwischen dem gefundenen Objekt 29, insbesondere dem Motorrad, und dem optischen Sensor 13 geschätzt. Anschließend wird in dem vierten Schritt d) basierend auf dem ersten Objekt-Abstand 31.1 und zusätzlich basierend auf dem zweiten Objekt-Abstand 31.2 die geplante Bewegungstrajektorie des Kraftfahrzeugs 1 bewertet.
-
In einem optionalen fünften Schritt e) wird vorzugsweise vor dem dritten Schritt c) mittels eines Radar-Sensors und/oder eines Lidar-Sensors eine Geschwindigkeit des gefundenen Objekts 29 ermittelt.
-
Vorzugsweise wird in dem zweiten Schritt b) mittels einer Aufnahme 33, insbesondere ausgewählt aus der ersten Aufnahme 33.1, vorzugsweise der zweiten Aufnahme 33.2, und vorzugsweise der dritten Aufnahme 33.3, das gefundene Objekt 29 einer Fahrspur zugeordnet. Alternativ wird vorzugsweise in dem dritten Schritt c) mittels einer Aufnahme 33, insbesondere ausgewählt aus der ersten Aufnahme 33.1, vorzugsweise der zweiten Aufnahme 33.2, und vorzugsweise der dritten Aufnahme 33.3, das gefundene Objekt 29 einer Fahrspur zugeordnet.
-
In einem optionalen sechsten Schritt f) wird vorzugsweise eine Aktivierungsaufnahme 35 mittels des optischen Sensors 13 insbesondere ohne Beleuchtung mittels der Beleuchtungseinrichtung 11 entgegen der Fahrtrichtung 5 des Kraftfahrzeugs 1 vorzugsweise vor der ersten Aufnahme 33.1 aufgenommen. Zusätzlich wird vorzugsweise in der Aktivierungsaufnahme 35 mittels eines Scheinwerfer-Detektionsverfahrens nach Objekten 29 gesucht.
-
Vorzugsweise wird in dem zweiten Schritt b) mittels des Scheinwerfer-Detektionsverfahrens in der ersten Aufnahme 33.1 nach Objekten 29 gesucht. Alternativ oder zusätzlich wird vorzugsweise in dem zweiten Schritt b) mittels des Scheinwerfer-Detektionsverfahrens in der zweiten Aufnahme 33.2 nach Objekten 29 gesucht. Alternativ oder zusätzlich wird vorzugsweise in dem zweiten Schritt b) mittels des Scheinwerfer-Detektionsverfahrens in der dritten Aufnahme 33.3 nach Objekten 29 gesucht.