Nothing Special   »   [go: up one dir, main page]

WO2022037870A1 - Lidar sensor for optically capturing a field of view, and method for capturing a field of view - Google Patents

Lidar sensor for optically capturing a field of view, and method for capturing a field of view Download PDF

Info

Publication number
WO2022037870A1
WO2022037870A1 PCT/EP2021/070142 EP2021070142W WO2022037870A1 WO 2022037870 A1 WO2022037870 A1 WO 2022037870A1 EP 2021070142 W EP2021070142 W EP 2021070142W WO 2022037870 A1 WO2022037870 A1 WO 2022037870A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
view
field
designed
matrix
Prior art date
Application number
PCT/EP2021/070142
Other languages
German (de)
French (fr)
Inventor
Alexander Greiner
Reiner Schnitzer
Original Assignee
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch Gmbh filed Critical Robert Bosch Gmbh
Publication of WO2022037870A1 publication Critical patent/WO2022037870A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4812Constructional features, e.g. arrangements of optical elements common to transmitter and receiver transmitted and received beams following a coaxial path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning

Definitions

  • the present invention relates to a LIDAR sensor for detecting a field of view and a method for detecting a field of view.
  • LIDAR systems are considered a key technology for highly automated driving.
  • LIDAR systems typically use the Time-Of-Flight (ToF) method as the measuring principle.
  • a laser pulse is emitted by a transmitter, reflected on an object and the time until detection is measured on a sensor unit.
  • APDs avalanche photodetectors
  • SPADs single-photon avalanche detectors
  • CCDs charged-coupled devices
  • the present invention is based on a LIDAR sensor for optically detecting a field of view, having a transmission unit with at least one emitter unit, which is designed to emit primary light into the field of view; a receiving unit with at least one detector unit, which is designed to detect and/or detect objects reflected in the field of view to detect scattered secondary light; and a deflection unit, which is designed to deflect emitted primary light at a predeterminable angle into the field of view and to deflect received secondary light in the direction of the at least one detector unit.
  • the detector unit has a matrix of a large number of light-sensitive pixels, with at least one transmission reduction element being arranged in at least one edge region of the matrix, which element is designed to reduce transmission of the secondary light onto the pixels.
  • the detector unit has an area with a first photon detection efficiency and at least one edge area with a second photon detection efficiency, which is lower than the first photon detection efficiency.
  • a distance between the LIDAR sensor and an object in the field of view of the LIDAR sensor can be determined directly or indirectly on the basis of a signal propagation time (time of flight, TOF).
  • the field of view of the LIDAR sensor can be scanned using the emitted primary light.
  • the emitter unit can be designed as at least one laser.
  • the deflection unit can be designed as a mirror, in particular a micromirror.
  • the deflection unit can also be designed as a rotatable unit on which the transmitting unit and/or the receiving unit are at least partially arranged.
  • the LIDAR sensor optionally has at least one evaluation unit. The detected secondary light can be evaluated by means of the evaluation unit.
  • the result of the evaluation can be used for a driver assistance function of a vehicle, for example.
  • the result of the evaluation can be used, for example, to control an autonomously driving vehicle.
  • the LIDAR sensor can be designed in particular for use in an at least partially autonomously driving vehicle. With the LIDAR sensor, semi-autonomous or autonomous driving of vehicles can be realized on freeways and in city traffic.
  • the advantage of the invention is that the intensity of the secondary light reflected and/or scattered by objects can be reduced.
  • the intensity of the reflected light from nearby objects can be measured and/or scattered secondary light can be reduced.
  • improved measurability can be achieved using the LIDAR sensor.
  • the measuring range can be expanded into the near range in a simple and cost-effective manner.
  • the close-up range can now be expanded without impairing the long-distance range. Saturation of the detector unit in the close-up range can be avoided and the intensity of the secondary light received can thus be better determined.
  • the LIDAR sensor Due to the second, lower photon detection efficiency in the edge area, the LIDAR sensor has no limitations in the long range. Firstly, a receiving optics forms the secondary light from the close-up range in a larger spot (blurred area). Secondly, a beam of the secondary light can be moved from the at least one edge region into the region with the first photon detection efficiency in the case of rotating or oscillating beam deflection. Depending on the direction of rotation/oscillation, this happens from left to right or vice versa, depending on the speed of rotation/oscillation more or less. At close range, the secondary pulse has a high intensity. The edge area with the low photon detection efficiency is thus advantageously used for the close-up area in order not to saturate the detector unit. The area with the first photon detection efficiency is used to image the far area.
  • the transmission reduction element is designed as a mask, a partial mask, an attenuation filter arranged on the pixels and/or as a screen.
  • the screen can be designed in particular as a slit screen.
  • the mask can be designed in such a way that only a fraction of the secondary light is transmitted to the pixels.
  • the secondary light is typically attenuated to a fraction of 1/50 to 1/100.
  • the masking can be in the form of a perforated grid or a partial cover.
  • the partial masking can be in the form of a perforated grid or a partial covering.
  • a second transmission reduction element is arranged in a second edge area which is arranged on a side of the matrix opposite the first edge area of the matrix.
  • the detector unit has an area of the matrix with a first photon detection efficiency, a first edge area of the matrix with a second photon detection efficiency, which is lower than the first photon detection efficiency, and on the opposite side of the matrix a second edge area of the matrix with a third photon detection efficiency, which is less than the first photon detection efficiency.
  • the area of the matrix with the first photon detection efficiency is thus arranged in particular between the first and the second edge area of the matrix.
  • the second photon detection efficiency can be the same as or different from the third photon detection efficiency.
  • the advantage of this configuration is that, regardless of a direction of rotation or movement of the deflection unit, the received secondary light can be moved from the edge area with the second photon detection efficiency into the area with a first photon detection efficiency.
  • the direction of rotation or movement can be switched or selected independently of the installation position of the detector unit.
  • the detector unit is designed as an S PAD detector, CCD detector or as a CMOS (complementary metal oxide semiconductor) detector.
  • S PAD detectors can significantly amplify a single photon to provide a detection signal. A few photons are sufficient to generate a signal.
  • the LIDAR sensor has the transmission reduction element(s), intensity information and more precise distance data in the close range can also be recorded with SPAD systems.
  • the invention is also based on a method for optically detecting a field of view using a LIDAR sensor.
  • the method has the following steps: Emission of primary light by means of a transmission unit of the LIDAR sensor with at least one emitter unit; Deflecting emitted primary light at a predeterminable angle into the field of view using a deflection unit of the LIDAR sensor; receiving secondary light reflected and/or scattered by an object in the field of view by means of a receiving unit of the LIDAR sensor; deflecting the received secondary light in the direction of at least one detector unit of the receiving unit; and detecting the secondary light by the detector unit.
  • the detector unit has a matrix of a large number of light-sensitive pixels, with at least one transmission reduction element being arranged in at least one edge region of the matrix.
  • the method further includes the step of reducing a transmittance of the secondary light onto the pixels using the transmittance reducing element.
  • the invention is also based on a computer program which is set up to carry out the method described above.
  • FIG. 1 exemplary embodiment of a LIDAR sensor for detecting the field of view
  • FIG. 2 exemplary embodiment of a detector unit
  • FIG. 3 exemplary embodiment of a method for detecting the field of view using a LIDAR sensor.
  • FIG. 1 shows an example of an embodiment of the LIDAR sensor 100 according to the invention in the form of a schematic block diagram.
  • the LIDAR sensor 100 according to Figure 1 has a transmission unit 101 which is fed by an emitter unit 102, e.g and primary light 104 is generated and emits/emits this—possibly after passing through beam-shaping optics 105—into a field of view 108 for optically capturing a field of view 108, i.e. for capturing and/or examining a scene 110 and an object 109 located there.
  • the LiDAR sensor 100 has a receiving unit 112, which receives light and in particular light reflected and/or scattered by object 109 in field of view 108 as secondary light 111, for example via a lens 107 as primary optics, and via detector optics 116 as secondary optics to a detector unit 117.
  • the detector unit 117 can be designed in particular as an S PAD detector, CCD detector or as a CMOS detector.
  • the receiving unit 112 and the transmitting unit 101 are designed with essentially coaxial optical axes on the field of view side and have a common deflection optics 106 in the exemplary embodiment shown.
  • the common deflection optics 106 on the field of view side can be understood as part of the optics of the transmission unit 101 and as part of the optics of the reception unit 112 .
  • the deflection optics 106 can have, for example, a corresponding deflection unit 115, which is shown purely schematically in FIG.
  • the receiving unit 112 can have secondary optics 116 on the detector side, which are designed and include means for inherently directing secondary light 111 incident from the field of view 108 onto the detector unit 117 via the deflecting optics 106 .
  • the transmission unit 101 and the reception unit 112 of the LIDAR sensor 100 can also be arranged biaxially or essentially coaxially along the optical paths of the transmission unit 101 and the reception unit 112 .
  • elements of the beam-shaping optics 105 can also be designed as elements of the detector optics 116, and vice versa.
  • the deflection unit 106 can also be designed in such a way that the transmission unit 101 has a first deflection device for deflecting primary light 104 into the field of view 106 .
  • the primary light 104 can be deflected into the field of view 106 by the first deflection device of the transmission unit 101 at predetermined deflection angles.
  • the deflection unit 106 is also designed such that the receiving unit 112 has a second deflection device for deflecting secondary light 111 onto the detector unit 117 . Secondary light 111 incident at different angles can be deflected onto the detector unit 117 by a deflection device of the receiving unit 112 .
  • the deflection unit 106 can also be designed in such a way that the transmission unit 101 and the reception unit 112 are arranged on a rotatable unit. Individual elements of the transmitting unit 101 and/or individual elements of the receiving unit 112 can be arranged on a rotatable unit.
  • the emitter unit 102 and the detector unit 117 can be controlled via control lines 121 or 120 by means of a control and evaluation unit 119 .
  • FIG. 2 shows an exemplary embodiment of a detector unit 117 of a LIDAR sensor shown in FIG. 1, for example.
  • the detector unit 117 has a matrix of a large number of light-sensitive pixels, which are not shown separately here.
  • a transmission reduction element 202 is arranged in a first edge region 204-3 of the matrix, which element is designed to reduce transmission of the secondary light onto the pixels.
  • the one on the first edge area 204-3 of the matrix is also in a second edge area 204-4 is arranged on the opposite side of the matrix, a second transmission reduction element 202 is arranged.
  • the detector unit 117 thus has an area 201 of the matrix with a first photon detection efficiency, a first edge area 204-3 of the matrix with a second photon detection efficiency, which is lower than the first photon detection efficiency, and on the opposite side of the matrix a second edge area 204-4 of the Matrix with a third photon detection efficiency, which is less than the first photon detection efficiency on.
  • further transmission reduction elements 203 can also be arranged in further edge regions 204-1, 204-2 of the matrix.
  • the transmission reduction elements 202, 203 can be designed, for example, as a mask and/or as a diaphragm.
  • FIG. 3 shows an exemplary embodiment of a method 300 for detecting the field of view using a LIDAR sensor.
  • the method starts in step 301.
  • primary light is emitted by means of a transmission unit of the LIDAR sensor with at least one emitter unit.
  • emitted primary light is deflected at a predeterminable angle into the field of view by means of a deflection unit of the LIDAR sensor.
  • secondary light reflected and/or scattered by an object in the field of view is received by a receiving unit of the LIDAR sensor.
  • the received secondary light is deflected in the direction of at least one detector unit of the receiving unit. As described in FIG.
  • the detector unit has a matrix of a large number of light-sensitive pixels, with at least one transmission reduction element being arranged in at least one edge area of the matrix.
  • a transmission of the secondary light onto the pixels is reduced by means of the transmission reduction element.
  • the secondary light is detected by the detector unit. The method ends in step 308.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

A LIDAR sensor (100) for optically capturing a field of view (108) comprises a transmitter unit (101) with at least one emitter unit (102) which is designed to emit primary light (104) into the field of view (108); a receiver unit (112) with at least one detector unit (117) which is designed to detect secondary light (111) which was reflected and/or scattered in the field of view (108) by an object (109); and a deflection unit (106) which is designed to deflect emitted primary light (104) into the field of view (108) at a predeterminable angle and to deflect received secondary light (111) in the direction of the at least one detector unit (117). The detector unit (117) comprises a matrix of a multiplicity of light-sensitive pixels, wherein at least one transmission reduction element (202, 203) which is designed to reduce transmission of secondary light (111) to the pixels is arranged in at least one edge region (204-1 to 204-4) of the matrix.

Description

Beschreibung description
Titel title
LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes und Verfahren zur Erfassung eines Sichtfeldes LIDAR sensor for optically capturing a field of view and method for capturing a field of view
Die vorliegende Erfindung betrifft einen LIDAR-Sensor zur Erfassung eines Sichtfeldes und ein Verfahren zur Erfassung eines Sichtfeldes. The present invention relates to a LIDAR sensor for detecting a field of view and a method for detecting a field of view.
Stand der Technik State of the art
LIDAR-Systeme gelten neben Video-, Ultraschall- und Radar-basierten Systemen als eine Schlüsseltechnologie für das hochautomatisierte Fahren. Als Messprinzip wird bei LIDAR-Systemen typischerweise auf das Time-Of- Flight (ToF) Verfahren zurückgegriffen. Dabei wird ein Laserpuls von einem Sender emittiert, an einem Objekt reflektiert und die Zeit bis zur Detektion an einer Sensoreinheit gemessen. Als Detektor eines LIDAR-Sensors können beispielsweise APDs (avalanche photo detectors) und SPADs (single-photon avalanche detectors), aber auch CCDs (charged-coupled devices) verwendet werden. Insbesondere SPAD- und CCD-basierte Systeme zeigen sich jedoch anfällig gegenüber einer Sättigung der einzelnen Pixel, so dass keine Aussage über die Intensität eines nahen und hochreflektiven Objektes getroffen werden kann. In addition to video, ultrasound and radar-based systems, LIDAR systems are considered a key technology for highly automated driving. LIDAR systems typically use the Time-Of-Flight (ToF) method as the measuring principle. A laser pulse is emitted by a transmitter, reflected on an object and the time until detection is measured on a sensor unit. APDs (avalanche photodetectors) and SPADs (single-photon avalanche detectors), for example, but also CCDs (charged-coupled devices) can be used as detectors of a LIDAR sensor. However, SPAD and CCD-based systems in particular are prone to saturation of the individual pixels, so that no statement can be made about the intensity of a close and highly reflective object.
Offenbarung der Erfindung Disclosure of Invention
Die vorliegende Erfindung geht aus von einem LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes aufweisend eine Sendeeinheit mit wenigstens einer Emittereinheit, welche dazu ausgebildet ist, Primärlicht in das Sichtfeld zu emittieren; eine Empfangseinheit mit wenigstens einer Detektoreinheit, welche dazu ausgebildet ist, im Sichtfeld von einem Objekt reflektiertes und/oder gestreutes Sekundärlicht zu detektieren; und eine Ablenkeinheit, welche dazu ausgebildet ist, emittiertes Primärlicht unter einem vorgebbaren Winkel in das Sichtfeld abzulenken und empfangenes Sekundärlicht in Richtung der wenigstens einen Detektoreinheit abzulenken. The present invention is based on a LIDAR sensor for optically detecting a field of view, having a transmission unit with at least one emitter unit, which is designed to emit primary light into the field of view; a receiving unit with at least one detector unit, which is designed to detect and/or detect objects reflected in the field of view to detect scattered secondary light; and a deflection unit, which is designed to deflect emitted primary light at a predeterminable angle into the field of view and to deflect received secondary light in the direction of the at least one detector unit.
Erfindungsgemäß weist die Detektoreinheit eine Matrix aus einer Vielzahl von lichtempfindlichen Pixeln auf, wobei in mindestens einem Randbereich der Matrix wenigstens ein Transmissionsverringerungselement angeordnet ist, welches dazu ausgebildet ist, eine Transmission des Sekundärlichts auf die Pixel zu verringern. Mit anderen Worten weist die Detektoreinheit einen Bereich mit einer ersten Photonendetektionseffizienz und wenigstens einen Randbereich mit einer zweiten Photonendetektionseffizienz, welche geringer ist als die erste Photonendetektionseffizienz, auf. According to the invention, the detector unit has a matrix of a large number of light-sensitive pixels, with at least one transmission reduction element being arranged in at least one edge region of the matrix, which element is designed to reduce transmission of the secondary light onto the pixels. In other words, the detector unit has an area with a first photon detection efficiency and at least one edge area with a second photon detection efficiency, which is lower than the first photon detection efficiency.
Mittels eines LIDAR-Sensors kann ein Abstand zwischen dem LIDAR-Sensor und einem Objekt im Sichtfeld des LIDAR-Sensors auf der Basis einer Signallaufzeit (Time of Flight, TOF) direkt oder indirekt bestimmt werden. Das Sichtfeld des LIDAR-Sensors kann mittels des ausgesendeten Primärlichts abgetastet werden. Die Emittereinheit kann als wenigstens ein Laser ausgebildet sein. Die Ablenkeinheit kann als Spiegel, insbesondere Mikrospiegel ausgebildet sein. Die Ablenkeinheit kann auch als rotierbare Einheit, auf der die Sendeeinheit und/oder die Empfangseinheit wenigstens teilweise angeordnet sind, ausgebildet sein. Der LIDAR-Sensor weist optional wenigstens eine Auswerteeinheit auf. Mittels der Auswerteeinheit kann das detektierte Sekundärlicht ausgewertet werden. Das Ergebnis der Auswertung kann beispielsweise für eine Fahrerassistenzfunktion eines Fahrzeugs verwendet werden. Das Ergebnis der Auswertung kann beispielsweise für eine Steuerung eines autonom fahrenden Fahrzeugs verwendet werden. Der LIDAR-Sensor kann insbesondere für die Verwendung in einem wenigstens teilweise autonom fahrenden Fahrzeug ausgebildet sein. Mit dem LIDAR-Sensor kann teilautonomes oder autonomes Fahren von Fahrzeugen auf Autobahnen und im Stadtverkehr realisiert werden. Using a LIDAR sensor, a distance between the LIDAR sensor and an object in the field of view of the LIDAR sensor can be determined directly or indirectly on the basis of a signal propagation time (time of flight, TOF). The field of view of the LIDAR sensor can be scanned using the emitted primary light. The emitter unit can be designed as at least one laser. The deflection unit can be designed as a mirror, in particular a micromirror. The deflection unit can also be designed as a rotatable unit on which the transmitting unit and/or the receiving unit are at least partially arranged. The LIDAR sensor optionally has at least one evaluation unit. The detected secondary light can be evaluated by means of the evaluation unit. The result of the evaluation can be used for a driver assistance function of a vehicle, for example. The result of the evaluation can be used, for example, to control an autonomously driving vehicle. The LIDAR sensor can be designed in particular for use in an at least partially autonomously driving vehicle. With the LIDAR sensor, semi-autonomous or autonomous driving of vehicles can be realized on freeways and in city traffic.
Der Vorteil der Erfindung besteht darin, dass die Intensität des von Objekten reflektierten und/oder gestreuten Sekundärlichts verringert werden kann. Insbesondere kann gezielt die Intensität des von nahen Objekten reflektierten und/oder gestreuten Sekundärlichts verringert werden. Hierdurch kann eine verbesserte Messbarkeit mittels des LIDAR-Sensors erreicht werden. Es kann eine Erweiterung des Messbereichs in den Nahbereich auf eine einfache und kostengünstige Weise realisiert werden. Insbesondere für den Fall, dass die Detektoreinheit als SPAD ausgebildet ist, lässt sich nun der Nahbereich erweitern, ohne den Fernbereich zu verschlechtern. Eine Sättigung der Detektoreinheit im Nahbereich kann vermieden werden und damit die Intensität des empfangenen Sekundärlichts besser bestimmt werden. The advantage of the invention is that the intensity of the secondary light reflected and/or scattered by objects can be reduced. In particular, the intensity of the reflected light from nearby objects can be measured and/or scattered secondary light can be reduced. As a result, improved measurability can be achieved using the LIDAR sensor. The measuring range can be expanded into the near range in a simple and cost-effective manner. In particular in the event that the detector unit is in the form of a SPAD, the close-up range can now be expanded without impairing the long-distance range. Saturation of the detector unit in the close-up range can be avoided and the intensity of the secondary light received can thus be better determined.
Durch die zweite, geringere Photonendetektionseffizienz im Randbereich hat der LIDAR-Sensor keine Einschränkungen im Fernbereich. Erstens bildet eine Empfangsoptik das Sekundärlicht aus dem Nahbereich in einem größeren Spot ab (Unschärfebereich). Zweitens kann ein Strahl des Sekundärlichts bei rotierender oder schwingender Strahlablenkung vom wenigstens einen Randbereich in den Bereich mit der ersten Photonendetektionseffizienz bewegt werden. Je nach Dreh-/Schwingrichtung geschieht dies von links nach rechts oder umgekehrt, abhängig von der Dreh-/Schwinggeschwindigkeit mehr oder weniger weit. Im Nahbereich hat der Sekundärpuls eine hohe Intensität. Somit wird vorteilhafterweise für den Nahbereich der Randbereich mit der niedrigen Photonendetektionseffizienz verwendet, um die Detektoreinheit nicht zu sättigen. Der Bereich mit der ersten Photonendetektionseffizienz wird genutzt, um den Fernbereich abzubilden. Due to the second, lower photon detection efficiency in the edge area, the LIDAR sensor has no limitations in the long range. Firstly, a receiving optics forms the secondary light from the close-up range in a larger spot (blurred area). Secondly, a beam of the secondary light can be moved from the at least one edge region into the region with the first photon detection efficiency in the case of rotating or oscillating beam deflection. Depending on the direction of rotation/oscillation, this happens from left to right or vice versa, depending on the speed of rotation/oscillation more or less. At close range, the secondary pulse has a high intensity. The edge area with the low photon detection efficiency is thus advantageously used for the close-up area in order not to saturate the detector unit. The area with the first photon detection efficiency is used to image the far area.
In einer vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass das Transmissionsverringerungselement als eine Maske, eine Teilmaskierung, ein auf den Pixeln angeordnetes Dämpfungsfilter und/oder als eine Blende ausgebildet ist. Die Blende kann insbesondere als Schlitzblende ausgebildet sein. Die Maske kann beispielsweise derart ausgebildet sein, dass nur ein Bruchteil des Sekundärlichts auf die Pixel transmittiert wird. Das Sekundärlicht wird typischerweise auf einen Bruchteil von 1/50 bis 1/100 abgeschwächt. Die Maskierung kann als ein Lochgitter oder eine teilflächige Abdeckung ausgebildet sein. Die Teilmaskierung kann als ein Lochgitter oder eine teilflächige Abdeckung ausgebildet sein. Der Vorteil dieser Ausgestaltung besteht darin, dass die Intensität des von Objekten reflektierten und/oder gestreuten Sekundärlichts auf eine sehr kostengünstige Weise verringert werden kann. ln einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass in einem zweiten Randbereich der auf einer dem ersten Randbereich der Matrix gegenüberliegenden Seite der Matrix angeordnet ist, ein zweites Transmissionsverringerungselement angeordnet ist. Mit anderen Worten weist die Detektoreinheit einen Bereich der Matrix mit einer ersten Photonendetektionseffizienz, einen ersten Randbereich der Matrix mit einer zweiten Photonendetektionseffizienz, welche geringer ist als die erste Photonendetektionseffizienz, und auf der gegenüberliegenden Seite der Matrix einen zweiten Randbereich der Matrix mit einer dritten Photonendetektionseffizienz, welche geringer ist als die erste Photonendetektionseffizienz, auf. Der Bereich der Matrix mit der ersten Photonendetektionseffizienz ist somit insbesondere zwischen dem ersten und dem zweiten Randbereich der Matrix angeordnet. Die zweite Photonendetektionseffizienz kann gleich oder verschieden der dritten Photonendetektionseffizienz sein. Der Vorteil dieser Ausgestaltung besteht darin, dass, unabhängig von einer Dreh- bzw. Bewegungsrichtung der Ablenkeinheit das empfangene Sekundärlicht vom Randbereich mit der zweiten Photonendetektionseffizienz in den Bereich mit einer ersten Photonendetektionseffizienz bewegbar ist. Die Dreh- bzw. Bewegungsrichtung kann umgeschaltet/ bzw. unabhängig von der Einbaulage der Detektoreinheit gewählt werden. In an advantageous embodiment of the invention, it is provided that the transmission reduction element is designed as a mask, a partial mask, an attenuation filter arranged on the pixels and/or as a screen. The screen can be designed in particular as a slit screen. For example, the mask can be designed in such a way that only a fraction of the secondary light is transmitted to the pixels. The secondary light is typically attenuated to a fraction of 1/50 to 1/100. The masking can be in the form of a perforated grid or a partial cover. The partial masking can be in the form of a perforated grid or a partial covering. The advantage of this configuration is that the intensity of the secondary light reflected and/or scattered by objects can be reduced in a very cost-effective manner. In a further advantageous embodiment of the invention it is provided that a second transmission reduction element is arranged in a second edge area which is arranged on a side of the matrix opposite the first edge area of the matrix. In other words, the detector unit has an area of the matrix with a first photon detection efficiency, a first edge area of the matrix with a second photon detection efficiency, which is lower than the first photon detection efficiency, and on the opposite side of the matrix a second edge area of the matrix with a third photon detection efficiency, which is less than the first photon detection efficiency. The area of the matrix with the first photon detection efficiency is thus arranged in particular between the first and the second edge area of the matrix. The second photon detection efficiency can be the same as or different from the third photon detection efficiency. The advantage of this configuration is that, regardless of a direction of rotation or movement of the deflection unit, the received secondary light can be moved from the edge area with the second photon detection efficiency into the area with a first photon detection efficiency. The direction of rotation or movement can be switched or selected independently of the installation position of the detector unit.
In einer weiteren vorteilhaften Ausgestaltung der Erfindung ist vorgesehen, dass die Detektoreinheit als S PAD- Detektor, CCD- oder als CMOS- (Complementary Metal Oxide Semiconductor: komplementärer Metalloxid Halbleiter) Detektor ausgebildet ist. Der Vorteil dieser Ausgestaltung besteht darin, dass derartige Detektoreinheiten besonders kostengünstig herzustellen sind. Insbesondere S PAD- Detektoren können ein einzelnes Photon zur Bereitstellung eines Detektionssignals deutlich verstärken. Es genügen wenige Photonen zur Erzielung eines Signals. Dadurch dass der LIDAR-Sensor das oder die Transmissionsverringerungselement/e aufweist, können auch mit SPAD- Systemen Intensitätsinformationen und genauere Distanzdaten im Nahbereich erfasst werden. Die Erfindung geht weiterhin aus von einem Verfahren zur optischen Erfassung eines Sichtfeldes mittels eines LIDAR-Sensors. Das Verfahren weist dabei die folgenden Schritte auf: Emission von Primärlicht mittels einer Sendeeinheit des LIDAR-Sensors mit wenigstens einer Emittereinheit; Ablenken von emittiertem Primärlicht unter einem vorgebbaren Winkel in das Sichtfeld mittels einer Ablenkeinheit des LIDAR-Sensors; Empfangen von im Sichtfeld von einem Objekt reflektierten und/oder gestreuten Sekundärlicht mittels einer Empfangseinheit des LIDAR-Sensors; Ablenken des empfangenen Sekundärlichts in Richtung einer wenigstens einen Detektoreinheit der Empfangseinheit; und Detektieren des Sekundärlichts mittels der Detektoreinheit. Hierbei weist die Detektoreinheit eine Matrix aus einer Vielzahl von lichtempfindlichen Pixeln auf, wobei in mindestens einem Randbereich der Matrix wenigstens ein Transmissionsverringerungselement angeordnet ist. Das Verfahren weist weiterhin den Schritt der Verringerung einer Transmission des Sekundärlichts auf die Pixel mittels des Transmissionsverringerungselements auf. In a further advantageous embodiment of the invention, it is provided that the detector unit is designed as an S PAD detector, CCD detector or as a CMOS (complementary metal oxide semiconductor) detector. The advantage of this configuration is that such detector units can be produced particularly inexpensively. In particular, S PAD detectors can significantly amplify a single photon to provide a detection signal. A few photons are sufficient to generate a signal. Because the LIDAR sensor has the transmission reduction element(s), intensity information and more precise distance data in the close range can also be recorded with SPAD systems. The invention is also based on a method for optically detecting a field of view using a LIDAR sensor. The method has the following steps: Emission of primary light by means of a transmission unit of the LIDAR sensor with at least one emitter unit; Deflecting emitted primary light at a predeterminable angle into the field of view using a deflection unit of the LIDAR sensor; receiving secondary light reflected and/or scattered by an object in the field of view by means of a receiving unit of the LIDAR sensor; deflecting the received secondary light in the direction of at least one detector unit of the receiving unit; and detecting the secondary light by the detector unit. In this case, the detector unit has a matrix of a large number of light-sensitive pixels, with at least one transmission reduction element being arranged in at least one edge region of the matrix. The method further includes the step of reducing a transmittance of the secondary light onto the pixels using the transmittance reducing element.
Die Erfindung geht weiterhin aus von einem Computerprogramm, welches eingerichtet ist, das oben beschriebene Verfahren auszuführen. The invention is also based on a computer program which is set up to carry out the method described above.
Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen. It goes without saying that the features mentioned above and those still to be explained below can be used not only in the combination specified in each case, but also in other combinations or on their own, without departing from the scope of the present invention.
Zeichnungen drawings
Nachfolgend werden Ausführungsbeispiele der vorliegenden Erfindung anhand der beiliegenden Zeichnungen näher erläutert. Gleiche Bezugszeichen in den Figuren bezeichnen gleiche oder gleichwirkende Elemente. Es zeigen: Exemplary embodiments of the present invention are explained in more detail below with reference to the accompanying drawings. The same reference symbols in the figures denote the same or equivalent elements. Show it:
Figur 1 Ausführungsbeispiel eines LIDAR-Sensors zur Erfassung des Sichtfelds; FIG. 1 exemplary embodiment of a LIDAR sensor for detecting the field of view;
Figur 2 Ausführungsbeispiel einer Detektoreinheit; Figur 3 Ausführungsbeispiel eines Verfahrens zur Erfassung des Sichtfelds mittels eine LIDAR-Sensors. FIG. 2 exemplary embodiment of a detector unit; FIG. 3 exemplary embodiment of a method for detecting the field of view using a LIDAR sensor.
Figur 1 zeigt in Form eines schematischen Blockdiagramms beispielhaft eine Ausführungsform des erfindungsgemäßen LIDAR-Sensors 100. Der LIDAR- Sensor 100 gemäß Figur 1 weist eine Sendeeinheit 101 auf, welche von einer Emittereinheit 102, z.B. mit einem Laser als Linienlichtquelle 103 mit Linienorientierung, gespeist wird und Primärlicht 104 erzeugt und dieses - ggf. nach Durchlaufen einer Strahlformungsoptik 105 - in ein Sichtfeld 108 zur optischen Erfassung eines Sichtfeldes 108, sprich zur Erfassung und/oder Untersuchung einer Szene 110 und eines dort befindlichen Objekts 109, aussendet/emittiert. Figure 1 shows an example of an embodiment of the LIDAR sensor 100 according to the invention in the form of a schematic block diagram. The LIDAR sensor 100 according to Figure 1 has a transmission unit 101 which is fed by an emitter unit 102, e.g and primary light 104 is generated and emits/emits this—possibly after passing through beam-shaping optics 105—into a field of view 108 for optically capturing a field of view 108, i.e. for capturing and/or examining a scene 110 and an object 109 located there.
Des Weiteren weist der LiDAR-Sensor 100 gemäß Figur 1 eine Empfangseinheit 112 auf, welche Licht und insbesondere vom Objekt 109 im Sichtfeld 108 reflektiertes und/oder gestreutes Licht als Sekundärlicht 111, zum Beispiel über ein Objektiv 107 als Primäroptik, empfängt und über eine Detektoroptik 116 als Sekundäroptik an eine Detektoreinheit 117 überträgt. Die Detektoreinheit 117 kann insbesondere als S PAD- Detektor, CCD-Detektor oder als CMOS- Detektor ausgebildet sein. Furthermore, the LiDAR sensor 100 according to Figure 1 has a receiving unit 112, which receives light and in particular light reflected and/or scattered by object 109 in field of view 108 as secondary light 111, for example via a lens 107 as primary optics, and via detector optics 116 as secondary optics to a detector unit 117. The detector unit 117 can be designed in particular as an S PAD detector, CCD detector or as a CMOS detector.
Die Empfangseinheit 112 und die Sendeeinheit 101 sind sichtfeldseitig mit im Wesentlichen koaxialen optischen Achsen ausgebildet und weisen im gezeigten Ausführungsbeispiel eine gemeinsame Ablenkoptik 106 auf. Die gemeinsame sichtfeldseitige Ablenkoptik 106 kann als Teil einer Optik der Sendeeinheit 101 und als Teil einer Optik der Empfangseinheit 112 aufgefasst werden. Die Ablenkoptik 106 kann beispielsweise eine entsprechende Umlenkeinheit 115 aufweisen, die in Figur 1 rein schematisch dargestellt ist. Mit anderen Worten kann die Empfangseinheit 112 detektorseitig eine Sekundäroptik 116 aufweisen, welche ausgebildet ist und Mittel umfasst, über die Ablenkoptik 106 aus dem Sichtfeld 108 einfallendes Sekundärlicht 111 inhärent auf die Detektoreinheit 117 zu richten. Optional und vorteilhaft ist das sichtfeldseitige Vorsehen einer Aperturoptik 107 zum geeigneten Ausgeben des Primärlichts 104 und zum bündelnden Empfangen des Sekundärlichts 111. Alternativ können die Sendeeinheit 101 und die Empfangseinheit 112 des LIDAR-Sensors 100 auch biaxial oder entlang der optischen Pfade der Sendeeinheit 101 und der Empfangseinheit 112 im Wesentlichen koaxial angeordnet sein. Im Fall der koaxialen Anordnung können Elemente der Strahlformungsoptik 105 auch als Elemente der Detektoroptik 116 ausgebildet sein, und umgekehrt. The receiving unit 112 and the transmitting unit 101 are designed with essentially coaxial optical axes on the field of view side and have a common deflection optics 106 in the exemplary embodiment shown. The common deflection optics 106 on the field of view side can be understood as part of the optics of the transmission unit 101 and as part of the optics of the reception unit 112 . The deflection optics 106 can have, for example, a corresponding deflection unit 115, which is shown purely schematically in FIG. In other words, the receiving unit 112 can have secondary optics 116 on the detector side, which are designed and include means for inherently directing secondary light 111 incident from the field of view 108 onto the detector unit 117 via the deflecting optics 106 . Optional and advantageous is the provision of aperture optics 107 on the field of view for the suitable output of the primary light 104 and for the bundling of the reception of the secondary light 111. Alternatively, the transmission unit 101 and the reception unit 112 of the LIDAR sensor 100 can also be arranged biaxially or essentially coaxially along the optical paths of the transmission unit 101 and the reception unit 112 . In the case of the coaxial arrangement, elements of the beam-shaping optics 105 can also be designed as elements of the detector optics 116, and vice versa.
Alternativ kann die Ablenkeinheit 106 auch derart ausgebildet sein, dass die Sendeeinheit 101 eine erste Ablenkeinrichtung zur Ablenkung von Primärlicht 104 in das Sichtfeld 106 aufweist. Das Primärlicht 104 kann von der ersten Ablenkeinrichtung der Sendeeinheit 101 unter vorgegebenen Ablenkwinkeln in das Sichtfeld 106 abgelenkt werden. Die Ablenkeinheit 106 ist in diesem Fall weiterhin derart ausgebildet sein, dass die Empfangseinheit 112 eine zweite Ablenkeinrichtung zur Ablenkung von Sekundärlicht 111 auf die Detektoreinheit 117 aufweist. Unter verschiedenen Winkeln einfallendes Sekundärlicht 111 kann von einer Ablenkeinrichtung der Empfangseinheit 112 auf die Detektoreinheit 117 abgelenkt werden. Alternatively, the deflection unit 106 can also be designed in such a way that the transmission unit 101 has a first deflection device for deflecting primary light 104 into the field of view 106 . The primary light 104 can be deflected into the field of view 106 by the first deflection device of the transmission unit 101 at predetermined deflection angles. In this case, the deflection unit 106 is also designed such that the receiving unit 112 has a second deflection device for deflecting secondary light 111 onto the detector unit 117 . Secondary light 111 incident at different angles can be deflected onto the detector unit 117 by a deflection device of the receiving unit 112 .
Alternativ kann die Ablenkeinheit 106 auch derart ausgebildet sein, dass die Sendeeinheit 101 und die Empfangseinheit 112 auf einer rotierbaren Einheit angeordnet sein. Es können einzelne Elemente der Sendeeinheit 101 und/oder einzelne Elemente der Empfangseinheit 112 auf einer rotierbaren Einheit angeordnet sein. Alternatively, the deflection unit 106 can also be designed in such a way that the transmission unit 101 and the reception unit 112 are arranged on a rotatable unit. Individual elements of the transmitting unit 101 and/or individual elements of the receiving unit 112 can be arranged on a rotatable unit.
Die Steuerung der Emittereinheit 102 sowie der Detektoreinheit 117 kann über Steuerleitungen 121 bzw. 120 mittels einer Steuer- und Auswerteeinheit 119 erfolgen. The emitter unit 102 and the detector unit 117 can be controlled via control lines 121 or 120 by means of a control and evaluation unit 119 .
Figur 2 zeigt ein Ausführungsbeispiel einer Detektoreinheit 117 eines beispielsweise in Figur 1 gezeigten LIDAR-Sensors. Die Detektoreinheit 117 weist eine Matrix aus einer Vielzahl von, hier nicht extra dargestellten, lichtempfindlichen Pixeln auf. In einem ersten Randbereich 204-3 der Matrix ist ein Transmissionsverringerungselement 202 angeordnet ist, welches dazu ausgebildet ist, eine Transmission des Sekundärlichts auf die Pixel zu verringern. Im gezeigten Ausführungsbeispiel ist weiterhin in einem zweiten Randbereich 204-4 der auf einer dem ersten Randbereich 204-3 der Matrix gegenüberliegenden Seite der Matrix angeordnet ist, ein zweites Transmissionsverringerungselement 202 angeordnet. Die Detektoreinheit 117 weist somit einen Bereich 201 der Matrix mit einer ersten Photonendetektionseffizienz, einen ersten Randbereich 204-3 der Matrix mit einer zweiten Photonendetektionseffizienz, welche geringer ist als die erste Photonendetektionseffizienz, und auf der gegenüberliegenden Seite der Matrix einen zweiten Randbereich 204-4 der Matrix mit einer dritten Photonendetektionseffizienz, welche geringer ist als die erste Photonendetektionseffizienz, auf. Wie in Figur 2 gezeigt können auch in weiteren Randbereichen 204-1, 204-2 der Matrix weitere Transmissionsverringerungselemente 203 angeordnet sein. Die Transmissionsverringerungselemente 202, 203 können beispielsweise als Maske und/oder als Blende ausgebildet sein. FIG. 2 shows an exemplary embodiment of a detector unit 117 of a LIDAR sensor shown in FIG. 1, for example. The detector unit 117 has a matrix of a large number of light-sensitive pixels, which are not shown separately here. A transmission reduction element 202 is arranged in a first edge region 204-3 of the matrix, which element is designed to reduce transmission of the secondary light onto the pixels. In the exemplary embodiment shown, the one on the first edge area 204-3 of the matrix is also in a second edge area 204-4 is arranged on the opposite side of the matrix, a second transmission reduction element 202 is arranged. The detector unit 117 thus has an area 201 of the matrix with a first photon detection efficiency, a first edge area 204-3 of the matrix with a second photon detection efficiency, which is lower than the first photon detection efficiency, and on the opposite side of the matrix a second edge area 204-4 of the Matrix with a third photon detection efficiency, which is less than the first photon detection efficiency on. As shown in FIG. 2, further transmission reduction elements 203 can also be arranged in further edge regions 204-1, 204-2 of the matrix. The transmission reduction elements 202, 203 can be designed, for example, as a mask and/or as a diaphragm.
Figur 3 zeigt ein Ausführungsbeispiel eines Verfahrens 300 zur Erfassung des Sichtfelds mittels eine LIDAR-Sensors. Das Verfahren startet im Schritt 301. Im Schritt 302 wird Primärlicht mittels einer Sendeeinheit des LIDAR-Sensors mit wenigstens einer Emittereinheit emittiert. Im Schritt 303 wird emittiertes Primärlicht unter einem vorgebbaren Winkel in das Sichtfeld mittels einer Ablenkeinheit des LIDAR-Sensors abgelenkt. Im Schritt 304 wird im Sichtfeld von einem Objekt reflektiertes und/oder gestreutes Sekundärlicht mittels einer Empfangseinheit des LIDAR-Sensors empfangen. Im Schritt 305 wird das empfangene Sekundärlicht in Richtung einer wenigstens einen Detektoreinheit der Empfangseinheit abgelenkt. Die Detektoreinheit weist, wie in Figur 2 beschrieben, eine Matrix aus einer Vielzahl von lichtempfindlichen Pixeln auf, wobei in mindestens einem Randbereich der Matrix wenigstens ein Transmissionsverringerungselement angeordnet ist. Im Schritt 306 wird eine Transmission des Sekundärlichts auf die Pixel mittels des Transmissionsverringerungselements verringert. Schritt 307 wird schließlich das Sekundärlichts mittels der Detektoreinheit detektiert. Das Verfahren endet im Schritt 308. FIG. 3 shows an exemplary embodiment of a method 300 for detecting the field of view using a LIDAR sensor. The method starts in step 301. In step 302, primary light is emitted by means of a transmission unit of the LIDAR sensor with at least one emitter unit. In step 303, emitted primary light is deflected at a predeterminable angle into the field of view by means of a deflection unit of the LIDAR sensor. In step 304, secondary light reflected and/or scattered by an object in the field of view is received by a receiving unit of the LIDAR sensor. In step 305, the received secondary light is deflected in the direction of at least one detector unit of the receiving unit. As described in FIG. 2, the detector unit has a matrix of a large number of light-sensitive pixels, with at least one transmission reduction element being arranged in at least one edge area of the matrix. In step 306 a transmission of the secondary light onto the pixels is reduced by means of the transmission reduction element. Finally, in step 307, the secondary light is detected by the detector unit. The method ends in step 308.

Claims

- 9 - Ansprüche - 9 - Claims
1. LIDAR-Sensor (100) zur optischen Erfassung eines Sichtfeldes (108) aufweisend Having a LIDAR sensor (100) for optically detecting a field of view (108).
• eine Sendeeinheit (101) mit wenigstens einer Emittereinheit (102), welche dazu ausgebildet ist Primärlicht (104) in das Sichtfeld (108) zu emittieren; • a transmission unit (101) with at least one emitter unit (102) which is designed to emit primary light (104) into the field of view (108);
• eine Empfangseinheit (112) mit wenigstens einer Detektoreinheit (117), welche dazu ausgebildet ist, im Sichtfeld (108) von einem Objekt (109) reflektiertes und/oder gestreutes Sekundärlicht (111) zu detektieren; und • a receiving unit (112) with at least one detector unit (117) which is designed to detect secondary light (111) reflected and/or scattered by an object (109) in the field of view (108); and
• eine Ablenkeinheit (106), welche dazu ausgebildet ist, emittiertes Primärlicht (104) unter einem vorgebbaren Winkel in das Sichtfeld (108) abzulenken und empfangenes Sekundärlicht (111) in Richtung der wenigstens einen Detektoreinheit (117) abzulenken; dadurch gekennzeichnet, dass • a deflection unit (106) which is designed to deflect emitted primary light (104) at a predeterminable angle into the field of view (108) and to deflect received secondary light (111) in the direction of the at least one detector unit (117); characterized in that
• die Detektoreinheit (117) eine Matrix aus einer Vielzahl von lichtempfindlichen Pixeln aufweist, wobei in mindestens einem Randbereich (204-1 bis 204-4) der Matrix wenigstens ein Transmissionsverringerungselement (202, 203) angeordnet ist, welches dazu ausgebildet ist, eine Transmission des Sekundärlichts (111) auf die Pixel zu verringern. • the detector unit (117) has a matrix of a large number of light-sensitive pixels, with at least one transmission reduction element (202, 203) being arranged in at least one edge area (204-1 to 204-4) of the matrix, which element is designed for transmission of the secondary light (111) to the pixels.
2. LIDAR-Sensor (100) nach Anspruch 1, wobei das Transmissionsverringerungselement (202, 203) als eine Maske, eine Teilmaskierung, ein auf den Pixeln angeordnetes Dämpfungsfilter und/oder als eine Blende ausgebildet ist. 2. LIDAR sensor (100) according to claim 1, wherein the transmission reduction element (202, 203) is designed as a mask, a partial mask, an attenuation filter arranged on the pixels and/or an aperture.
3. LIDAR-Sensor (100) nach Anspruch 1 oder 2, wobei in einem zweiten Randbereich (204-2, 204-4) der auf einer dem ersten Randbereich (204-1, 204-4) der Matrix gegenüberliegenden Seite der Matrix angeordnet ist, ein zweites Transmissionsverringerungselement (202, 203) angeordnet ist. 3. LIDAR sensor (100) according to claim 1 or 2, wherein in a second edge region (204-2, 204-4) on a first edge region (204-1, 204-4) of the matrix opposite side of the matrix arranged a second transmission reduction element (202, 203) is arranged.
4. LIDAR-Sensor (100) nach einem der vorherigen Ansprüche, wobei die Detektoreinheit (117) als S PAD- Detektor, CCD- oder als CMOS-Detektor ausgebildet ist. 4. LIDAR sensor (100) according to any one of the preceding claims, wherein the detector unit (117) is designed as an S PAD detector, CCD or CMOS detector.
5. Verfahren (300) zur optischen Erfassung eines Sichtfeldes mittels eines LIDAR-Sensors aufweisend die Schritte: 5. Method (300) for optically detecting a field of view using a LIDAR sensor, comprising the steps:
• Emission (302) von Primärlicht mittels einer Sendeeinheit mit wenigstens einer Emittereinheit; • Emission (302) of primary light by means of a transmission unit with at least one emitter unit;
• Ablenken (303) von emittiertem Primärlicht unter einem vorgebbaren Winkel in das Sichtfeld mittels einer Ablenkeinheit; • deflection (303) of emitted primary light at a predeterminable angle in the field of view by means of a deflection unit;
• Empfangen (304) von im Sichtfeld von einem Objekt reflektierten und/oder gestreuten Sekundärlicht mittels einer Empfangseinheit; • receiving (304) secondary light reflected and/or scattered by an object in the field of view by means of a receiving unit;
• Ablenken (305) des empfangenen Sekundärlichts in Richtung einer wenigstens einen Detektoreinheit der Empfangseinheit; • deflecting (305) the received secondary light in the direction of at least one detector unit of the receiving unit;
• Detektieren (307) des Sekundärlichts mittels der Detektoreinheit; dadurch gekennzeichnet, dass • detecting (307) the secondary light by means of the detector unit; characterized in that
• die Detektoreinheit eine Matrix aus einer Vielzahl von lichtempfindlichen• the detector unit is a matrix of a variety of photosensitive
Pixeln aufweist, wobei in mindestens einem Randbereich der Matrix wenigstens ein Transmissionsverringerungselement angeordnet ist; und wobei das Verfahren (300) weiterhin den Schritt aufweist: having pixels, at least one transmission reduction element being arranged in at least one edge region of the matrix; and wherein the method (300) further comprises the step of:
• Verringerung (306) einer Transmission des Sekundärlichts auf die Pixel mittels des Transmissionsverringerungselements. • reducing (306) a transmission of the secondary light onto the pixels by means of the transmission reduction element.
6. Computerprogramm, welches eingerichtet ist, die Schritte des Verfahrens (300) gemäß Anspruch 5 auszuführen. 6. A computer program which is set up to carry out the steps of the method (300) according to claim 5.
PCT/EP2021/070142 2020-08-20 2021-07-19 Lidar sensor for optically capturing a field of view, and method for capturing a field of view WO2022037870A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102020210582.0A DE102020210582A1 (en) 2020-08-20 2020-08-20 LIDAR sensor for optically capturing a field of view and method for capturing a field of view
DE102020210582.0 2020-08-20

Publications (1)

Publication Number Publication Date
WO2022037870A1 true WO2022037870A1 (en) 2022-02-24

Family

ID=77104046

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2021/070142 WO2022037870A1 (en) 2020-08-20 2021-07-19 Lidar sensor for optically capturing a field of view, and method for capturing a field of view

Country Status (2)

Country Link
DE (1) DE102020210582A1 (en)
WO (1) WO2022037870A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3182159A1 (en) * 2015-12-15 2017-06-21 Riegl Laser Measurement Systems GmbH Distance measuring device
EP3557284A2 (en) * 2018-04-20 2019-10-23 Sick AG Optoelectronic sensor and distance measurement method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3182159A1 (en) * 2015-12-15 2017-06-21 Riegl Laser Measurement Systems GmbH Distance measuring device
EP3557284A2 (en) * 2018-04-20 2019-10-23 Sick AG Optoelectronic sensor and distance measurement method

Also Published As

Publication number Publication date
DE102020210582A1 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
EP3729137B1 (en) Multi-pulse lidar system for multi-dimensional detection of objects
EP2708913A1 (en) Opto-electronic sensor and object detection method
DE102019105478A1 (en) LIDAR sensors and methods for the same
DE102019133096A1 (en) Optoelectronic sensor and method for detecting an object
WO2022037870A1 (en) Lidar sensor for optically capturing a field of view, and method for capturing a field of view
WO2019007947A1 (en) Device for three-dimensional detection, in particular lidar device
EP3329300B1 (en) Optical sensor apparatus for a vehicle for two dimensional scanning the surroundings of the vehicle, vehicle and method
DE102018128630A1 (en) Sensors and methods for detecting objects
WO2018060408A1 (en) Scanning unit of an optical transceiver device of an optical detection apparatus of a vehicle
DE102019118029A1 (en) Optical measuring device for determining object information from objects in at least one monitoring area
WO2024213534A1 (en) Method for operating a lidar system, lidar system, driver assistance system and vehicle
DE102019128437A1 (en) Calibration device for calibrating at least one optical detection device
EP3945339A1 (en) Optical detection device for monitoring at least one surveillance area on objects and method for operating an optical detection device
DE102021113962A1 (en) Receiving device of a detection device, detection device, vehicle with at least one detection device and method for operating at least one detection device
DE102021119239A1 (en) Method for operating an optical detection device, optical detection device for monitoring at least one monitoring area and vehicle with at least one detection device
EP2653889B1 (en) Optoelectronic sensor device with improved reception optics, motor vehicle and corresponding method
WO2023099426A1 (en) Method for operating a lidar system, lidar system, and vehicle comprising at least one lidar system
DE102019124641A1 (en) Detection device for detecting objects and method for operating a detection device
DE102021123007A1 (en) Detection device for monitoring at least one monitoring area, transmission device for a detection device, vehicle with at least one detection device and method for operating a detection device
DE102020124023A1 (en) Method for detecting objects and detection device
WO2024217641A1 (en) Detector device and sensor unit
DE102020004829A1 (en) Hybrid lidar sensor for detecting the surroundings
WO2024223529A1 (en) Lidar system and method for sensing surroundings
WO2024208871A1 (en) Optical receiving unit for a lidar system, lidar system for a vehicle, and method for operating a lidar system
DE102022133253A1 (en) Receiving device for a LiDAR system, LiDAR system, vehicle with at least one LiDAR system and method for setting a receiving device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21746690

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21746690

Country of ref document: EP

Kind code of ref document: A1