Nothing Special   »   [go: up one dir, main page]

JP2024121933A - Processing device, method and program - Google Patents

Processing device, method and program Download PDF

Info

Publication number
JP2024121933A
JP2024121933A JP2023029184A JP2023029184A JP2024121933A JP 2024121933 A JP2024121933 A JP 2024121933A JP 2023029184 A JP2023029184 A JP 2023029184A JP 2023029184 A JP2023029184 A JP 2023029184A JP 2024121933 A JP2024121933 A JP 2024121933A
Authority
JP
Japan
Prior art keywords
light
lens system
light receiving
focal position
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023029184A
Other languages
Japanese (ja)
Inventor
智成 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2023029184A priority Critical patent/JP2024121933A/en
Publication of JP2024121933A publication Critical patent/JP2024121933A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】視差による距離誤差の影響が抑制された距離情報を安定的に提供可能な処理装置を提供する。【解決手段】処理装置3は、光ビームを測定領域MAへ向けて投光する投光ユニット10と、投光ユニット10とはずれた位置に配置され、物体OBJによって反射された光ビームを受光する受光ユニット30と、を備えるLiDAR2のセンシングデータを処理する。処理装置3は、投光レンズ系12の焦点位置Ptfと、受光レンズ系31の焦点位置Prfとを、記憶する少なくとも1つのメモリ3aと、プロセッサ3bと、を備える。プロセッサ3bは、光ビームの光路について、焦点位置Ptfを起点とし、焦点位置Prfを終点とする近似に基づき、投光ユニット10と受光ユニット31との位置のずれに起因した物体OBJの距離誤差が補正された補正距離情報を、LiDAR2から物体OBJまでの距離情報として出力可能に構成される。【選択図】図6[Problem] To provide a processing device capable of stably providing distance information in which the influence of distance error due to parallax is suppressed. [Solution] A processing device 3 processes sensing data of a LiDAR 2 including a light projection unit 10 that projects a light beam toward a measurement area MA, and a light receiving unit 30 that is disposed at a position offset from the light projection unit 10 and receives the light beam reflected by an object OBJ. The processing device 3 includes at least one memory 3a that stores a focal position Ptf of a light projection lens system 12 and a focal position Prf of a light receiving lens system 31, and a processor 3b. The processor 3b is configured to be capable of outputting corrected distance information, in which a distance error of the object OBJ caused by a positional deviation between the light projection unit 10 and the light receiving unit 31 is corrected based on an approximation of the optical path of the light beam from the focal position Ptf as a starting point to the focal position Prf as an end point, as distance information from the LiDAR 2 to the object OBJ. [Selected Figure] FIG. 6

Description

この明細書による開示は、光学センサを用いた測距技術に関する。 This disclosure relates to distance measurement technology using optical sensors.

従来、光学センサを用いた測距技術が知られている。投光ユニットと受光ユニットとが互いにずれた位置に配置された非同軸型の光学センサでは、両ユニットの視差による距離誤差が発生する。そこで特許文献1では、投光ユニット及び受光ユニットの配置情報を用いて、当該距離誤差を補正している。具体的に、遠距離では同軸系であると仮定し、近距離では反復処理で補正を実行する。 Conventionally, distance measurement technology using optical sensors is known. In non-coaxial optical sensors in which the light-projecting unit and the light-receiving unit are positioned at offset positions, distance errors occur due to the parallax between the two units. Therefore, in Patent Document 1, the distance error is corrected using the position information of the light-projecting unit and the light-receiving unit. Specifically, a coaxial system is assumed for long distances, and correction is performed by iterative processing for short distances.

特開2021-12136号公報JP 2021-12136 A

しかしながら、特許文献1の技術では、近距離において数値が条件を満たすまで反復処理が用いられるため、当該反復処理に時間や負荷がかかってしまうことがある。このため、距離情報を安定的に提供することにおいて、課題があった。 However, in the technology of Patent Document 1, an iterative process is used until the numerical value satisfies the condition at close distances, and this iterative process can be time-consuming and burdensome. This poses a problem in providing distance information stably.

この明細書の開示による目的のひとつは、視差による距離誤差の影響が抑制された距離情報を安定的に提供可能な処理装置、方法及びプログラムを提供することにある。 One of the purposes of the disclosure of this specification is to provide a processing device, method, and program that can stably provide distance information in which the effects of distance errors due to parallax are suppressed.

ここに開示された態様のひとつは、光源(11)から投光レンズ系(12)を通じて光ビームを測定領域(MA)へ向けて投光する投光ユニット(10)と、投光ユニットとはずれた位置に配置され、測定領域の測定対象物(OBJ)によって反射された光ビームを、受光レンズ系(31)を通じて受光素子(32)で受光する受光ユニット(30)と、を備える光学センサ(2)のセンシングデータを処理する処理装置であって、
投光レンズ系の焦点位置(Ptf)と、受光レンズ系の焦点位置(Prf)とを、記憶する少なくとも1つの記憶媒体(3a)と、
センシングデータ、投光レンズ系の焦点位置及び受光レンズ系の焦点位置を取得して処理を実行可能に構成される少なくとも1つのプロセッサ(3b)と、を備え、
少なくとも1つのプロセッサは、
光ビームの光路について、投光レンズ系の焦点位置を起点とし、受光レンズ系の焦点位置を終点とする近似に基づき、投光ユニットと受光ユニットとの位置のずれに起因した測定対象物の距離誤差が補正された補正距離情報を、光学センサから測定対象物までの距離情報として出力可能に構成される。
One of the aspects disclosed herein is a processing device for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31),
At least one storage medium (3a) for storing a focal position (Ptf) of a light projection lens system and a focal position (Prf) of a light receiving lens system;
At least one processor (3b) configured to acquire sensing data, a focal position of a light projection lens system, and a focal position of a light receiving lens system and execute processing;
At least one processor
Based on an approximation of the optical path of the light beam, starting from the focal position of the light projecting lens system and ending at the focal position of the light receiving lens system, corrected distance information in which the distance error of the object to be measured caused by the misalignment between the light projecting unit and the light receiving unit is corrected can be output as distance information from the optical sensor to the object to be measured.

また、開示された態様の他のひとつは、光源(11)から投光レンズ系(12)を通じて光ビームを測定領域(MA)へ向けて投光する投光ユニット(10)と、投光ユニットとはずれた位置に配置され、測定領域の測定対象物(OBJ)によって反射された光ビームを、受光レンズ系(31)を通じて受光素子(32)で受光する受光ユニット(30)と、を備える光学センサ(2)のセンシングデータを処理する、少なくとも1つのプロセッサにより実行される方法であって、
センシングデータを取得することと、
投光レンズ系の焦点位置(Ptf)と、受光レンズ系の焦点位置(Prf)とを、記憶媒体(3a)から取得することと、
光ビームの光路について、投光レンズ系の焦点位置を起点とし、受光レンズ系の焦点位置を終点とする近似を実行することと、
近似に基づいて、投光ユニットと受光ユニットとの位置のずれに起因した測定対象物の距離誤差を補正し、補正距離情報を、光学センサから測定対象物までの距離情報として出力することと、を含む。
Another disclosed aspect is a method executed by at least one processor for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31), the method comprising:
Acquiring sensing data;
Obtaining a focal position (Ptf) of a light projection lens system and a focal position (Prf) of a light receiving lens system from a storage medium (3a);
approximating the optical path of the light beam from a focal position of the light projection lens system as a starting point to a focal position of the light receiving lens system as an end point;
The method includes correcting a distance error of the object to be measured caused by a misalignment between the light-projecting unit and the light-receiving unit based on the approximation, and outputting the corrected distance information as distance information from the optical sensor to the object to be measured.

また、開示された態様の他のひとつは、光源(11)から投光レンズ系(12)を通じて光ビームを測定領域(MA)へ向けて投光する投光ユニット(10)と、投光ユニットとはずれた位置に配置され、測定領域の測定対象物(OBJ)によって反射された光ビームを、受光レンズ系(31)を通じて受光素子(32)で受光する受光ユニット(30)と、を備える光学センサ(2)のセンシングデータを処理するプログラムであって、
少なくとも1つのプロセッサに、
センシングデータを取得することと、
投光レンズ系の焦点位置(Ptf)と、受光レンズ系の焦点位置(Prf)とを、記憶媒体(3a)から取得することと、
光ビームの光路について、投光レンズ系の焦点位置を起点とし、受光レンズ系の焦点位置を終点とする近似を実行することと、
近似に基づいて、投光ユニットと受光ユニットとの位置のずれに起因した測定対象物の距離誤差を補正し、補正距離情報を、光学センサから測定対象物までの距離情報として出力することと、を実行させるように構成される。
Another disclosed aspect is a program for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31),
At least one processor,
Acquiring sensing data;
Obtaining a focal position (Ptf) of a light projection lens system and a focal position (Prf) of a light receiving lens system from a storage medium (3a);
approximating the optical path of the light beam from a focal position of the light projection lens system as a starting point to a focal position of the light receiving lens system as an end point;
The device is configured to correct a distance error of the object to be measured caused by a misalignment between the light-projecting unit and the light-receiving unit based on the approximation, and to output the corrected distance information as distance information from the optical sensor to the object to be measured.

これらの態様によると、光学センサから測定対象物までの距離情報を出力するにあたって、投光ユニットと受光ユニットとの位置のずれに起因した測定対象物の距離誤差が補正される。この補正は、光ビームの光路について、投光レンズ系の焦点位置を起点とし、受光レンズ系の焦点位置を終点とする近似に基づいて実行される。この近似の採用により、補正演算における数値が収束ないし条件を満たすまでの反復処理により時間や負荷がかかってしまうことが抑制される。距離情報を出力するための時間や負荷が大幅に軽減される結果、距離情報を安定的に提供することができるようになる。 According to these aspects, when outputting distance information from the optical sensor to the object to be measured, distance errors of the object to be measured caused by misalignment between the light projecting unit and the light receiving unit are corrected. This correction is performed based on an approximation of the optical path of the light beam, starting from the focal position of the light projecting lens system and ending at the focal position of the light receiving lens system. The use of this approximation reduces the time and load required for iterative processing until the numerical values in the correction calculation converge or satisfy the conditions. As a result of the significant reduction in the time and load required to output distance information, it becomes possible to provide distance information stably.

なお、特許請求の範囲等に含まれる括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。 Note that the reference characters in parentheses in the claims are illustrative of the corresponding relationships with the embodiments described below, and are not intended to limit the technical scope.

LiDARの車両への搭載状態を示す図。A diagram showing the LiDAR mounted on a vehicle. 物体検知システムを示すブロック図。FIG. 1 is a block diagram showing an object detection system. LiDARの構成を示す模式図。Schematic diagram showing the configuration of LiDAR. 光源を示す図。FIG. 受光素子を説明する図。FIG. 2 is a diagram illustrating a light receiving element. 処理装置の機能的構成を示すブロック図。FIG. 2 is a block diagram showing the functional configuration of a processing device. 仮想楕円を説明する図。FIG. 処理装置による処理方法の例を示すフローチャート。11 is a flowchart showing an example of a processing method by the processing device. 補正演算がない場合の距離誤差を示すグラフ。11 is a graph showing a distance error when no correction calculation is performed. 補正演算がない場合の距離誤差を示すグラフ。11 is a graph showing a distance error when no correction calculation is performed. 処理装置の機能的構成を示すブロック図。FIG. 2 is a block diagram showing the functional configuration of a processing device. 発光位置及び受光位置の特定を説明する図。5A and 5B are diagrams for explaining the determination of a light-emitting position and a light-receiving position. 処理装置による処理方法の例を示すフローチャート。11 is a flowchart showing an example of a processing method by the processing device.

以下、複数の実施形態を図面に基づいて説明する。なお、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。 Below, several embodiments are described based on the drawings. Note that in each embodiment, corresponding components are given the same reference numerals, and duplicated descriptions may be omitted. When only a portion of the configuration is described in each embodiment, the configuration of the other embodiment described above can be applied to the other portions of the configuration. In addition to the combinations of configurations explicitly stated in the description of each embodiment, configurations of several embodiments can be partially combined together even if not explicitly stated, as long as there is no particular problem with the combination.

(第1実施形態)
図1,2に示すように、本開示の第1実施形態による物体検知システム1は、移動体としての車両EVに搭載されている。物体検知システム1は、車両EVの周辺の物体OBJを検知する。物体検知システム1が検知した物体OBJの情報は、車両EVのHMIシステムを通じて例えばドライバ等の乗員へ情報提供されてもよい。また、物体検知システム1が検知した物体OBJの情報は、車両EVの自動運転システム又は運転支援システムによる自動運転又は運転支援に用いられる。図2に示すように、物体検知システム1は、LiDAR(Light Detection and Ranging/Laser imaging Detection and Ranging)2及び処理装置3を含む構成である。
First Embodiment
As shown in Figs. 1 and 2, an object detection system 1 according to a first embodiment of the present disclosure is mounted on a vehicle EV as a moving body. The object detection system 1 detects an object OBJ around the vehicle EV. Information on the object OBJ detected by the object detection system 1 may be provided to an occupant such as a driver through an HMI system of the vehicle EV. In addition, the information on the object OBJ detected by the object detection system 1 is used for automatic driving or driving assistance by an automatic driving system or a driving assistance system of the vehicle EV. As shown in Fig. 2, the object detection system 1 includes a LiDAR (Light Detection and Ranging/Laser imaging Detection and Ranging) 2 and a processing device 3.

図3に示すLiDAR2は、光ビームを測定領域MAへ向けて投光し、測定対象物である物体OBJからの反射光を検出する光学センサである。LiDAR2は、物体OBJの距離を測定する光測距装置にも相当する。図1に示すように、LiDAR2は、例えば図1に示すように車両EVのフロントウインドシールド上端部に設置され、車両EVの前方の測定領域MAへ光を走査して物体OBJを検出することが可能である。測定対象物として検出される物体OBJは、例えば他車両、歩行者等である。図2に示すように、LiDAR2は、投光ユニット10、走査ユニット20、受光ユニット30及びコントローラ40を含む構成である。 The LiDAR2 shown in FIG. 3 is an optical sensor that projects a light beam toward a measurement area MA and detects reflected light from an object OBJ, which is the object to be measured. The LiDAR2 also corresponds to an optical distance measuring device that measures the distance to the object OBJ. As shown in FIG. 1, the LiDAR2 is installed, for example, at the upper end of the front windshield of the vehicle EV as shown in FIG. 1, and is capable of detecting the object OBJ by scanning light toward the measurement area MA in front of the vehicle EV. The object OBJ detected as the object to be measured is, for example, another vehicle, a pedestrian, etc. As shown in FIG. 2, the LiDAR2 is configured to include a light projection unit 10, a scanning unit 20, a light receiving unit 30, and a controller 40.

投光ユニット10は、光源11から投光レンズ系12を通じて光ビームを測定領域MAへ向けて投光する。投光ユニット10は、光源11及び投光レンズ系12を含む構成である。 The light projection unit 10 projects a light beam from a light source 11 through a light projection lens system 12 toward the measurement area MA. The light projection unit 10 includes a light source 11 and a light projection lens system 12.

光源11は、例えばレーザダイオード(LD,Laser Diode)等のレーザ発振素子であってよい。光源11は、LEDであってもよい。光源11は、コントローラ40からの電気信号に応じた発光タイミングにて、発光可能である。発光される光の波長は、近赤外光等の可視光以外の波長であってよい。 The light source 11 may be, for example, a laser oscillation element such as a laser diode (LD). The light source 11 may also be an LED. The light source 11 is capable of emitting light at a timing corresponding to an electrical signal from the controller 40. The wavelength of the emitted light may be a wavelength other than visible light, such as near-infrared light.

光源11は、図4に示すように、複数の発光素子11a(発光画素ともいう)を1次元又は2次元に配列した構成であってよい。本実施形態における光源11は、発光素子11aとしてのLDを互いに間隔を空けて(離散的に)1次元に配列した発光素子アレイである。 As shown in FIG. 4, the light source 11 may be configured with a plurality of light-emitting elements 11a (also called light-emitting pixels) arranged one-dimensionally or two-dimensionally. In this embodiment, the light source 11 is a light-emitting element array in which LDs as the light-emitting elements 11a are arranged one-dimensionally at intervals (discretely) from each other.

投光レンズ系12は、光源11から発光された光を集光し、測定領域MAへ向けてビーム状の光ビームを投光する。投光レンズ系12は、1つ又は複数のレンズを含む構成である。投光レンズ系12は、ミラーレンズ等の反射素子を含む構成であってもよい。 The projection lens system 12 collects the light emitted from the light source 11 and projects a light beam toward the measurement area MA. The projection lens system 12 includes one or more lenses. The projection lens system 12 may also include a reflective element such as a mirror lens.

走査ユニット20は、投光ユニット10からの投光ビームを測定領域MAの範囲で走査する。走査ユニット20は、例えば走査ミラー21を含む構成である。走査ミラー21は、駆動モータ及び反射体を含む構成である。駆動モータは、コントローラ40からの電気信号に応じた回転量及び回転速度にて、反射体の回転軸を駆動する。反射体は、投光ビームを測定領域MAへ向けて反射する反射面を有するミラーである。反射面は、例えば平面状に形成されている。 The scanning unit 20 scans the projected beam from the light projection unit 10 within the range of the measurement area MA. The scanning unit 20 includes, for example, a scanning mirror 21. The scanning mirror 21 includes a drive motor and a reflector. The drive motor drives the rotation shaft of the reflector at an amount of rotation and a rotation speed according to an electrical signal from the controller 40. The reflector is a mirror having a reflective surface that reflects the projected beam toward the measurement area MA. The reflective surface is formed, for example, in a flat shape.

受光ユニット30は、測定領域MAの物体OBJに反射されて戻ってくる光ビームを、受光レンズ系31を通じて受光素子32で受光する。受光ユニット30は、受光レンズ系31、受光素子32及びデコーダ33を含む構成である。 The light receiving unit 30 receives the light beam reflected by the object OBJ in the measurement area MA and returns through the light receiving lens system 31 at the light receiving element 32. The light receiving unit 30 includes the light receiving lens system 31, the light receiving element 32, and a decoder 33.

受光レンズ系31は、測定領域MAの物体OBJに反射され、さらに走査ミラー21に反射された光ビームを集光し、受光素子32に入射させる。受光レンズ系31は、1つ又は複数のレンズを含む構成である。受光レンズ系31は、ミラーレンズ等の反射素子を含む構成であってもよい。 The light receiving lens system 31 focuses the light beam reflected by the object OBJ in the measurement area MA and then reflected by the scanning mirror 21, and makes it incident on the light receiving element 32. The light receiving lens system 31 includes one or more lenses. The light receiving lens system 31 may also include a reflective element such as a mirror lens.

受光素子32は、受光レンズ系31によって集光された反射光を受光して検出する。受光素子32は、例えば単一光子アバランシェフォトダイオード(SPAD,Single Photon Avalanche Diode)センサであってよい。図5に示すように受光素子32は、複数のSPADを検出面32b上に高度に集積化した状態で、受光画素32aを2次元配列して形成されている。 The light receiving element 32 receives and detects the reflected light collected by the light receiving lens system 31. The light receiving element 32 may be, for example, a single photon avalanche diode (SPAD) sensor. As shown in FIG. 5, the light receiving element 32 is formed by arranging light receiving pixels 32a in a two-dimensional manner with multiple SPADs highly integrated on the detection surface 32b.

SPADは、1つの光子を受光すると、アバランシェ倍増による電子倍増動作(いわゆるガイガーモード)により、1つの電気パルスを生成する。すなわち、SPADは、アナログ信号からデジタル信号へのAD変換回路を介さずに、換言すると直接的に、デジタル信号としての電気パルスを発生させることができる。したがって、受光結果は高速に読み出し可能である。 When the SPAD receives a single photon, it generates a single electrical pulse through an electron multiplication operation caused by avalanche multiplication (the so-called Geiger mode). In other words, the SPAD can generate an electrical pulse as a digital signal directly, without going through an AD conversion circuit that converts analog signals into digital signals. Therefore, the light reception result can be read out at high speed.

デコーダ33は、SPADが生成した電気パルスを出力するために設けられ、選択回路及びクロック発振器を含む構成である。選択回路は、電気パルスを取り出す対象となるSPADを、順次選択していく。選択されたSPADは、電気パルスをコントローラ40へ出力する。選択回路がSPADを1回ずつ選択し終えると、1回のサンプリングが終了する。このサンプリング周期は、クロック回路から出力されるクロック周波数に応じたものとなる。 The decoder 33 is provided to output the electrical pulses generated by the SPADs, and includes a selection circuit and a clock oscillator. The selection circuit sequentially selects the SPADs from which the electrical pulses are to be extracted. The selected SPADs output the electrical pulses to the controller 40. When the selection circuit has selected each SPAD once, one sampling session is completed. This sampling period corresponds to the clock frequency output from the clock circuit.

コントローラ40は、LiDAR2の動作を制御する。コントローラ40は、メモリ及びプロセッサを少なくとも1つずつ有したコンピュータにより実現されていてもよい。コントローラ40は、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等によって実現されていてもよい。 The controller 40 controls the operation of the LiDAR 2. The controller 40 may be realized by a computer having at least one memory and one processor. The controller 40 may be realized by a field-programmable gate array (FPGA), an application specific integrated circuit (ASIC), etc.

具体的に、コントローラ40は、投光ユニット10における光源11の発光と、走査ユニット20における走査ミラー21の向きとを、連動するように制御する。さらにコントローラ40は、デコーダ33によるサンプリング動作を制御してもよい。コントローラ40は、投光ユニット10、走査ユニット20及び受光ユニット30の制御データ、及び受光ユニット30のサンプリング結果ないしこれを処理したデータを、センシングデータとして処理装置3へ出力可能に構成されている。 Specifically, the controller 40 controls the light emission of the light source 11 in the light projection unit 10 and the orientation of the scanning mirror 21 in the scanning unit 20 so that they are linked. Furthermore, the controller 40 may control the sampling operation by the decoder 33. The controller 40 is configured to be able to output the control data of the light projection unit 10, the scanning unit 20, and the light receiving unit 30, as well as the sampling results of the light receiving unit 30 or data obtained by processing the same, to the processing device 3 as sensing data.

ここで図3に示すように、投光ユニット10と受光ユニット30とは、共通のハウジング2aに収容され、互いにずれた位置に配置されている。投光ユニット10と受光ユニット30とは、光軸OAt,OAr(図7参照)を互いに実質平行に構成する非同軸系をなし、並ぶように配置されている。両ユニット10,30の並び方向は、光源11における発光素子11aの配列方向及び受光素子32の長手方向と、実質的に一致している。ハウジング2aは、光ビームを透過させる窓部を有している。なお、走査ミラー21は、ハウジング2aに収容され、投光レンズ系12、及び受光レンズ系31及びハウジング2aの窓部と相対するように配置されるが、図3等では図示が省略されている。 As shown in FIG. 3, the light-projecting unit 10 and the light-receiving unit 30 are housed in a common housing 2a and are arranged at offset positions. The light-projecting unit 10 and the light-receiving unit 30 are arranged side by side in a non-coaxial system in which the optical axes OAt, OAr (see FIG. 7) are substantially parallel to each other. The arrangement direction of both units 10, 30 substantially coincides with the arrangement direction of the light-emitting elements 11a in the light source 11 and the longitudinal direction of the light-receiving elements 32. The housing 2a has a window portion that transmits the light beam. The scanning mirror 21 is housed in the housing 2a and is arranged to face the light-projecting lens system 12, the light-receiving lens system 31, and the window portion of the housing 2a, but is not shown in FIG. 3 etc.

このような非同軸系をなす配置においては、光源11の発光時刻から受光時刻までの時間を距離の2倍に単純換算すると、実際の物体OBJとの距離誤差が生じ得る。ここでいう単純換算とは、距離の2倍=光の速さ×時間の式による換算である。この距離誤差は、投光ユニット10と受光ユニット30の視差に起因する誤差である。測定領域MAの物体OBJが近距離に存在する程、距離誤差の影響は大きくなる。 In such a non-coaxial arrangement, if the time from when the light source 11 emits light to when it receives it is simply converted to twice the distance, a distance error with the actual object OBJ may occur. The simple conversion here refers to a conversion using the formula: twice the distance = speed of light x time. This distance error is an error caused by the parallax between the light-projecting unit 10 and the light-receiving unit 30. The closer the object OBJ in the measurement area MA is, the greater the impact of the distance error.

処理装置3は、LiDAR2から取得したセンシングデータを処理し、測定領域MAの物体OBJの距離に関する演算を行う電子制御装置である。この演算は、物体OBJの距離を、上述の投光ユニット10及び受光ユニット30の配置を考慮して補正する補正演算を含む。処理装置3は、このような補正演算に基づき、距離情報を車両EVの自動運転システム又は運転支援システム、ドライバ等への報知システム、イベントデータレコーダ等の記録装置、さらには車両EVの外部に存在する管理センタ、クラウドサーバ等へ出力して提供可能に構成されている。距離情報は、例えば物体OBJの距離の値そのものであってもよく、例えば物体OBJのLiDAR2に対する相対座標等、距離を容易に算出可能なデータであってもよい。なお、処理装置3は、さらにセンシングデータに基づき検出される物体OBJを画像処理し、反射強度画像、背景光画像等の画像を生成する機能を備えていてよい。 The processing device 3 is an electronic control device that processes the sensing data acquired from the LiDAR 2 and performs calculations regarding the distance of the object OBJ in the measurement area MA. This calculation includes a correction calculation that corrects the distance of the object OBJ taking into account the arrangement of the light-projecting unit 10 and the light-receiving unit 30 described above. The processing device 3 is configured to be able to output and provide distance information based on such correction calculations to an automatic driving system or a driving assistance system of the vehicle EV, a notification system for the driver, a recording device such as an event data recorder, and even a management center or a cloud server that is located outside the vehicle EV. The distance information may be, for example, the value of the distance of the object OBJ itself, or may be data that allows the distance to be easily calculated, such as the relative coordinates of the object OBJ with respect to the LiDAR 2. The processing device 3 may further have a function of performing image processing of the object OBJ detected based on the sensing data and generating images such as a reflection intensity image and a background light image.

処理装置3は、メモリ3a及びプロセッサ3bを少なくとも1つずつ有したコンピュータを含む構成であってよい。メモリ3aは、プロセッサ3bにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも1種類の非遷移的実態的記憶媒体であってよい。さらにメモリ3aとして、例えばRAM(Random Access Memory)等の書き換え可能な揮発性の記憶媒体が設けられていてもよい。プロセッサ3bは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも1種類をコアとして含む。 The processing device 3 may be configured to include a computer having at least one memory 3a and one processor 3b. The memory 3a may be at least one type of non-transient physical storage medium, such as a semiconductor memory, a magnetic medium, or an optical medium, that non-temporarily stores programs and data that can be read by the processor 3b. Furthermore, the memory 3a may be provided with a rewritable volatile storage medium, such as a RAM (Random Access Memory). The processor 3b includes at least one type of core, such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or a RISC (Reduced Instruction Set Computer)-CPU.

図6は、処理装置3による測距機能の機能的アーキテクチャを示す図である。処理装置3は、データ取得部51、測定光路長近似部52、物体位置算出部53及び座標変換部54を、プログラムを実行する少なくとも1つのプロセッサ3bにより実現される機能部として含む構成である。 Figure 6 is a diagram showing the functional architecture of the distance measurement function by the processing device 3. The processing device 3 includes a data acquisition unit 51, a measurement optical path length approximation unit 52, an object position calculation unit 53, and a coordinate conversion unit 54 as functional units realized by at least one processor 3b that executes a program.

データ取得部51は、LiDAR2から最新のセンシングデータを逐次取得する。このセンシングデータは、投光ユニット10及び受光ユニット30の配置を考慮していない、補正前のデータである。 The data acquisition unit 51 sequentially acquires the latest sensing data from the LiDAR 2. This sensing data is uncorrected data that does not take into account the positioning of the light-emitting unit 10 and the light-receiving unit 30.

処理装置3が物体OBJの測定光路長を算出することを機能に含む場合、上述のサンプリング結果がセンシングデータとして取得される。すなわち、データ取得部51は、サンプリング結果に基づき、ToF(Time of Flight)方式により物体の距離を測定する。詳細に、データ取得部51は、電気パルスが検出された回数を時刻毎にヒストグラム化し、光源の発光時刻から当該ヒストグラムがピークを示す時刻までの時間を測定光路長(距離の2倍に対応)に単純換算する。すなわちデータ取得部51が補正演算適用前の測定光路長自体を算出する。 When the processing device 3 includes a function of calculating the measured optical path length of the object OBJ, the above-mentioned sampling result is acquired as sensing data. That is, the data acquisition unit 51 measures the distance to the object using the ToF (Time of Flight) method based on the sampling result. In detail, the data acquisition unit 51 creates a histogram of the number of times an electrical pulse is detected for each time, and simply converts the time from the time the light source emits light to the time the histogram shows its peak into a measured optical path length (corresponding to twice the distance). That is, the data acquisition unit 51 calculates the measured optical path length itself before the correction calculation is applied.

一方でLiDAR2が物体OBJの補正演算適用前の測定光路長を算出することを機能に含んでいる場合、データ取得部51は、LiDAR2にて算出された測定光路長をセンシングデータとして取得する。データ取得部51は、さらに当該測定光路長を測定したときの受光画素32aの情報を、センシングデータとして取得する。受光画素32aの情報は、受光画素32a毎の検出回数である。受光画素32aの情報は、通常、ノイズを低減するため、互いに隣接する複数のSPADからなる領域を1つの受光画素32aとみなし、当該受光画素32aを構成する各SPADの検出回数を合計ないし平均したデータであってよい。1つのSPADないし受光画素32aよりも小さな単位をなす複数のSPADは、サブ画素と称されてもよい。 On the other hand, if the LiDAR2 has a function of calculating the measurement optical path length before the correction calculation of the object OBJ is applied, the data acquisition unit 51 acquires the measurement optical path length calculated by the LiDAR2 as sensing data. The data acquisition unit 51 further acquires information on the light-receiving pixel 32a when the measurement optical path length is measured as sensing data. The information on the light-receiving pixel 32a is the number of detections for each light-receiving pixel 32a. In order to reduce noise, the information on the light-receiving pixel 32a may be data obtained by totaling or averaging the number of detections of each SPAD constituting the light-receiving pixel 32a, usually regarding an area consisting of multiple SPADs adjacent to each other as one light-receiving pixel 32a. Multiple SPADs that form a unit smaller than one SPAD or light-receiving pixel 32a may be referred to as subpixels.

測定光路長近似部52は、メモリ3aに記憶された焦点位置データ61に基づき、測定光路長の近似を実施する。焦点位置データ61は、投光レンズ系12の焦点位置Ptf及び受光レンズ系31の焦点位置Prfの情報を含む。焦点位置データ61は、メモリ3aにプログラムと同様に非一時的に記憶されていてもよい。焦点位置データ61は、使用される段階で、車両EV内部の他の装置又は車両外部から取得され、メモリ3aに一時的に記憶されてもよい。 The measurement optical path length approximation unit 52 performs approximation of the measurement optical path length based on the focal position data 61 stored in the memory 3a. The focal position data 61 includes information on the focal position Ptf of the light projection lens system 12 and the focal position Prf of the light receiving lens system 31. The focal position data 61 may be non-temporarily stored in the memory 3a in the same manner as a program. The focal position data 61 may be obtained from another device inside the vehicle EV or from outside the vehicle when it is used, and may be temporarily stored in the memory 3a.

以下に測定光路長の近似方法を、図7を用いて詳細に説明する。実際の測定光路長Lmは、以下の数式1で表される。 The method for approximating the measured optical path length is explained in detail below with reference to Figure 7. The actual measured optical path length Lm is expressed by the following formula 1.

Lm=Lt1+Lt2+Lr2+Lr1 (数式1)
ここで、Lt1は、発光画素の位置Pt1からまでの投光レンズ系12の焦点位置Ptfまでの距離である。すなわち、Lt1=|Pt1―Ptf|である。Lt2は、焦点位置Ptfから物体OBJの位置Pdまでの距離である。すなわち、Lt2=|Ptf-Pd|である。Lr2は、物体OBJの位置Pdから受光レンズ系31の焦点位置Prfまでの距離である。すなわち、Lr2=|Prf-Pd|である。Lr1は、焦点位置Prfから受光画素32aの位置Pr1までの距離である。すなわち、Lr1=|Prf-Pd|である。より厳密には、測定光路長は、投光レンズ系12内及び受光レンズ系31内でのレンズ媒質及び屈折の影響を受けるが、この数式1では当該影響が十分小さいとして省略されている。
Lm=Lt1+Lt2+Lr2+Lr1 (Formula 1)
Here, Lt1 is the distance from the position Pt1 of the light-emitting pixel to the focal position Ptf of the light-projecting lens system 12. That is, Lt1=|Pt1-Ptf|. Lt2 is the distance from the focal position Ptf to the position Pd of the object OBJ. That is, Lt2=|Ptf-Pd|. Lr2 is the distance from the position Pd of the object OBJ to the focal position Prf of the light-receiving lens system 31. That is, Lr2=|Prf-Pd|. Lr1 is the distance from the focal position Prf to the position Pr1 of the light-receiving pixel 32a. That is, Lr1=|Prf-Pd|. More strictly speaking, the measurement optical path length is affected by the lens medium and refraction in the light-projecting lens system 12 and the light-receiving lens system 31, but this effect is omitted in this formula 1 because it is sufficiently small.

ここで、Lt1はLt2より十分小さく、Lr1はLr2より十分小さいとして、以下の数式2のようにLmはLmaに近似される。 Here, Lt1 is sufficiently smaller than Lt2, and Lr1 is sufficiently smaller than Lr2, so Lm is approximated to Lma as shown in the following formula 2.

Lm≒Lma=Lt2+Lr2 (数式2)
すなわち、数式2のように、光ビームの光路は、投光レンズ系12の焦点位置Ptfを起点とし、受光レンズ系31の焦点位置Prfを終点とするように近似される。これにより、物体OBJの位置Pdの候補は、Lma,Ptf,Prfに基づいて決まる仮想楕円VE上に存在することとなる。仮想楕円VEは、光軸OAt,OArと、光源11と受光素子32とが並ぶ並び方向とがなす平面上に想定されればよい。ここで想定される仮想楕円VEは、投光レンズ系12の焦点位置Ptf及び受光レンズ系31の焦点位置Prfが当該仮想楕円VEの焦点に相当し、近似された測定光路長Lmaが長軸の長さの2倍に相当する仮想楕円であってよい。測定光路長近似部52は、Lmaに、データ取得部51が取得した測定光路長を代入する。
Lm≈Lma=Lt2+Lr2 (Formula 2)
That is, as shown in Equation 2, the optical path of the light beam is approximated so that the focal position Ptf of the light projecting lens system 12 is the starting point and the focal position Prf of the light receiving lens system 31 is the end point. As a result, candidates for the position Pd of the object OBJ are present on a virtual ellipse VE determined based on Lma, Ptf, and Prf. The virtual ellipse VE may be assumed on a plane formed by the optical axes OAt, OAr and the arrangement direction in which the light source 11 and the light receiving element 32 are arranged. The assumed virtual ellipse VE may be a virtual ellipse in which the focal position Ptf of the light projecting lens system 12 and the focal position Prf of the light receiving lens system 31 correspond to the focal points of the virtual ellipse VE, and the approximated measurement optical path length Lma corresponds to twice the length of the major axis. The measurement optical path length approximation unit 52 substitutes the measurement optical path length acquired by the data acquisition unit 51 for Lma.

物体位置算出部53は、測定光路長近似部52によって実質的に仮想楕円VE上に特定された候補位置を、データ取得部51が取得した受光画素32aの情報を用いて、絞り込む。これにより、物体OBJの位置Pdが算出される。 The object position calculation unit 53 narrows down the candidate positions that are substantially identified on the virtual ellipse VE by the measurement optical path length approximation unit 52 using the information of the light receiving pixels 32a acquired by the data acquisition unit 51. This allows the position Pd of the object OBJ to be calculated.

具体的に、物体位置算出部53は、物体OBJの位置Pdで反射され焦点位置Prfを通り、センシングデータとして取得された実際の受光画素32aの位置Pt2で受光される光線が受光レンズ系31の光軸OArに対してなす角度θrを、算出する。角度θrは、物体OBJの位置Pdが特定できていない状態であっても、既知であるPr1とPrfとを結ぶ直線と光軸OArを示す直線との関係から、容易に算出できる。なお、投光レンズ系12及び受光レンズ系31の光軸データ62は、焦点位置データ61と同様に、メモリ3aに非一時的又は一時的に記憶されたデータである。 Specifically, the object position calculation unit 53 calculates the angle θr that the light ray reflected at the position Pd of the object OBJ, passing through the focal position Prf, and received at the position Pt2 of the actual light receiving pixel 32a acquired as sensing data makes with the optical axis OAr of the light receiving lens system 31. Even if the position Pd of the object OBJ cannot be specified, the angle θr can be easily calculated from the relationship between the known line connecting Pr1 and Prf and the line indicating the optical axis OAr. Note that the optical axis data 62 of the light projecting lens system 12 and the light receiving lens system 31 are data that are non-temporarily or temporarily stored in the memory 3a, similar to the focal position data 61.

そして、投光ユニット10と受光ユニット30とが互いに光軸OAt,OArを実質平行な状態にして並んでいるので、測定光路長Lmのうち、光軸OAt,OArに沿った方向の成分について、以下の数式3が成立する。ここで、θtは、センシングデータとして取得された実際の発光素子11aの位置Pt1から焦点位置Ptfを通り、物体OBJの位置Pdへ投光される光線が投光レンズ系12の光軸OAtに対してなす角度である。 And because the light-projecting unit 10 and the light-receiving unit 30 are arranged with their optical axes OAt, OAr substantially parallel to each other, the following formula 3 holds for the component of the measured optical path length Lm in the direction along the optical axes OAt, OAr. Here, θt is the angle that the light ray that is projected from the actual position Pt1 of the light-emitting element 11a acquired as sensing data, passes through the focal position Ptf, and is projected to the position Pd of the object OBJ, makes with the optical axis OAt of the projection lens system 12.

Lt2・cosθt=Lr2・cosθr (数式3)
さらに、測定光路長Lmのうち、光軸OAt,OArと垂直な方向の成分について、以下の数式4が成立する。ここで、数式4では、投光レンズ系12の焦点位置Ptfと受光レンズ系31の焦点位置Prfとの距離がPbとされる。
Lt2 · cos θt = Lr2 · cos θr (Formula 3)
Furthermore, the following formula 4 is established for the component of the measurement optical path length Lm in the direction perpendicular to the optical axes OAt and OAr. Here, in formula 4, the distance between the focal position Ptf of the light projection lens system 12 and the focal position Prf of the light receiving lens system 31 is set to Pb.

Lt2・sinθt+Lr2・sinθr=Lb (数式4)
そして、数式2、数式3及び数式4の連立方程式(解析式とも称する)により、未知数であるLt2、Lr2、θtを解析的に解くことができる。物体OBJについて、仮想楕円VE上の候補位置は、これらの未知数が特定されることにより、位置Pdに一意に推定されることとなる。
Lt2 sin θt + Lr2 sin θr = Lb (Formula 4)
The unknowns Lt2, Lr2, and θt can be analytically solved by the simultaneous equations (also called analytical equations) of Expression 2, Expression 3, and Expression 4. With respect to the object OBJ, a candidate position on the virtual ellipse VE is uniquely estimated to be the position Pd by specifying these unknowns.

座標変換部54は、推定された物体OBJの位置Pdを、距離座標原点Poを基準とした座標系に変換する。距離座標原点Poは、物体検知システム1に求められる仕様に基づき、予め設定される。例えば距離座標原点Poは、ハウジング2a上における、光軸OAtの延長線の交点と、光軸OArの延長線の交点との中点に規定されてよい。 The coordinate conversion unit 54 converts the estimated position Pd of the object OBJ into a coordinate system based on the distance coordinate origin Po. The distance coordinate origin Po is set in advance based on the specifications required for the object detection system 1. For example, the distance coordinate origin Po may be defined as the midpoint between the intersection of the extension of the optical axis OAt and the extension of the optical axis OAr on the housing 2a.

そして、物体OBJの座標に代えて物体OBJの距離を出力する場合には、物体OBJの距離の出力値も、物体検知システム1に求められる仕様に基づき、予め設定される。例えば物体OBJの距離の出力値は、距離座標原点Poと物体OBJの位置Pdとの距離であってもよく、当該距離の光軸OAt,OArに沿った方向の成分であってもよい。 When the distance of the object OBJ is output instead of the coordinates of the object OBJ, the output value of the distance of the object OBJ is also set in advance based on the specifications required for the object detection system 1. For example, the output value of the distance of the object OBJ may be the distance between the origin Po of the distance coordinates and the position Pd of the object OBJ, or may be the component of the distance in the direction along the optical axes OAt, OAr.

次に、処理装置3による処理方法の例を、図8のフローチャートを用いて説明する。ステップS1~5に示される一連の処理は、1回又は複数回のサンプリングが実施され、これに応じて物体OBJの距離を出力するために実施される。この一連の処理は、処理装置3の少なくとも1つのプロセッサ3bがプログラムを実行することにより、実施される。 Next, an example of a processing method by the processing device 3 will be described with reference to the flowchart in FIG. 8. The series of processes shown in steps S1 to S5 are carried out in order to perform sampling once or multiple times and output the distance of the object OBJ accordingly. This series of processes is carried out by at least one processor 3b of the processing device 3 executing a program.

S1では、データ取得部51は、測定光路長Lmを取得する。S1の処理後、S2へ進む。 In S1, the data acquisition unit 51 acquires the measurement optical path length Lm. After processing S1, proceed to S2.

S2では、測定光路長近似部52は、S1にて取得した測定光路長Lmを、上述の数式2のようにLmaに近似する。S2の処理後、S3へ進む。 In S2, the measurement optical path length approximation unit 52 approximates the measurement optical path length Lm obtained in S1 to Lma as shown in the above-mentioned formula 2. After processing in S2, proceed to S3.

S3では、物体位置算出部53は、解析式より未知数Lt2、Lr2、θtを算出する。S3の処理後、S4へ進む。 In S3, the object position calculation unit 53 calculates the unknowns Lt2, Lr2, and θt using the analytical formula. After processing in S3, the process proceeds to S4.

S4では、物体位置算出部53は、物体OBJの位置Pdを算出する。S4の処理後、S5へ進む。 In S4, the object position calculation unit 53 calculates the position Pd of the object OBJ. After processing in S4, the process proceeds to S5.

S5では、座標変換部54は、S4で算出された位置Pdを、距離座標原点Poを基準とした座標系に変換する。変換後の座標ないし距離が出力されることとなる。S5を以って一連の処理を終了する。 In S5, the coordinate conversion unit 54 converts the position Pd calculated in S4 into a coordinate system based on the distance coordinate origin Po. The converted coordinates or distance are output. The series of processes ends with S5.

図9,10では、比較例として補正演算をしない場合に、理論上生じ得る距離誤差が示されている。図9,10では、物体OBJの距離別に線種を分けて距離誤差が区別されている。θrが大きくなる程、距離誤差は漸次大きくなる。また、焦点間距離Lbが大きくなる程、距離誤差は漸次大きくなる。ところが、以上説明した補正方法により、距離誤差を略解消することができる。 As a comparative example, Figures 9 and 10 show distance errors that may theoretically occur when no correction calculation is performed. In Figures 9 and 10, distance errors are distinguished by different line types according to the distance of the object OBJ. The larger θr is, the larger the distance error becomes. Also, the larger the focal length Lb is, the larger the distance error becomes. However, the correction method described above can almost completely eliminate the distance error.

以上説明した第1実施形態によると、光学センサとしてのLiDAR2から測定対象物としての物体OBJまでの距離情報を出力するにあたって、投光ユニット10と受光ユニット30との位置のずれに起因した物体OBJの距離誤差が補正される。この補正は、光ビームの光路について、投光レンズ系12の焦点位置Ptfを起点とし、受光レンズ系31の焦点位置Prfを終点とする近似に基づいて実行される。この近似の採用により、補正演算における数値が収束ないし条件を満たすまでの反復処理により時間や負荷がかかってしまうことが抑制される。距離情報を出力するための時間や負荷が大幅に軽減される結果、距離情報を安定的に提供することができるようになる。 According to the first embodiment described above, when outputting distance information from the LiDAR 2 as an optical sensor to an object OBJ as a measurement target, the distance error of the object OBJ caused by the misalignment between the light projecting unit 10 and the light receiving unit 30 is corrected. This correction is performed based on an approximation of the optical path of the light beam, starting from the focal position Ptf of the light projecting lens system 12 and ending at the focal position Prf of the light receiving lens system 31. By using this approximation, it is possible to suppress the time and load caused by iterative processing until the numerical values in the correction calculation converge or satisfy the conditions. As a result of the significant reduction in the time and load required to output distance information, it becomes possible to stably provide distance information.

また、第1実施形態によると、光ビームの飛行時間に基づく測定光路長に応じた大きさを備え、焦点位置Ptf,Prfを焦点とした仮想楕円VEが想定される。物体OBJの候補位置は、仮想楕円VE上に特定される。そして、センシングデータに含まれる受光画素位置に基づき、候補位置から物体OBJの位置として推定される位置Pdが算出される。さらに、焦点位置Ptfから位置Pdまでの距離と、位置Pdから焦点位置Prfまでの距離の和に基づいた距離情報が、補正距離情報として出力される。近似により仮想楕円VE上に候補位置が絞られるので、演算時間や演算負荷をさらに低減することができる。 According to the first embodiment, a virtual ellipse VE is assumed, which has a size according to the measurement optical path length based on the flight time of the light beam, and has focal positions Ptf and Prf as its focal points. Candidate positions of the object OBJ are identified on the virtual ellipse VE. Then, based on the light-receiving pixel positions included in the sensing data, a position Pd is calculated from the candidate positions to be estimated as the position of the object OBJ. Furthermore, distance information based on the sum of the distance from the focal position Ptf to the position Pd and the distance from the position Pd to the focal position Prf is output as corrected distance information. Since the candidate positions are narrowed down to the virtual ellipse VE by approximation, the calculation time and calculation load can be further reduced.

また、第1実施形態によると、数式2~4の3つの数式による連立方程式から、未知数であるLt2,Lr2,θtを算出することにより、補正距離情報が出力される。未知数の算出が連立方程式の解析により実行されるので、未知数を得るために複雑な複数のアルゴリズムを実行することが抑制される。故に、演算時間や演算負荷をさらに低減することができる。 In addition, according to the first embodiment, the unknowns Lt2, Lr2, and θt are calculated from the simultaneous equations of the three formulas 2 to 4, and the corrected distance information is output. Since the unknowns are calculated by analyzing the simultaneous equations, it is possible to avoid executing multiple complex algorithms to obtain the unknowns. Therefore, the calculation time and calculation load can be further reduced.

(第2実施形態)
図11~13に示すように、第2実施形態は第1実施形態の変形例である。第2実施形態について、第1実施形態とは異なる点を中心に説明する。
Second Embodiment
11 to 13, the second embodiment is a modification of the first embodiment. The second embodiment will be described focusing on the differences from the first embodiment.

第2実施形態は、光源11が互いに離散的に配置された複数の発光素子11aを備える場合に好適である。図11に示す第2実施形態の処理装置203において物体位置算出部253は、光源データ63及び波形データ64を参照して、解析式を2回解くことで、物体OBJの位置Pdの精度を高める。 The second embodiment is suitable for the case where the light source 11 includes a plurality of light-emitting elements 11a that are discretely arranged from one another. In the processing device 203 of the second embodiment shown in FIG. 11, the object position calculation unit 253 refers to the light source data 63 and the waveform data 64 and solves the analytical equation twice to improve the accuracy of the position Pd of the object OBJ.

光源データ63は、光源11における発光素子11aの配置情報を含んでいる。光源データ63は、発光の空間の広がり形状を示すデータ、すなわち各発光素子11aの放射角度に対する発光強度分布を含んでいてもよい。光源データ63は、焦点位置データ61及び光軸データ62と同様に、メモリ3aに非一時的又は一時的に記憶されたデータである。光源データ63は、光源プロファイルと称されてもよい。 The light source data 63 includes information on the arrangement of the light-emitting elements 11a in the light source 11. The light source data 63 may include data indicating the spatial spread shape of the light emission, i.e., the light emission intensity distribution with respect to the radiation angle of each light-emitting element 11a. The light source data 63, like the focal position data 61 and the optical axis data 62, is data stored non-temporarily or temporarily in the memory 3a. The light source data 63 may be referred to as a light source profile.

波形データ64は、各発光素子11aから投光された光ビームが測定領域MAにて反射されて受光素子32に受光された場合の、当該ビームの受光素子32上の空間的な強度分布波形のデータを含んでいる。すなわち、波形データ64は、各発光素子11aと個別に対応する複数の受光強度分布波形WF(図12参照)を含む。この情報は、実際のLiDAR2において予め実験的に確認された強度分布波形のデータであってもよく、予めシミュレーションにより得られた強度分布波形のデータであってもよい。強度分布波形WFは、ガウス分布形状をなしていてもよい。なお、受光素子32がSPADにより構成される場合、各受光画素32aの光子の検出回数が受光強度に対応する。このため、強度と検出回数とを総称する概念として、強度分布波形WFは、分布波形を示す受光プロファイルと称されてもよい。 The waveform data 64 includes data on the spatial intensity distribution waveform of the light beam projected from each light-emitting element 11a on the light-receiving element 32 when the light beam is reflected in the measurement area MA and received by the light-receiving element 32. That is, the waveform data 64 includes a plurality of light-receiving intensity distribution waveforms WF (see FIG. 12) that individually correspond to each light-emitting element 11a. This information may be data on the intensity distribution waveform experimentally confirmed in advance in the actual LiDAR2, or may be data on the intensity distribution waveform obtained in advance by simulation. The intensity distribution waveform WF may have a Gaussian distribution shape. Note that, when the light-receiving element 32 is configured by a SPAD, the number of times that each light-receiving pixel 32a detects a photon corresponds to the light-receiving intensity. For this reason, the intensity distribution waveform WF may be referred to as a light-receiving profile showing a distribution waveform as a general concept of intensity and number of detections.

物体位置算出部253は、第1実施形態と同様の方法により、1度、解析式を解き、未知数Lt2、Lr2、θtを特定する。そして、物体位置算出部253は、θtの値から、未知数によって示された光線が光源11に離散的に配置された複数の発光素子11aのうちどの発光素子11aから発光された光線であるかを特定する。すなわち、発光画素の位置Pt1が特定される。 The object position calculation unit 253 solves the analytical equation once using a method similar to that of the first embodiment, and identifies the unknowns Lt2, Lr2, and θt. Then, from the value of θt, the object position calculation unit 253 identifies which light emitting element 11a among the multiple light emitting elements 11a discretely arranged in the light source 11 emits the light ray indicated by the unknowns. In other words, the position Pt1 of the light emitting pixel is identified.

そして図12に示すように、物体位置算出部253は、センシングデータとして得られた実際の受光画素32a毎の検出結果を、当該発光素子11aに個別に対応する波形データ64とをマッチングする。波形データ64がガウス分布形状であれば、そのピークの位置Pr1を特定することができる。これにより特定されるピークの位置Pr1は、受光画素レベルよりも高精度である、サブ画素レベルの精度を有する。 As shown in FIG. 12, the object position calculation unit 253 matches the detection results for each actual light-receiving pixel 32a obtained as sensing data with waveform data 64 that individually corresponds to that light-emitting element 11a. If the waveform data 64 has a Gaussian distribution shape, the position Pr1 of the peak can be identified. The position Pr1 of the peak identified in this way has a sub-pixel level of accuracy, which is higher than the light-receiving pixel level.

そして、数式4における投光レンズ系12の焦点位置Ptfと受光レンズ系31の焦点位置Prfとの距離としてのLbは、位置Pt1と位置Pr1との距離Lbdに置き換えられる。置換後の数式は以下の数式5で表される。ただし、数式5のLbdは以下の数式6で表される。 Then, Lb, which is the distance between the focal position Ptf of the light-projecting lens system 12 and the focal position Prf of the light-receiving lens system 31 in Equation 4, is replaced with the distance Lbd between positions Pt1 and Pr1. The equation after the replacement is expressed by Equation 5 below. However, Lbd in Equation 5 is expressed by Equation 6 below.

Lt2・sinθt+Lr2・sinθr=Lbd (数式5)
Lbd=|Pt1-Pr1| (数式6)
そして、物体位置算出部253は、解析式を再度解く。すなわち、数式2、数式3及び数式5の連立方程式により、未知数であるLt2、Lr2、θtを解析的に解くことができる。解析式の解き直しにより、物体OBJの位置Pdをより高精度に算出することができる。この解析式の置換及び解き直しは、仮想楕円VEを焦点位置Ptf,Prf基準から、位置Pt1,Pr1基準に置換して演算し直すことに相当していてもよい。
Lt2 sin θt + Lr2 sin θr = Lbd (Formula 5)
Lbd=|Pt1-Pr1| (Formula 6)
Then, the object position calculation unit 253 solves the analytical equation again. That is, the unknowns Lt2, Lr2, and θt can be analytically solved by the simultaneous equations of Equation 2, Equation 3, and Equation 5. By resolving the analytical equation, the position Pd of the object OBJ can be calculated with higher accuracy. This replacement and resolving of the analytical equation may correspond to replacing the virtual ellipse VE based on the focal positions Ptf, Prf with the position Pt1, Pr1 as the basis and recalculating it.

次に、処理装置3による処理方法の例を、図13のフローチャートを用いて説明する。S101~103は、第1実施形態のS1~3と同様である。S103の処理後、S104へ進む。 Next, an example of a processing method by the processing device 3 will be described with reference to the flowchart in FIG. 13. Steps S101 to S103 are the same as steps S1 to S3 in the first embodiment. After processing step S103, the process proceeds to step S104.

S104では、物体位置算出部253は、S103で得られたθtから発光素子11aの位置Pt1を特定する。S104の処理後、S105へ進む。 In S104, the object position calculation unit 253 identifies the position Pt1 of the light-emitting element 11a from θt obtained in S103. After processing S104, the process proceeds to S105.

S105では、物体位置算出部253は、S104で得られた発光素子11aに対応した受光プロファイルより、ピークの位置Pr1を特定する。S105の処理後、S106へ進む。 In S105, the object position calculation unit 253 identifies the peak position Pr1 from the light reception profile corresponding to the light emitting element 11a obtained in S104. After processing S105, the process proceeds to S106.

S106では、物体位置算出部253は、解析式の解き直しにより未知数Lt2、Lr2、θtを算出する。S106の処理後、S107へ進む。S107~108は、第1実施形態のS4~5と同様である。S108を以って一連の処理を終了する。 In S106, the object position calculation unit 253 calculates the unknowns Lt2, Lr2, and θt by resolving the analytical equation. After processing in S106, the process proceeds to S107. S107 to S108 are the same as S4 to S5 in the first embodiment. The series of processes ends with S108.

以上説明した第2実施形態によると、光ビームの飛行時間に基づく測定光路長に応じた大きさを備え、焦点位置Ptf,Prfを焦点とした仮想楕円VEが想定される。仮想楕円VE及びセンシングデータに含まれる受光画素位置に基づき、光ビームが投光レンズ系12の光軸OAtに対してなす角度θtが特定される。角度θtに基づき、物体OBJによって反射された光ビームの発光位置Pt1が特定される。そして、発光位置Pt1に個別に対応した分布波形WFを示す受光プロファイルとセンシングデータとをマッチングし、受光素子32上の受光強度が最大となる高精度な受光位置Pr1がセンシングデータに含まれる受光画素位置よりも高い精度で特定される。さらに、仮想楕円VEを、位置Pt1,Pr1を焦点とした置換仮想楕円に置換した形態により、物体OBJの候補位置は、置換仮想楕円上に特定され、これに基づいて候補位置から物体OBJの位置として推定される位置Pdが算出される。発光素子11aから位置Pdまでの距離と、位置Pdから受光素子32までの距離の和に基づいた距離情報が、測定対象物の距離情報として出力される。 According to the second embodiment described above, a virtual ellipse VE having a size according to the measurement optical path length based on the flight time of the light beam and with the focal positions Ptf and Prf as its focal points is assumed. Based on the virtual ellipse VE and the light receiving pixel positions included in the sensing data, the angle θt that the light beam makes with respect to the optical axis OAt of the projection lens system 12 is specified. Based on the angle θt, the light emission position Pt1 of the light beam reflected by the object OBJ is specified. Then, the light receiving profile showing the distribution waveform WF that corresponds individually to the light emission position Pt1 is matched with the sensing data, and the highly accurate light receiving position Pr1 at which the light receiving intensity on the light receiving element 32 is maximized is specified with higher accuracy than the light receiving pixel position included in the sensing data. Furthermore, by replacing the virtual ellipse VE with a replaced virtual ellipse with the positions Pt1 and Pr1 as its focal points, the candidate position of the object OBJ is specified on the replaced virtual ellipse, and the position Pd estimated as the position of the object OBJ from the candidate position is calculated based on this. Distance information based on the sum of the distance from the light-emitting element 11a to position Pd and the distance from position Pd to the light-receiving element 32 is output as distance information of the object to be measured.

すなわち、仮想楕円VEによる近似演算の後、より高精度な発光位置Pt1及び受光位置Pr1を特定し、これらを用いて仮想楕円VEに基づいた演算の精度を高めつつ解き直すことにより、2回限りの反復的な演算によって距離情報の精度を高めることができる。 In other words, after the approximation calculation using the virtual ellipse VE, a more accurate light emission position Pt1 and light reception position Pr1 are identified, and these are used to solve the calculation based on the virtual ellipse VE while improving its accuracy, thereby improving the accuracy of the distance information by performing the calculation only twice.

3つの数式による連立方程式から、未知数であるLt2,Lr2,θtが算出される。θtを用いて測定対象物によって反射された光ビームの発光位置Pt1が特定される。そして、発光位置Pt1に個別に対応した分布波形WFを示す受光プロファイルとセンシングデータとをマッチングし、受光素子32上の受光強度が最大となる高精度な受光位置Pr1がセンシングデータに含まれる受光画素位置よりも高い精度で特定される。さらに、3つの連立方程式におけるLbを、位置Pt1,Pr1間の距離Lbdに置換した上で、未知数であるLt2,Lr2,θtが再度算出される。これにより、補正距離情報は出力可能となる。すなわち、2回限りの反復的な連立方程式の解析によって距離情報の精度を高めることができる。 The unknowns Lt2, Lr2, and θt are calculated from the simultaneous equations of the three expressions. The light emission position Pt1 of the light beam reflected by the object to be measured is identified using θt. Then, the light receiving profile showing the distribution waveform WF that corresponds individually to the light emission position Pt1 is matched with the sensing data, and the highly accurate light receiving position Pr1 where the light receiving intensity on the light receiving element 32 is maximum is identified with higher accuracy than the light receiving pixel position included in the sensing data. Furthermore, Lb in the three simultaneous equations is replaced with the distance Lbd between the positions Pt1 and Pr1, and the unknowns Lt2, Lr2, and θt are calculated again. This makes it possible to output corrected distance information. In other words, the accuracy of the distance information can be improved by analyzing the simultaneous equations repetitively only twice.

また、未知数の算出が同じ連立方程式の解析を2回限り反復するにより実行されるので、未知数を得るための演算を実行するハードウエアは、当該連立方程式の解析が円滑に実行できるように設計すればよい。故に、ハードウエアの性能を容易に最適化して、処理装置203を提供することができる。 In addition, since the calculation of the unknowns is performed by repeating the analysis of the same simultaneous equations only twice, the hardware that performs the calculations to obtain the unknowns can be designed so that the analysis of the simultaneous equations can be performed smoothly. Therefore, the performance of the hardware can be easily optimized to provide the processing device 203.

(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
Other Embodiments
Although several embodiments have been described above, the present disclosure should not be construed as being limited to those embodiments, and can be applied to various embodiments and combinations within the scope not departing from the gist of the present disclosure.

例えば、メモリ3aは、測距補正用データをまとめて保持していてもよい。測距補正用データは、投光ユニット10及び受光ユニット30の配置データ、レンズデータ、第2実施形態で説明した光源データ63を含んでいてよい。レンズデータは、第1実施形態で説明した焦点位置データ61、光軸データ62を含んでいてよい。 For example, the memory 3a may collectively store distance measurement correction data. The distance measurement correction data may include the arrangement data of the light-projecting unit 10 and the light-receiving unit 30, the lens data, and the light source data 63 described in the second embodiment. The lens data may include the focal position data 61 and the optical axis data 62 described in the first embodiment.

レンズデータは、さらに投光レンズ系12の画角を示す画角データ、受光レンズ系31の画角を示す画角データを含んでいてよい。また、レンズデータは、投光レンズ系12を通過する光の光路長データ、受光レンズ系31を通過する光の光路長データを含んでいてよい。光路長データは、例えば光線追跡法によりレンズ系での光の屈折をシミュレーションし、θt,θr毎に得られた光路長であってよい。光路長データは、数式化されていてもよい。光路長データを用いて、距離Lt2,Lr2が補正されるようにしてもよい。 The lens data may further include angle-of-view data indicating the angle of view of the light projecting lens system 12 and the angle of view of the light receiving lens system 31. The lens data may also include optical path length data of light passing through the light projecting lens system 12 and the optical path length data of light passing through the light receiving lens system 31. The optical path length data may be the optical path length obtained for each θt and θr by simulating the refraction of light in the lens system by, for example, ray tracing. The optical path length data may be expressed in a mathematical formula. The distances Lt2 and Lr2 may be corrected using the optical path length data.

光路長の補正をより容易にするため、メモリ3aは、光路長データとしての投光レンズ系12の補正テーブルと、受光レンズ系31の補正テーブルをそれぞれ保持していてもよい。投光レンズ系12の補正テーブルは、投光レンズ系12におけるθt又は発光素子11aの位置Pt1とこれと対になる光路長補正値を記憶したデータテーブルである。受光レンズ系31の補正テーブルは、受光レンズ系31におけるθr又は発光素子11aの位置Pr1とこれと対になる光路長補正値を記憶したデータテーブルである。 To make it easier to correct the optical path length, the memory 3a may hold a correction table for the light projecting lens system 12 as optical path length data, and a correction table for the light receiving lens system 31. The correction table for the light projecting lens system 12 is a data table that stores θt or the position Pt1 of the light emitting element 11a in the light projecting lens system 12 and the optical path length correction value that pairs with it. The correction table for the light receiving lens system 31 is a data table that stores θr or the position Pr1 of the light emitting element 11a in the light receiving lens system 31 and the optical path length correction value that pairs with it.

また、他の実施形態として、光源11ないし発光素子11aには、垂直共振型面発光レーザ、端面発光レーザ等の各種素子が採用されてよい。 In other embodiments, the light source 11 or light emitting element 11a may be a vertical-cavity surface-emitting laser, an edge-emitting laser, or other such element.

また、他の実施形態として、仮想楕円VEは、3次元に拡張された楕円体状に想定されてもよい。この場合、数式3,4が3次元に対応した3つの数式に置き換えられてもよい。 In another embodiment, the virtual ellipse VE may be assumed to be an ellipsoid expanded into three dimensions. In this case, Equations 3 and 4 may be replaced with three equations corresponding to the three dimensions.

また、他の実施形態として、投光レンズ系12の光軸OAtと受光レンズ系31の光軸OArとは、多少の角度をつけて、非平行に配置されていてもよい。この場合、光軸OAt,OArの向きを考慮して、解析式が適宜変更されてよい。 In another embodiment, the optical axis OAt of the light projection lens system 12 and the optical axis OAr of the light receiving lens system 31 may be arranged non-parallel with a slight angle. In this case, the analytical formula may be appropriately modified taking into account the orientation of the optical axes OAt and OAr.

本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The control unit and the method described in the present disclosure may be realized by a dedicated computer comprising a processor programmed to execute one or more functions embodied in a computer program. Alternatively, the device and the method described in the present disclosure may be realized by a dedicated hardware logic circuit. Alternatively, the device and the method described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits. Also, the computer program may be stored on a computer-readable non-transient tangible recording medium as instructions executed by the computer.

2:LiDAR(光学センサ)、3,203:処理装置、3a:メモリ(記憶媒体)、3b:プロセッサ、10:投光ユニット、11:光源、12:投光レンズ系、30:受光ユニット、31:受光レンズ系、32:受光素子、MA:測定領域、OBJ:物体(測定対象物)、Ptf:投光レンズ系の焦点位置、Prf:受光レンズ系の焦点位置 2: LiDAR (optical sensor), 3,203: Processing device, 3a: Memory (storage medium), 3b: Processor, 10: Light projection unit, 11: Light source, 12: Light projection lens system, 30: Light receiving unit, 31: Light receiving lens system, 32: Light receiving element, MA: Measurement area, OBJ: Object (object to be measured), Ptf: Focal position of the light projection lens system, Prf: Focal position of the light receiving lens system

Claims (7)

光源(11)から投光レンズ系(12)を通じて光ビームを測定領域(MA)へ向けて投光する投光ユニット(10)と、前記投光ユニットとはずれた位置に配置され、前記測定領域の測定対象物(OBJ)によって反射された前記光ビームを、受光レンズ系(31)を通じて受光素子(32)で受光する受光ユニット(30)と、を備える光学センサ(2)のセンシングデータを処理する処理装置であって、
前記投光レンズ系の焦点位置(Ptf)と、前記受光レンズ系の焦点位置(Prf)とを、記憶する少なくとも1つの記憶媒体(3a)と、
前記センシングデータ、前記投光レンズ系の焦点位置及び前記受光レンズ系の焦点位置を取得して処理を実行可能に構成される少なくとも1つのプロセッサ(3b)と、を備え、
前記少なくとも1つのプロセッサは、
前記光ビームの光路について、前記投光レンズ系の焦点位置を起点とし、前記受光レンズ系の焦点位置を終点とする近似に基づき、前記投光ユニットと前記受光ユニットとの位置のずれに起因した前記測定対象物の距離誤差が補正された補正距離情報を、前記光学センサから前記測定対象物までの距離情報として出力可能に構成される処理装置。
A processing device for processing sensing data of an optical sensor (2) including: a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA); and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31),
At least one storage medium (3a) for storing a focal position (Ptf) of the light projection lens system and a focal position (Prf) of the light receiving lens system;
and at least one processor (3b) configured to acquire the sensing data, the focal position of the light projection lens system, and the focal position of the light receiving lens system and execute processing;
The at least one processor
A processing device configured to be capable of outputting corrected distance information as distance information from the optical sensor to the object to be measured, the corrected distance information being obtained by correcting the distance error of the object to be measured caused by the misalignment between the position of the light-projecting unit and the light-receiving unit based on an approximation of the optical path of the light beam, with the focal position of the light-projecting lens system as the starting point and the focal position of the light-receiving lens system as the end point.
前記少なくとも1つのプロセッサは、
前記光ビームの飛行時間に基づく測定光路長を取得することと、
前記測定光路長に応じた大きさを備え、前記投光レンズ系の焦点位置及び前記受光レンズ系の焦点位置を焦点とした仮想楕円(VE)を、前記測定対象物の候補位置として特定することと、
前記センシングデータに含まれる受光画素位置に基づき、前記候補位置から前記測定対象物の推定位置(Pd)を算出することと、
前記投光レンズ系の焦点位置から前記推定位置までの距離と、前記推定位置から前記受光レンズ系の焦点位置までの距離の和に基づいた距離情報を、前記補正距離情報として出力することと、を実行するように構成される請求項1に記載の処理装置。
The at least one processor
obtaining a measured optical path length based on a time of flight of the light beam;
Identifying a virtual ellipse (VE) having a size according to the measurement optical path length and having a focal position of the light projection lens system and a focal position of the light receiving lens system as a candidate position of the measurement object;
Calculating an estimated position (Pd) of the measurement target object from the candidate positions based on light receiving pixel positions included in the sensing data;
2. The processing device according to claim 1, configured to execute the steps of: outputting distance information based on a sum of a distance from a focal position of the light projection lens system to the estimated position and a distance from the estimated position to a focal position of the light receiving lens system as the corrected distance information.
前記投光レンズ系の光軸(OAt)と前記受光レンズ系の光軸(OAr)とは、平行に配置されており、
前記光ビームの飛行時間に基づく測定光路長をLm、前記投光レンズ系の焦点位置から前記測定対象物までの距離をLt2、前記測定対象物から前記受光レンズ系の焦点位置までの距離をLr2、前記センシングデータに含まれる受光画素位置で受光される光線が前記受光レンズ系の光軸に対してなす角度をθr、前記光線が前記測定対象物に反射される前において前記投光レンズ系の光軸に対してなす角度をθt、前記投光レンズ系の焦点位置と前記受光レンズ系の焦点位置との距離をLbと、それぞれ定義すると、
前記少なくとも1つのプロセッサは、
Lm=Lt2+Lr2
Lt2・cosθt=Lr2・cosθr
Lt2・sinθt+Lr2・sinθr=Lb
の3つの連立方程式から、未知数であるLt2,Lr2,θtを算出することにより、前記補正距離情報を出力することを、実行するように構成される請求項1に記載の処理装置。
The optical axis (OAt) of the light projection lens system and the optical axis (OAr) of the light receiving lens system are arranged in parallel,
Define the measurement optical path length based on the flight time of the light beam as Lm, the distance from the focal position of the light projecting lens system to the measurement object as Lt2, the distance from the measurement object to the focal position of the light receiving lens system as Lr2, the angle that the light ray received at the light receiving pixel position included in the sensing data makes with the optical axis of the light receiving lens system as θr, the angle that the light ray makes with the optical axis of the light projecting lens system before being reflected by the measurement object as θt, and the distance between the focal position of the light projecting lens system and the focal position of the light receiving lens system as Lb,
The at least one processor
Lm=Lt2+Lr2
Lt2・cosθt=Lr2・cosθr
Lt2・sinθt+Lr2・sinθr=Lb
2. The processing device according to claim 1, wherein the processing device is configured to execute outputting the corrected distance information by calculating unknowns Lt2, Lr2, and θt from the three simultaneous equations above.
前記少なくとも1つの記憶媒体は、前記光源の発光位置に個別に対応した前記受光素子上の検出結果分布波形(WF)を示す受光プロファイルを、さらに記憶し、
前記少なくとも1つのプロセッサは、
前記光ビームの飛行時間に基づく測定光路長を取得することと、
前記測定光路長に応じた大きさを備え、前記投光レンズ系の焦点位置及び前記受光レンズ系の焦点位置を焦点とした仮想楕円(VE)を、想定することと、
前記仮想楕円と、前記センシングデータに含まれる画素レベルの受光画素位置とに基づき、前記光ビームが前記投光レンズ系の光軸(OAt)に対してなす角度を特定することと、
前記角度に基づき、前記測定対象物によって反射された前記光ビームの前記発光位置を特定することと、
前記発光位置に個別に対応した分布波形を示す前記受光プロファイルと前記センシングデータとをマッチングし、前記受光素子上の受光強度が最大となる高精度受光位置を前記受光画素位置よりも高い精度で特定することと、
前記仮想楕円を、前記発光位置と前記高精度受光位置を焦点とした置換仮想楕円に置換した形態により、前記置換仮想楕円の候補位置から前記測定対象物の推定位置を算出することと、
前記発光位置から前記推定位置までの距離と、前記推定位置から前記高精度受光位置までの距離の和に基づいた距離情報を、前記測定対象物の距離情報として出力することと、を実行するように構成される請求項1に記載の処理装置。
The at least one storage medium further stores a light receiving profile indicating a detection result distribution waveform (WF) on the light receiving element individually corresponding to the light emitting position of the light source,
The at least one processor
obtaining a measured optical path length based on a time of flight of the light beam;
A virtual ellipse (VE) having a size according to the measurement optical path length and having a focal position of the light projection lens system and a focal position of the light receiving lens system as focal points is assumed;
determining an angle that the light beam makes with respect to an optical axis (OAt) of the projection lens system based on the virtual ellipse and a light receiving pixel position at a pixel level included in the sensing data;
determining the emission position of the light beam reflected by the measurement object based on the angle;
Matching the light receiving profile, which indicates a distribution waveform that individually corresponds to the light emitting position, with the sensing data, and identifying a high-precision light receiving position where the light receiving intensity on the light receiving element is maximized with a higher accuracy than the light receiving pixel position;
calculating an estimated position of the measurement target object from candidate positions of the replaced virtual ellipse in a form in which the virtual ellipse is replaced with a replaced virtual ellipse having the light emission position and the high-precision light receiving position as focal points;
2. The processing device according to claim 1, configured to execute the steps of: outputting distance information based on the sum of the distance from the light emission position to the estimated position and the distance from the estimated position to the high-precision light receiving position as distance information of the object to be measured.
前記少なくとも1つの記憶媒体は、前記光源の発光位置に個別に対応した前記受光素子上の検出結果分布波形(WF)を示す受光プロファイルを、さらに記憶し、
前記投光レンズ系の光軸(OAt)と前記受光レンズ系の光軸(OAr)とは、平行に配置されており、
前記光ビームの飛行時間に基づく測定光路長をLm、前記投光レンズ系の焦点位置から前記測定対象物までの距離をLt2、前記測定対象物から前記受光レンズ系の焦点位置までの距離をLr2、前記センシングデータに含まれる受光画素位置で受光される光線が前記受光レンズ系の光軸に対してなす角度をθr、前記光線が前記測定対象物に反射される前において前記投光レンズ系の光軸に対してなす角度をθt、前記投光レンズ系の焦点位置と前記受光レンズ系の焦点位置との距離をLbと、それぞれ定義すると、
前記少なくとも1つのプロセッサは、
Lm=Lt2+Lr2
Lt2・cosθt=Lr2・cosθr
Lt2・sinθt+Lr2・sinθr=Lb
の3つの連立方程式から、未知数であるLt2,Lr2,θtを算出することと、
θtを用いて前記測定対象物によって反射された前記光ビームの前記発光位置を特定することと、
前記発光位置に個別に対応した分布波形を示す前記受光プロファイルと前記センシングデータとをマッチングし、前記受光素子上の受光強度が最大となる高精度受光位置を前記受光画素位置よりも高い精度で特定することと、
前記3つの連立方程式におけるLbを、前記発光位置と前記高精度受光位置との距離Lbdに置換した上で、未知数であるLt2,Lr2,θtを再度算出することにより、前記補正距離情報を出力することを、実行するように構成される請求項1に記載の処理装置。
The at least one storage medium further stores a light receiving profile indicating a detection result distribution waveform (WF) on the light receiving element individually corresponding to the light emitting position of the light source,
The optical axis (OAt) of the light projection lens system and the optical axis (OAr) of the light receiving lens system are arranged in parallel,
Define the measurement optical path length based on the flight time of the light beam as Lm, the distance from the focal position of the light projecting lens system to the measurement object as Lt2, the distance from the measurement object to the focal position of the light receiving lens system as Lr2, the angle that the light ray received at the light receiving pixel position included in the sensing data makes with the optical axis of the light receiving lens system as θr, the angle that the light ray makes with the optical axis of the light projecting lens system before being reflected by the measurement object as θt, and the distance between the focal position of the light projecting lens system and the focal position of the light receiving lens system as Lb,
The at least one processor
Lm=Lt2+Lr2
Lt2・cosθt=Lr2・cosθr
Lt2・sinθt+Lr2・sinθr=Lb
Calculating the unknowns Lt2, Lr2, and θt from the three simultaneous equations above;
Identifying the emission position of the light beam reflected by the measurement object using θt;
Matching the light receiving profile, which indicates a distribution waveform that individually corresponds to the light emitting position, with the sensing data, and identifying a high-precision light receiving position where the light receiving intensity on the light receiving element is maximized with a higher accuracy than the light receiving pixel position;
The processing device according to claim 1, configured to output the corrected distance information by replacing Lb in the three simultaneous equations with the distance Lbd between the light-emitting position and the high-precision light-receiving position, and then recalculating the unknowns Lt2, Lr2, and θt.
光源(11)から投光レンズ系(12)を通じて光ビームを測定領域(MA)へ向けて投光する投光ユニット(10)と、前記投光ユニットとはずれた位置に配置され、前記測定領域の測定対象物(OBJ)によって反射された前記光ビームを、受光レンズ系(31)を通じて受光素子(32)で受光する受光ユニット(30)と、を備える光学センサ(2)のセンシングデータを処理する、少なくとも1つのプロセッサにより実行される方法であって、
前記センシングデータを取得することと、
前記投光レンズ系の焦点位置(Ptf)と、前記受光レンズ系の焦点位置(Prf)とを、記憶媒体(3a)から取得することと、
前記光ビームの光路について、前記投光レンズ系の焦点位置を起点とし、前記受光レンズ系の焦点位置を終点とする近似を実行することと、
前記近似に基づいて、前記投光ユニットと前記受光ユニットとの位置のずれに起因した前記測定対象物の距離誤差を補正し、補正距離情報を、前記光学センサから前記測定対象物までの距離情報として出力することと、を含む方法。
A method for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31), the method being executed by at least one processor, the method comprising:
acquiring the sensing data;
Obtaining a focal position (Ptf) of the light projection lens system and a focal position (Prf) of the light receiving lens system from a storage medium (3a);
approximating an optical path of the light beam from a focal position of the light projection lens system as a starting point to a focal position of the light receiving lens system as an end point;
correcting a distance error of the object to be measured caused by a misalignment between the light-projecting unit and the light-receiving unit based on the approximation, and outputting corrected distance information as distance information from the optical sensor to the object to be measured.
光源(11)から投光レンズ系(12)を通じて光ビームを測定領域(MA)へ向けて投光する投光ユニット(10)と、前記投光ユニットとはずれた位置に配置され、前記測定領域の測定対象物(OBJ)によって反射された前記光ビームを、受光レンズ系(31)を通じて受光素子(32)で受光する受光ユニット(30)と、を備える光学センサ(2)のセンシングデータを処理するプログラムであって、
少なくとも1つのプロセッサに、
前記センシングデータを取得することと、
前記投光レンズ系の焦点位置(Ptf)と、前記受光レンズ系の焦点位置(Prf)とを、記憶媒体(3a)から取得することと、
前記光ビームの光路について、前記投光レンズ系の焦点位置を起点とし、前記受光レンズ系の焦点位置を終点とする近似を実行することと、
前記近似に基づいて、前記投光ユニットと前記受光ユニットとの位置のずれに起因した前記測定対象物の距離誤差を補正し、補正距離情報を、前記光学センサから前記測定対象物までの距離情報として出力することと、を実行させるように構成されるプログラム。
A program for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31),
At least one processor,
acquiring the sensing data;
Obtaining a focal position (Ptf) of the light projection lens system and a focal position (Prf) of the light receiving lens system from a storage medium (3a);
approximating an optical path of the light beam from a focal position of the light projection lens system as a starting point to a focal position of the light receiving lens system as an end point;
based on the approximation, correcting a distance error of the object to be measured caused by a misalignment between the light-projecting unit and the light-receiving unit, and outputting the corrected distance information as distance information from the optical sensor to the object to be measured.
JP2023029184A 2023-02-28 2023-02-28 Processing device, method and program Pending JP2024121933A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023029184A JP2024121933A (en) 2023-02-28 2023-02-28 Processing device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023029184A JP2024121933A (en) 2023-02-28 2023-02-28 Processing device, method and program

Publications (1)

Publication Number Publication Date
JP2024121933A true JP2024121933A (en) 2024-09-09

Family

ID=92673062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023029184A Pending JP2024121933A (en) 2023-02-28 2023-02-28 Processing device, method and program

Country Status (1)

Country Link
JP (1) JP2024121933A (en)

Similar Documents

Publication Publication Date Title
US11977156B2 (en) Optical distance measuring device
US9046599B2 (en) Object detection apparatus and method
US11723762B2 (en) LIDAR based 3-D imaging with far-field illumination overlap
US10082564B2 (en) Object detection device, sensing device, movable body device, and object detection method
US9891432B2 (en) Object detection device and sensing apparatus
US20200142070A1 (en) Multiple Pixel Scanning LIDAR
EP3165946B1 (en) Object detector, sensor, and movable device
US9207074B2 (en) Distance measurement apparatus, and distance measurement method
US9981604B2 (en) Object detector and sensing apparatus
US10859681B2 (en) Circuit device, object detecting device, sensing device, mobile object device and object detecting device
US20230108583A1 (en) Distance measurement device
US20220364849A1 (en) Multi-sensor depth mapping
US20230273322A1 (en) Lidar device and method for calculating distance to object
JP2024121933A (en) Processing device, method and program
US20220187429A1 (en) Optical ranging device
JP2023020552A (en) Surveying device
US20230084957A1 (en) Optical distance measurement device
WO2021172070A1 (en) Optical detection device and method for determining optical axis offset in optical detection device
WO2024106214A1 (en) Object detection device and object detection method
JP2008180646A (en) Shape measuring device and shape measuring technique
US20240067094A1 (en) Gating camera, vehicle sensing system, and vehicle lamp
JP7574782B2 (en) Control device, control method, and control program
US20220035039A1 (en) Tof camera
JP2021135292A (en) Optical detector and method for determining displacement of optical axis in optical detector
JP2023048113A (en) Control device, control method, and control program