JP2024121933A - Processing device, method and program - Google Patents
Processing device, method and program Download PDFInfo
- Publication number
- JP2024121933A JP2024121933A JP2023029184A JP2023029184A JP2024121933A JP 2024121933 A JP2024121933 A JP 2024121933A JP 2023029184 A JP2023029184 A JP 2023029184A JP 2023029184 A JP2023029184 A JP 2023029184A JP 2024121933 A JP2024121933 A JP 2024121933A
- Authority
- JP
- Japan
- Prior art keywords
- light
- lens system
- light receiving
- focal position
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000003287 optical effect Effects 0.000 claims abstract description 97
- 238000005259 measurement Methods 0.000 claims abstract description 69
- 238000001514 detection method Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 description 33
- 238000012937 correction Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 8
- 238000005070 sampling Methods 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
【課題】視差による距離誤差の影響が抑制された距離情報を安定的に提供可能な処理装置を提供する。【解決手段】処理装置3は、光ビームを測定領域MAへ向けて投光する投光ユニット10と、投光ユニット10とはずれた位置に配置され、物体OBJによって反射された光ビームを受光する受光ユニット30と、を備えるLiDAR2のセンシングデータを処理する。処理装置3は、投光レンズ系12の焦点位置Ptfと、受光レンズ系31の焦点位置Prfとを、記憶する少なくとも1つのメモリ3aと、プロセッサ3bと、を備える。プロセッサ3bは、光ビームの光路について、焦点位置Ptfを起点とし、焦点位置Prfを終点とする近似に基づき、投光ユニット10と受光ユニット31との位置のずれに起因した物体OBJの距離誤差が補正された補正距離情報を、LiDAR2から物体OBJまでの距離情報として出力可能に構成される。【選択図】図6[Problem] To provide a processing device capable of stably providing distance information in which the influence of distance error due to parallax is suppressed. [Solution] A processing device 3 processes sensing data of a LiDAR 2 including a light projection unit 10 that projects a light beam toward a measurement area MA, and a light receiving unit 30 that is disposed at a position offset from the light projection unit 10 and receives the light beam reflected by an object OBJ. The processing device 3 includes at least one memory 3a that stores a focal position Ptf of a light projection lens system 12 and a focal position Prf of a light receiving lens system 31, and a processor 3b. The processor 3b is configured to be capable of outputting corrected distance information, in which a distance error of the object OBJ caused by a positional deviation between the light projection unit 10 and the light receiving unit 31 is corrected based on an approximation of the optical path of the light beam from the focal position Ptf as a starting point to the focal position Prf as an end point, as distance information from the LiDAR 2 to the object OBJ. [Selected Figure] FIG. 6
Description
この明細書による開示は、光学センサを用いた測距技術に関する。 This disclosure relates to distance measurement technology using optical sensors.
従来、光学センサを用いた測距技術が知られている。投光ユニットと受光ユニットとが互いにずれた位置に配置された非同軸型の光学センサでは、両ユニットの視差による距離誤差が発生する。そこで特許文献1では、投光ユニット及び受光ユニットの配置情報を用いて、当該距離誤差を補正している。具体的に、遠距離では同軸系であると仮定し、近距離では反復処理で補正を実行する。
Conventionally, distance measurement technology using optical sensors is known. In non-coaxial optical sensors in which the light-projecting unit and the light-receiving unit are positioned at offset positions, distance errors occur due to the parallax between the two units. Therefore, in
しかしながら、特許文献1の技術では、近距離において数値が条件を満たすまで反復処理が用いられるため、当該反復処理に時間や負荷がかかってしまうことがある。このため、距離情報を安定的に提供することにおいて、課題があった。
However, in the technology of
この明細書の開示による目的のひとつは、視差による距離誤差の影響が抑制された距離情報を安定的に提供可能な処理装置、方法及びプログラムを提供することにある。 One of the purposes of the disclosure of this specification is to provide a processing device, method, and program that can stably provide distance information in which the effects of distance errors due to parallax are suppressed.
ここに開示された態様のひとつは、光源(11)から投光レンズ系(12)を通じて光ビームを測定領域(MA)へ向けて投光する投光ユニット(10)と、投光ユニットとはずれた位置に配置され、測定領域の測定対象物(OBJ)によって反射された光ビームを、受光レンズ系(31)を通じて受光素子(32)で受光する受光ユニット(30)と、を備える光学センサ(2)のセンシングデータを処理する処理装置であって、
投光レンズ系の焦点位置(Ptf)と、受光レンズ系の焦点位置(Prf)とを、記憶する少なくとも1つの記憶媒体(3a)と、
センシングデータ、投光レンズ系の焦点位置及び受光レンズ系の焦点位置を取得して処理を実行可能に構成される少なくとも1つのプロセッサ(3b)と、を備え、
少なくとも1つのプロセッサは、
光ビームの光路について、投光レンズ系の焦点位置を起点とし、受光レンズ系の焦点位置を終点とする近似に基づき、投光ユニットと受光ユニットとの位置のずれに起因した測定対象物の距離誤差が補正された補正距離情報を、光学センサから測定対象物までの距離情報として出力可能に構成される。
One of the aspects disclosed herein is a processing device for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31),
At least one storage medium (3a) for storing a focal position (Ptf) of a light projection lens system and a focal position (Prf) of a light receiving lens system;
At least one processor (3b) configured to acquire sensing data, a focal position of a light projection lens system, and a focal position of a light receiving lens system and execute processing;
At least one processor
Based on an approximation of the optical path of the light beam, starting from the focal position of the light projecting lens system and ending at the focal position of the light receiving lens system, corrected distance information in which the distance error of the object to be measured caused by the misalignment between the light projecting unit and the light receiving unit is corrected can be output as distance information from the optical sensor to the object to be measured.
また、開示された態様の他のひとつは、光源(11)から投光レンズ系(12)を通じて光ビームを測定領域(MA)へ向けて投光する投光ユニット(10)と、投光ユニットとはずれた位置に配置され、測定領域の測定対象物(OBJ)によって反射された光ビームを、受光レンズ系(31)を通じて受光素子(32)で受光する受光ユニット(30)と、を備える光学センサ(2)のセンシングデータを処理する、少なくとも1つのプロセッサにより実行される方法であって、
センシングデータを取得することと、
投光レンズ系の焦点位置(Ptf)と、受光レンズ系の焦点位置(Prf)とを、記憶媒体(3a)から取得することと、
光ビームの光路について、投光レンズ系の焦点位置を起点とし、受光レンズ系の焦点位置を終点とする近似を実行することと、
近似に基づいて、投光ユニットと受光ユニットとの位置のずれに起因した測定対象物の距離誤差を補正し、補正距離情報を、光学センサから測定対象物までの距離情報として出力することと、を含む。
Another disclosed aspect is a method executed by at least one processor for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31), the method comprising:
Acquiring sensing data;
Obtaining a focal position (Ptf) of a light projection lens system and a focal position (Prf) of a light receiving lens system from a storage medium (3a);
approximating the optical path of the light beam from a focal position of the light projection lens system as a starting point to a focal position of the light receiving lens system as an end point;
The method includes correcting a distance error of the object to be measured caused by a misalignment between the light-projecting unit and the light-receiving unit based on the approximation, and outputting the corrected distance information as distance information from the optical sensor to the object to be measured.
また、開示された態様の他のひとつは、光源(11)から投光レンズ系(12)を通じて光ビームを測定領域(MA)へ向けて投光する投光ユニット(10)と、投光ユニットとはずれた位置に配置され、測定領域の測定対象物(OBJ)によって反射された光ビームを、受光レンズ系(31)を通じて受光素子(32)で受光する受光ユニット(30)と、を備える光学センサ(2)のセンシングデータを処理するプログラムであって、
少なくとも1つのプロセッサに、
センシングデータを取得することと、
投光レンズ系の焦点位置(Ptf)と、受光レンズ系の焦点位置(Prf)とを、記憶媒体(3a)から取得することと、
光ビームの光路について、投光レンズ系の焦点位置を起点とし、受光レンズ系の焦点位置を終点とする近似を実行することと、
近似に基づいて、投光ユニットと受光ユニットとの位置のずれに起因した測定対象物の距離誤差を補正し、補正距離情報を、光学センサから測定対象物までの距離情報として出力することと、を実行させるように構成される。
Another disclosed aspect is a program for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31),
At least one processor,
Acquiring sensing data;
Obtaining a focal position (Ptf) of a light projection lens system and a focal position (Prf) of a light receiving lens system from a storage medium (3a);
approximating the optical path of the light beam from a focal position of the light projection lens system as a starting point to a focal position of the light receiving lens system as an end point;
The device is configured to correct a distance error of the object to be measured caused by a misalignment between the light-projecting unit and the light-receiving unit based on the approximation, and to output the corrected distance information as distance information from the optical sensor to the object to be measured.
これらの態様によると、光学センサから測定対象物までの距離情報を出力するにあたって、投光ユニットと受光ユニットとの位置のずれに起因した測定対象物の距離誤差が補正される。この補正は、光ビームの光路について、投光レンズ系の焦点位置を起点とし、受光レンズ系の焦点位置を終点とする近似に基づいて実行される。この近似の採用により、補正演算における数値が収束ないし条件を満たすまでの反復処理により時間や負荷がかかってしまうことが抑制される。距離情報を出力するための時間や負荷が大幅に軽減される結果、距離情報を安定的に提供することができるようになる。 According to these aspects, when outputting distance information from the optical sensor to the object to be measured, distance errors of the object to be measured caused by misalignment between the light projecting unit and the light receiving unit are corrected. This correction is performed based on an approximation of the optical path of the light beam, starting from the focal position of the light projecting lens system and ending at the focal position of the light receiving lens system. The use of this approximation reduces the time and load required for iterative processing until the numerical values in the correction calculation converge or satisfy the conditions. As a result of the significant reduction in the time and load required to output distance information, it becomes possible to provide distance information stably.
なお、特許請求の範囲等に含まれる括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。 Note that the reference characters in parentheses in the claims are illustrative of the corresponding relationships with the embodiments described below, and are not intended to limit the technical scope.
以下、複数の実施形態を図面に基づいて説明する。なお、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。 Below, several embodiments are described based on the drawings. Note that in each embodiment, corresponding components are given the same reference numerals, and duplicated descriptions may be omitted. When only a portion of the configuration is described in each embodiment, the configuration of the other embodiment described above can be applied to the other portions of the configuration. In addition to the combinations of configurations explicitly stated in the description of each embodiment, configurations of several embodiments can be partially combined together even if not explicitly stated, as long as there is no particular problem with the combination.
(第1実施形態)
図1,2に示すように、本開示の第1実施形態による物体検知システム1は、移動体としての車両EVに搭載されている。物体検知システム1は、車両EVの周辺の物体OBJを検知する。物体検知システム1が検知した物体OBJの情報は、車両EVのHMIシステムを通じて例えばドライバ等の乗員へ情報提供されてもよい。また、物体検知システム1が検知した物体OBJの情報は、車両EVの自動運転システム又は運転支援システムによる自動運転又は運転支援に用いられる。図2に示すように、物体検知システム1は、LiDAR(Light Detection and Ranging/Laser imaging Detection and Ranging)2及び処理装置3を含む構成である。
First Embodiment
As shown in Figs. 1 and 2, an
図3に示すLiDAR2は、光ビームを測定領域MAへ向けて投光し、測定対象物である物体OBJからの反射光を検出する光学センサである。LiDAR2は、物体OBJの距離を測定する光測距装置にも相当する。図1に示すように、LiDAR2は、例えば図1に示すように車両EVのフロントウインドシールド上端部に設置され、車両EVの前方の測定領域MAへ光を走査して物体OBJを検出することが可能である。測定対象物として検出される物体OBJは、例えば他車両、歩行者等である。図2に示すように、LiDAR2は、投光ユニット10、走査ユニット20、受光ユニット30及びコントローラ40を含む構成である。
The LiDAR2 shown in FIG. 3 is an optical sensor that projects a light beam toward a measurement area MA and detects reflected light from an object OBJ, which is the object to be measured. The LiDAR2 also corresponds to an optical distance measuring device that measures the distance to the object OBJ. As shown in FIG. 1, the LiDAR2 is installed, for example, at the upper end of the front windshield of the vehicle EV as shown in FIG. 1, and is capable of detecting the object OBJ by scanning light toward the measurement area MA in front of the vehicle EV. The object OBJ detected as the object to be measured is, for example, another vehicle, a pedestrian, etc. As shown in FIG. 2, the LiDAR2 is configured to include a
投光ユニット10は、光源11から投光レンズ系12を通じて光ビームを測定領域MAへ向けて投光する。投光ユニット10は、光源11及び投光レンズ系12を含む構成である。
The
光源11は、例えばレーザダイオード(LD,Laser Diode)等のレーザ発振素子であってよい。光源11は、LEDであってもよい。光源11は、コントローラ40からの電気信号に応じた発光タイミングにて、発光可能である。発光される光の波長は、近赤外光等の可視光以外の波長であってよい。
The
光源11は、図4に示すように、複数の発光素子11a(発光画素ともいう)を1次元又は2次元に配列した構成であってよい。本実施形態における光源11は、発光素子11aとしてのLDを互いに間隔を空けて(離散的に)1次元に配列した発光素子アレイである。
As shown in FIG. 4, the
投光レンズ系12は、光源11から発光された光を集光し、測定領域MAへ向けてビーム状の光ビームを投光する。投光レンズ系12は、1つ又は複数のレンズを含む構成である。投光レンズ系12は、ミラーレンズ等の反射素子を含む構成であってもよい。
The
走査ユニット20は、投光ユニット10からの投光ビームを測定領域MAの範囲で走査する。走査ユニット20は、例えば走査ミラー21を含む構成である。走査ミラー21は、駆動モータ及び反射体を含む構成である。駆動モータは、コントローラ40からの電気信号に応じた回転量及び回転速度にて、反射体の回転軸を駆動する。反射体は、投光ビームを測定領域MAへ向けて反射する反射面を有するミラーである。反射面は、例えば平面状に形成されている。
The
受光ユニット30は、測定領域MAの物体OBJに反射されて戻ってくる光ビームを、受光レンズ系31を通じて受光素子32で受光する。受光ユニット30は、受光レンズ系31、受光素子32及びデコーダ33を含む構成である。
The
受光レンズ系31は、測定領域MAの物体OBJに反射され、さらに走査ミラー21に反射された光ビームを集光し、受光素子32に入射させる。受光レンズ系31は、1つ又は複数のレンズを含む構成である。受光レンズ系31は、ミラーレンズ等の反射素子を含む構成であってもよい。
The light receiving
受光素子32は、受光レンズ系31によって集光された反射光を受光して検出する。受光素子32は、例えば単一光子アバランシェフォトダイオード(SPAD,Single Photon Avalanche Diode)センサであってよい。図5に示すように受光素子32は、複数のSPADを検出面32b上に高度に集積化した状態で、受光画素32aを2次元配列して形成されている。
The
SPADは、1つの光子を受光すると、アバランシェ倍増による電子倍増動作(いわゆるガイガーモード)により、1つの電気パルスを生成する。すなわち、SPADは、アナログ信号からデジタル信号へのAD変換回路を介さずに、換言すると直接的に、デジタル信号としての電気パルスを発生させることができる。したがって、受光結果は高速に読み出し可能である。 When the SPAD receives a single photon, it generates a single electrical pulse through an electron multiplication operation caused by avalanche multiplication (the so-called Geiger mode). In other words, the SPAD can generate an electrical pulse as a digital signal directly, without going through an AD conversion circuit that converts analog signals into digital signals. Therefore, the light reception result can be read out at high speed.
デコーダ33は、SPADが生成した電気パルスを出力するために設けられ、選択回路及びクロック発振器を含む構成である。選択回路は、電気パルスを取り出す対象となるSPADを、順次選択していく。選択されたSPADは、電気パルスをコントローラ40へ出力する。選択回路がSPADを1回ずつ選択し終えると、1回のサンプリングが終了する。このサンプリング周期は、クロック回路から出力されるクロック周波数に応じたものとなる。
The
コントローラ40は、LiDAR2の動作を制御する。コントローラ40は、メモリ及びプロセッサを少なくとも1つずつ有したコンピュータにより実現されていてもよい。コントローラ40は、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等によって実現されていてもよい。
The
具体的に、コントローラ40は、投光ユニット10における光源11の発光と、走査ユニット20における走査ミラー21の向きとを、連動するように制御する。さらにコントローラ40は、デコーダ33によるサンプリング動作を制御してもよい。コントローラ40は、投光ユニット10、走査ユニット20及び受光ユニット30の制御データ、及び受光ユニット30のサンプリング結果ないしこれを処理したデータを、センシングデータとして処理装置3へ出力可能に構成されている。
Specifically, the
ここで図3に示すように、投光ユニット10と受光ユニット30とは、共通のハウジング2aに収容され、互いにずれた位置に配置されている。投光ユニット10と受光ユニット30とは、光軸OAt,OAr(図7参照)を互いに実質平行に構成する非同軸系をなし、並ぶように配置されている。両ユニット10,30の並び方向は、光源11における発光素子11aの配列方向及び受光素子32の長手方向と、実質的に一致している。ハウジング2aは、光ビームを透過させる窓部を有している。なお、走査ミラー21は、ハウジング2aに収容され、投光レンズ系12、及び受光レンズ系31及びハウジング2aの窓部と相対するように配置されるが、図3等では図示が省略されている。
As shown in FIG. 3, the light-projecting
このような非同軸系をなす配置においては、光源11の発光時刻から受光時刻までの時間を距離の2倍に単純換算すると、実際の物体OBJとの距離誤差が生じ得る。ここでいう単純換算とは、距離の2倍=光の速さ×時間の式による換算である。この距離誤差は、投光ユニット10と受光ユニット30の視差に起因する誤差である。測定領域MAの物体OBJが近距離に存在する程、距離誤差の影響は大きくなる。
In such a non-coaxial arrangement, if the time from when the
処理装置3は、LiDAR2から取得したセンシングデータを処理し、測定領域MAの物体OBJの距離に関する演算を行う電子制御装置である。この演算は、物体OBJの距離を、上述の投光ユニット10及び受光ユニット30の配置を考慮して補正する補正演算を含む。処理装置3は、このような補正演算に基づき、距離情報を車両EVの自動運転システム又は運転支援システム、ドライバ等への報知システム、イベントデータレコーダ等の記録装置、さらには車両EVの外部に存在する管理センタ、クラウドサーバ等へ出力して提供可能に構成されている。距離情報は、例えば物体OBJの距離の値そのものであってもよく、例えば物体OBJのLiDAR2に対する相対座標等、距離を容易に算出可能なデータであってもよい。なお、処理装置3は、さらにセンシングデータに基づき検出される物体OBJを画像処理し、反射強度画像、背景光画像等の画像を生成する機能を備えていてよい。
The
処理装置3は、メモリ3a及びプロセッサ3bを少なくとも1つずつ有したコンピュータを含む構成であってよい。メモリ3aは、プロセッサ3bにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも1種類の非遷移的実態的記憶媒体であってよい。さらにメモリ3aとして、例えばRAM(Random Access Memory)等の書き換え可能な揮発性の記憶媒体が設けられていてもよい。プロセッサ3bは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも1種類をコアとして含む。
The
図6は、処理装置3による測距機能の機能的アーキテクチャを示す図である。処理装置3は、データ取得部51、測定光路長近似部52、物体位置算出部53及び座標変換部54を、プログラムを実行する少なくとも1つのプロセッサ3bにより実現される機能部として含む構成である。
Figure 6 is a diagram showing the functional architecture of the distance measurement function by the
データ取得部51は、LiDAR2から最新のセンシングデータを逐次取得する。このセンシングデータは、投光ユニット10及び受光ユニット30の配置を考慮していない、補正前のデータである。
The
処理装置3が物体OBJの測定光路長を算出することを機能に含む場合、上述のサンプリング結果がセンシングデータとして取得される。すなわち、データ取得部51は、サンプリング結果に基づき、ToF(Time of Flight)方式により物体の距離を測定する。詳細に、データ取得部51は、電気パルスが検出された回数を時刻毎にヒストグラム化し、光源の発光時刻から当該ヒストグラムがピークを示す時刻までの時間を測定光路長(距離の2倍に対応)に単純換算する。すなわちデータ取得部51が補正演算適用前の測定光路長自体を算出する。
When the
一方でLiDAR2が物体OBJの補正演算適用前の測定光路長を算出することを機能に含んでいる場合、データ取得部51は、LiDAR2にて算出された測定光路長をセンシングデータとして取得する。データ取得部51は、さらに当該測定光路長を測定したときの受光画素32aの情報を、センシングデータとして取得する。受光画素32aの情報は、受光画素32a毎の検出回数である。受光画素32aの情報は、通常、ノイズを低減するため、互いに隣接する複数のSPADからなる領域を1つの受光画素32aとみなし、当該受光画素32aを構成する各SPADの検出回数を合計ないし平均したデータであってよい。1つのSPADないし受光画素32aよりも小さな単位をなす複数のSPADは、サブ画素と称されてもよい。
On the other hand, if the LiDAR2 has a function of calculating the measurement optical path length before the correction calculation of the object OBJ is applied, the
測定光路長近似部52は、メモリ3aに記憶された焦点位置データ61に基づき、測定光路長の近似を実施する。焦点位置データ61は、投光レンズ系12の焦点位置Ptf及び受光レンズ系31の焦点位置Prfの情報を含む。焦点位置データ61は、メモリ3aにプログラムと同様に非一時的に記憶されていてもよい。焦点位置データ61は、使用される段階で、車両EV内部の他の装置又は車両外部から取得され、メモリ3aに一時的に記憶されてもよい。
The measurement optical path
以下に測定光路長の近似方法を、図7を用いて詳細に説明する。実際の測定光路長Lmは、以下の数式1で表される。
The method for approximating the measured optical path length is explained in detail below with reference to Figure 7. The actual measured optical path length Lm is expressed by the following
Lm=Lt1+Lt2+Lr2+Lr1 (数式1)
ここで、Lt1は、発光画素の位置Pt1からまでの投光レンズ系12の焦点位置Ptfまでの距離である。すなわち、Lt1=|Pt1―Ptf|である。Lt2は、焦点位置Ptfから物体OBJの位置Pdまでの距離である。すなわち、Lt2=|Ptf-Pd|である。Lr2は、物体OBJの位置Pdから受光レンズ系31の焦点位置Prfまでの距離である。すなわち、Lr2=|Prf-Pd|である。Lr1は、焦点位置Prfから受光画素32aの位置Pr1までの距離である。すなわち、Lr1=|Prf-Pd|である。より厳密には、測定光路長は、投光レンズ系12内及び受光レンズ系31内でのレンズ媒質及び屈折の影響を受けるが、この数式1では当該影響が十分小さいとして省略されている。
Lm=Lt1+Lt2+Lr2+Lr1 (Formula 1)
Here, Lt1 is the distance from the position Pt1 of the light-emitting pixel to the focal position Ptf of the light-projecting
ここで、Lt1はLt2より十分小さく、Lr1はLr2より十分小さいとして、以下の数式2のようにLmはLmaに近似される。
Here, Lt1 is sufficiently smaller than Lt2, and Lr1 is sufficiently smaller than Lr2, so Lm is approximated to Lma as shown in the following
Lm≒Lma=Lt2+Lr2 (数式2)
すなわち、数式2のように、光ビームの光路は、投光レンズ系12の焦点位置Ptfを起点とし、受光レンズ系31の焦点位置Prfを終点とするように近似される。これにより、物体OBJの位置Pdの候補は、Lma,Ptf,Prfに基づいて決まる仮想楕円VE上に存在することとなる。仮想楕円VEは、光軸OAt,OArと、光源11と受光素子32とが並ぶ並び方向とがなす平面上に想定されればよい。ここで想定される仮想楕円VEは、投光レンズ系12の焦点位置Ptf及び受光レンズ系31の焦点位置Prfが当該仮想楕円VEの焦点に相当し、近似された測定光路長Lmaが長軸の長さの2倍に相当する仮想楕円であってよい。測定光路長近似部52は、Lmaに、データ取得部51が取得した測定光路長を代入する。
Lm≈Lma=Lt2+Lr2 (Formula 2)
That is, as shown in
物体位置算出部53は、測定光路長近似部52によって実質的に仮想楕円VE上に特定された候補位置を、データ取得部51が取得した受光画素32aの情報を用いて、絞り込む。これにより、物体OBJの位置Pdが算出される。
The object
具体的に、物体位置算出部53は、物体OBJの位置Pdで反射され焦点位置Prfを通り、センシングデータとして取得された実際の受光画素32aの位置Pt2で受光される光線が受光レンズ系31の光軸OArに対してなす角度θrを、算出する。角度θrは、物体OBJの位置Pdが特定できていない状態であっても、既知であるPr1とPrfとを結ぶ直線と光軸OArを示す直線との関係から、容易に算出できる。なお、投光レンズ系12及び受光レンズ系31の光軸データ62は、焦点位置データ61と同様に、メモリ3aに非一時的又は一時的に記憶されたデータである。
Specifically, the object
そして、投光ユニット10と受光ユニット30とが互いに光軸OAt,OArを実質平行な状態にして並んでいるので、測定光路長Lmのうち、光軸OAt,OArに沿った方向の成分について、以下の数式3が成立する。ここで、θtは、センシングデータとして取得された実際の発光素子11aの位置Pt1から焦点位置Ptfを通り、物体OBJの位置Pdへ投光される光線が投光レンズ系12の光軸OAtに対してなす角度である。
And because the light-projecting
Lt2・cosθt=Lr2・cosθr (数式3)
さらに、測定光路長Lmのうち、光軸OAt,OArと垂直な方向の成分について、以下の数式4が成立する。ここで、数式4では、投光レンズ系12の焦点位置Ptfと受光レンズ系31の焦点位置Prfとの距離がPbとされる。
Lt2 · cos θt = Lr2 · cos θr (Formula 3)
Furthermore, the following formula 4 is established for the component of the measurement optical path length Lm in the direction perpendicular to the optical axes OAt and OAr. Here, in formula 4, the distance between the focal position Ptf of the light
Lt2・sinθt+Lr2・sinθr=Lb (数式4)
そして、数式2、数式3及び数式4の連立方程式(解析式とも称する)により、未知数であるLt2、Lr2、θtを解析的に解くことができる。物体OBJについて、仮想楕円VE上の候補位置は、これらの未知数が特定されることにより、位置Pdに一意に推定されることとなる。
Lt2 sin θt + Lr2 sin θr = Lb (Formula 4)
The unknowns Lt2, Lr2, and θt can be analytically solved by the simultaneous equations (also called analytical equations) of
座標変換部54は、推定された物体OBJの位置Pdを、距離座標原点Poを基準とした座標系に変換する。距離座標原点Poは、物体検知システム1に求められる仕様に基づき、予め設定される。例えば距離座標原点Poは、ハウジング2a上における、光軸OAtの延長線の交点と、光軸OArの延長線の交点との中点に規定されてよい。
The coordinate
そして、物体OBJの座標に代えて物体OBJの距離を出力する場合には、物体OBJの距離の出力値も、物体検知システム1に求められる仕様に基づき、予め設定される。例えば物体OBJの距離の出力値は、距離座標原点Poと物体OBJの位置Pdとの距離であってもよく、当該距離の光軸OAt,OArに沿った方向の成分であってもよい。
When the distance of the object OBJ is output instead of the coordinates of the object OBJ, the output value of the distance of the object OBJ is also set in advance based on the specifications required for the
次に、処理装置3による処理方法の例を、図8のフローチャートを用いて説明する。ステップS1~5に示される一連の処理は、1回又は複数回のサンプリングが実施され、これに応じて物体OBJの距離を出力するために実施される。この一連の処理は、処理装置3の少なくとも1つのプロセッサ3bがプログラムを実行することにより、実施される。
Next, an example of a processing method by the
S1では、データ取得部51は、測定光路長Lmを取得する。S1の処理後、S2へ進む。
In S1, the
S2では、測定光路長近似部52は、S1にて取得した測定光路長Lmを、上述の数式2のようにLmaに近似する。S2の処理後、S3へ進む。
In S2, the measurement optical path
S3では、物体位置算出部53は、解析式より未知数Lt2、Lr2、θtを算出する。S3の処理後、S4へ進む。
In S3, the object
S4では、物体位置算出部53は、物体OBJの位置Pdを算出する。S4の処理後、S5へ進む。
In S4, the object
S5では、座標変換部54は、S4で算出された位置Pdを、距離座標原点Poを基準とした座標系に変換する。変換後の座標ないし距離が出力されることとなる。S5を以って一連の処理を終了する。
In S5, the coordinate
図9,10では、比較例として補正演算をしない場合に、理論上生じ得る距離誤差が示されている。図9,10では、物体OBJの距離別に線種を分けて距離誤差が区別されている。θrが大きくなる程、距離誤差は漸次大きくなる。また、焦点間距離Lbが大きくなる程、距離誤差は漸次大きくなる。ところが、以上説明した補正方法により、距離誤差を略解消することができる。 As a comparative example, Figures 9 and 10 show distance errors that may theoretically occur when no correction calculation is performed. In Figures 9 and 10, distance errors are distinguished by different line types according to the distance of the object OBJ. The larger θr is, the larger the distance error becomes. Also, the larger the focal length Lb is, the larger the distance error becomes. However, the correction method described above can almost completely eliminate the distance error.
以上説明した第1実施形態によると、光学センサとしてのLiDAR2から測定対象物としての物体OBJまでの距離情報を出力するにあたって、投光ユニット10と受光ユニット30との位置のずれに起因した物体OBJの距離誤差が補正される。この補正は、光ビームの光路について、投光レンズ系12の焦点位置Ptfを起点とし、受光レンズ系31の焦点位置Prfを終点とする近似に基づいて実行される。この近似の採用により、補正演算における数値が収束ないし条件を満たすまでの反復処理により時間や負荷がかかってしまうことが抑制される。距離情報を出力するための時間や負荷が大幅に軽減される結果、距離情報を安定的に提供することができるようになる。
According to the first embodiment described above, when outputting distance information from the
また、第1実施形態によると、光ビームの飛行時間に基づく測定光路長に応じた大きさを備え、焦点位置Ptf,Prfを焦点とした仮想楕円VEが想定される。物体OBJの候補位置は、仮想楕円VE上に特定される。そして、センシングデータに含まれる受光画素位置に基づき、候補位置から物体OBJの位置として推定される位置Pdが算出される。さらに、焦点位置Ptfから位置Pdまでの距離と、位置Pdから焦点位置Prfまでの距離の和に基づいた距離情報が、補正距離情報として出力される。近似により仮想楕円VE上に候補位置が絞られるので、演算時間や演算負荷をさらに低減することができる。 According to the first embodiment, a virtual ellipse VE is assumed, which has a size according to the measurement optical path length based on the flight time of the light beam, and has focal positions Ptf and Prf as its focal points. Candidate positions of the object OBJ are identified on the virtual ellipse VE. Then, based on the light-receiving pixel positions included in the sensing data, a position Pd is calculated from the candidate positions to be estimated as the position of the object OBJ. Furthermore, distance information based on the sum of the distance from the focal position Ptf to the position Pd and the distance from the position Pd to the focal position Prf is output as corrected distance information. Since the candidate positions are narrowed down to the virtual ellipse VE by approximation, the calculation time and calculation load can be further reduced.
また、第1実施形態によると、数式2~4の3つの数式による連立方程式から、未知数であるLt2,Lr2,θtを算出することにより、補正距離情報が出力される。未知数の算出が連立方程式の解析により実行されるので、未知数を得るために複雑な複数のアルゴリズムを実行することが抑制される。故に、演算時間や演算負荷をさらに低減することができる。
In addition, according to the first embodiment, the unknowns Lt2, Lr2, and θt are calculated from the simultaneous equations of the three
(第2実施形態)
図11~13に示すように、第2実施形態は第1実施形態の変形例である。第2実施形態について、第1実施形態とは異なる点を中心に説明する。
Second Embodiment
11 to 13, the second embodiment is a modification of the first embodiment. The second embodiment will be described focusing on the differences from the first embodiment.
第2実施形態は、光源11が互いに離散的に配置された複数の発光素子11aを備える場合に好適である。図11に示す第2実施形態の処理装置203において物体位置算出部253は、光源データ63及び波形データ64を参照して、解析式を2回解くことで、物体OBJの位置Pdの精度を高める。
The second embodiment is suitable for the case where the
光源データ63は、光源11における発光素子11aの配置情報を含んでいる。光源データ63は、発光の空間の広がり形状を示すデータ、すなわち各発光素子11aの放射角度に対する発光強度分布を含んでいてもよい。光源データ63は、焦点位置データ61及び光軸データ62と同様に、メモリ3aに非一時的又は一時的に記憶されたデータである。光源データ63は、光源プロファイルと称されてもよい。
The
波形データ64は、各発光素子11aから投光された光ビームが測定領域MAにて反射されて受光素子32に受光された場合の、当該ビームの受光素子32上の空間的な強度分布波形のデータを含んでいる。すなわち、波形データ64は、各発光素子11aと個別に対応する複数の受光強度分布波形WF(図12参照)を含む。この情報は、実際のLiDAR2において予め実験的に確認された強度分布波形のデータであってもよく、予めシミュレーションにより得られた強度分布波形のデータであってもよい。強度分布波形WFは、ガウス分布形状をなしていてもよい。なお、受光素子32がSPADにより構成される場合、各受光画素32aの光子の検出回数が受光強度に対応する。このため、強度と検出回数とを総称する概念として、強度分布波形WFは、分布波形を示す受光プロファイルと称されてもよい。
The
物体位置算出部253は、第1実施形態と同様の方法により、1度、解析式を解き、未知数Lt2、Lr2、θtを特定する。そして、物体位置算出部253は、θtの値から、未知数によって示された光線が光源11に離散的に配置された複数の発光素子11aのうちどの発光素子11aから発光された光線であるかを特定する。すなわち、発光画素の位置Pt1が特定される。
The object
そして図12に示すように、物体位置算出部253は、センシングデータとして得られた実際の受光画素32a毎の検出結果を、当該発光素子11aに個別に対応する波形データ64とをマッチングする。波形データ64がガウス分布形状であれば、そのピークの位置Pr1を特定することができる。これにより特定されるピークの位置Pr1は、受光画素レベルよりも高精度である、サブ画素レベルの精度を有する。
As shown in FIG. 12, the object
そして、数式4における投光レンズ系12の焦点位置Ptfと受光レンズ系31の焦点位置Prfとの距離としてのLbは、位置Pt1と位置Pr1との距離Lbdに置き換えられる。置換後の数式は以下の数式5で表される。ただし、数式5のLbdは以下の数式6で表される。
Then, Lb, which is the distance between the focal position Ptf of the light-projecting
Lt2・sinθt+Lr2・sinθr=Lbd (数式5)
Lbd=|Pt1-Pr1| (数式6)
そして、物体位置算出部253は、解析式を再度解く。すなわち、数式2、数式3及び数式5の連立方程式により、未知数であるLt2、Lr2、θtを解析的に解くことができる。解析式の解き直しにより、物体OBJの位置Pdをより高精度に算出することができる。この解析式の置換及び解き直しは、仮想楕円VEを焦点位置Ptf,Prf基準から、位置Pt1,Pr1基準に置換して演算し直すことに相当していてもよい。
Lt2 sin θt + Lr2 sin θr = Lbd (Formula 5)
Lbd=|Pt1-Pr1| (Formula 6)
Then, the object
次に、処理装置3による処理方法の例を、図13のフローチャートを用いて説明する。S101~103は、第1実施形態のS1~3と同様である。S103の処理後、S104へ進む。
Next, an example of a processing method by the
S104では、物体位置算出部253は、S103で得られたθtから発光素子11aの位置Pt1を特定する。S104の処理後、S105へ進む。
In S104, the object
S105では、物体位置算出部253は、S104で得られた発光素子11aに対応した受光プロファイルより、ピークの位置Pr1を特定する。S105の処理後、S106へ進む。
In S105, the object
S106では、物体位置算出部253は、解析式の解き直しにより未知数Lt2、Lr2、θtを算出する。S106の処理後、S107へ進む。S107~108は、第1実施形態のS4~5と同様である。S108を以って一連の処理を終了する。
In S106, the object
以上説明した第2実施形態によると、光ビームの飛行時間に基づく測定光路長に応じた大きさを備え、焦点位置Ptf,Prfを焦点とした仮想楕円VEが想定される。仮想楕円VE及びセンシングデータに含まれる受光画素位置に基づき、光ビームが投光レンズ系12の光軸OAtに対してなす角度θtが特定される。角度θtに基づき、物体OBJによって反射された光ビームの発光位置Pt1が特定される。そして、発光位置Pt1に個別に対応した分布波形WFを示す受光プロファイルとセンシングデータとをマッチングし、受光素子32上の受光強度が最大となる高精度な受光位置Pr1がセンシングデータに含まれる受光画素位置よりも高い精度で特定される。さらに、仮想楕円VEを、位置Pt1,Pr1を焦点とした置換仮想楕円に置換した形態により、物体OBJの候補位置は、置換仮想楕円上に特定され、これに基づいて候補位置から物体OBJの位置として推定される位置Pdが算出される。発光素子11aから位置Pdまでの距離と、位置Pdから受光素子32までの距離の和に基づいた距離情報が、測定対象物の距離情報として出力される。
According to the second embodiment described above, a virtual ellipse VE having a size according to the measurement optical path length based on the flight time of the light beam and with the focal positions Ptf and Prf as its focal points is assumed. Based on the virtual ellipse VE and the light receiving pixel positions included in the sensing data, the angle θt that the light beam makes with respect to the optical axis OAt of the
すなわち、仮想楕円VEによる近似演算の後、より高精度な発光位置Pt1及び受光位置Pr1を特定し、これらを用いて仮想楕円VEに基づいた演算の精度を高めつつ解き直すことにより、2回限りの反復的な演算によって距離情報の精度を高めることができる。 In other words, after the approximation calculation using the virtual ellipse VE, a more accurate light emission position Pt1 and light reception position Pr1 are identified, and these are used to solve the calculation based on the virtual ellipse VE while improving its accuracy, thereby improving the accuracy of the distance information by performing the calculation only twice.
3つの数式による連立方程式から、未知数であるLt2,Lr2,θtが算出される。θtを用いて測定対象物によって反射された光ビームの発光位置Pt1が特定される。そして、発光位置Pt1に個別に対応した分布波形WFを示す受光プロファイルとセンシングデータとをマッチングし、受光素子32上の受光強度が最大となる高精度な受光位置Pr1がセンシングデータに含まれる受光画素位置よりも高い精度で特定される。さらに、3つの連立方程式におけるLbを、位置Pt1,Pr1間の距離Lbdに置換した上で、未知数であるLt2,Lr2,θtが再度算出される。これにより、補正距離情報は出力可能となる。すなわち、2回限りの反復的な連立方程式の解析によって距離情報の精度を高めることができる。
The unknowns Lt2, Lr2, and θt are calculated from the simultaneous equations of the three expressions. The light emission position Pt1 of the light beam reflected by the object to be measured is identified using θt. Then, the light receiving profile showing the distribution waveform WF that corresponds individually to the light emission position Pt1 is matched with the sensing data, and the highly accurate light receiving position Pr1 where the light receiving intensity on the
また、未知数の算出が同じ連立方程式の解析を2回限り反復するにより実行されるので、未知数を得るための演算を実行するハードウエアは、当該連立方程式の解析が円滑に実行できるように設計すればよい。故に、ハードウエアの性能を容易に最適化して、処理装置203を提供することができる。
In addition, since the calculation of the unknowns is performed by repeating the analysis of the same simultaneous equations only twice, the hardware that performs the calculations to obtain the unknowns can be designed so that the analysis of the simultaneous equations can be performed smoothly. Therefore, the performance of the hardware can be easily optimized to provide the
(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
Other Embodiments
Although several embodiments have been described above, the present disclosure should not be construed as being limited to those embodiments, and can be applied to various embodiments and combinations within the scope not departing from the gist of the present disclosure.
例えば、メモリ3aは、測距補正用データをまとめて保持していてもよい。測距補正用データは、投光ユニット10及び受光ユニット30の配置データ、レンズデータ、第2実施形態で説明した光源データ63を含んでいてよい。レンズデータは、第1実施形態で説明した焦点位置データ61、光軸データ62を含んでいてよい。
For example, the
レンズデータは、さらに投光レンズ系12の画角を示す画角データ、受光レンズ系31の画角を示す画角データを含んでいてよい。また、レンズデータは、投光レンズ系12を通過する光の光路長データ、受光レンズ系31を通過する光の光路長データを含んでいてよい。光路長データは、例えば光線追跡法によりレンズ系での光の屈折をシミュレーションし、θt,θr毎に得られた光路長であってよい。光路長データは、数式化されていてもよい。光路長データを用いて、距離Lt2,Lr2が補正されるようにしてもよい。
The lens data may further include angle-of-view data indicating the angle of view of the light projecting
光路長の補正をより容易にするため、メモリ3aは、光路長データとしての投光レンズ系12の補正テーブルと、受光レンズ系31の補正テーブルをそれぞれ保持していてもよい。投光レンズ系12の補正テーブルは、投光レンズ系12におけるθt又は発光素子11aの位置Pt1とこれと対になる光路長補正値を記憶したデータテーブルである。受光レンズ系31の補正テーブルは、受光レンズ系31におけるθr又は発光素子11aの位置Pr1とこれと対になる光路長補正値を記憶したデータテーブルである。
To make it easier to correct the optical path length, the
また、他の実施形態として、光源11ないし発光素子11aには、垂直共振型面発光レーザ、端面発光レーザ等の各種素子が採用されてよい。
In other embodiments, the
また、他の実施形態として、仮想楕円VEは、3次元に拡張された楕円体状に想定されてもよい。この場合、数式3,4が3次元に対応した3つの数式に置き換えられてもよい。
In another embodiment, the virtual ellipse VE may be assumed to be an ellipsoid expanded into three dimensions. In this case,
また、他の実施形態として、投光レンズ系12の光軸OAtと受光レンズ系31の光軸OArとは、多少の角度をつけて、非平行に配置されていてもよい。この場合、光軸OAt,OArの向きを考慮して、解析式が適宜変更されてよい。
In another embodiment, the optical axis OAt of the light
本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The control unit and the method described in the present disclosure may be realized by a dedicated computer comprising a processor programmed to execute one or more functions embodied in a computer program. Alternatively, the device and the method described in the present disclosure may be realized by a dedicated hardware logic circuit. Alternatively, the device and the method described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits. Also, the computer program may be stored on a computer-readable non-transient tangible recording medium as instructions executed by the computer.
2:LiDAR(光学センサ)、3,203:処理装置、3a:メモリ(記憶媒体)、3b:プロセッサ、10:投光ユニット、11:光源、12:投光レンズ系、30:受光ユニット、31:受光レンズ系、32:受光素子、MA:測定領域、OBJ:物体(測定対象物)、Ptf:投光レンズ系の焦点位置、Prf:受光レンズ系の焦点位置 2: LiDAR (optical sensor), 3,203: Processing device, 3a: Memory (storage medium), 3b: Processor, 10: Light projection unit, 11: Light source, 12: Light projection lens system, 30: Light receiving unit, 31: Light receiving lens system, 32: Light receiving element, MA: Measurement area, OBJ: Object (object to be measured), Ptf: Focal position of the light projection lens system, Prf: Focal position of the light receiving lens system
Claims (7)
前記投光レンズ系の焦点位置(Ptf)と、前記受光レンズ系の焦点位置(Prf)とを、記憶する少なくとも1つの記憶媒体(3a)と、
前記センシングデータ、前記投光レンズ系の焦点位置及び前記受光レンズ系の焦点位置を取得して処理を実行可能に構成される少なくとも1つのプロセッサ(3b)と、を備え、
前記少なくとも1つのプロセッサは、
前記光ビームの光路について、前記投光レンズ系の焦点位置を起点とし、前記受光レンズ系の焦点位置を終点とする近似に基づき、前記投光ユニットと前記受光ユニットとの位置のずれに起因した前記測定対象物の距離誤差が補正された補正距離情報を、前記光学センサから前記測定対象物までの距離情報として出力可能に構成される処理装置。 A processing device for processing sensing data of an optical sensor (2) including: a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA); and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31),
At least one storage medium (3a) for storing a focal position (Ptf) of the light projection lens system and a focal position (Prf) of the light receiving lens system;
and at least one processor (3b) configured to acquire the sensing data, the focal position of the light projection lens system, and the focal position of the light receiving lens system and execute processing;
The at least one processor
A processing device configured to be capable of outputting corrected distance information as distance information from the optical sensor to the object to be measured, the corrected distance information being obtained by correcting the distance error of the object to be measured caused by the misalignment between the position of the light-projecting unit and the light-receiving unit based on an approximation of the optical path of the light beam, with the focal position of the light-projecting lens system as the starting point and the focal position of the light-receiving lens system as the end point.
前記光ビームの飛行時間に基づく測定光路長を取得することと、
前記測定光路長に応じた大きさを備え、前記投光レンズ系の焦点位置及び前記受光レンズ系の焦点位置を焦点とした仮想楕円(VE)を、前記測定対象物の候補位置として特定することと、
前記センシングデータに含まれる受光画素位置に基づき、前記候補位置から前記測定対象物の推定位置(Pd)を算出することと、
前記投光レンズ系の焦点位置から前記推定位置までの距離と、前記推定位置から前記受光レンズ系の焦点位置までの距離の和に基づいた距離情報を、前記補正距離情報として出力することと、を実行するように構成される請求項1に記載の処理装置。 The at least one processor
obtaining a measured optical path length based on a time of flight of the light beam;
Identifying a virtual ellipse (VE) having a size according to the measurement optical path length and having a focal position of the light projection lens system and a focal position of the light receiving lens system as a candidate position of the measurement object;
Calculating an estimated position (Pd) of the measurement target object from the candidate positions based on light receiving pixel positions included in the sensing data;
2. The processing device according to claim 1, configured to execute the steps of: outputting distance information based on a sum of a distance from a focal position of the light projection lens system to the estimated position and a distance from the estimated position to a focal position of the light receiving lens system as the corrected distance information.
前記光ビームの飛行時間に基づく測定光路長をLm、前記投光レンズ系の焦点位置から前記測定対象物までの距離をLt2、前記測定対象物から前記受光レンズ系の焦点位置までの距離をLr2、前記センシングデータに含まれる受光画素位置で受光される光線が前記受光レンズ系の光軸に対してなす角度をθr、前記光線が前記測定対象物に反射される前において前記投光レンズ系の光軸に対してなす角度をθt、前記投光レンズ系の焦点位置と前記受光レンズ系の焦点位置との距離をLbと、それぞれ定義すると、
前記少なくとも1つのプロセッサは、
Lm=Lt2+Lr2
Lt2・cosθt=Lr2・cosθr
Lt2・sinθt+Lr2・sinθr=Lb
の3つの連立方程式から、未知数であるLt2,Lr2,θtを算出することにより、前記補正距離情報を出力することを、実行するように構成される請求項1に記載の処理装置。 The optical axis (OAt) of the light projection lens system and the optical axis (OAr) of the light receiving lens system are arranged in parallel,
Define the measurement optical path length based on the flight time of the light beam as Lm, the distance from the focal position of the light projecting lens system to the measurement object as Lt2, the distance from the measurement object to the focal position of the light receiving lens system as Lr2, the angle that the light ray received at the light receiving pixel position included in the sensing data makes with the optical axis of the light receiving lens system as θr, the angle that the light ray makes with the optical axis of the light projecting lens system before being reflected by the measurement object as θt, and the distance between the focal position of the light projecting lens system and the focal position of the light receiving lens system as Lb,
The at least one processor
Lm=Lt2+Lr2
Lt2・cosθt=Lr2・cosθr
Lt2・sinθt+Lr2・sinθr=Lb
2. The processing device according to claim 1, wherein the processing device is configured to execute outputting the corrected distance information by calculating unknowns Lt2, Lr2, and θt from the three simultaneous equations above.
前記少なくとも1つのプロセッサは、
前記光ビームの飛行時間に基づく測定光路長を取得することと、
前記測定光路長に応じた大きさを備え、前記投光レンズ系の焦点位置及び前記受光レンズ系の焦点位置を焦点とした仮想楕円(VE)を、想定することと、
前記仮想楕円と、前記センシングデータに含まれる画素レベルの受光画素位置とに基づき、前記光ビームが前記投光レンズ系の光軸(OAt)に対してなす角度を特定することと、
前記角度に基づき、前記測定対象物によって反射された前記光ビームの前記発光位置を特定することと、
前記発光位置に個別に対応した分布波形を示す前記受光プロファイルと前記センシングデータとをマッチングし、前記受光素子上の受光強度が最大となる高精度受光位置を前記受光画素位置よりも高い精度で特定することと、
前記仮想楕円を、前記発光位置と前記高精度受光位置を焦点とした置換仮想楕円に置換した形態により、前記置換仮想楕円の候補位置から前記測定対象物の推定位置を算出することと、
前記発光位置から前記推定位置までの距離と、前記推定位置から前記高精度受光位置までの距離の和に基づいた距離情報を、前記測定対象物の距離情報として出力することと、を実行するように構成される請求項1に記載の処理装置。 The at least one storage medium further stores a light receiving profile indicating a detection result distribution waveform (WF) on the light receiving element individually corresponding to the light emitting position of the light source,
The at least one processor
obtaining a measured optical path length based on a time of flight of the light beam;
A virtual ellipse (VE) having a size according to the measurement optical path length and having a focal position of the light projection lens system and a focal position of the light receiving lens system as focal points is assumed;
determining an angle that the light beam makes with respect to an optical axis (OAt) of the projection lens system based on the virtual ellipse and a light receiving pixel position at a pixel level included in the sensing data;
determining the emission position of the light beam reflected by the measurement object based on the angle;
Matching the light receiving profile, which indicates a distribution waveform that individually corresponds to the light emitting position, with the sensing data, and identifying a high-precision light receiving position where the light receiving intensity on the light receiving element is maximized with a higher accuracy than the light receiving pixel position;
calculating an estimated position of the measurement target object from candidate positions of the replaced virtual ellipse in a form in which the virtual ellipse is replaced with a replaced virtual ellipse having the light emission position and the high-precision light receiving position as focal points;
2. The processing device according to claim 1, configured to execute the steps of: outputting distance information based on the sum of the distance from the light emission position to the estimated position and the distance from the estimated position to the high-precision light receiving position as distance information of the object to be measured.
前記投光レンズ系の光軸(OAt)と前記受光レンズ系の光軸(OAr)とは、平行に配置されており、
前記光ビームの飛行時間に基づく測定光路長をLm、前記投光レンズ系の焦点位置から前記測定対象物までの距離をLt2、前記測定対象物から前記受光レンズ系の焦点位置までの距離をLr2、前記センシングデータに含まれる受光画素位置で受光される光線が前記受光レンズ系の光軸に対してなす角度をθr、前記光線が前記測定対象物に反射される前において前記投光レンズ系の光軸に対してなす角度をθt、前記投光レンズ系の焦点位置と前記受光レンズ系の焦点位置との距離をLbと、それぞれ定義すると、
前記少なくとも1つのプロセッサは、
Lm=Lt2+Lr2
Lt2・cosθt=Lr2・cosθr
Lt2・sinθt+Lr2・sinθr=Lb
の3つの連立方程式から、未知数であるLt2,Lr2,θtを算出することと、
θtを用いて前記測定対象物によって反射された前記光ビームの前記発光位置を特定することと、
前記発光位置に個別に対応した分布波形を示す前記受光プロファイルと前記センシングデータとをマッチングし、前記受光素子上の受光強度が最大となる高精度受光位置を前記受光画素位置よりも高い精度で特定することと、
前記3つの連立方程式におけるLbを、前記発光位置と前記高精度受光位置との距離Lbdに置換した上で、未知数であるLt2,Lr2,θtを再度算出することにより、前記補正距離情報を出力することを、実行するように構成される請求項1に記載の処理装置。 The at least one storage medium further stores a light receiving profile indicating a detection result distribution waveform (WF) on the light receiving element individually corresponding to the light emitting position of the light source,
The optical axis (OAt) of the light projection lens system and the optical axis (OAr) of the light receiving lens system are arranged in parallel,
Define the measurement optical path length based on the flight time of the light beam as Lm, the distance from the focal position of the light projecting lens system to the measurement object as Lt2, the distance from the measurement object to the focal position of the light receiving lens system as Lr2, the angle that the light ray received at the light receiving pixel position included in the sensing data makes with the optical axis of the light receiving lens system as θr, the angle that the light ray makes with the optical axis of the light projecting lens system before being reflected by the measurement object as θt, and the distance between the focal position of the light projecting lens system and the focal position of the light receiving lens system as Lb,
The at least one processor
Lm=Lt2+Lr2
Lt2・cosθt=Lr2・cosθr
Lt2・sinθt+Lr2・sinθr=Lb
Calculating the unknowns Lt2, Lr2, and θt from the three simultaneous equations above;
Identifying the emission position of the light beam reflected by the measurement object using θt;
Matching the light receiving profile, which indicates a distribution waveform that individually corresponds to the light emitting position, with the sensing data, and identifying a high-precision light receiving position where the light receiving intensity on the light receiving element is maximized with a higher accuracy than the light receiving pixel position;
The processing device according to claim 1, configured to output the corrected distance information by replacing Lb in the three simultaneous equations with the distance Lbd between the light-emitting position and the high-precision light-receiving position, and then recalculating the unknowns Lt2, Lr2, and θt.
前記センシングデータを取得することと、
前記投光レンズ系の焦点位置(Ptf)と、前記受光レンズ系の焦点位置(Prf)とを、記憶媒体(3a)から取得することと、
前記光ビームの光路について、前記投光レンズ系の焦点位置を起点とし、前記受光レンズ系の焦点位置を終点とする近似を実行することと、
前記近似に基づいて、前記投光ユニットと前記受光ユニットとの位置のずれに起因した前記測定対象物の距離誤差を補正し、補正距離情報を、前記光学センサから前記測定対象物までの距離情報として出力することと、を含む方法。 A method for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31), the method being executed by at least one processor, the method comprising:
acquiring the sensing data;
Obtaining a focal position (Ptf) of the light projection lens system and a focal position (Prf) of the light receiving lens system from a storage medium (3a);
approximating an optical path of the light beam from a focal position of the light projection lens system as a starting point to a focal position of the light receiving lens system as an end point;
correcting a distance error of the object to be measured caused by a misalignment between the light-projecting unit and the light-receiving unit based on the approximation, and outputting corrected distance information as distance information from the optical sensor to the object to be measured.
少なくとも1つのプロセッサに、
前記センシングデータを取得することと、
前記投光レンズ系の焦点位置(Ptf)と、前記受光レンズ系の焦点位置(Prf)とを、記憶媒体(3a)から取得することと、
前記光ビームの光路について、前記投光レンズ系の焦点位置を起点とし、前記受光レンズ系の焦点位置を終点とする近似を実行することと、
前記近似に基づいて、前記投光ユニットと前記受光ユニットとの位置のずれに起因した前記測定対象物の距離誤差を補正し、補正距離情報を、前記光学センサから前記測定対象物までの距離情報として出力することと、を実行させるように構成されるプログラム。 A program for processing sensing data of an optical sensor (2) including a light projection unit (10) that projects a light beam from a light source (11) through a light projection lens system (12) toward a measurement area (MA), and a light receiving unit (30) that is disposed at a position offset from the light projection unit and receives the light beam reflected by a measurement object (OBJ) in the measurement area with a light receiving element (32) through a light receiving lens system (31),
At least one processor,
acquiring the sensing data;
Obtaining a focal position (Ptf) of the light projection lens system and a focal position (Prf) of the light receiving lens system from a storage medium (3a);
approximating an optical path of the light beam from a focal position of the light projection lens system as a starting point to a focal position of the light receiving lens system as an end point;
based on the approximation, correcting a distance error of the object to be measured caused by a misalignment between the light-projecting unit and the light-receiving unit, and outputting the corrected distance information as distance information from the optical sensor to the object to be measured.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023029184A JP2024121933A (en) | 2023-02-28 | 2023-02-28 | Processing device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023029184A JP2024121933A (en) | 2023-02-28 | 2023-02-28 | Processing device, method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024121933A true JP2024121933A (en) | 2024-09-09 |
Family
ID=92673062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023029184A Pending JP2024121933A (en) | 2023-02-28 | 2023-02-28 | Processing device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024121933A (en) |
-
2023
- 2023-02-28 JP JP2023029184A patent/JP2024121933A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11977156B2 (en) | Optical distance measuring device | |
US9046599B2 (en) | Object detection apparatus and method | |
US11723762B2 (en) | LIDAR based 3-D imaging with far-field illumination overlap | |
US10082564B2 (en) | Object detection device, sensing device, movable body device, and object detection method | |
US9891432B2 (en) | Object detection device and sensing apparatus | |
US20200142070A1 (en) | Multiple Pixel Scanning LIDAR | |
EP3165946B1 (en) | Object detector, sensor, and movable device | |
US9207074B2 (en) | Distance measurement apparatus, and distance measurement method | |
US9981604B2 (en) | Object detector and sensing apparatus | |
US10859681B2 (en) | Circuit device, object detecting device, sensing device, mobile object device and object detecting device | |
US20230108583A1 (en) | Distance measurement device | |
US20220364849A1 (en) | Multi-sensor depth mapping | |
US20230273322A1 (en) | Lidar device and method for calculating distance to object | |
JP2024121933A (en) | Processing device, method and program | |
US20220187429A1 (en) | Optical ranging device | |
JP2023020552A (en) | Surveying device | |
US20230084957A1 (en) | Optical distance measurement device | |
WO2021172070A1 (en) | Optical detection device and method for determining optical axis offset in optical detection device | |
WO2024106214A1 (en) | Object detection device and object detection method | |
JP2008180646A (en) | Shape measuring device and shape measuring technique | |
US20240067094A1 (en) | Gating camera, vehicle sensing system, and vehicle lamp | |
JP7574782B2 (en) | Control device, control method, and control program | |
US20220035039A1 (en) | Tof camera | |
JP2021135292A (en) | Optical detector and method for determining displacement of optical axis in optical detector | |
JP2023048113A (en) | Control device, control method, and control program |