JP6826023B2 - 点群から対象を特定する対象識別装置、プログラム及び方法 - Google Patents
点群から対象を特定する対象識別装置、プログラム及び方法 Download PDFInfo
- Publication number
- JP6826023B2 JP6826023B2 JP2017238396A JP2017238396A JP6826023B2 JP 6826023 B2 JP6826023 B2 JP 6826023B2 JP 2017238396 A JP2017238396 A JP 2017238396A JP 2017238396 A JP2017238396 A JP 2017238396A JP 6826023 B2 JP6826023 B2 JP 6826023B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- point cloud
- target
- distance image
- point data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分する点群区分手段と、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成する距離画像生成手段と、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定する対象特定手段と
を有する対象識別装置が提供される。
点群区分手段は、グラウンド除去手段によって処理された当該点群を、対象点群に分類することも好ましい。
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分する点群区分手段と、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成する距離画像生成手段と、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定する対象特定手段と
としてコンピュータを機能させる対象識別プログラムが提供される。
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分するステップと、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成するステップと、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定するステップと
を有する対象識別方法が提供される。
(a)道路を走行する自動車等の移動体に設置されたLiDAR2と、
(b)有線(ケーブル等)又は無線(無線LAN、近距離無線通信、無線系事業者アクセスネットワーク等)を介してLiDAR2と通信接続された対象識別装置1と
を含んでいる。
(A)取得された「ポイントクラウド」を、ポイント(点データ)間の距離に基づいて、互いに隣接したポイントの集合である「対象ポイントクラウド」(対象点群)に区分するポイントクラウド(点群)区分部112と、
(B)「対象ポイントクラウド」に含まれる対象ポイント(対象点データ)が投影された「距離画像」であって、投影された位置に、少なくともLiDAR2のセンサ位置との距離の単調増加関数となるサイズを有する「面パッチ」を設定し、「面パッチ」内の画素値を、「面パッチ」に係る対象ポイントと(当該距離画像」と)の距離に基づいて決定した「距離画像」を生成する距離画像生成部113と、
(C)生成された「距離画像」に含まれている対象を、所定の識別器を用いて特定する対象特定部115と
を有している。
グラウンド除去部111は、入力したポイントクラウドから所定の平滑条件を満たす平滑ポイントクラウドを抽出して、この平滑ポイントクラウドから鉛直方向に垂直な面を構成するグラウンド・ポイントクラウドを抽出し、(a)平滑ポイントクラウドのうちでグラウンド・ポイントクラウドの近傍となるポイントクラウド部分と、(b)グラウンド点群とを、入力したポイントクラウドから除去する。
(ア)最初に、入力したポイントクラウドから、公知である所定の平滑条件を満たさないポイントクラウド・セグメントを一度除外する。この時点で、ポイントクラウドには、「グラウンド」と、「グラウンドと連続する(坂や歩道等の)平滑オブジェクト」と、「平滑な物体」とが含まれている。
(イ)次いで、RANSAC(RANdom SAmple Consensus)法を用い、上記(ア)で残ったポイントクラウドにおいて、鉛直方向(z軸方向)に垂直な面を構成する「グラウンド」を検出する。
(エ)最後に、入力したポイントクラウドから、上記(ウ)で残ったポイントクラウド・セグメントを除去する。
同じく図1において、ポイントクラウド区分部112は、グラウンド除去部111でグラウンド除去処理の施されたポイントクラウドを、ポイント(データ)間の距離に基づいて、互いに隣接したポイント(データ)の集合である対象ポイントクラウドに区分する。
以下、対象識別装置1の主要部である距離画像生成部113(図1)において実施される投影面生成・面パッチ設定処理の一実施形態を説明する。
(a)当該対象ポイントクラウドに含まれるポイントのうちで、LiDAR2のセンサ位置s(xs, ys, zs)に最も近い対象ポイント(対象点データ)である基準ポイント(基準点データ)P0(x0, y0, z0)と、LiDAR2のセンサ位置sとを含む鉛直面に垂直であり、かつ
(b)この基準ポイントP0を含む
鉛直面(z軸を含む面)を、投影面PSに設定する。すなわち、対象ポイントクラウドの基準ポイントP0に応じて投影面PSを生成するのである。
(a)LiDAR2のセンサ位置sと投影面PSとの距離r0と、
(b)LiDAR2の(出力したポイントクラウドに係る)分解能(角分解能α及びβ)と
について単調増加関数となるサイズを有する面パッチSPを設定する。
(1) dn=Rn*cosθn−r0
を用い、画素値gnに係る距離dnを、より少ない計算量で導出することができる。
(2) r0=((x0−xs)2+(y0−ys)2)0.5
によっても算出可能である。
(3) in=Rn*sinθn
(4) jn=zn
を用いて決定することができる。
(5) Ww=r0*tanβ
(6) Wh=r0*tanα
をもって規定した面パッチSPが準備されるのである。ここで、上式(5)のβは、LiDAR2の水平方向(xy面内方向での)での角分解能であり、上式(6)のαは、LiDAR2の垂直方向(z軸方向での)での角分解能である。
(a)距離画像の全画素値を所定範囲内の値に規格化して、後の対象分類用の識別器に入力するのに適した形に調整した上で、
(b)例えばガウシアンフィルタ(Gaussian filter)を用いて、画素値分布を平滑にし、さらにノイズを低減させる
ことも好ましい。
(a)本発明に係る、距離・分解能に応じたサイズを有する面パッチSPを適用して生成した、(自動車、走行している人物、及び立っている人物の)距離画像の実施例と、
(b)従来の固定サイズ(2(ピクセル)×2(ピクセル),5×5,10×10,15×15,20×20)を有する面パッチを用いて生成した(自動車、走行している人物、及び立っている人物の)距離画像の比較例と
が示されている。
(S102)対象ポイントクラウドのうち、LiDAR2のセンサ位置に最も近いポイントを基準ポイントに設定する。
(S103)設定した基準ポイントとLiDAR2のセンサ位置とを含む鉛直面に垂直な鉛直面であって、基準ポイントを含む鉛直面を、投影面PSとして設定する。
(S105)各対象ポイントと投影面PSとの距離を算出する。
(S106)算出された距離値を面パッチSP内画素の画素値に決定し、距離画像を生成する。
(S107)距離画像の画素値を所定範囲内の値に規格化する。
(S108)画素値の規格化された距離画像に対し、平滑処理を実施する。
次に、以上のような処理によって生成・調整された距離画像を用い、当該距離画像に含まれた対象を識別・特定する処理の一実施形態を説明する。
101 入出力インタフェース
102 ポイントクラウド蓄積部
103 対象ポイントクラウド蓄積部
104 距離画像蓄積部
105 対象情報記憶部
106 キーボード・ディスプレイ(KB・DP)
111 グラウンド除去部
112 ポイントクラウド区分部
113 距離画像生成部
113a 投影面生成部
113b パッチ設定部
114 平滑処理部
115 対象特定部
121 入出力制御部
131 アプリケーション・プログラム(AP)
2 LiDAR
Claims (9)
- 測距センサによって取得された、対象の情報を含み得る点群から、当該対象を識別する対象識別装置であって、
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分する点群区分手段と、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と前記測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成する距離画像生成手段と、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定する対象特定手段と
を有することを特徴とする対象識別装置。 - 前記距離画像生成手段は、当該対象点群のうちで前記測距センサに最も近い対象点データである基準点データと前記測距センサとを含む鉛直面に垂直な鉛直面であって、当該基準点データを含む鉛直面である当該投影面に、当該距離画像を生成することを特徴とする請求項1に記載の対象識別装置。
- 前記距離画像生成手段は、当該投影面と前記測距センサとの距離と、前記測距センサに係る分解能とについて単調増加関数となるサイズを有する面パッチを設定することを特徴とする請求項1又は2に記載の対象識別装置。
- 前記距離画像生成手段は、当該面パッチに係る対象点データと当該投影面との距離を、当該対象点データにおける前記測距センサからの距離及び方向に係る情報に基づいて算出することを特徴とする請求項1から3のいずれか1項に記載の対象識別装置。
- 当該点群から所定の平滑条件を満たす平滑点群を抽出して、当該平滑点群から鉛直方向に垂直な面を構成するグラウンド点群を抽出し、当該平滑点群のうちで当該グラウンド点群の近傍となる点群部分と、当該グラウンド点群とを、当該点群から除去するグラウンド除去手段を更に有し、
前記点群区分手段は、前記グラウンド除去手段によって処理された当該点群を、対象点群に分類する
ことを特徴とする請求項1から4のいずれか1項に記載の対象識別装置。 - 生成された当該距離画像の画素値に対して平滑処理を行う平滑処理手段を更に有し、
前記対象特定手段は、平滑処理後の当該距離画像に含まれた対象を特定する
ことを特徴とする請求項1から5のいずれか1項に記載の対象識別装置。 - 前記測距センサは、LiDAR(Light Detection and Ranging)デバイスであることを特徴とする請求項1から6のいずれか1項に記載の対象識別装置。
- 測距センサによって取得された、対象の情報を含み得る点群から、当該対象を識別する装置に搭載されたコンピュータを機能させるプログラムであって、
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分する点群区分手段と、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と前記測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成する距離画像生成手段と、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定する対象特定手段と
としてコンピュータを機能させることを特徴とする対象識別プログラム。 - 測距センサによって取得された、対象の情報を含み得る点群から、当該対象を識別する装置に搭載されたコンピュータにおける対象識別方法であって、
当該点群を、点データ間の距離に基づいて、互いに隣接した点データの集合である対象点群に区分するステップと、
当該対象点群に含まれる対象点データが投影された投影面に生成される距離画像であって、投影された位置に、少なくとも当該投影面と前記測距センサとの距離の単調増加関数となるサイズを有する面パッチを設定し、当該面パッチ内の画素値を、当該面パッチに係る対象点データと当該投影面との距離に基づいて決定した距離画像を生成するステップと、
生成された当該距離画像に含まれている対象を、所定の識別器を用いて特定するステップと
を有することを特徴とする対象識別方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017238396A JP6826023B2 (ja) | 2017-12-13 | 2017-12-13 | 点群から対象を特定する対象識別装置、プログラム及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017238396A JP6826023B2 (ja) | 2017-12-13 | 2017-12-13 | 点群から対象を特定する対象識別装置、プログラム及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019106034A JP2019106034A (ja) | 2019-06-27 |
JP6826023B2 true JP6826023B2 (ja) | 2021-02-03 |
Family
ID=67061375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017238396A Active JP6826023B2 (ja) | 2017-12-13 | 2017-12-13 | 点群から対象を特定する対象識別装置、プログラム及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6826023B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110488261B (zh) * | 2019-08-23 | 2023-05-26 | 南京理工大学 | 一种基于LiDAR的货架定位孔检测装置及方法 |
US11100702B2 (en) * | 2019-12-27 | 2021-08-24 | Industrial Technology Research Institute | 3D image labeling method based on labeling information of 2D image and 3D image labeling device |
CN111353409B (zh) * | 2020-02-25 | 2023-05-02 | 达闼机器人股份有限公司 | 容器识别方法、装置和机器人 |
WO2022104254A1 (en) | 2020-11-16 | 2022-05-19 | Waymo Llc | Efficient three-dimensional object detection from point clouds |
KR102517093B1 (ko) * | 2020-12-09 | 2023-04-04 | 주식회사 씨에스아이비젼 | 딥 러닝을 이용한 3d 지형 정보 분석기 |
JPWO2022196511A1 (ja) * | 2021-03-16 | 2022-09-22 | ||
CN114384492B (zh) * | 2022-03-24 | 2022-06-24 | 北京一径科技有限公司 | 用于激光雷达的点云处理方法及装置、存储介质 |
WO2024190436A1 (ja) * | 2023-03-16 | 2024-09-19 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9396545B2 (en) * | 2010-06-10 | 2016-07-19 | Autodesk, Inc. | Segmentation of ground-based laser scanning points from urban environment |
JP6064674B2 (ja) * | 2013-02-28 | 2017-01-25 | 株式会社デンソー | 物体認識装置 |
JP6625446B2 (ja) * | 2016-03-02 | 2019-12-25 | 株式会社神戸製鋼所 | 外乱除去装置 |
JP6736931B2 (ja) * | 2016-03-24 | 2020-08-05 | 日産自動車株式会社 | 立体物検出方法及び立体物検出装置 |
-
2017
- 2017-12-13 JP JP2017238396A patent/JP6826023B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019106034A (ja) | 2019-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6826023B2 (ja) | 点群から対象を特定する対象識別装置、プログラム及び方法 | |
US11915502B2 (en) | Systems and methods for depth map sampling | |
Chen et al. | Gaussian-process-based real-time ground segmentation for autonomous land vehicles | |
KR102109941B1 (ko) | 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치 | |
CN110163904B (zh) | 对象标注方法、移动控制方法、装置、设备及存储介质 | |
US10210286B1 (en) | Systems and methods for detecting curbs in three-dimensional point clouds descriptive of streets | |
Yao et al. | Extraction and motion estimation of vehicles in single-pass airborne LiDAR data towards urban traffic analysis | |
JP6906471B2 (ja) | 点群から対象の向きを推定する対象情報推定装置、プログラム及び方法 | |
US20180232900A1 (en) | Remote determination of containers in geographical region | |
Ma et al. | Capsule-based networks for road marking extraction and classification from mobile LiDAR point clouds | |
JP2014512591A (ja) | 画像処理 | |
Ding et al. | Fast lane detection based on bird’s eye view and improved random sample consensus algorithm | |
US11610409B2 (en) | Systems and methods for computer-based labeling of sensor data captured by a vehicle | |
KR101548639B1 (ko) | 감시 카메라 시스템의 객체 추적장치 및 그 방법 | |
WO2020127151A1 (en) | Method for improved object detection | |
KR20230026130A (ko) | 자율 주행을 위한 단일 계층 3차원 다중 객체 검출 장치 및 방법 | |
CN111382637A (zh) | 行人检测跟踪方法、装置、终端设备及介质 | |
Nagy et al. | ChangeGAN: A deep network for change detection in coarsely registered point clouds | |
KR102619326B1 (ko) | 이미지 피라미드를 이용한 차량 인식 장치 및 방법 | |
KR102270827B1 (ko) | 360도 주변 물체 검출 및 인식 작업을 위한 다중 센서 데이터 기반의 융합 정보 생성 방법 및 장치 | |
Qing et al. | A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation | |
Dimitrievski et al. | Semantically aware multilateral filter for depth upsampling in automotive lidar point clouds | |
Henry et al. | Lane Detection and Distance Estimation Using Computer Vision Techniques | |
Liang et al. | Deep fusion of heterogeneous sensor modalities for the advancements of ADAS to autonomous vehicles | |
Kadhim et al. | Detect Lane Line for Self-Driving Car Using Hue Saturation Lightness and Hue Saturation Value Color Transformation. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191124 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201221 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6826023 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |