Nothing Special   »   [go: up one dir, main page]

JP2021021967A - Recognition system, vehicle control system, recognition method, and program - Google Patents

Recognition system, vehicle control system, recognition method, and program Download PDF

Info

Publication number
JP2021021967A
JP2021021967A JP2019136089A JP2019136089A JP2021021967A JP 2021021967 A JP2021021967 A JP 2021021967A JP 2019136089 A JP2019136089 A JP 2019136089A JP 2019136089 A JP2019136089 A JP 2019136089A JP 2021021967 A JP2021021967 A JP 2021021967A
Authority
JP
Japan
Prior art keywords
vehicle
road surface
unit
detection result
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019136089A
Other languages
Japanese (ja)
Other versions
JP7165630B2 (en
Inventor
亦楊 李
Yiyang Li
亦楊 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019136089A priority Critical patent/JP7165630B2/en
Priority to CN202010707780.9A priority patent/CN112286178B/en
Publication of JP2021021967A publication Critical patent/JP2021021967A/en
Application granted granted Critical
Publication of JP7165630B2 publication Critical patent/JP7165630B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a recognition system, vehicle control system, recognition method, and program capable of further accurately specify a road surface.SOLUTION: The recognition system is loaded on a vehicle and includes a detection unit which detects object around the vehicle, and a specification unit which specifies a road surface around the vehicle on the basis of the detection result of the detection unit. The specification unit determines whether each of individual regions obtained by segmenting the detection result of the detection unit is flat or not by using a prescribed algorithm, and specifies the road surface around the vehicle by combining the determination result for each of the individual regions.SELECTED DRAWING: Figure 2

Description

本発明は、認識システム、車両制御システム、認識方法、およびプログラムに関する。 The present invention relates to recognition systems, vehicle control systems, recognition methods, and programs.

従来、道路形状を認識する道路形状認識部と、認識された道路形状を用いて走行経路を作成する走行経路作成部と、走行経路に従って自動走行を実現させる車両走行制御装置とを備え、道路形状認識部は、平面座標と高さ情報とを対応付けた複数の座標情報を取得する座標情報取得部と、複数の前記座標情報の中から高低差が所定値以上である複数の注目座標を抽出する座標抽出部と、抽出された複数の注目座標を統計的に処理することにより道路形状を特定する形状特定部とを具備する自動走行車両の発明が開示されている(特許文献1)。 Conventionally, a road shape recognition unit that recognizes a road shape, a travel route creation unit that creates a travel route using the recognized road shape, and a vehicle travel control device that realizes automatic travel according to the travel route are provided. The recognition unit extracts a coordinate information acquisition unit that acquires a plurality of coordinate information in which plane coordinates and height information are associated with each other, and a plurality of attention coordinates having a height difference of a predetermined value or more from the plurality of the coordinate information. The invention of an automatic traveling vehicle including a coordinate extracting unit for specifying a road shape and a shape specifying unit for specifying a road shape by statistically processing a plurality of extracted coordinates of interest is disclosed (Patent Document 1).

特開2010−250743号公報JP-A-2010-250743

従来の技術では、高低差が所定値以上である部分を例えば路肩や溝と認識し、そうでない部分を道路面として認識している。しかしながら、この手法では、道路面自体の湾曲によって道路面の一部を道路面と認識しなかったり、所定値を大きくすることでサイズの小さい障害物を看過してしまったりする場合があった。 In the conventional technique, a portion where the height difference is equal to or more than a predetermined value is recognized as, for example, a road shoulder or a groove, and a portion where the height difference is not is recognized as a road surface. However, in this method, there are cases where a part of the road surface is not recognized as a road surface due to the curvature of the road surface itself, or an obstacle having a small size is overlooked by increasing a predetermined value.

本発明は、このような事情を考慮してなされたものであり、より正確に道路面を特定することができる認識システム、車両制御システム、認識方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and one of the objects of the present invention is to provide a recognition system, a vehicle control system, a recognition method, and a program capable of more accurately identifying a road surface. To do.

この発明に係る認識システム、車両制御システム、認識方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る認識システムは、車両に搭載される認識システムであって、前記車両の周辺に存在する物体の位置を検出する検出部と、前記検出部の検出結果に基づいて、前記車両の周辺における道路面を特定する特定部と、を備え、前記特定部は、前記検出部の検出結果を二次元平面上で細分化した個別領域ごとに所定のアルゴリズムを用いて平面であるか否かを判定し、前記個別領域ごとの判定結果を集約して前記車両の周辺における道路面を特定するものである。
The recognition system, vehicle control system, recognition method, and program according to the present invention have the following configurations.
(1): The recognition system according to one aspect of the present invention is a recognition system mounted on a vehicle, and is based on a detection unit that detects the position of an object existing in the vicinity of the vehicle and a detection result of the detection unit. Based on this, a specific unit that specifies the road surface around the vehicle is provided, and the specific unit uses a predetermined algorithm for each individual region that subdivides the detection result of the detection unit on a two-dimensional plane. It determines whether or not it is a flat surface, aggregates the determination results for each individual region, and specifies the road surface around the vehicle.

(2):上記(1)の態様において、前記検出部がライダーであるものである。 (2): In the aspect of (1) above, the detection unit is a rider.

(3):上記(2)の態様において、前記検出部は、仰角または俯角と方位角を変えながらレーザーを前記車両の周辺に照射するものであり、前記特定部は、仰角または俯角、方位角、および距離で少なくとも表される物体の位置を二次元平面に射影したポイントクラウドデータを細分化した個別領域ごとに、前記所定のアルゴリズムを用いて平面であるか否かを判定するものである。 (3): In the aspect of (2) above, the detection unit irradiates the periphery of the vehicle with a laser while changing the elevation angle or depression angle and the azimuth angle, and the specific unit is the elevation angle or depression angle and azimuth angle. , And the point cloud data in which the position of an object represented by at least a distance is projected onto a two-dimensional plane is subdivided into individual regions, and whether or not the data is a plane is determined by using the predetermined algorithm.

(4):上記(1)から(3)のいずれかの態様において、前記特定部は、前記二次元平面における前記車両からの距離に基づいて、前記個別領域のサイズを異ならせるものである。 (4): In any of the above aspects (1) to (3), the specific portion makes the size of the individual region different based on the distance from the vehicle in the two-dimensional plane.

(5):上記(1)から(4)のいずれかの態様において、前記特定部は、前記車両の周辺における物体の分布を示す情報を取得し、前記取得した物体の分布を示す情報に基づいて、前記個別領域のサイズを変更するものである。 (5): In any of the above aspects (1) to (4), the specific unit acquires information indicating the distribution of objects in the vicinity of the vehicle, and is based on the information indicating the distribution of the acquired objects. Therefore, the size of the individual area is changed.

(6):上記(1)から(5)のいずれかの態様において、前記特定部は、前記車両が存在する道路の種別に関する情報を取得し、前記取得した道路の種別に関する情報が特定の種別の道路を示す場合、前記取得した道路の種別に関する情報が特定の種別の道路を示さない場合に比して、前記個別領域のサイズを大きくするものである。 (6): In any of the above aspects (1) to (5), the specific unit acquires information on the type of road on which the vehicle exists, and the information on the acquired road type is the specific type. In the case of indicating the road of the above, the size of the individual area is increased as compared with the case where the information regarding the acquired road type does not indicate the road of a specific type.

(7):上記(1)から(6)のいずれかの態様の認識システムと、前記認識システムにおける前記検出部の検出結果から、前記特定部により特定された道路面に相当する部分を除外した情報に基づいて、前記車両の走行制御を行う走行制御装置と、を備える車両制御システムである。 (7): From the recognition system according to any one of (1) to (6) above and the detection result of the detection unit in the recognition system, the portion corresponding to the road surface specified by the specific unit is excluded. It is a vehicle control system including a travel control device that controls travel of the vehicle based on information.

(8):本発明の他の態様に係る認識方法は、車両に搭載されたコンピュータが、車両の周辺に存在する物体の位置を検出する検出部の検出結果を取得し、前記検出結果に基づいて、前記車両の周辺における道路面を特定し、前記特定する際に、前記検出結果を二次元平面上で細分化した個別領域ごとに所定のアルゴリズムを用いて平面であるか否かを判定し、前記個別領域ごとの判定結果を集約して前記車両の周辺における道路面を特定するものである。 (8): In the recognition method according to another aspect of the present invention, a computer mounted on the vehicle acquires a detection result of a detection unit that detects the position of an object existing in the vicinity of the vehicle, and is based on the detection result. Then, the road surface around the vehicle is specified, and when the specification is made, it is determined whether or not the detection result is a plane by using a predetermined algorithm for each individual region subdivided on the two-dimensional plane. , The determination result for each individual area is aggregated to specify the road surface around the vehicle.

(9):本発明の他の態様に係るプログラムは、車両に搭載されたコンピュータに、車両の周辺に存在する物体の位置を検出する検出部の検出結果を取得させ、前記検出結果に基づいて、前記車両の周辺における道路面を特定させ、前記特定させる際に、前記検出結果を二次元平面上で細分化した個別領域ごとに所定のアルゴリズムを用いて平面であるか否かを判定させ、前記個別領域ごとの判定結果を集約して前記車両の周辺における道路面を特定させるものである。 (9): The program according to another aspect of the present invention causes a computer mounted on the vehicle to acquire a detection result of a detection unit that detects the position of an object existing in the vicinity of the vehicle, and based on the detection result. , The road surface around the vehicle is specified, and when the specification is made, the detection result is determined for each individual region subdivided on a two-dimensional plane by using a predetermined algorithm to determine whether or not the detection result is a plane. The determination results for each individual area are aggregated to specify the road surface around the vehicle.

上記(1)〜(9)の態様によれば、より正確に道路面を特定することができる。 According to the above aspects (1) to (9), the road surface can be specified more accurately.

車両に認識システムおよび車両制御システムが搭載された様子を示す図である。It is a figure which shows the appearance that the recognition system and the vehicle control system are mounted on a vehicle. 物体認識装置の構成図である。It is a block diagram of the object recognition device. ポイントクラウドデータの一例を示す図である。It is a figure which shows an example of a point cloud data. 設定されるグリッドを示す図である。It is a figure which shows the grid to be set. 比較例の手法によって道路面と判定した部分の座標を除去したポイントクラウドデータを示す図である。It is a figure which shows the point cloud data which removed the coordinates of the part determined as a road surface by the method of a comparative example. 実施形態の手法によって道路面と判定した部分の座標を除去したポイントクラウドデータを示す図である。It is a figure which shows the point cloud data which removed the coordinates of the part determined as a road surface by the method of embodiment. 実施形態の手法によって道路面と判定した部分の座標を除去したポイントクラウドデータを示す図である。It is a figure which shows the point cloud data which removed the coordinates of the part determined as a road surface by the method of embodiment. 認識システムによって実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of processing executed by a recognition system.

以下、図面を参照し、本発明の認識システム、車両制御システム、認識方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the recognition system, vehicle control system, recognition method, and program of the present invention will be described with reference to the drawings.

図1は、車両Mに認識システムおよび車両制御システムが搭載された様子を示す図である。車両Mには、例えば、ライダー(Light Detection and Ranging:LIDAR)10(「検出部」の一例)と、カメラ20と、レーダ装置30と、物体認識装置50と、走行制御装置100とが搭載される。ライダー10と物体認識装置50を合わせたものが「認識システム」の一例であり、これに走行制御装置100を加えたものが「車両制御システム」の一例である。検出部として、ライダー以外の検出装置が用いられてもよい。 FIG. 1 is a diagram showing a state in which a recognition system and a vehicle control system are mounted on a vehicle M. The vehicle M is equipped with, for example, a lidar (Light Detection and Ranging: LIDAR) 10 (an example of a "detection unit"), a camera 20, a radar device 30, an object recognition device 50, and a travel control device 100. To. The combination of the rider 10 and the object recognition device 50 is an example of the "recognition system", and the addition of the travel control device 100 is an example of the "vehicle control system". A detection device other than the rider may be used as the detection unit.

ライダー10は、光を照射して反射光を検出し、照射から検出までの時間を測定することで物体までの距離を検出する。ライダー10は、光の照射方向を、仰角または俯角(以下、上下方向の照射方向φ)と、方位角(水平方向の照射方向θ)との双方について変更可能である。ライダー10は、例えば、照射方向φを固定して照射方向θを変えながらスキャンを行い、次いで上下方向の照射方向φを変更し、変更した角度で照射方向φを固定して照射方向θを変えながらスキャンを行う、という動作を繰り返し行う。以下、照射方向φのことを「レイヤ」と称し、レイヤを固定して照射方向θを変えながら行う一回のスキャンのことを「サイクル」と称し、全てのレイヤについてスキャンを行うことを「1スキャン」と称する。レイヤは、例えばL1〜Lnまで有限数で設定される(nは自然数)。レイヤの変更は、例えば、前回のサイクルで照射した光が今回のサイクルにおける検知に干渉しないように、L0→L4→L2→L5→L1…というように角度に関して不連続に行われる。なお、これに限らず、レイヤの変更が角度に関して連続的に行われても構わない。 The rider 10 irradiates light to detect reflected light, and detects the distance to an object by measuring the time from irradiation to detection. The rider 10 can change the light irradiation direction for both the elevation angle or the depression angle (hereinafter, the irradiation direction φ in the vertical direction) and the azimuth angle (the irradiation direction θ in the horizontal direction). For example, the rider 10 scans while fixing the irradiation direction φ and changing the irradiation direction θ, then changing the irradiation direction φ in the vertical direction, fixing the irradiation direction φ at the changed angle, and changing the irradiation direction θ. While scanning, the operation is repeated. Hereinafter, the irradiation direction φ is referred to as a “layer”, one scan performed while fixing the layer and changing the irradiation direction θ is referred to as a “cycle”, and scanning for all layers is referred to as “1”. Called "scan". The layers are set with a finite number from L1 to Ln, for example (n is a natural number). The layer change is performed discontinuously with respect to the angle, for example, L0 → L4 → L2 → L5 → L1 ... So that the light emitted in the previous cycle does not interfere with the detection in this cycle. Not limited to this, the layer may be changed continuously with respect to the angle.

ライダー10は、例えば、{φ,θ,d,p}を一つの単位とするデータセット(ライダーデータ)を物体認識装置50に出力する。dは距離であり、pは反射光の強度である。物体認識装置50は、車両Mにおける任意の箇所に設置される。図1では、ライダー10は車両Mのルーフ上に設置され、照射方向θを360度で変更可能なものとしているが、この配置はあくまで一例であり、例えば、車両Mの前部に設けられて車両Mの前方を中心に照射方向θを180度で変更可能なライダーと、車両Mの後部に設けられて車両Mの後方を中心に照射方向θを180度で変更可能なライダーとが車両Mに搭載されてもよい。 For example, the rider 10 outputs a data set (rider data) having {φ, θ, d, p} as one unit to the object recognition device 50. d is the distance and p is the intensity of the reflected light. The object recognition device 50 is installed at an arbitrary position in the vehicle M. In FIG. 1, the rider 10 is installed on the roof of the vehicle M, and the irradiation direction θ can be changed by 360 degrees. However, this arrangement is only an example, and is provided, for example, in the front part of the vehicle M. The rider whose irradiation direction θ can be changed by 180 degrees around the front of the vehicle M and the rider who is provided at the rear of the vehicle M and can change the irradiation direction θ by 180 degrees around the rear of the vehicle M are the vehicle M. It may be mounted on.

カメラ20は、車両Mの周辺(特に前方または後方)を撮像可能な任意の位置に設置される。例えば、カメラ20は、フロントウインドシールドの上部に設置される。カメラ20は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備えるデジタルカメラであり、所定周期で繰り返し車両Mの周辺を撮像する。 The camera 20 is installed at an arbitrary position capable of photographing the periphery (particularly forward or rear) of the vehicle M. For example, the camera 20 is installed above the front windshield. The camera 20 is a digital camera including an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and repeatedly images the periphery of the vehicle M at a predetermined cycle.

レーダ装置30は、車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置30は、車両Mの任意の箇所に取り付けられる。例えば、レーダ装置30は、車両Mのフロントグリルの内部に取り付けられる。 The radar device 30 radiates radio waves such as millimeter waves around the vehicle M, and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and orientation) of the object. The radar device 30 is attached to an arbitrary position on the vehicle M. For example, the radar device 30 is mounted inside the front grill of the vehicle M.

図2は、物体認識装置50の構成図である。物体認識装置50は、例えば、ライダーデータ処理部60と、カメラ画像処理部70と、レーダデータ処理部80と、センサフュージョン部90とを備える。ライダーデータ処理部60は、例えば、ポイントクラウドデータ生成部61と、情報取得部62と、道路面特定部63(「特定部」の一例)と、非道路面物体抽出部64と、道路区画線認識部65とを備える。道路面特定部63は、例えば、グリッド設定部63Aと、平面抽出処理部63Bとを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。 FIG. 2 is a configuration diagram of the object recognition device 50. The object recognition device 50 includes, for example, a rider data processing unit 60, a camera image processing unit 70, a radar data processing unit 80, and a sensor fusion unit 90. The rider data processing unit 60 includes, for example, a point cloud data generation unit 61, an information acquisition unit 62, a road surface identification unit 63 (an example of a “specification unit”), a non-road surface object extraction unit 64, and a road marking line. It includes a recognition unit 65. The road surface specifying unit 63 includes, for example, a grid setting unit 63A and a plane extraction processing unit 63B. These components are realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). Some or all of these components are hardware (circuit parts;) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit). It may be realized by (including circuits), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD (Hard Disk Drive) or a flash memory, or a removable storage device such as a DVD or a CD-ROM. It is stored in a medium (non-transient storage medium) and may be installed by mounting the storage medium in a drive device.

ポイントクラウドデータ生成部61は、ライダーデータに基づいて、ポイントクラウドデータを生成する。本実施形態におけるポイントクラウドデータは、ライダーデータから認識される物体の三次元空間上の位置を、上空から見た二次元平面上の位置に射影したものである。図3は、ポイントクラウドデータの一例を示す図である。ポイントクラウドデータを規定する二次元平面(図中、X軸とY軸で表される二次元平面)は、例えば、ライダー10から見た相対的な二次元平面である。図では現れていないが、ポイントクラウドデータの各座標には、高さの情報(X軸とY軸に直交する方向の変位)が付与されている。高さの情報は、座標間の連続性や散らばりと、レイヤ間の照射角度の差などに基づいて、ポイントクラウドデータ生成部61により計算される。 The point cloud data generation unit 61 generates point cloud data based on the rider data. The point cloud data in the present embodiment is a projection of the position of the object recognized from the rider data in the three-dimensional space onto the position on the two-dimensional plane seen from the sky. FIG. 3 is a diagram showing an example of point cloud data. The two-dimensional plane that defines the point cloud data (the two-dimensional plane represented by the X-axis and the Y-axis in the figure) is, for example, a relative two-dimensional plane seen from the rider 10. Although not shown in the figure, height information (displacement in the direction orthogonal to the X-axis and the Y-axis) is given to each coordinate of the point cloud data. The height information is calculated by the point cloud data generation unit 61 based on the continuity and scattering between the coordinates and the difference in the irradiation angle between the layers.

情報取得部62は、グリッド設定部63Aがグリッドを設定する際に利用する各種情報を取得する。 The information acquisition unit 62 acquires various information used when the grid setting unit 63A sets the grid.

例えば、情報取得部62は、車両Mの周辺における物体の分布を示す情報を取得する。車両Mの周辺における物体の分布とは、例えば、認識システムの認識可能範囲内における車両の数、歩行者の数、自転車の数、信号や横断歩道、交差点の数などのうち一部または全部を指標化した値(混雑指数)を取得する。混雑指数は、例えば、上記した要素が高密度に存在する程、高い値を示すものである。情報取得部62は、混雑指数を自ら計算してもよいし、カメラ画像処理部70やレーダデータ処理部80などから取得してもよい。 For example, the information acquisition unit 62 acquires information indicating the distribution of objects around the vehicle M. The distribution of objects around the vehicle M is, for example, a part or all of the number of vehicles, the number of pedestrians, the number of bicycles, the number of traffic lights and pedestrian crossings, the number of intersections, etc. within the recognizable range of the recognition system. Obtain the indexed value (congestion index). For example, the congestion index shows a higher value as the above-mentioned elements are present in a higher density. The information acquisition unit 62 may calculate the congestion index by itself, or may acquire it from the camera image processing unit 70, the radar data processing unit 80, or the like.

また、情報取得部62は、車両Mが存在する道路の種別に関する情報を取得してもよい。情報取得部62は、道路の種別に関する情報を、車両Mに搭載されたナビゲーション装置(不図示)から取得してもよいし、カメラ画像処理部70がカメラ画像から道路標識を認識した結果から導出してもよい。 In addition, the information acquisition unit 62 may acquire information regarding the type of road on which the vehicle M exists. The information acquisition unit 62 may acquire information on the type of road from a navigation device (not shown) mounted on the vehicle M, or derives information from the result of the camera image processing unit 70 recognizing a road sign from the camera image. You may.

道路面特定部63のグリッド設定部63Aは、ポイントクラウドデータを規定する二次元平面を分割した個別領域である複数のグリッドを仮想的に設定する。図4は、設定されるグリッドGを示す図である。グリッド設定部63Aは、例えば、グリッドGを矩形(正方形でも長方形でもよい)で設定する。グリッド設定部63Aは、同じサイズのグリッドGを設定してもよいし、二次元平面における車両Mからの距離に基づいて、グリッドGのサイズを異ならせてもよい。例えば、グリッド設定部63Aは、図示するように、車両Mから遠くなるほどグリッドGのサイズを大きくしてもよい。グリッド設定部63Aは、認識システムの過去の認識結果を参照することで得られる認識不要領域(例えば、ガードレールの向こう側、建物等の道路外領域)についてはグリッドGを設定しなくてもよい。グリッド設定部63Aは、三角形や六角形等の任意の多角形で(二以上の種類の多角形が含まれてもよい)グリッドGを設定してもよいし、不定形でグリッドGを設定してもよい。 The grid setting unit 63A of the road surface specifying unit 63 virtually sets a plurality of grids which are individual areas divided into two-dimensional planes that define point cloud data. FIG. 4 is a diagram showing the grid G to be set. The grid setting unit 63A sets, for example, the grid G as a rectangle (which may be square or rectangular). The grid setting unit 63A may set the grid G of the same size, or may make the size of the grid G different based on the distance from the vehicle M in the two-dimensional plane. For example, as shown in the figure, the grid setting unit 63A may increase the size of the grid G as the distance from the vehicle M increases. The grid setting unit 63A does not have to set the grid G for the recognition unnecessary area (for example, the other side of the guardrail, the area outside the road such as a building) obtained by referring to the past recognition result of the recognition system. The grid setting unit 63A may set the grid G with any polygon such as a triangle or a hexagon (which may include two or more types of polygons), or set the grid G with an indeterminate form. You may.

また、グリッド設定部63Aは、混雑指数に基づいてグリッドGのサイズを決定してもよい。例えば、グリッド設定部63Aは、混雑指数が高いほどグリッドGのサイズを小さくしてもよい。 Further, the grid setting unit 63A may determine the size of the grid G based on the congestion index. For example, the grid setting unit 63A may reduce the size of the grid G as the congestion index increases.

また、グリッド設定部63Aは、道路の種別に基づいてグリッドGのサイズを決定してもよい。例えば、グリッド設定部63Aは、道路の種別が高速道路や自動車専用道路などの車両以外の交通参加者が少ない特定の種別である場合、特定の種別でない場合に比して、グリッドGのサイズを大きくしてもよい。 Further, the grid setting unit 63A may determine the size of the grid G based on the type of road. For example, when the type of road is a specific type such as an expressway or a motorway where there are few traffic participants other than vehicles, the grid setting unit 63A determines the size of the grid G as compared with the case where it is not a specific type. It may be increased.

平面抽出処理部63Bは、グリッドGごとに、グリッドGに包含されるポイントクラウドデータに対して、RANSAC(Random Sample Consensus)などのロバスト推定手法による平面抽出処理を行い、そのグリッドGが道路面(上に物体が存在しないもの)であるか否かを判定して、判定結果をグリッドGのそれぞれに対応付ける。なお、平面抽出処理部63Bは、RANSACに代えて、他の種類の平面抽出処理を行ってもよい。 The plane extraction processing unit 63B performs plane extraction processing for each grid G on the point cloud data included in the grid G by a robust estimation method such as RANSAC (Random Sample Consensus), and the grid G is used as a road surface (Random Sample Consensus). It is determined whether or not there is an object on the top), and the determination result is associated with each of the grids G. The plane extraction processing unit 63B may perform another type of plane extraction processing instead of RANSAC.

RANSACは、例えば、以下の手順で行われる。まず、データ集合から、モデルの決定に必要な数以上の(全部ではない)サンプルをランダムに選択し、選択したサンプルから最小二乗法などで仮モデルを導出し、仮モデルをデータに当てはめてみて、外れ値がそれほど多くなければモデル候補に加える。この処理を何度か繰り返し実行し、最もデータ集合の全体に合致するモデル候補を正解モデルとする。本実施形態において、平面抽出処理部63Bは、正解モデルが平面となったグリッドGについて、道路面であると判定する。 RANSAC is performed, for example, by the following procedure. First, randomly select more (but not all) samples from the data set than necessary to determine the model, derive a tentative model from the selected samples by the least squares method, etc., and apply the tentative model to the data. , If there are not so many outliers, add them to the model candidates. This process is repeated several times, and the model candidate that best matches the entire data set is set as the correct model. In the present embodiment, the plane extraction processing unit 63B determines that the grid G whose correct model is a plane is a road surface.

非道路面物体抽出部64は、平面抽出処理部63Bにより道路面と判定されたグリッドG以外のグリッドGについて、ポイントクラウドデータを解析してグリッドGの上に存在する物体の輪郭を抽出し、輪郭に基づいて、その輪郭に対応する物体の位置を認識する。或いは、非道路面物体抽出部64は、ライダーデータのうち、平面抽出処理部63Bにより道路面と判定されたグリッドG以外のグリッドGに対応するデータに基づいて、物体の輪郭を抽出し、輪郭に基づいて、その輪郭に対応する物体の位置を認識してもよい。 The non-road surface object extraction unit 64 analyzes point cloud data for the grid G other than the grid G determined to be the road surface by the plane extraction processing unit 63B, and extracts the contour of the object existing on the grid G. Based on the contour, the position of the object corresponding to the contour is recognized. Alternatively, the non-road surface object extraction unit 64 extracts the contour of the object from the rider data based on the data corresponding to the grid G other than the grid G determined to be the road surface by the plane extraction processing unit 63B, and the contour is extracted. The position of the object corresponding to the contour may be recognized based on.

道路区画線認識部65は、ライダーデータにおける反射光の強度pに着目し、道路面と、白線や黄線等の道路区画線との色の違いから生じる強度pの変化率が高い部分を、道路区画線の輪郭と認識する。これによって、道路区画線認識部65は、白線等の道路区画線の位置を認識する。 The road marking line recognition unit 65 pays attention to the intensity p of the reflected light in the rider data, and determines the portion where the rate of change of the intensity p is high due to the difference in color between the road surface and the road marking line such as the white line and the yellow line. Recognized as the outline of the road lane marking. As a result, the road lane marking unit 65 recognizes the position of the road lane marking such as the white line.

非道路面物体抽出部64および道路区画線認識部65の処理結果は、センサフュージョン部90に出力される。センサフュージョン部90には、カメラ画像処理部70やレーダデータ処理部80の処理結果も入力される。 The processing results of the non-road surface object extraction unit 64 and the road lane marking unit 65 are output to the sensor fusion unit 90. The processing results of the camera image processing unit 70 and the radar data processing unit 80 are also input to the sensor fusion unit 90.

カメラ画像処理部70は、カメラ20から取得したカメラ画像に対して種々の画像処理を行い、車両Mの周辺に存在する物体の位置、サイズ、種類などを認識する。カメラ画像処理部70が行う画像処理は、機械学習によって得られた学習済みモデルにカメラ画像を入力する処理や、エッジ点を抽出してエッジ点を連ねた輪郭線から物体を認識する処理を含んでもよい。 The camera image processing unit 70 performs various image processing on the camera image acquired from the camera 20, and recognizes the position, size, type, and the like of an object existing around the vehicle M. The image processing performed by the camera image processing unit 70 includes a process of inputting a camera image into a trained model obtained by machine learning and a process of extracting edge points and recognizing an object from a contour line in which the edge points are connected. It may be.

レーダデータ処理部80は、レーダ装置30から取得したレーダデータに対して種々の物体抽出処理を行い、車両Mの周辺に存在する物体の位置、サイズ、種類などを認識する。レーダデータ処理部80は、例えば、物体からの反射波の強度に基づいて物体の材質を推定し、それによって物体の種類を推定する。 The radar data processing unit 80 performs various object extraction processes on the radar data acquired from the radar device 30, and recognizes the position, size, type, and the like of the objects existing around the vehicle M. The radar data processing unit 80 estimates the material of the object based on the intensity of the reflected wave from the object, for example, and thereby estimates the type of the object.

センサフュージョン部90は、ライダーデータ処理部60、カメラ画像処理部70、およびレーダデータ処理部80のそれぞれから入力された処理結果を統合し、物体や道路区画線の位置を決定して走行制御装置100に出力する。センサフュージョン部90の処理には、例えば、それぞれの処理結果に対して論理和、論理積、加重和等を求める処理が含まれてよい。 The sensor fusion unit 90 integrates the processing results input from each of the rider data processing unit 60, the camera image processing unit 70, and the radar data processing unit 80, determines the positions of objects and road marking lines, and is a travel control device. Output to 100. The process of the sensor fusion unit 90 may include, for example, a process of obtaining a logical sum, a logical product, a weighted sum, or the like for each process result.

上記のように処理を行うことで、認識システムは、より正確に道路面を特定することができる。図5は、比較例の手法によって道路面と判定した部分の座標を除去したポイントクラウドデータを示す図である。比較例の手法とは、ライダーデータの全体に対して(グリッドGに区分せずに)RANSACを適用し、道路面と判定された領域の座標を除去する手法である。図示するように、比較例の手法では、道路面に対応する領域A1、A2においても、多くの座標が残っている。特に領域A1は車両Mから見て登り坂になっており、データ全体に対してRANSACを適用した場合に道路面と認識されにくくなっている。また、一般的な道路構造は、道路の中央部が高く、端部に向かうにつれて低くなっているため、比較例の手法では、道路の中央部と端部の高低差によって道路面でないと判定してしまう可能性がある。更に、道路には細かい凹部などが存在するため、部分的に道路面でないと認識してしまう可能性がある。 By performing the processing as described above, the recognition system can identify the road surface more accurately. FIG. 5 is a diagram showing point cloud data in which the coordinates of the portion determined to be the road surface are removed by the method of the comparative example. The method of the comparative example is a method of applying RANSAC to the entire rider data (without dividing it into the grid G) and removing the coordinates of the region determined to be the road surface. As shown in the figure, in the method of the comparative example, many coordinates remain even in the regions A1 and A2 corresponding to the road surface. In particular, the area A1 is an uphill when viewed from the vehicle M, and it is difficult to recognize it as a road surface when RANSAC is applied to the entire data. In addition, in a general road structure, the central part of the road is high and becomes low toward the end, so in the method of the comparative example, it is judged that the road surface is not due to the height difference between the central part and the end of the road. There is a possibility that it will end up. Further, since the road has small recesses and the like, there is a possibility that the road surface may be partially recognized as not the road surface.

これに対し、図6および図7は、実施形態の手法によって道路面と判定した部分の座標を除去したポイントクラウドデータを示す図である。図6は、正方形であるグリッドGの一辺をX1とした場合の結果を示しており、図7は、正方形であるグリッドGの一片をX2とした場合の結果を示している(X1>X2)。これらの図に示すように、実施形態の手法によれば、道路面に対応する領域A1、A2において座標が多く除去されており、これによって、実際には存在しない物体を障害物と認識してしまう可能性が低減される。なお、グリッドGの一辺を小さくした方が(すなわちグリッドGのサイズを小さくした方が)道路面と判定する精度を向上させることができるが、グリッドGのサイズを小さくした方が処理負荷が高くなるため、これらはトレードオフの関係にある。この点、車両Mから遠くなるほどグリッドGのサイズを大きくすることで、誤認識があっても影響の小さい遠方に関しては低負荷で処理を行うことができ、認識精度と処理負荷とのバランスの良い処理を行うことができる。また、混雑指数が高いほどグリッドGのサイズを小さくすることで、市街地などの交通参加者が多い場所においては、認識精度を優先した処理を行い、そうでない場所では処理負荷の軽減を優先した処理を行うため、認識精度と処理負荷とのバランスの良い処理を行うことができる。また、道路の種別が特定の種別である場合、特定の種別でない場合に比して、グリッドGのサイズを大きくすることで、交通参加者が少ない場所においては処理負荷の軽減を優先した処理を行い、そうでない場所では認識精度を優先した処理を行うため、認識精度と処理負荷とのバランスの良い処理を行うことができる。 On the other hand, FIGS. 6 and 7 are diagrams showing point cloud data in which the coordinates of the portion determined to be the road surface are removed by the method of the embodiment. FIG. 6 shows the result when one side of the square grid G is X1, and FIG. 7 shows the result when one piece of the square grid G is X2 (X1> X2). .. As shown in these figures, according to the method of the embodiment, many coordinates are removed in the regions A1 and A2 corresponding to the road surface, whereby an object that does not actually exist is recognized as an obstacle. The possibility of getting rid of it is reduced. It should be noted that reducing one side of the grid G (that is, reducing the size of the grid G) can improve the accuracy of determining the road surface, but reducing the size of the grid G increases the processing load. Therefore, these are in a trade-off relationship. In this regard, by increasing the size of the grid G as it is farther from the vehicle M, it is possible to perform processing with a low load for a distant place where the influence is small even if there is a false recognition, and the recognition accuracy and the processing load are well balanced. Processing can be performed. In addition, by reducing the size of the grid G as the congestion index is higher, processing that prioritizes recognition accuracy is performed in places with many traffic participants such as urban areas, and processing that prioritizes reduction of processing load is performed in other places. Therefore, it is possible to perform processing with a good balance between recognition accuracy and processing load. In addition, when the road type is a specific type, by increasing the size of the grid G compared to the case where it is not a specific type, processing that prioritizes reduction of processing load is performed in places where there are few traffic participants. Since the processing is performed in a place where the recognition accuracy is prioritized, the processing with a good balance between the recognition accuracy and the processing load can be performed.

走行制御装置100は、例えば、車両Mの加減速と操舵の双方を制御する自動運転制御装置である。走行制御装置100は、物体認識装置50により出力された物体や白線等の位置に基づいて、設定された車線内を物体に接触しないように自動的に車両Mを走行させたり、必要に応じて車線変更、追い抜き、分岐、合流、停止などの自動制御を行う。これに代えて、走行制御装置100は、物体の接近時に自動停止を行う運転支援装置などであってもよい。このように、走行制御装置100は、非道路面物体抽出部64が、平面抽出処理部63Bにより道路面と判定されたグリッドG以外のグリッドGについて認識した物体の位置(特定された道路面に相当する部分を除外した情報)がセンサフュージョン部90を経て出力された情報に基づいて、車両Mの走行制御を行う。 The travel control device 100 is, for example, an automatic driving control device that controls both acceleration / deceleration and steering of the vehicle M. Based on the position of the object, white line, etc. output by the object recognition device 50, the travel control device 100 automatically travels the vehicle M so as not to come into contact with the object in the set lane, or if necessary. Automatic control of lane change, overtaking, branching, merging, stopping, etc. Instead of this, the travel control device 100 may be a driving support device or the like that automatically stops when an object approaches. In this way, the travel control device 100 recognizes the position of the object (on the specified road surface) recognized by the non-road surface object extraction unit 64 for the grid G other than the grid G determined to be the road surface by the plane extraction processing unit 63B. The travel control of the vehicle M is performed based on the information output from the sensor fusion unit 90 (information excluding the corresponding portion).

図8は、認識システムによって実行される処理の流れの一例を示すフローチャートである。ライダー10は、物体を検出し、ライダーデータを繰り返しライダーデータ処理部60に出力する(ステップS100)。 FIG. 8 is a flowchart showing an example of the flow of processing executed by the recognition system. The rider 10 detects an object and repeatedly outputs the rider data to the rider data processing unit 60 (step S100).

ライダーデータ処理部60は、1スキャン分のライダーデータを取得するまで待機し(ステップS102)。1スキャン分のライダーデータを取得すると、ステップS106に処理を進める。 The rider data processing unit 60 waits until the rider data for one scan is acquired (step S102). When the rider data for one scan is acquired, the process proceeds to step S106.

一方、情報取得部62は、例えば、ライダーデータ処理部60のうち情報取得部62以外の構成要素とは非同期で動作し、グリッドGの設定のための情報を取得し、道路面特定部63に提供する(ステップS104)。 On the other hand, the information acquisition unit 62 operates asynchronously with, for example, the components other than the information acquisition unit 62 of the rider data processing unit 60, acquires information for setting the grid G, and becomes the road surface identification unit 63. Provided (step S104).

ポイントクラウドデータ生成部61は、ライダーデータからポイントクラウドデータを生成する(ステップS106)。グリッド設定部63Aは情報取得部62から提供された情報に基づいて、グリッドGを設定する(ステップS108)。 The point cloud data generation unit 61 generates point cloud data from the rider data (step S106). The grid setting unit 63A sets the grid G based on the information provided by the information acquisition unit 62 (step S108).

平面抽出処理部63Bは、グリッドG毎に、道路面であるか否かを特定する(ステップS110)。非道路面物体抽出部64は、道路面と特定されなかった非道路面のグリッドGに関して、物体認識を行う(ステップS112)。そして、ライダーデータ処理部60は、非道路面物体抽出部64および道路区画線認識部65の処理結果をセンサフュージョン部90に出力する(ステップS114)。これによって図8のフローチャートのルーチンが終了する。 The plane extraction processing unit 63B specifies whether or not it is a road surface for each grid G (step S110). The non-road surface object extraction unit 64 recognizes an object with respect to the grid G of the non-road surface that is not specified as the road surface (step S112). Then, the rider data processing unit 60 outputs the processing results of the non-road surface object extraction unit 64 and the road marking line recognition unit 65 to the sensor fusion unit 90 (step S114). This ends the routine of the flowchart of FIG.

以上説明した実施形態の認識システムによれば、車両(M)の周辺に存在する物体の位置を検出する検出部(ライダー10)と、検出部の検出結果に基づいて、車両の周辺における道路面を特定する特定部(道路面特定部63)と、を備え、特定部は、検出部の検出結果を二次元平面上で細分化した個別領域(グリッドG)ごとに所定のアルゴリズム(RANSAC)を用いて平面であるか否かを判定し、個別領域ごとの判定結果を集約して車両の周辺における道路面を特定するため、より正確に道路面を特定することができる。 According to the recognition system of the embodiment described above, the detection unit (rider 10) that detects the position of an object existing around the vehicle (M) and the road surface around the vehicle based on the detection result of the detection unit. A specific unit (road surface identification unit 63) is provided, and the specific unit uses a predetermined algorithm (RANSAC) for each individual region (grid G) in which the detection result of the detection unit is subdivided on a two-dimensional plane. Since it is determined whether or not it is a flat surface by using it, and the determination results for each individual area are aggregated to specify the road surface around the vehicle, the road surface can be specified more accurately.

なお、認識システムは、カメラ20、レーダ装置30、カメラ画像処理部70、レーダデータ処理部80、センサフュージョン部90のうち一部または全部を備えないものであってもよい。例えば、認識システムは、ライダー10とライダーデータ処理部60を含み、非道路面物体抽出部64および道路区画線認識部65の処理結果を走行制御装置100に出力してもよい。 The recognition system may not include a part or all of the camera 20, the radar device 30, the camera image processing unit 70, the radar data processing unit 80, and the sensor fusion unit 90. For example, the recognition system may include the rider 10 and the rider data processing unit 60, and output the processing results of the non-road surface object extraction unit 64 and the road lane marking unit 65 to the travel control device 100.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

10 ライダー
50 物体認識装置
60 ライダーデータ処理部
61 ポイントクラウドデータ生成部
62 情報取得部
63 道路面特定部
63A グリッド設定部
63B 平面抽出処理部
64 非道路面物体抽出部
65 道路区画線認識部
100 走行制御装置
10 Rider 50 Object recognition device 60 Rider data processing unit 61 Point cloud data generation unit 62 Information acquisition unit 63 Road surface identification unit 63A Grid setting unit 63B Plane extraction processing unit 64 Non-road surface object extraction unit 65 Road marking line recognition unit 100 Traveling Control device

Claims (9)

車両に搭載される認識システムであって、
前記車両の周辺に存在する物体の位置を検出する検出部と、
前記検出部の検出結果に基づいて、前記車両の周辺における道路面を特定する特定部と、を備え、
前記特定部は、前記検出部の検出結果を二次元平面上で細分化した個別領域ごとに所定のアルゴリズムを用いて平面であるか否かを判定し、前記個別領域ごとの判定結果を集約して前記車両の周辺における道路面を特定する、
認識システム。
A recognition system installed in a vehicle
A detection unit that detects the position of an object existing around the vehicle,
A specific unit that identifies the road surface around the vehicle based on the detection result of the detection unit is provided.
The specific unit determines whether or not the detection result of the detection unit is a plane by using a predetermined algorithm for each individual region subdivided on a two-dimensional plane, and aggregates the determination results for each individual region. To identify the road surface around the vehicle,
Recognition system.
前記検出部は、ライダーである、
請求項1記載の認識システム。
The detector is a rider.
The recognition system according to claim 1.
前記検出部は、仰角または俯角と方位角を変えながらレーザーを前記車両の周辺に照射するものであり、
前記特定部は、仰角または俯角、方位角、および距離で少なくとも表される物体の位置を二次元平面に射影したポイントクラウドデータを細分化した個別領域ごとに、前記所定のアルゴリズムを用いて平面であるか否かを判定する、
請求項2記載の認識システム。
The detection unit irradiates the periphery of the vehicle with a laser while changing the elevation angle or the depression angle and the azimuth angle.
The specific part is a plane using the predetermined algorithm for each individual region obtained by subdividing point cloud data in which the position of an object represented by at least an elevation angle or a depression angle, an azimuth angle, and a distance is projected onto a two-dimensional plane. Determine if there is,
The recognition system according to claim 2.
前記特定部は、前記二次元平面における前記車両からの距離に基づいて、前記個別領域のサイズを異ならせる、
請求項1から3のうちいずれか1項記載の認識システム。
The specific portion makes the size of the individual region different based on the distance from the vehicle in the two-dimensional plane.
The recognition system according to any one of claims 1 to 3.
前記特定部は、前記車両の周辺における物体の分布を示す情報を取得し、前記取得した物体の分布を示す情報に基づいて、前記個別領域のサイズを変更する、
請求項1から4のうちいずれか1項記載の認識システム。
The specific unit acquires information indicating the distribution of objects in the vicinity of the vehicle, and changes the size of the individual region based on the information indicating the distribution of the acquired objects.
The recognition system according to any one of claims 1 to 4.
前記特定部は、前記車両が存在する道路の種別に関する情報を取得し、前記取得した道路の種別に関する情報が特定の種別の道路を示す場合、前記取得した道路の種別に関する情報が特定の種別の道路を示さない場合に比して、前記個別領域のサイズを大きくする、
請求項1から5のうちいずれか1項記載の認識システム。
The specific unit acquires information on the type of road on which the vehicle exists, and when the information on the acquired road type indicates a road of a specific type, the information on the acquired road type is of a specific type. Increase the size of the individual area as compared to the case where the road is not shown.
The recognition system according to any one of claims 1 to 5.
請求項1から6のうちいずれか1項記載の認識システムと、
前記認識システムにおける前記検出部の検出結果から、前記特定部により特定された道路面に相当する部分を除外した情報に基づいて、前記車両の走行制御を行う走行制御装置と、
を備える車両制御システム。
The recognition system according to any one of claims 1 to 6 and
A travel control device that controls the travel of the vehicle based on information excluding the portion corresponding to the road surface specified by the specific unit from the detection result of the detection unit in the recognition system.
Vehicle control system with.
車両に搭載されたコンピュータが、
車両の周辺に存在する物体の位置を検出する検出部の検出結果を取得し、
前記検出結果に基づいて、前記車両の周辺における道路面を特定し、
前記特定する際に、
前記検出結果を二次元平面上で細分化した個別領域ごとに所定のアルゴリズムを用いて平面であるか否かを判定し、
前記個別領域ごとの判定結果を集約して前記車両の周辺における道路面を特定する、
認識方法。
The computer installed in the vehicle
Acquire the detection result of the detection unit that detects the position of the object existing around the vehicle,
Based on the detection result, the road surface around the vehicle is identified.
At the time of the above identification
The detection result is subdivided on a two-dimensional plane, and it is determined whether or not the detection result is a plane by using a predetermined algorithm for each individual region.
The judgment results for each individual area are aggregated to identify the road surface around the vehicle.
Recognition method.
車両に搭載されたコンピュータに、
車両の周辺に存在する物体の位置を検出する検出部の検出結果を取得させ、
前記検出結果に基づいて、前記車両の周辺における道路面を特定させ、
前記特定させる際に、
前記検出結果を二次元平面上で細分化した個別領域ごとに所定のアルゴリズムを用いて平面であるか否かを判定させ、
前記個別領域ごとの判定結果を集約して前記車両の周辺における道路面を特定させる、
プログラム。
On the computer installed in the vehicle
Acquire the detection result of the detection unit that detects the position of an object existing around the vehicle.
Based on the detection result, the road surface around the vehicle is identified.
When making the above identification
The detection result is subdivided on a two-dimensional plane, and it is determined whether or not the detection result is a plane by using a predetermined algorithm for each individual region.
The determination results for each individual area are aggregated to identify the road surface around the vehicle.
program.
JP2019136089A 2019-07-24 2019-07-24 Recognition system, vehicle control system, recognition method, and program Active JP7165630B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019136089A JP7165630B2 (en) 2019-07-24 2019-07-24 Recognition system, vehicle control system, recognition method, and program
CN202010707780.9A CN112286178B (en) 2019-07-24 2020-07-21 Identification system, vehicle control system, identification method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019136089A JP7165630B2 (en) 2019-07-24 2019-07-24 Recognition system, vehicle control system, recognition method, and program

Publications (2)

Publication Number Publication Date
JP2021021967A true JP2021021967A (en) 2021-02-18
JP7165630B2 JP7165630B2 (en) 2022-11-04

Family

ID=74420120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019136089A Active JP7165630B2 (en) 2019-07-24 2019-07-24 Recognition system, vehicle control system, recognition method, and program

Country Status (2)

Country Link
JP (1) JP7165630B2 (en)
CN (1) CN112286178B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024218879A1 (en) * 2023-04-18 2024-10-24 日本電信電話株式会社 Estimation device, estimation method, and estimation program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022152402A (en) * 2021-03-29 2022-10-12 本田技研工業株式会社 Recognition device, vehicle system, recognition method and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010071942A (en) * 2008-09-22 2010-04-02 Toyota Motor Corp Object detecting device
JP2011191239A (en) * 2010-03-16 2011-09-29 Mazda Motor Corp Mobile object position detecting device
JP2013140515A (en) * 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc Solid object detection device and program
JP2016024685A (en) * 2014-07-22 2016-02-08 日立建機株式会社 Work vehicle for mine
JP2017117038A (en) * 2015-12-22 2017-06-29 いすゞ自動車株式会社 Road surface estimation device
JP2018112887A (en) * 2017-01-11 2018-07-19 株式会社東芝 Information processing device, information processing method, and information processing program
US20180364717A1 (en) * 2017-06-14 2018-12-20 Zoox, Inc. Voxel Based Ground Plane Estimation and Object Segmentation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108828621A (en) * 2018-04-20 2018-11-16 武汉理工大学 Obstacle detection and road surface partitioning algorithm based on three-dimensional laser radar
CN109359614B (en) * 2018-10-30 2021-06-11 百度在线网络技术(北京)有限公司 Laser point cloud plane identification method, device, equipment and medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010071942A (en) * 2008-09-22 2010-04-02 Toyota Motor Corp Object detecting device
JP2011191239A (en) * 2010-03-16 2011-09-29 Mazda Motor Corp Mobile object position detecting device
JP2013140515A (en) * 2012-01-05 2013-07-18 Toyota Central R&D Labs Inc Solid object detection device and program
JP2016024685A (en) * 2014-07-22 2016-02-08 日立建機株式会社 Work vehicle for mine
JP2017117038A (en) * 2015-12-22 2017-06-29 いすゞ自動車株式会社 Road surface estimation device
JP2018112887A (en) * 2017-01-11 2018-07-19 株式会社東芝 Information processing device, information processing method, and information processing program
US20180364717A1 (en) * 2017-06-14 2018-12-20 Zoox, Inc. Voxel Based Ground Plane Estimation and Object Segmentation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高橋将史: ""超高速3Dレーザースキャナシステム「RobotEye RE05−3D」による移動物体の3Dトラッキ", 映像情報インダストリアル, vol. 第49巻, 第10号, JPN6022005723, 1 October 2017 (2017-10-01), JP, pages 41 - 46, ISSN: 0004823209 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024218879A1 (en) * 2023-04-18 2024-10-24 日本電信電話株式会社 Estimation device, estimation method, and estimation program

Also Published As

Publication number Publication date
CN112286178A (en) 2021-01-29
JP7165630B2 (en) 2022-11-04
CN112286178B (en) 2023-12-01

Similar Documents

Publication Publication Date Title
JP7069927B2 (en) Object recognition device and object recognition method
JP6662388B2 (en) Image processing device, imaging device, device control system, distribution data generation method, and program
US8184159B2 (en) Forward looking sensor system
JP6519262B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
JP6657789B2 (en) Image processing device, imaging device, device control system, frequency distribution image generation method, and program
US9064418B2 (en) Vehicle-mounted environment recognition apparatus and vehicle-mounted environment recognition system
JP5822255B2 (en) Object identification device and program
JP5145585B2 (en) Target detection device
JP6702340B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP2017223511A (en) Road structuring device, road structuring method and road structuring program
JP6340850B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
CN110674705A (en) Small-sized obstacle detection method and device based on multi-line laser radar
CN109074742B (en) Peripheral recognition device, peripheral recognition method, and computer-readable recording medium
US20130010112A1 (en) Object detection apparatus and storage medium storing object detection program
JP2011150633A (en) Object detection device and program
US10748014B2 (en) Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
Ding et al. Fast lane detection based on bird’s eye view and improved random sample consensus algorithm
JP7050763B2 (en) Detection of objects from camera images
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
CN111046719A (en) Apparatus and method for converting image
JP2009245042A (en) Traffic flow measurement device and program
JP7165630B2 (en) Recognition system, vehicle control system, recognition method, and program
US20220171975A1 (en) Method for Determining a Semantic Free Space
JP6340849B2 (en) Image processing apparatus, image processing method, image processing program, and mobile device control system
EP3410345B1 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R150 Certificate of patent or registration of utility model

Ref document number: 7165630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150