JP7325296B2 - Object recognition method and object recognition system - Google Patents
Object recognition method and object recognition system Download PDFInfo
- Publication number
- JP7325296B2 JP7325296B2 JP2019194692A JP2019194692A JP7325296B2 JP 7325296 B2 JP7325296 B2 JP 7325296B2 JP 2019194692 A JP2019194692 A JP 2019194692A JP 2019194692 A JP2019194692 A JP 2019194692A JP 7325296 B2 JP7325296 B2 JP 7325296B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- detected
- road
- stationary object
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Description
本発明は、物体認識方法及び物体認識システムに関する。 The present invention relates to an object recognition method and an object recognition system.
特許文献1には、駐車車両の駐車位置を特定する駐車車両検出装置が開示されている。駐車車両検出装置は、自車両に載置された撮像装置により撮像された画像に含まれる他の車両を検出し、検出した他の車両の位置を算出し、算出した位置を含む他の車両の情報を記憶し、他の車両の情報に基づいて、他の車両が駐車車両である可能性が高いか否か判定する。
しかしながら、静止物体とその背景とを区別して認識することが困難なことがある。例えば、撮像画像から静止物体を認識する場合、静止物体の色彩と背景の色彩とが似ていると静止物体と背景とが同化してしまい、これらの区別が困難になることがある。
また例えば、レーザレーダ等の測距装置で静止物体を検出する場合には、測距誤差のために静止物体と背景の静止物体との区別が困難になることがある。
本発明は、道路上の静止物体が存在する領域の推定精度を向上することを目的とする。
However, it is sometimes difficult to distinguish and recognize a stationary object from its background. For example, when recognizing a stationary object from a captured image, if the colors of the stationary object and the background are similar, the stationary object and the background are assimilated, making it difficult to distinguish between them.
Further, for example, when a stationary object is detected by a distance measuring device such as a laser radar, it may be difficult to distinguish between the stationary object and the background stationary object due to ranging errors.
SUMMARY OF THE INVENTION An object of the present invention is to improve the accuracy of estimating an area in which a stationary object exists on a road.
本発明の一態様による物体認識方法では、道路上の観測点から、道路に沿って延在する物標を検出し、物標の観測点から検出された部分が存在する区間である検出区間を検出し、複数の観測点でそれぞれ検出した複数の異なる検出区間の端点の位置に基づいて、道路上に静止物体が存在する領域である静止物体存在領域を推定する。 In an object recognition method according to an aspect of the present invention, a target extending along a road is detected from an observation point on the road, and a detection section, which is a section in which a portion of the target detected from the observation point exists, is detected. Based on the positions of the end points of a plurality of different detection sections detected at a plurality of observation points, a stationary object existence area, which is an area in which a stationary object exists on the road, is estimated.
本発明によれば、道路上の静止物体が存在する領域の推定精度を向上できる。 ADVANTAGE OF THE INVENTION According to this invention, the estimation precision of the area|region where a stationary object exists on a road can be improved.
以下、図面を参照して、本発明の実施形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。各図面は模式的なものであり、現実のものとは異なる場合が含まれる。以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、下記の実施形態に例示した装置や方法に特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same or similar parts are denoted by the same or similar reference numerals, and overlapping descriptions are omitted. Each drawing is schematic and may differ from the actual one. The embodiments shown below exemplify devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is specific to the devices and methods illustrated in the following embodiments. not something to do. Various modifications can be made to the technical idea of the present invention within the technical scope described in the claims.
(第1実施形態)
(構成)
図1を参照する。第1実施形態の物体認識システム100は、第1車両1に搭載された外部センサ10と、測位装置11と、通信装置12と、コンピュータ15、16及び17を備える。第1車両1には、さらに車載装置13と、アクチュエータ14とが設けられている。
外部センサ10は、第1車両1の周囲の物体を検出する複数の異なる種類のセンサを備える。外部センサ10は、特許請求の範囲に記載の「物体検出手段」の一例である。
(First embodiment)
(composition)
Please refer to FIG. The
The
例えば外部センサ10は、第1車両1に搭載されたカメラを備える。外部センサ10は、例えば第1車両1の周囲を撮像する1又は複数のカメラを備える。外部センサ10は、例えば、第1車両1の前方を撮像する画角90度の4K解像度カメラと、第1車両1の後方を撮像する画角90度の4K解像度カメラと、第1車両1の左側方を撮像する画角180度の4K解像度カメラと、第1車両1の右側方を撮像する画角180度の4K解像度カメラを備えてよい。
For example, the
外部センサ10は、これらのカメラを同期させながら各々のカメラの撮像画像を取得することで、第1車両1の周囲360度の範囲を撮像する。
また例えば外部センサ10は、レーザレーダやミリ波レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などの測距センサを備え、第1車両1の前方、後方又は側方の物体や道路白線、路面の位置データ又はポイントクラウドデータを取得してもよい。
The
Further, for example, the
測位装置11は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して、現在時刻と、第1車両1の現在位置及び進行方向を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置11は、例えば慣性航法装置であってもよく、オドメトリによって第1車両1の現在位置及び進行方向を測定してもよい。
The
通信装置12は、測位装置11から得られる現在時刻情報に基づいて外部センサ10に対して基準時刻を配信する。また、通信装置12は、コンピュータ15、16及び17の通信手段15a、16a及び17aを介して、それぞれ区間検出手段15b、差異検出手段16b及び領域推定手段17bとの間でデータの授受を行う。
車載装置13は、第1車両1の走行を制御する電子制御ユニット(ECU:Electronic Control Unit)である。例えば車載装置13は、第1車両1の現在位置と周囲環境に基づいて、運転者が関与せずに第1車両1を自動で運転する自動走行制御を行う。
The
The in-
また例えば車載装置13は、周囲環境に基づいて第1車両1の操舵または加減速のみを制御する運転支援制御を行う。
車載装置13は、プロセッサと、記憶装置等の周辺部品とを含む。プロセッサは、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。記憶装置は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
Further, for example, the in-
The in-
アクチュエータ14は、車載装置13からの制御信号に応じて、第1車両1のステアリングホイール、アクセル開度及びブレーキ装置を操作して、第1車両1の車両挙動を発生させる。アクチュエータ14は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、第1車両1のステアリングの操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、第1車両1のアクセル開度を制御する。ブレーキ制御アクチュエータは、第1車両1のブレーキ装置の制動動作を制御する。
The
コンピュータ15~17は、それぞれ通信手段15a~17aを備え、後述する区間検出手段15b、差異検出手段16b、及び領域推定手段17bとして動作する。コンピュータ15~17は、それぞれ別個のハードウエアとして実装されてもよく、共通のハードウエアに統合してもよい。
また例えば、コンピュータ15~17は、第1車両1に実装されてもよい。この場合、通信装置12及び通信手段15a~17aは、有線又は無線の通信手段によりデータを授受してよい。例えば、通信装置12及び通信手段15a~17aは、例えばCSMA/CA方式の多重通信(CAN:Controller Area Network)やフレックスレイ(Flex Ray)等の車載通信ネットワーク(車載LAN)を備えてもよい。
The
Also, for example, the
コンピュータ15~17は、第1車両1以外の場所に実装されてもよい。この場合、例えば通信装置12及び通信手段15a~17aは、車車間通信、公衆携帯電話網、路車間通信、衛星通信等の無線通信手段を介して、互いにデータを授受する。コンピュータ15~17は、例えば、他車両、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバに実装されてもよい。
Computers 15 - 17 may be mounted at locations other than
続いて、第1実施形態の物体認識システム100による物体認識方法の概要について説明する。
図2Aに示すように、第1車両1が道路200上を走行し、道路200に沿って延在する又は道路200沿いに連なって存在する物標202が存在する場合を想定する。例えば物標202は、道路200に沿って延在する道路構造物(ガードレールや縁石など)や、道路境界に描かれた道路白線などの道路200に沿って延在する路面ペイント、又は道路200の路面であってよい。また、物標202は、道路沿いに連なって存在する(道路200に沿って延在する)建物であってもよい。
道路200上には静止物体201が存在しており、道路200の一部を占有している。静止物体201は例えば駐車車両であってよい。
Next, an outline of an object recognition method by the
As shown in FIG. 2A, it is assumed that the
A
まず、図2Bに示すように、地点P1(観測点)において物標202を検出する。参照符号Sd11及びSd12は、物標202のうち地点P1から検出される部分が存在する区間(以下「検出区間」と表記する)を示す。
図2Bの例では、静止物体201によって物標202の一部分が地点P1からの見通し外の領域となる。このため、この部分は外部センサ10によって検出できず、検出区間Sd11及びSd12は不連続な検出区間として検出される。
このように不連続部分を挟んで隣接する一対の検出区間のうち、地点P1により近い検出区間Sd11を「第1検出区間」と表記する。また、地点P1からより遠い他方の検出区間Sd12を「第2検出区間」と表記する。
First, as shown in FIG. 2B, a
In the example of FIG. 2B, the
Of the pair of detection sections adjacent to each other across the discontinuous portion, the detection section Sd11 closer to the point P1 is referred to as a "first detection section". Also, the other detection section Sd12, which is farther from the point P1, is referred to as a "second detection section".
また、第1検出区間Sd11の両端のうち第2検出区間Sd12により近い一端の位置Pe11を第1検出区間Sd11の「終点」と表記する。
第2検出区間Sd12の両端のうち第1検出区間Sd11により近い一端の位置Ps12(すなわち、第2検出区間Sd12の両端のうち地点P1により近い一端の位置Ps12)を第2検出区間Sd12の「始点」と表記する。
さらに、第1検出区間Sd11の終点Pe11と第2検出区間Sd12の始点Ps12の間の区間を、物標202のうち地点P1から検出されない部分が存在する区間である非検出区間Su1として推定する。
Further, the position Pe11 of one end closer to the second detection section Sd12 among both ends of the first detection section Sd11 is referred to as the "end point" of the first detection section Sd11.
The position Ps12 of one end closer to the first detection section Sd11 among both ends of the second detection section Sd12 (that is, the position Ps12 of one end closer to the point P1 among both ends of the second detection section Sd12) is set as the "start point" of the second detection section Sd12. ”.
Furthermore, the section between the end point Pe11 of the first detection section Sd11 and the start point Ps12 of the second detection section Sd12 is estimated as a non-detection section Su1, which is a section in which there is a portion of the
図2Cを参照する。次に、地点P1から所定距離離れた地点P2(観測点)から物標202を検出する。検出区間Sd21及びSd22は、物標202のうち地点P2から検出される部分が存在する第1検出区間及び第2検出区間である。図2Cにおいて、第1検出区間Sd21の終点Pe21と、第2検出区間Sd22の始点Ps22が図示されている。また、物標202のうち地点P2から検出されない部分が存在する区間である非検出区間Su2を推定する。
See FIG. 2C. Next, the
次に、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との差異を検出する。具体的には、第2検出区間Sd12の始点Ps12と第2検出区間Sd22の始点Ps22との差異を検出する。
道路上の静止物体201によって、第1検出区間Sd11と第2検出区間Sd12とが寸断され、第1検出区間Sd21と第2検出区間Sd22とが寸断されている場合、図2B及び図2Cに示すように、始点Ps22は始点Ps12から移動する。
Next, the difference between the second detection section Sd12 detected at the point P1 and the second detection section Sd22 detected at the point P2 is detected. Specifically, the difference between the starting point Ps12 of the second detection section Sd12 and the starting point Ps22 of the second detection section Sd22 is detected.
When the first detection section Sd11 and the second detection section Sd12 are cut off by the
一方で、静止物体201が存在せず、物標202自体が単に途切れている場合には、どの地点から見ても始点Ps12と始点Ps22は一致する。
そこで始点Ps12と始点Ps22との間に差異が存在する場合には、静止物体201が存在すると判定する。始点Ps12と始点Ps22との間に差異がない場合には、静止物体201が存在しないと判定する。
On the other hand, when the
Therefore, when there is a difference between the starting point Ps12 and the starting point Ps22, it is determined that the
図2Dを参照する。静止物体201が存在すると判定した場合、地点P1及びP2のいずれからも物標202が検出されない区間を「物体存在可能性区間」として推定する。物体存在可能性区間は、静止物体が存在する可能性がある区間である。
例えば、第1検出区間Sd21と第2検出区間Sd22の間の区間(終点Pe21から始点Ps22までの道路200の区間)を物体存在可能性区間として推定する。
See FIG. 2D. When it is determined that the
For example, the section between the first detection section Sd21 and the second detection section Sd22 (the section of the
なお、物体201が静止している場合、第1検出区間Sd11の終点Pe11と第1検出区間Sd21の終点Pe12は一致して共通の終点Peとなる。一方で、物体201が静止している場合、終点Pe11と終点Pe12は一致しない。
したがって、始点Ps12と始点Ps22との間に差異が存在することに加えて、終点Pe11と終点Pe12が変化しない場合に、静止物体201が存在すると判定してもよい。これにより移動物体を静止物体201と誤検出することを防止できる。
Note that when the
Therefore, it may be determined that the
最後に、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。図2Eを参照する。
例えば、地点P2と始点Ps22とを結ぶ線分を「見通し境界線203」として算出する。見通し境界線は、静止物体201により見通し範囲外となる領域と見通し可能な領域との境界線を、観測点である地点P2まで延長した線分である。
例えば、共通の終点Peで第1検出区間Sd21と直角に交わる垂線204と、見通し境界線203との交点Pvを求める。終点Peと交点Pvとの間隔の長さに基づき静止物体存在領域の幅Wを算出し、終点Peから始点Ps22に亘って幅Wを有する領域205を静止物体存在領域として推定する。
Finally, the stationary object existence area is estimated by restricting the object existence possibility section in the road width direction. See FIG. 2E.
For example, a line segment connecting the point P2 and the starting point Ps22 is calculated as the "line of
For example, the intersection point Pv between the line of
また、例えば、終点Peと交点Pvを結ぶ線分と、交点Pvと始点Ps22を結ぶ線分と、始点Ps22と終点Peとを結ぶ線分に囲まれる領域を静止物体存在領域として推定してもよい。
以上のようにして、物体認識システム100は、道路に沿った物標202の一部分が静止物体201によって観測点から遮蔽されている場合には、観測点から検出される物標202の一部分の端点が観測点の変化に伴って変化することを利用して、静止物体201の存在領域を推定する。これにより、道路上の静止物体が存在する領域の推定精度を向上できる。
Alternatively, for example, an area surrounded by a line segment connecting the end point Pe and the intersection point Pv, a line segment connecting the intersection point Pv and the start point Ps22, and a line segment connecting the start point Ps22 and the end point Pe may be estimated as the stationary object presence area. good.
As described above, when a portion of the
次に、物体認識システム100の機能構成について説明する。図3は、第1実施形態の物体認識システム100の機能構成の一例のブロック図である。
物体認識システム100は、外部センサ10、測位装置11、区間検出手段15b、差異検出手段16b及び領域推定手段17b及びアクチュエータ14に加えて、軌道生成手段110と、走行制御手段111を備える。第1車両1の車載装置13は、軌道生成手段110及び走行制御手段111として動作する。
Next, a functional configuration of the
The
外部センサ10は、第1車両1の周囲の物体を検出する。例えば、外部センサ10は、車載カメラにより、第1車両の周囲の水平角度360度の見通し範囲で、50m程度の道路白線を撮影し、道路200に沿って延在する物標202として検出する。
測位装置11は、所定の座標を基準とする共通座標系(例えば世界座標系や地図座標系)における第1車両1の現在位置を測定する。
The
The
区間検出手段15bは、地点P1における外部センサ10による検出結果に基づいて、第1検出区間Sd11及び第2検出区間Sd12を検出し、非検出区間Su1を推定する。また、地点P1から所定距離Dだけ離れた地点P2における外部センサ10による検出結果に基づいて、第1検出区間Sd21及び第2検出区間Sd22を検出し、非検出区間Su2を推定する。
The section detection means 15b detects the first detection section Sd11 and the second detection section Sd12 based on the detection result of the
地点P1及びP2の間の所定距離Dは、外部センサ10による物標202の位置の検出誤差範囲に応じて決定してよい。
例えば、物標202が第1車両1から50m離れており、外部センサ10が10%程度の誤差を含む場合、地点P1と地点P2が十分離れていることを満たすために+10%のマージンを付与して、50m×20%=10mと所定距離Dとして定める。
The predetermined distance D between the points P1 and P2 may be determined according to the detection error range of the position of the
For example, if the
差異検出手段16bは、区間検出手段15bの検出結果と、測位装置11による第1車両1の現在位置の測定結果とに基づいて、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との差異を検出する。
具体的には、第1車両1の現在位置に基づいて区間検出手段15bが検出した検出区間の座標系を共通座標系に変換し、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22とを共通座標系上で比較する。
The difference detection means 16b detects the second detection section Sd12 detected at the point P1 and the second detection section Sd12 detected at the point P2 based on the detection result of the section detection means 15b and the measurement result of the current position of the
Specifically, the coordinate system of the detection section detected by the section detection means 15b based on the current position of the
例えば、第2検出区間Sd12の始点Ps12と第2検出区間Sd22の始点Ps22との差異を検出する。差異検出手段16bは検出結果を領域推定手段17bに送信する。
領域推定手段17bは、第2検出区間Sd12と第2検出区間Sd22との間に差異が存在する場合に、静止物体201が存在すると判定する。
第2検出区間Sd12と第2検出区間Sd22との間に差異がない場合、静止物体201が存在しないと判定する
For example, the difference between the starting point Ps12 of the second detection section Sd12 and the starting point Ps22 of the second detection section Sd22 is detected. The difference detection means 16b transmits the detection result to the area estimation means 17b.
The area estimation means 17b determines that the
If there is no difference between the second detection section Sd12 and the second detection section Sd22, it is determined that the
また領域推定手段17bは、始点Ps12と始点Ps22との間に差異が存在することに加えて、第1検出区間Sd11の終点Pe11と第1検出区間Sd21の終点Pe21が変化しない場合に、静止物体201が存在すると判定してもよい。
In addition to the fact that there is a difference between the start point Ps12 and the start point Ps22, the area estimation means 17b also detects the
静止物体201が存在すると判定した場合、領域推定手段17bは、地点P1及びP2のいずれからも物標202が検出されない区間(例えば、第1検出区間Sd21と第2検出区間Sd22の間の区間)を物体存在可能性区間として推定する。
すなわち、領域推定手段17bは、物標202のうち地点P1から検出されない部分が存在する非検出区間Su1と、物標202のうち地点P2から検出されない部分が存在する区間である非検出区間Su2の重複領域を、物体存在可能性区間として推定する。
When it is determined that the
That is, the area estimating means 17b divides the non-detection section Su1 in which a portion of the
さらに、領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。領域推定手段17bは、推定した静止物体存在領域の位置情報を車載装置13に出力する。
静止物体存在領域の位置情報は、例えば、静止物体存在領域の頂点の緯度経度などの座標とこれらの座標を結ぶリンク情報を含んでよい。静止物体存在領域の位置情報は、地図データベース上のレーンの識別情報と道のり距離によって静止物体存在領域が存在する区間を表現してもよく、道路リンクの識別情報と座標情報によって静止物体存在領域が存在する区間を表現してもよい。
Further, the region estimation means 17b limits the object existence possibility section in the road width direction to estimate the stationary object existence region. The region estimating means 17b outputs the positional information of the estimated stationary object existence region to the in-
The position information of the stationary object existence area may include, for example, coordinates such as the latitude and longitude of the vertex of the stationary object existence area and link information connecting these coordinates. The position information of the stationary object existence area may express the section where the stationary object existence area exists by the lane identification information and the distance on the map database, and the stationary object existence area is expressed by the road link identification information and the coordinate information. An existing interval may be represented.
車載装置13の軌道生成手段110は、第1車両1の自動走行制御又は運転支援制御において、第1車両1を走行させる目標走行軌道と速度プロファイルを生成する。
領域推定手段17bが、第1車両1の進路の前方の静止物体存在領域を推定した場合、軌道生成手段110は、静止物体存在領域を回避するように目標走行軌道と速度プロファイルを生成する。
The trajectory generation means 110 of the in-
When the area estimating means 17b estimates the stationary object existence area ahead of the course of the
走行制御手段111は、軌道生成手段110が生成した速度プロファイルに従う速度で第1車両1が目標走行軌道を走行するようにアクチュエータ14を駆動する。これによりアクチュエータ14は、例えば、第1車両1が静止物体存在領域を回避するように、第1車両1のステアリングの操舵方向及び操舵量を制御する。
またアクチュエータ14は、第1車両1が静止物体存在領域の手前で減速又は停車するように、第1車両1のブレーキ装置を制御する。
The traveling control means 111 drives the
The
これにより、静止物体201の認識や大きさの判別が難しい状況において、静止物体201の周辺の物体を観測した結果に基づいて、その静止物体存在領域を予め推定できる。この結果、静止物体201の認識や大きさの判別を待たずに余裕を持って静止物体201を避ける車両挙動を発生できる。
また、車載装置13は、静止物体存在領域の存在やその位置情報を、第1車両1の運転者や乗員に、音声情報や視覚情報として通知してもよい。
As a result, in a situation where it is difficult to recognize the
Further, the in-
(動作)
次に、図4を参照して第1実施形態の物体認識方法の一例を説明する。
ステップS1において外部センサ10は、地点P1から見通し範囲内にある物標202を検出する。区間検出手段15bは、第1検出区間Sd11とその終点Pe11、及び第2検出区間Sd12とその始点Ps12を検出する。
(motion)
Next, an example of the object recognition method of the first embodiment will be described with reference to FIG.
In step S1, the
ステップS2において測位装置11は、第1車両1が地点P1から所定距離D離れた地点P2に到達したことを検出する。外部センサ10は、地点P2から見通し範囲内にある物標202を検出する。区間検出手段15bは、第1検出区間Sd21とその終点Pe21、及び第2検出区間Sd22とその始点Ps22を検出する。
ステップS3において差異検出手段16bは、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との相違を判定する。
In step S2, the
In step S3, the difference detection means 16b determines the difference between the second detection section Sd12 detected at the point P1 and the second detection section Sd22 detected at the point P2.
第2検出区間Sd12と第2検出区間Sd22に差異がある場合(ステップS3:Y)に、処理はステップS4へ進む。第2検出区間Sd12と第2検出区間Sd22に差異がない場合(ステップS3:N)に、物体存在可能性区間を推定せずに処理を終了する。
ステップS4において領域推定手段17bは、地点P1及びP2のいずれからも物標202が検出されない区間を物体存在可能性区間として推定する。
If there is a difference between the second detection section Sd12 and the second detection section Sd22 (step S3: Y), the process proceeds to step S4. If there is no difference between the second detection section Sd12 and the second detection section Sd22 (step S3: N), the processing ends without estimating the object presence possibility section.
In step S4, the region estimation means 17b estimates a section in which the
(第1実施形態の効果)
(1)外部センサ10は、道路200上の観測点P1、P2から、道路200に沿って延在する又は道路沿いに存在する物標202を検出する。区間検出手段15bは、物標202の観測点P1及びP2から検出された部分が存在する区間である検出区間Sd11、Sd12、Sd21及びSd22をそれぞれ検出する。差異検出手段16b、及び領域推定手段17bは、複数の観測点P1及びP2でそれぞれ検出した複数の異なる検出区間Sd11、Sd12、Sd21及びSd22の端点の位置に基づいて、道路200上に静止物体201が存在する領域である静止物体存在領域を推定する。
(Effect of the first embodiment)
(1) The
これにより、道路200上の静止物体201が存在する領域の推定精度を向上できる。
また、静止物体201の認識や大きさの判別が難しい状況において、静止物体201の周辺の物標を観測した結果に基づいて、その静止物体存在領域を予め推定できる。この結果、静止物体201の認識や大きさの判別を待たずに余裕を持って静止物体201を避ける車両挙動を発生できる。
As a result, the accuracy of estimating the area where the
In addition, in a situation where it is difficult to recognize the
(2)区間検出手段15bは、物標202の観測点P1、P2から検出されない部分が存在する区間である非検出区間Su1及びSu2を、複数の観測点P1及びP2についてそれぞれ推定する。領域推定手段17bは、非検出区間Su1及びSu2の重複部分に基づいて静止物体存在領域を推定する。
これにより、観測点P1から物標202が検出されない区間と、観測点P2から物標202が検出されない区間の両方に基づいて静止物体存在領域を推定するので、静止物体存在領域を限定できる。
(2) The section detection means 15b estimates non-detection sections Su1 and Su2, which are sections in which there are portions not detected from the observation points P1 and P2 of the
As a result, the stationary object existence area is estimated based on both the section from the observation point P1 in which the
(3)観測点P1で不連続な複数の検出区間Sd11及びSd12が検出され、観測点P2で不連続な複数の検出区間Sd21及びSd22が検出される場合に、区間検出手段15bは、不連続部分を挟んで隣接する一対の検出区間のうち、観測点P1及びP2に比較的近い第1検出区間Sd11及びSd21と、観測点P1及びP2から比較的遠い第2検出区間Sd12及びSd22と、を検出する。領域推定手段17bは、第1検出区間の両端のうち第2検出区間に近い一方の端点Pe11及びPe21の位置が、複数の観測点P1及びP2から検出しても変化しない場合に、静止物体が存在すると判定する。
これによって、道路200上の移動物体を静止物体として誤検出するのを防止できる。
(3) When a plurality of discontinuous detection sections Sd11 and Sd12 are detected at the observation point P1 and a plurality of discontinuous detection sections Sd21 and Sd22 are detected at the observation point P2, the section detection means 15b Of the pair of detection intervals adjacent to each other across the part, the first detection intervals Sd11 and Sd21 relatively close to the observation points P1 and P2 and the second detection intervals Sd12 and Sd22 relatively far from the observation points P1 and P2 are selected. To detect. The region estimating means 17b detects the position of one of the endpoints Pe11 and Pe21 of the first detection section that is closer to the second detection section from a plurality of observation points P1 and P2. Determine that it exists.
This can prevent a moving object on the
(変形例)
(1)予め既知の物標202の位置情報を有する地図情報に基づいて、観測点から外部センサ10が検出した物標202の検出位置(特に道幅方向位置)を補正してもよい。例えば、外部センサ10の検出位置に最も近い地図上の物標202の位置に、検出位置を補正してもよい。これにより、より正確な検出区間の位置を検出することができる。以下に説明する第2実施形態~第4実施形態においても同様である。
(Modification)
(1) Based on map information having known positional information of the
(2)区間検出手段15bは、道路200の道路境界線より外側の物標を、道路200に沿って延在する又は道路200沿いに連なって存在する物標として検出してもよい。例えば区間検出手段15bは、道路境界線の位置情報を地図データベースから取得し、観測点と外部センサ10の検出位置とを結ぶ線分が道路境界線を横切る場合に、外部センサ10が検出した物標を、道路200に沿って延在する又は道路200沿いに連なって存在する物標として検出してもよい。これにより、道路200上の静止物体201により遮蔽される物標を選択することができる。以下に説明する第2実施形態~第4実施形態においても同様である。
(2) The section detection means 15b may detect targets outside the road boundary line of the
(3)物体認識システム100は、外部センサ10の検出信号に基づいて、道路200上の移動物体を検出する移動物体検出手段を備えてもよい。領域推定手段17bは、道路200上で移動物体が検出されない領域において、静止物体存在領域を推定してもよい。
上記のとおり、移動物体は静止物体よりも検出しやすい。移動物体が検出されない領域において静止物体存在領域を推定することにより、道路200上の移動物体を静止物体として誤検出するのを防止できる。以下に説明する第2実施形態~第4実施形態においても同様である。
(3) The
As mentioned above, moving objects are easier to detect than stationary objects. By estimating the stationary object existence area in an area where no moving object is detected, it is possible to prevent a moving object on the
(第2実施形態)
(構成)
次に、第2実施形態を説明する。第2実施形態の物体認識システム100は、第1実施形態の物体認識システム100と同様の機能構成を有しており、同一の構成要素には同じ参照符号を付する。
図5A~図5Eを参照して、第2実施形態の物体認識方法を説明する。
まず、図5Aに示すように、外部センサ10は、地点P1から第1車両1の周囲の物体を検出する。
(Second embodiment)
(composition)
Next, a second embodiment will be described. The
The object recognition method of the second embodiment will be described with reference to FIGS. 5A to 5E.
First, as shown in FIG. 5A, the
区間検出手段15bは、外部センサ10による検出結果に基づいて、第1検出区間Sd11及び第2検出区間Sd12を検出する。
差異検出手段16bは、測位装置11による第1車両1の現在位置の測定結果に基づいて、区間検出手段15bの検出結果の座標系を共通座標系に変換し、第2検出区間Sd12の始点Ps12と地点P1とを結んだ線分を見通し境界線210として算出する。
The section detection means 15b detects the first detection section Sd11 and the second detection section Sd12 based on the detection result by the
The difference detection means 16b converts the coordinate system of the detection result of the section detection means 15b into the common coordinate system based on the measurement result of the current position of the
図5Bを参照する。測位装置11は、第1車両1が地点P1から所定距離D離れた地点P2に到達したことを検出する。
外部センサ10は、地点P2から第1車両1の周囲の物体を検出する。区間検出手段15bは、外部センサ10による検出結果に基づいて、第1検出区間Sd21及び第2検出区間Sd22を検出する。
See FIG. 5B. The
The
差異検出手段16bは、測位装置11による第1車両1の現在位置の測定結果に基づいて、区間検出手段15bの検出結果の座標系を共通座標系に変換し、第2検出区間Sd22の始点Ps22と地点P2とを結んだ線分を見通し境界線211として算出する。
差異検出手段16bは、見通し境界線210及び見通し境界線211に基づいて、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との間に差異があるか否かを判定する。
The difference detection means 16b converts the coordinate system of the detection result of the section detection means 15b into the common coordinate system based on the measurement result of the current position of the
The difference detection means 16b determines whether there is a difference between the second detection section Sd12 detected at the point P1 and the second detection section Sd22 detected at the point P2 based on the line of
道路上の静止物体201によって、第1検出区間Sd11と第2検出区間Sd12とが寸断され、第1検出区間Sd21と第2検出区間Sd22とが寸断されている場合、第2検出区間Sd12と第2検出区間Sd22の間に差異が生じ、その結果、図5Bに示すように、見通し境界線210及び見通し境界線211は唯一の交点Pcを有する。交点Pcの位置は、静止物体201の頂点の1つの位置と一致する。
一方で、静止物体201が存在せず、物標202自体が単に途切れている場合には、第2検出区間Sd12と第2検出区間Sd22の間に差異が生じず、見通し境界線210及び見通し境界線211の交点は存在しない。
When the first detection section Sd11 and the second detection section Sd12 are separated by the
On the other hand, when the
そこで、差異検出手段16bは、見通し境界線210及び見通し境界線211は唯一の交点Pcを有する場合に、第2検出区間Sd12と第2検出区間Sd22の間に差異があると判定する。具体的には、第2検出区間Sd12の始点Ps12と第2検出区間Sd22の始点Ps22との間に差異があると判定する。見通し境界線210及び見通し境界線211に唯一の交点Pcがない場合、第2検出区間Sd12と第2検出区間Sd22の間に差異がないと判定する。
Therefore, the difference detection means 16b determines that there is a difference between the second detection section Sd12 and the second detection section Sd22 when the line of
図5Cを参照する。領域推定手段17bは、第2検出区間Sd12と第2検出区間Sd22との間に差異が存在する場合に、地点P1及びP2のいずれからも物標202を検出できない区間(すなわち、第1検出区間Sd21と第2検出区間Sd22の間の区間)を、物体存在可能性区間として推定する。第2検出区間Sd12と第2検出区間Sd22との間に差異がない場合、静止物体201が存在しないと判定する。
領域推定手段17bは、始点Ps12と始点Ps22との間に差異が存在することに加えて、第1検出区間Sd11の終点Pe11と第1検出区間Sd21の終点Pe21が変化しない場合に、静止物体201が存在すると判定してもよい。
See FIG. 5C. When there is a difference between the second detection section Sd12 and the second detection section Sd22, the region estimation means 17b detects a section in which the
The region estimating means 17b determines that the
領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。図5Dを参照する。例えば領域推定手段17bは、第2検出区間Sd22の始点Ps22と、第1検出区間Sd11及びSd21の共通の終点Peとを結ぶ線分と、共通の終点Peと交点Pcとを結ぶ線分と、交点Pcと始点Ps22とを結ぶ線分に囲まれる領域を静止物体存在領域として推定してもよい。 The region estimating means 17b limits the object existence possibility section in the road width direction to estimate the stationary object existence region. See FIG. 5D. For example, the region estimating means 17b includes a line segment connecting the starting point Ps22 of the second detection section Sd22 and the common end point Pe of the first detection sections Sd11 and Sd21, a line segment connecting the common end point Pe and the intersection point Pc, A region surrounded by a line segment connecting the intersection point Pc and the start point Ps22 may be estimated as the stationary object existence region.
図5Eを参照する。例えば領域推定手段17bは、共通の終点Peで第1検出区間Sd21と直角に交わる垂線204と、見通し境界線211との交点Pvを求める。領域推定手段17bは、終点Peと交点Pvを結ぶ線分と、交点Pvと始点Ps22を結ぶ線分と、始点Ps22と終点Peとを結ぶ線分に囲まれる領域を静止物体存在領域として推定してもよい。
See FIG. 5E. For example, the region estimating means 17b obtains an intersection point Pv between the line of
(動作)
次に、図6を参照して第2実施形態の物体認識方法の一例を説明する。
ステップS10の処理は、図4のステップS1の処理と同様である。
ステップS11において差異検出手段16bは、地点P1と第2検出区間Sd12の始点Ps12を結ぶ見通し境界線210を算出する。
(motion)
Next, an example of the object recognition method of the second embodiment will be described with reference to FIG.
The processing of step S10 is the same as the processing of step S1 in FIG.
In step S11, the difference detection means 16b calculates a line of
ステップS12の処理は、図4のステップS2の処理と同様である。
ステップS13において差異検出手段16bは、地点P2と第2検出区間Sd22の始点Ps22を結ぶ見通し境界線211を算出する。
ステップS14において差異検出手段16bは、境界線210及び211の唯一の交点Pcを算出できるか否かに応じて、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第2検出区間Sd22との相違があるか否かを判定する。
The process of step S12 is the same as the process of step S2 in FIG.
In step S13, the difference detection means 16b calculates the line of
In step S14, the difference detection means 16b detects the second detection section Sd12 detected at the point P1 and the second detection section Sd12 detected at the point P2 depending on whether or not the only intersection point Pc of the
第2検出区間Sd12と第2検出区間Sd22に差異がある場合(ステップS14:Y)に、処理はステップS15へ進む。第2検出区間Sd12と第2検出区間Sd22に差異がない場合(ステップS14:N)に、物体存在可能性区間を推定せずに処理を終了する。
ステップS15の処理は、図4のステップS4と同様である。
ステップS16において領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。その後に処理は終了する。
If there is a difference between the second detection section Sd12 and the second detection section Sd22 (step S14: Y), the process proceeds to step S15. If there is no difference between the second detection section Sd12 and the second detection section Sd22 (step S14: N), the processing ends without estimating the object existence possibility section.
The processing of step S15 is the same as that of step S4 in FIG.
In step S16, the region estimating means 17b limits the object existence possibility section in the road width direction to estimate the stationary object existence region. Processing then ends.
次に、図7を参照し、物体認識システム100におけるデータ授受シーケンスの一例を説明する。
時刻t1において外部センサ10は、地点P1において第1車両1の周囲の物体を検出する。また測位装置11は第1車両1の現在位置を計測する。外部センサ10と測位装置11は、外部センサ10のセンサ信号(例えば車載カメラによる撮像データ)と、地点P1の位置データ、計測時刻データに、データ送信時刻情報を付加して、区間検出手段15bへ送信する。時刻t2において区間検出手段15bはこれらのデータを受信する。
Next, an example of a data exchange sequence in the
At time t1, the
区間検出手段15bは、時刻t3までに、第1検出区間Sd11と第2検出区間Sd12を検出する。
時刻t3において区間検出手段15bは、計測時刻と、地点P1の位置データと、第1検出区間Sd11と第2検出区間Sd12のデータ(各区間内で始点終点を含む2つ以上の点群をリンクで結合したデータ)を、差異検出手段16bへ送信する。
The section detection means 15b detects the first detection section Sd11 and the second detection section Sd12 by time t3.
At time t3, the section detection means 15b detects the measurement time, the position data of the point P1, the data of the first detection section Sd11 and the second detection section Sd12 (in each section, two or more point groups including the start and end points are linked). combined data) is sent to the difference detection means 16b.
時刻t4において差異検出手段16bはこれらのデータを受信する。差異検出手段16bは、地点P1と第2検出区間Sd12の始点Ps12を結ぶ見通し境界線210を算出する。
時刻t5において、測位装置11は第1車両1が地点P2に到達したことを検出する。
時刻t6において外部センサ10は、地点P2において第1車両1の周囲の物体を検出する。外部センサ10と測位装置11は、外部センサ10のセンサ信号(例えば車載カメラによる撮像データ)と、地点P2の位置データ、計測時刻データに、データ送信時刻情報を付加して、区間検出手段15bへ送信する。
At time t4, the difference detection means 16b receives these data. The difference detection means 16b calculates a line of
At time t5, the
At time t6, the
時刻t7において区間検出手段15bはこれらのデータを受信する。
区間検出手段15bは、時刻t8までに、第1検出区間Sd21と第2検出区間Sd22を検出する。
時刻t8において区間検出手段15bは、計測時刻と、地点P2の位置データと、第1検出区間Sd21と第2検出区間Sd22のデータ(各区間内で始点終点を含む2つ以上の点群をリンクで結合したデータ)を、差異検出手段16bへ送信する。
At time t7, the section detection means 15b receives these data.
The section detection means 15b detects the first detection section Sd21 and the second detection section Sd22 by time t8.
At time t8, the section detection means 15b detects the measurement time, the position data of the point P2, the data of the first detection section Sd21 and the second detection section Sd22 (in each section, two or more point groups including the start and end points are linked). combined data) is sent to the difference detection means 16b.
時刻t9において差異検出手段16bはこれらのデータを受信する。差異検出手段16bは、地点P2と第2検出区間Sd22の始点Ps22を結ぶ見通し境界線211を算出する。
時刻t10において差異検出手段16bは、計測時刻、地点P2の位置データ、第2検出区間Sd22のデータと、見通し境界線210及び211のデータ(始点終点を含む2つ以上の点群をリンクで結合したデータ)と、共通の終点Peの位置データを領域推定手段17bへ送信する。
At time t9, the difference detection means 16b receives these data. The difference detection means 16b calculates a line of
At time t10, the difference detection means 16b detects the measurement time, the position data of the point P2, the data of the second detection section Sd22, and the data of the line-of-
静止物体存在領域をより限定するために、第1検出区間Sd11及びSd21のデータ(各区間内で始点終点を含む2つ以上の点群をリンクで結合したデータ)を追加で送信してもよい。
時刻t11において領域推定手段17bはこれらのデータを受信して、静止物体存在領域を推定する。
In order to further limit the stationary object existence area, the data of the first detection sections Sd11 and Sd21 (data obtained by linking two or more point groups including the start point and end point in each section) may be additionally transmitted. .
At time t11, the region estimating means 17b receives these data and estimates the stationary object existence region.
なお、外部センサ10のセンサ信号が遠方の物体の画像データを含む場合(例えば道路境界線を表現する為の点群のうち1つ以上が30m以上にある等)は非圧縮あるいは可逆圧縮処理を行ったデータを送信し、それ以外の画像領域は圧縮画像を復調用識別情報付きで送信してよい。また、位置座標はGNSSで扱われる緯度経度や、最寄り交差点からの道のり距離、平面直角座標系(平成14年国土交通省告示第9号等で指定されるもの)を用いて表現してよい。時刻情報はGNSSから配信される時刻情報を用いてよい。
When the sensor signal of the
(第2実施形態の効果)
(1)差異検出手段16bは、第2検出区間Sd12及びSd22の両端のうち観測点P1及びP2に近い一方の端点Ps12及びPs22と観測点P1及びP2とを結ぶ線分である見通し境界線210及び211を、複数の観測点P1及びP2についてそれぞれ算出する。差異検出手段16b及び領域推定手段17bは、複数の観測点P1及びP2で算出した見通し境界線210及び211に基づいて、静止物体存在領域を推定する。
このように、複数の観測点P1及びP2から第2検出区間Sd12及びSd22を検出することにより生じる見通し境界線210及び211の変化に基づいて静止物体存在領域を推定することにより、静止物体存在領域の推定精度を向上できる。
(Effect of Second Embodiment)
(1) The difference detection means 16b detects line-of-
In this way, by estimating the stationary object existence area based on changes in the line of
(2)差異検出手段16b及び領域推定手段17bは、複数の観測点P1及びP2で算出した見通し境界線210及び211の交点Pcに基づいて、静止物体存在領域を推定する。交点Pcにより静止物体201の頂点の1つの位置を求めることができるので、静止物体存在領域の推定精度をさらに向上できる。
(2) The difference detection means 16b and the area estimation means 17b estimate the stationary object presence area based on the intersection point Pc of the line of
(3)区間検出手段15bは、観測点P1及びP2の各々で不連続な複数の検出区間が検出される場合に、不連続部分を挟んで隣接する一対の検出区間のうち、観測点に比較的近い第1検出区間Sd11及びSd21と、観測点から比較的遠い第2検出区間Sd12及びSd22を検出する。領域推定手段17bは、第1検出区間Sd11及びSd21の両端のうち第2検出区間Sd12及びSd22に近い一方の端点Peで第1検出区間Sd21と直角に交わる垂線204と、見通し境界線211との交点Pvに基づいて、静止物体存在領域を推定する。
(3) When a plurality of discontinuous detection sections are detected at each of the observation points P1 and P2, the section detection means 15b compares a pair of detection sections adjacent to each other across the discontinuity between the observation points. First detection sections Sd11 and Sd21 that are closer to the target, and second detection sections Sd12 and Sd22 that are relatively far from the observation point are detected. The region estimating means 17b determines the line of
これにより、観測点P1と静止物体201との間に観測点P2がある場合、第1検出区間Sd11及びSd21の終点Pe11及びPe21が共通の終点Peとなり、終点Peに基づいて静止物体201の端点を決定することができる。また、垂線204と見通し境界線211との交点Pvを求めることにより、静止物体201の他の端点の近傍点を決定できる。これにより静止物体201の推定存在領域をより限定できる。
As a result, when the observation point P2 is between the observation point P1 and the
(変形例)
上述の第1実施形態の変形例と同様に、予め既知の物標202の位置情報を有する地図情報に基づいて、観測点から外部センサ10が検出した物標202の検出位置(特に道幅方向位置)を補正してもよい。これにより、地図情報に基づいて見通し境界線210及び211を補正できる。
これにより、より正確な検出区間の位置を検出することができる。以下に説明する第3実施形態及び第4実施形態においても同様である。
(Modification)
Similar to the modified example of the first embodiment described above, based on the map information having the known position information of the
This makes it possible to detect the position of the detection section more accurately. The same applies to third and fourth embodiments described below.
(第3実施形態)
(構成)
次に、第3実施形態を説明する。第3実施形態の物体認識システム100では、複数の車両に搭載されたセンサにより、複数の地点から、道路に沿って延在する又は道路沿いに連なって存在する同一物体を検出する。複数の車両に搭載されたセンサの各々は、同一時刻に同一物体を検出してもよく、異なる時刻に同一物体を検出してもよい。
(Third embodiment)
(composition)
Next, a third embodiment will be described. In the
図8を参照する。第3実施形態の物体認識システム100は、図1に示す第1実施形態の物体認識システム100の構成に加えて、第2車両2に搭載された外部センサ20と、測位装置21と、通信装置22を備える。
外部センサ20は、第2車両2の周囲の物体を検出する複数の異なる種類のセンサを備える。測位装置21は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して、現在時刻と、第2車両2の現在位置及び進行方向を測定する。
Please refer to FIG. In addition to the configuration of the
The
外部センサ20は、例えば第1車両1の外部センサ10と同様の構成を有してよく、測位装置21は、例えば第1車両1の測位装置11と同様の構成を有してよい。
通信装置22は、測位装置21から得られる現在時刻情報に基づいて外部センサ20に対して基準時刻を配信する。また、通信装置22は、コンピュータ15、16及び17の通信手段15a、16a及び17aを介して、それぞれ区間検出手段15b、差異検出手段16b及び領域推定手段17bとの間でデータの送受信を行う。
The
The
なお、コンピュータ15~17が、第2車両2に実装されてもよい。この場合、通信装置22及び通信手段15a~17aは、有線又は無線の通信手段によりデータを授受してよい。例えば、通信装置22及び通信手段15a~17aは、例えばCSMA/CA方式の多重通信(CAN:Controller Area Network)やフレックスレイ(Flex Ray)等の車載通信ネットワーク(車載LAN)を備えてもよい。
Note that the
コンピュータ15~17は、第2車両2以外の場所に実装されてもよい。この場合、例えば通信装置22及び通信手段15a~17aは、車車間通信、公衆携帯電話網、路車間通信、衛星通信等の無線通信手段を介して、互いにデータを授受する。
コンピュータ15~17は、例えば、第1車両1等の他車両、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバに実装されてもよい。
Computers 15 - 17 may be mounted at locations other than
The
第1車両1及び第2車両2により複数の地点から同時に観測する場合、第1車両1の通信装置12と第2車両2の通信装置22とは、低遅延の通信無線で直接接続してもよい。無線方式は、例えばIEEE802.11pで規定されるDSRC方式もしくは3GPP Release14以降で規定されるセルラV2X方式を用い、第1車両1と第2車両2との間で通信接続を確立してよい。
When observing simultaneously from a plurality of points by the
図9を参照する。第3実施形態の物体認識システム100は、第1実施形態及び第2実施形態の物体認識システム100と同様の機能構成を有しており、同一の構成要素には同じ参照符号を付する。
物体認識システム100は、第1実施形態及び第2実施形態の区間検出手段15bと同様の機能を備える区間検出手段15b1及び15b2を、それぞれ第1車両1及び第2車両2に実装する。また物体認識システム100は、地図データベース18aと道路構造補正手段18bを備える。図9において地図データベースを「地図DB」と表記する。地図データベース18a及び道路構造補正手段18bは、第1車両1や第2車両2に実装されてもよく、その他の車両や、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバのいずれかに実装されてもよい。
See FIG. The
The
外部センサ10及び20は、それぞれ第1車両1及び第2車両2の周囲の物体を検出する。測位装置11及び21は、第1車両1及び第2車両2のそれぞれの現在位置を測定する。
図10Aを参照する。第1車両1は地点P1に位置し、第2車両2は地点P2に位置する。第2車両2は、例えば第1車両1の対向車両又は交差車両であってよい。第1車両1の「交差車両」とは、第1車両1の進路と交差する進路上を走行する車両を意味する。
第3実施形態の物体認識システム100は、第1車両1及び第2車両2が位置する地点P1及びP2の間に存在する静止物体存在領域を推定する。
See FIG. 10A. A
The
第1車両1の区間検出手段15b1は、地点P1における外部センサ10による検出結果に基づいて、第1検出区間Sd11、第2検出区間Sd12、第1検出区間Sd11の終点Pe11、第2検出区間Sd12の始点Ps12を検出し、非検出区間Su1を推定する。第1車両1の通信装置12は、これらのデータを差異検出手段16bへ送信する。
The section detection means 15b1 of the
第2車両2の区間検出手段15b2は、地点P2における外部センサ20による検出結果に基づいて、第1検出区間Sd21、第2検出区間Sd22、第1検出区間Sd21の終点Pe21、第2検出区間Sd22の始点Ps22を検出し、非検出区間Su2を推定する。第2車両2の通信装置12は、これらのデータを差異検出手段16bへ送信する。
The section detection means 15b2 of the
差異検出手段16bは、地点P1で検出した第2検出区間Sd12と、地点P2で検出した第1検出区間Sd21との差異を検出する。例えば、第2検出区間Sd12の始点Ps12と、第1検出区間Sd21の終点Pe21との差異を検出する。
または、地点P1で検出した第1検出区間Sd11と、地点P2で検出した第2検出区間Sd22との差異を検出する。例えば、第1検出区間Sd11の終点Pe11と、第2検出区間Sd22の始点Ps22との差異を検出する。
The difference detection means 16b detects the difference between the second detection section Sd12 detected at the point P1 and the first detection section Sd21 detected at the point P2. For example, the difference between the start point Ps12 of the second detection section Sd12 and the end point Pe21 of the first detection section Sd21 is detected.
Alternatively, the difference between the first detection section Sd11 detected at the point P1 and the second detection section Sd22 detected at the point P2 is detected. For example, the difference between the end point Pe11 of the first detection section Sd11 and the start point Ps22 of the second detection section Sd22 is detected.
さらに、差異検出手段16bは、地点P1と第2検出区間Sd12の始点Ps12とを結ぶ見通し境界線210を算出する。また、地点P2と第2検出区間Sd22の始点Ps22とを結ぶ見通し境界線211を算出する。
差異検出手段16bは、検出区間の差異の検出結果、及び算出した見通し境界線210及び211を領域推定手段17bに送信する。
Further, the difference detection means 16b calculates a line of
The difference detection means 16b transmits the detection result of the difference in the detection section and the calculated line-of-
領域推定手段17bは、第2検出区間Sd12と第1検出区間Sd21との間に差異が存在する場合に、地点P1及びP2の間に静止物体201が存在すると判定する。または、第1検出区間Sd11と第2検出区間Sd22との間に差異が存在する場合に、地点P1及びP2の間に静止物体201が存在すると判定する。
The area estimation means 17b determines that the
図10Bを参照する。静止物体201が存在すると判定した場合、領域推定手段17bは、地点P1及びP2のいずれからも物標202が検出されない区間を物体存在可能性区間として推定する。例えば、第1検出区間Sd11及びSd21の終点Pe11及びPe21の間の区間(すなわち、非検出区間Su1と非検出区間Su2の重複領域)を、物体存在可能性区間として推定する。
図10Cを参照する。領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域218を推定する。
See FIG. 10B. When it is determined that the
See FIG. 10C. The area estimating means 17b estimates the stationary
例えば領域推定手段17bは、終点Pe11で第1検出区間Sd11と直角に交わる垂線216と、見通し境界線211との交点Pv1を求める。また、終点Pe21で第1検出区間Sd21と直角に交わる垂線217と、見通し境界線210との交点Pv2を求める。終点Pe11と交点Pv1を結ぶ線分、交点Pv1と交点Pv2を結ぶ線分、交点Pv2と終点Pe21を結ぶ線分、及び終点Pe21と終点Pe11を結ぶ線分に囲まれる領域を、静止物体存在領域として推定する。
For example, the region estimating means 17b obtains an intersection point Pv1 between the line of
図9を参照する。静止物体存在領域が推定されると、道路構造補正手段18bは、静止物体存在領域が存在する区間における物標202の位置情報を、地図データベース18aから読み出す。
地図データベース18aは、道路形状や、地物、ランドマーク等の物標の位置や、物標が存在する区間情報などの地図情報を記憶している。地図データベース18aに記憶される物標には、道路200に沿って延在する又は道路200沿いに連なって存在する物標202が含まれる。地図データベース18aとして、例えば、自律走行用の地図として好適な高精度地図データを記憶してよい。
See FIG. After the stationary object existence area is estimated, the road structure correction means 18b reads the position information of the
The
道路構造補正手段18bは、地図データベース18aから読み出した物標202の位置情報に基づいて、道路形状や道路の構造に起因して地点P1又はP2から物標202が検出されない範囲である検出不可範囲を算出する。
このような範囲では、領域推定手段17bは、誤って静止物体存在領域を推定する恐れがある。したがって、道路構造補正手段18bは、検出不可範囲において静止物体存在領域の推定を行わないように、静止物体存在領域の推定結果を補正する。具体的には、静止物体存在領域に検出不可範囲が含まれる場合には、静止物体存在領域の推定を取り消す。
Based on the position information of the
In such a range, the
図11Aを参照する。例えば道路に沿って延在する物標220としてガードレールや縁石を検出し、地点P1に位置する第1車両1の進路の前方にカーブ区間がある場合を想定する。このような場合には、カーブ区間の物標220の一部が地点P1から見て死角に入る。線分221は、地点P1から見たカーブ区間での見通し可能範囲と見通し外範囲との境界線を示している。
道路構造補正手段18bは、カーブ区間において外部センサ10により検出されない物標220の範囲を検出不可範囲として算出する。静止物体存在領域に検出不可範囲が含まれる場合には、静止物体存在領域の推定を取り消す。
See FIG. 11A. For example, it is assumed that a guardrail or a curbstone is detected as the
The road structure correction means 18b calculates the range of the
図11Bを参照する。例えば道路に沿って延在する物標230として道路壁を検出し、地点P1に位置する第1車両1の進路の前方に交差点がある場合を想定する。交差点内には物標230が存在せず、また、交差道路に沿った物標230の一部が地点P1から見て死角に入る。線分231は、地点P1から見た交差点での見通し可能範囲と見通し外範囲との境界線を示している。
道路構造補正手段18bは、交差点において外部センサ10により検出されない物標220の範囲を検出不可範囲として算出する。静止物体存在領域に検出不可範囲が含まれる場合には、静止物体存在領域の推定を取り消す。例えば、静止物体存在領域の位置と地図上の交差点の位置が等しく、静止物体存在領域の長さが交差道路の幅に近い場合に、静止物体存在領域の推定を取り消す。
See FIG. 11B. For example, it is assumed that a road wall is detected as a
The road structure correction means 18b calculates the range of the
図11Cを参照する。例えば道路に沿って延在する物標240として道路の路面を検出し、地点P1に位置する第1車両1の進路の前方に道路の高低差(凹部)がある場合を想定する。このような場合には、路面の凹部の一部が地点P1から見て死角に入る。
道路構造補正手段18bは、道路の高低差により外部センサ10により検出されない路面240の範囲を検出不可範囲として算出する。静止物体存在領域に検出不可範囲が含まれる場合には、静止物体存在領域の推定を取り消す。
図9を参照する。軌道生成手段110は、領域推定手段17bが推定した静止物体存在領域のうち、道路構造補正手段18bにより取り消されなかった静止物体存在領域を回避するように目標走行軌道と速度プロファイルを生成する。
See FIG. 11C. For example, it is assumed that the road surface is detected as a
The road structure correction means 18b calculates the range of the
See FIG. The trajectory generation means 110 generates a target travel trajectory and a speed profile so as to avoid the stationary object existence areas that have not been canceled by the road structure correction means 18b among the stationary object existence areas estimated by the area estimation means 17b.
なお、区間検出手段15b1及び15b2は、道路に沿って延在する物標として道路白線を検出する場合、破線の道路白線、または周期的な欠落部を有する道路白線の端点を、第1検出区間又は第2検出区間の端点と検出しないように、道路白線の端点の検出結果を補正してよい。
図11Dを参照する。道路白線250の端点の間隔が一定間隔Tである場合、区間検出手段15b1及び15b2は、これら一定間隔Tで存在する道路白線の端点を、第1検出区間又は第2検出区間の端点として検出することを禁止する。区間検出手段15b1及び15b2は、道路白線の端点251及び252の間隔Lと一定間隔Tとの差が所定閾値よりも大きい場合に、端点251及び252を第1検出区間及び第2検出区間の端点として検出する。
Note that when the section detection means 15b1 and 15b2 detect a road white line as a target extending along the road, the end points of the broken road white line or the road white line having periodic missing portions are detected as the first detection section. Alternatively, the detection result of the end point of the road white line may be corrected so as not to be detected as the end point of the second detection section.
See FIG. 11D. When the interval between the end points of the road
(動作)
次に、図12を参照して第3実施形態の物体認識方法の一例を説明する。
ステップS30~S33の処理は、図6におけるステップS10~S13の処理と同様である。
ステップS34において差異検出手段16bは、地点P1で検出した検出区間と、地点P2で検出した検出区間との相違を判定する。
(motion)
Next, an example of the object recognition method of the third embodiment will be described with reference to FIG.
The processing of steps S30 to S33 is the same as the processing of steps S10 to S13 in FIG.
In step S34, the difference detection means 16b determines the difference between the detection section detected at the point P1 and the detection section detected at the point P2.
地点P1で検出した検出区間と地点P2で検出した検出区間に差異がある場合(ステップS34:Y)に、処理はステップS35に進む。差異がない場合(ステップS34:N)に、物体存在可能性区間を推定せずに処理を終了する。
ステップS35において領域推定手段17bは、地点P1及びP2のいずれからも物標202が検出されない区間を物体存在可能性区間として推定する。
If there is a difference between the detected section detected at point P1 and the detected section detected at point P2 (step S34: Y), the process proceeds to step S35. If there is no difference (step S34: N), the process ends without estimating the object existence possibility interval.
In step S35, the region estimating means 17b estimates a section in which the
ステップS36において領域推定手段17bは、物体存在可能性区間を道幅方向に制限して静止物体存在領域を推定する。
ステップS37において道路構造補正手段18bは、領域推定手段17bが推定した静止物体存在領域内に、道路形状や道路の構造に起因して物標202が検出されない範囲である検出不可範囲が存在するか否かを判定する。
In step S36, the region estimating means 17b limits the object existence possibility section in the road width direction to estimate the stationary object existence region.
In step S37, the road structure correction means 18b determines whether there is an undetectable range in which the
静止物体存在領域内に検出不可範囲が存在する場合(ステップS37:Y)に処理はステップS39に進む。静止物体存在領域内に検出不可範囲が存在しない場合(ステップS37:N)に処理はステップS38に進む。
ステップS38において道路構造補正手段18bは、静止物体存在領域内に静止物体が存在すると判定する。軌道生成手段110は、目標走行軌道を走行する第1車両1が静止物体存在領域と干渉するか否かを判断し、静止物体存在領域か回避するように第1車両1の走行制御を実施する必要があるか否かを判定する。
If there is an undetectable range within the stationary object presence area (step S37: Y), the process proceeds to step S39. If there is no undetectable range within the stationary object presence area (step S37: N), the process proceeds to step S38.
In step S38, the road structure correction means 18b determines that a stationary object exists within the stationary object existence area. The trajectory generation means 110 determines whether or not the
静止物体存在領域か回避する場合に軌道生成手段110は、静止物体存在領域か回避するための目標走行軌道と速度プロファイルを生成する。その後に処理は終了する。
一方、ステップS39に道路構造補正手段18bは、静止物体存在領域内に静止物体が存在すると判定する。領域推定手段17bが推定した静止物体存在領域を取り消して、処理を終了する。
When the stationary object existence area is to be avoided, the trajectory generation means 110 generates a target travel trajectory and a speed profile for avoiding the stationary object existence area. Processing then ends.
On the other hand, in step S39, the road structure correction means 18b determines that a stationary object exists within the stationary object existence area. The stationary object presence area estimated by the area estimation means 17b is cancelled, and the process is terminated.
(第3実施形態の効果)
(1)道路構造補正手段18bは、道路に沿った物標の位置情報を有する地図情報に基づいて、観測点P1、P2から物標が検出されない範囲である検出不可範囲を算出する。道路構造補正手段18bは、検出不可範囲における静止物体存在領域の推定を禁止する。
これにより、静止物体の有無に関わらず道路に沿った物標を検出できない区間を、静止物体存在領域として誤検出することを防止できる。
(Effect of the third embodiment)
(1) The road structure correction means 18b calculates an undetectable range, which is a range in which targets are not detected from the observation points P1 and P2, based on map information having positional information of targets along the road. The road structure correction means 18b prohibits the estimation of the stationary object existence area in the undetectable range.
As a result, it is possible to prevent erroneous detection of a section along the road where a target object cannot be detected as a stationary object existing area regardless of the presence or absence of a stationary object.
(2)外部センサ10及び20は、道路に沿って延在する物標として道路区画線250を検出する。区間検出手段15b1及び15b2は、一定間隔で存在する道路区画線250の端点を、検出区間の端点として検出しない。
これにより、破線の道路白線または周期的な欠落部を有する道路白線が描かれている区間において、静止物体存在領域を誤検出することを防止できる。
(2)
As a result, it is possible to prevent erroneous detection of a stationary object existing area in a section where a broken road white line or a road white line having periodic missing portions is drawn.
(3)第1車両1の外部センサ10は、複数の観測点の一つである地点P1から物標202を検出し、第1車両1の対向車両又は交差車両である第2車両2の外部センサ20は、複数の観測点の他の一つである地点P2から物標を検出する。
これにより死角をなくして静止物体存在領域をより高精度に検出できる。
(3) The
As a result, blind spots can be eliminated and the stationary object existence area can be detected with higher accuracy.
(4)第1車両1の外部センサ10は、複数の観測点の一つである地点P1から物標202を検出し、第1車両1の対向車両又は交差車両である第2車両2の外部センサ20は、複数の観測点の他の一つである地点P2から物標を検出する。
地点P1及びP2の各々で不連続な複数の検出区間が検出される場合に、区間検出手段15b1及び15b2は、不連続部分を挟んで隣接する一対の検出区間のうち、地点P1及びP2に比較的近い第1検出区間Sd11及びSd21と、地点P1及びP2から比較的遠い第2検出区間Sd12及びSd22と、第1検出区間Sd11及びSd21の両端のうち第2検出区間Sd12及びSd22に近い一方の端点である第1検出区間端点Pe11及びPe21とを検出する。
領域推定手段17bは、第1車両1及び第2車両2で各々検出した第1検出区間端点Pe11及びPe21に基づいて、静止物体存在領域を推定する。
これにより、静止物体201の両端の位置を特定できるため、静止物体存在領域をより高精度に検出できる。
(4) The
When a plurality of discontinuous detection sections are detected at each of the points P1 and P2, the section detection means 15b1 and 15b2 compare points P1 and P2 among a pair of detection sections adjacent to each other across the discontinuous portion. First detection sections Sd11 and Sd21 close to the point, second detection sections Sd12 and Sd22 relatively far from the points P1 and P2, and one of both ends of the first detection sections Sd11 and Sd21 closer to the second detection sections Sd12 and Sd22. First detection section end points Pe11 and Pe21, which are end points, are detected.
The region estimating means 17b estimates a stationary object existing region based on the first detected section end points Pe11 and Pe21 detected by the
As a result, the positions of both ends of the
(変形例)
区間検出手段15b、差異検出手段16b及び領域推定手段17bは、第1実施形態及び第2実施形態の物体認識方法と同様の方法で、第2車両2が複数の異なる地点から検出した第1検出区間及び第2検出区間に基づいて静止物体存在領域を推定してもよい。領域推定手段17bは、推定した静止物体存在領域を第1車両1に送信してもよい。第1車両1は、例えば第2車両2よりも静止物体存在領域から遠くに位置する車両であってよい。
これにより、第2車両2によって推定した静止物体存在領域の情報に基づいて、後続の第1車両1の走行制御を実施することができる。
(Modification)
The section detection means 15b, the difference detection means 16b, and the area estimation means 17b use the same method as the object recognition method of the first and second embodiments to perform the first detection detected by the
As a result, based on the information of the stationary object existence area estimated by the
(第4実施形態)
(構成)
次に、第4実施形態を説明する。第4実施形態の物体認識システム100では、同じ領域の異なる時刻における静止物体存在領域を推定し、異なる時刻の静止物体存在領域どうしを比較する。静止物体存在領域が経時変化しない場合に、静止物体存在領域に静止物体が存在すると判定する。静止物体存在領域が経時変化する場合には、一時的に停車している車列が静止物体存在領域に存在していると判定する。
(Fourth embodiment)
(composition)
Next, a fourth embodiment will be described. The
図13を参照する。第4実施形態の物体認識システム100は、図8に示す第3実施形態の物体認識システム100の構成に加えて、第3車両3に搭載された外部センサ30と、測位装置31と、通信装置32を備える。
外部センサ30は、第3車両3の周囲の物体を検出する複数の異なる種類のセンサを備える。測位装置31は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して、現在時刻と、第3車両3の現在位置及び進行方向を測定する。
Please refer to FIG. In addition to the configuration of the
The
外部センサ30は、例えば第2車両2の外部センサ20と同様の構成を有してよく、測位装置31は、例えば第2車両2の測位装置21と同様の構成を有してよい。
通信装置32は、測位装置31から得られる現在時刻情報に基づいて外部センサ30に対して基準時刻を配信する。また、通信装置32は、コンピュータ15、16及び17の通信手段15a、16a及び17aを介して、それぞれ区間検出手段15b、差異検出手段16b及び領域推定手段17bとの間でデータの送受信を行う。
The
The
なお、コンピュータ15~17が、第3車両3に実装されてもよい。この場合、通信装置32及び通信手段15a~17aは、有線又は無線の通信手段によりデータを授受してよい。例えば、通信装置32及び通信手段15a~17aは、例えばCSMA/CA方式の多重通信(CAN:Controller Area Network)やフレックスレイ(Flex Ray)等の車載通信ネットワーク(車載LAN)を備えてもよい。
Note that the
コンピュータ15~17は、第3車両3以外の場所に実装されてもよい。この場合、例えば通信装置32及び通信手段15a~17aは、車車間通信、公衆携帯電話網、路車間通信、衛星通信等の無線通信手段を介して、互いにデータを授受する。
コンピュータ15~17は、例えば、第1車両1や第2車両2等の他車両、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバに実装されてもよい。
Computers 15 - 17 may be mounted at locations other than
The
図14を参照する。第4実施形態の物体認識システム100は、第1実施形態及び第2実施形態の物体認識システム100と同様の機能構成を有しており、同一の構成要素には同じ参照符号を付する。
物体認識システム100は、第1実施形態及び第2実施形態の区間検出手段15bと同様の機能を備える区間検出手段15b2及び15b3を、それぞれ第2車両2及び第3車両3に実装する。
Please refer to FIG. The
The
また物体認識システム100は停車車列判定手段19を備える。停車車列判定手段19は、第1車両1~第3車両3に実装されてもよく、その他の車両や、携帯電話/自営網上のモバイルエッジコンピュータ、路側に設置された道路交通インフラサーバもしくはインターネット上のクラウドサーバのいずれかに実装されてもよい。
The
外部センサ20及び30は、それぞれ第2車両2及び第3車両3の周囲の物体を検出する。測位装置21及び31は、第2車両2及び第3車両3のそれぞれの現在位置を測定する。
区間検出手段15b2と、差異検出手段16bと、領域推定手段17bは、第2車両2の外部センサ20による検出結果と測位装置21の測定結果に基づいて、静止物体存在領域を推定する。
区間検出手段15b3と、差異検出手段16bと、領域推定手段17bは、第3車両3の外部センサ30による検出結果と測位装置31の測定結果に基づいて、静止物体存在領域を推定する。
The section detecting means 15b2, the
The section detecting means 15b3, the
図15A及び図15Bは、異なる時刻に同一の領域を通過した第2車両2と第3車両3から測定した測定結果に基づいて推定した静止物体存在領域をそれぞれ示す。第3車両3は、所定時間t(例えば30秒)遅れて第2車両2と同じ領域を通過している。
白抜きの矩形は、道路に沿った物標を表す。ハッチングが施された領域r1~r4は静止物体存在領域を表す。
なお、外部センサ20及び30として第2車両2及び第3車両3の側方の物標を検出する側方センサを設けて、第2車両2及び第3車両3が通過する際に側方センサが道路に沿った物標を検出しない領域を、静止物体存在領域として推定してもよい。
15A and 15B respectively show stationary object existence regions estimated based on measurement results obtained from the
Outlined rectangles represent targets along the road. Hatched regions r1 to r4 represent stationary object existence regions.
As the
停車車列判定手段19は、異なる時刻において同じ領域にて推定された静止物体存在領域どうしを比較し、静止物体存在領域が経時変化するか否かを判定する。静止物体存在領域が経時変化しない場合に、静止物体存在領域に静止物体が存在すると判定する。静止物体存在領域が経時変化する場合には、一時的に停車している車列が静止物体存在領域に存在していると判定する。 The stationary train determination means 19 compares the stationary object existence areas estimated in the same area at different times, and determines whether the stationary object existence area changes with time. If the stationary object existence area does not change with time, it is determined that the stationary object exists in the stationary object existence area. When the stationary object existence area changes with time, it is determined that the train temporarily stopped exists in the stationary object existence area.
図15A及び図15Bに示す例では、所定時間tが経過しても静止物体存在領域r1の位置の変化がない。また、静止物体存在領域r1とr2の間の区間s1は延長しており、静止物体存在領域r2の位置が変化している。同様にr3及びr4の位置の変化が変化しており、静止物体存在領域r2とr3の間の区間s2、静止物体存在領域r3とr4の間の区間s3も延長している。 In the examples shown in FIGS. 15A and 15B, the position of the stationary object existence region r1 does not change even after the predetermined time t has passed. Also, the section s1 between the stationary object existence areas r1 and r2 is extended, and the position of the stationary object existence area r2 is changed. Similarly, the changes in the positions of r3 and r4 are changed, and the section s2 between the stationary object existence areas r2 and r3 and the section s3 between the stationary object existence areas r3 and r4 are also extended.
停車車列判定手段19は、特定の領域で検出された静止物体存在領域r1~r4とその間の区間s1~s3の一つ以上で経時変化が生じた場合に、これらの静止物体存在領域r1~r4は、停車車列であると判定し、領域推定手段17bが推定した静止物体存在領域を取り消す。
静止物体存在領域r1~r4と区間s1~s3の何れも経時変化しない場合に、静止物体存在領域r1~r4に静止物体が存在すると判定し、静止物体存在領域r1~r4の位置情報を第1車両1の車載装置13へ送信する。
The stopped train determination means 19 detects the stationary object existence areas r1 to r4 detected in the specific area and one or more of the sections s1 to s3 therebetween. R4 is determined to be a stopped train, and the stationary object presence region estimated by the region estimation means 17b is cancelled.
When none of the stationary object existence areas r1 to r4 and the sections s1 to s3 change with time, it is determined that the stationary object exists in the stationary object existence areas r1 to r4, and the position information of the stationary object existence areas r1 to r4 is set to the first It is transmitted to the in-
車載装置13の軌道生成手段110は、停車車列判定手段19から送信された静止物体存在領域r1~r4を回避するように目標走行軌道と速度プロファイルを生成する。
第1車両1は、例えば第2車両2や第3車両3よりも静止物体存在領域r1~r4から遠くに位置する車両であってよい。これにより、第2車両2及び第3車両3によって推定した静止物体存在領域の情報に基づいて、後続の第1車両1の走行制御を実施することができる。
The trajectory generation means 110 of the in-
The
(動作)
次に、図16を参照して第4実施形態の物体認識方法の一例を説明する。ステップS40~S46の処理は、図6に示した第2実施形態のステップS10~S16と同様であり、複数の車両(例えば第2車両2及び第3車両3)毎に実行する。
ステップS47において停車車列判定手段19は、異なる時刻において複数の車両が同じ領域にて推定された静止物体存在領域どうしを比較し、静止物体存在領域が経時変化するか否かを判定する。
(motion)
Next, an example of the object recognition method of the fourth embodiment will be described with reference to FIG. The processes of steps S40 to S46 are the same as steps S10 to S16 of the second embodiment shown in FIG. 6, and are executed for each of a plurality of vehicles (eg,
In step S47, the stopped train determination means 19 compares the stationary object existence areas estimated in the same area by a plurality of vehicles at different times, and determines whether or not the stationary object existence area changes with time.
静止物体存在領域が経時変化する場合(ステップS47:Y)に処理はステップS49へ進む。静止物体存在領域が経時変化しない場合(ステップS47:N)に処理はステップS48へ進む。
ステップS48において停車車列判定手段19は、静止物体存在領域内に静止物体が存在すると判定する。軌道生成手段110は、目標走行軌道を走行する第1車両1が静止物体存在領域と干渉するか否かを判断し、静止物体存在領域か回避するように第1車両1の走行制御を実施する必要があるか否かを判定する。
If the stationary object existence area changes with time (step S47: Y), the process proceeds to step S49. If the stationary object presence area does not change over time (step S47: N), the process proceeds to step S48.
In step S48, the stopped train determination means 19 determines that a stationary object exists within the stationary object existence area. The trajectory generation means 110 determines whether or not the
静止物体存在領域か回避する場合に軌道生成手段110は、静止物体存在領域か回避するための目標走行軌道と速度プロファイルを生成する。その後に処理は終了する。
ステップS49において停車車列判定手段19は、静止物体存在領域に存在するのは停車車列であると判定し、領域推定手段17bが推定した静止物体存在領域を取り消す。その後に処理は終了する。
When the stationary object existence area is to be avoided, the trajectory generation means 110 generates a target travel trajectory and a speed profile for avoiding the stationary object existence area. Processing then ends.
In step S49, the stopped vehicle train determination means 19 determines that the stopped vehicle train exists in the stationary object existence area, and cancels the stationary object existence area estimated by the area estimation means 17b. Processing then ends.
(第4実施形態の効果)
停車車列判定手段19は、異なる時刻における静止物体存在領域を各々推定し、静止物体存在領域に経時変化がない場合に、前記静止物体存在領域に静止物体が存在すると判定する。これにより、一時的に停止している物体、例えば停車車両を静止物体と誤検出することを防止できる。
(Effect of the fourth embodiment)
The stopped train determination means 19 estimates stationary object existence areas at different times, and determines that a stationary object exists in the stationary object existence areas when there is no change over time in the stationary object existence areas. As a result, it is possible to prevent erroneous detection of a temporarily stopped object, such as a stopped vehicle, as a stationary object.
1…第1車両、2…第2車両、3…第3車両、10…外部センサ、11…測位装置、12…通信装置、13…車載装置、14…アクチュエータ、15…コンピュータ、15a…通信手段、15b、15b1~15b3…区間検出手段、16…コンピュータ、16b…差異検出手段、17…コンピュータ、17a…通信手段、17b…領域推定手段、18a…地図データベース、18b…道路構造補正手段、19…停車車列判定手段、20…外部センサ、21…測位装置、22…通信装置、30…外部センサ、31…測位装置、32…通信装置、100…物体認識システム、110…軌道生成手段、111…走行制御手段
DESCRIPTION OF
Claims (14)
コンピュータが、
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、
複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記検出区間の両端のうち前記観測点に近い一方の端点と前記観測点とを結ぶ線分である見通し境界線を、前記複数の観測点についてそれぞれ算出し、
前記複数の観測点で算出した前記見通し境界線に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定する、
ことを特徴とする物体認識方法。 Detecting a target extending along the road from an observation point on the road with a sensor ,
the computer
detecting a detection section, which is a section in which a portion of the target detected from the observation point exists;
A line segment connecting one of the two ends of the detection section closer to the observation point to the observation point based on the positions of the end points of the plurality of different detection sections respectively detected at the plurality of observation points. calculating a boundary line for each of the plurality of observation points;
estimating a stationary object existence area, which is an area in which a stationary object exists on the road, based on the line of sight boundary calculated at the plurality of observation points;
An object recognition method characterized by:
前記物標の前記観測点から検出されない部分が存在する区間である非検出区間を、前記複数の観測点についてそれぞれ推定し、
前記非検出区間の重複部分に基づいて、前記静止物体存在領域を推定する、
ことを特徴とする請求項1又は2に記載の物体認識方法。 The computer is
estimating, for each of the plurality of observation points, a non-detection section, which is a section in which there is a portion of the target that is not detected from the observation point;
estimating the stationary object existence area based on the overlapping portion of the non-detection interval;
3. The object recognition method according to claim 1 or 2, characterized in that:
前記観測点の各々で不連続な複数の前記検出区間が検出される場合に、不連続部分を挟んで隣接する一対の前記検出区間のうち、前記観測点に比較的近い第1検出区間と、前記観測点から比較的遠い第2検出区間と、を検出し、
前記第1検出区間の両端のうち前記第2検出区間に近い一方の端点で前記第1検出区間と直角に交わる垂線と、前記第2検出区間の両端のうち前記観測点に近い一方の端点と前記観測点とを結んだ前記見通し境界線との交点に基づいて、前記静止物体存在領域を推定する、
ことを特徴とする請求項1又は2に記載の物体認識方法。 The computer is
when a plurality of discontinuous detection intervals are detected at each of the observation points, a first detection interval relatively close to the observation point among a pair of the detection intervals adjacent across a discontinuous portion; detecting a second detection section relatively far from the observation point;
a perpendicular line perpendicularly crossing the first detection section at one end point near the second detection section among both ends of the first detection section; and one end point near the observation point among both ends of the second detection section. estimating the stationary object existence area based on the intersection with the line of sight boundary connecting the observation point;
3. The object recognition method according to claim 1 or 2, characterized in that:
前記物標の位置情報を有する地図情報に基づいて、前記観測点から前記物標が検出されない範囲である検出不可範囲を算出し、
前記検出不可範囲において前記静止物体存在領域の推定を行わない、
ことを特徴とする請求項1~4のいずれか一項に記載の物体認識方法。 The computer is
calculating an undetectable range, which is a range in which the target is not detected from the observation point, based on map information having position information of the target;
not estimating the stationary object existence area in the undetectable range;
The object recognition method according to any one of claims 1 to 4, characterized in that:
コンピュータが、
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、
複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定し、
前記複数の観測点の一つにおいて第1車両から前記物標を検出し、前記複数の観測点の他の一つにおいて前記第1車両の対向車両又は交差車両である第2車両から前記物標を検出することを特徴とする物体認識方法。 Detecting a target extending along the road from an observation point on the road with a sensor ,
the computer
detecting a detection section, which is a section in which a portion of the target detected from the observation point exists;
estimating a stationary object presence area, which is an area in which a stationary object exists on the road, based on the positions of the end points of a plurality of different detection sections detected at the plurality of observation points;
The target is detected from a first vehicle at one of the plurality of observation points, and the target is detected from a second vehicle, which is an oncoming vehicle or an intersecting vehicle of the first vehicle, at another one of the plurality of observation points. An object recognition method characterized by detecting
コンピュータが、
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、
複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定し、
前記複数の観測点の一つにおいて第1車両から前記物標を検出し、前記複数の観測点の他の一つにおいて前記第1車両の対向車両である第2車両から前記物標を検出し、
前記観測点の各々で不連続な複数の前記検出区間が検出される場合に、不連続部分を挟んで隣接する一対の前記検出区間のうち、前記観測点に比較的近い第1検出区間と、前記観測点から比較的遠い第2検出区間と、前記第1検出区間の両端のうち前記第2検出区間に近い一方の端点である第1検出区間端点と、を検出し、
前記第1車両及び前記第2車両で各々検出した第1検出区間端点に基づいて、前記静止物体存在領域を推定する、
ことを特徴とする物体認識方法。 Detecting a target extending along the road from an observation point on the road with a sensor ,
the computer
detecting a detection section, which is a section in which a portion of the target detected from the observation point exists;
estimating a stationary object presence area, which is an area in which a stationary object exists on the road, based on the positions of the end points of a plurality of different detection sections detected at the plurality of observation points;
The target is detected from a first vehicle at one of the plurality of observation points, and the target is detected from a second vehicle that is an oncoming vehicle of the first vehicle at another one of the plurality of observation points. ,
when a plurality of discontinuous detection intervals are detected at each of the observation points, a first detection interval relatively close to the observation point among a pair of the detection intervals adjacent across a discontinuous portion; detecting a second detection interval relatively far from the observation point and a first detection interval end point that is one end point closer to the second detection interval out of both ends of the first detection interval;
estimating the stationary object existence area based on the first detection section end points detected by the first vehicle and the second vehicle;
An object recognition method characterized by:
異なる時刻における前記静止物体存在領域を各々推定し、
前記静止物体存在領域に経時変化がない場合に、前記静止物体存在領域に静止物体が存在すると判定する、
ことを特徴とする請求項1~9のいずれか一項に記載の物体認識方法。 The computer is
estimating each of the stationary object existence regions at different times;
determining that a stationary object exists in the stationary object existence area when the stationary object existence area does not change over time;
The object recognition method according to any one of claims 1 to 9, characterized in that:
コンピュータが、
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、
複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定し、
前記観測点の各々で不連続な複数の前記検出区間が検出される場合に、不連続部分を挟んで隣接する一対の前記検出区間のうち、前記観測点に比較的近い第1検出区間と、前記観測点から比較的遠い第2検出区間と、を検出し、
前記第1検出区間の両端のうち前記第2検出区間に近い一方の端点の位置が、前記複数の観測点から検出しても変化しない場合に、静止物体が存在すると判定することを特徴とする物体認識方法。 Detecting a target extending along the road from an observation point on the road with a sensor ,
the computer
detecting a detection section, which is a section in which a portion of the target detected from the observation point exists;
estimating a stationary object presence area, which is an area in which a stationary object exists on the road, based on the positions of the end points of a plurality of different detection sections detected at the plurality of observation points;
when a plurality of discontinuous detection intervals are detected at each of the observation points, a first detection interval relatively close to the observation point among a pair of the detection intervals adjacent across a discontinuous portion; detecting a second detection section relatively far from the observation point;
It is determined that a stationary object exists when the position of one of the ends of the first detection section, which is closer to the second detection section, does not change even when detected from the plurality of observation points. Object recognition method.
前記物標の前記観測点から検出された部分が存在する区間である検出区間を検出し、複数の前記観測点でそれぞれ検出した複数の異なる前記検出区間の端点の位置に基づいて、前記検出区間の両端のうち前記観測点に近い一方の端点と前記観測点とを結ぶ線分である見通し境界線を、前記複数の観測点についてそれぞれ算出し、前記複数の観測点で算出した前記見通し境界線に基づいて、前記道路上に静止物体が存在する領域である静止物体存在領域を推定するコンピュータと、
を備えることを特徴とする物体認識システム。 a sensor that detects a target extending along the road or present along the road from an observation point on the road;
Detecting a detection section, which is a section in which a portion of the target detected from the observation point exists, and determining the detection section based on the positions of the end points of a plurality of different detection sections detected at the plurality of observation points. A line of sight boundary line, which is a line segment connecting one of the two ends of the observation point near the observation point and the observation point, is calculated for each of the plurality of observation points, and the line of sight boundary line calculated at the plurality of observation points a computer for estimating a stationary object existence area, which is an area where a stationary object exists on the road, based on
An object recognition system comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019194692A JP7325296B2 (en) | 2019-10-25 | 2019-10-25 | Object recognition method and object recognition system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019194692A JP7325296B2 (en) | 2019-10-25 | 2019-10-25 | Object recognition method and object recognition system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021068316A JP2021068316A (en) | 2021-04-30 |
JP7325296B2 true JP7325296B2 (en) | 2023-08-14 |
Family
ID=75637347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019194692A Active JP7325296B2 (en) | 2019-10-25 | 2019-10-25 | Object recognition method and object recognition system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7325296B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257449A (en) | 2006-03-24 | 2007-10-04 | Toyota Motor Corp | Road division line detector |
WO2013038818A1 (en) | 2011-09-12 | 2013-03-21 | 日産自動車株式会社 | Three-dimensional object detection device |
JP2016218539A (en) | 2015-05-15 | 2016-12-22 | トヨタ自動車株式会社 | Vehicle runway recognition device |
JP2017076276A (en) | 2015-10-15 | 2017-04-20 | 株式会社日本自動車部品総合研究所 | Stationary object detection apparatus and program |
JP2018120303A (en) | 2017-01-23 | 2018-08-02 | 株式会社Soken | Object detection device |
JP2018206328A (en) | 2017-05-31 | 2018-12-27 | 株式会社Soken | Vehicle control device and vehicle control method |
JP2019112007A (en) | 2017-12-26 | 2019-07-11 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11345392A (en) * | 1998-06-02 | 1999-12-14 | Nissan Motor Co Ltd | Device and method for detecting obstacle |
-
2019
- 2019-10-25 JP JP2019194692A patent/JP7325296B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007257449A (en) | 2006-03-24 | 2007-10-04 | Toyota Motor Corp | Road division line detector |
WO2013038818A1 (en) | 2011-09-12 | 2013-03-21 | 日産自動車株式会社 | Three-dimensional object detection device |
JP2016218539A (en) | 2015-05-15 | 2016-12-22 | トヨタ自動車株式会社 | Vehicle runway recognition device |
JP2017076276A (en) | 2015-10-15 | 2017-04-20 | 株式会社日本自動車部品総合研究所 | Stationary object detection apparatus and program |
JP2018120303A (en) | 2017-01-23 | 2018-08-02 | 株式会社Soken | Object detection device |
JP2018206328A (en) | 2017-05-31 | 2018-12-27 | 株式会社Soken | Vehicle control device and vehicle control method |
JP2019112007A (en) | 2017-12-26 | 2019-07-11 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021068316A (en) | 2021-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3137850B1 (en) | Method and system for determining a position relative to a digital map | |
JP5761162B2 (en) | Vehicle position estimation device | |
JP6219312B2 (en) | Method for determining the position of a vehicle in a lane traffic path of a road lane and a method for detecting alignment and collision risk between two vehicles | |
US10917808B2 (en) | Extra-vehicular communication device, onboard device, onboard communication system, communication control method, and communication control program | |
CN114127822B (en) | Information processing device, information processing method, and information processing program | |
JP2021099793A (en) | Intelligent traffic control system and control method for the same | |
JP2019168432A (en) | Own vehicle position estimating device | |
US11987245B2 (en) | Method for controlling vehicle and vehicle control device | |
JP6989284B2 (en) | Vehicle position estimation device and program | |
US11650321B2 (en) | Apparatus and method for detecting tilt of LiDAR apparatus mounted to vehicle | |
JP7043765B2 (en) | Vehicle driving control method and equipment | |
KR102630991B1 (en) | Method for determining driving posision of vehicle, apparatus thereof and driving control system | |
JP2020047210A (en) | Object detection device | |
CN112689241B (en) | Vehicle positioning calibration method and device | |
US20200118424A1 (en) | Map information system | |
JP7325296B2 (en) | Object recognition method and object recognition system | |
JP2023118759A (en) | Measuring device, measuring method and program | |
US20230031485A1 (en) | Device and method for generating lane information | |
CN117168471A (en) | Vehicle positioning judgment method and device, vehicle-mounted terminal and vehicle | |
JP2018185156A (en) | Target position estimation method and target position estimation device | |
US20210191423A1 (en) | Self-Location Estimation Method and Self-Location Estimation Device | |
JP2021068315A (en) | Estimation method and estimation system of lane condition | |
JP7487713B2 (en) | Vehicle display control device, vehicle display device, vehicle display control method and program | |
JP7241582B2 (en) | MOBILE POSITION DETECTION METHOD AND MOBILE POSITION DETECTION SYSTEM | |
JP7567384B2 (en) | Information Processing System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230616 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230704 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7325296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |