JP2022129175A - Vehicle evaluation method and vehicle evaluation device - Google Patents
Vehicle evaluation method and vehicle evaluation device Download PDFInfo
- Publication number
- JP2022129175A JP2022129175A JP2021027776A JP2021027776A JP2022129175A JP 2022129175 A JP2022129175 A JP 2022129175A JP 2021027776 A JP2021027776 A JP 2021027776A JP 2021027776 A JP2021027776 A JP 2021027776A JP 2022129175 A JP2022129175 A JP 2022129175A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- information
- environment
- virtual
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 119
- 238000001514 detection method Methods 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims description 9
- 230000003068 static effect Effects 0.000 claims 1
- 238000012360 testing method Methods 0.000 abstract description 6
- 230000010354 integration Effects 0.000 description 25
- 238000010276 construction Methods 0.000 description 17
- 238000012795 verification Methods 0.000 description 15
- 230000009471 action Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 230000006399 behavior Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000007613 environmental effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本発明は、車両評価方法及び車両評価装置に関する。 The present invention relates to a vehicle evaluation method and a vehicle evaluation device.
車両周囲における死角や遮蔽に関して、様々な運転支援技術や自動運転技術が提案されている。例えば特許文献1には、センサ情報から自車両の進行先が見通しの悪い交差点であるか否かを判断し、見通しの悪い交差点であった場合は自車両の進行方向が認識できなくなる位置の手前の位置で停止し、その後は、前進と停止を繰り返して交差点を通過する車両制御装置が記載されている。
Various driving support technologies and automatic driving technologies have been proposed for blind spots and shielding around vehicles. For example, in
センサにより周囲環境を検出して車両の運転を支援する運転支援機能を、実際に車両を走行させて評価する場合、評価項目に応じた試験環境を実現するために多大な労力と費用が発生していた。
本発明は、センサにより周囲環境を検出して車両の運転を支援する運転支援機能を、実際に車両を走行させて評価する際に、評価を実施する試験環境を現実環境において実現する作業を省力化することを目的とする。
When evaluating driving support functions that detect the surrounding environment with sensors and support driving of the vehicle by actually driving the vehicle, a large amount of labor and costs are incurred to create a test environment according to the evaluation items. was
The present invention saves the work of realizing a test environment for performing evaluation in a real environment when evaluating a driving support function that detects the surrounding environment with a sensor and supports the driving of the vehicle by actually running the vehicle. The purpose is to
本発明の一態様によれば、自車両の周囲の周囲環境に基づいて自車両を自動的に運転する自動運転車両の車両評価方法が与えられる。この車両評価方法では、所定の道路地図上の座標情報と現実環境の座標とを対応付けることにより、現実環境における自車両の位置に対応する道路地図上の仮想的な位置が定まる仮想環境を構築し、仮想環境内に仮想オブジェクトを配置し、自車両の周囲に存在する物体の自車両に対する相対位置をセンサで検出した検出情報を取得し、自車両の自己位置を算出し、自己位置に基づいて、センサで取得した検出情報と仮想環境の情報とを統合情報へ統合し、統合情報に基づいて自車両の走行を制御する。 According to one aspect of the present invention, there is provided a vehicle evaluation method for an autonomous vehicle that automatically drives an own vehicle based on the ambient environment surrounding the own vehicle. In this vehicle evaluation method, by associating coordinate information on a predetermined road map with coordinates in the real environment, a virtual environment is constructed in which a virtual position on the road map corresponding to the position of the own vehicle in the real environment is determined. , a virtual object is placed in a virtual environment, the sensor detects the relative positions of objects existing around the own vehicle with respect to the own vehicle and acquires detection information, calculates the own position of the own vehicle, , the detection information acquired by the sensor and the information of the virtual environment are integrated into integrated information, and the running of the own vehicle is controlled based on the integrated information.
本発明によれば、センサにより周囲環境を検出して車両の運転を支援する運転支援機能を、実際に車両を走行させて評価する際に、評価を実施する試験環境を現実環境において実現する作業を省力化できる。 According to the present invention, when a driving support function that detects the surrounding environment by a sensor and supports the driving of the vehicle is evaluated by actually driving the vehicle, the test environment for performing the evaluation is realized in the real environment. can save labor.
以下、本発明の実施形態について、図面を参照しつつ説明する。なお、各図面は模式的なものであって、現実のものとは異なる場合がある。また、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that each drawing is schematic and may differ from the actual one. Further, the embodiments of the present invention shown below are examples of apparatuses and methods for embodying the technical idea of the present invention. are not specific to the following: Various modifications can be made to the technical idea of the present invention within the technical scope defined by the claims.
(構成)
図1は、実施形態の走行制御装置の一例の概略構成図である。自車両1は、自車両1の周囲の周囲環境に基づいて自車両1の運転支援制御を行う走行制御装置10を備えた自動運転車両である。走行制御装置10による運転支援制御には、運転者が関与せずに自車両1を自動で運転する自動運転制御や、自動操舵、自動ブレーキ、定速走行制御、車線維持制御、合流支援制御など、駆動制御、制動制御又は操舵制御の少なくとも1つを自動で行う走行制御を含んでよい。
(Constitution)
FIG. 1 is a schematic configuration diagram of an example of a travel control device according to an embodiment. The
実施形態の車両評価方法では、走行制御装置10による運転支援制御によって自車両1を走行させて、運転支援制御の機能/性能の評価検証(以下、単に「評価検証」と表記することがある)を実施する。
その際に、走行制御装置10による運転支援制御を評価するための仮想環境を構築し、現実世界における自車両1の実際の走行に伴って仮想環境内で自車両1を走行させる。
そして、現実の周囲環境を自車両1に搭載したセンサで検出して得た情報と、仮想環境における自車両1の周囲環境の情報と、に基づいて運転支援制御を実施し、実際に車両挙動を発生させることによって、運転支援制御の機能/性能を評価検証する。
以下、実際に車両を走行させて評価検証が実施される現実世界の場所を「現実環境」と表記することがある。また、評価検証が実施される仮想環境を「評価環境」と表記することがある。評価環境は、特許請求の範囲に記載の「仮想環境」の一例である。
In the vehicle evaluation method of the embodiment, the
At that time, a virtual environment for evaluating driving support control by the
Driving support control is performed based on information obtained by detecting the actual surrounding environment with a sensor mounted on the
Hereinafter, the place in the real world where the vehicle is actually run and the evaluation verification is performed may be referred to as "real environment". Also, a virtual environment in which evaluation verification is performed may be referred to as an “evaluation environment”. The evaluation environment is an example of the "virtual environment" described in the claims.
走行制御装置10は、センサ11と、測位装置12と、地図データベース(地図DB)13と、オブジェクトデータベース(オブジェクトDB)14と、コントローラ15と、アクチュエータ16と、ユーザインタフェース(ユーザI/F)17とを備える。
センサ11は、自車両1の周辺の物体を検出する複数の異なる種類の物体検出センサと、自車両1から得られる様々な情報(車両信号)を検出する車両センサとを含む。
物体検出センサは、例えば、自車両1に搭載されたレーザレーダやミリ波レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などの測距装置や、カメラなどであってよい。
The
The sensors 11 include a plurality of different types of object detection sensors that detect objects around the
The object detection sensor may be, for example, a laser radar, millimeter wave radar, LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) mounted on the
車両センサには、例えば、自車両1の走行速度(車速)を検出する車速センサ、自車両1が備える各タイヤの回転速度を検出する車輪速センサ、自車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、自車両1に生じる角速度を検出するジャイロセンサ、ヨーレイトを検出するヨーレイトセンサ、自車両のアクセル開度を検出するアクセルセンサと、運転者によるブレーキ操作量を検出するブレーキセンサが含まれる。
The vehicle sensors include, for example, a vehicle speed sensor that detects the running speed (vehicle speed) of the
測位装置12は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置12は、例えば慣性航法装置であってもよい。
地図データベース13には、所定の道路地図の情報である道路地図情報13aが記憶される。
道路地図情報13aは、仮想的な評価環境に設定する道路の地図情報である。ここで、評価検証は、走行制御装置10の運転支援制御について評価すべき項目を有する(以下「評価項目」を表記する)。例えば、道路地図情報13aは、所与の評価項目の評価対象となる車両の機能又は性能が発揮される道路構造や属性を有する道路の情報であってよい。
The
The
The road map information 13a is road map information set in a virtual evaluation environment. Here, the evaluation verification has items to be evaluated for the driving support control of the cruise control device 10 (hereinafter referred to as "evaluation items"). For example, the road map information 13a may be information on roads having road structures and attributes on which the functions or performances of vehicles to be evaluated for given evaluation items are exhibited.
道路地図情報13aは、例えば、道路、車線境界線、車線区分線の座標情報、路面形状の情報を含んでよい。また、道路地図情報13aは、例えば道路上又はその近傍の地物(例えば、ガードレール、建物、電柱、縁石、横断歩道、停止線、信号機、踏切等)の座標情報を含んでもよい。
道路地図情報13aは、上記の物体検出センサのようなセンサを搭載した車両を実際の道路上で走行させて、道路、車線境界線、路面形状、地物をセンサで検出したセンサ情報であってよい。センサ情報は、例えば、測距装置から出力される点群データや、カメラの撮像画像から認識した物体の座標情報であってよい。また、道路地図情報13aは、このようなセンサ情報を模擬して仮想的に作成した地図情報であってもよい。
例えば、道路地図情報13aは、自動運転用の地図として好適な高精度(HD:High-Definition)地図データであってもよい。
The road map information 13a may include, for example, coordinate information of roads, lane boundaries, lane markings, and road surface shape information. The road map information 13a may also include coordinate information of features on or near roads (eg, guardrails, buildings, utility poles, curbs, pedestrian crossings, stop lines, traffic lights, railroad crossings, etc.).
The road map information 13a is sensor information obtained by running a vehicle equipped with a sensor such as the object detection sensor described above on an actual road and detecting roads, lane boundaries, road surface shapes, and features with the sensors. good. The sensor information may be, for example, point cloud data output from a distance measuring device or coordinate information of an object recognized from an image captured by a camera. Further, the road map information 13a may be map information virtually created by simulating such sensor information.
For example, the road map information 13a may be high-definition (HD) map data suitable as a map for automatic driving.
また地図データベース13には、路面情報13bを含む。路面情報13bは、実際に自車両1を走行させて評価検証を実施する現実環境の路面の形状や勾配の情報である。路面情報13bは、例えば各地点における路面の高さ情報(例えば標高情報)を含んでいてよい。
オブジェクトデータベース14には、評価検証の評価項目に応じて評価環境に配置すべき仮想オブジェクトの情報とその座標情報とが記憶される。
仮想オブジェクトの情報は、上記の物体検出センサのようなセンサで現実的な物体を検出して得られるセンサ情報であってもよく、このようなセンサ情報を模擬して仮想的に作成した情報であってもよく、その他の形式の3次元物体情報(例えばポリゴンによる多面体情報)であってもよい。
The
The
The virtual object information may be sensor information obtained by detecting a realistic object with a sensor such as the object detection sensor described above, or may be information virtually created by simulating such sensor information. Alternatively, it may be three-dimensional object information in another format (for example, polyhedral information using polygons).
コントローラ15は、自車両1の走行支援制御を行うとともに、評価環境における自車両1の走行を仮想的に模擬する処理を行う電子制御ユニット(ECU:Electronic Control Unit)である。
コントローラ15は、プロセッサ20と、記憶装置21等の周辺部品とを含む。プロセッサ20は、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置21は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置21は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
The
The
以下に説明するコントローラ15の機能は、例えばプロセッサ20が、記憶装置21に格納されたコンピュータプログラムを実行することにより実現される。
なお、コントローラ15を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ15は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ15はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
The functions of the
Note that the
For example,
アクチュエータ16は、コントローラ15からの制御信号に応じて、自車両のステアリングホイール、アクセル開度及びブレーキ装置を操作して、自車両の車両挙動を発生させる。アクチュエータ16は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、自車両のステアリングの操舵方向及び操舵量を制御する。
アクセル開度アクチュエータは、自車両のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両1のブレーキ装置の制動動作を制御する。
The
The accelerator opening actuator controls the accelerator opening of the host vehicle. The brake control actuator controls the braking operation of the brake system of the
ユーザインタフェース17は、走行制御装置10と乗員との間で情報を授受するヒューマン・マシン・インターフェイス(HMI:Human Machine Interface)である。ユーザインタフェース17は、走行支援装置10とは別体の情報端末(例えば、スマートフォンやタブレット装置)であってもよい。なお、乗員には、運転者が含まれるほか、自車両1の自律走行制御に関する操作指示権限を有する乗員や同乗者が含まれる。
ユーザインタフェース17は、例えば音声情報を授受するスピーカとマイクロフォンを備えてもよい。また、ユーザインタフェース17は、表示情報を提供する表示装置(例えばヘッドアップディスプレイ等)を備えてもよい。ユーザインタフェース17は、乗員が物理的に操作するキーボード、ボタン、ダイヤル、スライダ、マウス、タッチパネル、レバー、ジョイスティック、タッチパッド等を備えてもよい。
The
次に、図2を参照してコントローラ15によって実現される走行制御装置10の機能構成の一例を説明する。
コントローラ15は、センサ情報取得部30と、自己位置算出部31と、評価環境構築部32と、環境情報統合部33と、周囲環境認識部34と、行動決定部35と、軌道生成部36と、車両制御部37と、情報提示部38を備える。
センサ情報取得部30は、センサ11の物体検出センサにより自車両1の周囲に存在する現実の物体の自車両1に対する相対位置を検出した情報であるセンサ情報を取得する。
Next, an example of the functional configuration of the
The
The sensor
例えば、センサ情報取得部30は、測距装置から出力される点群データをセンサ情報として取得してよい。例えばこれら点群データをクラスタリングして物体として認識し、自車両1に対する物体の相対的位置、形状、大きさの情報をセンサ情報として取得してもよい。また例えば、カメラの撮像画像から自車両1の周囲に存在する物体を認識し、自車両1に対する物体の相対的位置、形状、大きさの情報をセンサ情報として取得してもよい。
自己位置算出部31は、自車両1の地図上の位置である自己位置を算出する。例えば、自己位置算出部31は、センサ11の車両センサが検出した車両情報に基づいて自己位置を算出してよい。例えば、自己位置算出部31は車両情報に基づくオドメトリによって自己位置を算出してよい。また、自己位置算出部31は測位装置12から自己位置を取得してよい。
For example, the sensor
The self-
評価環境構築部32は、評価検証が実施される仮想環境である評価環境を構築する。その際、評価環境構築部32は、現実環境における地図上の座標と道路地図情報13aの座標情報とを対応付ける。
現実環境における座標と道路地図情報13aの座標情報を対応付けることにより、自己位置算出部31が算出した自己位置に対応する、道路地図情報13a内の自車両1の仮想的な位置を設定できる。すなわち、道路地図情報13aに含まれる道路、車線境界線、車線区分線、地物等と、自車両1との間の相対的な位置関係を設定できる。これにより、道路地図情報13aに含まれる道路、車線境界線、車線区分線、地物等が配置された評価環境内の道路上を、自車両1が走行する状況を模擬的に作り出すことができる。
The evaluation
By associating the coordinates in the real environment with the coordinate information of the road map information 13a, it is possible to set the virtual position of the
例えば、道路地図情報13aの座標を現実環境の座標へ平行移動する(すなわち、道路地図情報13aの座標を、実際に自車両1が走行する現実世界の場所の座標に変換する)ことによって、現実環境における座標と道路地図情報13aの座標情報とを対応付けてよい。
このとき、評価検証の評価項目を検証できる道路地図情報13a上の道路の座標が、現実の評価検証の実施場所(現実環境)に含まれるように、現実環境と道路地図情報13aの座標を対応付けてよい。
なお、現実環境における地図上の座標を道路地図情報13aの座標へ平行移動してもよい。すなわち、評価環境の座標値として、現実環境の座標値と道路地図情報13aの座標値のいずれを使用してもよい。又は、評価環境の座標値として、現実環境の座標値でも道路地図情報13aの座標値でもない専用の座標値を設定し、現実環境の座標値と道路地図情報13aの座標値を専用の座標値に平行移動してもよい。
For example, by translating the coordinates of the road map information 13a to the coordinates of the real environment (that is, converting the coordinates of the road map information 13a into the coordinates of the location in the real world where the
At this time, the real environment and the coordinates of the road map information 13a are corresponded so that the coordinates of the road on the road map information 13a that can verify the evaluation item of the evaluation verification are included in the actual evaluation verification implementation place (real environment). You can put it on.
Note that the coordinates on the map in the real environment may be translated to the coordinates of the road map information 13a. That is, either the coordinate values of the real environment or the coordinate values of the road map information 13a may be used as the coordinate values of the evaluation environment. Alternatively, as the coordinate values of the evaluation environment, dedicated coordinate values that are neither the coordinate values of the real environment nor the coordinate values of the road map information 13a are set, and the coordinate values of the real environment and the coordinate values of the road map information 13a are set as dedicated coordinate values. You can move parallel to .
図3Aは、現実環境における自車両1の周囲の環境の一例を示す。実施形態の車両評価方法による評価検証が実施される現実環境は、仮想的な評価環境に設けられる仮想的な道路や仮想オブジェクトと矛盾しないように、車線を形成する地物(例えば、車線境界線、車線区分線、縁石など)やその近傍の地物のない広場であることが好ましい。
また、現実環境には、センサ11による周囲環境の認識機能を評価するために、評価項目に応じて現実の物体を配置してもよい。図3Aの例では、自車両1の周囲に現実の他車両2が配置されている。現実環境に配置された現実の物体を「実体物」と表記することがある。
FIG. 3A shows an example of the environment around the
Further, in order to evaluate the recognition function of the surrounding environment by the sensor 11, real objects may be placed in the real environment according to the evaluation items. In the example of FIG. 3A , real
図3Bは、現実環境における地図上の座標と道路地図情報13aの座標情報とを対応付けることにより構築された評価環境の一例を示す。構築された評価環境では、自車両1の周囲に、道路地図情報13aに含まれる道路3(白線3a~3cは、道路3の車線境界線である)が存在している。
なお、現実環境における路面形状と道路地図情報13aの道路3の路面形状とが異なる場合(すなわち両者の路面の高さの変動が異なる場合)には、道路地図情報13aの道路3の高さ情報(例えば標高情報)を、現実環境における路面形状に合わせて補正してもよい。
FIG. 3B shows an example of an evaluation environment constructed by associating the coordinates on the map in the real environment with the coordinate information of the road map information 13a. In the constructed evaluation environment, the
Note that when the road surface shape in the real environment and the road surface shape of the
さらに、評価環境構築部32は、オブジェクトデータベース14に記憶された仮想オブジェクトの情報とその座標情報とに基づいて、評価項目に応じた仮想オブジェクトを評価環境に配置する。
図3Cは、仮想オブジェクトが配置された評価環境の一例を示す。図3Cの評価環境には、仮想オブジェクトの例として、壁4と仮想の他車両5とが配置されている。壁4は、静止した仮想オブジェクトの一例である。他車両5は、駐車車両のような静止した仮想オブジェクトであってもよく、走行車両のような移動する仮想オブジェクトであってもよく、一時的に停止した車両のような移動可能な静止した仮想オブジェクトであってもよい。
Furthermore, the evaluation
FIG. 3C shows an example of an evaluation environment in which virtual objects are arranged. In the evaluation environment of FIG. 3C, a
評価環境構築部32は、仮想オブジェクトを評価環境に配置する際に、仮想オブジェクトの高さ方向の配置位置を、現実環境における路面形状に合わせてもよい。
この場合に、オブジェクトデータベース14に記憶した仮想オブジェクトの配置場所として想定されている路面の形状と、仮想オブジェクトが配置された現実環境の路面形状とが異なることがある。図4Aにその例を示す。
図4Aに示す壁4は、路面6eのように傾斜面に配置される仮想オブジェクトであり、路面6eを基準とする壁4の高さが道路の進行方向に沿って変化するのに対し、路面6eが仮想的に配置される現実環境の路面6rの傾斜が路面6eと異なっている(例えば、路面6rは水平であってよい)。
When arranging the virtual object in the evaluation environment, the evaluation
In this case, the shape of the road surface assumed as the placement location of the virtual object stored in the
The
この場合に、壁4が配置される路面6eのいずれかの位置の高さを現実環境の路面6rのいずれかの位置の高さに合わせると、図4Aに示すように壁4が浮いてしまうか、図4Bに示すように壁4の一部が路面6eの下に沈むことになる。
このため、評価環境構築部32は、図4Cに示すように壁(仮想オブジェクト)4の底面4bの高さ方向位置が底面4bに亘って現実環境の路面6rの高さ方向位置と一致するとともに、壁(仮想オブジェクト)4の底面4bに対する上面4tの高さが維持されるように、上面4tの位置を補正してもよい。
In this case, if the height of any position of the
Therefore, as shown in FIG. 4C, the evaluation
また、移動する仮想オブジェクトを配置する場合、評価環境構築部32は、現実環境の路面形状に沿って仮想オブジェクトを移動させてもよい。
その際、予め定めたとおりに仮想オブジェクトが移動するように、所定のシナリオに従って仮想オブジェクトを移動させてもよい。また、状況に応じて仮想オブジェクトが移動するように、所定条件に基づいて仮想オブジェクトの移動方向、移動速度、移動量の少なくとも1つを決定する所定のプログラムやアルゴリズムに基づいて仮想オブジェクトを移動させてもよい。
When arranging a moving virtual object, the evaluation
At that time, the virtual object may be moved according to a predetermined scenario so that the virtual object moves as determined in advance. Also, the virtual object is moved based on a predetermined program or algorithm that determines at least one of the moving direction, moving speed, and moving amount of the virtual object based on predetermined conditions so that the virtual object moves according to the situation. may
このようにして、評価環境は、現実環境に配置された現実の実体物に加えて、道路地図情報13aから評価環境に配置された道路、車線境界線、車線区分線及び地物と、オブジェクトデータベース14に基づいて評価環境に配置された仮想オブジェクトとを用いて構築される。
以下、道路地図情報13aから評価環境に配置された道路、車線境界線、車線区分線及び地物と、オブジェクトデータベース14に基づいて評価環境に配置された仮想オブジェクトと、現実環境に配置された実体物と区別するために「仮想構築物」と表記することがある。
In this way, the evaluation environment includes the roads, lane boundaries, lane markings, and features placed in the evaluation environment from the road map information 13a, in addition to the real entities placed in the real environment, and the object database. 14 using virtual objects placed in the evaluation environment.
Roads, lane boundaries, lane markings, and features placed in the evaluation environment from the road map information 13a, virtual objects placed in the evaluation environment based on the
図2を参照する。評価環境構築部32は、評価環境に配置された仮想構築物の情報(以下、「評価環境情報」と表記することがある)を、環境情報統合部33へ出力する。
例えば、評価環境情報は、評価環境に配置された仮想構築物の位置及び形状を表す座標情報を含んでよい。
環境情報統合部33は、センサ情報取得部30が取得したセンサ情報(すなわち現実の物体の検出結果)と、評価環境構築部32が生成した仮想的な評価環境情報とを、自己位置算出部31が算出した自己位置に基づいて統合する。言い換えれば、仮想的な評価環境情報を、自車両1の周囲環境をセンサで検出したセンサ情報と同等の情報として扱って、センサ情報取得部30が取得したセンサ情報に追加する。
以下、センサ情報と評価環境情報とを統合して得られる情報を「統合情報」と表記することがある。
Please refer to FIG. The evaluation
For example, the evaluation environment information may include coordinate information representing the position and shape of the virtual structure placed in the evaluation environment.
The environment
Hereinafter, information obtained by integrating sensor information and evaluation environment information may be referred to as "integrated information".
例えば、環境情報統合部33は、自己位置算出部31が算出した自己位置に基づいて、評価環境情報に含まれている仮想構築物の自車両1に対する相対的位置を算出する。環境情報統合部33は、算出した相対的位置に基づいて、センサ11による検出可能領域に存在する仮想構築物を抽出し、抽出された仮想構築物の評価環境情報を、センサ情報取得部30が取得したセンサ情報に加えることにより評価環境情報を統合情報へ統合してよい。
このとき、環境情報統合部33は、センサ情報取得部30が取得したセンサ情報の物体(すなわち、センサ11に検出された実体物)が、自車両1から見て仮想構築物によって遮蔽されるか否かを判定し、仮想構築物によって遮蔽された場合にセンサ11で取得できない実体物のセンサ情報を、統合情報から削除してよい。
For example, the environment
At this time, the environment
例えば、環境情報統合部33は、実体物と仮想構築物との位置関係に基づいて、センサ11に検出された実体物が自車両1から見て仮想構築物によって遮蔽されるか否かを判定してよい。例えば、環境情報統合部33は、自車両1と実体物との間の現実の相対距離と、評価環境における自車両1と仮想構築物との間の仮想的な相対距離とに基づいて、センサ11に検出された実体物が自車両1から見て仮想構築物によって遮蔽されるか否かを判定してよい。
For example, the environmental
例えば、環境情報統合部33は、自車両1から見て仮想構築物によって遮蔽される領域(すなわち死角領域)を算出し、仮想構築物によって遮蔽される領域に存在する実体物が仮想構築物によって遮蔽されると判定してよい。
また例えば環境情報統合部33は、仮想構築物と同一方向に存在する実体物が、仮想構築物よりも自車両1から遠いか否かを判定して、仮想構築物よりも自車両1から遠い実体物が自車両1から見て仮想構築物によって遮蔽されると判定してよい。
同様に、仮想構築物が、センサ11に検出された実体物や他の仮想構築物によって自車両1から見て遮蔽されるか否かを判定し、遮蔽される評価環境情報の情報を統合情報から削除してもよい。
図3Dを参照する。仮想オブジェクトである壁4の一部4aによって、実体物である他車両2と、壁4の他の部分4bが遮蔽されるため、環境情報統合部33は、他車両2のセンサ情報と、壁4の部分4bの評価環境情報とが削除された統合情報を生成する。
For example, the environment
Further, for example, the environment
Similarly, it is determined whether or not the virtual structure is shielded from the
See FIG. 3D. The
なお、評価検証が実施される現実環境に存在する実体物に特定の識別子を取り付け、識別子が取り付けられた実体物のセンサ情報を、統合情報から削除してよい。これにより、現実環境に実際に存在する実体物のセンサ情報のうち、評価検証に不要なセンサ情報を除去することができる。例えば、評価検証に用いるために現実環境に設置した各種の測定機器に識別子を取り付けてよい。
識別子は例えばマークや標識などの視覚的識別子であってよく、センサ11の物体検出センサ(例えばカメラ)で識別子を検出し、実体物に識別子が取り付けられているか否かを判定してよい。また、識別子は特定の信号(例えばビーコン)を発生する発信器であってもよい。
Note that a specific identifier may be attached to a physical object that exists in the real environment where evaluation verification is performed, and the sensor information of the physical object to which the identifier is attached may be deleted from the integrated information. As a result, sensor information unnecessary for evaluation and verification can be removed from the sensor information of the physical objects that actually exist in the real environment. For example, identifiers may be attached to various measuring instruments installed in the real environment for use in evaluation verification.
The identifier may be, for example, a visual identifier such as a mark or sign, and the identifier may be detected by the object detection sensor (eg camera) of the sensor 11 to determine whether the identifier is attached to the physical object. The identifier may also be an emitter that emits a specific signal (eg a beacon).
また、評価環境構築部32が評価環境を構築する処理(以下「評価環境構築処理」と表記することがある)と、環境情報統合部33がセンサ情報と評価環境情報とを統合情報へ統合する処理(以下「環境情報統合処理」)には一定の演算時間を要する。その結果、評価環境構築処理と環境情報統合処理とが、運転支援制御に間に合わないことがある。
このため、環境情報統合部33は、評価環境構築処理と環境情報統合処理に要する演算時間分だけ進めた時刻における統合情報を推定して出力してもよい。
Further, the evaluation
Therefore, the environment
例えば、環境情報統合部33は、上記演算時間分だけ進めた時刻における将来の自己位置と移動物体の将来の位置を推定してよい。例えば、現在の自車両1の移動方向と移動速度に基づいて将来の自己位置を推定してよい。また、移動する実体物の将来の位置は、実体物の移動方向と移動速度に基づいて将来の位置を推定してよい。移動する仮想オブジェクトの将来の位置は、仮想オブジェクトの位置を定めるシナリオ又はプログラムに基づいて算出してよい。
環境情報統合部33は、推定したこれらの将来の位置に基づいて、演算時間分だけ進めた時刻における統合情報を推定してよい。
For example, the environment
Based on these estimated future positions, the environmental
図2を参照する。周囲環境認識部34は、環境情報統合部33から出力される統合情報に基づいて、自車両1の周囲環境を認識する。例えば、周囲環境認識部34は、異なる時刻に与えられた統合情報の各々に含まれる物体の同一性の検証(対応付け)を行い、その対応付けを基に、物体の速度や姿勢などの挙動を予測する。周囲環境認識部34は、物体の速度、挙動、大きさ、形状に基づいて、統合情報に含まれる物体の属性を判定する。例えば、物体の属性として、静止物体であるのか移動物体であるのかを判定する。また物体の属性として、車両、歩行者、自転車、構造物(例えば道路上又はその近傍の地物)等の物体の種類を判定する。
Please refer to FIG. The surrounding
行動決定部35は、周囲環境認識部34の認識結果に基づいて、走行制御装置10により実行する自車両1の概略的な運転行動を決定する。行動決定部35が決定する運転行動は、例えば、自車両1の停止、一時停止、走行速度、減速、加速、進路変更、右折、左折、直進、合流区間や複数車線における車線変更、車線維持、追越、障害物への対応などの行動が含まれる。
例えば、行動決定部35は、自車両1の自己位置と、周囲環境認識部34が認識した自車両1の周囲の物体の位置及び姿勢と、高精度地図とに基づいて、自車両1の周辺の経路や物体の有無を表現する経路空間マップと、走行場の危険度を数値化したリスクマップを生成する。行動決定部35は、経路空間マップ及びリスクマップに基づいて、自車両1の運転行動計画を生成する。
The behavior determination unit 35 determines a rough driving behavior of the
For example, the action determining unit 35 determines the surroundings of the
軌道生成部36は、行動決定部35が決定した運転行動計画、自車両1の運動特性、経路空間マップに基づいて、自車両1を走行させる走行軌道及び速度プロファイルの候補を生成する。
軌道生成部36は、リスクマップに基づいて各候補の将来リスクを評価して、最適な走行軌道及び速度プロファイルを選択し、自車両1に走行させる目標走行軌道及び目標速度プロファイルとして設定する。
車両制御部37は、軌道生成部36が生成した目標速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ16を駆動する。
The trajectory generation unit 36 generates a travel trajectory and a speed profile candidate for the
The trajectory generator 36 evaluates the future risk of each candidate based on the risk map, selects the optimum travel trajectory and speed profile, and sets them as the target travel trajectory and target speed profile for the
The vehicle control unit 37 drives the
情報提示部38は、周囲環境認識部34が認識した自車両1の周囲環境の情報を可視化してユーザインタフェース17から出力し、自車両1の乗員に提示する。また、走行支援装置10とは別体の装置として設けられたユーザインタフェース17を介して、自車両1の車外の観察者に提供してもよい。
例えば、情報提示部38は、周囲環境認識部34が認識した情報のうち、仮想構築物のみを可視化して、乗員の前方のヘッドアップディスプレイに表示、あるいはフロントウィンドシールドに投影して表示する等、ディスプレイ装置に表示してもよい。また、周囲環境認識部34が認識した実体物と仮想構築物とを重畳した画像を、ディスプレイ装置に表示してもよい。
上記のとおり、仮想構築物により遮蔽されてセンサ11で取得できない実体物のセンサ情報を統合情報から削除することにより、遮蔽された部分が表示されない画像を提供できる。
The
For example, the
As described above, by deleting the sensor information of the real object that is blocked by the virtual structure and cannot be acquired by the sensor 11 from the integrated information, an image in which the blocked portion is not displayed can be provided.
(動作)
次に、図5を参照して、実施形態における実施形態の車両評価方法の一例を参照する。
ステップS1において評価環境構築部32は、地図データベース13から道路地図情報13aと、現実環境の路面の勾配などの形状情報を含んだ路面情報13bを取得する。また、オブジェクトデータベース14から、評価検証の検証項目に対応した評価環境に関する情報として、評価環境に配置する仮想オブジェクトの情報とその座標情報を取得する。
ステップS2において評価環境構築部32は、現実環境における地図上の座標と道路地図情報13aの座標情報とを対応付けることにより、評価環境を構築する。
ステップS3において評価環境構築部32は、構築した評価環境内に仮想オブジェクトを配置する。
(motion)
Next, with reference to FIG. 5, an example of the vehicle evaluation method of the embodiment will be referred to.
In step S<b>1 , the evaluation
In step S2, the evaluation
In step S3, the evaluation
ステップS4においてセンサ情報取得部30は、センサ11の物体検出センサにより自車両1の周囲に存在する現実の物体を検出したセンサ情報を取得する。
ステップS5において自己位置算出部31は、自車両1の地図上の位置である自己位置を算出する。
ステップS6において環境情報統合部33は、センサ情報取得部30が取得したセンサ情報と、評価環境構築部32が構築した評価環境の情報とを、統合情報へ統合する。
ステップS7において周囲環境認識部34は、統合情報に基づいて自車両1の周囲環境を認識する。
In step S<b>4 , the sensor
In step S5, the self-
In step S6, the environment
In step S7, the surrounding
ステップS8において行動決定部35は、周囲環境認識部34の認識結果に基づいて、走行制御装置10により実行する自車両1の運転行動計画を決定する。
ステップS9において軌道生成部36は、行動決定部35が決定した運転行動計画に基づいて、自車両1に走行させる目標走行軌道及び目標速度プロファイルを生成する。
ステップS10において車両制御部37は、軌道生成部36が生成した目標速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ16を駆動する。その後に処理は終了する。
In step S<b>8 , the action determination unit 35 determines a driving action plan for the
In step S<b>9 , the trajectory generation unit 36 generates a target travel trajectory and a target speed profile for the
In step S<b>10 , the vehicle control unit 37 drives the
(実施形態の効果)
(1)走行制御装置10によって、自車両1の周囲の周囲環境に基づいて自車両1を自動的に運転する自動運転車両の車両評価方法を実施できる。走行制御装置10の評価環境構築部32は、所定の道路地図上の座標情報と現実環境の座標とを対応付けることにより、現実環境における自車両1の位置に対応する道路地図上の仮想的な位置が定まる仮想環境である評価環境を構築して、評価環境内に仮想オブジェクトを配置する。センサ情報取得部30は、自車両1の周囲に存在する物体の自車両1に対する相対位置をセンサ11で検出した検出情報を取得する。自己位置算出部31は、自車両1の自己位置を算出する。環境情報統合部33は、自己位置に基づいて、センサ11で取得した検出情報と評価環境の情報とを統合情報へ統合する。周囲環境認識部34、行動決定部35、軌道生成部36、車両制御部37は、統合情報に基づいて自車両1の走行を制御する。
これにより、自動運転車両の評価を実施する試験環境を仮想的に実現できる。この結果、試験環境を実現する作業を省力化できる。
(Effect of Embodiment)
(1) The
This makes it possible to virtually create a test environment for evaluating automated driving vehicles. As a result, it is possible to save labor in the work of realizing the test environment.
(2)環境情報統合部33は、センサで検出した物体である被検出物体と仮想オブジェクトの位置関係に基づいて、自車両1から見て仮想オブジェクトに遮蔽される被検出物体の検出情報を統合情報から除外してよい。
これにより、センサ11で検出された実体物が、自車両1から見て仮想オブジェクトによって遮蔽される環境を実現できる。
(3)環境情報統合部33は、自車両1と被検出物体との間の相対距離と、評価環境における自車両1と仮想オブジェクトとの間の相対距離と、に基づいて、自車両1から見て被検出物体が仮想オブジェクトに遮蔽されるか否かを判定してよい。
これにより、センサ11で検出される実体物が、自車両1から見て仮想オブジェクトによって遮蔽されるか否かを判定できる。
(2) The environmental
As a result, it is possible to realize an environment in which the physical object detected by the sensor 11 is shielded by the virtual object when viewed from the
(3) The environment
Thereby, it is possible to determine whether or not the physical object detected by the sensor 11 is shielded by the virtual object when viewed from the
(4)評価環境構築部32は、評価環境の構築の際に、道路地図に含まれる道路の路面形状を補正して現実環境の路面形状に合わせてもよい。
これにより、現実環境の路面形状に合わせて評価環境を構築できる。
(5)評価環境構築部32は、仮想オブジェクトの配置の際に、仮想オブジェクトの上面4tを、仮想オブジェクトが配置される座標の現実環境の路面形状に合わせて補正してもよい。これにより、現実環境の路面形状に合わせて仮想オブジェクトの高さを維持するように、上面4tの高さ方向の位置情報を補正できる。
(4) When constructing the evaluation environment, the evaluation
As a result, an evaluation environment can be constructed according to the shape of the road surface in the actual environment.
(5) When arranging the virtual object, the evaluation
(6)評価環境構築部32は、仮想オブジェクトとして、仮想オブジェクトが位置する座標の現実環境の路面形状に合わせて移動する移動オブジェクトを配置してもよい。
これにより、現実環境の路面形状に沿って移動する仮想オブジェクトを模擬することができる。
(7)評価環境構築部32は、所定シナリオ又は所定のプログラムに従って仮想オブジェクトを移動させてもよい。
これにより、任意の評価項目に応じて仮想オブジェクトを移動させることができる。
(8)環境情報統合部33は、評価環境の構築と統合情報への統合の演算時間分だけ進めた時刻における将来の統合情報を推定してよい。周囲環境認識部34、行動決定部35、軌道生成部36、車両制御部37は、将来の統合情報に基づいて自車両1の走行を制御してよい。これにより、評価環境の構築処理と統合情報への統合処理とが自車両1の走行制御に間に合わなくなることを回避できる。
(6) The evaluation
This makes it possible to simulate a virtual object that moves along the shape of the road surface in the real environment.
(7) The evaluation
Thereby, a virtual object can be moved according to arbitrary evaluation items.
(8) The environmental
1…自車両、10…走行制御装置、11…センサ、12…測位装置、13…地図データベース(地図DB)、13a…道路地図情報、13b…路面情報、14…オブジェクトデータベース(オブジェクトDB)、15…コントローラ、16…アクチュエータ、17…ユーザインタフェース(ユーザI/F)、20…プロセッサ、21…記憶装置、30…センサ情報取得部、31…自己位置算出部、32…評価環境構築部、33…環境情報統合部、34…周囲環境認識部、35…行動決定部、36…軌道生成部、37…車両制御部、38…情報提示部
Claims (9)
所定の道路地図上の座標情報と現実環境の座標とを対応付けることにより、前記現実環境における前記自車両の位置に対応する前記道路地図上の仮想的な位置が定まる仮想環境を構築し、
前記仮想環境内に仮想オブジェクトを配置し、
前記自車両の周囲に存在する物体の自車両に対する相対位置をセンサで検出した検出情報を取得し、
前記自車両の自己位置を算出し、
前記自己位置に基づいて、前記センサで取得した前記検出情報と前記仮想環境の情報とを統合情報へ統合し、
前記統合情報に基づいて前記自車両の走行を制御する、
ことを特徴とする車両評価方法。 A vehicle evaluation method for an automatically driven vehicle that automatically drives the own vehicle based on the surrounding environment of the own vehicle,
constructing a virtual environment in which a virtual position on the road map corresponding to the position of the own vehicle in the real environment is determined by associating coordinate information on the predetermined road map with the coordinates of the real environment;
placing a virtual object in the virtual environment;
Acquiring detection information obtained by detecting a relative position of an object existing around the own vehicle with respect to the own vehicle by a sensor,
calculating the self-position of the own vehicle;
integrating the detection information acquired by the sensor and the information of the virtual environment into integrated information based on the self-location;
controlling travel of the own vehicle based on the integrated information;
A vehicle evaluation method characterized by:
前記静止オブジェクトの上面を、前記静止オブジェクトが配置される座標の現実環境の路面形状に合わせて補正することを特徴とする請求項1~4のいずれか一項に記載の車両評価方法。 arranging a static object as the virtual object;
The vehicle evaluation method according to any one of claims 1 to 4, wherein the upper surface of the stationary object is corrected in accordance with the shape of the road surface in the real environment of the coordinates at which the stationary object is arranged.
前記将来の統合情報に基づいて前記自車両の走行を制御する、
ことを特徴とする請求項1~7のいずれか一項に記載の車両評価方法。 estimating the integrated information in the future at a time advanced by the computation time for building the virtual environment and integrating the integrated information;
controlling travel of the own vehicle based on the future integrated information;
The vehicle evaluation method according to any one of claims 1 to 7, characterized in that:
所定の道路地図の情報を記憶する地図データベースと、
前記自車両の周囲に存在する物体を検出するセンサと、
前記自車両に車両挙動を発生させるアクチュエータと、
前記道路地図上の座標情報と現実環境の座標とを対応付けることにより、前記現実環境における前記自車両の位置に対応する前記道路地図上の仮想的な位置が定まる仮想環境を構築し、前記仮想環境内に仮想オブジェクトを配置し、前記自車両の周囲に存在する物体の自車両に対する相対位置をセンサで検出した検出情報を取得し、前記自車両の自己位置を算出し、前記自己位置に基づいて、前記センサで取得した前記検出情報と前記仮想環境の情報とを統合情報へ統合し、前記統合情報に基づいて前記アクチュエータを制御するコントローラと、
を備えることを特徴とする車両評価装置。 A vehicle evaluation device for an automatically driven vehicle that automatically drives the own vehicle based on the surrounding environment of the own vehicle,
a map database that stores predetermined road map information;
a sensor that detects objects existing around the own vehicle;
an actuator for generating a vehicle behavior in the subject vehicle;
constructing a virtual environment in which a virtual position on the road map corresponding to the position of the own vehicle in the real environment is determined by associating the coordinate information on the road map with the coordinates of the real environment; A virtual object is arranged in the virtual object, a sensor detects the relative position of an object existing around the own vehicle with respect to the own vehicle, and the detection information is obtained, the self-position of the self-vehicle is calculated, and a controller that integrates the detection information acquired by the sensor and the information of the virtual environment into integrated information and controls the actuator based on the integrated information;
A vehicle evaluation device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021027776A JP7565232B2 (en) | 2021-02-24 | 2021-02-24 | Vehicle evaluation method and vehicle evaluation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021027776A JP7565232B2 (en) | 2021-02-24 | 2021-02-24 | Vehicle evaluation method and vehicle evaluation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022129175A true JP2022129175A (en) | 2022-09-05 |
JP7565232B2 JP7565232B2 (en) | 2024-10-10 |
Family
ID=83150296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021027776A Active JP7565232B2 (en) | 2021-02-24 | 2021-02-24 | Vehicle evaluation method and vehicle evaluation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7565232B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115503740A (en) * | 2022-11-16 | 2022-12-23 | 雄安雄创数字技术有限公司 | Driving assistance method and device, electronic equipment and storage medium |
KR102576733B1 (en) * | 2022-11-30 | 2023-09-08 | 주식회사 모라이 | Method and system for simulating traffic environment based on vils linked to control platform |
WO2024080168A1 (en) * | 2022-10-12 | 2024-04-18 | ソフトバンクグループ株式会社 | Automated driving test method and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009119637A1 (en) | 2008-03-25 | 2009-10-01 | 三菱電機株式会社 | Driving support system |
AT511131B1 (en) | 2012-05-25 | 2013-09-15 | Avl List Gmbh | Method for testing a vehicle or a component of a vehicle |
US20160314224A1 (en) | 2015-04-24 | 2016-10-27 | Northrop Grumman Systems Corporation | Autonomous vehicle simulation system |
JP6319204B2 (en) | 2015-06-26 | 2018-05-09 | 株式会社デンソー | Headlamp control device for vehicle |
US20200209874A1 (en) | 2018-12-31 | 2020-07-02 | Chongqing Jinkang New Energy Vehicle, Ltd. | Combined virtual and real environment for autonomous vehicle planning and control testing |
GB201906813D0 (en) | 2019-05-16 | 2019-06-26 | Roboraca Ltd | Metaverse |
KR102139172B1 (en) | 2020-01-06 | 2020-07-29 | 주식회사 모라이 | Autonomous vehicle simulation method in virtual environment |
-
2021
- 2021-02-24 JP JP2021027776A patent/JP7565232B2/en active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024080168A1 (en) * | 2022-10-12 | 2024-04-18 | ソフトバンクグループ株式会社 | Automated driving test method and program |
CN115503740A (en) * | 2022-11-16 | 2022-12-23 | 雄安雄创数字技术有限公司 | Driving assistance method and device, electronic equipment and storage medium |
KR102576733B1 (en) * | 2022-11-30 | 2023-09-08 | 주식회사 모라이 | Method and system for simulating traffic environment based on vils linked to control platform |
WO2024117563A1 (en) * | 2022-11-30 | 2024-06-06 | 주식회사 모라이 | Control platform interworking vils-based traffic environment reproducing method and system |
Also Published As
Publication number | Publication date |
---|---|
JP7565232B2 (en) | 2024-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6906011B2 (en) | Method for converting the 2D boundary frame of an object to the 3D position of an autonomous vehicle [METHOD FOR TRANSFORMING 2D BOUNDING BOXES OF OBJECTS INTO 3D POSITIONS FOR AUTONOMOUS DRIVING VEHICLES | |
JP7052786B2 (en) | Display control device and display control program | |
CN108387241B (en) | Method and system for updating positioning map of automatic driving vehicle | |
CN109937343B (en) | Evaluation framework for prediction trajectories in automated driving vehicle traffic prediction | |
US10310511B2 (en) | Automatic driving control system of mobile object | |
EP3361278A1 (en) | Autonomous vehicle localization based on walsh kernel projection technique | |
EP3327464A1 (en) | Algorithm and infrastructure for robust and efficient vehicle localization | |
US20180307944A1 (en) | Automatically collecting training data for object recognition with 3d lidar and localization | |
CN109215433A (en) | The Driving Scene generator of view-based access control model for automatic Pilot emulation | |
KR20190141081A (en) | A v2x communication-based vehicle lane system for autonomous vehicles | |
JP2022129175A (en) | Vehicle evaluation method and vehicle evaluation device | |
CN109426261A (en) | Servomechanism | |
WO2018221454A1 (en) | Map generation device, control method, program, and storage medium | |
JP2020060369A (en) | Map information system | |
JP6984624B2 (en) | Display control device and display control program | |
CN111127651A (en) | Automatic driving test development method and device based on high-precision visualization technology | |
CN111402387A (en) | Removing short timepoints from a point cloud of a high definition map for navigating an autonomous vehicle | |
US11400923B2 (en) | Information processing device, vehicle control device, and mobile object control method | |
JP2004265432A (en) | Travel environment recognition device | |
JP2021144743A (en) | Three-dimensional data generation device, 3d data generation method, three-dimensional data generation program, and computer readable recording medium recording three-dimensional data generation program | |
JP6705270B2 (en) | Automatic operation control system for mobile | |
JP6728959B2 (en) | Automatic operation control system for mobile | |
US12032066B2 (en) | Recognition device and method | |
JP2023054315A (en) | Information processing device, control method, program, and storage medium | |
JP6705271B2 (en) | Automatic operation control system for mobile |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240930 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7565232 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |