Nothing Special   »   [go: up one dir, main page]

JP2022129175A - Vehicle evaluation method and vehicle evaluation device - Google Patents

Vehicle evaluation method and vehicle evaluation device Download PDF

Info

Publication number
JP2022129175A
JP2022129175A JP2021027776A JP2021027776A JP2022129175A JP 2022129175 A JP2022129175 A JP 2022129175A JP 2021027776 A JP2021027776 A JP 2021027776A JP 2021027776 A JP2021027776 A JP 2021027776A JP 2022129175 A JP2022129175 A JP 2022129175A
Authority
JP
Japan
Prior art keywords
vehicle
information
environment
virtual
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021027776A
Other languages
Japanese (ja)
Other versions
JP7565232B2 (en
Inventor
玲雄 坂倉
Reo Sakakura
晋 藤田
Susumu Fujita
旭伸 池田
Akinobu Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2021027776A priority Critical patent/JP7565232B2/en
Publication of JP2022129175A publication Critical patent/JP2022129175A/en
Application granted granted Critical
Publication of JP7565232B2 publication Critical patent/JP7565232B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

To save labor in realizing a test environment in which an evaluation is performed when a vehicle is actually driven and evaluated by a drive support function that detects a surrounding environment by a sensor and supports the vehicle driving.SOLUTION: A vehicle evaluation method constructs a virtual environment in which a virtual position on a road map corresponding to a position of an own vehicle in a real environment is determined by associating coordinate information on a predetermined road map with coordinates in the real environment (S2). A virtual object is arranged in the virtual environment (S3). Detection information is acquired by detecting a relative position of an object existing around the own vehicle to the own vehicle by the sensor (S4). A self-position of the own vehicle is calculated (S5). Based on the self-position, the detection information acquired by the sensor and information of the virtual environment are integrated into integrated information (S6). Travel of the own vehicle is controlled based on the integrated information (S7-S10).SELECTED DRAWING: Figure 5

Description

本発明は、車両評価方法及び車両評価装置に関する。 The present invention relates to a vehicle evaluation method and a vehicle evaluation device.

車両周囲における死角や遮蔽に関して、様々な運転支援技術や自動運転技術が提案されている。例えば特許文献1には、センサ情報から自車両の進行先が見通しの悪い交差点であるか否かを判断し、見通しの悪い交差点であった場合は自車両の進行方向が認識できなくなる位置の手前の位置で停止し、その後は、前進と停止を繰り返して交差点を通過する車両制御装置が記載されている。 Various driving support technologies and automatic driving technologies have been proposed for blind spots and shielding around vehicles. For example, in Patent Document 1, it is determined from sensor information whether or not the vehicle is traveling at an intersection with poor visibility. , and then repeats forward and stop to pass through the intersection.

特開2019-067295号公報JP 2019-067295 A

センサにより周囲環境を検出して車両の運転を支援する運転支援機能を、実際に車両を走行させて評価する場合、評価項目に応じた試験環境を実現するために多大な労力と費用が発生していた。
本発明は、センサにより周囲環境を検出して車両の運転を支援する運転支援機能を、実際に車両を走行させて評価する際に、評価を実施する試験環境を現実環境において実現する作業を省力化することを目的とする。
When evaluating driving support functions that detect the surrounding environment with sensors and support driving of the vehicle by actually driving the vehicle, a large amount of labor and costs are incurred to create a test environment according to the evaluation items. was
The present invention saves the work of realizing a test environment for performing evaluation in a real environment when evaluating a driving support function that detects the surrounding environment with a sensor and supports the driving of the vehicle by actually running the vehicle. The purpose is to

本発明の一態様によれば、自車両の周囲の周囲環境に基づいて自車両を自動的に運転する自動運転車両の車両評価方法が与えられる。この車両評価方法では、所定の道路地図上の座標情報と現実環境の座標とを対応付けることにより、現実環境における自車両の位置に対応する道路地図上の仮想的な位置が定まる仮想環境を構築し、仮想環境内に仮想オブジェクトを配置し、自車両の周囲に存在する物体の自車両に対する相対位置をセンサで検出した検出情報を取得し、自車両の自己位置を算出し、自己位置に基づいて、センサで取得した検出情報と仮想環境の情報とを統合情報へ統合し、統合情報に基づいて自車両の走行を制御する。 According to one aspect of the present invention, there is provided a vehicle evaluation method for an autonomous vehicle that automatically drives an own vehicle based on the ambient environment surrounding the own vehicle. In this vehicle evaluation method, by associating coordinate information on a predetermined road map with coordinates in the real environment, a virtual environment is constructed in which a virtual position on the road map corresponding to the position of the own vehicle in the real environment is determined. , a virtual object is placed in a virtual environment, the sensor detects the relative positions of objects existing around the own vehicle with respect to the own vehicle and acquires detection information, calculates the own position of the own vehicle, , the detection information acquired by the sensor and the information of the virtual environment are integrated into integrated information, and the running of the own vehicle is controlled based on the integrated information.

本発明によれば、センサにより周囲環境を検出して車両の運転を支援する運転支援機能を、実際に車両を走行させて評価する際に、評価を実施する試験環境を現実環境において実現する作業を省力化できる。 According to the present invention, when a driving support function that detects the surrounding environment by a sensor and supports the driving of the vehicle is evaluated by actually driving the vehicle, the test environment for performing the evaluation is realized in the real environment. can save labor.

実施形態の走行制御装置の一例の概略構成図である。1 is a schematic configuration diagram of an example of a travel control device according to an embodiment; FIG. 実施形態の走行制御装置の機能構成の一例のブロック図である。It is a block diagram of an example of functional composition of a cruise control device of an embodiment. 実施形態の車両評価方法の一例の説明図(その1)である。1 is an explanatory diagram (part 1) of an example of a vehicle evaluation method according to an embodiment; FIG. 実施形態の車両評価方法の一例の説明図(その2)である。FIG. 2 is an explanatory diagram (part 2) of an example of a vehicle evaluation method according to an embodiment; 実施形態の車両評価方法の一例の説明図(その3)である。FIG. 3 is an explanatory diagram (part 3) of an example of a vehicle evaluation method according to an embodiment; 実施形態の車両評価方法の一例の説明図(その4)である。FIG. 4 is an explanatory diagram (part 4) of an example of the vehicle evaluation method of the embodiment; 現実環境の路面形状に応じた仮想オブジェクトの形状の補正の一例の説明図(その1)である。FIG. 10 is an explanatory diagram (part 1) of an example of correction of the shape of a virtual object according to the shape of a road surface in a real environment; 現実環境の路面形状に応じた仮想オブジェクトの形状の補正の一例の説明図(その2)である。FIG. 11 is an explanatory diagram (part 2) of an example of correction of the shape of a virtual object according to the road surface shape in the real environment; 現実環境の路面形状に応じた仮想オブジェクトの形状の補正の一例の説明図(その3)である。FIG. 13 is an explanatory diagram (part 3) of an example of correction of the shape of the virtual object according to the road surface shape in the real environment; 実施形態の車両評価方法の一例のフローチャートである。It is a flow chart of an example of a vehicle evaluation method of an embodiment.

以下、本発明の実施形態について、図面を参照しつつ説明する。なお、各図面は模式的なものであって、現実のものとは異なる場合がある。また、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that each drawing is schematic and may differ from the actual one. Further, the embodiments of the present invention shown below are examples of apparatuses and methods for embodying the technical idea of the present invention. are not specific to the following: Various modifications can be made to the technical idea of the present invention within the technical scope defined by the claims.

(構成)
図1は、実施形態の走行制御装置の一例の概略構成図である。自車両1は、自車両1の周囲の周囲環境に基づいて自車両1の運転支援制御を行う走行制御装置10を備えた自動運転車両である。走行制御装置10による運転支援制御には、運転者が関与せずに自車両1を自動で運転する自動運転制御や、自動操舵、自動ブレーキ、定速走行制御、車線維持制御、合流支援制御など、駆動制御、制動制御又は操舵制御の少なくとも1つを自動で行う走行制御を含んでよい。
(Constitution)
FIG. 1 is a schematic configuration diagram of an example of a travel control device according to an embodiment. The own vehicle 1 is an automatically driven vehicle provided with a cruise control device 10 that performs driving support control of the own vehicle 1 based on the surrounding environment of the own vehicle 1 . The driving support control by the driving control device 10 includes automatic driving control for automatically driving the own vehicle 1 without involving the driver, automatic steering, automatic braking, constant speed driving control, lane keeping control, merging support control, and the like. , driving control, braking control, or steering control.

実施形態の車両評価方法では、走行制御装置10による運転支援制御によって自車両1を走行させて、運転支援制御の機能/性能の評価検証(以下、単に「評価検証」と表記することがある)を実施する。
その際に、走行制御装置10による運転支援制御を評価するための仮想環境を構築し、現実世界における自車両1の実際の走行に伴って仮想環境内で自車両1を走行させる。
そして、現実の周囲環境を自車両1に搭載したセンサで検出して得た情報と、仮想環境における自車両1の周囲環境の情報と、に基づいて運転支援制御を実施し、実際に車両挙動を発生させることによって、運転支援制御の機能/性能を評価検証する。
以下、実際に車両を走行させて評価検証が実施される現実世界の場所を「現実環境」と表記することがある。また、評価検証が実施される仮想環境を「評価環境」と表記することがある。評価環境は、特許請求の範囲に記載の「仮想環境」の一例である。
In the vehicle evaluation method of the embodiment, the own vehicle 1 is caused to travel under the driving support control by the driving control device 10, and the function/performance of the driving support control is evaluated and verified (hereinafter, sometimes simply referred to as "evaluation verification"). to implement.
At that time, a virtual environment for evaluating driving support control by the cruise control device 10 is constructed, and the host vehicle 1 is caused to travel within the virtual environment as the host vehicle 1 actually travels in the real world.
Driving support control is performed based on information obtained by detecting the actual surrounding environment with a sensor mounted on the own vehicle 1 and information on the surrounding environment of the own vehicle 1 in the virtual environment, and actual vehicle behavior. Evaluate and verify the function/performance of driving support control by generating
Hereinafter, the place in the real world where the vehicle is actually run and the evaluation verification is performed may be referred to as "real environment". Also, a virtual environment in which evaluation verification is performed may be referred to as an “evaluation environment”. The evaluation environment is an example of the "virtual environment" described in the claims.

走行制御装置10は、センサ11と、測位装置12と、地図データベース(地図DB)13と、オブジェクトデータベース(オブジェクトDB)14と、コントローラ15と、アクチュエータ16と、ユーザインタフェース(ユーザI/F)17とを備える。
センサ11は、自車両1の周辺の物体を検出する複数の異なる種類の物体検出センサと、自車両1から得られる様々な情報(車両信号)を検出する車両センサとを含む。
物体検出センサは、例えば、自車両1に搭載されたレーザレーダやミリ波レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などの測距装置や、カメラなどであってよい。
The traveling control device 10 includes a sensor 11, a positioning device 12, a map database (map DB) 13, an object database (object DB) 14, a controller 15, an actuator 16, and a user interface (user I/F) 17. and
The sensors 11 include a plurality of different types of object detection sensors that detect objects around the vehicle 1 and vehicle sensors that detect various information (vehicle signals) obtained from the vehicle 1 .
The object detection sensor may be, for example, a laser radar, millimeter wave radar, LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) mounted on the vehicle 1, or a camera.

車両センサには、例えば、自車両1の走行速度(車速)を検出する車速センサ、自車両1が備える各タイヤの回転速度を検出する車輪速センサ、自車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、自車両1に生じる角速度を検出するジャイロセンサ、ヨーレイトを検出するヨーレイトセンサ、自車両のアクセル開度を検出するアクセルセンサと、運転者によるブレーキ操作量を検出するブレーキセンサが含まれる。 The vehicle sensors include, for example, a vehicle speed sensor that detects the running speed (vehicle speed) of the vehicle 1, a wheel speed sensor that detects the rotational speed of each tire of the vehicle 1, and acceleration (deceleration) of the vehicle 1 in three axial directions. A 3-axis acceleration sensor (G sensor) that detects steering angle (including steering angle), a steering angle sensor that detects steering angle (including steering angle), a gyro sensor that detects angular velocity generated in own vehicle 1, and a yaw rate sensor that detects yaw rate. , an accelerator sensor for detecting the accelerator opening of the own vehicle, and a brake sensor for detecting the amount of brake operation by the driver.

測位装置12は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置12は、例えば慣性航法装置であってもよい。
地図データベース13には、所定の道路地図の情報である道路地図情報13aが記憶される。
道路地図情報13aは、仮想的な評価環境に設定する道路の地図情報である。ここで、評価検証は、走行制御装置10の運転支援制御について評価すべき項目を有する(以下「評価項目」を表記する)。例えば、道路地図情報13aは、所与の評価項目の評価対象となる車両の機能又は性能が発揮される道路構造や属性を有する道路の情報であってよい。
The positioning device 12 has a global positioning system (GNSS) receiver, receives radio waves from a plurality of navigation satellites, and measures the current position of the vehicle 1 . A GNSS receiver may be, for example, a global positioning system (GPS) receiver or the like. The positioning device 12 may be, for example, an inertial navigation device.
The map database 13 stores road map information 13a, which is predetermined road map information.
The road map information 13a is road map information set in a virtual evaluation environment. Here, the evaluation verification has items to be evaluated for the driving support control of the cruise control device 10 (hereinafter referred to as "evaluation items"). For example, the road map information 13a may be information on roads having road structures and attributes on which the functions or performances of vehicles to be evaluated for given evaluation items are exhibited.

道路地図情報13aは、例えば、道路、車線境界線、車線区分線の座標情報、路面形状の情報を含んでよい。また、道路地図情報13aは、例えば道路上又はその近傍の地物(例えば、ガードレール、建物、電柱、縁石、横断歩道、停止線、信号機、踏切等)の座標情報を含んでもよい。
道路地図情報13aは、上記の物体検出センサのようなセンサを搭載した車両を実際の道路上で走行させて、道路、車線境界線、路面形状、地物をセンサで検出したセンサ情報であってよい。センサ情報は、例えば、測距装置から出力される点群データや、カメラの撮像画像から認識した物体の座標情報であってよい。また、道路地図情報13aは、このようなセンサ情報を模擬して仮想的に作成した地図情報であってもよい。
例えば、道路地図情報13aは、自動運転用の地図として好適な高精度(HD:High-Definition)地図データであってもよい。
The road map information 13a may include, for example, coordinate information of roads, lane boundaries, lane markings, and road surface shape information. The road map information 13a may also include coordinate information of features on or near roads (eg, guardrails, buildings, utility poles, curbs, pedestrian crossings, stop lines, traffic lights, railroad crossings, etc.).
The road map information 13a is sensor information obtained by running a vehicle equipped with a sensor such as the object detection sensor described above on an actual road and detecting roads, lane boundaries, road surface shapes, and features with the sensors. good. The sensor information may be, for example, point cloud data output from a distance measuring device or coordinate information of an object recognized from an image captured by a camera. Further, the road map information 13a may be map information virtually created by simulating such sensor information.
For example, the road map information 13a may be high-definition (HD) map data suitable as a map for automatic driving.

また地図データベース13には、路面情報13bを含む。路面情報13bは、実際に自車両1を走行させて評価検証を実施する現実環境の路面の形状や勾配の情報である。路面情報13bは、例えば各地点における路面の高さ情報(例えば標高情報)を含んでいてよい。
オブジェクトデータベース14には、評価検証の評価項目に応じて評価環境に配置すべき仮想オブジェクトの情報とその座標情報とが記憶される。
仮想オブジェクトの情報は、上記の物体検出センサのようなセンサで現実的な物体を検出して得られるセンサ情報であってもよく、このようなセンサ情報を模擬して仮想的に作成した情報であってもよく、その他の形式の3次元物体情報(例えばポリゴンによる多面体情報)であってもよい。
The map database 13 also includes road surface information 13b. The road surface information 13b is information about the shape and gradient of the road surface in the real environment where the own vehicle 1 is actually run and the evaluation verification is performed. The road surface information 13b may include, for example, road surface height information (for example, altitude information) at each point.
The object database 14 stores information on virtual objects to be arranged in the evaluation environment and their coordinate information according to evaluation items of evaluation verification.
The virtual object information may be sensor information obtained by detecting a realistic object with a sensor such as the object detection sensor described above, or may be information virtually created by simulating such sensor information. Alternatively, it may be three-dimensional object information in another format (for example, polyhedral information using polygons).

コントローラ15は、自車両1の走行支援制御を行うとともに、評価環境における自車両1の走行を仮想的に模擬する処理を行う電子制御ユニット(ECU:Electronic Control Unit)である。
コントローラ15は、プロセッサ20と、記憶装置21等の周辺部品とを含む。プロセッサ20は、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置21は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置21は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
The controller 15 is an electronic control unit (ECU) that performs a process of virtually simulating the running of the vehicle 1 in the evaluation environment while performing driving support control of the vehicle 1 .
Controller 15 includes a processor 20 and peripheral components such as storage device 21 . The processor 20 may be, for example, a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit).
The storage device 21 may include a semiconductor storage device, a magnetic storage device, an optical storage device, or the like. The storage device 21 may include memories such as a register, a cache memory, a ROM (Read Only Memory) used as a main memory, and a RAM (Random Access Memory).

以下に説明するコントローラ15の機能は、例えばプロセッサ20が、記憶装置21に格納されたコンピュータプログラムを実行することにより実現される。
なお、コントローラ15を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ15は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ15はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
The functions of the controller 15 to be described below are implemented by the processor 20 executing a computer program stored in the storage device 21, for example.
Note that the controller 15 may be formed of dedicated hardware for executing each information processing described below.
For example, controller 15 may comprise functional logic circuitry implemented in a general-purpose semiconductor integrated circuit. For example, controller 15 may include a programmable logic device (PLD), such as a field-programmable gate array (FPGA), or the like.

アクチュエータ16は、コントローラ15からの制御信号に応じて、自車両のステアリングホイール、アクセル開度及びブレーキ装置を操作して、自車両の車両挙動を発生させる。アクチュエータ16は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、自車両のステアリングの操舵方向及び操舵量を制御する。
アクセル開度アクチュエータは、自車両のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両1のブレーキ装置の制動動作を制御する。
The actuator 16 operates the steering wheel, the accelerator opening, and the braking device of the own vehicle according to the control signal from the controller 15 to generate the vehicle behavior of the own vehicle. Actuator 16 includes a steering actuator, an accelerator opening actuator, and a brake control actuator. The steering actuator controls the steering direction and amount of steering of the host vehicle.
The accelerator opening actuator controls the accelerator opening of the host vehicle. The brake control actuator controls the braking operation of the brake system of the host vehicle 1 .

ユーザインタフェース17は、走行制御装置10と乗員との間で情報を授受するヒューマン・マシン・インターフェイス(HMI:Human Machine Interface)である。ユーザインタフェース17は、走行支援装置10とは別体の情報端末(例えば、スマートフォンやタブレット装置)であってもよい。なお、乗員には、運転者が含まれるほか、自車両1の自律走行制御に関する操作指示権限を有する乗員や同乗者が含まれる。
ユーザインタフェース17は、例えば音声情報を授受するスピーカとマイクロフォンを備えてもよい。また、ユーザインタフェース17は、表示情報を提供する表示装置(例えばヘッドアップディスプレイ等)を備えてもよい。ユーザインタフェース17は、乗員が物理的に操作するキーボード、ボタン、ダイヤル、スライダ、マウス、タッチパネル、レバー、ジョイスティック、タッチパッド等を備えてもよい。
The user interface 17 is a human machine interface (HMI) for exchanging information between the cruise control device 10 and the passenger. The user interface 17 may be an information terminal (for example, a smart phone or a tablet device) separate from the driving support device 10 . In addition to the driver, the occupant includes an occupant and a fellow passenger who have operation instruction authority related to the autonomous travel control of the own vehicle 1 .
User interface 17 may include, for example, a speaker and microphone for transmitting and receiving audio information. The user interface 17 may also include a display device (eg, head-up display, etc.) that provides display information. The user interface 17 may include a keyboard, buttons, dials, sliders, mice, touch panels, levers, joysticks, touch pads, etc. that are physically operated by the occupant.

次に、図2を参照してコントローラ15によって実現される走行制御装置10の機能構成の一例を説明する。
コントローラ15は、センサ情報取得部30と、自己位置算出部31と、評価環境構築部32と、環境情報統合部33と、周囲環境認識部34と、行動決定部35と、軌道生成部36と、車両制御部37と、情報提示部38を備える。
センサ情報取得部30は、センサ11の物体検出センサにより自車両1の周囲に存在する現実の物体の自車両1に対する相対位置を検出した情報であるセンサ情報を取得する。
Next, an example of the functional configuration of the travel control device 10 implemented by the controller 15 will be described with reference to FIG. 2 .
The controller 15 includes a sensor information acquisition unit 30, a self-position calculation unit 31, an evaluation environment construction unit 32, an environment information integration unit 33, a surrounding environment recognition unit 34, an action determination unit 35, and a trajectory generation unit 36. , a vehicle control unit 37 and an information presentation unit 38 .
The sensor information acquisition unit 30 acquires sensor information, which is information obtained by detecting the relative position of an actual object existing around the own vehicle 1 with respect to the own vehicle 1 by the object detection sensor of the sensor 11 .

例えば、センサ情報取得部30は、測距装置から出力される点群データをセンサ情報として取得してよい。例えばこれら点群データをクラスタリングして物体として認識し、自車両1に対する物体の相対的位置、形状、大きさの情報をセンサ情報として取得してもよい。また例えば、カメラの撮像画像から自車両1の周囲に存在する物体を認識し、自車両1に対する物体の相対的位置、形状、大きさの情報をセンサ情報として取得してもよい。
自己位置算出部31は、自車両1の地図上の位置である自己位置を算出する。例えば、自己位置算出部31は、センサ11の車両センサが検出した車両情報に基づいて自己位置を算出してよい。例えば、自己位置算出部31は車両情報に基づくオドメトリによって自己位置を算出してよい。また、自己位置算出部31は測位装置12から自己位置を取得してよい。
For example, the sensor information acquisition unit 30 may acquire point cloud data output from a distance measuring device as sensor information. For example, these point cloud data may be clustered and recognized as an object, and information on the relative position, shape, and size of the object with respect to the own vehicle 1 may be acquired as sensor information. Further, for example, an object existing around the own vehicle 1 may be recognized from an image captured by a camera, and information on the relative position, shape, and size of the object with respect to the own vehicle 1 may be acquired as sensor information.
The self-position calculator 31 calculates the self-position, which is the position of the vehicle 1 on the map. For example, the self-position calculator 31 may calculate the self-position based on vehicle information detected by the vehicle sensor of the sensor 11 . For example, the self-position calculator 31 may calculate the self-position by odometry based on vehicle information. Also, the self-position calculator 31 may acquire the self-position from the positioning device 12 .

評価環境構築部32は、評価検証が実施される仮想環境である評価環境を構築する。その際、評価環境構築部32は、現実環境における地図上の座標と道路地図情報13aの座標情報とを対応付ける。
現実環境における座標と道路地図情報13aの座標情報を対応付けることにより、自己位置算出部31が算出した自己位置に対応する、道路地図情報13a内の自車両1の仮想的な位置を設定できる。すなわち、道路地図情報13aに含まれる道路、車線境界線、車線区分線、地物等と、自車両1との間の相対的な位置関係を設定できる。これにより、道路地図情報13aに含まれる道路、車線境界線、車線区分線、地物等が配置された評価環境内の道路上を、自車両1が走行する状況を模擬的に作り出すことができる。
The evaluation environment constructing unit 32 constructs an evaluation environment, which is a virtual environment in which evaluation verification is performed. At that time, the evaluation environment constructing unit 32 associates the coordinates on the map in the real environment with the coordinate information of the road map information 13a.
By associating the coordinates in the real environment with the coordinate information of the road map information 13a, it is possible to set the virtual position of the vehicle 1 in the road map information 13a corresponding to the self position calculated by the self-position calculator 31. That is, the relative positional relationship between the vehicle 1 and the roads, lane boundaries, lane markings, features, etc. included in the road map information 13a can be set. As a result, it is possible to create a simulated situation in which the own vehicle 1 travels on the road in the evaluation environment in which the roads, lane boundaries, lane markings, features, etc. included in the road map information 13a are arranged. .

例えば、道路地図情報13aの座標を現実環境の座標へ平行移動する(すなわち、道路地図情報13aの座標を、実際に自車両1が走行する現実世界の場所の座標に変換する)ことによって、現実環境における座標と道路地図情報13aの座標情報とを対応付けてよい。
このとき、評価検証の評価項目を検証できる道路地図情報13a上の道路の座標が、現実の評価検証の実施場所(現実環境)に含まれるように、現実環境と道路地図情報13aの座標を対応付けてよい。
なお、現実環境における地図上の座標を道路地図情報13aの座標へ平行移動してもよい。すなわち、評価環境の座標値として、現実環境の座標値と道路地図情報13aの座標値のいずれを使用してもよい。又は、評価環境の座標値として、現実環境の座標値でも道路地図情報13aの座標値でもない専用の座標値を設定し、現実環境の座標値と道路地図情報13aの座標値を専用の座標値に平行移動してもよい。
For example, by translating the coordinates of the road map information 13a to the coordinates of the real environment (that is, converting the coordinates of the road map information 13a into the coordinates of the location in the real world where the vehicle 1 actually travels), The coordinates in the environment may be associated with the coordinate information of the road map information 13a.
At this time, the real environment and the coordinates of the road map information 13a are corresponded so that the coordinates of the road on the road map information 13a that can verify the evaluation item of the evaluation verification are included in the actual evaluation verification implementation place (real environment). You can put it on.
Note that the coordinates on the map in the real environment may be translated to the coordinates of the road map information 13a. That is, either the coordinate values of the real environment or the coordinate values of the road map information 13a may be used as the coordinate values of the evaluation environment. Alternatively, as the coordinate values of the evaluation environment, dedicated coordinate values that are neither the coordinate values of the real environment nor the coordinate values of the road map information 13a are set, and the coordinate values of the real environment and the coordinate values of the road map information 13a are set as dedicated coordinate values. You can move parallel to .

図3Aは、現実環境における自車両1の周囲の環境の一例を示す。実施形態の車両評価方法による評価検証が実施される現実環境は、仮想的な評価環境に設けられる仮想的な道路や仮想オブジェクトと矛盾しないように、車線を形成する地物(例えば、車線境界線、車線区分線、縁石など)やその近傍の地物のない広場であることが好ましい。
また、現実環境には、センサ11による周囲環境の認識機能を評価するために、評価項目に応じて現実の物体を配置してもよい。図3Aの例では、自車両1の周囲に現実の他車両2が配置されている。現実環境に配置された現実の物体を「実体物」と表記することがある。
FIG. 3A shows an example of the environment around the own vehicle 1 in the real environment. The real environment in which the evaluation verification by the vehicle evaluation method according to the embodiment is performed includes features forming lanes (for example, lane boundary lines) so as not to conflict with virtual roads and virtual objects provided in the virtual evaluation environment. , lane markings, curbs, etc.) and nearby features.
Further, in order to evaluate the recognition function of the surrounding environment by the sensor 11, real objects may be placed in the real environment according to the evaluation items. In the example of FIG. 3A , real other vehicles 2 are arranged around the own vehicle 1 . A real object placed in the real environment is sometimes referred to as a “substantial object”.

図3Bは、現実環境における地図上の座標と道路地図情報13aの座標情報とを対応付けることにより構築された評価環境の一例を示す。構築された評価環境では、自車両1の周囲に、道路地図情報13aに含まれる道路3(白線3a~3cは、道路3の車線境界線である)が存在している。
なお、現実環境における路面形状と道路地図情報13aの道路3の路面形状とが異なる場合(すなわち両者の路面の高さの変動が異なる場合)には、道路地図情報13aの道路3の高さ情報(例えば標高情報)を、現実環境における路面形状に合わせて補正してもよい。
FIG. 3B shows an example of an evaluation environment constructed by associating the coordinates on the map in the real environment with the coordinate information of the road map information 13a. In the constructed evaluation environment, the road 3 included in the road map information 13a exists around the own vehicle 1 (the white lines 3a to 3c are lane boundary lines of the road 3).
Note that when the road surface shape in the real environment and the road surface shape of the road 3 in the road map information 13a are different (that is, when the road surface heights of the two differ from each other), the height information of the road 3 in the road map information 13a (For example, altitude information) may be corrected in accordance with the road surface shape in the actual environment.

さらに、評価環境構築部32は、オブジェクトデータベース14に記憶された仮想オブジェクトの情報とその座標情報とに基づいて、評価項目に応じた仮想オブジェクトを評価環境に配置する。
図3Cは、仮想オブジェクトが配置された評価環境の一例を示す。図3Cの評価環境には、仮想オブジェクトの例として、壁4と仮想の他車両5とが配置されている。壁4は、静止した仮想オブジェクトの一例である。他車両5は、駐車車両のような静止した仮想オブジェクトであってもよく、走行車両のような移動する仮想オブジェクトであってもよく、一時的に停止した車両のような移動可能な静止した仮想オブジェクトであってもよい。
Furthermore, the evaluation environment constructing unit 32 arranges the virtual object corresponding to the evaluation item in the evaluation environment based on the information of the virtual object and its coordinate information stored in the object database 14 .
FIG. 3C shows an example of an evaluation environment in which virtual objects are arranged. In the evaluation environment of FIG. 3C, a wall 4 and a virtual other vehicle 5 are arranged as examples of virtual objects. Wall 4 is an example of a stationary virtual object. The other vehicle 5 may be a stationary virtual object such as a parked vehicle, a moving virtual object such as a running vehicle, or a movable stationary virtual object such as a temporarily stopped vehicle. It can be an object.

評価環境構築部32は、仮想オブジェクトを評価環境に配置する際に、仮想オブジェクトの高さ方向の配置位置を、現実環境における路面形状に合わせてもよい。
この場合に、オブジェクトデータベース14に記憶した仮想オブジェクトの配置場所として想定されている路面の形状と、仮想オブジェクトが配置された現実環境の路面形状とが異なることがある。図4Aにその例を示す。
図4Aに示す壁4は、路面6eのように傾斜面に配置される仮想オブジェクトであり、路面6eを基準とする壁4の高さが道路の進行方向に沿って変化するのに対し、路面6eが仮想的に配置される現実環境の路面6rの傾斜が路面6eと異なっている(例えば、路面6rは水平であってよい)。
When arranging the virtual object in the evaluation environment, the evaluation environment construction unit 32 may match the arrangement position of the virtual object in the height direction with the shape of the road surface in the real environment.
In this case, the shape of the road surface assumed as the placement location of the virtual object stored in the object database 14 may differ from the shape of the road surface in the real environment where the virtual object is placed. An example is shown in FIG. 4A.
The wall 4 shown in FIG. 4A is a virtual object arranged on an inclined surface like the road surface 6e. The slope of the road surface 6r in the real environment on which 6e is virtually placed differs from the road surface 6e (for example, the road surface 6r may be horizontal).

この場合に、壁4が配置される路面6eのいずれかの位置の高さを現実環境の路面6rのいずれかの位置の高さに合わせると、図4Aに示すように壁4が浮いてしまうか、図4Bに示すように壁4の一部が路面6eの下に沈むことになる。
このため、評価環境構築部32は、図4Cに示すように壁(仮想オブジェクト)4の底面4bの高さ方向位置が底面4bに亘って現実環境の路面6rの高さ方向位置と一致するとともに、壁(仮想オブジェクト)4の底面4bに対する上面4tの高さが維持されるように、上面4tの位置を補正してもよい。
In this case, if the height of any position of the road surface 6e on which the wall 4 is arranged is adjusted to the height of any position of the road surface 6r in the real environment, the wall 4 will float as shown in FIG. 4A. Alternatively, as shown in FIG. 4B, a portion of the wall 4 is sunk under the road surface 6e.
Therefore, as shown in FIG. 4C, the evaluation environment construction unit 32 causes the height direction position of the bottom surface 4b of the wall (virtual object) 4 to match the height direction position of the road surface 6r in the real environment over the bottom surface 4b. , the position of the top surface 4t may be corrected so that the height of the top surface 4t with respect to the bottom surface 4b of the wall (virtual object) 4 is maintained.

また、移動する仮想オブジェクトを配置する場合、評価環境構築部32は、現実環境の路面形状に沿って仮想オブジェクトを移動させてもよい。
その際、予め定めたとおりに仮想オブジェクトが移動するように、所定のシナリオに従って仮想オブジェクトを移動させてもよい。また、状況に応じて仮想オブジェクトが移動するように、所定条件に基づいて仮想オブジェクトの移動方向、移動速度、移動量の少なくとも1つを決定する所定のプログラムやアルゴリズムに基づいて仮想オブジェクトを移動させてもよい。
When arranging a moving virtual object, the evaluation environment construction unit 32 may move the virtual object along the shape of the road surface in the real environment.
At that time, the virtual object may be moved according to a predetermined scenario so that the virtual object moves as determined in advance. Also, the virtual object is moved based on a predetermined program or algorithm that determines at least one of the moving direction, moving speed, and moving amount of the virtual object based on predetermined conditions so that the virtual object moves according to the situation. may

このようにして、評価環境は、現実環境に配置された現実の実体物に加えて、道路地図情報13aから評価環境に配置された道路、車線境界線、車線区分線及び地物と、オブジェクトデータベース14に基づいて評価環境に配置された仮想オブジェクトとを用いて構築される。
以下、道路地図情報13aから評価環境に配置された道路、車線境界線、車線区分線及び地物と、オブジェクトデータベース14に基づいて評価環境に配置された仮想オブジェクトと、現実環境に配置された実体物と区別するために「仮想構築物」と表記することがある。
In this way, the evaluation environment includes the roads, lane boundaries, lane markings, and features placed in the evaluation environment from the road map information 13a, in addition to the real entities placed in the real environment, and the object database. 14 using virtual objects placed in the evaluation environment.
Roads, lane boundaries, lane markings, and features placed in the evaluation environment from the road map information 13a, virtual objects placed in the evaluation environment based on the object database 14, and entities placed in the real environment are described below. It is sometimes described as a "virtual construction" to distinguish it from an object.

図2を参照する。評価環境構築部32は、評価環境に配置された仮想構築物の情報(以下、「評価環境情報」と表記することがある)を、環境情報統合部33へ出力する。
例えば、評価環境情報は、評価環境に配置された仮想構築物の位置及び形状を表す座標情報を含んでよい。
環境情報統合部33は、センサ情報取得部30が取得したセンサ情報(すなわち現実の物体の検出結果)と、評価環境構築部32が生成した仮想的な評価環境情報とを、自己位置算出部31が算出した自己位置に基づいて統合する。言い換えれば、仮想的な評価環境情報を、自車両1の周囲環境をセンサで検出したセンサ情報と同等の情報として扱って、センサ情報取得部30が取得したセンサ情報に追加する。
以下、センサ情報と評価環境情報とを統合して得られる情報を「統合情報」と表記することがある。
Please refer to FIG. The evaluation environment construction unit 32 outputs information on the virtual building placed in the evaluation environment (hereinafter sometimes referred to as “evaluation environment information”) to the environment information integration unit 33 .
For example, the evaluation environment information may include coordinate information representing the position and shape of the virtual structure placed in the evaluation environment.
The environment information integration unit 33 combines the sensor information acquired by the sensor information acquisition unit 30 (that is, the detection result of the real object) with the virtual evaluation environment information generated by the evaluation environment construction unit 32 into the self-position calculation unit 31. based on the calculated self-position. In other words, the virtual evaluation environment information is treated as information equivalent to the sensor information obtained by detecting the surrounding environment of the vehicle 1 with a sensor, and added to the sensor information acquired by the sensor information acquisition unit 30 .
Hereinafter, information obtained by integrating sensor information and evaluation environment information may be referred to as "integrated information".

例えば、環境情報統合部33は、自己位置算出部31が算出した自己位置に基づいて、評価環境情報に含まれている仮想構築物の自車両1に対する相対的位置を算出する。環境情報統合部33は、算出した相対的位置に基づいて、センサ11による検出可能領域に存在する仮想構築物を抽出し、抽出された仮想構築物の評価環境情報を、センサ情報取得部30が取得したセンサ情報に加えることにより評価環境情報を統合情報へ統合してよい。
このとき、環境情報統合部33は、センサ情報取得部30が取得したセンサ情報の物体(すなわち、センサ11に検出された実体物)が、自車両1から見て仮想構築物によって遮蔽されるか否かを判定し、仮想構築物によって遮蔽された場合にセンサ11で取得できない実体物のセンサ情報を、統合情報から削除してよい。
For example, the environment information integration unit 33 calculates the relative position of the virtual structure included in the evaluation environment information with respect to the own vehicle 1 based on the self-position calculated by the self-position calculation unit 31 . Based on the calculated relative position, the environment information integration unit 33 extracts the virtual structure existing in the detectable area by the sensor 11, and the sensor information acquisition unit 30 acquires the evaluation environment information of the extracted virtual structure. The evaluation environment information may be integrated into the integrated information by adding it to the sensor information.
At this time, the environment information integration unit 33 determines whether the object in the sensor information acquired by the sensor information acquisition unit 30 (that is, the physical object detected by the sensor 11) is shielded by the virtual structure when viewed from the host vehicle 1. Then, the sensor information of the physical object that cannot be acquired by the sensor 11 when it is shielded by the virtual building may be deleted from the integrated information.

例えば、環境情報統合部33は、実体物と仮想構築物との位置関係に基づいて、センサ11に検出された実体物が自車両1から見て仮想構築物によって遮蔽されるか否かを判定してよい。例えば、環境情報統合部33は、自車両1と実体物との間の現実の相対距離と、評価環境における自車両1と仮想構築物との間の仮想的な相対距離とに基づいて、センサ11に検出された実体物が自車両1から見て仮想構築物によって遮蔽されるか否かを判定してよい。 For example, the environmental information integration unit 33 determines whether or not the physical object detected by the sensor 11 is shielded by the virtual construction when viewed from the own vehicle 1, based on the positional relationship between the physical object and the virtual construction. good. For example, the environment information integration unit 33 detects the sensor 11 based on the actual relative distance between the own vehicle 1 and the physical object and the virtual relative distance between the own vehicle 1 and the virtual structure in the evaluation environment. It may be determined whether or not the detected physical object is blocked by the virtual structure when viewed from the own vehicle 1 .

例えば、環境情報統合部33は、自車両1から見て仮想構築物によって遮蔽される領域(すなわち死角領域)を算出し、仮想構築物によって遮蔽される領域に存在する実体物が仮想構築物によって遮蔽されると判定してよい。
また例えば環境情報統合部33は、仮想構築物と同一方向に存在する実体物が、仮想構築物よりも自車両1から遠いか否かを判定して、仮想構築物よりも自車両1から遠い実体物が自車両1から見て仮想構築物によって遮蔽されると判定してよい。
同様に、仮想構築物が、センサ11に検出された実体物や他の仮想構築物によって自車両1から見て遮蔽されるか否かを判定し、遮蔽される評価環境情報の情報を統合情報から削除してもよい。
図3Dを参照する。仮想オブジェクトである壁4の一部4aによって、実体物である他車両2と、壁4の他の部分4bが遮蔽されるため、環境情報統合部33は、他車両2のセンサ情報と、壁4の部分4bの評価環境情報とが削除された統合情報を生成する。
For example, the environment information integration unit 33 calculates an area (that is, a blind spot area) that is blocked by the virtual structure when viewed from the host vehicle 1, and the real object that exists in the area that is blocked by the virtual structure is blocked by the virtual structure. can be determined.
Further, for example, the environment information integration unit 33 determines whether or not a physical object existing in the same direction as the virtual construction is farther from the own vehicle 1 than the virtual construction. It may be determined that the vehicle 1 is shielded by the virtual construction.
Similarly, it is determined whether or not the virtual structure is shielded from the host vehicle 1 by the physical object detected by the sensor 11 or another virtual structure, and the shielded evaluation environment information is deleted from the integrated information. You may
See FIG. 3D. The part 4a of the wall 4, which is a virtual object, shields the other vehicle 2, which is a real object, and the other part 4b of the wall 4. Integrated information from which the evaluation environment information of the part 4b of 4 is deleted is generated.

なお、評価検証が実施される現実環境に存在する実体物に特定の識別子を取り付け、識別子が取り付けられた実体物のセンサ情報を、統合情報から削除してよい。これにより、現実環境に実際に存在する実体物のセンサ情報のうち、評価検証に不要なセンサ情報を除去することができる。例えば、評価検証に用いるために現実環境に設置した各種の測定機器に識別子を取り付けてよい。
識別子は例えばマークや標識などの視覚的識別子であってよく、センサ11の物体検出センサ(例えばカメラ)で識別子を検出し、実体物に識別子が取り付けられているか否かを判定してよい。また、識別子は特定の信号(例えばビーコン)を発生する発信器であってもよい。
Note that a specific identifier may be attached to a physical object that exists in the real environment where evaluation verification is performed, and the sensor information of the physical object to which the identifier is attached may be deleted from the integrated information. As a result, sensor information unnecessary for evaluation and verification can be removed from the sensor information of the physical objects that actually exist in the real environment. For example, identifiers may be attached to various measuring instruments installed in the real environment for use in evaluation verification.
The identifier may be, for example, a visual identifier such as a mark or sign, and the identifier may be detected by the object detection sensor (eg camera) of the sensor 11 to determine whether the identifier is attached to the physical object. The identifier may also be an emitter that emits a specific signal (eg a beacon).

また、評価環境構築部32が評価環境を構築する処理(以下「評価環境構築処理」と表記することがある)と、環境情報統合部33がセンサ情報と評価環境情報とを統合情報へ統合する処理(以下「環境情報統合処理」)には一定の演算時間を要する。その結果、評価環境構築処理と環境情報統合処理とが、運転支援制御に間に合わないことがある。
このため、環境情報統合部33は、評価環境構築処理と環境情報統合処理に要する演算時間分だけ進めた時刻における統合情報を推定して出力してもよい。
Further, the evaluation environment construction unit 32 constructs an evaluation environment (hereinafter sometimes referred to as “evaluation environment construction processing”), and the environment information integration unit 33 integrates sensor information and evaluation environment information into integrated information. Processing (hereinafter referred to as “environmental information integration processing”) requires a certain amount of computing time. As a result, the evaluation environment construction process and the environment information integration process may not be completed in time for the driving support control.
Therefore, the environment information integration unit 33 may estimate and output the integrated information at the time advanced by the calculation time required for the evaluation environment construction process and the environment information integration process.

例えば、環境情報統合部33は、上記演算時間分だけ進めた時刻における将来の自己位置と移動物体の将来の位置を推定してよい。例えば、現在の自車両1の移動方向と移動速度に基づいて将来の自己位置を推定してよい。また、移動する実体物の将来の位置は、実体物の移動方向と移動速度に基づいて将来の位置を推定してよい。移動する仮想オブジェクトの将来の位置は、仮想オブジェクトの位置を定めるシナリオ又はプログラムに基づいて算出してよい。
環境情報統合部33は、推定したこれらの将来の位置に基づいて、演算時間分だけ進めた時刻における統合情報を推定してよい。
For example, the environment information integration unit 33 may estimate the future self-position and the future position of the moving object at a time advanced by the above calculation time. For example, the future self-position may be estimated based on the current moving direction and moving speed of the own vehicle 1 . Further, the future position of the moving physical object may be estimated based on the moving direction and moving speed of the physical object. The future position of the moving virtual object may be calculated based on the scenario or program that defines the position of the virtual object.
Based on these estimated future positions, the environmental information integration unit 33 may estimate integrated information at a time advanced by the computation time.

図2を参照する。周囲環境認識部34は、環境情報統合部33から出力される統合情報に基づいて、自車両1の周囲環境を認識する。例えば、周囲環境認識部34は、異なる時刻に与えられた統合情報の各々に含まれる物体の同一性の検証(対応付け)を行い、その対応付けを基に、物体の速度や姿勢などの挙動を予測する。周囲環境認識部34は、物体の速度、挙動、大きさ、形状に基づいて、統合情報に含まれる物体の属性を判定する。例えば、物体の属性として、静止物体であるのか移動物体であるのかを判定する。また物体の属性として、車両、歩行者、自転車、構造物(例えば道路上又はその近傍の地物)等の物体の種類を判定する。 Please refer to FIG. The surrounding environment recognition unit 34 recognizes the surrounding environment of the own vehicle 1 based on the integrated information output from the environment information integration unit 33 . For example, the surrounding environment recognizing unit 34 verifies (associates) the identity of objects included in each piece of integrated information given at different times, and based on the association, the behavior such as velocity and posture of the object is determined. to predict. The surrounding environment recognition unit 34 determines attributes of objects included in the integrated information based on the speed, behavior, size, and shape of the objects. For example, as an attribute of an object, it is determined whether it is a stationary object or a moving object. As attributes of objects, the types of objects such as vehicles, pedestrians, bicycles, and structures (for example, features on or near roads) are determined.

行動決定部35は、周囲環境認識部34の認識結果に基づいて、走行制御装置10により実行する自車両1の概略的な運転行動を決定する。行動決定部35が決定する運転行動は、例えば、自車両1の停止、一時停止、走行速度、減速、加速、進路変更、右折、左折、直進、合流区間や複数車線における車線変更、車線維持、追越、障害物への対応などの行動が含まれる。
例えば、行動決定部35は、自車両1の自己位置と、周囲環境認識部34が認識した自車両1の周囲の物体の位置及び姿勢と、高精度地図とに基づいて、自車両1の周辺の経路や物体の有無を表現する経路空間マップと、走行場の危険度を数値化したリスクマップを生成する。行動決定部35は、経路空間マップ及びリスクマップに基づいて、自車両1の運転行動計画を生成する。
The behavior determination unit 35 determines a rough driving behavior of the own vehicle 1 to be executed by the cruise control device 10 based on the recognition result of the surrounding environment recognition unit 34 . The driving behavior determined by the behavior determining unit 35 includes, for example, stop, pause, running speed, deceleration, acceleration, course change, right turn, left turn, go straight, lane change in a merging section or multiple lanes, lane maintenance, Actions such as overtaking and dealing with obstacles are included.
For example, the action determining unit 35 determines the surroundings of the own vehicle 1 based on the self-position of the own vehicle 1, the positions and orientations of objects around the own vehicle 1 recognized by the surrounding environment recognition unit 34, and the high-precision map. It generates a route space map that expresses the route and the presence or absence of objects, and a risk map that quantifies the degree of risk of the driving area. The action determination unit 35 generates a driving action plan for the own vehicle 1 based on the route space map and the risk map.

軌道生成部36は、行動決定部35が決定した運転行動計画、自車両1の運動特性、経路空間マップに基づいて、自車両1を走行させる走行軌道及び速度プロファイルの候補を生成する。
軌道生成部36は、リスクマップに基づいて各候補の将来リスクを評価して、最適な走行軌道及び速度プロファイルを選択し、自車両1に走行させる目標走行軌道及び目標速度プロファイルとして設定する。
車両制御部37は、軌道生成部36が生成した目標速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ16を駆動する。
The trajectory generation unit 36 generates a travel trajectory and a speed profile candidate for the vehicle 1 to travel based on the driving action plan determined by the behavior determination unit 35, the motion characteristics of the vehicle 1, and the route space map.
The trajectory generator 36 evaluates the future risk of each candidate based on the risk map, selects the optimum travel trajectory and speed profile, and sets them as the target travel trajectory and target speed profile for the vehicle 1 to travel.
The vehicle control unit 37 drives the actuator 16 so that the vehicle 1 travels along the target travel trajectory at a speed according to the target speed profile generated by the trajectory generation unit 36 .

情報提示部38は、周囲環境認識部34が認識した自車両1の周囲環境の情報を可視化してユーザインタフェース17から出力し、自車両1の乗員に提示する。また、走行支援装置10とは別体の装置として設けられたユーザインタフェース17を介して、自車両1の車外の観察者に提供してもよい。
例えば、情報提示部38は、周囲環境認識部34が認識した情報のうち、仮想構築物のみを可視化して、乗員の前方のヘッドアップディスプレイに表示、あるいはフロントウィンドシールドに投影して表示する等、ディスプレイ装置に表示してもよい。また、周囲環境認識部34が認識した実体物と仮想構築物とを重畳した画像を、ディスプレイ装置に表示してもよい。
上記のとおり、仮想構築物により遮蔽されてセンサ11で取得できない実体物のセンサ情報を統合情報から削除することにより、遮蔽された部分が表示されない画像を提供できる。
The information presentation unit 38 visualizes the information of the surrounding environment of the own vehicle 1 recognized by the surrounding environment recognition unit 34 , outputs it from the user interface 17 , and presents it to the occupant of the own vehicle 1 . Alternatively, the information may be provided to an observer outside the own vehicle 1 via a user interface 17 provided as a device separate from the driving support device 10 .
For example, the information presentation unit 38 visualizes only the virtual structure among the information recognized by the surrounding environment recognition unit 34, and displays it on the head-up display in front of the occupant, or projects it on the front windshield for display. It may be displayed on a display device. Also, an image in which the physical object recognized by the surrounding environment recognition unit 34 and the virtual structure are superimposed may be displayed on the display device.
As described above, by deleting the sensor information of the real object that is blocked by the virtual structure and cannot be acquired by the sensor 11 from the integrated information, an image in which the blocked portion is not displayed can be provided.

(動作)
次に、図5を参照して、実施形態における実施形態の車両評価方法の一例を参照する。
ステップS1において評価環境構築部32は、地図データベース13から道路地図情報13aと、現実環境の路面の勾配などの形状情報を含んだ路面情報13bを取得する。また、オブジェクトデータベース14から、評価検証の検証項目に対応した評価環境に関する情報として、評価環境に配置する仮想オブジェクトの情報とその座標情報を取得する。
ステップS2において評価環境構築部32は、現実環境における地図上の座標と道路地図情報13aの座標情報とを対応付けることにより、評価環境を構築する。
ステップS3において評価環境構築部32は、構築した評価環境内に仮想オブジェクトを配置する。
(motion)
Next, with reference to FIG. 5, an example of the vehicle evaluation method of the embodiment will be referred to.
In step S<b>1 , the evaluation environment construction unit 32 acquires the road map information 13 a from the map database 13 and the road surface information 13 b including shape information such as the slope of the road surface in the real environment. Further, from the object database 14, information on the virtual object to be placed in the evaluation environment and its coordinate information are acquired as information on the evaluation environment corresponding to the verification item of the evaluation verification.
In step S2, the evaluation environment building section 32 builds an evaluation environment by associating the coordinates on the map in the real environment with the coordinate information of the road map information 13a.
In step S3, the evaluation environment construction unit 32 arranges virtual objects in the constructed evaluation environment.

ステップS4においてセンサ情報取得部30は、センサ11の物体検出センサにより自車両1の周囲に存在する現実の物体を検出したセンサ情報を取得する。
ステップS5において自己位置算出部31は、自車両1の地図上の位置である自己位置を算出する。
ステップS6において環境情報統合部33は、センサ情報取得部30が取得したセンサ情報と、評価環境構築部32が構築した評価環境の情報とを、統合情報へ統合する。
ステップS7において周囲環境認識部34は、統合情報に基づいて自車両1の周囲環境を認識する。
In step S<b>4 , the sensor information acquisition unit 30 acquires sensor information that the object detection sensor of the sensor 11 detects an actual object existing around the own vehicle 1 .
In step S5, the self-position calculator 31 calculates the self-position, which is the position of the vehicle 1 on the map.
In step S6, the environment information integration unit 33 integrates the sensor information acquired by the sensor information acquisition unit 30 and the evaluation environment information constructed by the evaluation environment construction unit 32 into integrated information.
In step S7, the surrounding environment recognition unit 34 recognizes the surrounding environment of the own vehicle 1 based on the integrated information.

ステップS8において行動決定部35は、周囲環境認識部34の認識結果に基づいて、走行制御装置10により実行する自車両1の運転行動計画を決定する。
ステップS9において軌道生成部36は、行動決定部35が決定した運転行動計画に基づいて、自車両1に走行させる目標走行軌道及び目標速度プロファイルを生成する。
ステップS10において車両制御部37は、軌道生成部36が生成した目標速度プロファイルに従う速度で自車両1が目標走行軌道を走行するように、アクチュエータ16を駆動する。その後に処理は終了する。
In step S<b>8 , the action determination unit 35 determines a driving action plan for the own vehicle 1 to be executed by the cruise control device 10 based on the recognition result of the surrounding environment recognition unit 34 .
In step S<b>9 , the trajectory generation unit 36 generates a target travel trajectory and a target speed profile for the vehicle 1 to travel based on the driving action plan determined by the action determination unit 35 .
In step S<b>10 , the vehicle control unit 37 drives the actuator 16 so that the vehicle 1 travels along the target travel trajectory at a speed according to the target speed profile generated by the trajectory generation unit 36 . Processing then ends.

(実施形態の効果)
(1)走行制御装置10によって、自車両1の周囲の周囲環境に基づいて自車両1を自動的に運転する自動運転車両の車両評価方法を実施できる。走行制御装置10の評価環境構築部32は、所定の道路地図上の座標情報と現実環境の座標とを対応付けることにより、現実環境における自車両1の位置に対応する道路地図上の仮想的な位置が定まる仮想環境である評価環境を構築して、評価環境内に仮想オブジェクトを配置する。センサ情報取得部30は、自車両1の周囲に存在する物体の自車両1に対する相対位置をセンサ11で検出した検出情報を取得する。自己位置算出部31は、自車両1の自己位置を算出する。環境情報統合部33は、自己位置に基づいて、センサ11で取得した検出情報と評価環境の情報とを統合情報へ統合する。周囲環境認識部34、行動決定部35、軌道生成部36、車両制御部37は、統合情報に基づいて自車両1の走行を制御する。
これにより、自動運転車両の評価を実施する試験環境を仮想的に実現できる。この結果、試験環境を実現する作業を省力化できる。
(Effect of Embodiment)
(1) The travel control device 10 can implement a vehicle evaluation method for an automatically driven vehicle that automatically drives the own vehicle 1 based on the surrounding environment of the own vehicle 1 . The evaluation environment constructing unit 32 of the travel control device 10 associates the coordinate information on the predetermined road map with the coordinates of the real environment, thereby obtaining a virtual position on the road map corresponding to the position of the own vehicle 1 in the real environment. is established, and virtual objects are arranged in the evaluation environment. The sensor information acquisition unit 30 acquires detection information obtained by detecting the relative position of an object existing around the own vehicle 1 with respect to the own vehicle 1 by the sensor 11 . The self-position calculator 31 calculates the self-position of the own vehicle 1 . The environment information integration unit 33 integrates the detection information acquired by the sensor 11 and the evaluation environment information into integrated information based on the self-location. The surrounding environment recognition unit 34, the action determination unit 35, the trajectory generation unit 36, and the vehicle control unit 37 control traveling of the own vehicle 1 based on the integrated information.
This makes it possible to virtually create a test environment for evaluating automated driving vehicles. As a result, it is possible to save labor in the work of realizing the test environment.

(2)環境情報統合部33は、センサで検出した物体である被検出物体と仮想オブジェクトの位置関係に基づいて、自車両1から見て仮想オブジェクトに遮蔽される被検出物体の検出情報を統合情報から除外してよい。
これにより、センサ11で検出された実体物が、自車両1から見て仮想オブジェクトによって遮蔽される環境を実現できる。
(3)環境情報統合部33は、自車両1と被検出物体との間の相対距離と、評価環境における自車両1と仮想オブジェクトとの間の相対距離と、に基づいて、自車両1から見て被検出物体が仮想オブジェクトに遮蔽されるか否かを判定してよい。
これにより、センサ11で検出される実体物が、自車両1から見て仮想オブジェクトによって遮蔽されるか否かを判定できる。
(2) The environmental information integration unit 33 integrates the detection information of the detected object that is shielded by the virtual object as seen from the vehicle 1 based on the positional relationship between the detected object, which is the object detected by the sensor, and the virtual object. May be excluded from information.
As a result, it is possible to realize an environment in which the physical object detected by the sensor 11 is shielded by the virtual object when viewed from the own vehicle 1 .
(3) The environment information integration unit 33 calculates the following from the own vehicle 1 based on the relative distance between the own vehicle 1 and the detected object and the relative distance between the own vehicle 1 and the virtual object in the evaluation environment. It may be determined whether or not the object to be detected is blocked by the virtual object.
Thereby, it is possible to determine whether or not the physical object detected by the sensor 11 is shielded by the virtual object when viewed from the own vehicle 1 .

(4)評価環境構築部32は、評価環境の構築の際に、道路地図に含まれる道路の路面形状を補正して現実環境の路面形状に合わせてもよい。
これにより、現実環境の路面形状に合わせて評価環境を構築できる。
(5)評価環境構築部32は、仮想オブジェクトの配置の際に、仮想オブジェクトの上面4tを、仮想オブジェクトが配置される座標の現実環境の路面形状に合わせて補正してもよい。これにより、現実環境の路面形状に合わせて仮想オブジェクトの高さを維持するように、上面4tの高さ方向の位置情報を補正できる。
(4) When constructing the evaluation environment, the evaluation environment construction unit 32 may correct the road surface shape of the road included in the road map to match the road surface shape of the actual environment.
As a result, an evaluation environment can be constructed according to the shape of the road surface in the actual environment.
(5) When arranging the virtual object, the evaluation environment constructing unit 32 may correct the upper surface 4t of the virtual object to match the shape of the road surface in the real environment at the coordinates at which the virtual object is arranged. As a result, the positional information of the top surface 4t in the height direction can be corrected so as to maintain the height of the virtual object according to the shape of the road surface in the real environment.

(6)評価環境構築部32は、仮想オブジェクトとして、仮想オブジェクトが位置する座標の現実環境の路面形状に合わせて移動する移動オブジェクトを配置してもよい。
これにより、現実環境の路面形状に沿って移動する仮想オブジェクトを模擬することができる。
(7)評価環境構築部32は、所定シナリオ又は所定のプログラムに従って仮想オブジェクトを移動させてもよい。
これにより、任意の評価項目に応じて仮想オブジェクトを移動させることができる。
(8)環境情報統合部33は、評価環境の構築と統合情報への統合の演算時間分だけ進めた時刻における将来の統合情報を推定してよい。周囲環境認識部34、行動決定部35、軌道生成部36、車両制御部37は、将来の統合情報に基づいて自車両1の走行を制御してよい。これにより、評価環境の構築処理と統合情報への統合処理とが自車両1の走行制御に間に合わなくなることを回避できる。
(6) The evaluation environment construction unit 32 may arrange, as the virtual object, a moving object that moves according to the shape of the road surface in the real environment at the coordinates at which the virtual object is located.
This makes it possible to simulate a virtual object that moves along the shape of the road surface in the real environment.
(7) The evaluation environment construction unit 32 may move the virtual object according to a predetermined scenario or a predetermined program.
Thereby, a virtual object can be moved according to arbitrary evaluation items.
(8) The environmental information integration unit 33 may estimate future integrated information at a time advanced by the calculation time for constructing the evaluation environment and integration into the integrated information. The surrounding environment recognition unit 34, the action determination unit 35, the trajectory generation unit 36, and the vehicle control unit 37 may control the traveling of the own vehicle 1 based on future integrated information. As a result, it is possible to prevent the process of constructing the evaluation environment and the process of integrating into the integrated information from falling behind the running control of the own vehicle 1 .

1…自車両、10…走行制御装置、11…センサ、12…測位装置、13…地図データベース(地図DB)、13a…道路地図情報、13b…路面情報、14…オブジェクトデータベース(オブジェクトDB)、15…コントローラ、16…アクチュエータ、17…ユーザインタフェース(ユーザI/F)、20…プロセッサ、21…記憶装置、30…センサ情報取得部、31…自己位置算出部、32…評価環境構築部、33…環境情報統合部、34…周囲環境認識部、35…行動決定部、36…軌道生成部、37…車両制御部、38…情報提示部 Reference Signs List 1 self-vehicle 10 traveling control device 11 sensor 12 positioning device 13 map database (map DB) 13a road map information 13b road surface information 14 object database (object DB) 15 ... controller 16 ... actuator 17 ... user interface (user I/F) 20 ... processor 21 ... storage device 30 ... sensor information acquisition unit 31 ... self-position calculation unit 32 ... evaluation environment construction unit 33 ... Environmental information integration unit 34 Surrounding environment recognition unit 35 Action determination unit 36 Trajectory generation unit 37 Vehicle control unit 38 Information presentation unit

Claims (9)

自車両の周囲の周囲環境に基づいて前記自車両を自動的に運転する自動運転車両の車両評価方法であって、
所定の道路地図上の座標情報と現実環境の座標とを対応付けることにより、前記現実環境における前記自車両の位置に対応する前記道路地図上の仮想的な位置が定まる仮想環境を構築し、
前記仮想環境内に仮想オブジェクトを配置し、
前記自車両の周囲に存在する物体の自車両に対する相対位置をセンサで検出した検出情報を取得し、
前記自車両の自己位置を算出し、
前記自己位置に基づいて、前記センサで取得した前記検出情報と前記仮想環境の情報とを統合情報へ統合し、
前記統合情報に基づいて前記自車両の走行を制御する、
ことを特徴とする車両評価方法。
A vehicle evaluation method for an automatically driven vehicle that automatically drives the own vehicle based on the surrounding environment of the own vehicle,
constructing a virtual environment in which a virtual position on the road map corresponding to the position of the own vehicle in the real environment is determined by associating coordinate information on the predetermined road map with the coordinates of the real environment;
placing a virtual object in the virtual environment;
Acquiring detection information obtained by detecting a relative position of an object existing around the own vehicle with respect to the own vehicle by a sensor,
calculating the self-position of the own vehicle;
integrating the detection information acquired by the sensor and the information of the virtual environment into integrated information based on the self-location;
controlling travel of the own vehicle based on the integrated information;
A vehicle evaluation method characterized by:
前記センサで検出した物体である被検出物体と前記仮想オブジェクトの位置関係に基づいて、前記自車両から見て前記仮想オブジェクトに遮蔽される前記被検出物体の前記検出情報を前記統合情報から除外することを特徴とする請求項1に記載の車両評価方法。 Based on the positional relationship between the detected object, which is the object detected by the sensor, and the virtual object, the detection information of the detected object that is shielded by the virtual object as viewed from the own vehicle is excluded from the integrated information. The vehicle evaluation method according to claim 1, characterized in that: 前記自車両と前記被検出物体との間の相対距離と、前記仮想環境における前記自車両と前記仮想オブジェクトとの間の相対距離と、に基づいて、前記自車両から見て前記被検出物体が前記仮想オブジェクトに遮蔽されるか否かを判定することを特徴とする請求項2に記載の車両評価方法。 Based on the relative distance between the own vehicle and the detected object, and the relative distance between the own vehicle and the virtual object in the virtual environment, the object to be detected is determined as viewed from the own vehicle. 3. The vehicle evaluation method according to claim 2, further comprising determining whether or not the vehicle is blocked by the virtual object. 前記仮想環境の構築の際に、前記道路地図に含まれる道路の路面形状を補正して現実環境の路面形状に合わせることを特徴とする請求項1~3のいずれか一項に記載の車両評価方法。 4. The vehicle evaluation according to any one of claims 1 to 3, wherein when the virtual environment is constructed, the road surface shape of the road included in the road map is corrected to match the road surface shape of the real environment. Method. 前記仮想オブジェクトとして静止オブジェクトを配置し、
前記静止オブジェクトの上面を、前記静止オブジェクトが配置される座標の現実環境の路面形状に合わせて補正することを特徴とする請求項1~4のいずれか一項に記載の車両評価方法。
arranging a static object as the virtual object;
The vehicle evaluation method according to any one of claims 1 to 4, wherein the upper surface of the stationary object is corrected in accordance with the shape of the road surface in the real environment of the coordinates at which the stationary object is arranged.
前記仮想オブジェクトとして、前記仮想オブジェクトが位置する座標の現実環境の路面形状に合わせて移動する移動オブジェクトを配置することを特徴とする請求項1~5のいずれか一項に記載の車両評価方法。 The vehicle evaluation method according to any one of claims 1 to 5, wherein the virtual object is a moving object that moves in accordance with the shape of the road surface in the real environment of the coordinates at which the virtual object is positioned. 前記仮想オブジェクトとして、所定シナリオ又は所定のプログラムに従って移動する移動オブジェクトを配置することを特徴とする請求項1~5のいずれか一項に記載の車両評価方法。 The vehicle evaluation method according to any one of claims 1 to 5, wherein a moving object that moves according to a predetermined scenario or a predetermined program is arranged as the virtual object. 前記仮想環境の構築と統合情報への統合の演算時間分だけ進めた時刻における将来の前記統合情報を推定し、
前記将来の統合情報に基づいて前記自車両の走行を制御する、
ことを特徴とする請求項1~7のいずれか一項に記載の車両評価方法。
estimating the integrated information in the future at a time advanced by the computation time for building the virtual environment and integrating the integrated information;
controlling travel of the own vehicle based on the future integrated information;
The vehicle evaluation method according to any one of claims 1 to 7, characterized in that:
自車両の周囲の周囲環境に基づいて前記自車両を自動的に運転する自動運転車両の車両評価装置であって、
所定の道路地図の情報を記憶する地図データベースと、
前記自車両の周囲に存在する物体を検出するセンサと、
前記自車両に車両挙動を発生させるアクチュエータと、
前記道路地図上の座標情報と現実環境の座標とを対応付けることにより、前記現実環境における前記自車両の位置に対応する前記道路地図上の仮想的な位置が定まる仮想環境を構築し、前記仮想環境内に仮想オブジェクトを配置し、前記自車両の周囲に存在する物体の自車両に対する相対位置をセンサで検出した検出情報を取得し、前記自車両の自己位置を算出し、前記自己位置に基づいて、前記センサで取得した前記検出情報と前記仮想環境の情報とを統合情報へ統合し、前記統合情報に基づいて前記アクチュエータを制御するコントローラと、
を備えることを特徴とする車両評価装置。
A vehicle evaluation device for an automatically driven vehicle that automatically drives the own vehicle based on the surrounding environment of the own vehicle,
a map database that stores predetermined road map information;
a sensor that detects objects existing around the own vehicle;
an actuator for generating a vehicle behavior in the subject vehicle;
constructing a virtual environment in which a virtual position on the road map corresponding to the position of the own vehicle in the real environment is determined by associating the coordinate information on the road map with the coordinates of the real environment; A virtual object is arranged in the virtual object, a sensor detects the relative position of an object existing around the own vehicle with respect to the own vehicle, and the detection information is obtained, the self-position of the self-vehicle is calculated, and a controller that integrates the detection information acquired by the sensor and the information of the virtual environment into integrated information and controls the actuator based on the integrated information;
A vehicle evaluation device comprising:
JP2021027776A 2021-02-24 2021-02-24 Vehicle evaluation method and vehicle evaluation device Active JP7565232B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021027776A JP7565232B2 (en) 2021-02-24 2021-02-24 Vehicle evaluation method and vehicle evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021027776A JP7565232B2 (en) 2021-02-24 2021-02-24 Vehicle evaluation method and vehicle evaluation device

Publications (2)

Publication Number Publication Date
JP2022129175A true JP2022129175A (en) 2022-09-05
JP7565232B2 JP7565232B2 (en) 2024-10-10

Family

ID=83150296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021027776A Active JP7565232B2 (en) 2021-02-24 2021-02-24 Vehicle evaluation method and vehicle evaluation device

Country Status (1)

Country Link
JP (1) JP7565232B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115503740A (en) * 2022-11-16 2022-12-23 雄安雄创数字技术有限公司 Driving assistance method and device, electronic equipment and storage medium
KR102576733B1 (en) * 2022-11-30 2023-09-08 주식회사 모라이 Method and system for simulating traffic environment based on vils linked to control platform
WO2024080168A1 (en) * 2022-10-12 2024-04-18 ソフトバンクグループ株式会社 Automated driving test method and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009119637A1 (en) 2008-03-25 2009-10-01 三菱電機株式会社 Driving support system
AT511131B1 (en) 2012-05-25 2013-09-15 Avl List Gmbh Method for testing a vehicle or a component of a vehicle
US20160314224A1 (en) 2015-04-24 2016-10-27 Northrop Grumman Systems Corporation Autonomous vehicle simulation system
JP6319204B2 (en) 2015-06-26 2018-05-09 株式会社デンソー Headlamp control device for vehicle
US20200209874A1 (en) 2018-12-31 2020-07-02 Chongqing Jinkang New Energy Vehicle, Ltd. Combined virtual and real environment for autonomous vehicle planning and control testing
GB201906813D0 (en) 2019-05-16 2019-06-26 Roboraca Ltd Metaverse
KR102139172B1 (en) 2020-01-06 2020-07-29 주식회사 모라이 Autonomous vehicle simulation method in virtual environment

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024080168A1 (en) * 2022-10-12 2024-04-18 ソフトバンクグループ株式会社 Automated driving test method and program
CN115503740A (en) * 2022-11-16 2022-12-23 雄安雄创数字技术有限公司 Driving assistance method and device, electronic equipment and storage medium
KR102576733B1 (en) * 2022-11-30 2023-09-08 주식회사 모라이 Method and system for simulating traffic environment based on vils linked to control platform
WO2024117563A1 (en) * 2022-11-30 2024-06-06 주식회사 모라이 Control platform interworking vils-based traffic environment reproducing method and system

Also Published As

Publication number Publication date
JP7565232B2 (en) 2024-10-10

Similar Documents

Publication Publication Date Title
JP6906011B2 (en) Method for converting the 2D boundary frame of an object to the 3D position of an autonomous vehicle [METHOD FOR TRANSFORMING 2D BOUNDING BOXES OF OBJECTS INTO 3D POSITIONS FOR AUTONOMOUS DRIVING VEHICLES
JP7052786B2 (en) Display control device and display control program
CN108387241B (en) Method and system for updating positioning map of automatic driving vehicle
CN109937343B (en) Evaluation framework for prediction trajectories in automated driving vehicle traffic prediction
US10310511B2 (en) Automatic driving control system of mobile object
EP3361278A1 (en) Autonomous vehicle localization based on walsh kernel projection technique
EP3327464A1 (en) Algorithm and infrastructure for robust and efficient vehicle localization
US20180307944A1 (en) Automatically collecting training data for object recognition with 3d lidar and localization
CN109215433A (en) The Driving Scene generator of view-based access control model for automatic Pilot emulation
KR20190141081A (en) A v2x communication-based vehicle lane system for autonomous vehicles
JP2022129175A (en) Vehicle evaluation method and vehicle evaluation device
CN109426261A (en) Servomechanism
WO2018221454A1 (en) Map generation device, control method, program, and storage medium
JP2020060369A (en) Map information system
JP6984624B2 (en) Display control device and display control program
CN111127651A (en) Automatic driving test development method and device based on high-precision visualization technology
CN111402387A (en) Removing short timepoints from a point cloud of a high definition map for navigating an autonomous vehicle
US11400923B2 (en) Information processing device, vehicle control device, and mobile object control method
JP2004265432A (en) Travel environment recognition device
JP2021144743A (en) Three-dimensional data generation device, 3d data generation method, three-dimensional data generation program, and computer readable recording medium recording three-dimensional data generation program
JP6705270B2 (en) Automatic operation control system for mobile
JP6728959B2 (en) Automatic operation control system for mobile
US12032066B2 (en) Recognition device and method
JP2023054315A (en) Information processing device, control method, program, and storage medium
JP6705271B2 (en) Automatic operation control system for mobile

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240930

R150 Certificate of patent or registration of utility model

Ref document number: 7565232

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150