JPWO2019188389A1 - 信号処理装置、および信号処理方法、プログラム、並びに移動体 - Google Patents
信号処理装置、および信号処理方法、プログラム、並びに移動体 Download PDFInfo
- Publication number
- JPWO2019188389A1 JPWO2019188389A1 JP2020510640A JP2020510640A JPWO2019188389A1 JP WO2019188389 A1 JPWO2019188389 A1 JP WO2019188389A1 JP 2020510640 A JP2020510640 A JP 2020510640A JP 2020510640 A JP2020510640 A JP 2020510640A JP WO2019188389 A1 JPWO2019188389 A1 JP WO2019188389A1
- Authority
- JP
- Japan
- Prior art keywords
- boundary
- distance
- image
- unit
- distance image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 238000002372 labelling Methods 0.000 claims abstract description 116
- 238000012545 processing Methods 0.000 claims abstract description 90
- 238000001514 detection method Methods 0.000 claims abstract description 86
- 238000009826 distribution Methods 0.000 claims description 104
- 238000000034 method Methods 0.000 claims description 79
- 230000008569 process Effects 0.000 claims description 50
- 230000011218 segmentation Effects 0.000 claims description 36
- 238000003384 imaging method Methods 0.000 claims description 28
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 230000009471 action Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 description 49
- 238000004891 communication Methods 0.000 description 43
- 238000004458 analytical method Methods 0.000 description 41
- 230000006870 function Effects 0.000 description 13
- 239000013598 vector Substances 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000010391 action planning Effects 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000037007 arousal Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000000116 mitigating effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3453—Special cost functions, i.e. other than distance or default speed limit of road segments
- G01C21/3461—Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3811—Point data, e.g. Point of Interest [POI]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/383—Indoor data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3852—Data derived from aerial or satellite images
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
1.本開示の好適な実施の形態
2.ソフトウェアにより実行させる例
<移動可能領域の境界の検出方法の概要>
まず、図1を参照して、本開示の移動可能領域の境界の検出方法の概要について説明する。
次に、図2を参照して被写体の種別に応じたラベリングにおけるエラーについて説明する。
次に、図3を参照して、デプスセンサ12によるエラーについて説明する。
上述したように、移動可能領域を検出するにあたっては、カメラ11により撮像される画像から得られるセマンティックセグメンテーションのエラーとデプスセンサ12により検出される距離画像のエラーとを考慮する必要がある。
次に、本技術が適用され得る移動体が車両である場合の移動体制御システムの一例である車両制御システムについて説明する。
次に、移動体がロボットである場合の移動体制御システムの一例であるロボット制御システムの構成例について説明する。
次に、図7を参照して、図5の状況認識部153の構成例について説明する。尚、図5の状況認識部153は、図6の状況認識部252に対応するものであるので、その説明は省略する。
次に、図8を参照して、セマンティックセグメンテーション部302によるセマンティックセグメンテーションについて説明する。
デプスセンサ12の測定結果であるポイントクラウド情報は、3次元空間内における点群の座標情報であるが、この測定結果をカメラ11により撮像された画像に重畳できるように座標系の位置関係を対応させるには、ポイントクラウド情報における座標系をカメラ11の座標系に変換する必要がある。
・・・(1)
・・・(2)
・・・(3)
次に、図10を参照して、デプス移動可能領域境界コストについて説明する。
ここで、図11を参照して、列単位距離情報D31に基づいた分布D33を用いた場合のデプス移動可能領域境界コストの具体的な求め方について説明する。
第1の求め方は、まず、図11の最上段の分布W1(分布D33に相当)で示されるように、デプス移動可能領域境界コスト生成部309は、路面31の高さに相当する所定の高さT11を移動可能領域の高さとして設定する。そして、デプス移動可能領域境界コスト生成部309は、列単位距離情報D31の分布W1に基づいて、所定の高さT11よりも高い位置の分布について距離毎に分布を加算し、加算結果の逆数を加算コストとする。図11の分布W1においては、障害物とみなせる領域D111の分布による加算結果が最も多くなるので、領域D111における位置(図中のバツ印の位置)における加算コストが最小となるので、移動可能領域の境界と考えることができる。
第2の求め方は、まず、図11の上から2段目の分布W2(分布D33に相当)で示されるように、デプス移動可能領域境界コスト生成部309は、列単位距離情報D31の分布W2に基づいて、平面フィッティングにより移動可能領域である路面31に対応する平面T12を設定する。そして、デプス移動可能領域境界コスト生成部309は、分布W2において、平面T12よりも高い位置の分布について、距離毎に分布を加算し、加算結果の逆数を加算コストとする。図11の分布W2においては、障害物とみなせる領域D112の分布による加算結果が最も多くなるので、領域D111における位置(図中のバツ印の位置)における加算コストが最小となるので、移動可能領域の境界と考えることができる。
第3の求め方は、図11の上から3段目の分布W3(分布D33に相当)で示されるように、デプス移動可能領域境界コスト生成部309は、最も近い位置にL字モデル(水平方向に所定の長さで、かつ、垂直方向に所定の高さのカギ状のモデル)LT11を、L字の角が遠方となるように、かつ、分布W3のうちの移動可能領域となる平面部分にL字の水平方向の辺の部分をフィッティングさせる。このとき距離のコスト(以降、単に距離コストと称する)は最小値に設定される。
第4の求め方は、図11の上から4段目の分布W4で示されるように、列単位距離情報D31における各分布のうち隣接する複数の分布毎にグループを設定し、グループ単位で属する平面を求め、グループ毎の平面に対する法線を求めるようにして、法線と水平方向のベクトルとのなす角に応じたコストを、移動可能領域の境界の存在する可能性として設定する方法である。
次に、図12を参照して、画像移動可能領域境界コストについて説明する。
次に、図13を参照して、デプス移動可能領域境界コストと、画像移動可能領域境界コストとに基づいた、移動可能領域境界の推定方法について説明する。
次に、図14を参照して、環境マップの生成方法について説明する。
次に、上述した列単位分布D101を用いた距離ABの求め方について説明する。
次に、図16のフローチャートを参照して、図5の車両制御システム100における自動運転制御処理について説明する。
次に、図17のフローチャートを参照して、状況認識部153(または252)による環境マップ生成処理について説明する。この処理は、図16の自動運転制御処理におけるステップS3における処理に対応する。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、記録媒体からインストールされる。
距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、距離画像境界として推定する距離画像境界推定部と、
前記ラベリング情報境界、および距離画像境界に基づいて、前記移動可能領域の境界を決定する移動可能領域境界決定部と
を含む信号処理装置。
<2> 前記ラベリング境界推定部は、前記ラベリング情報に基づいて、前記移動可能領域に対応する種別の被写体としてラベリングされた領域の境界が存在する領域を、前記ラベリング情報境界として推定する
<1>に記載の信号処理装置。
<3> 前記ラベリング境界推定部は、前記ラベリング情報、および前記距離画像に基づいて、前記ラベリング情報境界を推定する
<1>または<2>に記載の信号処理装置。
<4> 前記ラベリング境界推定部は、前記ラベリング情報に基づいて、前記移動可能領域に対応する種別の被写体としてラベリングされた領域の境界を、前記移動可能領域の境界として設定し、さらに、前記ラベリング情報に基づいて設定された前記移動可能領域の境界の垂直方向の幅を、前記距離画像に基づいた距離に応じて設定することにより、前記移動可能領域の境界をラベリング情報境界として推定する
<3>に記載の信号処理装置。
<5> 前記ラベリング境界推定部は、前記ラベリング情報に基づいて、前記移動可能領域に対応する種別の被写体としてラベリングされた領域の境界を、前記移動可能領域の境界として設定し、さらに、前記ラベリング情報に基づいて設定された前記移動可能領域の境界の垂直方向の幅を、前記距離画像に基づいた距離に応じて設定することにより、前記移動可能領域の境界をラベリング情報境界として推定する
<3>に記載の信号処理装置。
<6> 前記距離画像境界推定部は、前記距離画像に基づいた、前記移動可能領域と障害物との境界が存在する領域を、前記距離画像境界として推定する
<1>乃至<5>のいずれかに記載の信号処理装置。
<7> 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報に基づいて、前記移動可能領域と障害物との境界が存在する領域を、前記距離画像境界として推定する
<6>に記載の信号処理装置。
<8> 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報の、距離方向に対する高さ方向の分布に基づいて、前記移動可能領域と障害物との境界が存在する領域を、前記距離画像境界として推定する
<7>に記載の信号処理装置。
<9> 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報について、前記距離方向に対する高さ方向の分布のうち、前記移動可能領域に対応する所定の高さよりも高い分布が存在する距離を、前記移動可能領域と障害物との境界が存在する領域とすることで、前記距離画像境界を推定する
<8>に記載の信号処理装置。
<10> 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報について、前記距離方向に対する高さ方向の分布に基づいて、平面フィッティングにより、前記移動可能領域を特定し、前記平面フィッティングにより特定された前記移動可能領域よりも高い分布が存在する距離を、前記移動可能領域と障害物との境界が存在する領域とすることで、前記距離画像境界を推定する
<8>に記載の信号処理装置。
<11> 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報について、前記距離方向に対する高さ方向の分布に対して、前記移動可能領域と障害物との境界近傍のL字型の関数を設定し、距離に応じた前記L字型の関数とのフィッティングによるばらつきが最小となる距離を、前記移動可能領域と障害物との境界が存在する領域とすることで、前記距離画像境界を推定する
<8>に記載の信号処理装置。
<12> 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報について、前記距離方向に対する高さ方向の分布に対して、隣接する複数の分布からなるグループを設定し、前記グループに属する距離情報に基づいた平面の法線を求め、前記法線が水平方向に近い法線となるグループが属する距離情報より求められる距離を、前記移動可能領域と障害物との境界が存在する領域とすることで、前記距離画像境界を推定する
<8>に記載の信号処理装置。
<13> 前記ラベリング境界推定部は、撮像された画像における被写体の種別に応じたラベリング情報に基づいて、前記画像における移動体の移動可能領域の境界が存在する領域を、撮像位置からの距離に応じたコスト分布からなるラベリング情報境界として推定し、
前記距離画像境界推定部は、距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、前記距離画像の検出位置からの距離に応じたコスト分布からなる距離画像境界として推定し、
前記移動可能領域境界決定部は、前記ラベリング情報境界のコスト分布、および距離画像境界のコスト分布を加算した統合コスト分布に基づいて、前記移動可能領域の境界を決定する
<1>乃至<12>のいずれかに記載の信号処理装置。
<14> セマンティックセグメンテーションにより、撮像された画像における被写体の種別に応じた、画素単位でのラベリングによりラベリング情報を生成するラベリング部をさらに含む
<1>乃至<13>のいずれかに記載の信号処理装置。
<15> 前記移動可能領域境界決定部は、撮像位置からの距離が所定の距離よりも遠い場合は、前記ラベリング情報境界を前記移動可能領域の境界として決定し、撮像位置からの距離が所定の距離よりも近い場合は、前記距離画像境界を前記移動可能領域の境界として決定する
<1>乃至<14>のいずれかに記載の信号処理装置。
<16> 前記画像と前記距離画像のうちのいずれか一方の座標系を、他方の座標系に変換する座標変換部をさらに含む
<1>乃至<15>のいずれかに記載の信号処理装置。
<17> 前記距離画像の距離情報に基づいて、前記距離画像の解像度を、前記画像と同一の解像度となるように、前記距離情報を補間する補間部をさらに含み、
前記ラベリング境界推定部は、前記ラベリング情報に基づいて、前記移動可能領域に対応する種別の被写体としてラベリングされた領域の境界を、前記移動可能領域の境界として設定し、さらに、前記ラベリング情報に基づいて設定された前記移動可能領域の境界の垂直方向の幅を、前記補間部により、前記距離情報が補間されることで、前記画像と同一の解像度とされた距離画像に基づいた距離に応じて設定することにより、前記移動可能領域の境界をラベリング情報境界として推定する
<1>乃至<16>のいずれかに記載の信号処理装置。
<18> 撮像された画像における被写体の種別に応じたラベリング情報に基づいて、前記画像における移動体の移動可能領域の境界が存在する領域を、ラベリング情報境界として推定するラベリング境界推定処理と、
距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、距離画像境界として推定する距離画像境界推定処理と、
前記ラベリング情報境界、および距離画像境界に基づいて、前記移動可能領域の境界を決定する移動可能領域境界決定処理と
を含む信号処理方法。
<19> 撮像された画像における被写体の種別に応じたラベリング情報に基づいて、前記画像における移動体の移動可能領域の境界が存在する領域を、ラベリング情報境界として推定するラベリング境界推定部と、
距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、距離画像境界として推定する距離画像境界推定部と、
前記ラベリング情報境界、および距離画像境界に基づいて、前記移動可能領域の境界を決定する移動可能領域境界決定部
としてコンピュータを機能させるプログラム。
<20> 撮像された画像における被写体の種別に応じたラベリング情報に基づいて、前記画像における移動体の移動可能領域の境界が存在する領域を、ラベリング情報境界として推定するラベリング境界推定部と、
距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、距離画像境界として推定する距離画像境界推定部と、
前記ラベリング情報境界、および距離画像境界に基づいて、前記移動可能領域の境界を決定する移動可能領域境界決定部と、
前記移動可能領域境界決定部により決定された移動可能領域の境界に基づいて、環境マップを生成する環境マッピング部と、
前記環境マップに基づいて行動計画を生成する計画部と、
生成された前記行動計画に基づいて移動体の動作を制御する制御部と
を含む移動体。
Claims (20)
- 撮像された画像における被写体の種別に応じたラベリング情報に基づいて、前記画像における移動体の移動可能領域の境界が存在する領域を、ラベリング情報境界として推定するラベリング境界推定部と、
距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、距離画像境界として推定する距離画像境界推定部と、
前記ラベリング情報境界、および距離画像境界に基づいて、前記移動可能領域の境界を決定する移動可能領域境界決定部と
を含む信号処理装置。 - 前記ラベリング境界推定部は、前記ラベリング情報に基づいて、前記移動可能領域に対応する種別の被写体としてラベリングされた領域の境界が存在する領域を、前記ラベリング情報境界として推定する
請求項1に記載の信号処理装置。 - 前記ラベリング境界推定部は、前記ラベリング情報、および前記距離画像に基づいて、前記ラベリング情報境界を推定する
請求項1に記載の信号処理装置。 - 前記ラベリング境界推定部は、前記ラベリング情報に基づいて、前記移動可能領域に対応する種別の被写体としてラベリングされた領域の境界を、前記移動可能領域の境界として設定し、さらに、前記ラベリング情報に基づいて設定された前記移動可能領域の境界の垂直方向の幅を、前記距離画像に基づいた距離に応じて設定することにより、前記移動可能領域の境界をラベリング情報境界として推定する
請求項3に記載の信号処理装置。 - 前記ラベリング境界推定部は、前記ラベリング情報に基づいて、前記移動可能領域に対応する種別の被写体としてラベリングされた領域の境界を、前記移動可能領域の境界として設定し、さらに、前記ラベリング情報に基づいて設定された前記移動可能領域の境界の垂直方向の幅を、前記距離画像に基づいた距離に応じて設定することにより、前記移動可能領域の境界をラベリング情報境界として推定する
請求項3に記載の信号処理装置。 - 前記距離画像境界推定部は、前記距離画像に基づいた、前記移動可能領域と障害物との境界が存在する領域を、前記距離画像境界として推定する
請求項1に記載の信号処理装置。 - 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報に基づいて、前記移動可能領域と障害物との境界が存在する領域を、前記距離画像境界として推定する
請求項6に記載の信号処理装置。 - 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報の、距離方向に対する高さ方向の分布に基づいて、前記移動可能領域と障害物との境界が存在する領域を、前記距離画像境界として推定する
請求項7に記載の信号処理装置。 - 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報について、前記距離方向に対する高さ方向の分布のうち、前記移動可能領域に対応する所定の高さよりも高い分布が存在する距離を、前記移動可能領域と障害物との境界が存在する領域とすることで、前記距離画像境界を推定する
請求項8に記載の信号処理装置。 - 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報について、前記距離方向に対する高さ方向の分布に基づいて、平面フィッティングにより、前記移動可能領域を特定し、前記平面フィッティングにより特定された前記移動可能領域よりも高い分布が存在する距離を、前記移動可能領域と障害物との境界が存在する領域とすることで、前記距離画像境界を推定する
請求項8に記載の信号処理装置。 - 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報について、前記距離方向に対する高さ方向の分布に対して、前記移動可能領域と障害物との境界近傍のL字型の関数を設定し、距離に応じた前記L字型の関数とのフィッティングによるばらつきが最小となる距離を、前記移動可能領域と障害物との境界が存在する領域とすることで、前記距離画像境界を推定する
請求項8に記載の信号処理装置。 - 前記距離画像境界推定部は、前記距離画像における水平方向毎の列単位の各画素の距離情報について、前記距離方向に対する高さ方向の分布に対して、隣接する複数の分布からなるグループを設定し、前記グループに属する距離情報に基づいた平面の法線を求め、前記法線が水平方向に近い法線となるグループが属する距離情報より求められる距離を、前記移動可能領域と障害物との境界が存在する領域とすることで、前記距離画像境界を推定する
請求項8に記載の信号処理装置。 - 前記ラベリング境界推定部は、撮像された画像における被写体の種別に応じたラベリング情報に基づいて、前記画像における移動体の移動可能領域の境界が存在する領域を、撮像位置からの距離に応じたコスト分布からなるラベリング情報境界として推定し、
前記距離画像境界推定部は、距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、前記距離画像の検出位置からの距離に応じたコスト分布からなる距離画像境界として推定し、
前記移動可能領域境界決定部は、前記ラベリング情報境界のコスト分布、および距離画像境界のコスト分布を加算した統合コスト分布に基づいて、前記移動可能領域の境界を決定する
請求項1に記載の信号処理装置。 - セマンティックセグメンテーションにより、撮像された画像における被写体の種別に応じた、画素単位でのラベリングによりラベリング情報を生成するラベリング部をさらに含む
請求項1に記載の信号処理装置。 - 前記移動可能領域境界決定部は、撮像位置からの距離が所定の距離よりも遠い場合は、前記ラベリング情報境界を前記移動可能領域の境界として決定し、撮像位置からの距離が所定の距離よりも近い場合は、前記距離画像境界を前記移動可能領域の境界として決定する
請求項1に記載の信号処理装置。 - 前記画像と前記距離画像のうちのいずれか一方の座標系を、他方の座標系に変換する座標変換部をさらに含む
請求項1に記載の信号処理装置。 - 前記距離画像の距離情報に基づいて、前記距離画像の解像度を、前記画像と同一の解像度となるように、前記距離情報を補間する補間部をさらに含み、
前記ラベリング境界推定部は、前記ラベリング情報に基づいて、前記移動可能領域に対応する種別の被写体としてラベリングされた領域の境界を、前記移動可能領域の境界として設定し、さらに、前記ラベリング情報に基づいて設定された前記移動可能領域の境界の垂直方向の幅を、前記補間部により、前記距離情報が補間されることで、前記画像と同一の解像度とされた距離画像に基づいた距離に応じて設定することにより、前記移動可能領域の境界をラベリング情報境界として推定する
請求項1に記載の信号処理装置。 - 撮像された画像における被写体の種別に応じたラベリング情報に基づいて、前記画像における移動体の移動可能領域の境界が存在する領域を、ラベリング情報境界として推定するラベリング境界推定処理と、
距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、距離画像境界として推定する距離画像境界推定処理と、
前記ラベリング情報境界、および距離画像境界に基づいて、前記移動可能領域の境界を決定する移動可能領域境界決定処理と
を含む信号処理方法。 - 撮像された画像における被写体の種別に応じたラベリング情報に基づいて、前記画像における移動体の移動可能領域の境界が存在する領域を、ラベリング情報境界として推定するラベリング境界推定部と、
距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、距離画像境界として推定する距離画像境界推定部と、
前記ラベリング情報境界、および距離画像境界に基づいて、前記移動可能領域の境界を決定する移動可能領域境界決定部
としてコンピュータを機能させるプログラム。 - 撮像された画像における被写体の種別に応じたラベリング情報に基づいて、前記画像における移動体の移動可能領域の境界が存在する領域を、ラベリング情報境界として推定するラベリング境界推定部と、
距離画像に基づいて、前記距離画像における前記移動可能領域の境界が存在する領域を、距離画像境界として推定する距離画像境界推定部と、
前記ラベリング情報境界、および距離画像境界に基づいて、前記移動可能領域の境界を決定する移動可能領域境界決定部と、
前記移動可能領域境界決定部により決定された移動可能領域の境界に基づいて、環境マップを生成する環境マッピング部と、
前記環境マップに基づいて行動計画を生成する計画部と、
生成された前記行動計画に基づいて移動体の動作を制御する制御部と
を含む移動体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018063530 | 2018-03-29 | ||
JP2018063530 | 2018-03-29 | ||
PCT/JP2019/010757 WO2019188389A1 (ja) | 2018-03-29 | 2019-03-15 | 信号処理装置、および信号処理方法、プログラム、並びに移動体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019188389A1 true JPWO2019188389A1 (ja) | 2021-03-18 |
JP7351293B2 JP7351293B2 (ja) | 2023-09-27 |
Family
ID=68059903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020510640A Active JP7351293B2 (ja) | 2018-03-29 | 2019-03-15 | 信号処理装置、および信号処理方法、プログラム、並びに移動体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11860640B2 (ja) |
JP (1) | JP7351293B2 (ja) |
KR (1) | KR20200136905A (ja) |
CN (1) | CN111886626B (ja) |
DE (1) | DE112019001657T5 (ja) |
WO (1) | WO2019188389A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112018007484T5 (de) * | 2018-04-16 | 2021-02-25 | Mitsubishi Electric Corporation | Hindernis-Detektionsvorrichtung, automatische Bremsvorrichtung unter Verwendung einer Hindernis-Detektionsvorrichtung, Hindernis-Detektionsverfahren und automatisches Bremsverfahren unter Verwendung eines Hindernis-Detektionsverfahrens |
US20200133308A1 (en) * | 2018-10-18 | 2020-04-30 | Cartica Ai Ltd | Vehicle to vehicle (v2v) communication less truck platooning |
CN110147706B (zh) * | 2018-10-24 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 障碍物的识别方法和装置、存储介质、电子装置 |
US11175664B1 (en) * | 2019-01-15 | 2021-11-16 | Amazon Technologies, Inc. | Navigation directly from perception data without pre-mapping |
WO2021081995A1 (zh) * | 2019-11-01 | 2021-05-06 | 深圳市大疆创新科技有限公司 | 数据处理方法及设备、数据存储设备、移动控制系统 |
CN111063029B (zh) * | 2019-12-11 | 2023-06-09 | 深圳市优必选科技股份有限公司 | 地图构建方法、装置、计算机可读存储介质及机器人 |
CN110986990B (zh) * | 2019-12-25 | 2023-03-28 | 西安主函数智能科技有限公司 | 封闭环境无人驾驶工程车路径规划方法及系统 |
FR3106659B1 (fr) * | 2020-01-23 | 2023-07-28 | Second Bridge Inc | Carte numérique pour la navigation |
CN111860227B (zh) * | 2020-06-30 | 2024-03-08 | 阿波罗智能技术(北京)有限公司 | 训练轨迹规划模型的方法、装置和计算机存储介质 |
KR20220094416A (ko) * | 2020-12-29 | 2022-07-06 | (주)에이아이매틱스 | 근미래 객체 위치 예측 시스템 |
JP7571545B2 (ja) | 2021-01-07 | 2024-10-23 | 富士通株式会社 | 位置特定プログラム、位置特定方法および情報処理装置 |
JP7444094B2 (ja) * | 2021-02-05 | 2024-03-06 | コベルコ建機株式会社 | 遠隔操作支援システムおよび遠隔操作支援方法 |
JP2022123239A (ja) * | 2021-02-12 | 2022-08-24 | 本田技研工業株式会社 | 区画線認識装置 |
KR102264152B1 (ko) * | 2021-03-10 | 2021-06-14 | (주)넥스트박스 | 첨단 센서 데이터와 카메라 영상을 gtl 하는 방법 및 시스템 |
US11927963B2 (en) * | 2021-03-19 | 2024-03-12 | Amazon Technologies, Inc. | System to determine non-stationary objects in a physical space |
CA3180339A1 (en) * | 2021-06-18 | 2022-12-18 | Space Shift, Inc. | Signal processor, flying object and medium using synthetic aperture radar signal for observing an object or an environment |
CN114475650B (zh) * | 2021-12-01 | 2022-11-01 | 中铁十九局集团矿业投资有限公司 | 一种车辆行驶行为确定方法、装置、设备及介质 |
JP7493545B2 (ja) | 2022-03-29 | 2024-05-31 | カヤバ株式会社 | 位置推定装置、位置推定方法、及びプログラム |
US11888306B1 (en) | 2022-04-22 | 2024-01-30 | Amazon Technologies, Inc. | System for in-situ detection of electrical faults |
US20230394691A1 (en) * | 2022-06-07 | 2023-12-07 | Toyota Research Institute, Inc. | Depth estimation with sparse range sensor depth and uncertainty projection |
FR3138944B1 (fr) * | 2022-08-22 | 2024-11-01 | Safran | Dispositif et procédé d'estimation de la traversabilité d'un terrain par un système mobile |
CN115388902B (zh) * | 2022-10-28 | 2023-03-24 | 苏州工业园区测绘地理信息有限公司 | 室内定位方法和系统、ar室内定位导航方法和系统 |
KR20240094055A (ko) * | 2022-11-18 | 2024-06-25 | 현대자동차주식회사 | 차량, 차량 제어 방법, 및 차량의 주행 제어 방법 |
WO2024213062A1 (zh) * | 2023-04-11 | 2024-10-17 | 苏州宝时得电动工具有限公司 | 自移动设备的控制方法、自移动设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016045891A (ja) * | 2014-08-26 | 2016-04-04 | 日立オートモティブシステムズ株式会社 | 物体検出装置 |
WO2017048383A1 (en) * | 2015-09-18 | 2017-03-23 | Qualcomm Incorporated | Systems and methods for non-obstacle area detection |
WO2017098709A1 (ja) * | 2015-12-08 | 2017-06-15 | パナソニックIpマネジメント株式会社 | 画像認識装置および画像認識方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5820774B2 (ja) | 2012-06-21 | 2015-11-24 | 株式会社豊田中央研究所 | 路面境界推定装置及びプログラム |
US9471864B2 (en) * | 2012-06-22 | 2016-10-18 | Microsoft Technology Licensing, Llc | Encoding data in depth patterns |
JP6132659B2 (ja) * | 2013-02-27 | 2017-05-24 | シャープ株式会社 | 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法 |
US20150199592A1 (en) * | 2014-01-14 | 2015-07-16 | Microsoft Corporation | Contour-based classification of objects |
WO2016011599A1 (en) * | 2014-07-22 | 2016-01-28 | Intel Corporation | Systems and techniques for geofence crossing-based control |
WO2017057042A1 (ja) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 信号処理装置、信号処理方法、プログラム、および、物体検出システム |
US10509954B2 (en) * | 2016-02-10 | 2019-12-17 | Intel Corporation | Method and system of image segmentation refinement for image processing |
CN110494863B (zh) * | 2018-03-15 | 2024-02-09 | 辉达公司 | 确定自主车辆的可驾驶自由空间 |
-
2019
- 2019-03-15 JP JP2020510640A patent/JP7351293B2/ja active Active
- 2019-03-15 US US16/982,590 patent/US11860640B2/en active Active
- 2019-03-15 CN CN201980021005.3A patent/CN111886626B/zh active Active
- 2019-03-15 KR KR1020207026813A patent/KR20200136905A/ko active Search and Examination
- 2019-03-15 WO PCT/JP2019/010757 patent/WO2019188389A1/ja active Application Filing
- 2019-03-15 DE DE112019001657.1T patent/DE112019001657T5/de active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016045891A (ja) * | 2014-08-26 | 2016-04-04 | 日立オートモティブシステムズ株式会社 | 物体検出装置 |
WO2017048383A1 (en) * | 2015-09-18 | 2017-03-23 | Qualcomm Incorporated | Systems and methods for non-obstacle area detection |
WO2017098709A1 (ja) * | 2015-12-08 | 2017-06-15 | パナソニックIpマネジメント株式会社 | 画像認識装置および画像認識方法 |
Non-Patent Citations (1)
Title |
---|
QIU YUE 他: "RGB−Dカメラを用いた生活空間センシング及び機能解析に関する研究", 第23回 画像センシングシンポジウム SSII2017 [USB], JPN6019022418, 31 December 2017 (2017-12-31), JP, pages 2 - 2, ISSN: 0005011991 * |
Also Published As
Publication number | Publication date |
---|---|
CN111886626A (zh) | 2020-11-03 |
WO2019188389A1 (ja) | 2019-10-03 |
US11860640B2 (en) | 2024-01-02 |
US20210019536A1 (en) | 2021-01-21 |
JP7351293B2 (ja) | 2023-09-27 |
KR20200136905A (ko) | 2020-12-08 |
CN111886626B (zh) | 2024-08-16 |
DE112019001657T5 (de) | 2021-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7351293B2 (ja) | 信号処理装置、および信号処理方法、プログラム、並びに移動体 | |
JP6984215B2 (ja) | 信号処理装置、および信号処理方法、プログラム、並びに移動体 | |
JP7103359B2 (ja) | 制御装置、および制御方法、プログラム、並びに移動体 | |
US11531354B2 (en) | Image processing apparatus and image processing method | |
JP7259749B2 (ja) | 情報処理装置、および情報処理方法、プログラム、並びに移動体 | |
JP7320001B2 (ja) | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 | |
JP2019045892A (ja) | 情報処理装置、情報処理方法、プログラム、及び、移動体 | |
CN113785253B (zh) | 信息处理装置、信息处理方法和程序 | |
KR20220020804A (ko) | 정보 처리 장치 및 정보 처리 방법, 그리고 프로그램 | |
JP7497298B2 (ja) | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 | |
WO2019188391A1 (ja) | 制御装置、制御方法、並びにプログラム | |
WO2020116206A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
US20220292296A1 (en) | Information processing device, information processing method, and program | |
US20240257508A1 (en) | Information processing device, information processing method, and program | |
WO2019073795A1 (ja) | 情報処理装置、自己位置推定方法、プログラム、及び、移動体 | |
WO2022153896A1 (ja) | 撮像装置、画像処理方法及び画像処理プログラム | |
EP4063896A1 (en) | Radar data determination circuitry and radar data determination method | |
US20230121905A1 (en) | Information processing apparatus, information processing method, and program | |
JPWO2020116204A1 (ja) | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230815 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230828 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7351293 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |