CN106461400B - 使用关联特征对的车辆位置确定或导航 - Google Patents
使用关联特征对的车辆位置确定或导航 Download PDFInfo
- Publication number
- CN106461400B CN106461400B CN201580034506.7A CN201580034506A CN106461400B CN 106461400 B CN106461400 B CN 106461400B CN 201580034506 A CN201580034506 A CN 201580034506A CN 106461400 B CN106461400 B CN 106461400B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- materials handling
- camera
- handling vehicle
- linked character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000005007 materials handling Methods 0.000 claims abstract description 107
- 238000000034 method Methods 0.000 claims abstract description 45
- 238000009825 accumulation Methods 0.000 claims abstract description 27
- 239000000463 material Substances 0.000 claims abstract description 25
- 238000009434 installation Methods 0.000 claims abstract description 20
- 230000006870 function Effects 0.000 claims description 38
- 230000000007 visual effect Effects 0.000 claims description 34
- 230000007246 mechanism Effects 0.000 claims description 31
- 230000032258 transport Effects 0.000 claims description 30
- 230000004807 localization Effects 0.000 claims description 20
- 239000002131 composite material Substances 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 8
- 239000013598 vector Substances 0.000 claims description 8
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 230000036544 posture Effects 0.000 description 63
- 238000010586 diagram Methods 0.000 description 15
- 241000196324 Embryophyta Species 0.000 description 14
- 230000015654 memory Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 238000012795 verification Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000011084 recovery Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000000151 deposition Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 241000406668 Loxodonta cyclotis Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 241000700647 Variola virus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/51—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/42—Document-oriented image-based pattern recognition based on the type of document
- G06V30/422—Technical drawings; Geographical maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Artificial Intelligence (AREA)
- Electromagnetism (AREA)
- Quality & Reliability (AREA)
- Computer Graphics (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Navigation (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
- Mechanical Engineering (AREA)
- Warehouses Or Storage Devices (AREA)
Abstract
根据本文中所描述的实施例,用于使用关联特征对进行车辆位置确定或导航的方法可以包括:通过取回来自相机的包括二维UV空间信息的相机数据的初始集合、形成来自UV空间信息的对、以及将来自UV空间信息的每个对与来自工业设施地图的多个三维全局特征点中的每一个的对关联,创建多个关联特征对;从关联特征对的计算出的车辆姿态计算最佳估计姿态;使用累积的里程将最佳估计姿态更新到当前所定位的位置;以及将种子位置设置为当前所定位的位置。使用当前所定位的位置,跟踪材料搬运车辆沿库存运送面的导航和/或以至少部分自动的方式沿库存运送面导航材料搬运车辆。
Description
相关申请的交叉引用
本申请要求案卷号为CRNZ 0052 MA的、于2014年6月27日提交的美国临时申请第62/018094号的优先权,其全部内容通过引用并入本文。
技术领域
本说明书一般地涉及用于基于天花板灯的特征为工业车辆提供全局定位的系统和方法,并且更具体地涉及用于使用全局定位来分析仓库中天花板灯的独特星座或图案以跟踪具有已知位置或未知位置的工业车辆的位置的系统和方法。
背景技术
为了围绕工业环境移动物件,工人经常使用工业车辆,包括例如叉车、手动和马达驱动的托板车、和/或其他材料搬运车辆。工业车辆可以被配置为通过环境而导航的手动导向的车辆或者自动导向的车辆。为了便于自动导向、导航或者两者,工业车辆可以适于在环境内定位。也就是说,工业车辆可以被改造为具有传感器和处理器,用于确定工业车辆在环境内的定位,诸如例如工业车辆的姿态和位置。传感器可以被配置为检测环境中的对象,并且定位可以依赖于从这些检测到的对象中提取的特征。
发明内容
在一个实施例中,材料搬运车辆可以包括相机、一个或多个车辆处理器、被配置为沿库存运送面移动材料搬运车辆的驱动机构、被配置为在工业设施的存储仓中存储和取回货物的材料搬运机构、以及与驱动机构和材料搬运机构通信的车辆控制架构。相机可以通信地耦合到一个或多个车辆处理器并且捕捉头顶特征的输入图像。工业设施地图可以包括与头顶特征的映射关联的多个三维全局特征点。材料搬运车辆的一个或多个车辆处理器可以执行车辆功能以:通过取回来自相机的包括二维UV空间信息的相机数据的初始集合、形成来自UV空间信息的对、以及将来自UV空间信息的对与来自工业设施地图的多个三维全局特征点的对关联,创建多个关联特征对;针对在相机的视觉范围内的关联特征对计算车辆姿态。材料搬运车辆的一个或多个车辆处理器可进一步执行车辆功能以:基于多个关联特征对中的最高评级对(highest-rated pair)计算材料搬运车辆的最佳估计姿态;使用与材料搬运车辆关联的累积的里程将最佳估计姿态更新到当前所定位的位置;将种子位置设置为当前所定位的位置;使用当前所定位的位置,跟踪材料搬运车辆沿库存运送面的导航、以至少部分自动的方式沿库存运送面导航材料搬运车辆、或者两者。
在另一个实施例中,系统可以包括材料搬运车辆和管理服务器。材料搬运车辆可以包括相机、一个或多个车辆处理器、被配置为沿库存运送面移动材料搬运车辆的驱动机构、被配置为在工业设施的存储仓中存储和取回货物的材料搬运机构、以及与驱动机构和材料搬运机构通信的车辆控制架构。相机可以通信地耦合到一个或多个车辆处理器和管理服务器,并且可以捕捉头顶特征的输入图像。一个或多个车辆处理器可以通信地耦合到管理服务器。工业设施地图可以存储在管理服务器上,并且可以通信地耦合到一个或多个车辆处理器,其中工业设施地图包括与头顶特征的映射关联的多个三维全局特征点。材料搬运车辆的一个或多个车辆处理器可以执行车辆功能以:通过取回来自相机的包括二维UV空间信息的相机数据的初始集合、形成来自UV空间信息的对、以及将来自UV空间信息的对与来自工业设施地图的多个三维全局特征点的对关联,创建多个关联特征对。材料搬运车辆的一个或多个车辆处理器可以进一步执行车辆功能以:针对在相机的视觉范围内的关联特征对计算车辆姿态;基于多个关联特征对中的最高评级对计算材料搬运车辆的最佳估计姿态;使用与材料搬运车辆关联的累积的里程将最佳估计姿态更新到当前所定位的位置;将种子位置设置为当前所定位的位置;以及使用当前所定位的位置,跟踪材料搬运车辆沿库存运送面的导航、以至少部分自动的方式沿库存运送面导航材料搬运车辆、或者两者。
在实施例中,一个或多个车辆处理器可以进一步执行车辆功能,以在将种子位置更新为当前所定位的位置之前验证当前所定位的位置。这样的验证可以包括以下功能:在每个数据关联步骤之后记录唯一全局特征点的数量,直到该数量在阈值以上,使得种子位置作为当前所定位的位置被验证。
在实施例中,一个或多个车辆处理器可以进一步执行车辆功能,以在将种子位置更新为当前所定位的位置之后在显示器上将种子位置公布为当前所定位的位置。
在实施例中,一个或多个车辆处理器可以进一步执行车辆功能以:确定材料搬运车辆是否丢失;以及如果确定材料搬运车辆丢失,则取回来自相机的相机数据的后续集合,并且使用来自相机的相机数据的后续集合取代来自相机的相机数据的初始集合重复以下功能直到找到材料搬运车辆:(i)通过取回来自相机的包括二维UV空间信息的相机数据的后续集合、形成来自UV空间信息的对、以及将来自UV空间信息的对与来自工业设施地图的多个三维全局特征点的对关联,创建多个关联特征对;(ii)针对在相机的视觉范围内的关联特征对计算车辆姿态;(iii)基于多个关联特征对中的最高评级对计算材料搬运车辆的最佳估计姿态;(iv)使用与材料搬运车辆关联的累积的里程将最佳估计姿态更新到当前所定位的位置;(v)将种子位置设置为当前所定位的位置;以及使用当前所定位的位置,跟踪材料搬运车辆沿库存运送面的导航、以至少部分自动的方式沿库存运送面导航材料搬运车辆、或者两者。
在实施例中,材料搬运车辆是否丢失的确定可以至少部分地基于种子位置是否包括错误的数据。在实施例中,材料搬运车辆是否丢失的确定可以至少部分地基于相机数据是否不足以校正与累积的里程关联的误差。在实施例中,多个关联特征对是通过数据关联步骤创建的,该数据关联步骤可以包括:创建UV空间信息对;将每个全局特征点与每个UV空间信息对中的第一UV空间特征关联;以及将相机的最大视觉范围内的每个全局特征点与每个UV空间信息对中的第二UV空间特征关联。
在实施例中,针对相机的视觉范围内的每个关联特征对的车辆姿态的计算可以至少部分地基于全局定位算法的使用。全局定位算法可以包括这样的公式,该公式计算车辆关于可以作为锚定特征的关联特征对的第一UV空间特征的偏航。该公式可以包括:N是两个3D向量的叉积;
T是用于偏航旋转的目标3D点; 以及
在实施例中,基于多个关联特征对中的最高评级对对材料搬运车辆的最佳估计姿态的计算可以至少部分地基于对每个计算出的车辆姿态的姿态总和误差(pose sumerror)的计算,其中最高评级对具有最低的姿态总和误差。
在另一个实施例中,沿库存运送面导航材料搬运车辆或者跟踪材料搬运车辆沿库存运送面的导航的方法可以包括:在工业设施的库存运送面上布置材料搬运车辆,其中材料搬运车辆与管理服务器通信,其中材料搬运车辆包括相机、一个或多个车辆处理器、被配置为沿库存运送面移动材料搬运车辆的驱动机构、被配置为在工业设施的存储仓中存储和取回货物的材料搬运机构、以及与驱动机构和材料搬运机构通信的车辆控制架构。该方法可以进一步包括:使用驱动机构以沿库存运送面移动材料搬运车辆;当材料搬运车辆沿库存运送面移动时,经由相机捕捉工业设施的头顶特征的输入图像;提供工业设施地图,该工业设施地图包括与天花板灯的映射关联的多个三维全局特征点;以及通过取回来自相机的包括二维UV空间信息的相机数据的初始集合、形成来自UV空间信息的对、以及将来自UV空间信息的对与来自工业设施地图的多个三维全局特征点的对关联,创建多个关联特征对。该方法可以进一步包括:经由一个或多个车辆处理器,针对在相机的视觉范围内的关联特征对计算车辆姿态;经由一个或多个车辆处理器,基于多个关联特征对中的最高评级对计算材料搬运车辆的最佳估计姿态;使用与材料搬运车辆关联的累积的里程将最佳估计姿态更新到当前所定位的位置;以及将种子位置设置为当前所定位的位置。该方法可以进一步包括:经由一个或多个车辆处理器和管理服务器,使用当前所定位的位置,跟踪材料搬运车辆沿库存运送面的导航、以至少部分自动的方式沿库存运送面导航材料搬运车辆、或者两者。
在实施例中,该方法可以进一步包括:在将种子位置更新为当前所定位的位置之前验证当前所定位的位置。该验证可以包括:在每个数据关联步骤之后记录唯一全局特征点的数量,直到该数量在阈值以上,使得种子位置作为当前所定位的位置被验证。在实施例中,该方法可以进一步包括:在将种子位置更新为当前所定位的位置之后在显示器上将种子位置公布为当前所定位的位置。
在实施例中,该方法可以进一步包括:确定材料搬运车辆是否丢失;如果确定材料搬运车辆丢失,则通过取回来自相机的包括二维UV空间信息的相机数据的后续集合、形成来自UV空间信息的对、以及将来自UV空间信息的对与来自工业设施地图的多个三维全局特征点中的每一个的对关联而创建多个新的关联特征对来寻找材料搬运车辆;经由一个或多个车辆处理器,针对在相机的视觉范围内的每个新的关联特征对计算车辆姿态;经由一个或多个车辆处理器,基于多个新的关联特征对中的最高评级对计算材料搬运车辆的新的最佳估计姿态;使用与材料搬运车辆关联的累积的里程将新的最佳估计姿态更新到新的当前所定位的位置;以及将种子位置设置为新的当前所定位的位置。
鉴于下面结合附图的详细描述,将更全面地理解由本文中所描述的实施例提供的这些特征和附加特征。
附图说明
附图中阐述的实施例本质上是示意性的和示例性的,并且不是旨在限制权利要求所限定的主题。当结合下面的附图阅读时,示意性实施例的以下详细描述可以被理解,在附图中用相同的参考标号指示相同的结构,并且其中:
图1描绘了根据本文中显示和描述的一个或多个实施例的用于定位的车辆;
图2描绘了示出根据本文中显示和描述的一个或多个实施例的示例性定位系统的框图;
图3描绘了根据本文中显示和描述的一个或多个实施例的用于在定位处理内的相机特征提取及应用以及全局定位方法的验证的示例性方法的流程图;
图4描绘了根据本文中显示和描述的一个或多个实施例的用于全局定位方法的示例性方法的流程图概要;
图5描绘了根据本文中显示和描述的一个或多个实施例的包括UV空间特征A、B、C和D的示例性UV图像空间观测;
图6描绘了根据本文中显示和描述的一个或多个实施例的包括全局特征1-12的示例性全局定位图示;
图7描绘了基于图6并且根据本文中显示和描述的一个或多个实施例的全部可能的全局特征对组合的列表;
图8描绘了根据本文中显示和描述的一个或多个实施例的包括全局特征1-12和相机的最大视觉范围或视场的示例性全局定位图示;
图9描绘了根据本文中显示和描述的一个或多个实施例的包括围绕全局特征的圆形路径的示例性车辆路径图示,该圆形路径包括与图5中所示的UV-空间观测匹配的全部可能的车辆位置和姿态。
图10a描绘了根据本文中显示和描述的一个或多个实施例的全局特征对的示例性图示,其中该对中的第二全局特征跟踪围绕第一全局特征的圆形路径并且两个特征在基本相同的高度上。
图10b描绘了根据本文中显示和描述的一个或多个实施例的全局特征对的示例性图示,其中该对中的第二全局特征跟踪围绕第一全局特征的扭曲路径并且特征在不同高度上。
图11a描绘了根据本文中显示和描述的一个或多个实施例的图10a的示例性图示,该示例性图示显示有效的关联特征以及显示与车辆的航向一起绘制的第二全局特征的观测到的UV-空间点,所述车辆的航向是第一全局特征点与所绘制的观测到的第二全局特征点之间的线的角度;
图11b描绘了根据本文中显示和描述的一个或多个实施例的图10b的示例性图示,该示例性图示显示无效的关联特征以及显示与车辆的航向一起绘制的第二全局特征的观测到的UV-空间点,所述车辆的航向是第一全局特征点与所绘制的观测到的第二全局特征点之间的线的角度;
图12a描绘了根据本文中显示和描述的一个或多个实施例的在UV空间中的观测到的全局特征与预测的全局特征之间的图像空间误差计算的第一集合及其被显示为像素差的关联的总和误差(sum error)的示例性图示;
图12b描绘了根据本文中显示和描述的一个或多个实施例的在UV空间中的观测到的全局特征与预测的全局特征之间的图像空间误差计算的第二集合及其被显示为像素差的关联的总和误差的示例性图示;
图13描绘了根据本文中显示和描述的一个或多个实施例的示例性的累积里程程序流程方法的流程图概要;以及
图14描绘了根据本文中显示和描述的一个或多个实施例的示例性的定位系统验证程序流程方法的流程图概要。
具体实施方式
本文中所描述的实施例一般地涉及用于从头顶照明装置提取特征的定位技术,头顶照明装置包括但不限于天窗。定位是本文中用来指代启用对仓库、工业设施或其他环境中的车辆位置的主动跟踪的各种系统配置中的任意系统配置的短语。本公开的概念不限于任何特定的定位系统配置,并且本公开的概念被认为可应用于各种传统的定位系统和尚待开发的定位系统中的任意定位系统。如下面将进一步更详细地描述的,定位系统可以与全局定位方法(GLM)和/或验证系统一起使用,使得如果工业车辆通过定位系统方法而丢失,则可以使用GLM恢复该车辆,并且在公布新的当前车辆定位之前,验证系统可以被用来检查恢复的准确性。附加地或者可替换地,GLM可以被用作定位系统本身以及恢复系统,和/或验证系统可以与定位系统和/或GLM系统一起使用。
定位系统可以被用来定位和/或导航工业车辆通过建筑结构,诸如仓库。合适地,头顶照明装置可以被安装在建筑物的天花板内或天花板上。然而,在一些实施例中,照明装置还可以或可选地经由合适的结构从天花板或墙壁悬挂。在一些实施例中,相机可以被安装到导航通过仓库的工业车辆(例如自动导向的车辆或者手动导向的车辆)。在从图像提取特征之前,输入图像可以是从相机捕捉的任意图像。
现在参考图1,车辆100可以被配置为导航通过诸如仓库110的工业设施。车辆100可以包括材料搬运车辆,该材料搬运车辆包括沿库存运送面移动材料搬运车辆的驱动机构、被配置为在工业设施的存储仓中存储和取回货物的材料搬运机构、以及与驱动机构和材料搬运机构通信的车辆控制架构。车辆100可以包括用于提举和移动负载的工业车辆,诸如例如升降叉车(forklift truck)、前伸式叉车(reach truck)、转塔车(turret truck)、步行式堆垛叉车(walkie stacker truck)、拖拉机、码垛车(pallet truck)、高/低、堆垛车(stacker truck)、架式挂车(trailer loader)、侧向装载机(side loader)、叉式起重机(fork hoist)等。工业车辆可以被配置为自动地或手动地沿着期望的路径导航库存运送面,诸如仓库110的面122。相应地,车辆100可以通过一个或多个车轮124的旋转而被向前和向后引导。附加地,可以通过转向一个或多个轮124而使车辆100改变方向。可选地,车辆可以包括操作者控件126以控制车辆的功能,诸如但不限于车轮124的速度、车轮124的朝向等。操作者控件126可以包括被分配给车辆100的功能的控件,诸如例如开关、按钮、杆、手柄、踏板、输入/输出设备等。注意,本文中所使用的术语“导航”可以指控制车辆从一个地方到另一个地方的移动。
车辆100还可以包括用于捕捉头顶图像(诸如头顶特征的输入图像)的相机102。相机102可以是能够捕捉对象的视觉外观并将该视觉外观转换成图像的任何设备。相应地,相机102可以包括图像传感器,诸如例如电荷耦合器件、互补金属氧化物半导体传感器或其功能等同物。在一些实施例中,车辆100可以位于仓库110内,并且可以被配置为捕捉仓库110的天花板112的头顶图像。为了捕捉头顶图像,相机102可以被安装到车辆100并且聚焦于天花板112。为了定义和描述本公开的目的,本文中所使用的术语“图像”可以指所检测到的对象的外观的表现形式。图像可以以各种机器可读的表现形式来提供,诸如例如JPEG、JPEG2000、Exif、TIFF、原始图像格式、GIF、BMP、PNG、Netpbm格式、WEBP、光栅格式、向量格式或适合于捕获头顶对象的任何其他格式。
仓库110的天花板112可以包括头顶灯,诸如但不限于用于从天花板112或者大体从在仓库中操作的车辆上方提供照明的天花板灯114。天花板灯114可以包括基本矩形的灯,诸如例如天窗116、荧光灯等;并且天花板灯114可以被安装在天花板或墙壁结构中或者从天花板或墙壁结构悬挂,以便从上方提供照明。如本文中所使用的,术语“天窗”可以指在天花板或屋顶中的孔,其装配有用于准许日光进入的基本上透光的介质,诸如例如空气、玻璃、塑料等。尽管天窗可以有各种形状和尺寸,但是本文中所描述的天窗可以包括“标准”长、基本矩形的天窗,其可以或可以不被桁材或横杆分成一系列面板。可替换地,天窗可包括尺寸类似于卧室窗户的矩形或圆形形状的较小、离散的天窗,即约30英寸乘约60英寸(约73厘米乘约146厘米)。可替换地或者附加地,天花板灯114可以包括基本圆形的灯,诸如例如圆形灯118、合并灯(merged light)120等,合并灯120可以包括看起来像单个对象的多个相邻的圆形灯。因此,头顶灯或“天花板灯”包括自然(例如阳光)和人造(例如电气供电的)的光源。
本文中所描述的实施例可以包括通信地耦合到相机102的一个或多个车辆处理器,诸如处理器104。一个或多个处理器104可以执行机器可读指令以自动地实现本文中所描述的任意方法或功能。用于存储机器可读指令的存储器106可以通信地耦合到一个或多个处理器104、相机102、或它们的任意组合。一个或多个处理器104可以包括处理器、集成电路、微芯片、计算机、或者能够执行机器可读指令或已经被配置为以类似于机器可读指令的方式执行功能的任何其他计算设备。存储器106可以包括RAM、ROM、闪存存储器、硬盘驱动器、或者能够存储机器可读指令的任何非暂态设备。
一个或多个处理器104和存储器106可以与相机102是一体的。可替换地或者附加地,一个或多个处理器104和存储器106中的每个可以与车辆100是一体的。此外,一个或多个处理器104和存储器106中的每个可以与车辆100和相机102分离。例如,管理服务器、服务器或者移动计算设备可以包括一个或多个处理器104、存储器106、或者两者。注意,在不偏离本公开的范围的情况下,一个或多个处理器104、存储器106、以及相机102可以是相互通信地耦合的离散部件。相应地,在一些实施例中,一个或多个处理器104的部件、存储器106的部件、以及相机102的部件可以物理地彼此分离。本文中所使用的短语“通信地耦合”指部件能够互相交换数据信号,诸如例如经由导电介质交换电信号、经由空气交换电磁信号、经由光波导交换光学信号等。
因此,本公开的实施例可以包括以任何一代(例如,1GL、2GL、3GL、4GL、或者5GL)的任意编程语言编写的逻辑或者算法。逻辑或算法可以被编写为可由处理器直接执行的机器语言,或者可被编译或汇编成机器可读指令并存储在机器可读介质上的汇编语言、面向对象的编程(OOP)、脚本语言、微码等。可替换地或者附加地,逻辑或算法可以以硬件描述语言(HDL)编写。此外,可以经由现场可编程门阵列(FPGA)配置或者专用集成电路(ASIC)或者它们的等同物来实现逻辑或算法。
如以上提及的,车辆100可以包括一个或多个处理器104或者与一个或多个处理器104通信地耦合。相应地,一个或多个处理器104可以执行机器可读指令以操作或代替操作者控件126的功能。机器可读指令可以被存储在存储器106上。相应地,在一些实施例中,车辆100可以通过一个或多个处理器104执行机器可读指令来自动地导航。在一些实施例中,在导航车辆100时,车辆的位置可以被定位系统监控。
例如,基于车辆100的所定位的位置,车辆100可以沿仓库110的面122自动地沿期望的路径导航到期望的位置。在一些实施例中,车辆100可以确定车辆100相对于仓库110的所定位的位置。车辆100的所定位的位置的确定可以通过比较图像数据与地图数据而执行。地图数据可以本地存储在存储器106中,地图数据可以定期更新,或者地图数据可由服务器等提供。在实施例中,工业设施地图包括与头顶特征的映射关联的多个三维全局特征点。给定所定位的位置和期望的位置,可以为车辆100确定行进路径。一旦知道了行进路径,车辆100可以沿行进路径行进以导航于仓库110的面122。具体而言,一个或多个处理器106可以执行机器可读指令以执行定位系统功能并且操作车辆100。在一个实施例中,一个或多个处理器106可以调整车轮124的转向以及控制油门以使车辆100导航于面122。
现在参考图2,示意性地描绘了用于将特征提取算法与里程融合综合在一起的定位系统的功能序列的流程图。注意,尽管在所描绘的实施例中,功能如以特定次序执行的那样被列举和描绘,但是这些功能也可以以替代性的顺序执行而不偏离不公开的范围。此外注意,功能中的一个或多个可以被省略而不偏离本文中所描述的实施例的范围。为了示意性的目的,在定位系统的图2中发现的框图中进一步示出所使用的定位系统200的示例,其形成本公开的组成部分。所示的系统通过从仓库中的已知位置(即,种子)启动以及使用融合的里程进行航位推算来操作。为了校正与航位推算关联的误差,注视着天花板的相机将匹配所映射的特征并且使用独立数据来提供校正性反馈。例如,系统200包括相机202,相机202沿通信耦合系统(诸如以太网204)连接到图像处理天花板灯提取系统206。作为示例而非限制,图像处理天花板灯提取系统206可以以4Hz操作,并且可以使用算法来提取特征,诸如二维UV-空间点或者来自头顶特征或灯的图像。例如,系统200进一步包括与车辆100关联的、以60Hz操作的初始测量单元(IMU)210,初始测量单元210与车辆100的以60Hz操作的里程212交互,以沿路径214组合形成以60Hz操作的IMU-里程融合216。例如,IMU-里程融合216沿路径218与图像处理天花板灯提取206组合以创建传感器数据融合220,传感器数据融合220被放置为通过扩展的卡尔曼滤波器。例如,灯地图208与传感器数据融合220以及以60Hz操作的线导向222组合,以沿can总线路径226行进并确定卡车定位228,卡车定位228包括诸如x坐标、y坐标、以及航向或者方向的姿态数据。
参考图3,处理300包括定位系统操作300a、恢复操作300b、以及验证处理300c。定位系统操作300a被显示,其中新的相机数据302与新的里程数据304被组合,以在计算步骤306中计算车辆100的当前定位系统位置,随后在公布步骤308中公布当前定位系统位置。在实施例中,材料搬运车辆相对于工业设施的库存运送面的所定位的位置是基于材料搬运车辆在工业设施中的种子位置以及与材料搬运车辆关联的航位推算而确定的。例如,来自相机的相机数据的初始集合被使用并且包括二维UV空间信息,以为所定位的位置提供校正性反馈。所定位的位置被用来跟踪材料搬运车辆沿库存运送面的导航和/或以至少部分自动的方式沿库存运送面导航材料搬运车辆。
如果相机数据不足以校正航位推算误差,或者用以启动的种子是错误的;则系统变成丢失。类似的挑战与其他类型的定位系统关联。在实施例中,材料搬运车辆是基于工业设施种子位置是否包括错误的数据和/或相机数据是否不足以校正与航位推算关联的误差而被确定为丢失的。可以想到,返回到定位的状态的方式将是从已知的启动位置重新(re-seed)定位。例如,即使当卡车的位置丢失或未知时,包括本文中所描述的算法并且在下面更详细描述的全局定位方法(GLM)使用相机所观测到的灯星座或者图案(被转换为二维(2D)UV空间坐标)以及在相机的视觉范围内可观测到的全部灯的已映射的全局位置的知识(以三维(3D)坐标的形式提供)来计算卡车的位置。例如,这样的GLM使用仓库中的多个不同高度处的灯来工作,传统方法没有实现这些。在实施例中,GLM可以被用作可以定位初始种子位置的单独的定位系统,继之以下面关于恢复操作300b所阐述的类似的处理。
图3的示图显示了在定位系统中如何使用GLM从丢失状态恢复。当所使用的定位系统变成丢失使得工业车辆的位置未知时,GLM开始对于新的相机数据以单独的线程运行。GLM将会将相机数据所提供的二维(2D)UV空间信息关联到地图中的被显示为全局特征的三维(3D)灯,并且随后计算工业车辆的全局位置。例如,通过取回来自相机的包括二维UV空间信息的相机数据的初始集合、形成来自UV空间信息的对、以及将来自UV空间信息的每个对与来自工业设施地图的多个三维全局特征点中的每一个的对关联,创建多个关联特征对。如下面进一步更详细地描述的,针对相机的视觉范围内的每个关联特征对计算车辆姿态,并且基于多个关联特征对中的最高评级对计算材料搬运车辆的最佳估计姿态。如下面描述的,与材料搬运车辆关联的累积的里程被用来将最佳估计姿态更新到当前所定位的位置,并且种子位置被设置为当前所定位的位置。使用当前所定位的位置,跟踪材料搬运车辆沿库存运送面的导航和/或以至少部分自动的方式沿库存运送面导航材料搬运车辆。
例如,在定位系统的线程上,当GLM正在运行时,用于工业车辆的里程数据被累积。当GLM成功时,累积的里程被用来将来自GLM的计算出的姿态更新到工业车辆的当前位置。该工业车辆位置被用来作为定位系统在验证状态中的种子。在定位系统验证状态中,定位系统将正常运行,但是将不会公布其当前定位。例如,当验证已经通过匹配阈值(诸如仓库中的灯的特定数量)而成功时,定位系统可以开始公布当前姿态。
例如,参考图3,在步骤310中确定当前位置丢失之后,发起恢复操作300b。恢复操作300b包括在步骤312中清除累积里程,以及在步骤314中应用全局定位方法(GLM)。GLM的应用包括使用新的相机数据316来计算当前位置以及在步骤324中确定方法是否成功。如果未成功,则GLM被再次应用直到方法成功。当方法成功时,新的里程数据318与步骤320的航位推算的累积的里程一起被使用,以提供累积的里程322,该累积的里程322在步骤326中与步骤324的成功的GLM一起被应用,以在步骤328中计算当前定位系统位置。
随后可以应用验证处理300c,以在步骤308中公布位置之前验证步骤328的计算出的位置。例如,在步骤328中使用新的相机数据330和新的里程数据332来计算当前定位系统位置,并且在步骤334中记录和计数匹配的新的全局特征。如果车辆100在步骤336中变成丢失,则恢复操作300b再次开始。如果车辆100没有丢失,并且匹配的新的全局特征的计数超出阈值,则如下面进一步更详细地描述的,在步骤338中认为验证状态完成,并且定位系统退出验证状态以在步骤308中公布定位数据。如果在步骤338中不认为验证步骤完成,则验证处理300c继续,直到认为验证步骤完成。
本公开下面更详细地描述GLM,包括算法和过滤处理、以及从定位系统线程(或者用作定位系统的单独的GLM线程)到成功的GLM恢复线程收集和应用累积里程的框架和方法。此外,定位系统验证算法或方法被更详细地阐述和描述。
参考图4,流程图示出了GLM中的步骤的概要,GLM使用相机所观测到的二维中的特征、UV-空间坐标来确定工业车辆的定位,所述UV-空间坐标与来自相机正在观测的范围以及来自代表全局特征点的3D坐标的全局地图的对应三维(3D)坐标关联。在这些关联特征被匹配之后,进行过滤以对关联特征提供评级或排名。这些关联特征的对(这样的关联特征包括已知的2D UV-空间坐标和全局3D坐标两者)(例如,可以是排名最高的对)足以确定跟踪的全局位置。
总体来说,图4显示了GLM概要400,GLM概要400以捕捉新的相机数据的步骤401开始。新的相机数据提供与相机的视觉范围中的全局3D坐标关联的、二维的UV-空间坐标,以如步骤402中所示地生成工业设施或仓库中的关联特征对的可能组合(尽管也能够生成工业设施或仓库中的关联特征对的全部可能的组合)。在步骤404中,从每个关联特征对计算该GLM所应用到的工业车辆的姿态。每个计算出的姿态针对其他计算出的姿态被排名和评级。例如,在步骤406中,通过比较预测的相机视图和观测到的相机视图的实际相机数据,进一步计算来自每个关联特征对的在每个计算出的姿态处的总和误差,其中较低的总和误差指示预测的视图和观测到的视图之间较好的匹配。具有高于(如系统或者用户设置的)阈值的总和误差的工业车辆的姿态被认为是无效的匹配并且被滤除。通过步骤408进行和重复这样的过滤,直到在步骤410中剩下单个姿态,这随后在步骤412中指示GLM成功。
对于图4的步骤402,图5-8提供了关于该步骤402的进一步细节,该步骤402示出了生成工业设施或仓库中的关联特征对的可能组合。例如,当工业车辆位置未知或丢失时,没有足够的信息以直接匹配2D UV-空间特征(如下面图5中所示的)与仓库地图中的全局特征(如下面图6中所示的)。因此,2D UV-空间特征和3D全局特征对之间的每个可能组合可以被生成为关联特征对,而检测到的错误的关联特征对可以被从列表或者所生成的关联特征对中滤除。由于仅需一对关联特征来计算工业车辆的姿态,所以2D UV空间特征被分组为唯一的对以避免工作的重复。例如,图5的4个特征A-D被分组成以下6个对:AB、AD、AD、BC、BD和CD。
尽管2D UV-空间特征的对(诸如可从图5的图示500中所示的4个2D UV-空间特征导出的6个非重复的对)要与全局特征的对(诸如从图6的图示600中所示的12个全局特征导出的对)关联,但是应当理解的是,物理上离得太远而不能在来自区域602的单个相机帧中捕捉并且因此在相机的视图之外的全局特征不适合于这样的关联以创建关联特征对。在实施例中,对匹配算法将确定第一对UV-空间特征(诸如A-B),并且随后将每个全局特征关联到该对中的第一UV-空间特征(诸如A-B:1到A-B:12)。第二UV-空间特征随后被关联到在第一关联特征的相机的最大视觉范围内的每个全局特征。例如,参考图5和图6,如果全局特征1、2、3和6在UV-空间特征A的最大视觉范围内,则相对于作为示例的A-B:1的对将是A-B:1-2、A-B:1-3以及A-B:1-6。应用该对匹配算法允许可在要生成的同一相机帧内观测到的全局特征的每个可能的排列。
参考图7,图6的12个全局特征的全部可能的特征对被列出在表700中。如果从这些列出的对创建每个可能的关联特征对,则下面等式1中所示的公式将产生792个关联特征对。
等式1:
对于n中的k个排列,针对全部可能的非重复的关联特征对,该等式为个观测到的UV对*个全局对=792个关联特征对。
在实施例中,减少所分析的全局特征对的数量的算法可以被用来选择只在相机的视场或视觉范围中可见的那些全局特征。例如,图7以黑体印刷显示了在相机的视觉范围内的视觉范围对。如果将等式1应用到图7中的黑体印刷项,则等式将产生6个(观测到的对)*45个(黑体印刷全局对)=270个关联特征对。再次参考图6,在图8的图示800中将来自区域802的视觉范围示意地描绘为虚线圆形线804内的区域。在虚线圆形线的可见范围内的中心全局特征点和全部其他全局特征点之间创建对。黑体的视觉范围对被选择为全局特征对进行分析,并且等式1被应用以生成以下结果:
等式2:
个观测到的UV对*个全局对=180个关联特征对。
因此,当只分析图8的相机的视觉范围内的那些关联特征对时,不是分析总数792个关联特征对,而是该数量被减小到分析180个关联特征对。
对于图4的步骤404,图9-图11b提供关于该步骤404的进一步细节,该步骤404示出从每个所分析的关联特征对计算工业车辆的各个姿态。例如,使用关联特征对可以计算工业车辆的全局姿态。第一关联特征对可以被假定为UV-空间特征对和全局特征对之间的正确关联。如图9中所示,可以存在围绕全局特征点的圆形路径,该圆形路径包括工业车辆与UV-空间观测匹配的全部可能的位置。
如果工业车辆围绕图9中所示的圆形路径行进,则关联的相机将观测到第二全局特征点跟踪围绕第一全局特征点1002a的圆形路径。当两个全局特征点都在基本相同的高度上时,所示的路径将是如图10a的图示1000a中所示的圆形1004a。当全局特征点在不同的高度上时,路径1004b将围绕点1002b更加扭曲并且较不圆,如图10b的图示1000b中所示。P1可以是被假定为正确地定位的第一全局特征点,而P2可以是关联特征对中的预测的第二全局特征点的围绕P1的路径。
参考图11a的图示1100a,第二全局特征点的预测的UV-空间路径P2(如图10a上围绕P1点1102a的路径1104a所绘制的)被附加地显示为具有观测到的或实际的P2UV-空间点1106以及显示工业车辆的航向或方向的线1110a。例如,在UV-空间图示上,P1和观测到的P2点之间的线相对于与点P1相交的水平线1108的角度α表示工业车辆的航向。在工业车辆的航向已知的情况下,可以计算工业车辆在图9的圆形路径上或圆形路径内的确切定位。
参考图11b的图示1100b,显示了无效的关联特征对。例如,航向相对于线1108的偏航或者角度α仍与图11a中所示的相同。然而,沿(如围绕P1点1102b所示的)路径1104b的预测的P2的值与沿线1110b的观测到的P2点1106不同。该误差在下面针对步骤406的过滤和评级描述的算法中被捕获和反映。
在实施例中,在实施方案中,可以采用与上述启发式算法类似但更具分析性的算法来进行工业车辆的姿态或潜在姿态的相同计算。例如,在全局空间中创建从观测相机延伸以与它们各自的UV-空间特征点相交的两个向量。如果工业车辆(相机位于其上)位于图9中所示的路径上的任何地方,则第一向量经过第一全局特征点。
下面的等式3阐述了随后将被用来使用与以上关于图11a-图11b中显示并描述的分析类似的分析来计算工业车辆的偏航的算法。工业车辆的俯仰、滚动和高度必须是已知的,并且计算围绕锚定特征(例如,该对中的第一UV-空间特征点)的偏航旋转,使得第二向量与第二全局特征点相交。
等式3:
设N为两个3D向量的叉积;
设T为用于偏航旋转的目标3D点;
以及
例如,计算出的工业车辆的偏航随后被用来计算工业车辆在图9中所示的圆形路径内的x和y位置。如果公式是未定义的和/或当作为结果的姿态将使第二全局特征在观测相机的视觉范围之外时,关联特征对被假定是无效的,并且如下面进一步说明的,该关联特征对可以被给予低评级和/或从潜在的当前定位姿态中滤除出去。
针对每个关联特征对执行等式3中阐述的算法,以分析和计算工业车辆的各个姿态。例如,参考等式2,如果有180个关联特征对要分析,则等式3的算法将被执行180次以为工业车辆找出180个相应的计算出的潜在姿态。
对于图4的步骤406、408和410,图12a-图12b提供关于这些步骤的进一步细节,这些步骤406、408和410示出对计算出的工业车辆的姿态进行过滤和评级,直到剩下单个姿态用于选择作为当前工业车辆全局定位。例如,等式3的算法的结果是针对对其执行算法的每个关联特征对的工业车辆的预测的姿态。由于上面关于步骤402描述的生成关联特征对的方法,大部分关联特征对将被错误地匹配,从而具有不是观测到的全局特征的预测的全局特征。这将导致工业车辆的错误的姿态或者位置和朝向。例如,下面的表1显示了经受过滤处理的许多关联特征对中的一部分的样本列表。
表1:过滤处理中的关联特征对
在实施例中,第一轮过滤是在步骤404中进行的针对关联特征对的对潜在姿态的每次计算的末尾处执行的。例如,在从关联特征对计算工业车辆的潜在姿态之后,第二关联特征(例如,第二全局特征点)的有效性被测试。第二全局特征点1204a或者1204b被作为预测的点投射到UV-空间图示上,并且与其观测到的UV-空间对应点1202a或者1204b比较,如在图12a-图12b的图示1200a或者1200b中所示。如果预测的第二全局特征点与观测到的第二全局特征点之间的距离大于系统的最大噪声,则各自的并且经比较的计算出的工业车辆的潜在姿态作为无效姿态被滤除出去。
剩余的计算出的工业车辆的潜在姿态匹配被用来生成每个计算出的姿态的相应的UV-空间特征对,并且将不会考虑任何其他观测到的特征。如图12a-图12b中所示,使用工业设施或者仓库的3D全局特征的地图来计算在工业车辆的每个姿态处的预期的UV-空间特征。观测到的UV-空间特征被匹配到其最近的预期的或者预测的UV-空间特征,并且所有相应的预期的和观测到的特征之间的像素距离(分别诸如图12a和图12b中的d1和d2)被计算并且被记录为总和误差值。例如,图12a显示了89.5个像素的总和误差,而图12b显示了242.8个像素的总和误差。对于每个观测到的UV-空间特征增加附加的误差,其被预期是模糊视图以正确地有利于(favor)具有清晰视图的工业车辆的姿态,同时允许通过跟踪系统等观察特征的可能性。
导致具有高于最大观测噪声之和的总和误差的计算出的工业车辆的姿态被滤除出去。剩余的姿态基于总和误差以降序被排序以对姿态进行评级和排名。因此,步骤402的每个观测到的对可以被正确地关联以产生相同的姿态。然而,在实施方案中,由于相机和特征提取误差以及等式3的算法的限制,并非全部作为结果的关联特征对都可以产生准确的姿态。
在实施例中,当使用插入距离阈值来移除工业车辆的重复姿态时,来自未被滤除出去的姿态的具有最低总和误差的不同卡车姿态被选择作为工业车辆的可能当前定位。例如,关于上面的表1,最先列出的姿态被选择作为工业车辆的可能当前姿态,因为它具有全部其他列出的姿态的最低总和误差。在最先选择的姿态的定位容差和航向容差内的剩余姿态的剩下部分可以被认为是重复物,并且被从工业车辆的可能姿态的列表中移除。例如,如果表1上的工业车辆的剩余位置中的任何位置在最先选择的姿态定位的1.5米和1°之内,那些剩余位置就将被认为是重复物,并且在应用本文中所描述的过滤和评级之后将不被包括在工业车辆的可能姿态或位置的最终列表中。
参考图13,显示了累积的里程程序流程或者系统1300,该累积的里程程序流程或者系统1300考虑到了以下事实:当上述GLM正如图4中所示地运行时,工业车辆可能仍在移动。在包括许多可能特征(全局特征或UV-空间中的特征两方面)的大型工业设施地点或者仓库中,GLM可能花费特定量的时间(诸如少于一分钟到上至几分钟)来如上述地分析每个所选择的和/或可能的关联特征对。图13的里程累积系统可以跟踪在此时间期间工业车辆在GLM的开始位置与工业车辆的当前位置之间所行进的距离。
参考图13,一旦发生定位系统丢失事件1300a,就在步骤1312中清除累积的里程。在步骤1314中经由新的相机数据1316来应用GLM。如果在步骤1324中确定步骤1314的GLM不是成功的,则处理从步骤1312起重复。新的里程数据1318被用来在步骤1320中调整累积的里程以及在步骤1322中计算当前累积的里程。如果在步骤1324中确定步骤1314的GLM是成功的,则在步骤1326中,步骤1322的累积的里程与来自步骤1314和步骤1324的GLM结果组合并且进行航位推算。步骤1326的结果随后被发送以通过定位系统验证处理步骤1300c被验证,例如,如上面关于图3的验证处理300c所描述的,以及如下面关于图14的流程1400进一步描述的。
在实施例中,GLM在定位系统中作为单独的线程运行。例如,当GLM的算法如关于图4所述地运行以及被执行时,主定位系统线程可以从(0,0)点以0°航向开始航位推算,使得它从原点起运行。当GLM成功时,新的当前的航位推算得到的从原始起的位置反映累积的里程,其将被转置到工业车辆的已知开始位置上,或者被转置为由GLM计算出的工业车辆的当前姿态。如果GLM失败,则对另一个新的(或者最新的)相机帧开始或者重新尝试处理之前,主定位系统线程上的航位推算将清零累积的里程。
参考图14,显示了定位系统验证程序流程1400,并且定位系统验证程序流程1400可以被提供来在公布姿态并且继续定位系统上的正常操作之前确认由GLM计算出的工业车辆的姿态的准确性和正确性。因此,在向操作者通知工业车辆的姿态之前,进行检查以确保定位系统处于健康且准确的操作中。通过验证,在步骤1426中利用来自GLM的姿态作为(或者重新作为)定位系统的种子,但是不报告或公布当前位置。在图14的步骤1428中,匹配并且记录唯一全局特征的数量。一旦该唯一全局特征的数量超过阈值,定位系统就在步骤1438中退出验证状态并开始公布定位数据。应当理解的是,为唯一全局特征的数量选取的具体阈值可以依赖于与工业车辆以及工业车辆在其中使用的工业设施关联的各种操作要求。例如,优选地可以使阈值等于工业设施(诸如仓库)的典型走道中的天花板灯的数量。可替换地或附加地,可以在监控验证状态的有效性时至少部分地通过试错来建立阈值数值。
对于错误的种子或者GLM计算出的错误的工业车辆的当前姿态,由于匹配率下降到零,所以图14的步骤1428应当无法匹配新的全局特征,使得在步骤1436中定位系统变为丢失(以在步骤1400b中返回到恢复流程)和/或在步骤1438中验证失败。如果在步骤1438中验证失败,则定位系统将尝试通过使用相机数据的新集合1430经由GLM接收步骤1426中的新的种子,直到正确的种子被分析以在步骤1428中提供计算出的当前定位系统位置,并且如果在步骤1436中没有丢失,则被验证以在步骤1438中产生已完成的验证,并且在步骤1400a中返回到正常的定位系统操作。
现在应当理解的是,本文中所描述的GLM算法的实施例可以被用来从天花板的输入图像中所捕捉的对象中提取特征。因此,可被检测到的天花板上的对象(诸如例如,天花板灯)可以被用来产生可被报告到定位系统的特征。定位系统可以使用来自输入图像的所报告的特征来确定车辆的姿态、车辆的位置、或者两者。例如,所报告的特征可以包括可被结合使用的中心线特征和点特征。相应地,车辆的姿态和位置可以被用作用于导航、同时定位和映射(SLAM)等的参数。
在实施例中,GLM可以是与定位系统一起操作的恢复线程或机构。在其他实施例中,GLM可以是单独的定位系统,用于车辆位置确定或者导航系统,以取代传统定位系统和/或在传统定位系统之上提供用于特定环境条件的更可靠的定位方法。在实施例中,GLM的算法可以与定位系统并行地运行,以充当验证机构来验证定位系统位置以及满足更高的安全标准。应当理解的是,本文中所描述的一个或多个GLM算法可以结合各种其他车辆位置确定和/或导航系统一起使用,包括但不限于基于RFID的定位系统。此外,本文中所描述的一个或多个GLM算法可以被用来协助控制工业车辆的具体功能,诸如例如工业车辆(诸如叉车)的提举高度和/或速度。应当理解的是,本文中所描述的GLM中的一个或多个算法也可以被用作用于各种车辆位置确定和/或导航系统的诊断工具。
因此,定位系统和/或GLM可以被用来为车辆的导航提供特征,或者可以通过通信地耦合到定位系统和/或GLM的显示器而呈现。注意,根据正被车辆导航的具体地点,存在可为GLM算法的每个功能配置的许多参数(例如,阈值)。相应地,本文中所描述的实施例可以进一步包括用于确定参数的精确值的校准阶段。
还应注意,本文中对“至少一个”部件、元件等的记载不应被用来产生这样的推断:冠词“一”或“一个”的替代使用应当限于单个部件、元件等。例如,“驱动机构”的记载不限于单个驱动机构,并且设想使用多个独立的或集成的驱动机构。
注意,以下权利要求中的一个或多个权利要求使用术语“其中”、“基于”和“通过”作为过渡性或引入性短语。为了限定本公开的目的,注意,这些术语在权利要求中被引入作为开放式过渡性或引入性短语,其用来引入一个或多个权利要求限定的开放式记载,并且应当以类似于更常用的开放性术语“包括”的方式解释。例如,本文中基于阐述的变量所描述的计算可以至少部分地基于那些变量。另外,本文中编号的权利要求段落并不暗示步骤的指定顺序。
注意,为了描述和限定本公开的目的,本文中对作为参数或另一个变量的“函数”的变量的引用并不旨在表示该变量仅仅是所列出的参数或变量的函数。而是,本文中对作为所列参数的“函数”的变量的引用旨在是开放式的,使得该变量可以是单个参数或多个参数的函数。
注意,本文中对以特定方式被“配置”或“编程”以体现特定性质或以特定方式起作用的本发明的部件的记载是结构性记载,而不是预期用途的记载。更具体地,本文中对部件被“配置”或“编程”的方式的引用表示部件的现有物理状况,并且因此被视为对部件的结构特性的明确记载。
注意,为了描述和限定本公开的目的,本文中使用术语“基本上”和“近似”来表示可来自于任何定量比较、值、测量或其他表示的固有不确定程度。术语“基本上”和“近似”在本文中也用于表示在不导致所讨论的主题的基本功能的改变的情况下定量表示可以与所述的参考值不同的程度。
虽然本文中已经示出和描述了特定实施例,但应当理解的是,在不偏离所要求保护的主题的精神和范围的情况下,可以进行各种其他改变和修改。此外,尽管本文中描述了所要求保护的主题的各个方面,但是这样的方面不需要被组合使用。因此,所附权利要求旨在覆盖在所要求保护的主题的范围内的所有这样的改变和修改。
Claims (27)
1.一种材料搬运车辆,包括相机、一个或多个车辆处理器、被配置为沿库存运送面移动材料搬运车辆的驱动机构、被配置为在工业设施的存储仓中存储和取回货物的材料搬运机构、以及与驱动机构和材料搬运机构通信的车辆控制架构,其中:
相机通信地耦合到所述一个或多个车辆处理器并且捕捉头顶特征的输入图像;
工业设施地图包括与头顶特征的映射关联的多个三维全局特征点;以及
材料搬运车辆的所述一个或多个车辆处理器执行车辆功能以:
(i)通过以下操作来创建多个关联特征对:
取回来自相机的包括头顶特征的初始输入图像,所述初始输入图像包括二维UV空间信息,其中U和V各自对应于二维空间中的维度;
通过使来自输入图像中的UV空间信息中的头顶特征的点成对来形成头顶特征对;以及
将来自UV空间信息的头顶特征对与根据使工业设施地图的所述多个三维头顶全局特征点成对而形成的头顶全局特征点对关联;
(ii)根据在相机的视觉范围内的关联特征对计算车辆姿态;
(iii)通过对所述多个关联特征对进行排名,基于所述多个关联特征对中的最高评级对计算材料搬运车辆的最佳估计姿态;
(iv)使用材料搬运车辆的累积的里程将最佳估计姿态更新到材料搬运车辆的当前所定位的位置;以及
(v)使用当前所定位的位置:跟踪材料搬运车辆沿库存运送面的导航、或者以至少部分自动的方式沿库存运送面导航材料搬运车辆、或者两者。
2.如权利要求1所述的材料搬运车辆,其中所述一个或多个车辆处理器进一步执行车辆功能,以在更新当前所定位的位置之前验证当前所定位的位置,这样的验证包括以下功能:
(i)在每个数据关联步骤之后记录唯一全局特征点的数量,直到该数量在阈值以上,使得当前所定位的位置被验证。
3.如权利要求1所述的材料搬运车辆,其中所述一个或多个车辆处理器进一步执行车辆功能,以在更新当前所定位的位置之后在显示器上公布当前所定位的位置。
4.如权利要求1所述的材料搬运车辆,其中所述一个或多个车辆处理器进一步执行车辆功能以:
(i)确定材料搬运车辆是否丢失;
(ii)如果确定材料搬运车辆丢失,则取回来自相机的相机数据的后续集合,以及使用来自相机的相机数据的后续集合替代来自相机的相机数据的初始集合重复权利要求1的功能(i)至(v),直到找到材料搬运车辆。
5.如权利要求4所述的材料搬运车辆,其中确定材料搬运车辆是否丢失包括基于当前所定位的位置是否包括错误的数据确定材料搬运车辆是否丢失。
6.如权利要求4所述的材料搬运车辆,其中材料搬运车辆是否丢失的确定至少部分地基于相机数据是否不足以校正与累积的里程关联的误差。
7.如权利要求4所述的材料搬运车辆,其中所述多个关联特征对是通过数据关联步骤创建的,所述数据关联步骤包括:
(i)创建UV空间信息对;
(ii)将每个全局特征点与每个UV空间信息对中的第一UV空间特征关联;以及
(iii)将相机的最大视觉范围内的每个全局特征点与每个UV空间信息对中的第二UV空间特征关联。
8.如权利要求1所述的材料搬运车辆,其中针对相机的视觉范围内的每个关联特征对的车辆姿态的计算至少部分地基于全局定位算法的使用,其中全局定位算法包括这样的公式,所述公式计算车辆关于包括锚定特征的关联特征对的第一UV空间特征的偏航,其中所述公式包括:
(i)N是两个3D向量的叉积;
(ii)T是用于偏航旋转的目标3D点;
(iii)
(iv)以及
(v)
9.如权利要求8所述的材料搬运车辆,其中基于所述多个关联特征对中的最高评级对对材料搬运车辆的最佳估计姿态的计算至少部分地基于对每个计算出的车辆姿态的姿态总和误差的计算,其中最高评级对具有最低的姿态总和误差。
10.一种包括材料搬运车辆和管理服务器的系统,其中:
材料搬运车辆包括相机、一个或多个车辆处理器、被配置为沿库存运送面移动材料搬运车辆的驱动机构、被配置为在工业设施的存储仓中存储和取回货物的材料搬运机构、以及与驱动机构和材料搬运机构通信的车辆控制架构;
相机通信地耦合到所述一个或多个车辆处理器和管理服务器,并且捕捉头顶特征的输入图像;
所述一个或多个车辆处理器通信地耦合到管理服务器;
存储在管理服务器上的工业设施地图通信地耦合到所述一个或多个车辆处理器,其中工业设施地图包括与头顶特征的映射关联的多个三维全局特征点;以及
材料搬运车辆的所述一个或多个车辆处理器执行车辆功能,以:
(i)通过以下操作来创建多个关联特征对:
取回来自相机的包括头顶特征的初始输入图像,所述初始输入图像包括二维UV空间信息,其中U和V各自对应于二维空间中的维度;
通过使来自输入图像中的UV空间信息中的头顶特征的点成对来形成头顶特征对;以及
将来自UV空间信息的头顶特征对与根据使工业设施地图的所述多个三维头顶全局特征点成对而形成的头顶全局特征点对关联;
(ii)根据在相机的视觉范围内的关联特征对计算车辆姿态;
(iii)通过对所述多个关联特征对进行排名,基于所述多个关联特征对中的最高评级对计算材料搬运车辆的最佳估计姿态;
(iv)使用材料搬运车辆的累积的里程将最佳估计姿态更新到材料搬运车辆的当前所定位的位置;以及
(v)使用当前所定位的位置:跟踪材料搬运车辆沿库存运送面的导航、或者以至少部分自动的方式沿库存运送面导航材料搬运车辆、或者两者。
11.如权利要求10所述的系统,其中所述一个或多个车辆处理器进一步执行车辆功能,以在更新当前所定位的位置之前验证当前所定位的位置,这样的验证包括以下功能:
(i)在每个数据关联步骤之后记录唯一全局特征点的数量,直到该数量在阈值以上,使得当前所定位的位置被验证。
12.如权利要求10所述的系统,其中所述一个或多个车辆处理器进一步执行车辆功能,以在更新当前所定位的位置之后在显示器上公布当前所定位的位置。
13.如权利要求10所述的系统,其中所述一个或多个车辆处理器进一步执行车辆功能以:
(i)确定材料搬运车辆是否丢失;以及
(ii)如果确定材料搬运车辆丢失,则取回来自相机的相机数据的后续集合,并且使用来自相机的相机数据的后续集合替代来自相机的相机数据的初始集合重复权利要求10的功能(i)至(v),直到找到材料搬运车辆。
14.如权利要求13所述的系统,其中材料搬运车辆是否丢失的确定至少部分地基于当前所定位的位置是否包括错误的数据。
15.如权利要求13所述的系统,其中材料搬运车辆是否丢失的确定至少部分地基于相机数据是否不足以校正与累积的里程关联的误差。
16.如权利要求13所述的系统,其中所述多个关联特征对是通过数据关联步骤创建的,所述数据关联步骤包括:
(i)创建UV空间信息对;
(ii)将每个全局特征点与每个UV空间信息对中的第一UV空间特征关联;以及
(iii)将相机的最大视觉范围内的每个全局特征点与每个UV空间信息对中的第二UV空间特征关联。
17.如权利要求10所述的系统,其中针对相机的视觉范围内的每个关联特征对的车辆姿态的计算至少部分地基于全局定位算法的使用,其中全局定位算法包括这样的公式,所述公式计算车辆关于包括锚定特征的关联特征对的第一UV空间特征的偏航,其中所述公式包括:
(i)N是两个3D向量的叉积;
(ii)T是用于偏航旋转的目标3D点;
(iii)
(iv)以及
(v)
18.如权利要求17所述的系统,其中基于所述多个关联特征对中的最高评级对对材料搬运车辆的最佳估计姿态的计算至少部分地基于对每个计算出的车辆姿态的姿态总和误差的计算,其中最高评级对具有最低的姿态总和误差。
19.一种沿库存运送面导航材料搬运车辆或者跟踪材料搬运车辆沿库存运送面的导航的方法,所述方法包括:
在工业设施的库存运送面上布置材料搬运车辆,其中材料搬运车辆与管理服务器通信,其中材料搬运车辆包括相机、一个或多个车辆处理器、被配置为沿库存运送面移动材料搬运车辆的驱动机构、被配置为在工业设施的存储仓中存储和取回货物的材料搬运机构、以及与驱动机构和材料搬运机构通信的车辆控制架构;
使用驱动机构沿库存运送面移动材料搬运车辆;
当材料搬运车辆沿库存运送面移动时,经由相机捕捉工业设施的头顶特征的输入图像;
提供工业设施地图,所述工业设施地图包括与天花板灯的映射关联的多个三维全局特征点;
通过以下操作来创建多个关联特征对:
取回来自相机的包括头顶特征的初始输入图像,所述初始输入图像包括二维UV空间信息,U和V各自对应于二维空间中的维度;
通过使来自输入图像中的UV空间信息中的头顶特征的点成对来形成头顶特征对;以及
将来自UV空间信息的头顶特征对与根据使工业设施地图的所述多个三维头顶全局特征点成对而形成的头顶全局特征点对关联;
经由所述一个或多个车辆处理器,根据在相机的视觉范围内的关联特征对计算车辆姿态;
经由所述一个或多个车辆处理器,通过对所述多个关联特征对进行排名,基于所述多个关联特征对中的最高评级对计算材料搬运车辆的最佳估计姿态;
使用材料搬运车辆的累积的里程将最佳估计姿态更新到材料搬运车辆的当前所定位的位置;以及
经由所述一个或多个车辆处理器和管理服务器,使用当前所定位的位置:跟踪材料搬运车辆沿库存运送面的导航、或者以至少部分自动的方式沿库存运送面导航材料搬运车辆、或者两者。
20.如权利要求19所述的方法,还包括:
在更新当前所定位的位置之前验证当前所定位的位置,这样的验证包括:
在每个数据关联步骤之后记录唯一全局特征点的数量,直到该数量在阈值以上,使得当前所定位的位置被验证。
21.如权利要求19所述的方法,还包括:
在更新当前所定位的位置之后在显示器上公布当前所定位的位置。
22.如权利要求19所述的方法,所述方法还包括:
确定材料搬运车辆是否丢失;
如果确定材料搬运车辆丢失,则通过取回来自相机的包括二维UV空间信息的相机数据的后续集合、形成来自UV空间信息的对、以及将来自UV空间信息的每个对与来自工业设施地图的所述多个三维全局特征点中的每一个的对关联而创建多个新的关联特征对来寻找材料搬运车辆;
经由所述一个或多个车辆处理器,针对在相机的视觉范围内的每个新的关联特征对计算车辆姿态;
经由所述一个或多个车辆处理器,基于所述多个新的关联特征对中的最高评级对计算材料搬运车辆的新的最佳估计姿态;
使用与材料搬运车辆关联的累积的里程将所述新的最佳估计姿态更新到新的当前所定位的位置;以及
设置所述新的当前所定位的位置。
23.如权利要求22所述的方法,其中材料搬运车辆是否丢失的确定至少部分地基于当前所定位的位置是否包括错误的数据。
24.如权利要求22所述的方法,其中材料搬运车辆是否丢失的确定至少部分地基于相机数据是否不足以校正与累积的里程关联的误差。
25.如权利要求22所述的方法,其中所述多个关联特征对是通过数据关联步骤创建的,所述数据关联步骤包括:
创建UV空间信息对;
将每个全局特征点与每个UV空间信息对中的第一UV空间特征关联;以及
将相机的最大视觉范围内的每个全局特征点与每个UV空间信息对中的第二UV空间特征关联。
26.如权利要求19所述的方法,其中针对相机的视觉范围内的每个关联特征对的车辆姿态的计算至少部分地基于使用全局定位算法,其中全局定位算法包括这样的公式,所述公式计算车辆关于包括锚定特征的关联特征对的第一UV空间特征的偏航,其中所述公式包括:
(i)N是两个3D向量的叉积;
(ii)T是用于偏航旋转的目标3D点;
(iii)
(iv)以及
(v)
27.如权利要求26所述的方法,其中基于所述多个关联特征对中的最高评级对对材料搬运车辆的最佳估计姿态的计算至少部分地基于计算对于每个计算出的车辆姿态的姿态总和误差,其中最高评级对具有最低的姿态总和误差。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462018094P | 2014-06-27 | 2014-06-27 | |
US62/018,094 | 2014-06-27 | ||
PCT/NZ2015/050079 WO2015199554A2 (en) | 2014-06-27 | 2015-06-25 | Vehicle positioning or navigation utilizing associated feature pairs |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106461400A CN106461400A (zh) | 2017-02-22 |
CN106461400B true CN106461400B (zh) | 2019-08-16 |
Family
ID=54072925
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580034506.7A Active CN106461400B (zh) | 2014-06-27 | 2015-06-25 | 使用关联特征对的车辆位置确定或导航 |
CN201580034489.7A Active CN106662451B (zh) | 2014-06-27 | 2015-06-25 | 使用关联特征对的丢失车辆恢复 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580034489.7A Active CN106662451B (zh) | 2014-06-27 | 2015-06-25 | 使用关联特征对的丢失车辆恢复 |
Country Status (7)
Country | Link |
---|---|
US (3) | US9349181B2 (zh) |
EP (2) | EP3161572B1 (zh) |
KR (2) | KR101769284B1 (zh) |
CN (2) | CN106461400B (zh) |
AU (2) | AU2015280775B2 (zh) |
BR (1) | BR112016030104A2 (zh) |
WO (2) | WO2015199553A2 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11815905B2 (en) | 2018-02-23 | 2023-11-14 | Crown Equipment Corporation | Systems and methods for optical target based indoor vehicle navigation |
Families Citing this family (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012224107A1 (de) * | 2012-12-20 | 2014-06-26 | Continental Teves Ag & Co. Ohg | Verfahren zum Bestimmen einer Referenzposition als Startposition für ein Trägheitsnavigationssystem |
US9523582B2 (en) * | 2014-02-07 | 2016-12-20 | Crown Equipment Corporation | Systems, methods, and mobile client devices for supervising industrial vehicles |
CN106461400B (zh) * | 2014-06-27 | 2019-08-16 | 克朗设备公司 | 使用关联特征对的车辆位置确定或导航 |
US9396554B2 (en) | 2014-12-05 | 2016-07-19 | Symbol Technologies, Llc | Apparatus for and method of estimating dimensions of an object associated with a code in automatic response to reading the code |
CA2987318C (en) | 2015-05-26 | 2019-01-15 | Crown Equipment Corporation | Systems and methods for materials handling vehicle odometry calibration |
US10455226B2 (en) | 2015-05-26 | 2019-10-22 | Crown Equipment Corporation | Systems and methods for image capture device calibration for a materials handling vehicle |
US9880009B2 (en) | 2015-09-04 | 2018-01-30 | Crown Equipment Corporation | Industrial vehicle with feature-based localization and navigation |
AU2017200404A1 (en) | 2016-01-22 | 2017-08-10 | The Raymond Corporation | Systems and methods for a material handling vehicle network |
US10352689B2 (en) * | 2016-01-28 | 2019-07-16 | Symbol Technologies, Llc | Methods and systems for high precision locationing with depth values |
US10145955B2 (en) | 2016-02-04 | 2018-12-04 | Symbol Technologies, Llc | Methods and systems for processing point-cloud data with a line scanner |
US10721451B2 (en) | 2016-03-23 | 2020-07-21 | Symbol Technologies, Llc | Arrangement for, and method of, loading freight into a shipping container |
US9805240B1 (en) | 2016-04-18 | 2017-10-31 | Symbol Technologies, Llc | Barcode scanning and dimensioning |
JP2019531560A (ja) | 2016-07-05 | 2019-10-31 | ナウト, インコーポレイテッドNauto, Inc. | 自動運転者識別システムおよび方法 |
CA3032812A1 (en) | 2016-08-04 | 2018-02-08 | Reification Inc. | Methods for simultaneous localization and mapping (slam) and related apparatus and systems |
US10209081B2 (en) * | 2016-08-09 | 2019-02-19 | Nauto, Inc. | System and method for precision localization and mapping |
US10776661B2 (en) | 2016-08-19 | 2020-09-15 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting and dimensioning objects |
US10402675B2 (en) * | 2016-08-30 | 2019-09-03 | The Boeing Company | 2D vehicle localizing using geoarcs |
JP6940612B2 (ja) | 2016-09-14 | 2021-09-29 | ナウト, インコーポレイテッドNauto, Inc. | ニアクラッシュ判定システムおよび方法 |
US10733460B2 (en) | 2016-09-14 | 2020-08-04 | Nauto, Inc. | Systems and methods for safe route determination |
US10246014B2 (en) | 2016-11-07 | 2019-04-02 | Nauto, Inc. | System and method for driver distraction determination |
US10579949B2 (en) * | 2016-11-16 | 2020-03-03 | Wipro Limited | Methods and systems for facilitating transportation of articles in warehouses using video analytics |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
US10451405B2 (en) | 2016-11-22 | 2019-10-22 | Symbol Technologies, Llc | Dimensioning system for, and method of, dimensioning freight in motion along an unconstrained path in a venue |
US10354411B2 (en) | 2016-12-20 | 2019-07-16 | Symbol Technologies, Llc | Methods, systems and apparatus for segmenting objects |
US10585440B1 (en) * | 2017-01-23 | 2020-03-10 | Clearpath Robotics Inc. | Systems and methods for using human-operated material-transport vehicles with fleet-management systems |
AU2018261257B2 (en) | 2017-05-01 | 2020-10-08 | Symbol Technologies, Llc | Method and apparatus for object status detection |
US10591918B2 (en) | 2017-05-01 | 2020-03-17 | Symbol Technologies, Llc | Fixed segmented lattice planning for a mobile automation apparatus |
US10663590B2 (en) | 2017-05-01 | 2020-05-26 | Symbol Technologies, Llc | Device and method for merging lidar data |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
US10726273B2 (en) | 2017-05-01 | 2020-07-28 | Symbol Technologies, Llc | Method and apparatus for shelf feature and object placement detection from shelf images |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
WO2018204342A1 (en) | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Product status detection system |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
WO2018201423A1 (en) | 2017-05-05 | 2018-11-08 | Symbol Technologies, Llc | Method and apparatus for detecting and interpreting price label text |
EP3638542B1 (en) | 2017-06-16 | 2022-01-26 | Nauto, Inc. | System and method for contextualized vehicle operation determination |
WO2018229549A2 (en) | 2017-06-16 | 2018-12-20 | Nauto Global Limited | System and method for digital environment reconstruction |
US10453150B2 (en) | 2017-06-16 | 2019-10-22 | Nauto, Inc. | System and method for adverse vehicle event determination |
CN114646318A (zh) * | 2017-07-28 | 2022-06-21 | 克朗设备公司 | 仓库环境中物料搬运车辆的交通管理 |
JP6761786B2 (ja) * | 2017-08-10 | 2020-09-30 | 本田技研工業株式会社 | 天井地図作成方法、天井地図作成装置及び天井地図作成プログラム |
US10521914B2 (en) | 2017-09-07 | 2019-12-31 | Symbol Technologies, Llc | Multi-sensor object recognition system and method |
US10572763B2 (en) | 2017-09-07 | 2020-02-25 | Symbol Technologies, Llc | Method and apparatus for support surface edge detection |
WO2019144222A1 (en) | 2018-01-24 | 2019-08-01 | Clearpath Robotics Inc. | Systems and methods for maintaining vehicle state information |
WO2019153082A1 (en) | 2018-02-07 | 2019-08-15 | Clearpath Robotics Inc. | Communication systems for self-driving vehicles, and methods of providing thereof |
IT201800002718A1 (it) * | 2018-02-15 | 2019-08-15 | Italcarrelli S R L | Veicolo semovente per la movimentazione di cavalletti porta-lastre |
US11392131B2 (en) | 2018-02-27 | 2022-07-19 | Nauto, Inc. | Method for determining driving policy |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
US10809078B2 (en) | 2018-04-05 | 2020-10-20 | Symbol Technologies, Llc | Method, system and apparatus for dynamic path generation |
US10832436B2 (en) | 2018-04-05 | 2020-11-10 | Symbol Technologies, Llc | Method, system and apparatus for recovering label positions |
US10740911B2 (en) | 2018-04-05 | 2020-08-11 | Symbol Technologies, Llc | Method, system and apparatus for correcting translucency artifacts in data representing a support structure |
KR102605595B1 (ko) * | 2018-04-24 | 2023-11-23 | 현대자동차주식회사 | 장치, 이를 포함하는 차량, 및 차량의 제어방법 |
FR3083607A1 (fr) * | 2018-07-06 | 2020-01-10 | Balyo | Procede et dispositif de positionnement pour vehicule, et vehicule comportant un tel dispositif |
CA3106406A1 (en) | 2018-07-17 | 2020-01-23 | Crown Equipment Corporation | Systems and methods for vehicle position calibration using rack leg identification |
KR20210038538A (ko) | 2018-08-01 | 2021-04-07 | 크라운 이큅먼트 코포레이션 | 창고 환경 속도 구역 관리를 위한 시스템 및 방법 |
US10496100B1 (en) * | 2018-09-11 | 2019-12-03 | Universal City Studios Llc | Ultraviolet paint-based vehicle guidance |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
CN110335305A (zh) * | 2018-11-01 | 2019-10-15 | 驭势科技(北京)有限公司 | 一种拖车位姿的确定方法、装置、车载设备及存储介质 |
CN210418988U (zh) * | 2018-11-07 | 2020-04-28 | 上海图森未来人工智能科技有限公司 | 移动吊装设备控制系统、服务器、移动吊装设备 |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11079240B2 (en) | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
US10731970B2 (en) | 2018-12-13 | 2020-08-04 | Zebra Technologies Corporation | Method, system and apparatus for support structure detection |
CA3028708A1 (en) | 2018-12-28 | 2020-06-28 | Zih Corp. | Method, system and apparatus for dynamic loop closure in mapping trajectories |
KR20210125504A (ko) | 2019-02-06 | 2021-10-18 | 크라운 이큅먼트 코포레이션 | 랙 다리 식별 및 마스트 흔들림 보상을 사용한 차량 위치 교정을 위한 시스템 및 방법 |
WO2020172039A1 (en) | 2019-02-19 | 2020-08-27 | Crown Equipment Corporation | Systems and methods for calibration of a pose of a sensor relative to a materials handling vehicle |
CN110182718A (zh) * | 2019-04-25 | 2019-08-30 | 上海快仓智能科技有限公司 | 搬运机器人的控制方法及货物搬运系统 |
MX2021013166A (es) * | 2019-05-02 | 2022-01-24 | Crown Equip Corp | Vehiculo industrial con localizacion y navegacion basadas en funciones. |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11693420B2 (en) | 2019-08-09 | 2023-07-04 | Universal City Studios Llc | Vehicle guidance via infrared projection |
US11885893B2 (en) | 2019-08-12 | 2024-01-30 | Motional Ad Llc | Localization based on predefined features of the environment |
US11820397B2 (en) * | 2019-11-16 | 2023-11-21 | Uatc, Llc | Localization with diverse dataset for autonomous vehicles |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
CN111046125A (zh) * | 2019-12-16 | 2020-04-21 | 视辰信息科技(上海)有限公司 | 一种视觉定位方法、系统及计算机可读存储介质 |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
CN111486849B (zh) * | 2020-05-29 | 2021-08-27 | 北京大学 | 一种基于二维码路标的移动视觉导航方法及系统 |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
CN112344933B (zh) * | 2020-08-21 | 2023-04-07 | 北京京东乾石科技有限公司 | 一种信息生成的方法、装置和存储介质 |
KR20230087522A (ko) | 2020-10-05 | 2023-06-16 | 크라운 이큅먼트 코포레이션 | 초광대역 무선 기술을 사용하여 자재 취급 자량들의 상대적 포즈 결정 및 필드 시행을 위한 시스템들 및 방법들 |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
CN112907636B (zh) * | 2021-03-30 | 2023-01-31 | 深圳市优必选科技股份有限公司 | 多目标跟踪方法、装置、电子设备及可读存储介质 |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
CN113985867B (zh) * | 2021-09-22 | 2024-07-12 | 北京旷视机器人技术有限公司 | 载具控制方法、系统、电子设备、介质及一种载具 |
GB202117123D0 (en) * | 2021-11-26 | 2022-01-12 | Ocado Innovation Ltd | Detecting a transport device in a workspace |
US12209391B2 (en) | 2021-12-30 | 2025-01-28 | Caterpillar Inc. | Controlling machine operation based on validation of machine data |
US12103186B2 (en) | 2022-06-29 | 2024-10-01 | Hong Kong Applied Science And Technology Research Institute Co., Ltd | Method of controlling movement of a mobile robot in the event of a localization failure |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4429016A1 (de) * | 1994-08-16 | 1996-02-22 | Linde Ag | Navigation für fahrerlose Fahrzeuge |
CN101430207A (zh) * | 2007-11-09 | 2009-05-13 | 三星电子株式会社 | 使用结构光产生三维地图的设备和方法 |
US8467902B2 (en) * | 2007-07-18 | 2013-06-18 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating pose of mobile robot using particle filter |
Family Cites Families (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE1429016A1 (de) | 1960-10-21 | 1969-06-12 | Bosch Gmbh Robert | Verfahren zum Verbinden von thermoplastischen Kunststoffteilchen |
US5155684A (en) * | 1988-10-25 | 1992-10-13 | Tennant Company | Guiding an unmanned vehicle by reference to overhead features |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
RU2220643C2 (ru) * | 2001-04-18 | 2004-01-10 | Самсунг Гванджу Электроникс Ко., Лтд. | Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты) |
US6952488B2 (en) * | 2001-08-27 | 2005-10-04 | Carnegie Mellon University | System and method for object localization |
WO2003062127A1 (fr) * | 2002-01-23 | 2003-07-31 | Kabushiki Kaisha Toyota Jidoshokki | Dispositif et procede de commande de la position d'un appareil de manutention dans un vehicule industriel |
AU2003280610A1 (en) * | 2003-01-14 | 2004-08-10 | The Circle For The Promotion Of Science And Engineering | Multi-parameter highly-accurate simultaneous estimation method in image sub-pixel matching and multi-parameter highly-accurate simultaneous estimation program |
EP1524622A1 (en) * | 2003-10-17 | 2005-04-20 | Koninklijke Philips Electronics N.V. | Method and image processing device for analyzing an object contour image, method and image processing device for detecting an object, industrial vision apparatus, smart camera, image display, security system, and computer program product |
DE602004019275D1 (de) * | 2004-06-07 | 2009-03-19 | St Microelectronics Srl | Verfahren zur Kompression von Bilddaten erfasst von einer Bayer-Farbfilteranordnung |
KR100776215B1 (ko) * | 2005-01-25 | 2007-11-16 | 삼성전자주식회사 | 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체 |
US20080042805A1 (en) * | 2005-05-17 | 2008-02-21 | Morhard Robert C | System and method for detecting, monitoring, tracking and identifying explosive materials |
US7565029B2 (en) * | 2005-07-08 | 2009-07-21 | Seiko Epson Corporation | Method for determining camera position from two-dimensional images that form a panorama |
US8050461B2 (en) * | 2005-10-11 | 2011-11-01 | Primesense Ltd. | Depth-varying light fields for three dimensional sensing |
US7634336B2 (en) * | 2005-12-08 | 2009-12-15 | Electronics And Telecommunications Research Institute | Localization system and method of mobile robot based on camera and landmarks |
CN1996194A (zh) * | 2005-12-31 | 2007-07-11 | 清华大学 | 一种运动物体定位纠偏系统及其运动跟踪方法 |
US7681796B2 (en) * | 2006-01-05 | 2010-03-23 | International Business Machines Corporation | Mobile device tracking |
US20070213869A1 (en) * | 2006-02-08 | 2007-09-13 | Intermec Ip Corp. | Cargo transporter with automatic data collection devices |
WO2007101114A2 (en) * | 2006-02-23 | 2007-09-07 | Imaginestics Llc | Method of enabling a user to draw a component part as input for searching component parts in a database |
US8352177B2 (en) | 2006-03-28 | 2013-01-08 | Panasonic Corporation | Navigation apparatus |
US8170712B2 (en) * | 2007-06-26 | 2012-05-01 | Amazon Technologies, Inc. | Method and apparatus for non-linear unit-level sortation in order fulfillment processes |
US8009864B2 (en) * | 2007-08-31 | 2011-08-30 | Accenture Global Services Limited | Determination of inventory conditions based on image processing |
US7941244B2 (en) * | 2007-09-25 | 2011-05-10 | Amazon Technologies, Inc. | Stow and sortation system |
US7594441B2 (en) * | 2007-09-27 | 2009-09-29 | Caterpillar Inc. | Automated lost load response system |
US8724909B2 (en) * | 2008-06-03 | 2014-05-13 | Kooaba Ag | Method and system for generating a pictorial reference database using geographical information |
AT509118B1 (de) * | 2008-07-16 | 2011-12-15 | Zeno Track Gmbh | Verfahren und vorrichtung zum erfassen der position eines fahrzeuges in einem definierten bereich |
KR101538775B1 (ko) * | 2008-09-12 | 2015-07-30 | 삼성전자 주식회사 | 전방 영상을 이용한 위치 인식 장치 및 방법 |
US20100091094A1 (en) * | 2008-10-14 | 2010-04-15 | Marek Sekowski | Mechanism for Directing a Three-Dimensional Camera System |
KR101072876B1 (ko) * | 2009-03-18 | 2011-10-17 | 연세대학교 산학협력단 | 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치 |
US8798786B2 (en) * | 2009-12-23 | 2014-08-05 | Amazon Technologies, Inc. | System and method for processing waste material |
AT509438A1 (de) * | 2010-01-18 | 2011-08-15 | Zeno Track Gmbh | Verfahren und system zum erfassen der position eines fahrzeuges in einem definierten bereich |
US8508590B2 (en) * | 2010-03-02 | 2013-08-13 | Crown Equipment Limited | Method and apparatus for simulating a physical environment to facilitate vehicle operation and task completion |
US9143843B2 (en) * | 2010-12-09 | 2015-09-22 | Sealed Air Corporation | Automated monitoring and control of safety in a production area |
US8855806B2 (en) * | 2010-05-26 | 2014-10-07 | Amazon Technologies, Inc. | Managing shipment release from a storage area to a packing station in a materials handling facility |
US8682474B2 (en) * | 2010-05-26 | 2014-03-25 | Amazon Technologies, Inc. | System and method for managing reassignment of units among shipments in a materials handling facility |
US9286810B2 (en) * | 2010-09-24 | 2016-03-15 | Irobot Corporation | Systems and methods for VSLAM optimization |
US20120123614A1 (en) | 2010-11-17 | 2012-05-17 | INRO Technologies Limited | Method and apparatus for virtualizing industrial vehicles to automate task execution in a physical environment |
WO2012068353A2 (en) * | 2010-11-18 | 2012-05-24 | Sky-Trax, Inc. | Load tracking utilizing load identifying indicia and spatial discrimination |
AU2012243484B2 (en) | 2011-04-11 | 2014-10-30 | Crown Equipment Corporation | Method and apparatus for efficient scheduling for multiple automated non-holonomic vehicles using a coordinated path planner |
US20140058634A1 (en) * | 2012-08-24 | 2014-02-27 | Crown Equipment Limited | Method and apparatus for using unique landmarks to locate industrial vehicles at start-up |
AU2012302046B2 (en) * | 2011-08-29 | 2015-10-08 | Crown Equipment Corporation | Multimode vehicular navigation control |
US9056754B2 (en) | 2011-09-07 | 2015-06-16 | Crown Equipment Limited | Method and apparatus for using pre-positioned objects to localize an industrial vehicle |
WO2013059142A1 (en) * | 2011-10-19 | 2013-04-25 | Crown Equipment Corporation | Evaluating features in an image possibly corresponding to an intersection of a pallet stringer and a pallet board |
US9224066B2 (en) * | 2013-03-01 | 2015-12-29 | Adobe Systems Incorporated | Object detection via validation with visual search |
US9738455B2 (en) * | 2013-06-07 | 2017-08-22 | Intelligrated Headquarters Llc | Conveyor speed control |
CN103442436B (zh) * | 2013-08-27 | 2017-06-13 | 华为技术有限公司 | 一种室内定位终端、网络、系统及其方法 |
US9354070B2 (en) | 2013-10-31 | 2016-05-31 | Crown Equipment Corporation | Systems, methods, and industrial vehicles for determining the visibility of features |
US9110464B2 (en) | 2013-11-21 | 2015-08-18 | Intelligrated Headquarters Llc | Route builder |
EP2878193A1 (en) * | 2013-11-27 | 2015-06-03 | Dansk Mink Papir A/S | Motorized feeding vehicle |
US20150250137A1 (en) * | 2013-11-27 | 2015-09-10 | Dansk Mink Papir A/S | Motorized feeding vehicle and a method of operating an animal farming system |
CN104933755B (zh) * | 2014-03-18 | 2017-11-28 | 华为技术有限公司 | 一种静态物体重建方法和系统 |
CN106461400B (zh) * | 2014-06-27 | 2019-08-16 | 克朗设备公司 | 使用关联特征对的车辆位置确定或导航 |
-
2015
- 2015-06-25 CN CN201580034506.7A patent/CN106461400B/zh active Active
- 2015-06-25 BR BR112016030104A patent/BR112016030104A2/pt not_active Application Discontinuation
- 2015-06-25 WO PCT/NZ2015/050078 patent/WO2015199553A2/en active Application Filing
- 2015-06-25 KR KR1020177002339A patent/KR101769284B1/ko active IP Right Grant
- 2015-06-25 KR KR1020177002627A patent/KR102436081B1/ko active IP Right Grant
- 2015-06-25 EP EP15762777.9A patent/EP3161572B1/en active Active
- 2015-06-25 AU AU2015280775A patent/AU2015280775B2/en active Active
- 2015-06-25 WO PCT/NZ2015/050079 patent/WO2015199554A2/en active Application Filing
- 2015-06-25 EP EP15762778.7A patent/EP3161573B1/en active Active
- 2015-06-25 CN CN201580034489.7A patent/CN106662451B/zh active Active
- 2015-06-25 AU AU2015280776A patent/AU2015280776B2/en active Active
- 2015-06-26 US US14/751,383 patent/US9349181B2/en active Active
- 2015-06-26 US US14/751,375 patent/US9984467B2/en active Active
-
2018
- 2018-04-27 US US15/964,192 patent/US10614588B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4429016A1 (de) * | 1994-08-16 | 1996-02-22 | Linde Ag | Navigation für fahrerlose Fahrzeuge |
US8467902B2 (en) * | 2007-07-18 | 2013-06-18 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating pose of mobile robot using particle filter |
CN101430207A (zh) * | 2007-11-09 | 2009-05-13 | 三星电子株式会社 | 使用结构光产生三维地图的设备和方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11815905B2 (en) | 2018-02-23 | 2023-11-14 | Crown Equipment Corporation | Systems and methods for optical target based indoor vehicle navigation |
Also Published As
Publication number | Publication date |
---|---|
EP3161572B1 (en) | 2019-01-23 |
CN106461400A (zh) | 2017-02-22 |
CN106662451A (zh) | 2017-05-10 |
AU2015280775A1 (en) | 2016-12-22 |
EP3161572A2 (en) | 2017-05-03 |
CN106662451B (zh) | 2018-04-24 |
US20180247428A1 (en) | 2018-08-30 |
US9984467B2 (en) | 2018-05-29 |
US10614588B2 (en) | 2020-04-07 |
WO2015199553A3 (en) | 2016-03-31 |
EP3161573B1 (en) | 2020-02-26 |
US20150379704A1 (en) | 2015-12-31 |
AU2015280776B2 (en) | 2019-08-22 |
BR112016030104A2 (pt) | 2017-08-22 |
AU2015280776A2 (en) | 2017-02-09 |
WO2015199554A2 (en) | 2015-12-30 |
KR20170016010A (ko) | 2017-02-10 |
WO2015199553A2 (en) | 2015-12-30 |
KR101769284B1 (ko) | 2017-08-18 |
KR20170024072A (ko) | 2017-03-06 |
US20150379715A1 (en) | 2015-12-31 |
AU2015280776A1 (en) | 2017-01-19 |
AU2015280775B2 (en) | 2017-01-05 |
KR102436081B1 (ko) | 2022-08-25 |
EP3161573A2 (en) | 2017-05-03 |
US9349181B2 (en) | 2016-05-24 |
WO2015199554A3 (en) | 2016-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106461400B (zh) | 使用关联特征对的车辆位置确定或导航 | |
CN112734852B (zh) | 一种机器人建图方法、装置及计算设备 | |
CN110462343A (zh) | 基于地图的用于车辆的自动图像标记 | |
CN112102646B (zh) | 一种泊车定位中的停车场入口定位方法、装置及车载终端 | |
AU2017302833B2 (en) | Database construction system for machine-learning | |
CN108318043A (zh) | 用于更新电子地图的方法、装置和计算机可读存储介质 | |
KR20190132404A (ko) | 신경망 이미지 프로세싱을 사용하는 3d 경계 박스들로서의 직접 차량 검출 | |
CN105608693A (zh) | 车载全景环视的标定系统及方法 | |
CN109849907A (zh) | 用于保持车道的方法和设备以及车道引导设备 | |
CN103716687A (zh) | 使用指纹以在视频中追踪移动对象的系统和方法 | |
CN110587597A (zh) | 一种基于激光雷达的slam闭环检测方法及检测系统 | |
CN113469045B (zh) | 无人集卡的视觉定位方法、系统、电子设备和存储介质 | |
CN114419590A (zh) | 高精地图的验证方法、装置、设备以及存储介质 | |
CN112446842B (zh) | 基于稀疏和稠密深度图图像重建方法、系统、设备及介质 | |
US20160205395A1 (en) | Method for detecting errors for at least one image processing system | |
US20230256613A1 (en) | System and method for automatically correcting orientation of mobile robot | |
EP4332895A1 (en) | Object tracking device and object tracking method | |
EP4332896A1 (en) | Object tracking device | |
US20160205396A1 (en) | Method for error detection for at least one image processing system | |
Salimzadeh | Visual State Estimation for Autonomous Navigation | |
Marques | 3DRegistration and Mapping of Forest Environments | |
CN117606500A (zh) | 减速带检测方法、通过方法、网络训练方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |