CN115366097A - 机器人跟随方法、装置、机器人及计算机可读存储介质 - Google Patents
机器人跟随方法、装置、机器人及计算机可读存储介质 Download PDFInfo
- Publication number
- CN115366097A CN115366097A CN202210893035.7A CN202210893035A CN115366097A CN 115366097 A CN115366097 A CN 115366097A CN 202210893035 A CN202210893035 A CN 202210893035A CN 115366097 A CN115366097 A CN 115366097A
- Authority
- CN
- China
- Prior art keywords
- robot
- position information
- uwb module
- target
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 88
- 230000033001 locomotion Effects 0.000 claims abstract description 115
- 230000008569 process Effects 0.000 claims description 25
- 230000004044 response Effects 0.000 claims description 25
- 230000000007 visual effect Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 15
- 238000004422 calculation algorithm Methods 0.000 claims description 14
- 238000006073 displacement reaction Methods 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Robotics (AREA)
- Computer Graphics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及人工智能领域,揭露一种机器人跟随方法、装置、机器人及存储介质,所述方法包括:构建目标环境的初始三维点云地图;当接收到机器人跟随指令时,对所述目标环境进行录影,得到运动录像;根据所述运动录像,计算出所述机器人任意相邻两帧图像时间内的运动轨迹;根据所述运动轨迹,确定所述机器人中UWB模块的空间位置信息;利用TOF测距法计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离;根据所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息;根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径。本发明可以提高机器人跟随的精准度。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种机器人跟随方法、装置、机器人及可读存储介质。
背景技术
机器人跟随指的是跟随机器人通过定位系统保持在用户的一定范围内的过程,例如,遛狗机器人等。
目前常见的机器人跟随方法多为GPS定位导航、蓝牙引导导航、激光引导导航及超声波引导导航,其中,GPS定位导航因信号的局限性,只适用于室外,室内精度不高;蓝牙引导导航处于2.4G这个被占用较多的波段,容易受到手机信号、WiFi、无线鼠标等常见的无线设备的干扰,导致测得的距离偏大、精度不高;激光引导导航及超声波引导导航在人多的场所很难实现单一目标的跟随,从而导致精度不高。
发明内容
本发明提供一种机器人跟随方法、装置、机器人及可读存储介质,其目的在于提高机器人跟随过程中的精准度。
为实现上述目的,本发明提供的一种机器人跟随方法,所述方法包括:
获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图;
当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像;
根据所述运动录像中每一帧图像的图像信息,从所述角点中筛选出目标角点,并根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹;
根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息;
在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离;
根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息;
根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径。
可选地,所述根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹,包括:
将所述运动录像中任意相邻的两帧图像中目标角点进行匹配,得到匹配结果;
根据所述匹配结果,利用对极几何公式计算所述任意相邻的两帧图像之间的旋转向量及位移矢量;
利用最小二乘法,对所述旋转向量及所述位移矢量进行非线性优化,得到目标旋转向量及目标位移矢量;
根据所述目标旋转向量及所述目标位移矢量,将所述任意相邻的两帧图像进行拼接,得到所述机器人的运动轨迹。
可选地,所述利用角点算法,计算出所述图像信息中的角点,包括:
获取所述图像信息中的像素信息,得到像素图像;
选取所述像素图像中任意一点像素点为圆心,预设长度为半径画圆,得到目标圆;
判断所述目标圆上是否存在第一预设个数连续的对比像素点;
当所述目标圆上不存在第一预设个数连续的对比像素点时,判定所述像素点不是角点;
当所述目标圆上存在第一预设个数连续的对比像素点时,计算所述对比像素点的亮度值与所述像素点的亮度值的差值;
判断所述差值中是否存在第二预设个数的差值大于或小于预设阈值;
当所述差值中不存在第二预设个数的差值大于或小于预设阈值时,判定所述像素点不是角点;
当所述差值中存在第二预设个数的差值大于或小于预设阈值时,判定所述像素点是角点。
可选地,所述根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图,包括:
对所述图像信息进行滤波处理,得到去噪图像信息;
对所述去噪图像信息进行去畸变处理,得到目标图像信息;
根据所述角点,对所述目标图像信息进行角点匹配,得到匹配结果;
根据所述匹配结果,对所述目标图片信息进行拼接,得到初始三维点云地图。
可选地,所述根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息,包括:
获取所述机器人的运动速度及相邻两帧之间的时间间隔;
根据所述运动轨迹、所述运动速度及所述时间间隔,计算出相邻两帧的时间间隔内所述机器人的运动距离;
根据所述机器人中UWB模块的初始位置信息及所述相邻两帧图像的时间间隔内所述机器人的运动距离,按照时间顺序依次计算出所述机器人在每一帧时间节点的空间位置信息。
可选地,所述根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息,包括:
将所述空间位置信息集中任意一帧中所述机器人中任意一块UWB模块的空间位置信息作为原点,构建空间坐标系并获取所述原点的原点坐标;
获取所述空间坐标系中所述任意一帧中所述机器人中其余UWB模块的余空间位置信息,及所述任意一帧的相邻帧中所述机器人中所有UWB模块的相邻空间位置信息;
根据所述余空间位置信息及所述相邻空间位置信息与所述空间坐标系中原点的空间对应关系,计算出所述任意一帧中所述机器人中其余UWB模块,及所述任意一帧的相邻帧中所述机器人中所有UWB模块在所述空间坐标系中的对照坐标;
根据所述原点坐标、所述对照坐标及每个坐标对应的UWB模块与用户手柄中UWB模块的距离,构建球面,将所有球面都经过的点的坐标作为所述用户手柄中UWB模块的手柄坐标;
根据所述手柄坐标与所述原点坐标的对应关系,计算出所述用户手柄中UWB模块的空间位置信息。
可选地,所述根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,包括:
利用下述测距公式计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离Z:
Z=X*(A-B)
其中,X是所述机器人或所述用户手柄发射的电磁波信号的速度;A是所述机器人中UWB模块或所述用户手柄中UWB模块的信号接收时间;B是所述机器人中UWB模块或所述用户手柄中UWB模块的信号响应时间。
为了解决上述问题,本发明还提供一种机器人跟随装置,所述装置包括:
三维地图构建模块,用于获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图;
用户手柄定位模块,用于当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像,根据所述运动录像中每一帧图像的图像信息,从所述角点中筛选出目标角点,并根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹,根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息,在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中U;
跟随路径生成模块,用于根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径。
为了解决上述问题,本发明还提供一种机器人,所述机器人包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的机器人跟随方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被机器人中的处理器执行以实现上述所述的机器人跟随方法。
本发明实施例通过获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图,提供所述机器人完整的目标环境地图,从而帮助机器人在导航行进过程中进行避障操作,保障了所述机器人跟随时的安全性,其次,当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像,根据所述运动录像,测算出所述机器人的运动轨迹,并根据所述运动轨迹,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息,提高了机器人定位的精准度,保证了所述机器人在跟随任务钟能够精准避障以及精准定位,进一步地,在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,判断所述机器人是否处于机器人跟随任务中的限制范围内,从而确保所述机器人能够顺利完成机器人跟随任务,除此之外,通过计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,还提高了机器人跟随时的精准度,最后,根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息,从而提高所述机器人中UWB模块与所述用户手柄中UWB模块的距离的精准度,便于机器人搜寻用户手柄的位置,从而在目标环境中进行跟随任务,进一步地,根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径,从而完成机器人跟随任务,确保所述机器人能够实现避障及精准定位,从而提高机器人跟随的精准度。因此,本发明提供的一种机器人跟随方法、装置、设备及存储介质,能够提高机器人跟随的精准度。
附图说明
图1为本发明一实施例提供的机器人跟随方法的流程示意图;
图2及图3为本发明一实施例提供的机器人跟随方法的中其中一个步骤的详细实施流程图;
图4为本发明一实施例提供的机器人跟随装置的模块示意图;
图5为本发明一实施例提供的实现机器人跟随方法的机器人的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种机器人跟随方法。所述机器人跟随方法的执行主体主要为智能机器人。换言之,所述机器人跟随方法可以由安装在智能机器人中的软件或硬件来执行
参照图1所示的本发明一实施例提供的机器人跟随方法的流程示意图,在本发明实施例中,所述机器人跟随方法包括以下步骤:
S1、获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图。
本发明实施例中,所述目标环境可以是所述机器人的工作环境,即所述机器人跟随用户手柄进行导航的环境。所述图像信息可以是所述机器人拍摄的所述目标环境的照片,也可以是提前拍摄并存储到预设数据库中的照片。所述UWB模块可以是采用无线载波完成通信的模块。所述初始位置信息可以是所述机器人中UWB模块在所述目标环境中的起始位置。所述角点的定义可以是某个像素点和它周围领域足够多的像素点处于不同区域,那么这个像素点称之为角点。
本发明可选实施例中,由于单目摄像头拍摄的图像是二维的,无法得到目标环境的深度信息,因此,可以通过机器人自带的双目摄像头对所述目标环境进行摄像,从而得到目标环境的图像信息,进一步地,对摄像过程中所获得的图像进行融合,可以直接计算出物体深度值,从而获取目标环境的三维信息及机器人中UWB模块的初始位置信息,提高了目标环境采集的精准度。
本发明实施例利用角点算法,计算出所述图像信息中的角点,从而计算出机器人运动轨迹及目标环境中每一个角点的位置所在,确保三维点云地图的顺利构建,提高了三维点云地图的精准度。
进一步地,作为本发明一可选实施例,参考图2所示,所述利用角点算法,计算出所述图像信息中的角点,包括:
S11、获取所述图像信息中的像素信息,得到像素图像;
S12、选取所述像素图像中任意一点像素点为圆心,预设长度为半径画圆,得到目标圆;
S13、判断所述目标圆上是否存在第一预设个数连续的对比像素点;
当所述目标圆上不存在第一预设个数连续的对比像素点时,S14判定所述像素点不是角点;
S15、当所述目标圆上存在第一预设个数连续的对比像素点时,计算所述对比像素点的亮度值与所述像素点的亮度值的差值;
S16、判断所述差值中是否存在第二预设个数的差值大于或小于预设阈值;
当所述差值中不存在第二预设个数的差值大于或小于预设阈值时,执行S14判定所述像素点不是角点;
S17、当所述差值中存在第二预设个数的差值大于或小于预设阈值时,判定所述像素点是角点。
本发明实施例中,所述对比像素点为所述目标圆的边所覆盖的像素点。
本发明实施例中,所述像素信息包含图像中每个像素点的像素值及亮度值。所述预设长度一般为与圆心的像素点间隔两个像素点的长度。
本发明可选实施例中,首先任意选取图像信息中的一个像素点,并判断是否能以所述像素点为圆心,预设长度为半径构成一个目标圆,当所述目标圆存在时,计算所述目标圆上每个像素点的亮度值与所述像素点的亮度值的差值,进一步地,判断所述差值中是否存在预设个数的差值大于或小于预设阈值,例如,若目标圆上有16个像素点,其中有12个像素点的亮度值与圆心像素点的亮度值的差值大于或小于预设阈值,则判定所述像素点是角点。
本发明实施例根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图,提供所述机器人完整的目标环境地图,从而帮助所述机器人在导航行进过程中进行避障操作,保障了所述机器人跟随手柄运动时的安全性。
进一步地,作为本发明一可选实施例,所述根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图,包括:
对所述图像信息进行滤波处理,得到去噪图像信息;
对所述去噪图像信息进行去畸变处理,得到目标图像信息;
根据所述角点,对所述目标图像信息进行角点匹配,得到匹配结果;
根据所述匹配结果,对所述目标图片信息进行拼接,得到初始三维点云地图。
本发明实施例中,所述滤波处理可以是中值滤波或高斯滤波等滤波技术。所述去畸变处理可以是去除所述去噪图像信息中的枕形畸变或桶形畸变。
本发明可选实施例中,在对所述目标图像信息进行角点匹配时,容易出现匹配错误的情况,从而造成图片拼接错误,导致初始三维点云地图不够精确,因此,在角点匹配过程中,可以通过计算角点描述子的汉明距离,从而将差距较大的角点去掉,得到匹配结果。
进一步地,本发明另一可选实施例中,根据匹配结果,利用几何计算公式,计算出任意相邻两幅目标图像信息之间的旋转矩阵和位移矢量以及所述目标图像信息中各像素点的位深之后,构建PointCloud,进一步地,通过预设的PCL点云库及所述PointCloud,将所述目标图片信息拼接为初始三维点云地图。
S2、当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像。
本发明实施例中,所述机器人跟随指令可以是人为输入的程序指令也可以是预先设置好的在一定条件下触发的指令。所述相机模块包含所述机器人自带的双目摄像头及传感器。
本发明可选实施例中,在以下两种情况中,机器人会接收到机器人跟随指令,其一为当所述机器人与用户手柄的距离超过最大的限制距离时,所述机器人自启动所述机器人跟随指令,实现机器人跟随;其二为所述用户向所述机器人传送跟随命令时,所述机器人接收所述机器人跟随指令,实现机器人跟随。
进一步地,作为本发明另一可选实施例,当所述机器人接收到机器人跟随指令时,即会自动启动双目摄像头对目标环境进行录影,并将所述录影的结果输入传感器形成运动录像数据,从而使得所述机器人中的视觉里程计模块能够读取所述运动录像,并根据所述运动录像计算出所述机器人的运动轨迹。
S3、根据所述运动录像中每一帧图像的图像信息,从所述角点中筛选出目标角点,并根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹。
本发明实施例中,所述运动录像可以是由多帧图像构成。所述任意相邻的两帧图像可以是所述运动录像中第一帧图像与第二帧图像,也可以是第二帧图像与第三帧图像,以此类推。
本发明可选实施例中,通过将运动录像中每一帧图像的图像信息与初始三维点云地图的图像信息进行对比,从而确定所述运动录像中每一帧图像所包含的角点,进而从上述构建初始三维点云地图过程中所存储的角点参数中筛选出符合所述运动录像中每一帧图像的图像信息的目标角点。
本发明实施例根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹,确保所述机器人在完成机器人跟随指令过程中处于行进正常,从而保证机器人跟随任务的顺利完成。
进一步地,作为本发明一可选实施例,参考图3所示,所述根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹,包括:
S31、将所述运动录像中任意相邻的两帧图像中目标角点进行匹配,得到匹配结果;
S32、根据所述匹配结果,利用对极几何公式计算所述任意相邻的两帧图像之间的旋转向量及位移矢量;
S33、利用最小二乘法,对所述旋转向量及所述位移矢量进行非线性优化,得到目标旋转向量及目标位移矢量;
S34、根据所述目标旋转向量及所述目标位移矢量,将所述任意相邻的两帧图像进行拼接,得到所述机器人的运动轨迹。
本发明实施例中,所述最小二乘法可以是高斯牛顿法、列文伯格-马夸尔特法等计算方法中其中任何一种。
进一步地,本发明可选实施例中,所述运动轨迹的生成原理与所述利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图类似,故此不赘述。
S4、根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息。
本发明实施例中,所述每一帧时间节点可以是每一帧图像所自带的时间戳。
本发明实施例根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息,对所述机器人的运动轨迹进行整体细分,从而提高了机器人定位的精准度,保证了所述机器人在跟随任务钟能够精准避障以及精准定位。
进一步地,作为本发明一可选实施例,所述根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息,包括:
获取所述机器人的运动速度及相邻两帧之间的时间间隔;
根据所述运动轨迹、所述运动速度及所述时间间隔,计算出相邻两帧的时间间隔内所述机器人的运动距离;
根据所述机器人中UWB模块的初始位置信息及所述相邻两帧图像的时间间隔内所述机器人的运动距离,按照时间顺序依次计算出所述机器人在每一帧时间节点的空间位置信息。
本发明可选实施例中,可以通过测速工具测算所述机器人的运动速度,进一步地,通过查看所述运动录像的每一帧图像的时间戳信息,确定所述运动录像中相邻两帧之间的时间间隔,进一步地,根据所述运动轨迹、所述运动速度及所述时间间隔,利用路程计算公式计算出相邻两帧的时间间隔内所述机器人的运动距离,从而确定所述机器人的位移距离,最后根据所述机器人中UWB模块的初始位置信息,计算出机器人在每一帧时间节点的空间位置信息,提高了机器人定位的精准度。
S5、在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离。
本发明实施例中,所述预设时间段可以是人为设定的时间段,一般为整个录像过程。所述预设时间间隔可以是人为规定的时间段,为方便计算,一般取所述运动录像中相邻两帧的时间间隔。
本发明实施例中,所述机器人与所述用户手柄一般均包含两个或两个以上的UWB模块,以确保能够准确定位三维空间中用户手柄的空间位置信息。
本发明实施例通过获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,判断所述机器人是否处于机器人跟随任务中的限制范围内,从而确保所述机器人能够顺利完成机器人跟随任务,除此之外,通过计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,还提高了机器人跟随时的精准度。
进一步地,作为本发明一可选实施例,所述根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,包括:
利用下述测距公式计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离Z:
Z=X*(A-B)
其中,X是所述机器人或所述用户手柄发射的电磁波信号的速度,一般为3×108m/s;A是所述机器人中UWB模块或所述用户手柄中UWB模块的信号接收时间;B是所述机器人中UWB模块或所述用户手柄中UWB模块的信号响应时间。
本发明可选实施例,可以利用TOF测距法,计算出运动录像中每一帧时间节点中机器人中UWB模块与用户手柄中UWB模块的距离,进一步地,为减小时间误差,可以采用TOF测距法中的双边双向测距法。
S6、根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息。
本发明实施例中,所述三角定位法可以是利用2台或者2台以上的探测器在不同位置探测目标方位,然后运用三角几何原理确定目标的位置和距离的一种数学方法。
本发明实施例根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息,从而提高所述机器人中UWB模块与所述用户手柄中UWB模块的距离的精准度,便于机器人搜寻用户手柄的位置,从而在目标环境中进行跟随任务。
进一步地,作为本发明一可选实施例,所述根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息,包括:
将所述空间位置信息集中任意一帧中所述机器人中任意一块UWB模块的空间位置信息作为原点,构建空间坐标系并获取所述原点的原点坐标;
获取所述空间坐标系中所述任意一帧中所述机器人中其余UWB模块的余空间位置信息,及所述任意一帧的相邻帧中所述机器人中所有UWB模块的相邻空间位置信息;
根据所述余空间位置信息及所述相邻空间位置信息与所述空间坐标系中原点的空间对应关系,计算出所述任意一帧中所述机器人中其余UWB模块,及所述任意一帧的相邻帧中所述机器人中所有UWB模块在所述空间坐标系中的对照坐标;
根据所述原点坐标、所述对照坐标及每个坐标对应的UWB模块与用户手柄中UWB模块的距离,构建球面,将所有球面都经过的点的坐标作为所述用户手柄中UWB模块的手柄坐标;
根据所述手柄坐标与所述原点坐标的对应关系,计算出所述用户手柄中UWB模块的空间位置信息。
本发明可选实施例中,由于在三维空间中利用三角定位法进行定位需要四个或四个以上的球面才能实现,因此所述机器人中的UWB模块至少有两个,从而提高用户手柄中UWB模块的空间位置信息的精准度,提高了机器人跟随的精准度。
S7、根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径。
本发明可选实施例中,为提供机器人避障功能,因此,在进行机器人跟随任务时,需要在所述初始三维点云地图中规划跟随路径,从而保证机器人的安全及跟随时定位的精准度。
进一步地,本发明一可选实施例中,所述用户手柄可以是移动的,当所述用户手柄的空间位置信息发生变化时,所述机器人会根据所述初始三维点云地图及最新的用户手柄中UWB模块的空间位置信息,生成新的跟随路径,从而保证机器人能够顺利完成机器人跟随任务。
本发明实施例通过获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图,提供所述机器人完整的目标环境地图,从而帮助机器人在导航行进过程中进行避障操作,保障了所述机器人跟随时的安全性,其次,当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像,根据所述运动录像,测算出所述机器人的运动轨迹,并根据所述运动轨迹,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息,提高了机器人定位的精准度,保证了所述机器人在跟随任务钟能够精准避障以及精准定位,进一步地,在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,判断所述机器人是否处于机器人跟随任务中的限制范围内,从而确保所述机器人能够顺利完成机器人跟随任务,除此之外,通过计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,还提高了机器人跟随时的精准度,最后,根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息,从而提高所述机器人中UWB模块与所述用户手柄中UWB模块的距离的精准度,便于机器人搜寻用户手柄的位置,从而在目标环境中进行跟随任务,进一步地,根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径,从而完成机器人跟随任务,确保所述机器人能够实现避障及精准定位,从而提高机器人跟随的精准度。因此,本发明提供的机器人跟随方法能够提高机器人跟随的精准度。
如图4所示,是本发明机器人跟随装置的功能模块图。
本发明所述机器人跟随装置100可以安装于机器人中。根据实现的功能,所述机器人跟随装置100可以包括三维地图构建模块101、用户手柄定位模块102及跟随路径生成模块103,本发明所述模块也可以称之为单元,是指一种能够被机器人处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在机器人的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述三维地图构建模块101用于获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图。
所述用户手柄定位模块102用于当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像,根据所述运动录像中每一帧图像的图像信息,从所述角点中筛选出目标角点,并根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹,根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息,在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息。
所述跟随路径生成模块103用于根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径。
详细地,本发明实施例中所述机器人跟随装置100中所述的各模块在使用时采用与上述图1至图3中所述的机器人跟随方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明实现机器人跟随方法的机器人的结构示意图。
所述机器人可以包括处理器10、存储器11、通信总线12和通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如机器人跟随程序。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是机器人的内部存储单元,例如该机器人的移动硬盘。所述存储器11在另一些实施例中也可以是机器人的外部存储设备,例如机器人上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括机器人的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于机器人的应用软件及各类数据,例如机器人跟随程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述机器人的控制核心(Control Unit),利用各种接口和线路连接整个机器人的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如机器人跟随程序等),以及调用存储在所述存储器11内的数据,以执行机器人的各种功能和处理数据。
所述通信总线12可以是外设部件互连标准(PerIPheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述通信总线12总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
图5仅示出了具有部件的机器人,本领域技术人员可以理解的是,图5示出的结构并不构成对所述机器人的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述机器人还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述机器人还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
可选地,所述通信接口13可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该机器人与其他机器人之间建立通信连接。
可选地,所述通信接口13还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在机器人中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述机器人中的所述存储器11存储的机器人跟随程序是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图;
当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像;
根据所述运动录像中每一帧图像的图像信息,从所述角点中筛选出目标角点,并根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹;
根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息;
在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离;
根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息;
根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径。
具体地,所述处理器10对上述计算机程序的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述机器人中集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以是非易失性的,也可以是易失性的。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明实施例还可以提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被机器人的处理器所执行时,可以实现:
获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图;
当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像;
根据所述运动录像中每一帧图像的图像信息,从所述角点中筛选出目标角点,并根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹;
根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息;
在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离;
根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息;
根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的机器人,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种机器人跟随方法,其特征在于,所述方法包括:
获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图;
当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像;
根据所述运动录像中每一帧图像的图像信息,从所述角点中筛选出目标角点,并根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹;
根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息;
在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离;
根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息;
根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径。
2.如权利要求1所述的机器人跟随方法,其特征在于,所述根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹,包括:
将所述运动录像中任意相邻的两帧图像中目标角点进行匹配,得到匹配结果;
根据所述匹配结果,利用对极几何公式计算所述任意相邻的两帧图像之间的旋转向量及位移矢量;
利用最小二乘法,对所述旋转向量及所述位移矢量进行非线性优化,得到目标旋转向量及目标位移矢量;
根据所述目标旋转向量及所述目标位移矢量,将所述任意相邻的两帧图像进行拼接,得到所述机器人的运动轨迹。
3.如权利要求1所述的机器人跟随方法,其特征在于,所述利用角点算法,计算出所述图像信息中的角点,包括:
获取所述图像信息中的像素信息,得到像素图像;
选取所述像素图像中任意一点像素点为圆心,预设长度为半径画圆,得到目标圆;
判断所述目标圆上是否存在第一预设个数连续的对比像素点;
当所述目标圆上不存在第一预设个数连续的对比像素点时,判定所述像素点不是角点;
当所述目标圆上存在第一预设个数连续的对比像素点时,计算所述对比像素点的亮度值与所述像素点的亮度值的差值;
判断所述差值中是否存在第二预设个数的差值大于或小于预设阈值;
当所述差值中不存在第二预设个数的差值大于或小于预设阈值时,判定所述像素点不是角点;
当所述差值中存在第二预设个数的差值大于或小于预设阈值时,判定所述像素点是角点。
4.如权利要求1所述的机器人跟随方法,其特征在于,所述根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图,包括:
对所述图像信息进行滤波处理,得到去噪图像信息;
对所述去噪图像信息进行去畸变处理,得到目标图像信息;
根据所述角点,对所述目标图像信息进行角点匹配,得到匹配结果;
根据所述匹配结果,对所述目标图片信息进行拼接,得到初始三维点云地图。
5.如权利要求1所述的机器人跟随方法,其特征在于,所述根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息,包括:
获取所述机器人的运动速度及相邻两帧之间的时间间隔;
根据所述运动轨迹、所述运动速度及所述时间间隔,计算出相邻两帧的时间间隔内所述机器人的运动距离;
根据所述机器人中UWB模块的初始位置信息及所述相邻两帧图像的时间间隔内所述机器人的运动距离,按照时间顺序依次计算出所述机器人在每一帧时间节点的空间位置信息。
6.如权利要求1所述的机器人跟随方法,其特征在于,所述根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息,包括:
将所述空间位置信息集中任意一帧中所述机器人中任意一块UWB模块的空间位置信息作为原点,构建空间坐标系并获取所述原点的原点坐标;
获取所述空间坐标系中所述任意一帧中所述机器人中其余UWB模块的余空间位置信息,及所述任意一帧的相邻帧中所述机器人中所有UWB模块的相邻空间位置信息;
根据所述余空间位置信息及所述相邻空间位置信息与所述空间坐标系中原点的空间对应关系,计算出所述任意一帧中所述机器人中其余UWB模块,及所述任意一帧的相邻帧中所述机器人中所有UWB模块在所述空间坐标系中的对照坐标;
根据所述原点坐标、所述对照坐标及每个坐标对应所述机器人中的UWB模块与用户手柄中UWB模块的距离,构建球面,将所有球面都经过的点的坐标作为所述用户手柄中UWB模块的手柄坐标;
根据所述手柄坐标与所述原点坐标的对应关系,计算出所述用户手柄中UWB模块的空间位置信息。
7.如权利要求1所述的机器人跟随方法,其特征在于,所述根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,包括:
利用下述测距公式计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离Z:
Z=X*(A-B)
其中,X是所述机器人或所述用户手柄发射的电磁波信号的速度;A是所述机器人中UWB模块或所述用户手柄中UWB模块的信号接收时间;B是所述机器人中UWB模块或所述用户手柄中UWB模块的信号响应时间。
8.一种机器人跟随装置,其特征在于,所述装置包括:
三维地图构建模块,用于获取目标环境的图像信息及机器人中UWB模块的初始位置信息,利用角点算法,计算出所述图像信息中的角点,并根据所述图像信息及所述角点,利用视觉即时定位与建图技术构建所述目标环境的初始三维点云地图;
用户手柄定位模块,用于当接收到机器人跟随指令时,利用所述机器人中的相机模块对所述目标环境进行录影,得到运动录像,根据所述运动录像中每一帧图像的图像信息,从所述角点中筛选出目标角点,并根据所述运动录像中任意相邻的两帧图像中的目标角点,计算出所述机器人任意相邻两帧图像时间内的运动轨迹,根据所述运动轨迹及所述初始位置信息,确定所述机器人中UWB模块在录影过程中每一帧时间节点所在的空间位置信息,在预设时间段内按照预设时间间隔,获取所述运动录像的所有相邻帧的所述机器人中UWB模块空间位置信息,构成第一空间位置信息集,并获取所述机器人中UWB模块及用户手柄中UWB模块的信号接收时间及信号响应时间,根据所述信号接收时间及所述信号响应时间,计算所述机器人中UWB模块与所述用户手柄中UWB模块的距离,根据所述空间位置信息集及所述距离,利用三角定位法计算所述用户手柄中UWB模块的空间位置信息;
跟随路径生成模块,用于根据所述初始三维点云地图及所述用户手柄中UWB模块的空间位置信息,生成所述机器人的跟随路径。
9.一种机器人,其特征在于,所述机器人包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的机器人跟随方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的机器人跟随方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210893035.7A CN115366097A (zh) | 2022-07-27 | 2022-07-27 | 机器人跟随方法、装置、机器人及计算机可读存储介质 |
PCT/CN2022/128354 WO2024021340A1 (zh) | 2022-07-27 | 2022-10-28 | 机器人跟随方法、装置、机器人及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210893035.7A CN115366097A (zh) | 2022-07-27 | 2022-07-27 | 机器人跟随方法、装置、机器人及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115366097A true CN115366097A (zh) | 2022-11-22 |
Family
ID=84064658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210893035.7A Pending CN115366097A (zh) | 2022-07-27 | 2022-07-27 | 机器人跟随方法、装置、机器人及计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115366097A (zh) |
WO (1) | WO2024021340A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118283533A (zh) * | 2024-03-20 | 2024-07-02 | 武汉星巡智能科技有限公司 | 结合uwb定位和视觉的宠物跟踪方法、装置、设备及介质 |
CN118492644A (zh) * | 2024-05-11 | 2024-08-16 | 深圳市青虹激光科技有限公司 | 一种激光划线轨迹跟随控制方法和装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118528269A (zh) * | 2024-06-14 | 2024-08-23 | 北京积加科技有限公司 | 机器装置控制方法、装置、电子设备和计算机可读介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101907548B1 (ko) * | 2016-12-23 | 2018-10-12 | 한국과학기술연구원 | 휴먼 추종을 위한 이동로봇의 주행 및 탐색방법 |
CN109682388B (zh) * | 2018-12-21 | 2020-12-25 | 北京智行者科技有限公司 | 跟随路径的确定方法 |
CN111198496A (zh) * | 2020-01-03 | 2020-05-26 | 浙江大学 | 一种目标跟随机器人及跟随方法 |
US12115672B2 (en) * | 2020-12-22 | 2024-10-15 | Intrinsic Innovation Llc | Robot planning |
CN113910224B (zh) * | 2021-09-30 | 2023-07-21 | 达闼科技(北京)有限公司 | 机器人跟随的方法、装置及电子设备 |
CN114326732B (zh) * | 2021-12-28 | 2024-09-06 | 无锡笠泽智能科技有限公司 | 一种机器人自主跟随系统及自主跟随控制方法 |
-
2022
- 2022-07-27 CN CN202210893035.7A patent/CN115366097A/zh active Pending
- 2022-10-28 WO PCT/CN2022/128354 patent/WO2024021340A1/zh unknown
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118283533A (zh) * | 2024-03-20 | 2024-07-02 | 武汉星巡智能科技有限公司 | 结合uwb定位和视觉的宠物跟踪方法、装置、设备及介质 |
CN118492644A (zh) * | 2024-05-11 | 2024-08-16 | 深圳市青虹激光科技有限公司 | 一种激光划线轨迹跟随控制方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2024021340A1 (zh) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109506642B (zh) | 一种机器人多相机视觉惯性实时定位方法及装置 | |
CN115366097A (zh) | 机器人跟随方法、装置、机器人及计算机可读存储介质 | |
CN112652016B (zh) | 点云预测模型的生成方法、位姿估计方法及其装置 | |
US10086955B2 (en) | Pattern-based camera pose estimation system | |
WO2022052660A1 (zh) | 仓储机器人定位与地图构建方法、机器人及存储介质 | |
CN112258567A (zh) | 物体抓取点的视觉定位方法、装置、存储介质及电子设备 | |
CN108810473B (zh) | 一种在移动平台上实现gps映射摄像机画面坐标的方法及系统 | |
CN108829116B (zh) | 基于单目摄像头的避障方法及设备 | |
US20170116776A1 (en) | Structure-based camera pose estimation system | |
US9858669B2 (en) | Optimized camera pose estimation system | |
CN110597265A (zh) | 一种扫地机器人回充方法和装置 | |
CN110058591A (zh) | 一种基于激光雷达与深度摄像机混合导航的agv系统 | |
CN115205128A (zh) | 基于结构光的深度相机温漂校正方法、系统、设备及介质 | |
CN112967340A (zh) | 同时定位和地图构建方法、装置、电子设备及存储介质 | |
CN111353453A (zh) | 用于车辆的障碍物检测方法和装置 | |
US12047674B2 (en) | System for generating a three-dimensional scene of a physical environment | |
JP2017004228A (ja) | 軌跡推定方法、軌跡推定装置及び軌跡推定プログラム | |
CN112017202B (zh) | 点云标注方法、装置及系统 | |
EP4332631A1 (en) | Global optimization methods for mobile coordinate scanners | |
CN115019167B (zh) | 基于移动终端的融合定位方法、系统、设备及存储介质 | |
CN111583338A (zh) | 用于无人设备的定位方法、装置、介质及无人设备 | |
CN110853098A (zh) | 机器人定位方法、装置、设备及存储介质 | |
US9824455B1 (en) | Detecting foreground regions in video frames | |
US9842402B1 (en) | Detecting foreground regions in panoramic video frames | |
CN113513983A (zh) | 一种精度检测方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |