CN118115716A - 一种融合视觉和ar技术的高精度定位方法 - Google Patents
一种融合视觉和ar技术的高精度定位方法 Download PDFInfo
- Publication number
- CN118115716A CN118115716A CN202410248415.4A CN202410248415A CN118115716A CN 118115716 A CN118115716 A CN 118115716A CN 202410248415 A CN202410248415 A CN 202410248415A CN 118115716 A CN118115716 A CN 118115716A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- information
- entity
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000005516 engineering process Methods 0.000 title claims abstract description 41
- 238000002372 labelling Methods 0.000 claims abstract description 42
- 230000000007 visual effect Effects 0.000 claims abstract description 39
- 230000004927 fusion Effects 0.000 claims abstract description 31
- 230000011218 segmentation Effects 0.000 claims abstract description 28
- 238000013507 mapping Methods 0.000 claims abstract description 21
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 230000015654 memory Effects 0.000 claims description 45
- 230000033001 locomotion Effects 0.000 claims description 44
- 230000009467 reduction Effects 0.000 claims description 29
- 238000004590 computer program Methods 0.000 claims description 14
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000000354 decomposition reaction Methods 0.000 claims description 8
- 238000005259 measurement Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 8
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融合视觉和AR技术的高精度定位方法,涉及智能定位技术领域,所述方法包括:对目标对象捕捉图像信息进行语义分割标签化,获取目标图像标签化实体集合,再基于ORB检测器对目标图像标签化实体集合进行遍历特征点提取,得到目标图像实体特征点集合,利用AR技术将目标图像实体特征点集合进行视觉虚拟融合,生成目标对象增强场景信息,交互获取目标图像标签化实体集合的基准定位信息,基于目标对象增强场景信息对基准定位信息进行空间关系映射,确定目标对象位置信息进行可视化展示。达到利用融合视觉和AR技术实现智能化高精度定位,减少使用环境精度影响,提高定位场景适用性,进而确保定位精确稳定性的技术效果。
Description
技术领域
本发明涉及智能定位技术领域,尤其涉及一种融合视觉和AR技术的高精度定位方法。
背景技术
随着科技的进步,定位技术在工业领域、智慧交通、商场安防等各种应用场景中发挥着越来越重要的作用,其中,视觉定位是根据图像耦合GPS数据确定设备位置的定位技术,利用拍摄的一系列具有已知位置的图像进行定位。然而,传统视觉定位方法往往存在精度不高、受环境影响较大的问题。
发明内容
本申请通过提供一种融合视觉和AR技术的高精度定位方法,解决了现有技术视觉定位精度不高且受环境影响较大的技术问题,达到利用融合视觉和AR技术实现智能化高精度定位,减少使用环境精度影响,提高定位场景适用性,进而确保定位精确稳定性的技术效果。
鉴于上述问题,本发明提供了一种融合视觉和AR技术的高精度定位方法。
第一方面,本申请提供了一种融合视觉和AR技术的高精度定位方法,所述方法包括:S1:通过视觉传感器对目标对象进行图像捕捉,获取目标对象捕捉图像信息,对所述目标对象捕捉图像信息进行数据预处理、语义分割标签化,标记获取目标图像标签化实体集合;S2:初始化ORB检测器,基于ORB检测器对所述目标图像标签化实体集合中的各图像实体依次进行遍历特征点提取,得到目标图像实体特征点集合;S3:利用AR技术将所述目标图像实体特征点集合进行特征点描述、视觉虚拟融合,生成目标对象增强场景信息;S4:交互获取所述目标图像标签化实体集合的基准定位信息,基于所述目标对象增强场景信息对所述基准定位信息进行空间关系映射,确定目标对象位置信息进行可视化展示。
另一方面,本申请还提供了一种融合视觉和AR技术的高精度定位系统,所述系统包括:图像标签化实体获取模块,用于通过视觉传感器对目标对象进行图像捕捉,获取目标对象捕捉图像信息,对所述目标对象捕捉图像信息进行数据预处理、语义分割标签化,标记获取目标图像标签化实体集合;遍历特征点提取模块,用于初始化ORB检测器,基于ORB检测器对所述目标图像标签化实体集合中的各图像实体依次进行遍历特征点提取,得到目标图像实体特征点集合;视觉虚拟融合模块,用于利用AR技术将所述目标图像实体特征点集合进行特征点描述、视觉虚拟融合,生成目标对象增强场景信息;位置信息确定模块,用于交互获取所述目标图像标签化实体集合的基准定位信息,基于所述目标对象增强场景信息对所述基准定位信息进行空间关系映射,确定目标对象位置信息进行可视化展示。
第三方面,本申请提供了一种电子设备,包括总线、收发器、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述收发器、所述存储器和所述处理器通过所述总线相连,所述计算机程序被所述处理器执行时实现上述任意一项所述方法中的步骤。
第四方面,本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述方法中的步骤。
本申请中提供的一个或多个技术方案,至少具有如下技术效果或优点:
由于采用了通过视觉传感器对目标对象进行图像捕捉,获取目标对象捕捉图像信息进行数据预处理、语义分割标签化,标记获取目标图像标签化实体集合,再基于ORB检测器对所述目标图像标签化实体集合进行遍历特征点提取,得到目标图像实体特征点集合,利用AR技术将所述目标图像实体特征点集合进行视觉虚拟融合,生成目标对象增强场景信息,交互获取所述目标图像标签化实体集合的基准定位信息,进而基于所述目标对象增强场景信息对所述基准定位信息进行空间关系映射,确定目标对象位置信息进行可视化展示的技术方案。进而达到利用融合视觉和AR技术实现智能化高精度定位,减少使用环境精度影响,提高定位场景适用性,进而确保定位精确稳定性的技术效果。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
图1为本申请一种融合视觉和AR技术的高精度定位方法的流程示意图;
图2为本申请一种融合视觉和AR技术的高精度定位方法中获取目标图像标签化实体集合的流程示意图;
图3为本申请一种融合视觉和AR技术的高精度定位系统的结构示意图;
图4为本申请示例性电子设备的结构示意图。
附图标记说明:图像标签化实体获取模块11,遍历特征点提取模块12,视觉虚拟融合模块13,位置信息确定模块14,总线1110,处理器1120,收发器1130,总线接口1140,存储器1150,操作系统1151,应用程序1152和用户接口1160。
具体实施方式
在本申请的描述中,所属技术领域的技术人员应当知道,本申请可以实现为方法、装置、电子设备及计算机可读存储介质。因此,本申请可以具体实现为以下形式:完全的硬件、完全的软件(包括固件、驻留软件、微代码等)、硬件和软件结合的形式。此外,在一些实施例中,本申请还可以实现为在一个或多个计算机可读存储介质中的计算机程序产品的形式,该计算机可读存储介质中包含计算机程序代码。
上述计算机可读存储介质可以采用一个或多个计算机可读存储介质的任意组合。计算机可读存储介质包括:电、磁、光、电磁、红外或半导体的系统、装置或器件,或者以上任意的组合。计算机可读存储介质更具体的例子包括:便携式计算机磁盘、硬盘、随机存取存储器、只读存储器、可擦除可编程只读存储器、闪存、光纤、光盘只读存储器、光存储器件、磁存储器件或以上任意组合。在本申请中,计算机可读存储介质可以是任意包含或存储程序的有形介质,该程序可以被指令执行系统、装置、器件使用或与其结合使用。
本申请技术方案中对数据的获取、存储、使用、处理等均符合国家法律的相关规定。
本申请通过流程图和/或方框图描述所提供的方法、装置、电子设备。
应当理解,流程图和/或方框图的每个方框以及流程图和/或方框图中各方框的组合,都可以由计算机可读程序指令实现。这些计算机可读程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而生产出一种机器,这些计算机可读程序指令通过计算机或其他可编程数据处理装置执行,产生了实现流程图和/或方框图中的方框规定的功能/操作的装置。
也可以将这些计算机可读程序指令存储在能使得计算机或其他可编程数据处理装置以特定方式工作的计算机可读存储介质中。这样,存储在计算机可读存储介质中的指令就产生出一个包括实现流程图和/或方框图中的方框规定的功能/操作的指令装置产品。
也可以将计算机可读程序指令加载到计算机、其他可编程数据处理装置或其他设备上,使得在计算机、其他可编程数据处理装置或其他设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机或其他可编程数据处理装置上执行的指令能够提供实现流程图和/或方框图中的方框规定的功能/操作的过程。
下面结合本申请中的附图对本申请进行描述。
实施例一
如图1所示,本申请提供了一种融合视觉和AR技术的高精度定位方法,所述方法包括:
S1:通过视觉传感器对目标对象进行图像捕捉,获取目标对象捕捉图像信息,对所述目标对象捕捉图像信息进行数据预处理、语义分割标签化,标记获取目标图像标签化实体集合;
如图2所示,进一步而言,所述S1中标记获取目标图像标签化实体集合,本申请步骤还包括:
S11:利用傅里叶变换对所述目标对象捕捉图像信息进行噪声识别、小波去噪,获取标准目标捕捉图像信息;
S12:创建图像数据降维规则,基于所述图像数据降维规则对所述标准目标捕捉图像信息进行映射降维,得到目标执行捕捉图像信息;
S13:根据所述目标对象的应用场景信息构建实体标签库,基于所述实体标签库训练得到实体语义分割网络;
S14:基于所述实体语义分割网络对所述目标执行捕捉图像信息进行语义分割、实体标签化,获取所述目标图像标签化实体集合。
进一步而言,所述S11中获取标准目标捕捉图像信息,本申请步骤还包括:
利用傅里叶变换对所述目标对象捕捉图像信息进行频率域转换、噪声特性提取,得到图像噪声特性信息,并根据所述图像噪声特性信息确定图像信号小波选取阈值;
对所述目标对象捕捉图像信息的图像信号进行小波分解,获得目标图像信号小波系数;
按照所述图像信号小波选取阈值对所述目标图像信号小波系数进行截取,对小于所述图像信号小波选取阈值的噪声信号置零,获取大于所述图像信号小波选取阈值的可用图像信号信息;
对所述可用图像信号信息进行滤波重构,得到所述标准目标捕捉图像信息。
进一步而言,所述S12中得到目标执行捕捉图像信息,本申请步骤还包括:
基于所述目标对象对所述标准目标捕捉图像信息进行对象距离标识,确定图像目标距离等级信息;
获取目标图像清晰度,基于所述图像数据降维规则将图像目标距离等级信息与所述目标图像清晰度进行映射降维分析,确定像素数据密度信息;
基于所述像素数据密度信息对所述标准目标捕捉图像信息进行增强,得到所述目标执行捕捉图像信息。
具体的,为实现智能化高精度定位,通过视觉传感器对目标对象进行图像捕捉,其中,所述视觉传感器可以是摄像头、图像采集设备等,用于捕捉目标对象的图像,所述目标对象为待定位对象,可以是使用用户、工业机器人等,以此获取当前对象位置采集的目标对象捕捉图像信息。对所述目标对象捕捉图像信息进行数据预处理、语义分割标签化,以用于后续图像增强现实处理。具体为利用傅里叶变换对所述目标对象捕捉图像信息进行噪声识别、小波去噪,首先通过傅里叶变换算法对所述目标对象捕捉图像信息进行频率域转换,将其从空间域转换到频率域。再对频率域图像进行噪声特性提取,噪声属于频谱图当中的高频成分,通过比对识别得到图像噪声特性信息,所述图像噪声特性信息包括噪声强度、分布情况等。
根据所述图像噪声特性信息确定图像信号小波选取阈值,所述图像信号小波选取阈值为图像有效信号的频谱系数选取范围,经小波分解后,图像信号的小波系数幅值大于图像噪声的小波系数幅值。通过小波基提取函数对所述目标对象捕捉图像信息的图像信号进行小波分解提取,常见的小波基函数有Haar小波、Morlet小波等,提取获得目标图像信号小波系数,所述目标图像信号小波系数是在做小波分解时所选择的小波函数空间的投影,利用小波分解将图像信号分解至各尺度中。按照所述图像信号小波选取阈值对所述目标图像信号小波系数进行截取,对小于所述图像信号小波选取阈值的噪声信号置零,即把每一尺度属于噪声的小波系数去掉,获取大于所述图像信号小波选取阈值的可用图像信号信息,即保留并增强属于信号的小波系数。对所述可用图像信号信息进行滤波重构,即利用小波逆变换将处理后的小波系数重构,得到滤波去噪后的标准目标捕捉图像信息。在保留图像细节特征的条件下对目标图像的噪声进行抑制,提高后续图像处理质量和应用可靠性。
由于采集图像像素数据量较大,需对图像数据进行降维处理,因此创建图像数据降维规则,所述图像数据降维规则为图像像素数据的降维处理依据,由像素需求密度进行像素数据降维。基于所述图像数据降维规则对所述标准目标捕捉图像信息进行映射降维,首先基于所述目标对象对所述标准目标捕捉图像信息进行对象距离标识,即以目标对象为中心,对图像中其他区域与目标对象的像素距离进行标识,以此确定各图像区域与目标对象的图像目标距离等级信息。经验设置目标图像清晰度,所述目标图像清晰度为各图像区域的像素最低清晰度,再基于所述图像数据降维规则将图像目标距离等级信息与所述目标图像清晰度进行映射降维分析,即按照距离等级对各图像区域的像素密度进行均匀递减确定,距离目标对象越近的图像区域,像素密度越大,以此进行距离等级映射降维,确定各图像区域的像素数据密度信息,确保降维后的各图像区域像素密度满足预设的目标图像清晰度。基于所述像素数据密度信息对所述标准目标捕捉图像信息进行降维增强,得到降维处理后的目标执行捕捉图像信息。
根据所述目标对象的应用场景信息构建实体标签库,所述实体标签库为图像中出现要素类型,示例性的,对于办公建筑应用场景来说,其实体标签包括墙体、办公椅、过道、打印机等。基于所述实体标签库对采集得到的场景图像数据集进行图像区域分割训练,将相同图像区域标注为同一类标签,得到实体语义分割网络,所述实体语义分割网络用于对目标图像进行区域标签化快速分割。基于所述实体语义分割网络对所述目标执行捕捉图像信息进行语义分割,将图像区域按照实体标签进行分割,再对所分割的实体区域进行实体标签化,获取目标图像标签化实体集合,所述目标图像标签化实体集合为语义分割处理后的图像实体要素信息,例如办公椅、过道、打印机等。实现视觉图像的实体标签化分割处理,进而提高后续视觉融合增强质量。
步骤S2:初始化ORB检测器,基于ORB检测器对所述目标图像标签化实体集合中的各图像实体依次进行遍历特征点提取,得到目标图像实体特征点集合;
具体的,利用ORB算法对图像进行特征点提取,首先初始化ORB检测器,其初始化参数包括金字塔的层数,决定特征点检测的尺度不变性;边缘阈值,用于FAST角点检测算法;以及最大特征点数量等。基于ORB检测器对所述目标图像标签化实体集合中的各图像实体依次进行遍历特征点提取,得到目标图像实体特征点集合,所述目标图像实体特征点集合为各图像实体的关键特征点,具有较强的灰度变化、纹理信息或局部结构,包括角点、边缘点等,提高后续图像特征点匹配和视觉虚拟融合精确度。
步骤S3:利用AR技术将所述目标图像实体特征点集合进行特征点描述、视觉虚拟融合,生成目标对象增强场景信息;
进一步而言,所述S3中生成目标对象增强场景信息,本申请步骤还包括:
S31:获取图像特征描述因素,所述图像特征描述因素包括颜色、纹理、边缘、梯度、空间关系;
S32:基于图像特征描述因素对所述目标图像实体特征点集合进行特征点描述,确定图像实体特征点描述子集合;
S33:基于所述图像实体特征点描述子集合对所述目标图像实体特征点集合进行配准融合,获得图像实体配准特征点集合;
S34:通过AR技术将所述图像实体配准特征点集合进行视觉对齐融合、实时渲染,生成所述目标对象增强场景信息。
进一步而言,所述S33中获得图像实体配准特征点集合,本申请步骤还包括:
对所述图像实体特征点描述子集合中的各特征描述子进行相似度分析,获得图像实体特征点相似度集合;
获取预设相似度阈值,基于所述预设相似度阈值对所述图像实体特征点相似度集合进行配准筛选,得到大于所述预设相似度阈值的配准特征点相似度集合;
基于所述配准特征点相似度集合将所述目标图像实体特征点集合进行配准融合,确定所述图像实体配准特征点集合。
具体的,利用AR技术将所述目标图像实体特征点集合进行特征点描述和视觉虚拟融合,首先获取图像特征描述因素,所述图像特征描述因素为图像特征点的描述维度,包括颜色、纹理、边缘、梯度、空间关系等。再基于图像特征描述因素对所述目标图像实体特征点集合中的各实体特征点进行多维特征描述,确定相应的图像实体特征点描述子集合。基于所述图像实体特征点描述子集合对所述目标图像实体特征点集合进行配准融合,具体为采用相似度算法对所述图像实体特征点描述子集合中的各特征描述子进行相似度分析,计算获得各实体特征点之间的图像实体特征点相似度集合。经验获取预设相似度阈值,所述预设相似度阈值为特征点匹配相似度,基于所述预设相似度阈值对所述图像实体特征点相似度集合进行配准筛选,得到大于所述预设相似度阈值的配准特征点相似度集合。
基于所述配准特征点相似度集合将所述目标图像实体特征点集合进行反向配准融合,确定所匹配的图像实体配准特征点集合。通过AR技术将所述图像实体配准特征点集合进行视觉对齐融合,将虚拟图像实体对象的位置和姿态与真实世界中的特征点对齐模拟,再通过纹理映射、光照模型等图像渲染技术将融合后的图像实时渲染给用户,生成目标对象增强场景信息,以便在用户的AR设备,如AR眼镜、智能手机等上实时显示增强现实场景,使得用户可以在真实环境中看到虚拟的对象位置标记信息。利用融合视觉和AR技术实现智能化高精度定位,减少使用环境精度影响,提高定位场景适用性,进而确保定位精确稳定性。
步骤S4:交互获取所述目标图像标签化实体集合的基准定位信息,基于所述目标对象增强场景信息对所述基准定位信息进行空间关系映射,确定目标对象位置信息进行可视化展示。
进一步而言,本申请步骤还包括:
向所述目标对象配置定位惯性测量传感器,基于所述定位惯性测量传感器对所述目标对象进行运动状态监测,获取目标运动状态参数信息;
构建对象运动预测模型,基于所述对象运动预测模型对所述目标运动状态参数信息进行运动变量预测,获得目标运动预测变量信息;
根据所述目标运动预测变量信息确定定位误差因子,并基于所述定位误差因子对所述目标对象位置信息进行动态优化,得到目标对象动态位置信息。
具体的,与GPS地图交互获取所述目标图像标签化实体集合的基准定位信息,所述基准定位信息为各场景实体的地图位置坐标。通过所述目标对象增强场景信息建立目标对象与其他场景实体在三维空间中的位置关系,如距离、角度等,再基于所述目标对象增强场景信息对所述基准定位信息进行空间关系映射,确定目标对象在现实中的目标对象位置信息并进行可视化展示,显示设备可以是手机、平板电脑、显示器等,用于展示目标对象的精确位置信息,以用于后续对目标对象的指示控制。
在长时间或高速运动下,目标对象的定位精度会受到影响,因此向所述目标对象配置定位惯性测量传感器,所述定位惯性测量传感器是集成了加速度计、陀螺仪等传感器的定位设备。基于所述定位惯性测量传感器对所述目标对象进行运动状态监测,获取目标运动状态参数信息,所述目标运动状态参数信息包括速度、加速度和角速度等。通过物体运动数据拟合构建对象运动预测模型,所述对象运动预测模型用于对物体运动变化参数进行预测,基于所述对象运动预测模型对所述目标运动状态参数信息进行运动变量预测,输出获得目标运动预测变量信息,所述目标运动预测变量信息为目标对象在当前运动状态下的预测运动距离、方向偏差参数。根据所述目标运动预测变量信息确定定位误差因子,并基于所述定位误差因子对所述目标对象位置信息进行动态优化,得到目标对象动态位置信息,所述目标对象动态位置信息为运动中的目标对象定位信息。考虑运动偏差影响参数,减少运动定位误差,进而提高实际定位精确性。
综上所述,本申请所提供的一种融合视觉和AR技术的高精度定位方法具有如下技术效果:
由于采用了通过视觉传感器对目标对象进行图像捕捉,获取目标对象捕捉图像信息进行数据预处理、语义分割标签化,标记获取目标图像标签化实体集合,再基于ORB检测器对所述目标图像标签化实体集合进行遍历特征点提取,得到目标图像实体特征点集合,利用AR技术将所述目标图像实体特征点集合进行视觉虚拟融合,生成目标对象增强场景信息,交互获取所述目标图像标签化实体集合的基准定位信息,进而基于所述目标对象增强场景信息对所述基准定位信息进行空间关系映射,确定目标对象位置信息进行可视化展示的技术方案。进而达到利用融合视觉和AR技术实现智能化高精度定位,减少使用环境精度影响,提高定位场景适用性,进而确保定位精确稳定性的技术效果。
实施例二
基于与前述实施例中一种融合视觉和AR技术的高精度定位方法同样发明构思,本发明还提供了一种融合视觉和AR技术的高精度定位系统,如图3所示,所述系统包括:
图像标签化实体获取模块11,用于通过视觉传感器对目标对象进行图像捕捉,获取目标对象捕捉图像信息,对所述目标对象捕捉图像信息进行数据预处理、语义分割标签化,标记获取目标图像标签化实体集合;
遍历特征点提取模块12,用于初始化ORB检测器,基于ORB检测器对所述目标图像标签化实体集合中的各图像实体依次进行遍历特征点提取,得到目标图像实体特征点集合;
视觉虚拟融合模块13,用于利用AR技术将所述目标图像实体特征点集合进行特征点描述、视觉虚拟融合,生成目标对象增强场景信息;
位置信息确定模块14,用于交互获取所述目标图像标签化实体集合的基准定位信息,基于所述目标对象增强场景信息对所述基准定位信息进行空间关系映射,确定目标对象位置信息进行可视化展示。
进一步的,所述系统还包括:
噪声识别去噪单元,用于利用傅里叶变换对所述目标对象捕捉图像信息进行噪声识别、小波去噪,获取标准目标捕捉图像信息;
图像降维单元,用于创建图像数据降维规则,基于所述图像数据降维规则对所述标准目标捕捉图像信息进行映射降维,得到目标执行捕捉图像信息;
语义分割网络获得单元,用于根据所述目标对象的应用场景信息构建实体标签库,基于所述实体标签库训练得到实体语义分割网络;
实体标签化单元,用于基于所述实体语义分割网络对所述目标执行捕捉图像信息进行语义分割、实体标签化,获取所述目标图像标签化实体集合。
进一步的,所述系统还包括:
小波选取阈值确定单元,用于利用傅里叶变换对所述目标对象捕捉图像信息进行频率域转换、噪声特性提取,得到图像噪声特性信息,并根据所述图像噪声特性信息确定图像信号小波选取阈值;
小波分解单元,用于对所述目标对象捕捉图像信息的图像信号进行小波分解,获得目标图像信号小波系数;
可用图像信号获取单元,用于按照所述图像信号小波选取阈值对所述目标图像信号小波系数进行截取,对小于所述图像信号小波选取阈值的噪声信号置零,获取大于所述图像信号小波选取阈值的可用图像信号信息;
滤波重构单元,用于对所述可用图像信号信息进行滤波重构,得到所述标准目标捕捉图像信息。
进一步的,所述系统还包括:
对象距离标识单元,用于基于所述目标对象对所述标准目标捕捉图像信息进行对象距离标识,确定图像目标距离等级信息;
映射降维分析单元,用于获取目标图像清晰度,基于所述图像数据降维规则将图像目标距离等级信息与所述目标图像清晰度进行映射降维分析,确定像素数据密度信息;
图像信息增强单元,用于基于所述像素数据密度信息对所述标准目标捕捉图像信息进行增强,得到所述目标执行捕捉图像信息。
进一步的,所述系统还包括:
特征描述因素获取单元,用于获取图像特征描述因素,所述图像特征描述因素包括颜色、纹理、边缘、梯度、空间关系;
特征点描述单元,用于基于图像特征描述因素对所述目标图像实体特征点集合进行特征点描述,确定图像实体特征点描述子集合;
配准特征点获得单元,用于基于所述图像实体特征点描述子集合对所述目标图像实体特征点集合进行配准融合,获得图像实体配准特征点集合;
实时渲染单元,用于通过AR技术将所述图像实体配准特征点集合进行视觉对齐融合、实时渲染,生成所述目标对象增强场景信息。
进一步的,所述系统还包括:
相似度分析单元,用于对所述图像实体特征点描述子集合中的各特征描述子进行相似度分析,获得图像实体特征点相似度集合;
配准筛选单元,用于获取预设相似度阈值,基于所述预设相似度阈值对所述图像实体特征点相似度集合进行配准筛选,得到大于所述预设相似度阈值的配准特征点相似度集合;
特征配准融合单元,用于基于所述配准特征点相似度集合将所述目标图像实体特征点集合进行配准融合,确定所述图像实体配准特征点集合。
进一步的,所述系统还包括:
运动状态监测单元,用于向所述目标对象配置定位惯性测量传感器,基于所述定位惯性测量传感器对所述目标对象进行运动状态监测,获取目标运动状态参数信息;
运动变量预测单元,用于构建对象运动预测模型,基于所述对象运动预测模型对所述目标运动状态参数信息进行运动变量预测,获得目标运动预测变量信息;
位置动态优化单元,用于根据所述目标运动预测变量信息确定定位误差因子,并基于所述定位误差因子对所述目标对象位置信息进行动态优化,得到目标对象动态位置信息。
前述图1实施例一中的一种融合视觉和AR技术的高精度定位方法的各种变化方式和具体实例同样适用于本实施例的一种融合视觉和AR技术的高精度定位系统,通过前述对一种融合视觉和AR技术的高精度定位方法的详细描述,本领域技术人员可以清楚的知道本实施例中一种融合视觉和AR技术的高精度定位系统的实施方法,所以为了说明书的简洁,在此不再详述。
此外,本申请还提供了一种电子设备,包括总线、收发器、存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该收发器、该存储器和处理器分别通过总线相连,计算机程序被处理器执行时实现上述控制输出数据的方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
示例性电子设备
具体的,参见图4所示,本申请还提供了一种电子设备,该电子设备包括总线1110、处理器1120、收发器1130、总线接口1140、存储器1150和用户接口1160。
在本申请中,该电子设备还包括:存储在存储器1150上并可在处理器1120上运行的计算机程序,计算机程序被处理器1120执行时实现上述控制输出数据的方法实施例的各个过程。
收发器1130,用于在处理器1120的控制下接收和发送数据。
本申请中,总线架构(用总线1110来代表),总线1110可以包括任意数量互联的总线和桥,总线1110将包括由处理器1120代表的一个或多个处理器与存储器1150代表的存储器的各种电路连接在一起。
总线1110表示若干类型的总线结构中的任何一种总线结构中的一个或多个,包括存储器总线和存储器控制器、外围总线、加速图形端口、处理器或使用各种总线体系结构中的任意总线结构的局域总线。作为示例而非限制,这样的体系结构包括:工业标准体系结构总线、微通道体系结构总线、扩展总线、视频电子标准协会、外围部件互连总线。
处理器1120可以是一种集成电路芯片,具有信号处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器中硬件的集成逻辑电路或软件形式的指令完成。上述的处理器包括:通用处理器、中央处理器、网络处理器、数字信号处理器、专用集成电路、现场可编程门阵列、复杂可编程逻辑器件、可编程逻辑阵列、微控制单元或其他可编程逻辑器件、分立门、晶体管逻辑器件、分立硬件组件。可以实现或执行本申请中公开的各方法、步骤和逻辑框图。例如,处理器可以是单核处理器或多核处理器,处理器可以集成于单颗芯片或位于多颗不同的芯片。
处理器1120可以是微处理器或任何常规的处理器。结合本申请所公开的方法步骤可以直接由硬件译码处理器执行完成,或者由译码处理器中的硬件和软件模块组合执行完成。软件模块可以位于随机存取存储器、闪存、只读存储器、可编程只读存储器、可擦除可编程只读存储器、寄存器等本领域公知的可读存储介质中。所述可读存储介质位于存储器中,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
总线1110还可以将,例如外围设备、稳压器或功率管理电路等各种其他电路连接在一起,总线接口1140在总线1110和收发器1130之间提供接口,这些都是本领域所公知的。因此,本申请不再对其进行进一步描述。
收发器1130可以是一个元件,也可以是多个元件,例如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。例如:收发器1130从其他设备接收外部数据,收发器1130用于将处理器1120处理后的数据发送给其他设备。取决于计算机装置的性质,还可以提供用户接口1160,例如:触摸屏、物理键盘、显示器、鼠标、扬声器、麦克风、轨迹球、操纵杆、触控笔。
应理解,在本申请中,存储器1150可进一步包括相对于处理器1120远程设置的存储器,这些远程设置的存储器可以通过网络连接至服务器。上述网络的一个或多个部分可以是自组织网络、内联网、外联网、虚拟专用网、局域网、无线局域网、广域网、无线广域网、城域网、互联网、公共交换电话网、普通老式电话业务网、蜂窝电话网、无线网络、无线保真网络以和两个或更多个上述网络的组合。例如,蜂窝电话网和无线网络可以是全球移动通信装置、码分多址装置、全球微波互联接入装置、通用分组无线业务装置、宽带码分多址装置、长期演进装置、LTE频分双工装置、LTE时分双工装置、先进长期演进装置、通用移动通信装置、增强移动宽带装置、海量机器类通信装置、超可靠低时延通信装置等。
应理解,本申请中的存储器1150可以是易失性存储器或非易失性存储器,或可包括易失性存储器和非易失性存储器两者。其中,非易失性存储器包括:只读存储器、可编程只读存储器、可擦除可编程只读存储器、电可擦除可编程只读存储器,或闪存。
易失性存储器包括:随机存取存储器,其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如:静态随机存取存储器、动态随机存取存储器、同步动态随机存取存储器、双倍数据速率同步动态随机存取存储器、增强型同步动态随机存取存储器、同步连接动态随机存取存储器和直接内存总线随机存取存储器。本申请描述的电子设备的存储器1150包括但不限于上述和任意其他适合类型的存储器。
在本申请中,存储器1150存储了操作系统1151和应用程序1152的如下元素:可执行模块、数据结构,或者其子集,或者其扩展集。
具体而言,操作系统1151包含各种装置程序,例如:框架层、核心库层、驱动层等,用于实现各种基础业务和处理基于硬件的任务。应用程序1152包含各种应用程序,例如:媒体播放器、浏览器,用于实现各种应用业务。实现本申请方法的程序可以包含在应用程序1152中。应用程序1152包括:小程序、对象、组件、逻辑、数据结构和其他执行特定任务或实现特定抽象数据类型的计算机装置可执行指令。
此外,本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述控制输出数据的方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请披露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种融合视觉和AR技术的高精度定位方法,其特征在于,所述方法包括:
S1:通过视觉传感器对目标对象进行图像捕捉,获取目标对象捕捉图像信息,对所述目标对象捕捉图像信息进行数据预处理、语义分割标签化,标记获取目标图像标签化实体集合;
S2:初始化ORB检测器,基于ORB检测器对所述目标图像标签化实体集合中的各图像实体依次进行遍历特征点提取,得到目标图像实体特征点集合;
S3:利用AR技术将所述目标图像实体特征点集合进行特征点描述、视觉虚拟融合,生成目标对象增强场景信息;
S4:交互获取所述目标图像标签化实体集合的基准定位信息,基于所述目标对象增强场景信息对所述基准定位信息进行空间关系映射,确定目标对象位置信息进行可视化展示。
2.如权利要求1所述的方法,其特征在于,所述S1中标记获取目标图像标签化实体集合,包括:
S11:利用傅里叶变换对所述目标对象捕捉图像信息进行噪声识别、小波去噪,获取标准目标捕捉图像信息;
S12:创建图像数据降维规则,基于所述图像数据降维规则对所述标准目标捕捉图像信息进行映射降维,得到目标执行捕捉图像信息;
S13:根据所述目标对象的应用场景信息构建实体标签库,基于所述实体标签库训练得到实体语义分割网络;
S14:基于所述实体语义分割网络对所述目标执行捕捉图像信息进行语义分割、实体标签化,获取所述目标图像标签化实体集合。
3.如权利要求2所述的方法,其特征在于,所述S11中获取标准目标捕捉图像信息,包括:
利用傅里叶变换对所述目标对象捕捉图像信息进行频率域转换、噪声特性提取,得到图像噪声特性信息,并根据所述图像噪声特性信息确定图像信号小波选取阈值;
对所述目标对象捕捉图像信息的图像信号进行小波分解,获得目标图像信号小波系数;
按照所述图像信号小波选取阈值对所述目标图像信号小波系数进行截取,对小于所述图像信号小波选取阈值的噪声信号置零,获取大于所述图像信号小波选取阈值的可用图像信号信息;
对所述可用图像信号信息进行滤波重构,得到所述标准目标捕捉图像信息。
4.如权利要求2所述的方法,其特征在于,所述S12中得到目标执行捕捉图像信息,包括:
基于所述目标对象对所述标准目标捕捉图像信息进行对象距离标识,确定图像目标距离等级信息;
获取目标图像清晰度,基于所述图像数据降维规则将图像目标距离等级信息与所述目标图像清晰度进行映射降维分析,确定像素数据密度信息;
基于所述像素数据密度信息对所述标准目标捕捉图像信息进行增强,得到所述目标执行捕捉图像信息。
5.如权利要求1所述的方法,其特征在于,所述S3中生成目标对象增强场景信息,包括:
S31:获取图像特征描述因素,所述图像特征描述因素包括颜色、纹理、边缘、梯度、空间关系;
S32:基于图像特征描述因素对所述目标图像实体特征点集合进行特征点描述,确定图像实体特征点描述子集合;
S33:基于所述图像实体特征点描述子集合对所述目标图像实体特征点集合进行配准融合,获得图像实体配准特征点集合;
S34:通过AR技术将所述图像实体配准特征点集合进行视觉对齐融合、实时渲染,生成所述目标对象增强场景信息。
6.如权利要求5所述的方法,其特征在于,所述S33中获得图像实体配准特征点集合,包括:
对所述图像实体特征点描述子集合中的各特征描述子进行相似度分析,获得图像实体特征点相似度集合;
获取预设相似度阈值,基于所述预设相似度阈值对所述图像实体特征点相似度集合进行配准筛选,得到大于所述预设相似度阈值的配准特征点相似度集合;
基于所述配准特征点相似度集合将所述目标图像实体特征点集合进行配准融合,确定所述图像实体配准特征点集合。
7.如权利要求1所述的方法,其特征在于,所述方法包括:
向所述目标对象配置定位惯性测量传感器,基于所述定位惯性测量传感器对所述目标对象进行运动状态监测,获取目标运动状态参数信息;
构建对象运动预测模型,基于所述对象运动预测模型对所述目标运动状态参数信息进行运动变量预测,获得目标运动预测变量信息;
根据所述目标运动预测变量信息确定定位误差因子,并基于所述定位误差因子对所述目标对象位置信息进行动态优化,得到目标对象动态位置信息。
8.一种融合视觉和AR技术的高精度定位系统,其特征在于,用于实施权利要求1-7任意一项所述的一种融合视觉和AR技术的高精度定位方法,所述系统包括:
图像标签化实体获取模块,用于通过视觉传感器对目标对象进行图像捕捉,获取目标对象捕捉图像信息,对所述目标对象捕捉图像信息进行数据预处理、语义分割标签化,标记获取目标图像标签化实体集合;
遍历特征点提取模块,用于初始化ORB检测器,基于ORB检测器对所述目标图像标签化实体集合中的各图像实体依次进行遍历特征点提取,得到目标图像实体特征点集合;
视觉虚拟融合模块,用于利用AR技术将所述目标图像实体特征点集合进行特征点描述、视觉虚拟融合,生成目标对象增强场景信息;
位置信息确定模块,用于交互获取所述目标图像标签化实体集合的基准定位信息,基于所述目标对象增强场景信息对所述基准定位信息进行空间关系映射,确定目标对象位置信息进行可视化展示。
9.一种电子设备,包括总线、收发器、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述收发器、所述存储器和所述处理器通过所述总线相连,其特征在于,所述计算机程序被所述处理器执行时实现如权利要求1-7中任一项所述的一种融合视觉和AR技术的高精度定位方法中的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7中任一项所述的一种融合视觉和AR技术的高精度定位方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410248415.4A CN118115716A (zh) | 2024-03-05 | 2024-03-05 | 一种融合视觉和ar技术的高精度定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410248415.4A CN118115716A (zh) | 2024-03-05 | 2024-03-05 | 一种融合视觉和ar技术的高精度定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118115716A true CN118115716A (zh) | 2024-05-31 |
Family
ID=91219175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410248415.4A Pending CN118115716A (zh) | 2024-03-05 | 2024-03-05 | 一种融合视觉和ar技术的高精度定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118115716A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101777129A (zh) * | 2009-11-25 | 2010-07-14 | 中国科学院自动化研究所 | 一种基于特征检测的图像匹配方法 |
CN110533719A (zh) * | 2019-04-23 | 2019-12-03 | 以见科技(上海)有限公司 | 基于环境视觉特征点识别技术的增强现实定位方法及装置 |
CN113366539A (zh) * | 2018-11-15 | 2021-09-07 | 皇家飞利浦有限公司 | 对虚拟对象针对混合现实的系统定位 |
US20210390780A1 (en) * | 2020-06-13 | 2021-12-16 | Ilteris Canberk | Augmented reality environment enhancement |
CN117557611A (zh) * | 2023-11-20 | 2024-02-13 | 北京五八信息技术有限公司 | 图像配准方法、装置、电子设备及存储介质 |
-
2024
- 2024-03-05 CN CN202410248415.4A patent/CN118115716A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101777129A (zh) * | 2009-11-25 | 2010-07-14 | 中国科学院自动化研究所 | 一种基于特征检测的图像匹配方法 |
CN113366539A (zh) * | 2018-11-15 | 2021-09-07 | 皇家飞利浦有限公司 | 对虚拟对象针对混合现实的系统定位 |
CN110533719A (zh) * | 2019-04-23 | 2019-12-03 | 以见科技(上海)有限公司 | 基于环境视觉特征点识别技术的增强现实定位方法及装置 |
US20210390780A1 (en) * | 2020-06-13 | 2021-12-16 | Ilteris Canberk | Augmented reality environment enhancement |
CN117557611A (zh) * | 2023-11-20 | 2024-02-13 | 北京五八信息技术有限公司 | 图像配准方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110322500B (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
CN114550177B (zh) | 图像处理的方法、文本识别方法及装置 | |
CN108895981B (zh) | 一种三维测量方法、装置、服务器和存储介质 | |
Choi et al. | Depth analogy: Data-driven approach for single image depth estimation using gradient samples | |
CN112801047B (zh) | 缺陷检测方法、装置、电子设备及可读存储介质 | |
CN113436338A (zh) | 火灾现场的三维重建方法、装置、服务器及可读存储介质 | |
CN111553247A (zh) | 一种基于改进骨干网络的视频结构化系统、方法及介质 | |
CN115457492A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
CN111932681A (zh) | 房屋信息显示方法、装置和电子设备 | |
CN110111364B (zh) | 运动检测方法、装置、电子设备及存储介质 | |
CN115719436A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN114627244A (zh) | 三维重建方法及装置、电子设备、计算机可读介质 | |
CN117132649A (zh) | 人工智能融合北斗卫星导航的船舶视频定位方法及装置 | |
CN114299230B (zh) | 一种数据生成方法、装置、电子设备及存储介质 | |
CN115577768A (zh) | 半监督模型训练方法和装置 | |
CN113421217A (zh) | 可行驶区域检测方法和装置 | |
CN114419070A (zh) | 一种图像场景分割方法、装置、设备及存储介质 | |
CN113704276A (zh) | 地图更新方法、装置、电子设备及计算机可读存储介质 | |
Lee et al. | Integrating wavelet transformation with Markov random field analysis for the depth estimation of light‐field images | |
CN118097157A (zh) | 基于模糊聚类算法的图像分割方法及系统 | |
CN114663810B (zh) | 基于多模态的物体图像增广方法及装置、设备及存储介质 | |
CN118115716A (zh) | 一种融合视觉和ar技术的高精度定位方法 | |
CN114842066A (zh) | 图像深度识别模型训练方法、图像深度识别方法及装置 | |
CN113610856A (zh) | 训练图像分割模型和图像分割的方法和装置 | |
CN114677423A (zh) | 一种室内空间全景深度确定方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |