Nothing Special   »   [go: up one dir, main page]

CN114863133B - 基于多任务无监督算法的浮选泡沫图像特征点提取方法 - Google Patents

基于多任务无监督算法的浮选泡沫图像特征点提取方法 Download PDF

Info

Publication number
CN114863133B
CN114863133B CN202210331972.3A CN202210331972A CN114863133B CN 114863133 B CN114863133 B CN 114863133B CN 202210331972 A CN202210331972 A CN 202210331972A CN 114863133 B CN114863133 B CN 114863133B
Authority
CN
China
Prior art keywords
image
point
points
network
branch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210331972.3A
Other languages
English (en)
Other versions
CN114863133A (zh
Inventor
卢明
刘瑞
王锦煜
成鹏飞
傅呈勋
何先科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University of Science and Technology
Original Assignee
Hunan University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University of Science and Technology filed Critical Hunan University of Science and Technology
Priority to CN202210331972.3A priority Critical patent/CN114863133B/zh
Publication of CN114863133A publication Critical patent/CN114863133A/zh
Application granted granted Critical
Publication of CN114863133B publication Critical patent/CN114863133B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多任务无监督算法的浮选泡沫图像特征点提取方法。其步骤为采用改进的多任务无监督深度学习网络构建分别构建两个孪生网络,网络分支一处理输入未经处理的公共数据集图像,网络分支二输入经图像变换的公共数据集图像,通过随机非空间图像增强来转换图像,多任务神经网络预测每张图片的感兴趣点,网络分支一的图像的兴趣点位置经过图像变换与分支二中图像的兴趣点在空间上对应,使用该自监督算法中提出的损失函数进行训练;使用工业摄像机采集实时浮选图像并对其进行特征点提取,后通过特征点匹配算法进行特征点匹配。本发明有效的解决浮选泡沫图像特征点误匹配的问题,对泡沫浮选的速度特征有着很好的识别能力。

Description

基于多任务无监督算法的浮选泡沫图像特征点提取方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于多任务无监督算法的浮选泡沫图像特征点提取方法。
背景技术
矿物浮选是在特定的工艺条件下,在矿浆中加入浮选药剂,并充入空气、然后搅拌产生大量气泡,最后通过回收含矿泡沫来提升原矿品位,以满足还原冶炼要求的一种选矿方法。判断浮选工况的优劣完全凭借有经验的工人对泡沫表面状态进行肉眼观察来完成,而使用传统的人工肉眼进行矿物质分离好坏的判断浮选过程并不能达到最优分离状态。
随着计算机控制技术的不断发展,数字图像处理技术在浮选控制中的应用取得了较好的浮选效果。但是,不同矿物浮选所呈现的泡沫状态能完全不一样,在金锑浮选中,浮选泡沫的运动特性直接反应了浮选性能的好坏,浮选泡沫运动过程中容易发生的崩塌、兼并、扭曲等现象,但现存的浮选泡沫运动特征提取方法还有许多问题,比如计算精度低,提取特征点不足,仅能计算整体运动趋势,而不能计算内部运动趋势等。
发明内容
为了克服现有技术中存在的上述问题,本发明提供一种基于多任务无监督算法的浮选泡沫图像特征点提取方法。
本发明解决上述问题的技术方案是:一种基于多任务无监督算法的浮选泡沫图像特征点提取方法,其步骤为:
1)采用改进的多任务神经网络构建两个孪生网络;
2)网络分支一中输入未经处理的公共数据集图像;分支二中输入随机变换的公共数据集图像;
3)对每个分支进行非空间图像增强变换;应用无监督模型预测每个分支图像的兴趣点;分支一的点位置通过位置变换,以将分支一到分支二的点在空间上对齐;
4)若两个分支的点对齐后在空间上接近,则两分支的点将相对应;采用损失函数对无监督模型进行训练。
5)多任务的CNN网络模型主干网络结构借鉴传统VGG网络模型,并对其进行重新设计,将卷积层设计成4组,采用32-64-128-128-256-256层结构,将每一层特征图像的高度与宽度降低为2倍,整个主干网络下降8倍,为加快网络收敛速度,更容易求解其梯度,每组卷积后采用Relu激活函数,并在最后两层加入最大池化层,最大池化层作用是为了快速减小模型尺寸提高运算速度;网络主干网络输出描述符是长度为256的二进制代码字符串,每个位置为0或者1;
位置模块预测每个输出结果的相对图像坐标,并将其映射到图像像素坐标;接收主干网络处理后长宽为原1/8图片;位置模块采用两层卷积结构,每层分别包含256和2个通道;第一层卷积后接ReLU激活函数,第二层卷积后接sigmoid激活函数以保证位置预测结果限制在区间[0,1];从图像相对位置坐标Prelative到图像像素坐标Pmap的映射计算方法为:Pmap,x=(c+Prelative,x)·fdownsample;Pmap,y=(r+Prelative,y)·fdownample。;
该式中,相对图像坐标Prelative的列项索引c添加为x坐标,行项索引r添加为y坐标;输出并乘以网络的下采样因子fdownample,下采样因子值设定为8;
使用回归作用于特征点检测,以执行无监督训练,其中最感兴趣点的位置是从与输入图像相同大小的图中选择的;此外由于位置模块的输入图像为原始图像的1/64,且每8×8区域只预测一个单点,通过删除紧密的聚集点将感兴趣点变的分布更加均匀,使得整个系统的鲁棒性得到良好的提升;
描述符模块输出为256通道的描述子,每个区域提供一个256维的向量;直接把256维的向量作为兴趣点的粗略描述符,也对描述子进行插值,然后按位置模块中得到的兴趣点具体坐标获取描述符;描述符模块包含两个256通道,第一层卷积后接ReLU激活函数;第二层没有激活函数;同时根据相对位置坐标Prelative位置模块的输出结果,采用双三次插值法生成相应的描述符,该模型使用Pmap中的所有点位置对描述符映射Dmap的所有条目进行插值;点位置的回归使得描述插值微,直接对其进行训练;
6)采用R-K特征点匹配算法以获取浮选过程的速度特征来验证该算法的可行性:该方法采用两个模块,一为特征提取模块,采用无监督模型进行网络训练,同时提取摄像机采集到的浮选泡沫影像进行特征点的提取,第二部分为特征点匹配模块,采用R-K算法将提取到的特征点进相匹配。
本发明的有益效果在于:本发明适用于金锑浮选泡沫运动过程中容易发生的崩塌、兼并、扭曲等现象有着很好的识别能力,能够更好的识别不同工况下的浮选泡沫稳定度情况,同时对于浮选泡沫的速度特征也有着优秀的提取效果,对稳定金锑浮选品味具有重大的意义。
附图说明
图1为本发明中多任务无监督模型整体结构图。
图2为本发明中浮选泡沫无监督模型特征点图。
图3为本发明中模型训练中的损失函数曲线。
图4为本发明中无监督特征点提取算法流程图。
图5为本发明中R-K算法复选泡沫运动特征提取算法流程图。
图6为本发明中的流程图。
图7为无监督算法在泡沫稳定状态下的匹配结果及其速度矢量场特征示意图。
图8为无监督算法在泡沫无序状态下的匹配结果及其速度矢量场特征示意。
图9为无监督算法在泡沫塌陷状态下的匹配结果及其速度矢量场特征示意。
具体实施方式
下面结合附图和具体实施例对本发明作进一步的详细说明。
在泡沫浮选中,泡沫图像的特征的准确提取是实现基于机器学习视觉的浮选过程自动控制的关键,泡沫图像的特征表现在两个方面,一是静态特性,比如泡沫的大小、形状、颜色、特征、纹理特征等;二是动态特性,一般包括泡沫运动速度、泡沫稳定度等。本文以浮选金锑工况为例,针对特征点匹配精度不高、提取到的速度特征与真实值有差距的问题,采用动态特征进行工况识别;提出一种基于多任务无监督算法的浮选泡沫图像特征点提取方法,采用R-K算法将提取得到的特征点进行匹配,从而得到浮选泡沫的运动特征。此方法为提高提取特征点精确度,实现金锑浮选生产操作的优化提供了帮助。
对于基于于多任务无监督的深度学习网络算法的浮选泡沫图像特征点提取方法,其思路是,设计了一种简化的CNN网络分别用于训练无监督模型中的兴趣点检测器及描述器。重新设计了一种新的损失函数,充分利用深度学习的优点,同时结合之前提出的R-k特征点匹配算法。
下面对这种基于于多任务无监督的深度学习网络算法的浮选泡沫图像特征点提取方法做出更为详细的说明。
如图1所示为多任务无监督模型整体结构;该网络将训练感兴趣点与描述符的子网络公用相同的主干网络,该主干网络将卷积层设计成4组,采用32-64-128-128-256-256层结构,将每一层特征图像的高度与宽度降低为2倍,整个主干网络下降8倍,为加快网络收敛速度,更容易求解其梯度,每组卷积后采用Relu激活函数,并在最后两层加入最大池化层,最大池化层作用是为了快速减小模型尺寸提高运算速度。网络主干网络输出描述符是长度为256的二进制代码字符串,每个位置为0或者1。
如图2所示为浮选泡沫无监督模型特征点图;
如图3为模型训练中的损失函数曲线;该无监督网络模型的损失函数表达式如下所示:
Ltot=αptLptdescLdescdecorrLdecorr
其中,α为每个损失项的加全因子,第一个损失项Lpt为特征点损失,第二个损失项Ldesc是描述符损失,第三个损失项Ldecorr用来优化描述符损失,用于实现正则化,通过解相关来实现减少过拟合现象。
每个分支都会输出两个张量Pb和Fb,两个张量中均存在感兴趣点位置信息和点描述符信息。为确定距离矩阵G的大小需要分别计算两个分支Na与Nb变换点之间的成对陆离,其距离矩阵的表达式为:
其中为分支F中的变换点,为分支S中的变换点,gij为两点之间的欧几里得距离,如果两个分支中存在n个点对应,则将单个对应点的欧几里得距离表达式为:
其中,表示F分支中特征点图像中所处的位置;表示S分支中特征点图像中所处的位置;T为F分支中的变换矩阵,其目的是为了将F分支中的图像特征点以映射的方式映射到S分支中。
第一项特征点损失项Lpt提高检测器的提高检测器的重复性,即使图像的光照及视角不同仍能检测到相同的特征点,特征点损失分为两项,并在所有n个对应点上累加具体将其表示为:
其中αposition为相应的全重项,以确保一个点对的预测位置和输入图像位置为相同点,通过简单的简化每个点对的距离来实现:
最初网络将随机预测位置,随着时间的推移神经网络将会逐渐的缩小两点之间的距离改变感兴趣点的位置。用来确保特征点的可信度,得分越高,该特征点越能重复。将其表示为:
这里,αpt为特征点可信度加权值
为了使模型最小化损失值,设置了可信度加权值αpt经过实验确定该加权取值为:
对于将可信度权重设置为高以最小化损失,对于将可信度权重低以最小化损失。是所有点对之间的平均距离,表示为:
该网络会随机提取图像特征点。随这训练的深入,两个点对的距离不断减小,损失值下降从而改善特征点所处位置。该方法根据训练数据学习均匀分布且准确的特征点。
第二项Ldesc描述符损失项,该项损失值结果是由铰链损失决定的。其中由单应性引起的对应关系cij表示为:
其中gij为上文中变换点Na,Nb之间的像素距离。
单个描述符损失表示为:
其中,mpmn为铰链损失的正余量与负余量,λd为全重项用于平衡对应和不对应点。
最后,总描述符丢失Ldesc表示为
第三项为,为去相关特征描述符损失,让更少维度的描述子包含足够多的特征信息,减少冗余(过拟合和特征的维度之间有很大的关系,因此需要尽量减少特征维度)。通过最小化协方差矩阵中每个非对角元素,其中协方差矩阵表示为
其中,
其中,是Nb×1维列向量,它代表Fb中的第i列。代表的均值。
如图4为无监督特征点提取算法流程图;构造一个孪生网络结构,第一部分是输入图像的未包装版本F既为原始图像;第二部分为包装版本S既为原始图像通过随机单应性T在空间上进行了变换(旋转,缩放,倾斜和透视变换)。并对每个分支图像非空间图像增强(例如亮度和噪声)来转换图像。无监督算法会预测每个分支上图像上的兴趣点。分支F的图像的兴趣点位置经过T变换与分支S中图像的兴趣点在空间上对应,这样就能在损失函数中利用点的对应关系来训练模型。
如图5为R-K算法浮选泡沫运动特征提取算法流程图;
如图6为现场实验数据采集设备与图像分析图;
如图7无监督算法在泡沫稳定状态下的匹配结果及其速度矢量场特征示意图。
如图8无监督算法在泡沫无序状态下的匹配结果及其速度矢量场特征示意图。
如图9无监督算法在泡沫塌陷状态下的匹配结果及其速度矢量场特征示意图。
下面结合具体例子进行分析。
第一步,运用coco2017数据集对神经网络使用PyTorch进行训练。
第二步,建立两个孪生网络;第一部分是输入图像的其中之一是输入图像的未包装版本F既为原始图像;第二部分为包装版本S既为原始图像通过随机的旋转,缩放,倾斜和透视变换变换。并对每个分支图像进行相应的图像增强变换例如对其加入相应的亮度与噪声,无无监督模型预测每个分支图像的兴趣点。分支F的点位置通过旋转等位置变换,以将分支F到分支S的点在空间上对齐。如果它们在对齐后在空间上接近,则来自每个分支的点将相对应。
第三步,调整损失函数权重项参数,使模型达到更好的收敛效果。
第四步,采集金锑浮选泡沫图像,使用训练好的无监督模型神经网络提取摄像机采集到的浮选泡沫影像进行特征点提取。
第五步,采用R-K算法将无监督模型提取得到的特征点进行匹配。
第六步,我们在中国某浮选工厂搭建了一个金锑浮选监控系统,通过该矿场的工业摄像机获取大量的浮选泡沫视频图像(图像分辨率为800×600,视频采样率为7帧/秒,每个像素的对应面积为0.015厘米×0.015厘米)。为验证本文所提特征点提取算法的有效性,针对不同的浮选工况,采集大量的浮选泡沫视频进行仿真实验。

Claims (3)

1.一种基于多任务无监督算法的浮选泡沫图像特征点提取方法,其特征在于,包含以下步骤:
1)采用改进的多任务神经网络构建两个孪生网络;
2)网络分支一中输入未经处理的公共数据集图像;分支二中输入随机变换的公共数据集图像;
3)对每个分支进行非空间图像增强变换;应用无监督模型预测每个分支图像的兴趣点;分支一的点位置通过位置变换,以将分支一到分支二的点在空间上对齐;
4)若两个分支的点对齐后在空间上接近,则两分支的点将相对应;采用损失函数对无监督模型进行训练;
5)多任务的CNN网络模型主干网络结构借鉴传统VGG网络模型,并对其进行重新设计,将卷积层设计成4组,采用32-64-128-128-256-256层结构,将每一层特征图像的高度与宽度降低为2倍,整个主干网络下降8倍,为加快网络收敛速度,更容易求解其梯度,每组卷积后采用Relu激活函数,并在最后两层加入最大池化层,最大池化层作用是为了快速减小模型尺寸提高运算速度;网络主干网络输出描述符是长度为256的二进制代码字符串,每个位置为0或者1;
位置模块预测每个输出结果的相对图像坐标,并将其映射到图像像素坐标;接收主干网络处理后长宽为原1/8图片;位置模块采用两层卷积结构,每层分别包含256和2个通道;第一层卷积后接ReLU激活函数,第二层卷积后接sigmoid激活函数以保证位置预测结果限制在区间[0,1];从图像相对位置坐标Prelative到图像像素坐标Pmap的映射计算方法为:Pmap,x=(c+Prelative,x)·fdownsample;Pmap,y=(r+Prelative,y)·fdownample
该式中,相对图像坐标Prelative的列项索引c添加为x坐标,行项索引r添加为y坐标;输出并乘以网络的下采样因子fdownample,下采样因子值设定为8;
使用回归作用于特征点检测,以执行无监督训练,其中最感兴趣点的位置是从与输入图像相同大小的图中选择的;此外由于位置模块的输入图像为原始图像的1/64,且每8×8区域只预测一个单点,通过删除紧密的聚集点将感兴趣点变的分布更加均匀,使得整个系统的鲁棒性得到良好的提升;
描述符模块输出为256通道的描述子,每个区域提供一个256维的向量;直接把256维的向量作为兴趣点的粗略描述符,也对描述子进行插值,然后按位置模块中得到的兴趣点具体坐标获取描述符;描述符模块包含两个256通道,第一层卷积后接ReLU激活函数;第二层没有激活函数;同时根据相对位置坐标Prelative位置模块的输出结果,采用双三次插值法生成相应的描述符,该模型使用Pmap中的所有点位置对描述符映射Dmap的所有条目进行插值;点位置的回归使得描述插值微,直接对其进行训练;
6)采用R-K特征点匹配算法以获取浮选过程的速度特征来验证该算法的可行性:该方法采用两个模块,一为特征提取模块,采用无监督模型进行网络训练,同时提取摄像机采集到的浮选泡沫影像进行特征点的提取,第二部分为特征点匹配模块,采用R-K算法将提取到的特征点进相匹配。
2.如权利要求1所述的基于多任务无监督算法的浮选泡沫图像特征点提取方法,其特征在于:在所述步骤4)具体内容包括如下:
无监督网络模型损失函数为Ltot=αptLptdescLdescdecorrLdecorr,由三个部分组成;其中,α为每个损失项的加全因子,第一个损失项Lpt为特征点损失,第二个损失项Ldesc是描述符损失,第三个损失项Ldecorr用来优化描述符损失,用于实现正则化,通过解相关来实现减少过拟合现象;
每个分支都会输出两个张量Pb和Fb,两个张量中均存在感兴趣点位置信息和点描述符信息;
为确定距离矩阵G的大小需要分别计算两个分支Na与Nb变换点之间的距离,其距离矩阵的表达式其中为分支F中的变换点,为分支S中的变换点,gij为两点之间的欧几里得距离,如果两个分支中存在n个点对应,则将单个对应点的欧几里得距离表达式其中,表示F分支中特征点图像中所处的位置;表示S分支中特征点图像中所处的位置;T为F分支中的变换矩阵,其目的是为了将F分支中的图像特征点以映射的方式映射到S分支中;
第一项特征点损失项Lpt提高检测器的重复性,即使图像的光照及视角不同仍能检测到相同的特征点,特征点损失分为两项,并在所有n个对应点上累加,将其表示 其中αposition为相应的全重项,以确保一个点对的预测位置和输入图像位置为相同点,通过简化每个点对的距离来实现最初网络将随机预测位置,随着时间的推移神经网络将会逐渐的缩小两点之间的距,改变感兴趣点的位置;用来确保特征点的可信度,得分越高,该特征点越能重复;将其表示为 αpt为特征点可信度加权值,对于将可信度权重设置为高,以最小化损失,对于将可信度权重设置为低,以最小化损失;是所有点对之间的平均距离,表示为该网络会随机提取图像特征点;随这训练的深入,两个点对的距离不断减小,损失值下降从而改善特征点所处位置;
第二项Ldesc描述符损失项,该项损失值结果是由铰链损失决定的;其中由单应性引起的对应关系cij表示为其中gij为上文中变换点Na,Nb之间的像素距离;单个描述符损失表示为 其中,mpmn为铰链损失的正余量与负余量,λd为全重项用于平衡对应和不对应点;总描述符丢失Ldesc表示为
第三项为去相关特征描述符损失,让更少维度的描述子包含足够多的特征信息,减少冗余;通过最小化协方差矩阵中每个非对角元素,其中协方差矩阵表示为 其中,是Nb×1维列向量,它代表Fb中的第i列,代表的均值;是Nb×1维列向量,它代表Fb中的第j列,代表的均值。
3.如权利要求1所述的基于多任务无监督算法的浮选泡沫图像特征点提取方法,其特征在于:在所述步骤5)中对无监督模型进行网络训练,神经网络使用PyTorch进行了训练,使用浮选泡沫图像的118287个图像作为网络训练图像,该组图像没有标签,图像大小为240×320,每个通道图像减去0.5乘以0.225进行图像归一化处理,使用Adam优化器进行损失值优化,并将学习率设置为0.1;通过组合比例,旋转和透视变换,为分支F构造了图像随机变换;为每个分支添加了标准的非空间增强功能,每种增强的幅度均在受限制的时间间隔内均匀分布;采用自监督算法中的描述符损失全重,正余量mp=1,负余量mn=0.2,同时为了使训练模型更好的收敛,平衡每个损失值的比例,调整各个损失项权重,选择全重项为:αpt=1,αdesc=0.001,αdecorr=0.03,αposition=0.8。
CN202210331972.3A 2022-03-31 2022-03-31 基于多任务无监督算法的浮选泡沫图像特征点提取方法 Active CN114863133B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210331972.3A CN114863133B (zh) 2022-03-31 2022-03-31 基于多任务无监督算法的浮选泡沫图像特征点提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210331972.3A CN114863133B (zh) 2022-03-31 2022-03-31 基于多任务无监督算法的浮选泡沫图像特征点提取方法

Publications (2)

Publication Number Publication Date
CN114863133A CN114863133A (zh) 2022-08-05
CN114863133B true CN114863133B (zh) 2024-08-16

Family

ID=82629179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210331972.3A Active CN114863133B (zh) 2022-03-31 2022-03-31 基于多任务无监督算法的浮选泡沫图像特征点提取方法

Country Status (1)

Country Link
CN (1) CN114863133B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116246150B (zh) * 2023-05-11 2023-09-05 合肥的卢深视科技有限公司 模型训练方法、关键点检测方法、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410248A (zh) * 2018-10-23 2019-03-01 湖南科技大学 一种基于r-K算法的浮选泡沫运动特征提取方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488816B (zh) * 2015-11-27 2018-09-11 中南大学 一种基于三维视觉信息的矿物浮选泡沫流速在线检测装置及方法
CN111739078B (zh) * 2020-06-15 2022-11-18 大连理工大学 一种基于上下文注意力机制的单目无监督深度估计方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410248A (zh) * 2018-10-23 2019-03-01 湖南科技大学 一种基于r-K算法的浮选泡沫运动特征提取方法

Also Published As

Publication number Publication date
CN114863133A (zh) 2022-08-05

Similar Documents

Publication Publication Date Title
CN111126202B (zh) 基于空洞特征金字塔网络的光学遥感图像目标检测方法
CN111191736B (zh) 基于深度特征交叉融合的高光谱图像分类方法
CN110738697B (zh) 基于深度学习的单目深度估计方法
CN112329658B (zh) 一种对于yolov3网络的检测算法改进方法
CN113052210A (zh) 一种基于卷积神经网络的快速低光照目标检测方法
CN112926396A (zh) 一种基于双流卷积注意力的动作识别方法
CN112861690B (zh) 多方法融合的遥感影像变化检测方法及系统
CN112150493A (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN110633708A (zh) 一种基于全局模型和局部优化的深度网络显著性检测方法
CN111797841B (zh) 一种基于深度残差网络的视觉显著性检测方法
CN115223017B (zh) 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法
CN113505634B (zh) 一种双流解码跨任务交互网络的光学遥感图像显著目标检测方法
CN115205672A (zh) 一种基于多尺度区域注意力的遥感建筑物语义分割方法及系统
CN112131959A (zh) 一种基于多尺度特征强化的2d人体姿态估计方法
CN115908772A (zh) 一种基于Transformer和融合注意力机制的目标检测方法及系统
CN113642571A (zh) 一种基于显著性注意力机制的细粒度图像识别方法
CN115187786A (zh) 一种基于旋转的CenterNet2目标检测方法
CN117292117A (zh) 一种基于注意力机制的小目标检测方法
CN114863133B (zh) 基于多任务无监督算法的浮选泡沫图像特征点提取方法
CN116664859A (zh) 移动端实时目标检测方法、终端设备及存储介质
CN116597203A (zh) 一种基于知识蒸馏的非对称自编码器的异常检测方法
CN114612709A (zh) 图像金字塔特征指导的多尺度目标检测方法
CN113609904B (zh) 一种基于动态全局信息建模和孪生网络的单目标跟踪算法
CN114998373A (zh) 基于多尺度损失函数的改进型U-Net云图分割方法
CN108765384B (zh) 一种联合流形排序和改进凸包的显著性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant