CN106056165A - 一种基于超像素关联性增强Adaboost分类学习的显著性检测方法 - Google Patents
一种基于超像素关联性增强Adaboost分类学习的显著性检测方法 Download PDFInfo
- Publication number
- CN106056165A CN106056165A CN201610487528.5A CN201610487528A CN106056165A CN 106056165 A CN106056165 A CN 106056165A CN 201610487528 A CN201610487528 A CN 201610487528A CN 106056165 A CN106056165 A CN 106056165A
- Authority
- CN
- China
- Prior art keywords
- super
- pixel
- background
- saliency map
- saliency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 24
- 230000002708 enhancing effect Effects 0.000 title abstract 2
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 17
- 239000011159 matrix material Substances 0.000 claims abstract description 15
- 238000012360 testing method Methods 0.000 claims abstract description 11
- 230000004927 fusion Effects 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000002787 reinforcement Effects 0.000 claims description 3
- 238000002790 cross-validation Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 238000004458 analytical method Methods 0.000 abstract 2
- 238000003709 image segmentation Methods 0.000 abstract 1
- 230000000007 visual effect Effects 0.000 description 3
- 238000007635 classification algorithm Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于超像素关联性增强Adaboost分类学习的显著性检测方法,属于图像处理领域。首先,生成基于背景的显著图,由超像素在颜色特征空间和位置空间上的全局对比度得到。然后在背景显著图基础上,采用K‑最近邻算法作为弱分类器,使用AdaBoost算法进行增强学习,得到一个强学习的分类器,对图像超像素进行分类,得到分类显著图,并使用邻居超像素关联矩阵分别对背景显著图和分类显著图进行优化。最后对分类后得到的显著图和背景显著图进行加权融合,生成最终的显著图。该发明在PASCAL数据集上进行测试,能够得到较好的显著性检测结果。显著性分析结果可用于促进图像分割、对象检测与跟踪、头像分析理解等应用。
Description
技术领域
本发明属于图像处理领域,涉及一种基于超像素关联性增强AdaBoost分类学习的显著性检测方法,采用K-最近邻分类算法作为基本分类器,考虑邻居超像素之间的关联性,属于自底向上显著性检测模型。
背景技术
一般情况下,人们只会对视觉场景中感兴趣的只是某个局部而不是视力范围内的所有物体。显著性检测技术能够模拟人类的视觉系统,检测出图像中最能吸引人们注意最能表现图像内容的显著部分。这部分相对于它的邻近区域突出,比如在颜色、纹理、形状等方面与邻近区域有较明显的区别。
目前,随着人们对显著性检测的研究越来越深入,已经涌现出来很多好的检测方法与检测模型。自底向上的显著性检测模型是图像显著性检测中运用比较广泛的一种模型,相比于基于高层语义信息的自顶向下显著性检测模型,它基于底层特征,能更有效的检测图像的细节信息。同时,人们发现对比度是对检测结果影响较大的因素。对比度即两个单元在颜色、梯度、亮度、空间距离、形状等特征上的差别程度。根据对比单元分布,对比度分为全局对比度和局部对比度。局部对比度方法是基于周围邻近像素估计一特定区域的显著性,这类方法能产生较清晰的显著图,但忽略了全局关系结构,而且对图像的高频部分更为敏感。全局对比度方法在整幅图像上考察对比度关系。这类方法倾向于将大范围的目标同周围环境分离开,检测结果通常优于会在轮廓附近产生较高显著性的局部对比度方法,但是由于较多关注整幅图像的结构和统计特征,需要解决复杂的整合问题。对于特征差异较明显的图像,利用对比度理论能够得到较好的显著性检测结果,但是对于那些颜色等底层特征不够突出即与周围边缘特征相近的图像,检测结果还不够精确。
发明内容
本发明考虑超像素之间的联系,提出了一种基于超像素关联性增强AdaBoost分类学习的显著性检测方法,目的在于克服现有技术的不足,在背景显著图基础上,从邻近超像素的关联性角度出发,对图像超像素进行分类,以更有效的区分目标超像素和背景超像素,得到较好的显著性图。
本发明的技术方案:
一种基于超像素关联性增强AdaBoost分类学习的显著性检测方法,步骤如下:
步骤1.生成背景显著图并用超像素关联矩阵进行优化
生成背景显著图:确定背景超像素种子,将背景超像素种子依据颜色特征分类聚簇;依据空间位置(W)、CIELab、HSV和纹理(T)等四个特征,将非背景超像素与上述各分类聚簇的背景超像素种子进行对比度计算,生成背景显著图SBG;
用超像素关联矩阵对背景显著图进行优化:
在空间位置(W)、CIELab、HSV和纹理(T)等特征上建立超像素关联矩阵A=[aij]N×N,其中N为超像素数。邻居超像素在上述四个特征间具有关联性,采用欧式距离判定邻居超像素关联性,公式为:
其中,本发明中此处feat(i)、feat(j)分别为超像素i和超像素j的HSV颜色特征,n(i)为超像素i的邻居超像素集合,σ1为常量。
对背景显著图SBG进行优化,优化公式为:
其中,D=diag{d11,d22,…,dNN},
步骤2.对背景显著图超像素进行分类:采用AdaBoost增强学习分类算法,为考虑邻近超像素之间的相互影响,将K-最近邻分类算法作为AdaBoost算法的弱分类器,在背景显著图上,依据超像素的显著性值对超像素进行分类,即划分为目标超像素和背景超像素。
步骤3.生成分类显著图并使用超像素关联矩阵进行优化:在步骤2分类结果上,对超像素显著性重新赋值,得到分类显著图。同理步骤1中对背景显著图的优化,使用超像素关联矩阵对分类显著图进行进一步优化。
步骤4.生成融合显著图:将步骤3和步骤1得到的显著图进行加权融合,得到最终的显著图。
本发明的有益效果:本发明所提出的基于超像素关联性增强Adaboost分类学习的显著性检测方法,无论是在背景区域与目标区域的划分上,还是在对显著图的优化上,都着重考虑了邻近超像素之间的关联性。而且这种邻近关系不仅仅是指空间位置上的邻近,还包括纹理特征空间以及CIELab和HSV两个相互补的颜色特征空间上的邻近,使得背景区域与目标区域的划分更加精确,得到高质量的显著图。
附图说明
图1是本发明图像显著性检测方法的流程图。
图2是本发明的实例检测流程的效果图。
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
针对上述四个步骤,对每一个步骤进行以下具体说明:
步骤1:生成背景显著图
1-1用PB(probability of boundary)方法检测出图像的边界信息,得到超像素i的边缘像素的平均PB值,计算公式为其中Ipb是超像素i中像素I的PB值,|Bi|是超像素i中像素数量。采用OTSU方法得到一个自适应阈值,把PB值小于阈值的超像素作为背景种子。
1-2采用K-means方法将背景种子依据CIELab颜色特征分类聚簇,聚类中心点数量用KM表示。这里的KM值依据一般性边缘颜色数量取为KM=3。然后在空间位置(W)、纹理(T)、CIELab、HSV等特征上,将非背景超像素与上述各分类聚簇的背景超像素种子进行对比度计算。针对上述四个特征分别得到KM个簇的特征显著图。第km(km∈{1,2,…,KM})个簇类特征显著图可表示为Sfeat(km,i),其中,feat∈{W,T,CIELab,HSV}。超像素显著性值计算公式分别为:
其中上述公式左边(km,i)表示第km个簇中第i个超像素,公式右边表示第km个簇中超像素个数,在公式(3)中||W(i),W(j)||为超像素i与超像素j在空间位置上的欧式距离,公式(4)中||T(i),T(j)||为超像素i和超像素j在纹理特征上的欧式距离,公式(5)中||cLab(i),cLab(j)||为超像素i与超像素j在CIELab颜色空间上的欧式距离,公式(6)中||cHSV(i),cHSV(j)||为超像素i与超像素j在HSV颜色空间上的欧式距离,σ2、σ3、σ4、σ5为常量。
1-3对步骤1-2中得到的SW、ST、SLab、SHSV特征显著图进行融合,生成背景显著图SBG,其超像素显著性值计算公式为:
1-4在上述特征空间上建立超像素关联矩阵A=[aij]N×N,其中N为超像素数。邻居超像素在特征上相互影响,依旧采用欧式距离来判定关联性的大小,计算公式为:
其中,本发明中此处feat为HSV颜色特征,n(i)为超像素i的邻居集合,σ5为常量参数。
对步骤1-4中得到的背景显著图SBG采用超像素关联矩阵进行优化,优化公式为:
其中,D=diag{d11,d22,…,dNN},
步骤2:对背景显著图的超像素进行分类
2-1获取分类样本:为同一张背景显著图选取两个阈值:目标像素阈值Tf和背景像素阈值Tb;阈值是由OTSU方法依据超像素的显著性值确定,然后赋予两个不同的权重,设定目标阈值权重ρf=1.45,背景阈值权重ρb=0.95;背景显著图中显著性值大于目标超像素阈值Tf的超像素为目标超像素,定义其类别标签label=1,同理小于Tb的确定为背景超像素,定义其类别标签label=-1,处于两者之间的为待分类样本;将确定的目标超像素和背景超像素作为分类器训练样本,表示为X:{x1,x2,...,xn},对应类别集合表示为label:{label(xi)|xi∈X,label∈{1,-1}}。
2-2构造弱分类器,即K-最近邻分类器(KNN);KNN算法中一个超像素的邻近超像素是由该超像素与其他超像素在空间位置、纹理、CIELab和HSV四个特征的欧式距离来确定的;KNN算法中邻近超像素选取个数用KN表示;KNN算法中的测试集中超像素i与训练集中超像素j在特征feat上的欧式距离表示为:
Dfeat=||Testfeat(i)-Train(j)|| (10)
其中,Testfeat(i)、Trainfeat(j)分别为测试集中超像素i和训练集中超像素j的feat特征,feat∈{CIELab,HSV,T,W},此处的测试集为在样本集合X中随机选取的一部分样本,样本集合X中剩余部分样本作为此处的训练集。
选取前KN个最小Dfeat值所对应的超像素j作为超像素i的KN个最近邻超像素;分别计算KN个超像素中目标超像素个数NUMlabel=1和背景超像素个数NUMlabel=-1,如果NUMlabel=1≥NUMlabel=-1,则超像素i为目标超像素,反之为背景超像素。最后计算分类误差率ε。
在KNN算法中,KN值的选择对算法的性能有着很大影响。本发明中采用10折交叉验证算法,选取平均分类误差率最小时的KN值作为KNN算法的最优KN值。
2-3构造强分类器。采用AdaBoost增强学习算法,在训练样本上对步骤2-2中构造的弱分类器进行迭代训练得到多个弱分类器,把多个弱分类器依据权重融合成一个强分类器。
首先,按如下方法改进样本初始权重分布:
其中,|Xpositive|为目标超像素个数,|Xnegaive|为背景超像素个数,label(xi)为样本xi的初始类别标签。
其次,使用初始权重分布,对弱分类器进行训练学习;设定T轮训练,针对图像四个特征及分别对应的KN值,每轮训练得到四个单特征的弱分类器,选取使误差率εt最小的弱分类器,作为本轮训练的最优弱分类器。第t轮训练得到的最优弱分类器可表示为ht。
最后,计算弱分类器权重并更新样本初始权重。
第t轮弱分类器ht权重计算公式为:
其中,
其中N为样本数,ht(xi)为第t个弱分类器对样本xi的分类输出。
样本权重更新公式为:
组成强分类器:
步骤3:生成分类显著图并使用超像素关联矩阵进行优化
3-1使用步骤2中生成的强分类器对步骤1中生成的背景显著图中的超像素进行分类,对分类后的超像素重新赋予显著性值,使目标更突出。计算公式如下:
其中,δ1,δ2为常量。
3-2对步骤3-1中生成的分类显著图进行关联矩阵优化,同步骤1-4中对背景显著的优化,对分类显著图优化公式为:
步骤4:生成融合显著图
最后一步是把步骤1生成的背景显著图和步骤3-2生成的分类显著图进行加权融合,生成最终的显著图。融合公式为:
其中,β1+β2=1。
Claims (1)
1.一种基于超像素关联性增强AdaBoost分类学习的显著性检测方法,其特征在于,步骤如下:
步骤1:生成背景显著图并用超像素关联矩阵进行优化
生成背景显著图:确定背景超像素种子,将背景超像素种子依据颜色特征分类聚簇;依据空间位置W、CIELab、HSV和纹理T四个特征,将非背景超像素与上述各分类聚簇的背景超像素种子进行对比度计算,生成背景显著图SBG;
用超像素关联矩阵对背景显著图进行优化:
在空间位置W、CIELab、HSV和纹理T上建立超像素关联矩阵A=[aij]N×N,其中N为超像素数;邻居超像素在上述四个特征间具有关联性,采用欧式距离判定邻居超像素关联性,公式为:
其中,feat(i)、feat(j)分别为超像素i和超像素j的HSV颜色特征,n(i)为超像素i的邻居超像素集合,σ1为常量;
对背景显著图SBG进行优化,优化公式为:
其中,D=diag{d11,d22,…,dNN},
步骤2:对背景显著图的超像素进行分类
2-1获取分类样本:为同一张背景显著图选取两个阈值:目标像素阈值Tf和背景像素阈值Tb;阈值是由OTSU方法依据超像素的显著性值确定,然后赋予两个不同的权重,设定目标阈值权重ρf=1.45,背景阈值权重ρb=0.95;背景显著图中显著性值大于目标超像素阈值Tf的超像素为目标超像素,定义其类别标签label=1,同理小于Tb的确定为背景超像素,定义其类别标签label=-1,处于两者之间的为待分类样本;将确定的目标超像素和背景超像素作为分类器训练样本,表示为X:{x1,x2,...,xn},对应类别集合表示为label:{label(xi)|xi∈X,label∈{1,-1}};
2-2构造弱分类器:即K-最近邻分类器KNN;KNN算法中一个超像素的邻近超像素是由该超像素与其他超像素在空间位置、纹理、CIELab和HSV四个特征的欧式距离来确定的;KNN算法中邻近超像素选取个数用KN表示;KNN算法中的测试集中超像素i与训练集中超像素j在特征feat上的欧式距离表示为:
Dfeat=||Testfeat(i)-Train(j)|| (10)
其中,Testfeat(i)、Trainfeat(j)分别为测试集中超像素i和训练集中超像素j的feat特征,feat∈{CIELab,HSV,T,W},此处的测试集为在样本集合X中随机选取的一部分样本,样本集合X中剩余部分样本作为此处的训练集;
选取前KN个最小Dfeat值所对应的超像素j作为超像素i的KN个最近邻超像素;分别计算KN个超像素中目标超像素个数NUMlabel=1和背景超像素个数NUMlabel=-1,如果NUMlabel=1≥NUMlabel=-1,则超像素i为目标超像素,反之为背景超像素;最后计算分类误差率ε;
采用10折交叉验证算法,选取平均分类误差率最小时的KN值作为KNN算法的最优KN值;
2-3构造强分类器:采用AdaBoost增强学习算法,在训练样本上对步骤2-2中构造的弱分类器进行迭代训练得到多个弱分类器,把多个弱分类器依据权重融合成一个强分类器;
首先,按如下方法改进样本初始权重分布:
其中,|Xpositive|为目标超像素个数,|Xnegaive|为背景超像素个数,label(xi)为样本xi的初始类别标签;
其次,使用初始权重分布,对弱分类器进行训练学习;设定T轮训练,针对图像四个特征及分别对应的KN值,每轮训练得到四个单特征的弱分类器,选取使误差率εt最小的弱分类器,作为本轮训练的最优弱分类器;第t轮训练得到的最优弱分类器可表示为ht;
最后,计算弱分类器权重并更新样本初始权重;
第t轮弱分类器ht权重计算公式为:
其中,
其中N为样本数,ht(xi)为第t个弱分类器对样本xi的分类输出;
样本权重更新公式为:
组成强分类器:
步骤3:生成分类显著图并使用超像素关联矩阵进行优化
3-1使用步骤2中生成的强分类器对步骤1中生成的背景显著图中的超像素进行分类,对分类后的超像素重新赋予显著性值,使目标更突出;计算公式如下:
其中,δ1,δ2为常量;
3-2对步骤3-1中生成的分类显著图进行关联矩阵优化,同步骤1中对背景显著的优化,对分类显著图优化公式为:
步骤4:生成融合显著图
最后一步是把步骤1生成的背景显著图和步骤3-2生成的分类显著图进行加权融合,生成最终的显著图;融合公式为:
其中,β1+β2=1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610487528.5A CN106056165B (zh) | 2016-06-28 | 2016-06-28 | 一种基于超像素关联性增强Adaboost分类学习的显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610487528.5A CN106056165B (zh) | 2016-06-28 | 2016-06-28 | 一种基于超像素关联性增强Adaboost分类学习的显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106056165A true CN106056165A (zh) | 2016-10-26 |
CN106056165B CN106056165B (zh) | 2019-05-10 |
Family
ID=57165901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610487528.5A Expired - Fee Related CN106056165B (zh) | 2016-06-28 | 2016-06-28 | 一种基于超像素关联性增强Adaboost分类学习的显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106056165B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570851A (zh) * | 2016-10-27 | 2017-04-19 | 大连理工大学 | 一种基于加权分配d‑s证据理论的显著图融合方法 |
CN106780430A (zh) * | 2016-11-17 | 2017-05-31 | 大连理工大学 | 一种基于被包围状态和马尔可夫模型的图像显著性检测方法 |
CN106815843A (zh) * | 2016-11-30 | 2017-06-09 | 江苏城乡建设职业学院 | 一种基于凸包中心先验和马尔可夫吸收链的果实目标获取方法 |
CN107103608A (zh) * | 2017-04-17 | 2017-08-29 | 大连理工大学 | 一种基于区域候选样本选择的显著性检测方法 |
CN109489977A (zh) * | 2018-12-28 | 2019-03-19 | 西安工程大学 | 基于KNN-AdaBoost的轴承故障诊断方法 |
CN112163511A (zh) * | 2020-09-25 | 2021-01-01 | 天津大学 | 一种图像真伪鉴别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101813475A (zh) * | 2010-04-24 | 2010-08-25 | 上海交通大学 | 远距离障碍的自适应检测方法 |
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
US20140294239A1 (en) * | 2011-12-05 | 2014-10-02 | University Of Lincoln | Method and apparatus for automatic detection of features in an image and method for training the apparatus |
US9153031B2 (en) * | 2011-06-22 | 2015-10-06 | Microsoft Technology Licensing, Llc | Modifying video regions using mobile device input |
CN105118051A (zh) * | 2015-07-29 | 2015-12-02 | 广东工业大学 | 一种应用于静态图像人体分割的显著性检测方法 |
-
2016
- 2016-06-28 CN CN201610487528.5A patent/CN106056165B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101813475A (zh) * | 2010-04-24 | 2010-08-25 | 上海交通大学 | 远距离障碍的自适应检测方法 |
US9153031B2 (en) * | 2011-06-22 | 2015-10-06 | Microsoft Technology Licensing, Llc | Modifying video regions using mobile device input |
US20140294239A1 (en) * | 2011-12-05 | 2014-10-02 | University Of Lincoln | Method and apparatus for automatic detection of features in an image and method for training the apparatus |
CN102722891A (zh) * | 2012-06-12 | 2012-10-10 | 大连理工大学 | 一种图像显著度检测的方法 |
CN105118051A (zh) * | 2015-07-29 | 2015-12-02 | 广东工业大学 | 一种应用于静态图像人体分割的显著性检测方法 |
Non-Patent Citations (4)
Title |
---|
X LI,ET AL.: "《Superpixel-based object class segmentation using conditional random fields》", 《IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS》 * |
佟娜: "《基于引导学习和局部约束线性编码的显著性检测算法研究》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
刘晓辉: "《复杂视觉场景下的行人检测与跟踪方法研究》", 《中国博士学位论文全文数据库 信息科技辑》 * |
崔小强: "《基于时空线索的快速视频显著性检测》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106570851A (zh) * | 2016-10-27 | 2017-04-19 | 大连理工大学 | 一种基于加权分配d‑s证据理论的显著图融合方法 |
CN106570851B (zh) * | 2016-10-27 | 2019-06-28 | 大连理工大学 | 一种基于加权分配d-s证据理论的显著图融合方法 |
CN106780430A (zh) * | 2016-11-17 | 2017-05-31 | 大连理工大学 | 一种基于被包围状态和马尔可夫模型的图像显著性检测方法 |
CN106780430B (zh) * | 2016-11-17 | 2019-08-09 | 大连理工大学 | 一种基于被包围状态和马尔可夫模型的图像显著性检测方法 |
CN106815843A (zh) * | 2016-11-30 | 2017-06-09 | 江苏城乡建设职业学院 | 一种基于凸包中心先验和马尔可夫吸收链的果实目标获取方法 |
CN107103608A (zh) * | 2017-04-17 | 2017-08-29 | 大连理工大学 | 一种基于区域候选样本选择的显著性检测方法 |
CN107103608B (zh) * | 2017-04-17 | 2019-09-27 | 大连理工大学 | 一种基于区域候选样本选择的显著性检测方法 |
CN109489977A (zh) * | 2018-12-28 | 2019-03-19 | 西安工程大学 | 基于KNN-AdaBoost的轴承故障诊断方法 |
CN109489977B (zh) * | 2018-12-28 | 2021-03-05 | 西安工程大学 | 基于KNN-AdaBoost的轴承故障诊断方法 |
CN112163511A (zh) * | 2020-09-25 | 2021-01-01 | 天津大学 | 一种图像真伪鉴别方法 |
CN112163511B (zh) * | 2020-09-25 | 2022-03-29 | 天津大学 | 一种图像真伪鉴别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106056165B (zh) | 2019-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN109614985B (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
CN106056165B (zh) | 一种基于超像素关联性增强Adaboost分类学习的显著性检测方法 | |
CN110163110B (zh) | 一种基于迁移学习和深度特征融合的行人重识别方法 | |
CN107092870B (zh) | 一种高分辨率影像语义信息提取方法 | |
CN106682696B (zh) | 基于在线示例分类器精化的多示例检测网络及其训练方法 | |
CN105184309B (zh) | 基于cnn和svm的极化sar图像分类 | |
Huang et al. | New postprocessing methods for remote sensing image classification: A systematic study | |
CN109684922B (zh) | 一种基于卷积神经网络的多模型对成品菜的识别方法 | |
CN111723693B (zh) | 一种基于小样本学习的人群计数方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN110348319A (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
CN107169417B (zh) | 基于多核增强和显著性融合的rgbd图像协同显著性检测方法 | |
CN112733614B (zh) | 一种带有相似尺寸强化识别的害虫图像检测方法 | |
CN109299668A (zh) | 一种基于主动学习和聚类分析的高光谱图像分类方法 | |
CN111368660A (zh) | 一种单阶段半监督图像人体目标检测方法 | |
CN111191667A (zh) | 基于多尺度生成对抗网络的人群计数方法 | |
CN103914705A (zh) | 一种基于多目标免疫克隆的高光谱图像分类和波段选择的方法 | |
CN106096655A (zh) | 一种基于卷积神经网络的光学遥感图像飞机检测方法 | |
CN106991686A (zh) | 一种基于超像素光流场的水平集轮廓跟踪方法 | |
CN108268890A (zh) | 一种高光谱图像分类方法 | |
CN106157330A (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN115661777A (zh) | 一种联合语义的雾天道路目标检测算法 | |
CN104156943A (zh) | 基于非支配邻域免疫算法的多目标模糊聚类图像变化检测方法 | |
CN114821152A (zh) | 基于前景-类别感知对齐的域自适应目标检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190510 |