CN108230322B - 一种基于弱样本标记的眼底特征检测装置 - Google Patents
一种基于弱样本标记的眼底特征检测装置 Download PDFInfo
- Publication number
- CN108230322B CN108230322B CN201810080532.9A CN201810080532A CN108230322B CN 108230322 B CN108230322 B CN 108230322B CN 201810080532 A CN201810080532 A CN 201810080532A CN 108230322 B CN108230322 B CN 108230322B
- Authority
- CN
- China
- Prior art keywords
- fundus
- characteristic
- feature
- module
- type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于弱样本标记的眼底特征检测装置,包括:特征提取模块,对输入的眼底图中的眼底特征进行提取,输出眼底特征图;判别特征学习模块,对输入的眼底特征图进行降维处理,计算每类眼底特征的中心位置,计算每个眼底特征到所属类别中心的距离,以该距离收敛作为目标,不断迭代,确定每类眼底特征中心;采样模块,计算降维眼底特征图中每一个与背景区域对应的特征向量到所属眼底特征类别中心的L2距离,若该L2距离小于阈值,将该背景区域对应的特征向量删掉,输出采样特征图;特征检测模块,对采样特征图进行特征检测分类,输出眼底特征的类别预测概率和眼底特征对应位置。
Description
技术领域
本发明属于图像处理领域,具体涉及一种基于弱样本标记的眼底特征检测装置。
背景技术
目前,有些团队开始使用深度学习的算法来解决糖尿病视网膜的检测。传统的自动化糖网检测方法,一般看来并没有使用深度学习的方法有效,同时深度学习使用的数据量更多,泛化性更好。深度学习的网络结构框架大部分以VGG网络模型和Google Net网络模型为基础来构建的,深度神经网络可以在网络中自己提取特征,不需要认为的指定需要提取那些特征,提取过的特征又可以根据网络的全连接层进行分类,从而使得特征提取和分类结合在了一起,训练的结果相比传统方法更出色。此外,深度学习方法检测眼底特征预测所需的时间也比传统方法短,训练好的网络可以很快的对输入做出判断。
现有的眼底特征检测模型需要大量标注完整的样本图像,来学习标记特征,然后预测出特征的位置和概率。如果训练样本中标注有误或者不完整,那么网络在学习时会学习到错误的特征或者学习的特征不完整,甚至有可能无法学习到特征,从而使得网络训练效果很差,因此,现有的模型对于样本标注的正确性十分敏感。然后,目前,判别糖网特征是计算眼底影像中直径为10~30像素的圆斑(1级眼底特征)以及尺寸为50~100像素的不规则暗红色区域(2级眼底特征)的个数。但由于1级眼底特征和2级眼底特征通常数量很多,且面积很小。很难进行完整的标注。这在训练模型时,常常导致模型无法学习到正确的特征,大大降低了模型的性能。
因此,一种能够基于弱标记样本进行学习的眼底病灶检测装置,已成为目前学术界与工业界的急切需求。
发明内容
本发明的目的是提供一种基于弱样本标记的眼底特征检测装置,该装置中,增加了判别特征学习模块,使用判别特征学习模块的结果作为采样依据,对训练样本进行采样,防止未标记的噪声数据参与训练,影响训练结果,以解决因为样本标记不完整,而导致模型学习效果较差的问题。
为实现上述发明目的,本发明提供以下技术方案:
一种基于弱样本标记的眼底特征检测装置,包括:
特征提取模块,对输入的眼底图中的眼底特征进行提取,输出眼底特征图;
判别特征学习模块,对输入的眼底特征图进行降维处理,计算每类眼底特征的中心位置,计算每个眼底特征到所属类别中心的距离,以该距离收敛作为目标,不断迭代,确定每类眼底特征中心;
采样模块,计算降维眼底特征图中每一个与背景区域对应的特征向量到所属眼底特征类别中心的欧几里得距离,若该欧几里得距离小于阈值,将该背景区域对应的特征向量删掉,输出采样特征图;
特征检测模块,对采样特征图进行特征检测分类,输出眼底特征的类别预测概率和眼底特征对应位置。
其中,所述特征提取模块采用VGG16网络模型。具体地,依次包括两个卷积核大小为3、通道数为64的卷积层,两个卷积核大小为3、通道数为128的卷积层,三个卷积核大小为3、通道数为256的卷积层,三个卷积核大小为3、通道数为512的卷积层,三个卷积核大小为3、通道数为512的卷积层。VGG网络模型作为检测网络中常用的一种,能够使得提取的眼底特征图准确地描述原眼底图的特征信息。
其中,所述判别特征学习模块包括:
全连接层,用于对输入的眼底特征图进行姜维处理,输出降维眼底特征图,降维处理能够减少网络参数,减少后面中心损失函数的计算量,降低计算开销,提升计算效率;
眼底特征中心确定模块,首先,根据网络映射关系,确定降维眼底特征图中每个特征向量对应到原始输入眼底图所代表的位置,然后,根据确定的原始样本特征位置,判断降维眼底特征图中每个特征向量对应的是特征区域还是背景区域,若是特征区域,则该特征向量作为判别特征,最后,对每类眼底特征的所有判别特征求均值,以该均值作为每类眼底特征的中心位置,记为眼底特征均值;
中心损失计算模块,根据眼底特征均值,计算降维眼底特征图中,每个判别特征与其所属类别的眼底特征均值的欧几里得距离。
其中,中心损失计算模块中的损失函数为:
其中,xi表示样本的第i个判别特征,cyi表示第i个样本所属类别yi所对应的中心特征,每次迭代时,类别中心跟新量为:
通过不断的迭代,确定每类眼底特征的中心。
眼底特征分为两类,分别为1级眼底特征和2级眼底特征,眼底图中直径为10~30像素的圆斑为1级眼底特征,尺寸为50~100像素的不规则暗红色区域为2级特征。眼底特征中心确定模块中,确定的每类眼底特征中,也就是1级眼底特征中心、2级眼底特征中心。
具体地,所述采样模块的输入为眼底特征图、降维眼底特征图以及每类眼底特征中心,输出为采样特征图。采样模块中,阈值为10%,即会把背景特征与眼底特征最接近的前10%去除掉。该阈值的设定可以最大程度的错误标记的病变区域去除掉,不让接下来的眼底特征检测装置学习错误的特征,同时又不会把正确的背景特征减少太多,有更强的鲁棒性。
采样模块的设置为特征检测模块提供了学习保证,使特征检测模块仅对特征区域学习,避免模块在学习的过程中对背景区域与特征区域的混淆,提升特征检测模块的检测正确性。
其中,所述特征检测模块包括依次连接的一个卷积核大小为3、通道数为1024的卷积层,一个卷积核大小为1、通道数为1024的卷积层,一个卷积核大小为1、通道数为256的卷积层,一个卷积核大小为3、通道数为512的卷积层,一个卷积核大小为1、通道数为128的卷积层,一个卷积核大小为3、通道数为256的卷积层,一个卷积核大小为1、通道数为128的卷积层,一个卷积核大小为3、通道数为256的卷积层,一个卷积核大小为1、通道数为128的卷积层,一个卷积核大小为3、通道数为256的卷积层以及一个卷积核大小为3、通道数为9×(4+3)的卷积层。
其中,特征检测区域的损失函数如公式(3):
其中,α表示分类损失Lconf和定位损失Lloc之间的比例,本发明定为10,N表示训练样本中包含眼底图的个数,
Lloc(x,l,g)表示定位损失函数,其中xij k第i个预测框和第j个真实框关于类别k是否匹配,取值为1或者为0分别表示匹配与不匹配;li m表示为第i个预测框的中心位置的横(cx)、纵(cy)坐标,长(w)、宽(h)与其所对应的默认框之间的差值,如li cx表示第i个预测框中心位置的横坐标与其所对应默认框中心位置横坐标的差值;g^j m表示第j个真实框的中心位置横(cx)、纵(cy)坐标,长(w)、宽(h)与默认框之间的差值,如g^j cx表示第j个真实框的中心位置横坐标与默认框的中心位置差值;gj cx、gj cy、gj w、gj cx分别表示第j个真实框的中心位置横(cx)、纵(cy)坐标,长(w)、宽(h);di cx、di cy、di w、di cx分别表示第i个默认框的中心位置横(cx)、纵(cy)坐标,长(w)、宽(h)。如公式(4)所示:
Lconf(x,c)表示分类损失函数,其中xij p第i个预测框和第j个真实框关于类别p是否匹配,取值为1或者为0分别表示匹配与不匹配;ci p表示预测第i个区域属于p类别的概率;为ci p的归一化表示;N表示特征区域个数。如公式(5)所示:
具体地,在将眼底图输入检测装置前,对眼底图进行预处理,具体处理过程为:输入眼底图减去所有输入眼底图的均值,再处理所有眼底图的方差。这样处理,能够使得输入眼底图分布接近于标准正态分布,有利于整个模型学习。
与现有技术相比,本发明具有的有益效果为:
本发明是为了解决样本标记不完整的问题而设计的,所以对于待检测弱标记样本能够较准确地识别眼底特征区域,漏检测到的特征区域更少。
附图说明
图1是实施例提供的基于弱样本标记的眼底特征检测装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
图1是实施例提供的基于弱样本标记的眼底特征检测装置的结构示意图。如图1所示,本实施例提供的眼底特征检测装置包括:
特征提取模块101,对输入的眼底图中的眼底特征进行提取,输出眼底特征图;
判别特征学习模块102,该模块具体包括:
全连接层1021,用于对输入的眼底特征图进行姜维处理,输出降维眼底特征图,降维处理能够减少网络参数,减少后面中心损失函数的计算量,降低计算开销,提升计算效率;
眼底特征中心确定模块1022,首先,根据网络映射关系,确定降维眼底特征图中每个特征向量对应到原始输入眼底图所代表的位置,然后,根据确定的原始样本特征位置,判断降维眼底特征图中每个特征向量对应的是特征区域还是背景区域,若是特征区域,则该特征向量作为判别特征,最后,对每类眼底特征的所有判别特征求均值,以该均值作为每类眼底特征的中心位置,记为眼底特征均值;
中心损失计算模块1023,根据眼底特征均值,计算降维眼底特征图中,每个判别特征与其所属类别的眼底特征均值的欧几里得距离;
其中,中心损失计算模块中的损失函数为:
其中,xi表示样本的第i个判别特征,cyi表示第i个样本所属类别yi所对应的中心特征,每次迭代时,类别中心跟新量为:
通过不断的迭代,确定每类眼底特征的中心。
采样模块103,计算降维眼底特征图中每一个与背景区域对应的特征向量到所属眼底特征类别中心的欧几里得距离,若该欧几里得距离小于阈值,将该背景区域对应的特征向量删掉,输出采样特征图;
特征检测模块104,对采样特征图进行特征检测分类,输出眼底特征的类别预测概率和眼底特征对应位置。
原始数据在进入各个模块之前,先进行原始输入预处理的过程,即减训练数据均值,除以训练数据方差,均值使得训练数据分布接近于标准正太分布。
训练数据首先进入特征提取模块101,该模块由VGG16网络模型的所有卷积层与激活函数组成。这样设置是由于VGG16网络模型是检测网络模型中最常用的一种特征提取模型,对于特征的提取效果比较好。该模块可以得到病灶特征图。
接着,眼底特征图进入判别特征学习模块102,该模块首先对特征图降维,即使眼底特征图通过特征维度是128的全连接层,得到降维眼底特征图,降维眼底特征图的特征维度由原来的512变为了128;接下来根据网络映射关系,确定降维眼底特征图中每个特征向量对应到原始样本输入图像所代表的位置,并根据原始样本眼底位置判断降维眼底特征图中每个特征向量是眼底区域还是背景区域;然后分别对每种特征类别的所有特征向量求均值,可以得到每类眼底特征所对应的特征向量均值,这个特征向量均值就是每种特征的特征中心;接着,计算降维眼底特征图中每个眼底区域的特征向量和它所属于特征类别的特征向量均值的欧几里得距离,该距离就是判别特征学习模块的损失值。
然后,在采样模块103中,首先计算降维眼底特征图中每一个背景区域特征向量到每一种特征所对应的特征向量均值的欧几里得距离;接下来,对所得到的所有欧几里得距离进行由小到大的排序,本发明认为排名在前10%的背景区域特征向量,极大可能是漏标记的特征区域,因为他们和特征更加相似,那么在接下的特征检测模块就不使用该背景区域作为训练数据。采样模块的输出是采样过后的特征图,记为采样特征图。
最终,采样特征图通过特征检测模块104,该模块采用单路多anchor输出,anchor是输入图像中一些固定大小位置和长宽比的矩形区域,本发明中使用3种长宽比(1:1,1:2,2:1)和3种固定大小(60,120,180)来组成3*3种不同大小形状的anchor。病灶采样特征图经过模块中的一系列依次相连的卷积,使得病灶采样特征图每一个位置都有9*(4+3)个输出,每个输出包含了每一个anchor的坐标位置和属于每一种特征类别的概率。本发明最终取预测类别概率大于70%的预测位置,并把这些预测位置作为最终的预测特征的位置。
以上所述的具体实施方式对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的最优选实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换等,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于弱样本标记的眼底特征检测装置,其特征在于,包括:
特征提取模块,对输入的眼底图中的眼底特征进行提取,输出眼底特征图;
判别特征学习模块,对输入的眼底特征图进行降维处理,计算每类眼底特征的中心位置,计算每个眼底特征到所属类别中心的距离,以该距离收敛作为目标,不断迭代,确定每类眼底特征中心;
采样模块,计算降维眼底特征图中每一个与背景区域对应的特征向量到所属眼底特征类别中心的L2距离,若该L2距离小于阈值,将该背景区域对应的特征向量删掉,输出采样特征图;
特征检测模块,对采样特征图进行特征检测分类,输出眼底特征的类别预测概率和眼底特征对应位置。
2.如权利要求1所述的基于弱样本标记的眼底特征检测装置,其特征在于,所述特征提取模块采用VGG16网络模型。
3.如权利要求1所述的基于弱样本标记的眼底特征检测装置,其特征在于,所述判别特征学习模块包括:
全连接层,用于对输入的眼底特征图进行降维处理,输出降维眼底特征图,降维处理能够减少网络参数,减少后面中心损失函数的计算量,降低计算开销,提升计算效率;
眼底特征中心确定模块,首先,根据网络映射关系,确定降维眼底特征图中每个特征向量对应到原始输入眼底图所代表的位置,然后,根据确定的原始样本特征位置,判断降维眼底特征图中每个特征向量对应的是特征区域还是背景区域,若是特征区域,则该特征向量作为判别特征,最后,对每类眼底特征的所有判别特征求均值,以该均值作为每类眼底特征的中心位置,记为眼底特征均值;
中心损失计算模块,根据眼底特征均值,计算降维眼底特征图中,每个判别特征与其所属类别的眼底特征均值的L2距离;
其中,中心损失计算模块中的损失函数为:
其中,xi表示样本的第i个判别特征,cyi表示第i个样本所属类别yi所对应的中心特征,每次迭代时,类别中心更新量为:
通过不断的迭代,确定每类眼底特征的中心。
4.如权利要求1所述的基于弱样本标记的眼底特征检测装置,其特征在于,采样模块中,阈值为10%,即会把背景特征与眼底特征最接近的前10%去除掉。
5.如权利要求1所述的基于弱样本标记的眼底特征检测装置,其特征在于,所述特征检测模块包括依次连接的一个卷积核大小为3、通道数为1024的卷积层,一个卷积核大小为1、通道数为1024的卷积层,一个卷积核大小为1、通道数为256的卷积层,一个卷积核大小为3、通道数为512的卷积层,一个卷积核大小为1、通道数为128的卷积层,一个卷积核大小为3、通道数为256的卷积层,一个卷积核大小为1、通道数为128的卷积层,一个卷积核大小为3、通道数为256的卷积层,一个卷积核大小为1、通道数为128的卷积层,一个卷积核大小为3、通道数为256的卷积层以及一个卷积核大小为3、通道数为9×(4+3)的卷积层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810080532.9A CN108230322B (zh) | 2018-01-28 | 2018-01-28 | 一种基于弱样本标记的眼底特征检测装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810080532.9A CN108230322B (zh) | 2018-01-28 | 2018-01-28 | 一种基于弱样本标记的眼底特征检测装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108230322A CN108230322A (zh) | 2018-06-29 |
CN108230322B true CN108230322B (zh) | 2021-11-09 |
Family
ID=62667843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810080532.9A Active CN108230322B (zh) | 2018-01-28 | 2018-01-28 | 一种基于弱样本标记的眼底特征检测装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108230322B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325942B (zh) * | 2018-09-07 | 2022-03-25 | 电子科技大学 | 基于全卷积神经网络的眼底图像结构分割方法 |
CN110009623B (zh) * | 2019-04-10 | 2021-05-11 | 腾讯医疗健康(深圳)有限公司 | 一种图像识别模型训练及图像识别方法、装置及系统 |
CN110309810B (zh) * | 2019-07-10 | 2021-08-17 | 华中科技大学 | 一种基于批次中心相似度的行人重识别方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870838A (zh) * | 2014-03-05 | 2014-06-18 | 南京航空航天大学 | 糖尿病视网膜病变的眼底图像特征提取方法 |
CN104463215A (zh) * | 2014-12-10 | 2015-03-25 | 东北大学 | 基于视网膜图像处理的微小动脉瘤发生风险预测系统 |
CN104573712A (zh) * | 2014-12-31 | 2015-04-29 | 浙江大学 | 基于眼底图像的动静脉视网膜血管分类方法 |
CN104573716A (zh) * | 2014-12-31 | 2015-04-29 | 浙江大学 | 基于广度搜索算法的眼底图像的动静脉视网膜血管分类方法 |
CN106408564A (zh) * | 2016-10-10 | 2017-02-15 | 北京新皓然软件技术有限责任公司 | 一种基于深度学习的眼底图像处理方法、装置及系统 |
CN106529598A (zh) * | 2016-11-11 | 2017-03-22 | 北京工业大学 | 一种基于不均衡医疗图像数据集的分类方法与系统 |
CN106599804A (zh) * | 2016-11-30 | 2017-04-26 | 哈尔滨工业大学 | 基于多特征模型的视网膜中央凹检测方法 |
CN106815853A (zh) * | 2016-12-14 | 2017-06-09 | 海纳医信(北京)软件科技有限责任公司 | 对眼底图像中视网膜血管的分割方法和装置 |
CN106920227A (zh) * | 2016-12-27 | 2017-07-04 | 北京工业大学 | 基于深度学习与传统方法相结合的视网膜血管分割方法 |
CN107045720A (zh) * | 2017-05-04 | 2017-08-15 | 深圳硅基智能科技有限公司 | 用于识别眼底图像病变的人工神经网络及系统 |
CN107203758A (zh) * | 2017-06-06 | 2017-09-26 | 哈尔滨理工大学 | 糖尿病人视网膜血管图像分割方法 |
CN107633513A (zh) * | 2017-09-18 | 2018-01-26 | 天津大学 | 基于深度学习的3d图像质量的度量方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103793593B (zh) * | 2013-11-15 | 2018-02-13 | 吴一兵 | 一种获取大脑状态客观定量指标的方法 |
US9836849B2 (en) * | 2015-01-28 | 2017-12-05 | University Of Florida Research Foundation, Inc. | Method for the autonomous image segmentation of flow systems |
US10405739B2 (en) * | 2015-10-23 | 2019-09-10 | International Business Machines Corporation | Automatically detecting eye type in retinal fundus images |
-
2018
- 2018-01-28 CN CN201810080532.9A patent/CN108230322B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103870838A (zh) * | 2014-03-05 | 2014-06-18 | 南京航空航天大学 | 糖尿病视网膜病变的眼底图像特征提取方法 |
CN104463215A (zh) * | 2014-12-10 | 2015-03-25 | 东北大学 | 基于视网膜图像处理的微小动脉瘤发生风险预测系统 |
CN104573712A (zh) * | 2014-12-31 | 2015-04-29 | 浙江大学 | 基于眼底图像的动静脉视网膜血管分类方法 |
CN104573716A (zh) * | 2014-12-31 | 2015-04-29 | 浙江大学 | 基于广度搜索算法的眼底图像的动静脉视网膜血管分类方法 |
CN106408564A (zh) * | 2016-10-10 | 2017-02-15 | 北京新皓然软件技术有限责任公司 | 一种基于深度学习的眼底图像处理方法、装置及系统 |
CN106529598A (zh) * | 2016-11-11 | 2017-03-22 | 北京工业大学 | 一种基于不均衡医疗图像数据集的分类方法与系统 |
CN106599804A (zh) * | 2016-11-30 | 2017-04-26 | 哈尔滨工业大学 | 基于多特征模型的视网膜中央凹检测方法 |
CN106815853A (zh) * | 2016-12-14 | 2017-06-09 | 海纳医信(北京)软件科技有限责任公司 | 对眼底图像中视网膜血管的分割方法和装置 |
CN106920227A (zh) * | 2016-12-27 | 2017-07-04 | 北京工业大学 | 基于深度学习与传统方法相结合的视网膜血管分割方法 |
CN107045720A (zh) * | 2017-05-04 | 2017-08-15 | 深圳硅基智能科技有限公司 | 用于识别眼底图像病变的人工神经网络及系统 |
CN107203758A (zh) * | 2017-06-06 | 2017-09-26 | 哈尔滨理工大学 | 糖尿病人视网膜血管图像分割方法 |
CN107633513A (zh) * | 2017-09-18 | 2018-01-26 | 天津大学 | 基于深度学习的3d图像质量的度量方法 |
Non-Patent Citations (2)
Title |
---|
Kumar,Sjj等.An Improved Medical Decision Support System to Identify the Diabetic Retinopathy Using Fundus Images.《Journal of Medical Systems 36》.2012,第3573-3581页. * |
视网膜血管分割与动静脉分类方法研究;杨毅;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170215(第2期);第I138-4028页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108230322A (zh) | 2018-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106803247B (zh) | 一种基于多级筛选卷积神经网络的微血管瘤图像识别方法 | |
Marszalek et al. | Accurate object localization with shape masks | |
CN106650731B (zh) | 一种鲁棒的车牌、车标识别方法 | |
TW201926140A (zh) | 影像標註方法、電子裝置及非暫態電腦可讀取儲存媒體 | |
US10445602B2 (en) | Apparatus and method for recognizing traffic signs | |
CN109472226B (zh) | 一种基于深度学习的睡觉行为检测方法 | |
CN105389593A (zh) | 基于surf特征的图像物体识别方法 | |
CN111008576B (zh) | 行人检测及其模型训练、更新方法、设备及可读存储介质 | |
CN108230322B (zh) | 一种基于弱样本标记的眼底特征检测装置 | |
CN109165658B (zh) | 一种基于Faster-RCNN的强负样本水下目标检测方法 | |
CN107194418A (zh) | 一种基于对抗特征学习的水稻蚜虫检测方法 | |
CN101996308A (zh) | 人脸认证方法及系统、人脸模型训练方法及系统 | |
CN112766218B (zh) | 基于非对称联合教学网络的跨域行人重识别方法和装置 | |
US8948517B2 (en) | Landmark localization via visual search | |
Li et al. | Group-housed pig detection in video surveillance of overhead views using multi-feature template matching | |
Mannan et al. | Classification of degraded traffic signs using flexible mixture model and transfer learning | |
CN108509950A (zh) | 基于概率特征加权融合的铁路接触网支柱号牌检测识别法 | |
CN115861738A (zh) | 一种类别语义信息引导的遥感目标检测主动采样方法 | |
Wang et al. | License plate recognition system | |
US9081800B2 (en) | Object detection via visual search | |
CN108921172B (zh) | 基于支持向量机的图像处理装置及方法 | |
CN111723852A (zh) | 针对目标检测网络的鲁棒训练方法 | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
CN102968622B (zh) | 一种台标识别方法以及台标识别装置 | |
CN111582057B (zh) | 一种基于局部感受野的人脸验证方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |