CN109584251A - 一种基于单目标区域分割的舌体图像分割方法 - Google Patents
一种基于单目标区域分割的舌体图像分割方法 Download PDFInfo
- Publication number
- CN109584251A CN109584251A CN201811487010.7A CN201811487010A CN109584251A CN 109584251 A CN109584251 A CN 109584251A CN 201811487010 A CN201811487010 A CN 201811487010A CN 109584251 A CN109584251 A CN 109584251A
- Authority
- CN
- China
- Prior art keywords
- image
- tongue body
- loss
- segmentation
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Algebra (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
一种基于单目标区域分割的舌体图像分割方法,该方法包括以下步骤:步骤1)原图像获取:采集舌体原图像;步骤(2)图像标注:采用超像素改进的Grabcut算法对采集的每一张舌体原图像进行人工标注;步骤(3)图像制作:将进行人工标注后的图像与对应的舌体原图像组成图像对;步骤(4)训练神经网络:通过训练集图像,对单目标语义分割神经网络进行训练;步骤(5)测试神经网络:利用训练好的的单目标语义分割神经网络对舌体图像进行分割,通过测试集图像对神经网络进行测试。本发明提供的舌体图像分割方法,采用单目标区域约束深度网络来实现对现有图像的标注、分割、学习生成掩模图像,再与原图像合成形成舌体分割图。
Description
技术领域
本发明涉及一种基于深度学习方法的舌体图像分割方法,具体涉及一种基于单目标区域分割的舌体图像分割方法,属于医学图像分析领域。
背景技术
随着舌头包含着大量有关人体体质的信息,现阶段只有通过丰富的中医专家经验才能诊断出准确的结果。为了对病症诊断进行辅助,并形成全面的计算机舌诊系统,获得准确、高精度的舌体图像是有意义的研究工作。目前已有较多研究工作将面部图像中的舌体分割出来,然而由于舌质与皮肤颜色相近、舌苔颜色多变以及舌体存在变形等干扰,舌体分割效果不佳。
舌体图像分割是舌体目标检测与舌体语义分割的总和,是计算机舌诊中舌体特征提取和分析的重要前提。通常采用的方法有阈值分类、边缘检测、轮廓跟踪、区域生长等方法,如分水岭分割,分裂—合并分割,主动轮廓模型分割,这些方法对固定摄像设备采集的图像下表现良好,然而对非标准仪器如智能手机等拍摄的多样性图像,效果不佳,泛化性不能保证。
为弥补上述不足,本文提出的基于深度学习的舌图像分割方法,在学习舌体图像掩模的同时,学习到舌体的区域位置信息。
该方法对于未统一大小的舌拍摄图像,即自由摄像设备采集的舌图像也可以得到较好结果,并且该方法对数据增强,弥补了采集的舌图像存在变形或倾斜带来的影响。
近几年来,深度学习由于其强大的特征表示和学习能力,在计算机视觉领域取得杰出的成果。卷积神经网络提出后,深度学习的一些模型,如VGG、RCNN、FCN、U-Net等能较好地解决图像分类、目标检测、图像分割等问题。
但目前还没有一些深度学习方法是专用于舌体图像等单体目标语义分割的情况。
发明内容
针对上述现有技术的不足,本发明的目的在于,针对舌体图像分析给出一种基于单目标区域分割的舌体图像分割方法,该方法可快速有效,准确地对舌体图像进行分割,可极大方便医师对病人疾病的诊断。本发明提供一种基于单目标区域分割的舌体图像分割方法,该方法采用单目标区域约束深度网络来实现对现有图像的标注、分割、学习生成掩模图像,在与原图像合成形成舌体分割图。
根据本发明的实施方案,提供一种基于单目标区域分割的舌体图像分割方法。
一种基于单目标区域分割的舌体图像分割方法,该方法包括以下步骤:
(1)原图像获取:通过图像采集模块采集舌体原图像;
(2)图像标注:通过图像标注模块,采用超像素改进的Grabcut算法对采集的每一张舌体原图像进行人工标注,获得与每一张舌体原图像对应的标注图像;
(3)图像制作:通过图像制作模块,将进行人工标注后的图像与对应的舌体原图像组成图像对;为提高模型泛化性,随机将原图像对作为训练集图像,剩余图像对作为测试集图像;
(4)训练神经网络:通过训练集图像,对单目标语义分割神经网络进行训练;
(5)测试神经网络:利用训练好的的单目标语义分割神经网络对舌体图像进行分割,通过测试集图像对单目标语义分割神经网络进行测试。
作为优选,步骤(1)具体为:舌体原图像来自于智能移动设备及未固定的摄像机设备。
作为优选,步骤(2)中所述人工标注的步骤具体为:
①、对所采集的图像进行归一化处理;
②、利用分水岭算法对归一化处理后的图像进行超像素分割;
③、将超像素分割后的图像,通过Grabcut算法实现对图像的半自动分割;
④、最后对Grabcut算法所得的图像结果微调,得到所需的人工标注图。
在本申请中,图像的归一化处理,即是对图像进行了一系列标准的处理变换,使之变换为一固定标准形式的过程,该标准图像称作归一化图像。
在本申请中,分水岭分割方法,是一种基于拓扑理论的数学形态学的分割方法,其基本思想是把图像看作是测地学上的拓扑地貌,图像中每一点像素的灰度值表示该点的海拔高度,每一个局部极小值及其影响区域称为集水盆,而集水盆的边界则形成分水岭。
在本申请中,在运用基于分水岭的超像素算法过程中,为获得足够的超像素,其执行过程如下:
①、根据大小为n*m的图像均匀地初始化20*20个标记点,即每个标记点都在图像行列的11等分线上,若11等分点非整数,则向上取整。初始化i=0;
②、计算输入图像的每个像素点的梯度;
③、将标记点依梯度大小升序排序,得数组Index;
④、计算Index[i]周围各点梯度与Index[i]梯度的差值,找到最小一阈值使得有n*m/100-1个未标记的连通点的差值小于该阈值,以这些像素点及Index[i]点分割为一超像素,并标记;
⑤、i=i+1,重复4,直到所有像素点标记完。
在本申请中,在采用Grabcut算法对超像素图进行半自动分割时,对属于同一个超像素的图像,采用参数共享的方式处理,能很好地提升Grabcut算法的计算速度,和减少精度的变化。
在本申请中,的Grabcut算法对超像素图进行半自动分割,首先人工用鼠标确定一矩形框,舌体在其框内,将框内所有点标记为1,框外点标记为0;然后Grabcut算法需对3通道图像进行高斯混合建模。
使用每个超像素图的像素均值作为其像素值生成新图像,并计算各像素块的标记值的均值作为新图像各点的标记值,由于新图像属于多通道的彩色图像,所以该方案利用混合高斯建模对新图像建模。
最后Grabcut算法中,对上述所得的高斯混合模型采用mincut方法迭代计算出最优分割方案,将该方案中前景点对应的超像素块在原始图像中作为前景,背景点对应的超像素块在原始图像中作为背景。将原始图像前景点置1,背景点置0,即得到所需的标记图。利用opencv计算标记图前景所处的最小矩形区域框(x10,y10,x20,y20)。
在本申请中,对Grabcut算法所得的图像进行微调,即将标注图像的边界映射到原图像中,并在该边界一定范围内寻找原图像中最大梯度边界线,再将该最大梯度边界线作为标注图像的边界,更新标注图像,得到更精确地分割标注图。
作为优选,步骤(3)中所述图像制作的步骤包括:数据集增强和随机分配;具体为:对进行人工标注后的图像与对应的舌体原图像进行数据集增强处理,然后将处理后的经过标注后的图像与对应的舌体原图像组成图像对,将图像对随机分为训练图像对集和测试图像对集,获得训练图像对集和测试图像对集。
在本申请中,的数据集增强使得模型有更强的泛化性,包括对图像进行旋转以及将数据采用直接压缩、填充后压缩为448*448。
作为优选,步骤(4)中所述单目标语义分割神经网络包括:特征提取卷积神经网络、定位框预测神经网络以及掩模预测全卷积神经网络。
在本申请中,单目标语义分割神经网络还包括:输入层和输出层;输入层接受图像尺寸不要求一致的舌图像;特征提取网络获取输入层的图像,对其进行卷积操作,用以获取图像深层特征;定位框预测网络接受特征提取网络的输出计算获取舌体定位区域,通过卷积操作将特征映射为长方形坐标信息(x1,y1,x2,y2),其中(x1,y1)及(x2,y2)对应于所在框的对角顶点坐标;掩模预测网络接收特征提取网络提取的特征信息和定位框预测网络得到的定位区域信息,通过反卷积定位框内像素的特征,得到舌体预测的一个二值掩模;输出层输出二值掩模及舌体前景图像。
优选的是,特征提取网络采用5层卷积层组成,前两层卷积核大小为7*7,后三层卷积核大小都为3*3,每层输出特征数分别为32、64、128、256和512,并且每层卷积层包括一次卷积操作,一次池化操作以及一次激活操作。其中卷积操作是将前层输出与卷积核做卷积操作,相当于两层神经元之间采用局部连接以及权值共享,极大减小参数量。激活操作采用RELU(Rectified Linear Units)函数,给网络加入非线性因素。池化操作采用最大值池化,池化核大小为2*2。经过这5层卷积层的特征提取,每张舌图像可得到512张特征图,将其作为定位框预测网络及掩模预测网络的输入。
特征提取网络详细设计如表1所示:
层名称 | 参数 | 输入大小 |
Conv1 | 7*7,32,stride=2,padding=3 | 448*448 |
Conv2 | 7*7,64,stride=2,padding=3 | 224*224 |
Conv3 | 3*3,128,stride=2,padding=1 | 112*112 |
Conv4 | 3*3,256,stride=2,padding=1 | 56*56 |
Conv5 | 3*3,512,stride=2,padding=1 | 28*28 |
优选的是,定位框预测网络主要实现舌体所在框位置的回归,减少FCN网络抠图忽略相对位置带来的误差。该网络采用两层连接层,每层连接包括权重相乘及激活操作,激活操作同样采用RELU函数。第一层为局部连接层,将获取的每个特征图通过权重局部连接到一个神经元,共得到512个神经元。第二层为全连接层,权重数为512*4,输出对应4个神经元,其值对应定位框的一组顶点坐标。
在本申请中,本实施案例采用掩模预测网络与特征提取网络结构相对称,通过反卷积操作、激活操作及上采样将定位框内像素对应特征解码为二值掩模信息。
优选的是,特征提取网络获取的特征输入掩模预测网络之前先通过ROI池化,得到定位框内像素对应特征,其中ROI池化另一输入为定位框预测网络输出的框的坐标。该掩模预测网络包括5层结构,每层包括一次反卷积操作、一次上采样操作、一次激活操作,核大小及数目等于相对应特征提取网络的层内结构,该网络采用FCN-8s的方式实现,将第一层反卷积结果与特征提取第四层输出合并,作为第二层反卷积的输入。同样地,将第二层反卷积结果与特征提取第三层输出合并,作为第三层反卷积的输入,以此来获取更多的细节信息。
掩模预测网络详细设计如下:
层名称 | 参数 | 输入大小 |
DeConv1 | 3*3,32,stride=2,padding=1 | 14*14 |
DeConv2 | 3*3,64,stride=2,padding=1 | 28*28 |
DeConv3 | 3*3,128,stride=2,padding=1 | 56*56 |
DeConv4 | 7*7,256,stride=2,padding=3 | 112*112 |
DeConv5 | 7*7,512,stride=2,padding=3 | 224*224 |
作为优选,步骤(4)具体为:采用SGD优化训练单目标语义分割神经网络;SGD中的损失函数为目标检测损失加图像分割损失以及权值正则化损失,损失函数Losstotal为:
Losstotal=LossROI+αLossFCN+β||W|| (1);
其中:LossROI为定位框预测网络的误差,LossROI=1-IoUROI;
IoUROI由式(2)计算:
IoUROI表示真实值和预测值得交并比
Squarepre为预测的定位框,Squarereal为实际的定位框;
Squarepre∩Squarereal表示实际区域被正确分类的个数;
Squarepre∩Squarereal表示实际区域及预测出区域的像素点总个数;
其中:LossFCN为掩模预测误差,LossFCN=1-IoUFCN;
IoUFCN由式(3)计算:
IoUFCN表示真实值和预测值的交并比
Areapre表示预测的舌体区域,Areareal表示实际的舌体区域;
Areapre∩Areareal表示实际掩模被正确分类的像素个数
Areapre∪Areareal表示实际掩模及预测出掩模的像素点总个数
通过损失函数分别计算预测值与给定真实值之间的误差,利用反向传播算法将误差层层回传,再通过随机梯度下降法对每层的参数进行调整和更新,更新公式如下所示,使得网络的预测值更接近真实值:
网络的权重变量W为:
W由(4)计算:
式中,W为更新后的参数值,W′为更新前的参数值,其采用标准正态分布来初始化值;Losstotal为式(1)中,通过损失函数计算得到的误差值,可简要表示为Losstotal=f(w|I,Iy),其中I为原始图像,Iy为掩模标签图像,故W与Losstotal相互迭代更新;θ为学习率,θ=1.0e-iter/5000-5,θ根据迭代次数iter的增加而减小。
其中:α为第一自定义权重、β为第二自定义权重,反应训练过程中各类误差所占比重;在模型学习中,掩模误差应该占较大比重,所以设置α∈(1,20),β∈(0.1,1.2),β||W||是权重正则化损失,总损失增加β||W||,使得网络能够自动削弱不重要的特征,有效减少过拟合风险。
作为优选,α∈(2,15),β∈(0.2,1.0)
作为优选,α∈(2,10),β∈(0.2,0.8)
在本申请中,本实施案例采用随机梯度下降法
优化训练过程,该网络的训练过程可分为四步,具体步骤如下:
Step1:定位框预测网络的预训练。该过程目的是粗略生成候选区域,结构即前文特征提取五层网络,及定位框预测网络的两层网络,通过输入待训练图像以及标注的区域位置信息(x1,y1,x2,y2)训练该网络。该过程采用均方误差函数作为损失函数:
Step2:掩模预测网络法的预训练。在预训练掩模预测网络过程中,固定第一步训练定位框预测网络,将其输出的定位框作为模型初步分割需要的定位框。本案例中固定定位框网络的权重参数为Step1的训练结果,不训练定位框预测网络的两层网络,通过IoU误差,迭代优化网络中的权其他重参数。该过程损失函数可表示为:
式中Areapre及Areareal分别表示图像各像素点是否属于预测的舌体区域以及实际的舌体区域的二值矩阵。
Step3:单区域舌体深度分割网络的微调。使用Step2得到网络参数重新训练网络,在此过程中合并三个网络进行联合训练。采用最小目标检测损失、图像分割损失以及权值正则化损失之和为优化目标,更新特征提取网络及掩模预测网络,采用LossROI更新定位框预测网络。
训练相关参数表:
其中iter为当前迭代次数。
作为优选,步骤(5)具体为:采用步骤(4)训练好的单区域舌体深度分割网络计算输入的图像的二值掩模图像,将掩模图像与原图像相乘得到分割后并截取定位框位置的图像作为舌体分割结果。
需要进一步说明的是,二值图像是指在图像中,灰度等级只有两种,也就是说,图像中的任何像素不是0就是1,再无其他过渡的灰度值。图像掩模是用选定的图像、图形或物体、对待处理的图像(全部或局部)进行遮挡来控制图像处理的区域或处理过程。
在本申请中,原始舌体图像通过采用了步骤(4)训练好的单区域舌体深度分割网络计算,得到了附有舌体分割特征信息的二值掩模图像;该二值掩模图像通过与原始舌体图像相乘(即二值掩模图像覆盖在原始图像上),得到了附有舌体分割特征信息的新舌体图像。
作为优选,步骤(3)中将图像对随机分为训练图像对集和测试图像对集,其中训练图像对集与测试图像对集的数量比为1-10:1,优选为2-8:1,更优选为3-6:1。
在本申请中,训练图像对集与测试图像对集的数量比为4:1.
作为优选,数据集增强包括图像的旋转、填充及裁剪。
在本申请中,通过对输入的图像进行数据集增强处理,提高单目标语义分割神经网络对训练图像对集和测试图像对集的像素处理能力,使得单目标语义分割神经系统能够更充分的学习到对舌体的分割。
与现有技术相比,本发明具有以下有益效果:
1、能够快速实现人工标注大图像的工作,而且只需划取舌体目标框及标注部分点就能标注高精度图像,减少操作工作量;
2、该方法采用深度神经网络学习数据深层特诊,能有效提高较大图像分割速率,提升分割精度;
3、对小目标舌体也能有较好分割效果,而且不需对初始图像进行变形或裁剪,减小舌诊后续操作的误差。
4、该方法对数据进行了增强,减少了舌图像变形或倾斜带来的分割难度,进一步提高模型泛化性。
附图说明
图1为基于深度学习的舌体分割方法总流程图;
图2为基于改进的Grabcut算法标注舌体图像流程图;
图3为单区域舌体深度分割网络模型图。
具体实施方式
根据本发明的实施方案,提供一种基于单目标区域分割的舌体图像分割方法:
一种基于单目标区域分割的舌体图像分割方法,该方法包括以下步骤:
(1)原图像获取:通过图像采集模块采集舌体原图像;
(2)图像标注:通过图像标注模块,采用超像素改进的Grabcut算法对采集的每一张舌体原图像进行人工标注,获得与每一张舌体原图像对应的标注图像;
(3)图像制作:通过图像制作模块,将进行人工标注后的图像与对应的舌体原图像组成图像对;为提高模型泛化性,随机将原图像对作为训练集图像,剩余图像对作为测试集图像;
(4)训练神经网络:通过训练集图像,对单目标语义分割神经网络进行训练;
(5)测试神经网络:利用训练好的的单目标语义分割神经网络对舌体图像进行分割,通过测试集图像对单目标语义分割神经网络进行测试。
作为优选,步骤(1)具体为:舌体原图像来自于智能移动设备及未固定的摄像机设备。
作为优选,步骤(2)中所述人工标注具体为:
①、对所采集的图像进行归一化处理;
②、利用分水岭算法对采集的图像进行超像素分割;
③、将超像素分割后的图像,通过Grabcut算法实现半自动分割;
④、最后对Grabcut算法所得的图像结果微调,得到所需的人工标注图。
作为优选,步骤(3)中所述图像制作的步骤包括:数据集增强和随机分配;具体为:对进行人工标注后的图像与对应的舌体原图像进行数据集增强处理,然后将处理后的经过标注后的图像与对应的舌体原图像组成图像对,将图像对随机分为训练图像对集和测试图像对集,获得训练图像对集和测试图像对集。
作为优选,步骤(4)中所述单目标语义分割神经网络包括特征提取卷积神经网络、定位框预测神经网络以及掩模预测全卷积神经网络。
作为优选,步骤(4)具体为:采用SGD优化训练单目标语义分割神经网络;SGD中的损失函数为目标检测损失加图像分割损失以及权值正则化损失,损失函数Losstotal为:
Losstotal=LossROI+αLossFCN+β||W|| (1);
其中:LossROI为定位框预测网络的误差,LossROI=1-IoUROI;
定位框真实值和预测值得交并比IoUROI为:
IoUROI由式(2)计算:
Squarepre为预测的定位框,Squarereal为实际的定位框;
Squarepre∩Squarereal为实际区域被正确分类的像素个数;
Squarepre∪Squarereal为实际区域及预测出区域的像素点总像素个数;
其中:LossFCN为掩模预测误差,LossFCN=1-IoUFCN;
掩模真实值和预测值的交并比IoUFCN为:
IoUFCN由式(3)计算:
Areapre表示预测的舌体区域,Areareal表示实际的舌体区域;
Areapre∩Areareal为实际掩模被正确分类的像素个数
Areapre∪Areareal为实际掩模及预测出掩模的像素点总个数
通过损失函数分别计算预测值与给定真实值之间的误差,利用反向传播算法将误差层层回传,再通过随机梯度下降法对每层的参数进行调整和更新,更新公式如下所示,使得网络的预测值更接近真实值:
网络的权重变量W为:
W由(4)计算:
式中,W为更新后的参数值,W′为更新前的参数值,其采用标准正态分布来初始化值;Losstotal为式(1)中,通过损失函数计算得到的误差值,可简要表示为Losstotal=f(w|I,Iy),其中I为原始图像,Iy为掩模标签图像,故W与Losstotal相互迭代更新;θ为学习率,θ=1.0e-iter/5000-5,θ根据迭代次数iter的增加而减小。
其中:α为第一自定义权重、β为第二自定义权重,反应训练过程中各类误差所占比重;在模型学习中,掩模误差应该占较大比重,所以设置α∈(1,20),β∈(0.1,1.2),β||W||是权重正则化损失,总损失增加β||W||,使得网络能够自动削弱不重要的特征,有效减少过拟合风险。
作为优选,步骤(5)具体为:采用步骤(4)训练好的单区域舌体深度分割网络计算输入的图像的二值掩模图像,将掩模图像与原图像相乘得到分割后并截取定位框位置的图像作为舌体分割结果。
作为优选,步骤(3)中将图像对随机分为训练图像对集和测试图像对集,其中训练图像对集与测试图像对集的数量比为1-10:1,优选为2-8:1,更优选为3-6:1。
作为优选,数据集增强包括图像的旋转、填充及裁剪。
实施例1
一种基于单目标区域分割的舌体图像分割方法,该方法包括以下步骤:
(1)原图像获取:通过图像采集模块采集舌体原图像;
(2)图像标注:通过图像标注模块,采用超像素改进的Grabcut算法对采集的每一张舌体原图像进行人工标注,获得与每一张舌体原图像对应的标注图像;
(3)图像制作:通过图像制作模块,将进行人工标注后的图像与对应的舌体原图像组成图像对;为提高模型泛化性,随机将原图像对作为训练集图像,剩余图像对作为测试集图像;
(4)训练神经网络:通过训练集图像,对单目标语义分割神经网络进行训练;
(5)测试神经网络:利用训练好的的单目标语义分割神经网络对舌体图像进行分割,通过测试集图像对单目标语义分割神经网络进行测试。
作为优选,步骤(1)具体为:舌体原图像来自于智能移动设备及未固定的摄像机设备。
作为优选,步骤(2)中所述人工标注具体为:
①、对所采集的图像进行归一化处理;
②、利用分水岭算法对采集的图像进行超像素分割;
③、将超像素分割后的图像,通过Grabcut算法实现半自动分割;
④、最后对Grabcut算法所得的图像结果微调,得到所需的人工标注图。
作为优选,步骤(3)中所述图像制作的步骤包括:数据集增强和随机分配;具体为:对进行人工标注后的图像与对应的舌体原图像进行数据集增强处理,然后将处理后的经过标注后的图像与对应的舌体原图像组成图像对,将图像对随机分为训练图像对集和测试图像对集,获得训练图像对集和测试图像对集。
作为优选,步骤(4)中所述单目标语义分割神经网络包括特征提取卷积神经网络、定位框预测神经网络以及掩模预测全卷积神经网络。
作为优选,步骤(4)具体为:采用SGD优化训练单目标语义分割神经网络;SGD中的损失函数为目标检测损失加图像分割损失以及权值正则化损失,损失函数Losstotal为:
Losstotal=LossROI+αLossFCN+β||W|| (1);
其中:LossROI为定位框预测网络的误差,LossROI=1-IoUROI;
定位框真实值和预测值得交并比IoUROI为:
IoUROI由式(2)计算:
Squarepre为预测的定位框,Squarereal为实际的定位框;
Squarepre∩Squarereal为实际区域被正确分类的像素个数;
Squarepre∪Squarereal为实际区域及预测出区域的像素点总像素个数;
其中:LossFCN为掩模预测误差,LossFCN=1-IoUFCN;
掩模真实值和预测值的交并比IoUFCN为:
IoUFCN由式(3)计算:
Areapre表示预测的舌体区域,Areareal表示实际的舌体区域;
Areapre∩Areareal为实际掩模被正确分类的像素个数;
Areapre∪Areareal为实际掩模及预测出掩模的像素点总个数;
通过损失函数分别计算预测值与给定真实值之间的误差,利用反向传播算法将误差层层回传,再通过随机梯度下降法对每层的参数进行调整和更新,更新公式如下所示,使得网络的预测值更接近真实值:
网络的权重变量W为:
W由(4)计算:
式中,W为更新后的参数值,W′为更新前的参数值,其采用标准正态分布来初始化值;Losstotal为式(1)中,通过损失函数计算得到的误差值,可简要表示为Losstotal=f(w|I,Iy),其中I为原始图像,Iy为掩模标签图像,故W与Losstotal相互迭代更新;θ为学习率,θ=1.0e-iter/5000-5,θ根据迭代次数iter的增加而减小。
其中:α为第一自定义权重、β为第二自定义权重,反应训练过程中各类误差所占比重;在模型学习中,掩模误差应该占较大比重,所以设置α=2,β=0.5,β||W||是权重正则化损失,总损失增加β||W||,使得网络能够自动削弱不重要的特征,有效减少过拟合风险。
作为优选,步骤(5)具体为:采用步骤(4)训练好的单区域舌体深度分割网络计算输入的图像的二值掩模图像,将掩模图像与原图像相乘得到分割后并截取定位框位置的图像作为舌体分割结果。
只是作为优选,步骤(3)中将图像对随机分为训练图像对集和测试图像对集,其中训练图像对集与测试图像对集的数量比为4:1。
实施例2
重复实施例1,只是α=4,β=0.7;训练图像对集与测试图像对集的数量比为5:1。
实施例3
重复实施例1,只是α=5,β=1.0;训练图像对集与测试图像对集的数量比为6:1。
实施例4
重复实施例1,只是α=3,β=1.0;训练图像对集与测试图像对集的数量比为3:1。
Claims (9)
1.一种基于单目标区域分割的舌体图像分割方法,该方法包括以下步骤:
(1)原图像获取:通过图像采集模块采集舌体原图像;
(2)图像标注:通过图像标注模块,采用超像素改进的Grabcut算法对采集的每一张舌体原图像进行人工标注,获得与每一张舌体原图像对应的标注图像;
(3)图像制作:通过图像制作模块,将进行人工标注后的图像与对应的舌体原图像组成图像对;为提高模型泛化性,随机将原图像对作为训练集图像,剩余图像对作为测试集图像;
(4)训练神经网络:通过训练集图像,对单目标语义分割神经网络进行训练;
(5)测试神经网络:利用训练好的的单目标语义分割神经网络对舌体图像进行分割,通过测试集图像对单目标语义分割神经网络进行测试。
2.根据权利要求1所述的方法,其特征在于:步骤(1)具体为:舌体原图像来自于智能移动设备及未固定的摄像机设备。
3.根据权利要求1或2所述的方法,其特征在于:步骤(2)中所述人工标注具体为:
①、对所采集的图像进行归一化处理;
②、利用分水岭算法对采集的图像进行超像素分割;
③、将超像素分割后的图像,通过Grabcut算法实现半自动分割;
④、最后对Grabcut算法所得的图像结果微调,得到所需的人工标注图。
4.根据权利要求1-3中任一项所述的方法,其特征在于:步骤(3)中所述图像制作的步骤包括:数据集增强和随机分配;具体为:对进行人工标注后的图像与对应的舌体原图像进行数据集增强处理,然后将处理后的经过标注后的图像与对应的舌体原图像组成图像对,将图像对随机分为训练图像对集和测试图像对集,获得训练图像对集和测试图像对集。
5.根据权利要求1-4中任一项所述的方法,其特征在于:步骤(4)中所述单目标语义分割神经网络包括特征提取卷积神经网络、定位框预测神经网络以及掩模预测全卷积神经网络。
6.根据权利要求5所述的方法,其特征在于:步骤(4)具体为:采用SGD优化训练单目标语义分割神经网络;SGD中的损失函数为目标检测损失加图像分割损失以及权值正则化损失,损失函数Losstotal为:Losstotal=LossROI+αLossFCN+β||W|| (1);
其中:LossROI为定位框预测网络的误差,LossROI=1-IoUROI;
定位框真实值和预测值得交并比IoUROI为:
IoUROI由式(2)计算:
Squarepre为预测的定位框,Squarereal为实际的定位框;
Squarepre∩Squarereal为实际区域被正确分类的像素个数;
Squarepre∪Squarereal为实际区域及预测出区域的像素点总像素个数;
其中:LossFCN为掩模预测误差,LossFCN=1-IoUFCN;
掩模真实值和预测值的交并比IoUFCN为:
IoUFCN由式(3)计算:
Areapre表示预测的舌体区域,Areareal表示实际的舌体区域;
Areapre∩Areareal为实际掩模被正确分类的像素个数;
Areapre∪Areareal为实际掩模及预测出掩模的像素点总个数;
通过损失函数分别计算预测值与给定真实值之间的误差,利用反向传播算法将误差层层回传,再通过随机梯度下降法对每层的参数进行调整和更新,更新公式如下所示,使得网络的预测值更接近真实值:
网络的权重变量W为:
W由(4)计算:
式中,W为更新后的参数值,W′为更新前的参数值,其采用标准正态分布来初始化值;Losstotal为式(1)中,通过损失函数计算得到的误差值,可简要表示为Losstotal=f(w|I,Iy),其中I为原始图像,Iy为掩模标签图像,故W与Losstotal相互迭代更新;θ为学习率,θ=1.0e-iter/5000-5,θ根据迭代次数iter的增加而减小;
其中:α为第一自定义权重、β为第二自定义权重,反应训练过程中各类误差所占比重;在模型学习中,掩模误差应该占较大比重,所以设置α∈(1,20),β∈(0.1,1.2);优选为α∈(2,15),β∈(0.2,1.0);更优选为,α∈(2,10),β∈(0.2,0.8);β||W||是权重正则化损失,总损失增加β||W||,使得网络能够自动削弱不重要的特征,有效减少过拟合风险。
7.根据权利要求1-6中任一项所述的方法,其特征在于:步骤(5)具体为:采用步骤(4)训练好的单区域舌体深度分割网络计算输入的图像的二值掩模图像,将二值掩模图像与原图像相乘得到分割后并截取定位框位置的图像作为舌体分割结果。
8.根据权利要求1-7中任一项所述的方法,其特征在于:步骤(3)中将图像对随机分为训练图像对集和测试图像对集,其中训练图像对集与测试图像对集的数量比为1-10:1,优选为2-8:1,更优选为3-6:1。
9.根据权利要求4所述的方法,其特征在于:数据集增强包括图像的旋转、填充及裁剪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811487010.7A CN109584251A (zh) | 2018-12-06 | 2018-12-06 | 一种基于单目标区域分割的舌体图像分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811487010.7A CN109584251A (zh) | 2018-12-06 | 2018-12-06 | 一种基于单目标区域分割的舌体图像分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109584251A true CN109584251A (zh) | 2019-04-05 |
Family
ID=65927424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811487010.7A Pending CN109584251A (zh) | 2018-12-06 | 2018-12-06 | 一种基于单目标区域分割的舌体图像分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109584251A (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008962A (zh) * | 2019-04-11 | 2019-07-12 | 福州大学 | 基于注意力机制的弱监督语义分割方法 |
CN110135379A (zh) * | 2019-05-21 | 2019-08-16 | 中电健康云科技有限公司 | 舌象分割方法及装置 |
CN110310284A (zh) * | 2019-05-09 | 2019-10-08 | 济南浪潮高新科技投资发展有限公司 | 一种基于个性化的层级卷积神经网络的cnv分割方法 |
CN110490203A (zh) * | 2019-07-05 | 2019-11-22 | 平安科技(深圳)有限公司 | 图像分割方法及装置、电子设备和计算机可读存储介质 |
CN110706234A (zh) * | 2019-10-08 | 2020-01-17 | 浙江工业大学 | 一种图像的自动精细分割方法 |
CN111260619A (zh) * | 2020-01-14 | 2020-06-09 | 浙江中医药大学 | 基于U-net模型的舌体自动分割方法 |
CN111368848A (zh) * | 2020-05-28 | 2020-07-03 | 北京同方软件有限公司 | 一种复杂场景下的文字检测方法 |
CN111551167A (zh) * | 2020-02-10 | 2020-08-18 | 江苏盖亚环境科技股份有限公司 | 一种基于无人机拍摄和语义分割的全局导航辅助方法 |
CN111709911A (zh) * | 2020-05-18 | 2020-09-25 | 杭州电子科技大学 | 一种基于神经网络的卵巢卵泡自动计数的方法 |
CN111951270A (zh) * | 2020-06-29 | 2020-11-17 | 珠海格力电器股份有限公司 | 一种基于深度学习的单目标物体分割方法及检测设备 |
CN112232390A (zh) * | 2020-09-29 | 2021-01-15 | 北京临近空间飞行器系统工程研究所 | 一种高像素大图像的识别方法和系统 |
CN112233078A (zh) * | 2020-10-12 | 2021-01-15 | 广州计量检测技术研究院 | 一种堆叠千克组砝码识别与关键部位分割方法 |
CN112651978A (zh) * | 2020-12-16 | 2021-04-13 | 广州医软智能科技有限公司 | 舌下微循环图像分割方法和装置、电子设备、存储介质 |
CN112686897A (zh) * | 2021-03-15 | 2021-04-20 | 四川大学 | 一种基于弱监督的长短轴辅助肠胃淋巴结像素标注的方法 |
CN113012054A (zh) * | 2019-12-20 | 2021-06-22 | 舜宇光学(浙江)研究院有限公司 | 基于抠图的样本增强方法和训练方法及其系统和电子设备 |
CN113450382A (zh) * | 2021-07-16 | 2021-09-28 | 武汉智目智能技术合伙企业(有限合伙) | 一种基于图像中心回归的异纤分割方法 |
CN113643311A (zh) * | 2021-06-28 | 2021-11-12 | 清华大学 | 一种对边界误差鲁棒的图像分割方法和装置 |
CN113674282A (zh) * | 2021-07-08 | 2021-11-19 | 浙江一山智慧医疗研究有限公司 | 图像分割方法、装置、电子装置、计算机设备和存储介质 |
CN113888537A (zh) * | 2021-12-03 | 2022-01-04 | 深圳市网旭科技有限公司 | 掩模提取方法、装置、设备及存储介质 |
CN114119981A (zh) * | 2021-12-09 | 2022-03-01 | 成都理工大学 | 基于小样本深度学习无监督语义分割的大地电磁反演增强方法 |
CN114511567A (zh) * | 2022-04-20 | 2022-05-17 | 天中依脉(天津)智能科技有限公司 | 舌体与舌苔图像识别分离方法 |
CN114581432A (zh) * | 2022-03-18 | 2022-06-03 | 河海大学 | 一种基于深度学习的舌象仪舌象分割方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104899877A (zh) * | 2015-05-20 | 2015-09-09 | 中国科学院西安光学精密机械研究所 | 基于超像素和快速三分图的图像前景提取方法 |
CN105631455A (zh) * | 2014-10-27 | 2016-06-01 | 阿里巴巴集团控股有限公司 | 一种图像主体提取方法及系统 |
CN107220982A (zh) * | 2017-04-02 | 2017-09-29 | 南京大学 | 一种抑制船尾拖纹的船舶显著性视频检测方法 |
CN107316307A (zh) * | 2017-06-27 | 2017-11-03 | 北京工业大学 | 一种基于深度卷积神经网络的中医舌图像自动分割方法 |
CN107403183A (zh) * | 2017-07-21 | 2017-11-28 | 桂林电子科技大学 | 整合目标检测和图像分割为一体的智能分割方法 |
CN108109160A (zh) * | 2017-11-16 | 2018-06-01 | 浙江工业大学 | 一种基于深度学习的免交互式GrabCut舌体分割方法 |
CN108537816A (zh) * | 2018-04-17 | 2018-09-14 | 福州大学 | 一种基于超像素和背景连接先验的显著物体分割方法 |
CN108648233A (zh) * | 2018-03-24 | 2018-10-12 | 北京工业大学 | 一种基于深度学习的目标识别与抓取定位方法 |
-
2018
- 2018-12-06 CN CN201811487010.7A patent/CN109584251A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631455A (zh) * | 2014-10-27 | 2016-06-01 | 阿里巴巴集团控股有限公司 | 一种图像主体提取方法及系统 |
CN104899877A (zh) * | 2015-05-20 | 2015-09-09 | 中国科学院西安光学精密机械研究所 | 基于超像素和快速三分图的图像前景提取方法 |
CN107220982A (zh) * | 2017-04-02 | 2017-09-29 | 南京大学 | 一种抑制船尾拖纹的船舶显著性视频检测方法 |
CN107316307A (zh) * | 2017-06-27 | 2017-11-03 | 北京工业大学 | 一种基于深度卷积神经网络的中医舌图像自动分割方法 |
CN107403183A (zh) * | 2017-07-21 | 2017-11-28 | 桂林电子科技大学 | 整合目标检测和图像分割为一体的智能分割方法 |
CN108109160A (zh) * | 2017-11-16 | 2018-06-01 | 浙江工业大学 | 一种基于深度学习的免交互式GrabCut舌体分割方法 |
CN108648233A (zh) * | 2018-03-24 | 2018-10-12 | 北京工业大学 | 一种基于深度学习的目标识别与抓取定位方法 |
CN108537816A (zh) * | 2018-04-17 | 2018-09-14 | 福州大学 | 一种基于超像素和背景连接先验的显著物体分割方法 |
Non-Patent Citations (5)
Title |
---|
ZICHEN ZHANG ET AL.: "END-TO-END DETECTION-SEGMENTATION NETWORK WITH ROI CONVOLUTION", 《ARXIV.ORG》 * |
ZICHEN ZHANG ET AL.: "END-TO-END DETECTION-SEGMENTATION NETWORK WITH ROI CONVOLUTION", 《ARXIV.ORG》, 8 June 2018 (2018-06-08), pages 2 - 3 * |
刘辉 等: "结合显著性和超像素改进的GrabCut 图像分割", 红外技术 * |
许景涛: "木材表面缺陷的图像分割方法研究", 中国优秀硕士学位论文全文数据库 农业科技辑 * |
辛月兰: "基于超像素的Grabcut彩色图像分割", 计算机技术与发展 * |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008962A (zh) * | 2019-04-11 | 2019-07-12 | 福州大学 | 基于注意力机制的弱监督语义分割方法 |
CN110008962B (zh) * | 2019-04-11 | 2022-08-12 | 福州大学 | 基于注意力机制的弱监督语义分割方法 |
CN110310284A (zh) * | 2019-05-09 | 2019-10-08 | 济南浪潮高新科技投资发展有限公司 | 一种基于个性化的层级卷积神经网络的cnv分割方法 |
CN110135379A (zh) * | 2019-05-21 | 2019-08-16 | 中电健康云科技有限公司 | 舌象分割方法及装置 |
CN110490203A (zh) * | 2019-07-05 | 2019-11-22 | 平安科技(深圳)有限公司 | 图像分割方法及装置、电子设备和计算机可读存储介质 |
CN110490203B (zh) * | 2019-07-05 | 2023-11-03 | 平安科技(深圳)有限公司 | 图像分割方法及装置、电子设备和计算机可读存储介质 |
CN110706234A (zh) * | 2019-10-08 | 2020-01-17 | 浙江工业大学 | 一种图像的自动精细分割方法 |
CN113012054B (zh) * | 2019-12-20 | 2023-12-05 | 舜宇光学(浙江)研究院有限公司 | 基于抠图的样本增强方法和训练方法及其系统和电子设备 |
CN113012054A (zh) * | 2019-12-20 | 2021-06-22 | 舜宇光学(浙江)研究院有限公司 | 基于抠图的样本增强方法和训练方法及其系统和电子设备 |
CN111260619A (zh) * | 2020-01-14 | 2020-06-09 | 浙江中医药大学 | 基于U-net模型的舌体自动分割方法 |
CN111551167A (zh) * | 2020-02-10 | 2020-08-18 | 江苏盖亚环境科技股份有限公司 | 一种基于无人机拍摄和语义分割的全局导航辅助方法 |
CN111551167B (zh) * | 2020-02-10 | 2022-09-27 | 江苏盖亚环境科技股份有限公司 | 一种基于无人机拍摄和语义分割的全局导航辅助方法 |
CN111709911A (zh) * | 2020-05-18 | 2020-09-25 | 杭州电子科技大学 | 一种基于神经网络的卵巢卵泡自动计数的方法 |
CN111709911B (zh) * | 2020-05-18 | 2023-05-05 | 杭州电子科技大学 | 一种基于神经网络的卵巢卵泡自动计数的方法 |
CN111368848B (zh) * | 2020-05-28 | 2020-08-21 | 北京同方软件有限公司 | 一种复杂场景下的文字检测方法 |
CN111368848A (zh) * | 2020-05-28 | 2020-07-03 | 北京同方软件有限公司 | 一种复杂场景下的文字检测方法 |
CN111951270A (zh) * | 2020-06-29 | 2020-11-17 | 珠海格力电器股份有限公司 | 一种基于深度学习的单目标物体分割方法及检测设备 |
CN112232390B (zh) * | 2020-09-29 | 2024-03-01 | 北京临近空间飞行器系统工程研究所 | 一种高像素大图像的识别方法和系统 |
CN112232390A (zh) * | 2020-09-29 | 2021-01-15 | 北京临近空间飞行器系统工程研究所 | 一种高像素大图像的识别方法和系统 |
CN112233078A (zh) * | 2020-10-12 | 2021-01-15 | 广州计量检测技术研究院 | 一种堆叠千克组砝码识别与关键部位分割方法 |
CN112651978B (zh) * | 2020-12-16 | 2024-06-07 | 广州医软智能科技有限公司 | 舌下微循环图像分割方法和装置、电子设备、存储介质 |
CN112651978A (zh) * | 2020-12-16 | 2021-04-13 | 广州医软智能科技有限公司 | 舌下微循环图像分割方法和装置、电子设备、存储介质 |
CN112686897A (zh) * | 2021-03-15 | 2021-04-20 | 四川大学 | 一种基于弱监督的长短轴辅助肠胃淋巴结像素标注的方法 |
CN113643311A (zh) * | 2021-06-28 | 2021-11-12 | 清华大学 | 一种对边界误差鲁棒的图像分割方法和装置 |
CN113643311B (zh) * | 2021-06-28 | 2024-04-09 | 清华大学 | 一种对边界误差鲁棒的图像分割方法和装置 |
CN113674282A (zh) * | 2021-07-08 | 2021-11-19 | 浙江一山智慧医疗研究有限公司 | 图像分割方法、装置、电子装置、计算机设备和存储介质 |
CN113450382A (zh) * | 2021-07-16 | 2021-09-28 | 武汉智目智能技术合伙企业(有限合伙) | 一种基于图像中心回归的异纤分割方法 |
CN113888537A (zh) * | 2021-12-03 | 2022-01-04 | 深圳市网旭科技有限公司 | 掩模提取方法、装置、设备及存储介质 |
CN114119981A (zh) * | 2021-12-09 | 2022-03-01 | 成都理工大学 | 基于小样本深度学习无监督语义分割的大地电磁反演增强方法 |
CN114581432B (zh) * | 2022-03-18 | 2024-02-20 | 河海大学 | 一种基于深度学习的舌象仪舌象分割方法 |
CN114581432A (zh) * | 2022-03-18 | 2022-06-03 | 河海大学 | 一种基于深度学习的舌象仪舌象分割方法 |
CN114511567B (zh) * | 2022-04-20 | 2022-08-05 | 天中依脉(天津)智能科技有限公司 | 舌体与舌苔图像识别分离方法 |
CN114511567A (zh) * | 2022-04-20 | 2022-05-17 | 天中依脉(天津)智能科技有限公司 | 舌体与舌苔图像识别分离方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584251A (zh) | 一种基于单目标区域分割的舌体图像分割方法 | |
WO2022160771A1 (zh) | 基于自适应多尺度特征提取模型的高光谱图像分类方法 | |
CN106169081B (zh) | 一种基于不同照度的图像分类及处理方法 | |
CN108416307B (zh) | 一种航拍图像路面裂缝检测方法、装置及设备 | |
CN108765371B (zh) | 一种病理切片中非常规细胞的分割方法 | |
CN105069746B (zh) | 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统 | |
CN104063702B (zh) | 一种基于遮挡修复和局部相似性匹配的三维步态识别方法 | |
CN107862694A (zh) | 一种基于深度学习的手足口病检测系统 | |
CN108573276A (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN109191476A (zh) | 基于U-net网络结构的生物医学图像自动分割新方法 | |
CN109635875A (zh) | 一种基于深度学习的端到端网口检测方法 | |
CN110232389A (zh) | 一种基于绿色作物特征提取不变性的立体视觉导航方法 | |
CN103914699A (zh) | 一种基于色彩空间的自动唇彩的图像增强的方法 | |
CN109146899A (zh) | Ct图像的危及器官分割方法及装置 | |
CN110176016B (zh) | 一种基于人体轮廓分割与骨骼识别的虚拟试衣方法 | |
CN107358262A (zh) | 一种高分辨率图像的分类方法及分类装置 | |
CN107229917A (zh) | 一种基于迭代聚类的多幅遥感影像共性显著目标检测方法 | |
CN112862792A (zh) | 一种用于小样本图像数据集的小麦白粉病孢子分割方法 | |
CN107424145A (zh) | 基于三维全卷积神经网络的核磁共振图像的分割方法 | |
CN107909588A (zh) | 基于三维全卷积神经网络的mri皮质下分区系统 | |
CN106778785A (zh) | 构建图像特征提取模型的方法及图像识别的方法、装置 | |
CN108875645A (zh) | 一种煤矿井下复杂光照条件下的人脸识别方法 | |
CN108664839A (zh) | 一种图像处理方法和设备 | |
CN110334566A (zh) | 一种基于三维全卷积神经网络的oct内外指纹提取方法 | |
CN108629762A (zh) | 一种骨龄评测模型减少干扰特征的图像预处理方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |