CN111724379B - 基于组合视图的显微图像细胞计数与姿态识别方法及系统 - Google Patents
基于组合视图的显微图像细胞计数与姿态识别方法及系统 Download PDFInfo
- Publication number
- CN111724379B CN111724379B CN202010587175.2A CN202010587175A CN111724379B CN 111724379 B CN111724379 B CN 111724379B CN 202010587175 A CN202010587175 A CN 202010587175A CN 111724379 B CN111724379 B CN 111724379B
- Authority
- CN
- China
- Prior art keywords
- ellipse
- image
- images
- ellipses
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 6
- 238000012216 screening Methods 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000012935 Averaging Methods 0.000 claims description 9
- 210000001161 mammalian embryo Anatomy 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 claims description 5
- 230000000877 morphologic effect Effects 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000002372 labelling Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000013077 scoring method Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 abstract description 6
- 230000015556 catabolic process Effects 0.000 abstract description 3
- 238000006731 degradation reaction Methods 0.000 abstract description 3
- 238000003708 edge detection Methods 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000000572 ellipsometry Methods 0.000 description 2
- 230000004720 fertilization Effects 0.000 description 2
- 239000012535 impurity Substances 0.000 description 2
- 238000000338 in vitro Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 208000000509 infertility Diseases 0.000 description 1
- 230000036512 infertility Effects 0.000 description 1
- 231100000535 infertility Toxicity 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002207 metabolite Substances 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 230000003313 weakening effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30044—Fetus; Embryo
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于智能医疗辅助和计算机视觉技术领域,公开了一种基于组合视图的显微图像细胞计数与姿态识别方法及系统,获取目标在不同焦段下拍摄的多张图像,通过人工观察,标注每张图像中包含的细胞个数,将标注了细胞个数的图像作为训练样本,训练一个深度神经网络细胞个数预测模型;对获取的图像进行去噪、对比度增强预处理,并在每张图像上利用深度卷积神经网络得到的特征检测边缘;在每张图像上根据边缘拟合椭圆,将所有图像上的椭圆收集起来作为候选集合;在多张图像的组合上对候选椭圆进行验证和筛选。本发明可以有效克服显微图像的质量退化问题,克服了单视图固有的缺陷,改善椭圆拟合的质量,进而提升细胞计数和姿态识别的准确性。
Description
技术领域
本发明属于智能医疗辅助和计算机视觉技术领域,尤其涉及一种基于组合视图的显微图像细胞计数与姿态识别方法及系统。
背景技术
目前,体外受精(IVF)是针对不孕不育症的有效治疗方法之一。为了保证体外受精质量,需要对多组胚胎样本进行质量评估优选。专业机构的医生可以通过显微镜对受精卵细胞的形态进行持续观察,并给出评估结果。这种方式简单直接,但需要相当专业的背景知识和大量的人工参与,门槛较高且效率低下。因此,许多研究者尝试用图像智能解译的方式来代替人工参与。
霍夫曼调制相衬(HMC)显微成像技术是最常用的透明目标无创图像采集方法。然而,由于培养皿中的细胞处于半透明和重叠状态、细胞代谢物和碎片等杂质干扰、成像光照条件和噪声带来的质量问题等因素,自动从图像中提取细胞的数量、姿态等信息仍然面临极大的挑战。现有的方案主要通过对图像中目标几何形状的拟合来实现细胞计数或定位功能,其重要假设是细胞的形态可以用近似圆或椭圆表示。现有技术1研究了基于粒子群算法的霍夫变换参数优化模型,实现对单胚胎的圆形拟合,但并未考虑分裂后有多个细胞的情况;现有技术2提出了一种基于最小二乘法的多细胞计数方法,通过拟合圆形来检测培养过程中细胞的数量。然而,这类方法仅考虑圆形作为几何要素,对非圆形态的细胞并不适用。因此,一些研究者使用椭圆来获得更广泛的形状适应性。现有技术3提出基于Hough变换的椭圆检测方法来实现4细胞时期的检测任务;现有技术4通过等周图分割得到细胞边缘,再通过最小二乘法进行椭圆拟合。与圆形相比,椭圆的适用场景更加广泛,但是仅仅利用单幅图像提供的信息难以克服杂质、噪声、轮廓弱化、重叠等因素带来的挑战。为了解决这一问题,现有技术5提出了一种使用Z-stack(即单细胞时期在不同聚焦水平下的一组图像)的细胞分割方法,提出了利用多焦段多视图融合增强的思想,但其应用仅限于单细胞时期。
通过上述分析,现有技术存在的问题及缺陷为:(1)现有技术对几何形状的拟合依赖的轮廓边缘信息,对噪声、遮挡和成像质量比较敏感,导致几何形状拟合的质量不佳。
(2)现有技术无法适用于图像中的细胞数量未知的情况。
(3)多焦段多视图的融合应用目前仅限于单细胞时期,尚未扩展到多细胞时期。
解决以上问题及缺陷的难度为:(1)通用的轮廓边缘提取算法难以克服应用场景下噪声、遮挡和成像质量的影响,需要引入语义级的信息来提高轮廓的感知能力。
(2)当图像中包含细胞的数量未知时,需要求解一个数量估计和姿态估计的联合问题,相较于数量已知的情况,该问题的未知量更多、复杂性更高、难度也更大。
(3)多焦段多视图数据按照何种方式进行融合才能增强细胞计数和定位的效果,同时适应细胞数量未知的场景,尚无现有工作可以借鉴。
解决以上问题及缺陷的意义为:融合高层语义信息可以提升轮廓感知的能力,降低传统方法边缘质量带来的不稳定性;通过解决细胞数量未知时的计数和定位问题,建立细胞数量和姿态联合估计的统一框架,方法的适用场景得到扩展;建立多视图融合增强的有效机制,克服单视图固有的缺陷,提升结果准确性。
发明内容
针对现有技术存在的问题,本发明提供了一种基于组合视图的显微图像细胞计数与姿态识别方法及系统。
本发明是这样实现的,一种基于组合视图的显微图像细胞计数与姿态识别方法,所述基于组合视图的显微图像细胞计数与姿态识别方法包括:
获取目标在不同焦段下拍摄的多张图像,通过人工观察,标注每张图像中包含的细胞个数,将标注了细胞个数的图像作为训练样本,训练一个深度神经网络细胞个数预测模型;对获取的图像进行去噪、对比度增强预处理,并在每张图像上利用深度卷积神经网络得到的特征检测边缘;在每张图像上根据边缘拟合椭圆,将所有图像上的椭圆收集起来作为候选集合;在多张图像的组合上对候选椭圆进行验证和筛选。
进一步,基于组合视图的显微图像细胞计数与姿态识别方法包括以下步骤:
步骤一,利用霍夫曼调制相衬系统显微镜间隔一段时间拍摄一组目标在不同焦段下的图像,并对获取的图像进行去噪和对比度增强处理;
步骤二,通过检测每幅图像中镜筒边缘的圆环进行感兴趣区域提取,经过裁剪得到仅包含细胞区域的感兴趣图像;选取一部分图像,并通过人工观察标注选取的图像中包含的细胞个数,作为训练数据;
步骤三,构建一个深度神经网络细胞个数预测模型,并利用构建的模型提取图像的高维特征,同时基于机器学习的方法利用步骤三得到的训练数据对所述细胞个数预测模型进行训练,利用训练后的细胞个数预测模型对图像中包含的细胞个数进行预测;
步骤四,采用基于深度学习的方法为每个像素学习一个高维的边缘属性特征,提取完整清晰的边缘信息;
步骤五,基于图像组合策略进行初始椭圆的拟合,并得到初始椭圆集;对获得的初始椭圆集进行筛选。
进一步,步骤一中,所述利用霍夫曼调制相衬系统显微镜间隔一段时间拍摄一组目标在不同焦段下的图像包括:
利用霍夫曼调制相衬系统显微镜拍摄图像,间隔15分钟拍摄一组;每组为不同的焦距段拍摄出的7张图像,分别记为I1,I2,I3,I4,I5,I6,I7,对应的是-15,-30,-45,0,15,30,45焦距。
进一步,步骤四中,所述深度学习的方法为基于深度卷积特征的RCF边缘预测方法或基于U-Net的眼底图像血管分割算法。
进一步,步骤五中,所述基于图像组合策略进行初始椭圆的拟合包括:
(1)确定图片组合策略:确定某一时刻多张图像上的边缘图像为e1,e2,e3,e4,e5,e6,e7,分别对应-15,-30,-45,0,15,30,45焦距值;确定组合策略为将不同焦距段的边缘图像进行组合;
(2)对于得到的待叠加边缘图像数据es找到由连通的边缘点构成的弧段,利用最小二乘法估计出由这些弧段可能构成的所有的初始椭圆集Einitial;
(3)以得到的em边缘图像作为评价参照对得到的初始椭圆集Einitial中每个椭圆进行评分。
进一步,步骤(1)中,所述对不同焦距段的边缘图像进行组合包括:
(1.1)将原始边缘图像e1,e2,e3,e4,e5,e6,e7进行叠加,得到像素信息更加多的边缘图;
所述叠加方法包括:对N张边缘图像I1,I2,…,IN,保存为白底黑边的图像,位于边缘的像素值为0,非边缘的像素值为1;在标记为边缘的像素的坐标位置(xp,yp)取所有需要叠加图像中该位置像素的最小值,得到一张提取所有被叠加图像的边缘信息的图像;
(1.2)将焦距值为-30和0时检测出的边缘图像e2和e4进行求平均;
所述求平均方法包括:对N张边缘图像I1,I2,…,IN,进行求平均得到的图像即1/N*I1+1/N*I2…+1/N*IN。
进一步,步骤(3)中,所述评分方法包括:
(3.1)利用canny算子对em图像上的所有边缘像素进行标记,记为p;
(3.2)遍历椭圆集Einitial中每个椭圆,记第i个椭圆在em图像中覆盖的像素值的个数为pi(pi∈p);则第i个椭圆的内点覆盖率记为
ρi=#{pi:pi∈SI(e)}/β;
其中,SI(e)代表第i个椭圆的内点,β代表的是椭圆的周长;
(3.3)将第i个椭圆的角度覆盖率记为Si,计算公式为:
其中n为该椭圆中所包含的弧线段的个数,θj为弧线段的对应的角度;
则第i个椭圆评分的公式如下:
对初始椭圆中每个椭圆进行评分,并且根据分值进行从大到小的排序,得到排序后的椭圆集Einorder。
进一步,步骤五中,所述对获得的初始椭圆集进行筛选包括:
1)形态筛选:通过形态筛选删除形态不满足条件的椭圆,得到符合形态特征的椭圆集合ER;
2)质量筛选:根据计算得到ρi与Si,删除在I图像中不满足内点覆盖率与角度覆盖率的椭圆,验证得到候选椭圆集Ecandidate;
3)删除重叠椭圆:当出现两个椭圆重叠度高于一定程度时,删除这两个椭圆中内点覆盖较低的那个椭圆。
进一步,步骤1)中,所述形态筛选包括:
1.1)细胞大小筛选
利用下式计算一个表示单个细胞占整个感兴趣区域的百分比的系数R;
H表示细胞大小,A表示图像感兴趣区域大小;
确定单个细胞的大小与胚胎大小的关系为:
其中num为细胞的个数;
1.2)细胞形态筛选
细胞的曲率满足如下条件:
其中a为椭圆的短半轴,c为椭圆的长半轴。
进一步,步骤3)中,所述删除重叠椭圆具体包括:
3.1)遍历候选椭圆集Ecandidate,记所有椭圆为E1、E2、…、En两两组合,得到n*(n-1)/2种组合(E1,E2)(E1,E3)…(En-1,En),通过下式计算出两个椭圆的重叠度S:
3.2)利用下式计算可以排除椭圆相互包含的情况:
cont=H1∪H2;
当cont等于H1或者H2的时候,表示两个椭圆互相包含;
3.3)当两个椭圆重叠度S高于55%或椭圆相互包含的时,删除组合中内点覆盖率较低的那个椭圆;
3.4)删除后的椭圆标记为假,下次不再做判断;直至所有的组合都被验证,得到椭圆集合Eend;
3.5)在椭圆集合Eend中直接选择最前面的k个椭圆即得分最高的k个椭圆;被选作真实的椭圆即经过筛选得到的椭圆;其中,k是分类器预测的细胞的个数。
本发明的另一目的在于提供一种实施所述基于组合视图的显微图像细胞计数与姿态识别方法的显微图像细胞计数与姿态识别终端。
本发明的另一目的在于提供一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如下步骤:
获取目标在不同焦段下拍摄的多张图像,通过人工观察,标注每张图像中包含的细胞个数,将标注了细胞个数的图像作为训练样本,训练一个深度神经网络细胞个数预测模型;
对获取的图像进行去噪、对比度增强预处理,并在每张图像上利用深度卷积神经网络得到的特征检测边缘;
在每张图像上根据边缘拟合椭圆,将所有图像上的椭圆收集起来作为候选集合;
在多张图像的组合上对候选椭圆进行验证和筛选。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明可以有效克服显微图像的质量退化问题,改善椭圆拟合的质量,进而提升细胞计数和姿态识别的准确性。
本发明通过训练一个深度神经网络,用机器学习的方式对图像中包含的细胞个数进行自动预测,从而无需知道细胞处于什么阶段,扩展了该方法的适用场景。
本发明采用基于深度特征的边缘检测方法,挖掘了像素更高级的语义特征,因此比传统的边缘检测算子在表达目标边界上具备更好的性能,进而间接改善了椭圆拟合的质量。
本发明采用在多个焦段下拍摄的多张图像,并设计了相应的组合策略,与传统的使用单一图像的方法相比,能更充分地利用信息,改善边缘的清晰度和完整性,进而提高椭圆拟合的准确度。
本发明提出的方法可以通过学习的方式自适应地确定图像中包含的细胞数量,无需在已知的特定阶段拍摄图像,具有较广泛的适用范围;采用融合深度语义信息的轮廓提取方法,间接提升了椭圆拟合的质量;利用多焦段多视图的综合信息进行椭圆的拟合和验证,克服了单视图固有的缺陷,得到的椭圆参数更加准确。
图3给出了应用不同边缘提取算法进行椭圆拟合的对比效果;图4给出了没有利用组合信息以及利用了组合信息进行椭圆检测的对比效果;图5给出了本发明最终效果与传统方法的对比结果。图6给出了本方案在一次实验中的完整流程图。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图做简单的介绍,显而易见地,下面所描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的基于组合视图的显微图像细胞计数与姿态识别方法流程图。
图2是本发明实施例提供的采集7张样例图。
图3是本发明实施例提供的不同边缘提取方法对应的椭圆检测结果对比图。
图4是本发明实施例提供的椭圆检测对比示意图。
图5是本发明实施例提供的不同方法最终得到的椭圆结果对比示意图。
图6是本发明实施例提供的完整实验流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种基于组合视图的显微图像细胞计数与姿态识别方法,下面结合附图对本发明作详细的描述。
本发明实施例提供的基于组合视图的显微图像细胞计数与姿态识别方法包括:
获取目标在不同焦段下拍摄的多张图像,通过人工观察,标注每张图像中包含的细胞个数,将标注了细胞个数的图像作为训练样本,训练一个深度神经网络细胞个数预测模型;对获取的图像进行去噪、对比度增强预处理,并在每张图像上利用深度卷积神经网络得到的特征检测边缘;在每张图像上根据边缘拟合椭圆,将所有图像上的椭圆收集起来作为候选集合;在多张图像的组合上对候选椭圆进行验证和筛选。
如图1所示,本发明实施例提供的基于组合视图的显微图像细胞计数与姿态识别方法包括以下步骤:
S101,利用霍夫曼调制相衬系统显微镜间隔一段时间拍摄一组目标在不同焦段下的图像,并对获取的图像进行去噪和对比度增强处理;
S102,通过检测每幅图像中镜筒边缘的圆环进行感兴趣区域提取,经过裁剪得到仅包含细胞区域的感兴趣图像;选取一部分图像,并通过人工观察标注选取的图像中包含的细胞个数,作为训练数据;
S103,构建一个深度神经网络细胞个数预测模型,并利用构建的模型提取图像的高维特征,同时基于机器学习的方法利用步骤S103得到的训练数据对所述细胞个数预测模型进行训练,利用训练后的细胞个数预测模型对图像中包含的细胞个数进行预测;
S104,采用基于深度学习的方法为每个像素学习一个高维的边缘属性特征,提取完整清晰的边缘信息;
S105,基于图像组合策略进行初始椭圆的拟合,并得到初始椭圆集;对获得的初始椭圆集进行筛选。
步骤S101中,本发明实施例提供的利用霍夫曼调制相衬系统显微镜间隔一段时间拍摄一组目标在不同焦段下的图像包括:
利用霍夫曼调制相衬系统显微镜拍摄图像,间隔15分钟拍摄一组;每组为不同的焦距段拍摄出的7张图像,分别记为I1,I2,I3,I4,I5,I6,I7,对应的是-15,-30,-45,0,15,30,45焦距。
步骤S104中,本发明实施例提供的深度学习的方法为基于深度卷积特征的RCF边缘预测方法或基于U-Net的眼底图像血管分割算法。
步骤S105中,本发明实施例提供的基于图像组合策略进行初始椭圆的拟合包括:
(1)确定图片组合策略:确定某一时刻多张图像上的边缘图像为e1,e2,e3,e4,e5,e6,e7,分别对应-15,-30,-45,0,15,30,45焦距值;确定组合策略为将不同焦距段的边缘图像进行组合;
(2)对于得到的待叠加边缘图像数据es找到由连通的边缘点构成的弧段,利用最小二乘法估计出由这些弧段可能构成的所有的初始椭圆集Einitial;
(3)以得到的em边缘图像作为评价参照对得到的初始椭圆集Einitial中每个椭圆进行评分。
步骤(1)中,本发明实施例提供的对不同焦距段的边缘图像进行组合包括:
(1.1)将原始边缘图像e1,e2,e3,e4,e5,e6,e7进行叠加,得到像素信息更加多的边缘图;
所述叠加方法包括:对N张边缘图像I1,I2,…,IN,保存为白底黑边的图像,位于边缘的像素值为0,非边缘的像素值为1;在标记为边缘的像素的坐标位置(xp,yp)取所有需要叠加图像中该位置像素的最小值,得到一张提取所有被叠加图像的边缘信息的图像;
(1.2)将焦距值为-30和0时检测出的边缘图像e2和e4进行求平均;
所述求平均方法包括:对N张边缘图像I1,I2,…,IN,进行求平均得到的图像即1/N*I1+1/N*I2…+1/N*IN。
步骤(3)中,本发明实施例提供的评分方法包括:
(3.1)利用canny算子对em图像上的所有边缘像素进行标记,记为p;
(3.2)遍历椭圆集Einitial中每个椭圆,记第i个椭圆在em图像中覆盖的像素值的个数为pi(pi∈p);则第i个椭圆的内点覆盖率记为
ρi=#{pi:pi∈SI(e)}/β;
其中,SI(e)代表第i个椭圆的内点,β代表的是椭圆的周长;
(3.3)将第i个椭圆的角度覆盖率记为Si,计算公式为:
其中n为该椭圆中所包含的弧线段的个数,θj为弧线段的对应的角度;
则第i个椭圆评分的公式如下:
对初始椭圆中每个椭圆进行评分,并且根据分值进行从大到小的排序,得到排序后的椭圆集Einorder。
步骤S105中,本发明实施例提供的对获得的初始椭圆集进行筛选包括:
1)形态筛选:通过形态筛选删除形态不满足条件的椭圆,得到符合形态特征的椭圆集合ER;
2)质量筛选:根据计算得到ρi与Si,删除在I图像中不满足内点覆盖率与角度覆盖率的椭圆,验证得到候选椭圆集Ecandidate;
3)删除重叠椭圆:当出现两个椭圆重叠度高于一定程度时,删除这两个椭圆中内点覆盖较低的那个椭圆。
步骤1)中,本发明实施例提供的形态筛选包括:
1.1)细胞大小筛选
利用下式计算一个表示单个细胞占整个感兴趣区域的百分比的系数R;
H表示细胞大小,A表示图像感兴趣区域大小;
确定单个细胞的大小与胚胎大小的关系为:
其中num为细胞的个数;
1.2)细胞形态筛选
细胞的曲率满足如下条件:
其中a为椭圆的短半轴,c为椭圆的长半轴。
步骤3)中,本发明实施例提供的删除重叠椭圆具体包括:
3.1)遍历候选椭圆集Ecandidate,记所有椭圆为E1、E2、…、En两两组合,得到n*(n-1)/2种组合(E1,E2)(E1,E3)…(En-1,En),通过下式计算出两个椭圆的重叠度S:
3.2)利用下式计算可以排除椭圆相互包含的情况:
cont=H1∪H2;
当cont等于H1或者H2的时候,表示两个椭圆互相包含;
3.3)当两个椭圆重叠度S高于55%或椭圆相互包含的时,删除组合中内点覆盖率较低的那个椭圆;
3.4)删除后的椭圆标记为假,下次不再做判断;直至所有的组合都被验证,得到椭圆集合Eend;
3.5)在椭圆集合Eend中直接选择最前面的k个椭圆即得分最高的k个椭圆;被选作真实的椭圆即经过筛选得到的椭圆;其中,k是分类器预测的细胞的个数。
下面结合具体实施例对本发明技术方案作进一步说明。
实施例1:
首先,进行数据的预处理和准备。采用目标在不同焦段下拍摄的多张图像,而非仅仅利用特定焦段的一张图像。
然后,训练一个细胞个数预测模型。通过人工观察,标注每张图像中包含的细胞个数,将其作为训练样本,训练一个深度神经网络。该网络的输入是一张图像,输出是该图像中细胞的个数。
接下来,对多张图像进行去噪、对比度增强等预处理,在每张图像上利用深度卷积神经网络得到的特征检测边缘。
再者,在每张图像上根据边缘拟合椭圆,将所有图像上的椭圆收集起来作为候选集合。
最后,在多张图像的组合上对候选椭圆进行验证和筛选。该方案可以有效克服显微图像的质量退化问题,改善椭圆拟合的质量,进而提升细胞计数和姿态识别的准确性。
进一步,本发明提供的基于组合视图的显微图像细胞计数与姿态识别方法具体包括:
(1)数据采集与预处理。
优选地,步骤(1)具体包括如下子步骤:
(1.1)数据采集。利用霍夫曼调制相衬系统显微镜拍摄图像,间隔15分钟拍摄一组。每组为不同的焦距段拍摄出的7张图像,分别记为I1,I2,I3,I4,I5,I6,I7,对应的是-15,-30,-45,0,15,30,45焦距。采集图像的样例如图2所示;
(1.2)数据预处理。首先分别对每幅图像进行去噪和对比度增强处理,通过检测每幅图像中镜筒边缘的圆环进行感兴趣区域提取,经过裁剪得到仅包含细胞区域的感兴趣图像。
(1.3)数据标注。通过人工观察,标注出一部分图像中包含的细胞的个数,以便在后面的过程中可以利用该信息训练一个可预测图像中包含细胞个数的模型。
(2)细胞个数预测。由于细胞所处的培养阶段未知,其包含的细胞的个数也是无法预先知道的。为此,本发明利用机器学习的方法训练一个预测模型,对图像中包含的细胞个数进行预测。所采用的深度神经网络的结构可以有多种,在本发明中,优选以一个类似LeNet的网络为例进行说明。通过上述网络提取图像的高维特征,并利用已标注数据训练一个分类器对图像所包含的细胞数量进行分类,从而达到预测的目的。
(3)细胞边缘检测。由于实验数据图像梯度并不明显,且在多细胞相互重叠的区域会出现遮挡细胞边缘的情况,会使普通梯度信息的边缘检测方法检测出的胚胎边缘不清晰且出现边缘不连续的情况,给后续椭圆拟合带来困扰。为此,本发明采用基于深度学习的方法给每个像素学习一个高维的边缘属性特征,将边缘检测问题转化为一个基于上述特征的分类问题,以便提取更好的边缘信息,保证边缘的完整度和清晰度。具体的方法可使用基于深度卷积特征的RCF边缘预测方法,也可以选择基于U-Net的眼底图像血管分割算法。优选地,本发明以后者为例进行说明。
(4)初始椭圆拟合。在该步骤中,根据本发明设计的图像组合策略进行初始椭圆的拟合,具体包括以下步骤:
(4.1)图片组合策略
记某一时刻多张图像上的边缘图像为e1,e2,e3,e4,e5,e6,e7,分别对应-15,-30,-45,0,15,30,45焦距值。通过组合不同焦距段的边缘图像,可以使不同焦距边缘相互补充,从而获取更加完整的边缘,进而改善椭圆检测的效果。
具体的组合方案如下:
(4.1.1)将原始边缘图像e1,e2,e3,e4,e5,e6,e7进行叠加操作,得到像素信息更加多的边缘图记为es;
上述叠加操作具体步骤为:
对N张边缘图像I1,I2,…,IN,保存为白底黑边的图像,则位于边缘的像素值为0,非边缘的像素值为1;在标记为边缘的像素的坐标位置(xp,yp)取所有需要叠加图像中该位置像素的最小值,从而得到一张提取了所有被叠加图像的边缘信息的图像。
(4.1.2)将焦距值为-30和0时检测出的边缘图像e2和e4进行求平均,记为em;
上述求平均操作具体步骤为:
对N张边缘图像I1,I2,…,IN,进行求平均操作得到的图像就是1/N*I1+1/N*I2…+1/N*IN;
(4.2)初始椭圆集生成
对于得到的待实验叠加边缘图像数据es,本发明找到由连通的边缘点构成的弧段,利用最小二乘法估计出由这些弧段可能构成的所有的初始椭圆集Einitial;
(4.3)椭圆评分
本发明需要对得到的初始椭圆集Einitial中每个椭圆进行评分,为椭圆筛选作准备。作为评分的参照需要清晰的边缘,因此应用前述内容中组合得到的em边缘图像作为评价参照。进行椭圆评分的步骤如下:
(4.3.1)利用canny算子对em图像上的所有边缘像素进行标记,记为p;
(4.3.2)遍历椭圆集Einitial中每个椭圆,记第i个椭圆在em图像中覆盖的像素值的个数为pi(pi∈p);则第i个椭圆的内点覆盖率记为
ρi=#{pi:pi∈SI(e)}/β (1)
其中,SI(e)代表第i个椭圆的内点,β代表的是椭圆的周长,由以下公式近似计算;
(4.3.3)将第i个椭圆的角度覆盖率记为Si,可以由以下表达式计算:
其中n为该椭圆中所包含的弧线段的个数,θj为弧线段的对应的角度。第i个椭圆评分的公式如下:
至此,本发明对初始椭圆中每个椭圆进行了评分,并且根据分值进行从大到小的排序,得到排序后的椭圆集Einorder。
(5)初始椭圆筛选。
(5.1)形态筛选
针对初始椭圆集Einorder包含图中可能出现的所有椭圆,许多椭圆无法表述胚胎细胞实际的大小,所以本发明需要进一步进行形态筛选。
(5.1.1)细胞大小筛选
计算一个系数R,表示单个细胞占整个感兴趣区域的百分比。R的计算方法如下所示:
H表示细胞大小,A表示图像感兴趣区域大小。根据大量的实验数据的分析,本发明设置单个细胞的大小与胚胎大小的关系为:
其中num为细胞的个数。在这里,R的取值范围是根据大量实验的平均表现得到的经验值。
(5.1.2)细胞形态筛选
在现实情况下,细胞图像中不应该出现曲率太大的椭圆,本发明设定细胞的曲率应该满足如下条件:
其中a为椭圆的短半轴,c为椭圆的长半轴。
至此,本发明可以删除形态不满足条件的椭圆,得到符合形态特征的椭圆集合ER。
(5.2)质量筛选。根据公式(1)、(3)计算出的ρi与Si,删除在I图像中不满足内点覆盖率与角度覆盖率的椭圆。实验数据表明,内点覆盖率参数设置为0.1,角度覆盖率参数在单细胞中设定为1/3,多细胞中设定为1/6时效果较好。在这里,内点覆盖率、角度覆盖率的阈值参数是根据大量实验的平均表现得到的经验值。通过以上质量验证本发明得到候选椭圆集Ecandidate;
(5.3)删除重叠椭圆。在实际情况中,很少出现细胞两两重叠度很高或相互包含的情况;由此当出现两个椭圆重叠度高于一定程度时,本发明删除这两个椭圆中内点覆盖较低的那个椭圆,具体步骤如下:
(5.3.1)遍历候选椭圆集Ecandidate,记所有椭圆为E1、E2、…、En两两组合,则会出现n*(n-1)/2种组合(E1,E2)(E1,E3)…(En-1,En),通过以下公式计算出两个椭圆的重叠度S:
(5.3.2)由以下公式计算可以排除椭圆相互包含的情况:
cont=H1∪H2 (8)
当cont等于H1或者H2的时候,就说明两个椭圆互相包含。
(5.3.3)当两个椭圆重叠度S高于55%或椭圆相互包含的时候,删除组合中内点覆盖率较低的那个椭圆;在这里,重叠度阈值参数是根据大量实验的平均表现得到的经验值。
(5.3.4)删除后的椭圆标记为假,下次不再做判断;直至所有的组合都被验证,得到椭圆集合Eend;
(5.3.5)在椭圆集合Eend中直接选择最前面的k个椭圆,也就是得分最高的k个椭圆。其中,k是分类器预测的细胞的个数。被选作真实的椭圆就是最后的结果。
图3为不同边缘提取方法对应的椭圆检测结果。
图中,从左至右:原始图像、otsu方法、canny算子和本发明所采用的方法。
图4,从左至右依次为传统方法在单张图像上初始椭圆检测的结果以及本发明在多张叠加图像上初始椭圆检测的结果。
图5,不同方法最终得到的椭圆结果。
图中,从左至右:原始图像、利用单张图像和传统边缘检测得到的结果和本发明所采用的方法得到的结果。
图6给出了本发明的一个完整实验流程。首先,以多个焦段拍摄的7张图像作为输入,分别在每张图像上利用深度神经网络得到的特征进行边缘检测。然后,对边缘图像进行叠加,在这一张叠加的边缘图像上进行椭圆的检测。接下来,在多张边缘图像的一种组合策略上进行椭圆的评分,并根据事先预测的细胞个数进行椭圆筛选。
在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上;术语“上”、“下”、“左”、“右”、“内”、“外”、“前端”、“后端”、“头部”、“尾部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
Claims (6)
1.一种基于组合视图的显微图像细胞计数与姿态识别方法,其特征在于,所述基于组合视图的显微图像细胞计数与姿态识别方法包括:
获取目标在不同焦段下拍摄的多张图像,通过人工观察,标注每张图像中包含的细胞个数,将标注细胞个数的图像作为训练样本,训练一个深度神经网络细胞个数预测模型;
对获取的图像进行去噪、对比度增强预处理,并在每张图像上利用深度卷积神经网络得到的特征检测边缘;
在每张图像上根据边缘拟合椭圆,将所有图像上的椭圆收集起来作为候选集合;
在多张图像的组合上对候选椭圆进行验证和筛选;
基于组合视图的显微图像细胞计数与姿态识别方法包括以下步骤:
步骤一,利用霍夫曼调制相衬系统显微镜间隔一段时间拍摄一组目标在不同焦段下的图像,并对获取的图像进行去噪和对比度增强处理;
步骤二,通过检测每幅图像中镜筒边缘的圆环进行感兴趣区域提取,经过裁剪得到仅包含细胞区域的感兴趣图像;选取一部分图像,并通过人工观察标注选取的图像中包含的细胞个数,作为训练数据;
步骤三,构建一个深度神经网络细胞个数预测模型,并利用构建的模型提取图像的高维特征,同时基于机器学习的方法利用步骤二得到的训练数据对所述细胞个数预测模型进行训练,利用训练后的细胞个数预测模型对图像中包含的细胞个数进行预测;
步骤四,采用基于深度学习的方法为每个像素学习一个高维的边缘属性特征,提取完整清晰的边缘信息;
步骤五,基于图像组合策略进行初始椭圆的拟合,并得到初始椭圆集;对获得的初始椭圆集进行筛选;
步骤五中,所述基于图像组合策略进行初始椭圆的拟合包括:
(1)确定图片组合策略:确定某一时刻多张图像上的边缘图像为e1,e2,e3,e4,e5,e6,e7,分别对应-15,-30,-45,0,15,30,45焦距值;确定组合策略为将不同焦距段的边缘图像进行组合;
步骤(1)中,所述对不同焦距段的边缘图像进行组合包括:
(1.1)将原始边缘图像e1,e2,e3,e4,e5,e6,e7进行叠加,得到像素信息更加多的边缘图es;
(1.2)将焦距值为-30和0时检测出的边缘图像e2和e4进行求平均,记为em;
(2)对于得到的es找到由连通的边缘点构成的弧段,利用最小二乘法估计出由这些弧段可能构成的所有的初始椭圆集Einitial;
(3)以得到的em边缘图像作为评价参照对得到的初始椭圆集Einitial中每个椭圆进行评分;
步骤(3)中,所述评分方法包括:
(3.1)利用canny算子对em图像上的所有边缘像素进行标记,记为p;
(3.2)遍历椭圆集Einitial中每个椭圆,记第i个椭圆在em图像中覆盖的像素值的个数为pi,pi∈p;则第i个椭圆的内点覆盖率记为
ρi=#{pi:pi∈SI(e)}/β;
其中,SI(e)代表第i个椭圆的内点,β代表的是椭圆的周长;
(3.3)将第i个椭圆的角度覆盖率记为Si,计算公式为:
其中n为该椭圆中所包含的弧线段的个数,θj为弧线段的对应的角度;
则第i个椭圆评分的公式如下:
对初始椭圆中每个椭圆进行评分,并且根据分值进行从大到小的排序,得到排序后的椭圆集Einorder。
2.如权利要求1所述基于组合视图的显微图像细胞计数与姿态识别方法,其特征在于,步骤一中,所述利用霍夫曼调制相衬系统显微镜间隔一段时间拍摄一组目标在不同焦段下的图像包括:
利用霍夫曼调制相衬系统显微镜拍摄图像,间隔15分钟拍摄一组;每组为不同的焦距段拍摄出的7张图像,分别记为I1,I2,I3,I4,I5,I6,I7,对应的是-15,-30,-45,0,15,30,45焦距。
3.如权利要求1所述基于组合视图的显微图像细胞计数与姿态识别方法,其特征在于,步骤四中,所述深度学习的方法为基于深度卷积特征的RCF边缘预测方法或基于U-Net的眼底图像血管分割算法。
4.如权利要求1所述基于组合视图的显微图像细胞计数与姿态识别方法,其特征在于,所述叠加方法包括:对N张边缘图像I1,I2,…,IN,保存为白底黑边的图像,位于边缘的像素值为0,非边缘的像素值为1;在标记为边缘的像素的坐标位置(xp,yp)取所有需要叠加图像中该位置像素的最小值,得到一张提取所有被叠加图像的边缘信息的图像;
所述求平均方法包括:对N张边缘图像I1,I2,…,IN,进行求平均得到的图像即1/N*I1+1/N*I2…+1/N*IN。
5.如权利要求1所述基于组合视图的显微图像细胞计数与姿态识别方法,其特征在于,步骤五中,所述对获得的初始椭圆集进行筛选包括:
1)形态筛选:通过形态筛选删除形态不满足条件的椭圆,得到符合形态特征的椭圆集合ER;
2)质量筛选:根据计算得到ρi与Si,删除在I图像中不满足内点覆盖率与角度覆盖率的椭圆,验证得到候选椭圆集Ecandidate;
3)删除重叠椭圆:当出现两个椭圆重叠度高于一定程度时,删除这两个椭圆中内点覆盖较低的那个椭圆;
步骤1)中,所述形态筛选包括:
1.1)细胞大小筛选
利用下式计算一个表示单个细胞占整个感兴趣区域的百分比的系数R;
H表示细胞大小,A表示图像感兴趣区域大小;
确定单个细胞的大小与胚胎大小的关系为:
其中num为细胞的个数;
1.2)细胞形态筛选
细胞的曲率满足如下条件:
其中a为椭圆的短半轴,c为椭圆的长半轴;
步骤3)中,所述删除重叠椭圆具体包括:
3.1)遍历候选椭圆集Ecandidate,记所有椭圆为E1、E2、…、En两两组合,得到n*(n-1)/2种组合(E1,E2)(E1,E3)…(En-1,En),通过下式计算出两个椭圆的重叠度S:
3.2)利用下式计算可以排除椭圆相互包含的情况:
cont=H1∪H2;
当cont等于H1或者H2的时候,表示两个椭圆互相包含;
3.3)当两个椭圆重叠度S高于55%或椭圆相互包含的时,删除组合中内点覆盖率较低的那个椭圆;
3.4)删除后的椭圆标记为假,下次不再做判断;直至所有的组合都被验证,得到椭圆集合Eend;
3.5)在椭圆集合Eend中直接选择最前面的k个椭圆即得分最高的k个椭圆;被选作真实的椭圆即经过筛选得到的椭圆;其中,k是分类器预测的细胞的个数。
6.一种实施权利要求1~5任意一项所述基于组合视图的显微图像细胞计数与姿态识别方法的显微图像细胞计数与姿态识别终端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010587175.2A CN111724379B (zh) | 2020-06-24 | 2020-06-24 | 基于组合视图的显微图像细胞计数与姿态识别方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010587175.2A CN111724379B (zh) | 2020-06-24 | 2020-06-24 | 基于组合视图的显微图像细胞计数与姿态识别方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111724379A CN111724379A (zh) | 2020-09-29 |
CN111724379B true CN111724379B (zh) | 2024-05-24 |
Family
ID=72568749
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010587175.2A Active CN111724379B (zh) | 2020-06-24 | 2020-06-24 | 基于组合视图的显微图像细胞计数与姿态识别方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111724379B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112330610B (zh) * | 2020-10-21 | 2024-03-29 | 郑州诚优成电子科技有限公司 | 一种基于微血管位置角膜内皮细胞计数采集精确定位方法 |
CN112991306B (zh) * | 2021-03-25 | 2022-04-22 | 华南理工大学 | 一种基于图像处理的卵裂期胚胎细胞位置分割和计数方法 |
CN113283353B (zh) * | 2021-05-31 | 2022-04-01 | 创芯国际生物科技(广州)有限公司 | 一种基于显微图像的类器官细胞计数方法及系统 |
JP2023018827A (ja) * | 2021-07-28 | 2023-02-09 | 株式会社Screenホールディングス | 画像処理方法、プログラムおよび記録媒体 |
CN114240836B (zh) * | 2021-11-12 | 2024-06-25 | 杭州迪英加科技有限公司 | 一种鼻息肉病理切片分析方法、系统和可读存储介质 |
CN114782413B (zh) * | 2022-06-07 | 2023-02-10 | 生态环境部长江流域生态环境监督管理局生态环境监测与科学研究中心 | 一种基于显微镜图像的星杆藻类细胞统计方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106520535A (zh) * | 2016-10-12 | 2017-03-22 | 山东大学 | 一种基于光片照明的免标记细胞检测装置及方法 |
CN107301638A (zh) * | 2017-05-27 | 2017-10-27 | 东南大学 | 一种基于弧支持线段的椭圆检测方法 |
CN108052886A (zh) * | 2017-12-05 | 2018-05-18 | 西北农林科技大学 | 一种小麦条锈病菌夏孢子自动统计计数方法 |
CN108090928A (zh) * | 2017-11-01 | 2018-05-29 | 浙江农林大学 | 一种检测与筛选类圆形细胞区域的方法及系统 |
CN109102515A (zh) * | 2018-07-31 | 2018-12-28 | 浙江杭钢健康产业投资管理有限公司 | 一种基于多列深浅卷积神经网络的细胞计数方法 |
CN109886179A (zh) * | 2019-02-18 | 2019-06-14 | 深圳视见医疗科技有限公司 | 基于Mask-RCNN的子宫颈细胞涂片的图像分割方法和系统 |
CN110009680A (zh) * | 2019-02-28 | 2019-07-12 | 中国人民解放军国防科技大学 | 基于圆特征及异面特征点的单目图像位置、姿态测量方法 |
CN110598692A (zh) * | 2019-08-09 | 2019-12-20 | 清华大学 | 一种基于深度学习的椭圆识别方法 |
CN111028239A (zh) * | 2019-08-10 | 2020-04-17 | 杭州屏行视界信息科技有限公司 | 一种面向特制量体衣的椭圆精确识别方法 |
CN111178173A (zh) * | 2019-12-14 | 2020-05-19 | 杭州电子科技大学 | 一种目标菌落生长特征识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170091948A1 (en) * | 2015-09-30 | 2017-03-30 | Konica Minolta Laboratory U.S.A., Inc. | Method and system for automated analysis of cell images |
-
2020
- 2020-06-24 CN CN202010587175.2A patent/CN111724379B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106520535A (zh) * | 2016-10-12 | 2017-03-22 | 山东大学 | 一种基于光片照明的免标记细胞检测装置及方法 |
CN107301638A (zh) * | 2017-05-27 | 2017-10-27 | 东南大学 | 一种基于弧支持线段的椭圆检测方法 |
CN108090928A (zh) * | 2017-11-01 | 2018-05-29 | 浙江农林大学 | 一种检测与筛选类圆形细胞区域的方法及系统 |
CN108052886A (zh) * | 2017-12-05 | 2018-05-18 | 西北农林科技大学 | 一种小麦条锈病菌夏孢子自动统计计数方法 |
CN109102515A (zh) * | 2018-07-31 | 2018-12-28 | 浙江杭钢健康产业投资管理有限公司 | 一种基于多列深浅卷积神经网络的细胞计数方法 |
CN109886179A (zh) * | 2019-02-18 | 2019-06-14 | 深圳视见医疗科技有限公司 | 基于Mask-RCNN的子宫颈细胞涂片的图像分割方法和系统 |
CN110009680A (zh) * | 2019-02-28 | 2019-07-12 | 中国人民解放军国防科技大学 | 基于圆特征及异面特征点的单目图像位置、姿态测量方法 |
CN110598692A (zh) * | 2019-08-09 | 2019-12-20 | 清华大学 | 一种基于深度学习的椭圆识别方法 |
CN111028239A (zh) * | 2019-08-10 | 2020-04-17 | 杭州屏行视界信息科技有限公司 | 一种面向特制量体衣的椭圆精确识别方法 |
CN111178173A (zh) * | 2019-12-14 | 2020-05-19 | 杭州电子科技大学 | 一种目标菌落生长特征识别方法 |
Non-Patent Citations (1)
Title |
---|
Giusti A,Corani G,Gambardella L,et al."Blastomere segmentation and3D morphology measurements of early embryos from Hoffman Modulation Contrastimage stacks".《Biomedical Imaging:From Nano to Macro,2010 IEEEInternational Symposium on》.2010,第1261-1264页. * |
Also Published As
Publication number | Publication date |
---|---|
CN111724379A (zh) | 2020-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111724379B (zh) | 基于组合视图的显微图像细胞计数与姿态识别方法及系统 | |
CN111724381B (zh) | 基于多视图交叉验证的显微图像细胞计数与姿态识别方法 | |
CN109272492B (zh) | 一种细胞病理涂片的处理方法及系统 | |
CN108388885B (zh) | 面向大型直播场景的多人特写实时识别与自动截图方法 | |
CN108491784B (zh) | 面向大型直播场景的单人特写实时识别与自动截图方法 | |
WO2023155324A1 (zh) | 图像融合方法、装置及设备、存储介质 | |
CN109190567A (zh) | 基于深度卷积神经网络的异常宫颈细胞自动检测方法 | |
CN109389129A (zh) | 一种图像处理方法、电子设备及存储介质 | |
CN110736747B (zh) | 一种细胞液基涂片镜下定位的方法及系统 | |
CN113962975B (zh) | 基于梯度信息对病理玻片数字图像进行质量评估的系统 | |
CN111507932A (zh) | 高特异性的糖尿病性视网膜病变特征检测方法及存储设备 | |
CN110751619A (zh) | 一种绝缘子缺陷检测方法 | |
CN111724378A (zh) | 一种显微图像细胞计数与姿态识别方法及系统 | |
CN111008647B (zh) | 一种样本提取及基于空洞卷积与残差链接的图像分类方法 | |
US12136263B2 (en) | Method and system for image batch processing recognition | |
CN117523650B (zh) | 基于旋转目标检测的眼球运动追踪方法及系统 | |
CN106960199A (zh) | 一种真彩色眼象图白睛区域的完整提取方法 | |
CN117252813A (zh) | 基于深度学习的宫颈液基细胞检测与识别方法及系统 | |
CN110766680B (zh) | 一种基于几何约束的白细胞图像分割方法 | |
CN108596262A (zh) | 一种基于计算机视觉进行植物病斑分类的方法及系统 | |
CN114693912B (zh) | 具有眼球追踪功能的内镜检查系统、存储介质及设备 | |
CN117576121A (zh) | 一种显微镜扫描区域自动分割方法、系统、设备及介质 | |
Rao et al. | Convolutional Neural Network Model for Traffic Sign Recognition | |
CN118314146B (zh) | 基于协同学习的动物x光影像数据的处理方法及计算机装置 | |
CN118506115B (zh) | 基于最佳圆弧融合的多焦距胚胎图像原核检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |