CN110969164A - 基于深度学习端对端的低照度成像车牌识别方法及装置 - Google Patents
基于深度学习端对端的低照度成像车牌识别方法及装置 Download PDFInfo
- Publication number
- CN110969164A CN110969164A CN201911327687.9A CN201911327687A CN110969164A CN 110969164 A CN110969164 A CN 110969164A CN 201911327687 A CN201911327687 A CN 201911327687A CN 110969164 A CN110969164 A CN 110969164A
- Authority
- CN
- China
- Prior art keywords
- license plate
- image
- low
- layer
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005286 illumination Methods 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000013135 deep learning Methods 0.000 title claims abstract description 45
- 238000003384 imaging method Methods 0.000 title claims abstract description 43
- 238000012545 processing Methods 0.000 claims abstract description 58
- 238000012937 correction Methods 0.000 claims abstract description 33
- 230000002776 aggregation Effects 0.000 claims abstract description 14
- 238000004220 aggregation Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 19
- 230000009466 transformation Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 14
- 238000011176 pooling Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000012856 packing Methods 0.000 claims description 5
- 230000009467 reduction Effects 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000002457 bidirectional effect Effects 0.000 claims description 2
- 125000004122 cyclic group Chemical group 0.000 claims description 2
- 230000008034 disappearance Effects 0.000 claims description 2
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 230000005764 inhibitory process Effects 0.000 claims 2
- 239000010410 layer Substances 0.000 description 57
- 210000004027 cell Anatomy 0.000 description 53
- 238000004422 calculation algorithm Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 16
- 210000005266 circulating tumour cell Anatomy 0.000 description 13
- 230000001629 suppression Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000009826 distribution Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/243—Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习端对端的低照度成像车牌识别方法及装置,所述方法包括:将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像;对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像;通过一体化的深度网络模型对所述定位后的车牌进行识别。通过本发明实施例,能够提高低照度成像车牌的识别效率和准确度。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于深度学习端对端的低照度成像车牌识别方法和装置、终端设备和计算机可读存储介质。
背景技术
随着计算机视觉、数字图像处理技术与智能交通技术的发展,车牌识别技术在智能交通领域中的应用越来越广泛。市场上车牌识别的相关产品也越来越多,但是,目前还普遍存在着的问题是:现有的车牌识别系统对图像的质量要求比较高,然而在复杂应用环境下,往往得到的图像质量较低,无法满足系统的要求,导致车牌的识别率不高。因此,如何提高低品质图像中车牌的识别率,以适应复杂多变的应用环境,是车牌识别系统研究中需要解决的重要问题。低照度下获取的图像灰度范围窄、灰度变化不明显,且相邻像素的空间关联性高,这些特点使得图像中的细节、背景和噪声等都包含在较窄的灰度范围之内。因此为了改善低照度下获取的图像的视觉效果,将其转换为一种更适于人眼观察和计算机处理的形式,便于提取有用信息,需要对被拍摄物在低照度下的成像进行处理。具体的在车牌识别应用中,当车牌图像质量不高时,目前主要的技术思路是针对单帧图像利用相关的数字图像处理技术(如图像、滤波、图像增强等)进行相应的处理,以提高图像的质量。这些方法大都是传统的思路,通常来说,会存在图像细节不够清晰,识别细节不够准确,处理效果往往根据环境不同而变化较大的缺陷。此外,在传统方法中,需要对低照度成像车牌中的字符进行切割,计算量巨大,从而会极大地影响车牌识别效率和准确度。
发明内容
有鉴于此,本发明实施例提供一种基于深度学习端对端的低照度成像车牌识别方法、系统、终端设备及计算机可读介质,能够提高低照度成像车牌的识别效率和准确度。
本发明实施例的第一方面提供了一种基于深度学习端对端的低照度成像车牌识别方法,包括:
将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像;
对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像;
通过一体化的深度网络模型对所述定位后的车牌进行识别;所述一体化的深度网络模型包括卷积层、BRNN层、线性变换层和CTC层。
本发明实施例的第二方面提供了一种基于深度学习端对端的低照度成像车牌识别装置,包括:
辨识度提高模块,用于将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像;
定位校正模块,用于对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像;
识别模块,用于通过一体化的深度网络模型对所述定位后的车牌进行识别;所述一体化的深度网络模型包括卷积层、BRNN层、线性变换层和CTC层。
本发明实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于深度学习端对端的低照度成像车牌识别方法的步骤。
本发明实施例的第四方面提供了一种计算机可读介质,所述计算机可读介质存储有计算机程序,所述计算机程序被处理执行时实现上述基于深度学习端对端的低照度成像车牌识别方法的步骤。
本发明实施例提供的基于深度学习端对端的低照度成像车牌识别方法,可将原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像,对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像,并通过一体化的深度网络模型,使用带有CTC的BRNN对所述定位后的车牌进行识别,从而可提高低照度成像车牌的识别效率和准确度。
附图说明
图1为本发明基于深度学习端对端的低照度成像车牌识别方法第一实施例的流程示意图;
图2为本发明一实施例中基于深度学习的CAN网络总体图表;
图3为本发明实施例提供的通过一体化的深度网络模型对定位后的车牌进行识别的过程示意图;
图4为本发明实施例提供的基于深度学习端对端的低照度成像车牌识别装置的结构示意图;
图5为图4中的辨识度提高模块的细化结构示意图;
图6为图4中的定位校正模块的细化结构示意图;
图7为图4中的识别模块的细化结构示意图;
图8是本发明实施例提供的终端设备的示意图。
本发明目的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身没有特定的意义。因此,“模块”、“部件”或“单元”可以混合地使用。
请参阅图1,为实现上述目的,本发明的第一实施例中提供一种基于深度学习端对端的低照度成像车牌识别方法,包括如下步骤:
S10:将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像。
S20:对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像。
S30:通过一体化的深度网络模型对所述定位后的车牌进行识别。其中,所述一体化的深度网络模型包括卷积层、双向循环神经网络(BRNN)层、线性变换层和联结主义时间分类(CTC)层。
在本发明的技术方案中,该低照度成像车牌识别方法将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像,从而提高了车牌图像的信噪比和图像显示细节,使视频图像能在低照度环境下车牌图像清晰成像的目的。然后,对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像;最后,不需要进行大计算量的字符分割处理,只需将定位后的所述车牌图像通过一体化的深度网络模型进行识别。本发明的技术方案的车牌字符读取可靠性高,识别度好,鲁棒性好,同时步骤计算简单,能保持高效率,实时性也能满足需求。
本发明针对现行低照度环境下车牌识别系统存在的这些特定难点问题,为了提高监控系统的车牌识别的准确程度,并使其满足实时性需求,提出一种基于深度学习的多尺度上下文聚合网络的低照度成像车牌识别系统。
基于本发明的低照度成像车牌识别方法的第一实施例,本发明的低照度成像车牌识别方法的第二实施例中,所述步骤S10包括:
步骤S11,将通过所述摄像模块获取的所述原始车牌低照度Bayer(拜耳)图像进行预处理,打包变换像素通道,以获得用于输入FCN(全卷积神经网络)模型进行训练的像素图像。具体地,原始车牌低照度Bayer图像预处理:打包变换像素通道,处理成更适合FCN训练输入的像素图像;对于Bayer数组,将输入打包为四个通道并在每个通道上将空间分辨率降低一半。对于X-Trans(X-转换)数组,原始数据以6×6排列块组成;通过交换相邻通道元素的方法将36个通道的数组打包成9个通道。此外,消除黑色像素并按照期望的倍数缩放数据(例如,×100或×300)。将处理后数据作为FCN模型的输入,输出是一个带12通道的图像,其空间分辨率只有输入的一半。经过处理之后图像的数据量变小,同时不影响图像细节,有利于后续卷积处理。输出处理后的低照度车牌像素图像。
步骤S12,基于深度学习的CAN(控制局域网)网络对所述像素图像进行训练,输出处理后图像。图2为CAN网络结构图表。圆圈表示非线性函数LReLU。除了第一层和最后一层是三个通道外,其余均是多个通道,倒数第二层使用1×1的卷积,无非线性转化,得到最后的一层。其核心部分具体公式如下所示:
其中,是s层Ls的第i个特征层,i≥0;*rs代表空洞卷积操作,代表3×3的卷积核,是偏置项,ψs是自适应的归一化函数,φ是像素级的非线性单元LReLU:φ(x)=max(αx,x)。其中α取的是0.2。
在建立好CAN结构后,开始进行数据训练。本发明算法在训练CAN网络中使用Adam优化器,从零开始训练。在训练期间,网络输入是原始的短曝光图像,在sRGB空间中的真实数据是相应的长曝光时间图像。本算法为每台相机训练一个网络,并将原始图像和参考图像之间曝光时间的倍数差作为我们的放大因子(例如,×100,×250,或×300)。在每次训练迭代中,随机裁剪一个512×512的补丁用于训练并利用翻转、旋转等操作来随机增强数据。初始学习率设定为0.0001,在2000次迭代后学习率降为0.00001,训练一共进行4000次迭代。基于相应数据库训练模型完成后,每次输入预处理处理后的低照度Bayer图像,则输出对应的sRGB空间结果图像。
步骤S13,对所述处理后图像进行宽动态增强处理,输出得到还原度和图像质量提高的所述车牌图像。具体地,对处理后的图像进行宽动态增强处理,进一步提高低照度车牌图像的还原度和图像质量,处理后直接输出最终的车牌图像。
本部分发明用改进的局部算法来对待处理图像进行宽动态处理。将一帧视频图像分为两个情况:高光部分,低光部分。针对如此分类,本发明分别采用不同参数,对各个部分进行调整,一起达到视频图像宽动态的效果。本部分发明低光补偿算法公式如下:
其中,Y2为低光补偿部分的值,k为低光补偿参数,通常根据系统需求自行设定,I为输入的视频图像的像素值,Y1为预处理部分输入的视频图像的修正值。高光部分的算法公式如下:
其中α为高光部分调节参数,来调节最大值,参数范围一般为0.7~1,Max a为视频图像的像素最大值。最终,经过校正后输出的宽动态视频图像为:
Y=Y2+Y3;
Y为宽动态算法处理后最终系统输出的视频图像。图3为两组低照度车牌图像处理后的对比图,可以发现本发明算法在增强图像对比度的同时更多的保留了场景细节信息,且图像亮度有明显提升,是一种高效的基于深度学习的低照度成像算法。
基于本发明的低照度成像车牌识别方法的第一实施例或第二实施例,本发明的低照度成像车牌识别方法的第三实施例中,多信息融合的车牌定位与车牌的倾斜校正,作为车牌识别的预处理。判断一个区域是否为车牌时可以借鉴人类定位物体方式。车牌区域的边缘密度与其周围区域,特别是其下方区域相比较大,是一项重要的环境信息。通过环境信息,可以排除大量非车牌区域;对于单层车牌,所有字符分布在一条直线上,对于双层车牌,下层车牌所有字符分布在一条直线上,这是车牌的结构信息;车牌除汉字外的每个字符都是字母或者数字,这是车牌的部件信息。通过这3类信息,可以获得很好的车牌定位效果。所述步骤S20,包括:
步骤S21,基于环境信息对所述车牌图像进行粗定位,以过滤所述车牌图像的部分背景区域。具体地,采用灰度图像进行车牌的粗定位,通过梯度算子[-1 0 1]得到车牌图像的边缘图:1)车牌区域边缘密度较大,但是如果密度值过大则不属于车牌区域;2)车牌区域边缘密度相对其相邻区域较大;3)车牌区域边缘密度分布较均匀。同时,一般对于大多数车牌定位的场景来说,车牌在图像中的大小分布在某一已知范围内。
根据上述分析,通过如下步骤实现车牌的粗定位:设图像中车牌最小尺寸为Wmin,Hmin,最大尺寸为Wmax,Hmax,其中Wmin,Hmin,Wmax,Hmax分别是图像中的最小宽度、最小高度、最大宽度和最大高度。
1)将整幅图像分为小的单元(cell),并计算每个单元(cell)的边缘密度。每个单元的尺寸为w×h,其中w=h=Hmin/2。对于每个小单元(cell),计算其边缘密度:
式中,Em,n表示第m行、第n列单元(cell)的边缘密度。ei,j表示边缘图中第i行,第j列的像素值,m、n、i和j分别大于或等于0。
2)根据边缘密度值过滤背景区域。车牌区域边缘密度分布在一定范围内可以根据:
过滤背景区域,其中Ai,j=1表示第i行第j列的单元(cell)属于车牌的候选区域,Ai,j=0表示该单元(cell)属于背景区域,t1和t2为边缘密度的低阈值和高阈值。
3)根据当前单元(cell)同其下方单元(cell)的边缘密度对比过滤背景区域。通过观察,车牌区域的边缘密度大于其他周围区域的边缘密度,尤其大于其下方区域的边缘密度。因此,在这一步主要通过对比每个单元(cell)同其下方单元(cell)的边缘密度来过滤背景区域。选择当前单元(cell)同其下方第Hmax/h个单元(cell)进行比对。如果当前单元(cell)同其下方第Hmax/h个单元(cell)的边缘密度对比大于给定阈值,认为其属于车牌候选区域,否则将齐过滤。
4)根据车牌区域边缘密度分布是否均匀过滤背景区域。由于车牌区域边缘密度分布比较均匀,因此当有一个单元(cell)属于车牌区域时,其邻域中应存在与其边缘密度比较接近的单元(cell)。因此,可以计算当前单元(cell)左侧及右侧邻域中与当前单元(cell)边缘密度接近的单元(cell)个数,如果该个数大于给定阈值,则判定当前单元(cell)属于车牌候选区域,否则当前单元(cell)属于背景区域,并将其过滤。
5)根据车牌区域的尺寸过滤背景区域。车牌区域具有一定的尺寸,当一个单元(cell)所在的连通区域包含的单元(cell)个数小于(Wmin/w)×(Hmin/h),或大于(Wmax/w)×(Hmax/h)时,则将该单元(cell)所在的连通区域过滤。
经过上述几个步骤,大部分背景区域会被过滤掉。
步骤S22,基于车牌结构信息对粗定位后的所述车牌图像进行精准定位,以过滤所述车牌图像的剩余背景区域。具体地,通过粗定位过程大部分背景区域被过滤。对于剩余的区域,通过车牌结构信息进行精确定位。一个车牌由分布在一条直线或者两条直线上的字符构成,通过车牌字符的分布信息,可以精确定位车牌区域。
高帽运算(top-hat)通过原图像和开运算图像作差,能够提取局部较亮的区域;低帽变换(bot-hat)通过原图像和闭运算图像作差,能够提取出局部较暗的区域。车牌具有亮底暗字和暗底亮字两种类型,仅适用单一形态学操作无法同时成功提取出字符区域进行车牌定位。因此,提出伪字符的概念,即将车牌字符之间的间隔部分看做是伪字符,通过成对的形态学操作(对于暗底亮字车牌,高帽运算提取其字符区域,低帽运算提取其伪字符区域;对于亮底暗字车牌,高帽运算提取其伪字符区域,低帽运算提取其字符区域),将字符信息和车牌背景信息(伪字符)进行显式结合,能够在统一的框架下检测两种类型的车牌。
首先通过成对的形态学操作算子(高帽运算,低帽运算)对车牌候选区域进行运算,并对结果进行二值化以及连通成分分析,获取每个字符和伪字符的候选区域,提取车牌字符和伪字符,对于所有候选区域,通过霍夫变换进行直线检测,进而得到车牌的精确位置。由于大部分背景区域已经被滤除,小范围内的形态学操作能够很快地完成。粗定位结合细定位的车牌定位方法可以有效的提高车牌定位的速度,并通过排除大部分的背景图像提高了车牌定位的准确率。最后,将精确定位后的车牌图像进行截取并输出。
步骤S23,将精确定位后的所述车牌图像进行非极大值抑制处理和基于霍夫变换的倾斜校正处理,以得到定位后的车牌图像。具体地,非极大值抑制在物体检测中应用十分广泛,主要目的是为了消除多余干扰因素,找到最佳的物体检测的位置。非极大值抑制是检测的后处理过程,是关键环节之一。启发式窗口融合算法对非重合目标检测效果很好,但对于车辆车牌检测并不适合。启发式窗口融合算法,将初始检测窗口划分为若干个不重合的子集,然后计算每个子集的中心,最后每个子集只保留一个检测窗口,显然该算法容易造成大量漏检。Dalal等提出了均值漂移非极大值抑制,这种方法不仅计算复杂,需要将检测窗口在3维空间(横坐标,纵坐标,尺度)表示,检测分数转换,计算不确定性矩阵,迭代优化,而且还需要调整很多与检测器的步长等相关联的参数,因此,目前较少使用。
当前,大多数的目标检测普遍使用基于贪心策略的非极大值抑制算法,因为它简单高效,主要步骤如下:(1)将初始检测窗口按照检测分数从高到低排序;(2)将第1个初始检测窗口作为当前的抑制窗口;(3)非极大值抑制。将所有检测分数比当前抑制窗口低的初始窗口作为被抑制窗口。计算当前抑制窗口与被抑制窗口的重合面积比率:面积的交集/面积的并集。剔除重合面积比率高于设定阈值的窗口;(4)如果只剩最后一个初始检测窗口则结束,否则按照排好的顺序,取下一个未被抑制的窗口作为抑制窗口,转到步骤(3)。
本发明同样使用的是简单高效的基于贪心策略的非极大值抑制算法。经过非极大值抑制处理后的车牌图像再进行基于霍夫变换的倾斜校正。霍夫变换是一种强有力的特征提取方法,它利用局部图像信息有效的积累所有可能的模型实例的依据,这使得它既能方便的从外部数据中获得额外的信息,又能敏锐的从只有一部分的实例中呈现出有效信息。霍夫变换普遍应用在计算机视觉中形状,位置,几何变换参数的判断中。自霍夫变换提出以来,其得到了广泛的应用。近些年,专家学者们对霍夫变换的理论性质与应用方法又进行了进一步的探讨。霍夫变换作为一种有效的识别直线的算法,具有良好的抗干扰性及鲁棒性。
霍夫变换方法包含一个从图像空间中的特征到参数空间中点的集合的映射。每一个参数空间中的点表征着图像空间中模型的一个实例,图像特征利用一个函数被映射到参数空间当中去,这个函数产生能够兼容观察到的图像特征与假设的模型的所有的参数组合。每一个图像特征将在多维的参数空间中产生一个不同的平面,但是由所有图像特征产生的属于同一个模型的实例的一切平面都会相交在描绘共同的实例的点。霍夫变换的根本是产生这些平面并且识别与之相交的参数点。经过基于霍夫变换的倾斜校正后的车牌图像为系统二次定位后的图像。
基于本发明的低照度成像车牌识别方法的第一实施例至第三实施例,本发明的低照度成像车牌识别方法的第四实施例中,具体可结合图3进行理解,所述步骤S30,包括:
步骤S31,对所述定位后的车牌(例如,桂A.02U10)进行RoI(感兴趣区域)池化后的特征提取,将提取的特征(区域特征C×X×Y)通过两个卷积层,以及两个卷积层之间的矩形池化层进行处理,以将所述提取的特征变换为特征序列D×L;其中,D=512,L=19,所述特征序列使用V=(V1,V2,...,VL)表示。
步骤S32,在BRNN层应用所述特征序列V,形成两个相互分离的循环神经网络(RNN),其中一个RNN前向处理所述特征序列V,另外一个RNN后向处理所述特征序列V,将两个隐含的状态级联一起,输入到具有37个输出的线性变换层中,并转到Softmax层,将所述37个输出转换到概率,所述概率对应26个字母、10个数字及一个非字符类的概率,所述概率经过BRNN层编码,使所述特征序列V转换到与L具有相同长度的概率估计q=(q1,q2,...,qL),同时使用长短期记忆网络(LSTM)定义包含三个乘法门的记忆细胞,以选择性地保存相关信息,解决RNN训练中的梯度消失问题。
步骤S33,通过CTC层对所述概率估计q做序列解码,并通过解码后的概率估计q寻找具有最大概率的近似最优路径:
其中,π*是具有最大概率的近似最优路径(例如,*A02U10),B算子用于一处重复的标记及非字符标记,P为概率运算,示例为:B(a-a-b-)=B(-a--a-bb)=(aab),而CTC的具体细节为现有CTC的构造,故在此不做赘述。
步骤S34,通过所述近似最优路径确定一体化的深度网络模型的损失函数,并通过所述损失函数识别出所述定位后的车牌。通过模型整体的损失函数识别出所述定位后的车牌的方法同现有技术,故在此不再赘述。需要指出的是,S31~S34等仅仅是为了便于阅读的步骤标号,并未在相关附图中进行标注。此外,由上述可知,所述一体化的深度网络模型除了包括主要的卷积层(两个)、BRNN层、线性变换层和CTC层之外,还可包括Softmax层和两个卷积层之间的矩形池化层。
本发明中提出的方法实际上可嵌入FPGA实现,运用于具有实时输出图像功能的低照度成像车牌识别功能的夜视相机或摄像机监控系统中。
图1提供的基于深度学习端对端的低照度成像车牌识别方法中,可将原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像,对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像,并通过一体化的深度网络模型,使用带有CTC的BRNN对所述定位后的车牌进行识别,从而可以在不需要对车牌字符进行切割的情况下,对低照度车牌进行识别,且识别度好,鲁棒性好,同时步骤计算简单,能保持高效率以及实时性。
请参阅图4,图4是本发明实施例提供的一种基于深度学习端对端的低照度成像车牌识别装置的结构框图。如图4所示,本实施例的基于深度学习端对端的低照度成像车牌识别装置40辨识度提高模块401、定位校正模块402和识别模块403。辨识度提高模块401、定位校正模块402和识别模块403分别用于执行图1中的S10、S20和S30中的具体方法,详情可参见图1的相关介绍,在此仅作简单描述:
辨识度提高模块401,用于将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像。
定位校正模块402,用于对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像。
识别模块403,用于通过一体化的深度网络模型对所述定位后的车牌进行识别;所述一体化的深度网络模型包括卷积层、BRNN层、线性变换层和CTC层。
进一步地,可参见图5,辨识度提高模块401可具体包括预处理单元4011、训练单元4012和增强单元4013:
预处理单元4011,用于将通过摄像模块获取的所述原始车牌低照度Bayer图像进行预处理,打包变换像素通道,以获得用于输入FCN模型进行训练的像素图像。
训练单元4012,用于基于深度学习的CAN网络对所述像素图像进行训练,输出处理后图像。
增强单元4013,用于对所述处理后图像进行宽动态增强处理,输出得到还原度和图像质量提高的所述车牌图像。
进一步地,可参见图6,定位校正模块402可具体包括粗定位单元4021、精定位单元4022和校正单元4023:
粗定位单元4021,用于基于环境信息对所述车牌图像进行粗定位,以过滤所述车牌图像的部分背景区域。
精定位单元4022,用于基于车牌结构信息对粗定位后的所述车牌图像进行精准定位,以过滤所述车牌图像的剩余背景区域。
校正单元4023,用于将精确定位后的所述车牌图像进行非极大值抑制处理和基于霍夫变换的倾斜校正处理,以得到定位后的车牌图像。
进一步地,可参见图7,识别模块403可具体包括特征提取单元3031、概率估计单元4032、最优路径单元4033和是被单元4034:
特征提取单元4031,用于对所述定位后的车牌进行RoI池化后的特征提取,将提取的特征通过两个卷积层,以及两个卷积层之间的矩形池化层进行处理,以将所述提取的特征变换为特征序列D×L;其中,D=512,L=19,所述特征序列使用V=(V1,V2,...,VL)表示。
概率估计单元4032,用于在BRNN层应用所述特征序列V,形成两个相互分离的RNN,其中一个RNN前向处理所述特征序列V,另外一个RNN后向处理所述特征序列V,将两个隐含的状态级联一起,输入到具有37个输出的线性变换层中,并转到Softmax层,将所述37个输出转换到概率,所述概率对应26个字母、10个数字及一个非字符类的概率,所述概率经过BRNN层编码,使所述特征序列V转换到与L具有相同长度的概率估计q=(q1,q2,...,qL),同时使用LSTM定义包含三个乘法门的记忆细胞,以选择性地保存相关信息,解决RNN训练中的梯度消失问题。
最优路径单元4033,用于通过CTC层对所述概率估计q做序列解码,并通过解码后的概率估计q寻找具有最大概率的近似最优路径:
其中,π*是具有最大概率的近似最优路径,B算子用于一处重复的标记及非字符标记,P为概率运算。
识别单元4034,用于通过所述近似最优路径确定一体化的深度网络模型的损失函数,并通过所述损失函数识别出所述定位后的车牌。
图4提供的基于深度学习端对端的低照度成像车牌识别装置,可将原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像,对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像,并通过一体化的深度网络模型,使用带有CTC的BRNN对所述定位后的车牌进行识别,从而可以在不需要对车牌字符进行切割的情况下,对低照度车牌进行识别,且识别度好,鲁棒性好,同时步骤计算简单,能保持高效率以及实时性。
图8是本发明一实施例提供的终端设备的示意图。如图8所示,该实施例的终端设备8包括:处理器80、存储器81以及存储在所述存储器81中并可在所述处理器80上运行的计算机程序82,例如进行基于深度学习端对端的低照度成像车牌识别方法的程序。所述处理器80执行所述计算机程序82时实现上述方法实施例中的步骤,例如,图1所示的S10至S30。或者,所述处理器80执行所述计算机程序82时实现上述各系统实施例中各模块/单元的功能,例如图3所示模块301至303的功能。
示例性的,所述计算机程序82可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器81中,并由所述处理器80执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序82在终端设备8中的执行过程。例如,所述计算机程序82可以被分割成辨识度提高模块401、定位校正模块402和识别模块403。(虚拟系统中的模块),各模块具体功能如下:
辨识度提高模块401,用于将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像。
定位校正模块402,用于对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像。
识别模块403,用于通过一体化的深度网络模型对所述定位后的车牌进行识别;所述一体化的深度网络模型包括卷积层、BRNN层、线性变换层和CTC层。
所述终端设备8可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。终端设备8可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是终端设备8的示例,并不构成对终端设备8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所述处理器80可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81可以是终端设备8的内部存储单元,例如终端设备7的硬盘或内存。所述存储器81也可以是终端设备8的外部存储设备,例如所述终端设备8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括终端设备8的内部存储单元也包括外部存储设备。所述存储器81用于存储所述计算机程序以及终端设备8所需的其他程序和数据。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述系统的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的系统/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的系统/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习端对端的低照度成像车牌识别方法,其特征在于,包括:
将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像;
对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像;
通过一体化的深度网络模型对所述定位后的车牌进行识别;所述一体化的深度网络模型包括卷积层、双向循环神经网络BRNN层、线性变换层和联结主义时间分类CTC层。
2.根据权利要求1所述的基于深度学习端对端的低照度成像车牌识别方法,其特征在于,所述将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像,包括:
将通过所述摄像模块获取的所述原始车牌低照度拜耳Bayer图像进行预处理,打包变换像素通道,以获得用于输入全卷积神经网络FCN模型进行训练的像素图像;
基于深度学习的CAN网络对所述像素图像进行训练,输出处理后图像;
对所述处理后图像进行宽动态增强处理,输出得到还原度和图像质量提高的所述车牌图像。
3.根据权利要求1所述的基于深度学习端对端的低照度成像车牌识别方法,其特征在于,所述对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像,包括:
基于环境信息对所述车牌图像进行粗定位,以过滤所述车牌图像的部分背景区域;
基于车牌结构信息对粗定位后的所述车牌图像进行精准定位,以过滤所述车牌图像的剩余背景区域;
将精确定位后的所述车牌图像进行非极大值抑制处理和基于霍夫变换的倾斜校正处理,以得到定位后的车牌图像。
4.根据权利要求1所述的基于深度学习端对端的低照度成像车牌识别方法,其特征在于,所述通过一体化的深度网络模型对所述定位后的车牌进行识别,包括:
对所述定位后的车牌进行感兴趣区域RoI池化后的特征提取,将提取的特征通过两个卷积层,以及两个卷积层之间的矩形池化层进行处理,以将所述提取的特征变换为特征序列D×L;其中,D=512,L=19,所述特征序列使用V=(V1,V2,...,VL)表示;
在BRNN层应用所述特征序列V,形成两个相互分离的循环神经网络RNN,其中一个RNN前向处理所述特征序列V,另外一个RNN后向处理所述特征序列V,将两个隐含的状态级联一起,输入到具有37个输出的线性变换层中,并转到Softmax层,将所述37个输出转换到概率,所述概率对应26个字母、10个数字及一个非字符类的概率,所述概率经过BRNN层编码,使所述特征序列V转换到与L具有相同长度的概率估计q=(q1,q2,...,qL),同时使用长短期记忆网络LSTM定义包含三个乘法门的记忆细胞,以选择性地保存相关信息,解决RNN训练中的梯度消失问题,
通过CTC层对所述概率估计q做序列解码,并通过解码后的概率估计q寻找具有最大概率的近似最优路径:
其中,π*是具有最大概率的近似最优路径,B算子用于一处重复的标记及非字符标记,P为概率运算;
通过所述近似最优路径确定一体化的深度网络模型的损失函数,并通过所述损失函数识别出所述定位后的车牌。
5.一种基于深度学习端对端的低照度成像车牌识别装置,其特征在于,包括:
辨识度提高模块,用于将通过摄像模块获取的原始车牌低照度图像输入基于深度学习的多尺度上下文聚合网络进行图像处理,以获得可辨识度提高的车牌图像;
定位校正模块,用于对所述车牌图像进行车牌定位和车牌倾斜校正处理,以获得定位后的车牌图像;
识别模块,用于通过一体化的深度网络模型对所述定位后的车牌进行识别;所述一体化的深度网络模型包括卷积层、BRNN层、线性变换层和CTC层。
6.根据权利要求5所述的基于深度学习端对端的低照度成像车牌识别装置,其特征在于,所述辨识度提高模块包括:
预处理单元,用于将通过所述摄像模块获取的所述原始车牌低照度Bayer图像进行预处理,打包变换像素通道,以获得用于输入FCN模型进行训练的像素图像;
训练单元,用于基于深度学习的CAN网络对所述像素图像进行训练,输出处理后图像;
增强单元,用于对所述处理后图像进行宽动态增强处理,输出得到还原度和图像质量提高的所述车牌图像。
7.根据权利要求5所述的基于深度学习端对端的低照度成像车牌识别装置,其特征在于,所述定位校正模块包括:
粗定位单元,用于基于环境信息对所述车牌图像进行粗定位,以过滤所述车牌图像的部分背景区域;
精定位单元,用于基于车牌结构信息对粗定位后的所述车牌图像进行精准定位,以过滤所述车牌图像的剩余背景区域;
校正单元,用于将精确定位后的所述车牌图像进行非极大值抑制处理和基于霍夫变换的倾斜校正处理,以得到定位后的车牌图像。
8.根据权利要求5所述的基于深度学习端对端的低照度成像车牌识别装置,其特征在于,所述识别模块包括:
特征提取单元,用于对所述定位后的车牌进行RoI池化后的特征提取,将提取的特征通过两个卷积层,以及两个卷积层之间的矩形池化层进行处理,以将所述提取的特征变换为特征序列D×L;其中,D=512,L=19,所述特征序列使用V=(V1,V2,...,VL)表示;
概率估计单元,用于在BRNN层应用所述特征序列V,形成两个相互分离的RNN,其中一个RNN前向处理所述特征序列V,另外一个RNN后向处理所述特征序列V,将两个隐含的状态级联一起,输入到具有37个输出的线性变换层中,并转到Softmax层,将所述37个输出转换到概率,所述概率对应26个字母、10个数字及一个非字符类的概率,所述概率经过BRNN层编码,使所述特征序列V转换到与L具有相同长度的概率估计q=(q1,q2,...,qL),同时使用LSTM定义包含三个乘法门的记忆细胞,以选择性地保存相关信息,解决RNN训练中的梯度消失问题;
最优路径单元,用于通过CTC层对所述概率估计q做序列解码,并通过解码后的概率估计q寻找具有最大概率的近似最优路径:
其中,π*是具有最大概率的近似最优路径,B算子用于一处重复的标记及非字符标记,P为概率运算;
识别单元,用于通过所述近似最优路径确定一体化的深度网络模型的损失函数,并通过所述损失函数识别出所述定位后的车牌。
9.一种终端设备,其特征在于,包括:存储器、处理器、以及存储在所述存储器上并可在所述处理器上运行的计算机程序;所述计算机程序被所述处理器执行时实现如权利要求1至4中任一项所述的低照度成像车牌识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的低照度成像车牌识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911327687.9A CN110969164A (zh) | 2019-12-20 | 2019-12-20 | 基于深度学习端对端的低照度成像车牌识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911327687.9A CN110969164A (zh) | 2019-12-20 | 2019-12-20 | 基于深度学习端对端的低照度成像车牌识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110969164A true CN110969164A (zh) | 2020-04-07 |
Family
ID=70035722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911327687.9A Pending CN110969164A (zh) | 2019-12-20 | 2019-12-20 | 基于深度学习端对端的低照度成像车牌识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110969164A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163584A (zh) * | 2020-10-13 | 2021-01-01 | 安谋科技(中国)有限公司 | 电子设备及其基于宽动态范围的图像特征提取方法和介质 |
CN112200192A (zh) * | 2020-12-03 | 2021-01-08 | 南京风兴科技有限公司 | 一种车牌识别方法及装置 |
CN112560856A (zh) * | 2020-12-18 | 2021-03-26 | 深圳赛安特技术服务有限公司 | 车牌检测识别方法、装置、设备及存储介质 |
CN113159204A (zh) * | 2021-04-28 | 2021-07-23 | 深圳市捷顺科技实业股份有限公司 | 车牌识别模型生成方法、车牌识别方法及相关组件 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508715A (zh) * | 2018-10-30 | 2019-03-22 | 南昌大学 | 一种基于深度学习的车牌定位和识别方法 |
CN109840521A (zh) * | 2018-12-28 | 2019-06-04 | 安徽清新互联信息科技有限公司 | 一种基于深度学习的一体化车牌识别方法 |
CN110097106A (zh) * | 2019-04-22 | 2019-08-06 | 苏州千视通视觉科技股份有限公司 | 基于深度学习的U-net网络的低照度成像算法及装置 |
CN110111269A (zh) * | 2019-04-22 | 2019-08-09 | 深圳久凌软件技术有限公司 | 基于多尺度上下文聚合网络的低照度成像算法及装置 |
CN110414451A (zh) * | 2019-07-31 | 2019-11-05 | 深圳市捷顺科技实业股份有限公司 | 一种基于端对端的车牌识别方法、装置、设备及存储介质 |
-
2019
- 2019-12-20 CN CN201911327687.9A patent/CN110969164A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109508715A (zh) * | 2018-10-30 | 2019-03-22 | 南昌大学 | 一种基于深度学习的车牌定位和识别方法 |
CN109840521A (zh) * | 2018-12-28 | 2019-06-04 | 安徽清新互联信息科技有限公司 | 一种基于深度学习的一体化车牌识别方法 |
CN110097106A (zh) * | 2019-04-22 | 2019-08-06 | 苏州千视通视觉科技股份有限公司 | 基于深度学习的U-net网络的低照度成像算法及装置 |
CN110111269A (zh) * | 2019-04-22 | 2019-08-09 | 深圳久凌软件技术有限公司 | 基于多尺度上下文聚合网络的低照度成像算法及装置 |
CN110414451A (zh) * | 2019-07-31 | 2019-11-05 | 深圳市捷顺科技实业股份有限公司 | 一种基于端对端的车牌识别方法、装置、设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
HUI LI 等: "Toward End-to-End Car License Plate Detection and Recognition With Deep Neural Networks", 《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS》 * |
王伟: "车牌字符分割和字符识别的算法研究与实现", 《万方数据库》 * |
王永杰 等: "多信息融合的快速车牌定位", 《中国图象图形学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163584A (zh) * | 2020-10-13 | 2021-01-01 | 安谋科技(中国)有限公司 | 电子设备及其基于宽动态范围的图像特征提取方法和介质 |
CN112200192A (zh) * | 2020-12-03 | 2021-01-08 | 南京风兴科技有限公司 | 一种车牌识别方法及装置 |
CN112560856A (zh) * | 2020-12-18 | 2021-03-26 | 深圳赛安特技术服务有限公司 | 车牌检测识别方法、装置、设备及存储介质 |
CN112560856B (zh) * | 2020-12-18 | 2024-04-12 | 深圳赛安特技术服务有限公司 | 车牌检测识别方法、装置、设备及存储介质 |
CN113159204A (zh) * | 2021-04-28 | 2021-07-23 | 深圳市捷顺科技实业股份有限公司 | 车牌识别模型生成方法、车牌识别方法及相关组件 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11830230B2 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
CN112686812B (zh) | 银行卡倾斜矫正检测方法、装置、可读存储介质和终端 | |
CN109635744B (zh) | 一种基于深度分割网络的车道线检测方法 | |
CN110414507B (zh) | 车牌识别方法、装置、计算机设备和存储介质 | |
CN111445459B (zh) | 一种基于深度孪生网络的图像缺陷检测方法及系统 | |
CN110969164A (zh) | 基于深度学习端对端的低照度成像车牌识别方法及装置 | |
CN106846339A (zh) | 一种图像检测方法和装置 | |
CN107103317A (zh) | 基于图像融合和盲反卷积的模糊车牌图像识别算法 | |
CN104978567B (zh) | 基于场景分类的车辆检测方法 | |
Khalifa et al. | Malaysian Vehicle License Plate Recognition. | |
CN106529532A (zh) | 一种基于积分特征通道与灰度投影的车牌识别系统 | |
CN113592911B (zh) | 表观增强深度目标跟踪方法 | |
CN110689003A (zh) | 低照度成像车牌识别方法、系统、计算机设备及存储介质 | |
CN107944354B (zh) | 一种基于深度学习的车辆检测方法 | |
WO2022121025A1 (zh) | 证件增减类别检测方法、装置、可读存储介质和终端 | |
CN116030396B (zh) | 一种用于视频结构化提取的精确分割方法 | |
WO2022121021A1 (zh) | 一种身份证号码检测方法、装置、可读存储介质和终端 | |
CN112613392A (zh) | 基于语义分割的车道线检测方法、装置、系统及存储介质 | |
CN113052170A (zh) | 一种无约束场景下的小目标车牌识别方法 | |
CN112784834A (zh) | 一种自然场景下的车牌自动识别方法 | |
CN116503622A (zh) | 基于计算机视觉图像的数据采集读取方法 | |
CN113537211A (zh) | 一种基于非对称iou的深度学习车牌框定位方法 | |
CN111027564A (zh) | 基于深度学习一体化的低照度成像车牌识别方法及装置 | |
Shi et al. | License plate localization in complex environments based on improved GrabCut algorithm | |
CN112733851B (zh) | 一种基于卷积神经网络优化粮食仓库货车的车牌识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200407 |