CN108038880A - 用于处理图像的方法和装置 - Google Patents
用于处理图像的方法和装置 Download PDFInfo
- Publication number
- CN108038880A CN108038880A CN201711387870.9A CN201711387870A CN108038880A CN 108038880 A CN108038880 A CN 108038880A CN 201711387870 A CN201711387870 A CN 201711387870A CN 108038880 A CN108038880 A CN 108038880A
- Authority
- CN
- China
- Prior art keywords
- image
- feature
- polygon
- region
- training sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2111—Selection of the most significant subset of features by using evolutionary computational techniques, e.g. genetic algorithms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Physiology (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了用于处理图像的方法和装置。该方法的一具体实施方式包括:获取包括多边形图像的目标图像;将目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量,其中,卷积神经网络用于表征图像与特征向量的对应关系,特征向量是包括多边形图像的类别特征、位置特征以及关键点特征的向量;基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域。该实施方式提高了多边形图像识别的准确率。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及用于处理图像的方法和装置。
背景技术
目前,在图像处理(image processing)以及视频帧处理领域,多边形检测技术为广泛研究的一项技术。通常情况下,多边形检测是进行图像识别分析等处理的重要步骤之一。基于所检测出的多边形区域,将预设的文字或图像等信息插入至所检测出的多边形区域,可以实现信息替换,一定程度上减少人工处理的步骤。此外,多边形检测技术还可以应用于监控、图像纠偏等领域。
发明内容
本申请实施例提出了用于处理图像的方法和装置。
第一方面,本申请实施例提供了一种用于处理图像的方法,该方法包括:获取包括多边形图像的目标图像;将目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量,其中,卷积神经网络用于表征图像与特征向量的对应关系,特征向量是包括多边形图像的类别特征、位置特征以及关键点特征的向量;基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域。
在一些实施例中,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,包括:将类别特征输入至预先训练的分类模型,得到多边形图像的类别信息,其中,分类模型用于表征类别特征与多边形图像的类别信息的对应关系。
在一些实施例中,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,包括:将位置特征输入至预先训练的定位模型,得到多边形图像的位置信息,其中,定位模型用于表征位置特征与多边形图像的位置信息的对应关系。
在一些实施例中,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,包括:将关键点特征输入至预先训练的关键点模型,得到多边形图像的关键点信息,其中,关键点模型用于表征关键点特征与多边形图像的关键点信息的对应关系。
在一些实施例中,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,包括:确定目标图像所包括的多边形图像的预测最小外接矩形;按照预设轨迹,将预测最小外接矩形在目标图像上进行滑动操作,以确定出在目标图像上的,与类别特征、位置特征以及关键点特征相匹配的多边形图像的图像区域。
在一些实施例中,卷积神经网络是通过如下步骤训练得到的:获取训练样本集合,其中,训练样本包括图像以及图像的特征向量;利用机器学习算法,针对训练样本集合中的每个训练样本,将该训练样本所包括的图像作为输入,将该训练样本所包括的图像的特征向量作为输出,训练得到卷积神经网络。
在一些实施例中,上述方法还包括:确定图像区域的识别准确率;响应于确定出识别准确率大于预设阈值,将图像区域所包括于的图像的特征向量以及图像区域所包括于的图像作为训练样本,继续训练卷积神经网络。
在一些实施例中,上述方法还包括:响应于确定出准确率不大于预设阈值,调整以下至少一项的参数:卷积神经网络、分类模型、定位模型、关键点模型。
第二方面,本申请实施例提供了一种用于处理图像的装置,该装置包括:获取单元,配置用于获取包括多边形图像的目标图像;输入单元,配置用于将目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量,其中,卷积神经网络用于表征图像与特征向量的对应关系,特征向量是包括多边形图像的类别特征、位置特征以及关键点特征的向量;识别单元,配置用于基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域。
在一些实施例中,识别单元包括:第一输入模块,配置用于将类别特征输入至预先训练的分类模型,得到多边形图像的类别信息,其中,分类模型用于表征类别特征与多边形图像的类别信息的对应关系。
在一些实施例中,识别单元包括:第二输入模块,配置用于将位置特征输入至预先训练的定位模型,得到多边形图像的位置信息,其中,定位模型用于表征位置特征与多边形图像的位置信息的对应关系。
在一些实施例中,识别单元包括:第三输入模块,配置用于将关键点特征输入至预先训练的关键点模型,得到多边形图像的关键点信息,其中,关键点模型用于表征关键点特征与多边形图像的关键点信息的对应关系。
在一些实施例中,识别单元包括:第一确定模块,配置用于确定目标图像所包括的多边形图像的预测最小外接矩形;第二确定模块,配置用于按照预设轨迹,将预测最小外接矩形在目标图像上进行滑动操作,以确定出在目标图像上的,与类别特征、位置特征以及关键点特征相匹配的多边形图像的图像区域。
在一些实施例中,卷积神经网络是通过如下步骤训练得到的:获取训练样本集合,其中,训练样本包括图像以及图像的特征向量;利用机器学习算法,针对训练样本集合中的每个训练样本,将该训练样本所包括的图像作为输入,将该训练样本所包括的图像的特征向量作为输出,训练得到卷积神经网络。
在一些实施例中,上述装置还包括:确定单元,配置用于确定图像区域的识别准确率;训练单元,配置用于响应于确定出识别准确率大于预设阈值,将图像区域所包括于的图像的特征向量以及图像区域所包括于的图像作为训练样本,继续训练卷积神经网络。
在一些实施例中,上述装置还包括:调整单元,配置用于响应于确定出准确率不大于预设阈值,调整以下至少一项的参数:卷积神经网络、分类模型、定位模型、关键点模型。
第三方面,本申请实施例提供了一种用于处理图像的服务器,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得该一个或多个处理器实现如上述用于处理图像的方法中任一实施例的方法。
第四方面,本申请实施例提供了一种用于处理图像的计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述用于处理图像的方法中任一实施例的方法。
本申请实施例提供的用于处理图像的方法和装置,通过获取包括多边形图像的目标图像;然后将目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量,其中,卷积神经网络用于表征图像与特征向量的对应关系,特征向量是包括多边形图像的类别特征、位置特征以及关键点特征的向量;之后基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,从而有效利用了图像的特征向量,提高了多边形图像识别的准确率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用于处理图像的方法的一个实施例的流程图;
图3是根据本申请的用于处理图像的方法的一个应用场景的示意图;
图4是根据本申请的用于处理图像的方法的又一个实施例的流程图;
图5是根据本申请的用于处理图像的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的服务器的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于处理图像的方法或用于处理图像的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送信息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如图像处理应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上传的图像提供支持的后台图像处理服务器。后台图像处理服务器可以对接收到的图像等数据进行特征向量提取等处理,并将处理结果(例如图像所包括的多边形图像的信息)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于处理图像的方法一般由服务器105执行,相应地,用于处理图像的装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于处理图像的方法的一个实施例的流程200。该用于处理图像的方法,包括以下步骤:
步骤201,获取包括多边形图像的目标图像。
在本实施例中,用于处理图像的方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式获取包括多边形图像的目标图像。其中,目标图像可以是预先存储于上述电子设备的图像;也可以是由终端设备(例如图1所示的终端设备)传送的图像。上述多边形图像包括但不限于以下至少一项:三角形、菱形、矩形、五边形、六边形。
步骤202,将目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量。
在本实施例中,上述电子设备可以将步骤201中得到的目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量。其中,卷积神经网络用于表征图像与特征向量的对应关系。特征向量是包括多边形图像的类别特征、位置特征以及关键点特征的向量。类别特征可以是用于区分多边形图像的类别(例如三角形类、四边形类等等)的数据。位置特征可以是用于表征多边形图像的位置(例如边的位置、顶点的位置、多边形图像内部的像素点的位置等等)的数据。关键点特征可以是用于表征多边形图像的关键点的特征(例如顶点的坐标、顶点的数量等等)的数据。
作为示例,卷积神经网络可以是技术人员基于对大量的图片和特征向量的统计而预先制定的、存储有多个图片与特征向量的对应关系的对应关系表;也可以是技术人员基于对大量数据的统计而预先设置并存储有多个图片与特征向量及其对应关系的数据库。可以理解,卷积神经网络可以由卷积层、池化层等基本单元构成。基本单元的组成方式和数量可以由技术人员根据实际需要动态调整。
需要说明的是,在图像处理领域,提取图像的特征向量技术为相关领域人员广泛研究的公知技术,在此不再赘述。
步骤203,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域。
在本实施例中,上述电子设备可以基于步骤202所得到的类别特征、位置特征以及关键点特征,识别出多边形图像的图像区域。其中,图像区域可以是多边形图像的各个像素点或各边在目标图像中所构成的区域。多边形图像的图像区域可以包括多边形图像的顶点、边以及多边形图像内部的像素点。
示例性的,如果上述电子设备确定出关键点特征表征多边形图像有四个顶点,并且可以确定出上述四个顶点在目标图像的位置。则多边形图像的图像区域即为以上述四个顶点为顶点的四边形区域。然后,上述电子设备可以确定该四边形区域与上述类别特征以及位置特征的匹配程度,进而识别出最终的多边形图像的图像区域。可以理解,上述电子设备还可以首先根据位置特征(例如每条边的位置的特征)确定出四边形区域,然后再确定该四边形区域与上述类别特征以及关键点特征的匹配程度,进而识别出最终的多边形图像的图像区域。作为示例,请参考图3。在图3中,上述电子设备所得到的类别特征表征多边形图像为四边形,位置特征表征多边形图像在目标图像301的中间位置,关键点特征表征四边形的四个顶点30111、30112、30113、30114位于目标图像301四条边的中点。然后,上述电子设备可以将四边形3011的区域确定为所识别出的多边形图像的图像区域。
在本实施例的一些可选的实现方式中,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,包括:将类别特征输入至预先训练的分类模型,得到多边形图像的类别信息,其中,分类模型用于表征类别特征与多边形图像的类别信息的对应关系。类别信息可以是用于表征多边形图像的类别的信息。示例性的,类别信息可以是“三角形类”、“四边形类”等等。分类模型可以是技术人员基于对大量的类别特征和类别信息的统计而预先制定的、存储有多个类别特征和类别信息的对应关系的对应关系表;也可以是技术人员基于对大量数据的统计而预先设置并存储有多个类别特征和类别信息及其对应关系的数据库。
其中,上述分类模型可以通过如下步骤训练得到:
首先,上述电子设备可以获取训练样本集合。其中,训练样本包括类别特征以及与类别特征相对应的类别信息。训练样本可以是预先存储于上述电子设备中的,也可以是上述电子设备从其他电子设备(例如图1所示的终端设备)获取的。
然后,上述电子设备可以利用机器学习算法,对于上述训练样本集合中的每个训练样本,将深度神经网络模型作为初始模型,将该训练样本所包括的类别特征作为输入,将该训练样本所包括的类别信息作为输出,训练得到分类模型。
在本实施例的一些可选的实现方式中,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,包括:将位置特征输入至预先训练的定位模型,得到多边形图像的位置信息,其中,定位模型用于表征位置特征与多边形图像的位置信息的对应关系。位置信息可以是用于表征多边形图像的位置的信息。示例性的,位置信息可以是坐标“(0,0)”,表征多边形图像的某个像素点(例如顶点)位于预先设置的坐标(例如以目标图像的某个顶点为原点,以该顶点所在的两条边为横轴以及纵轴,以该顶点到目标图像的四个顶点中距离该顶点最近的两个顶点的方向为正方向,以10像素为单位长度的坐标)的原点。定位模型可以是技术人员基于对大量的位置特征和位置信息的统计而预先制定的、存储有多个位置特征和位置信息的对应关系的对应关系表;也可以是技术人员基于对大量数据的统计而预先设置并存储有多个位置特征和位置信息及其对应关系的数据库。
其中,上述定位模型可以通过如下步骤训练得到:
首先,上述电子设备可以获取训练样本集合。其中,训练样本包括位置特征以及与位置特征相对应的位置信息。训练样本可以是预先存储于上述电子设备中的,也可以是上述电子设备从其他电子设备(例如图1所示的终端设备)获取的。
然后,上述电子设备可以利用机器学习算法,对于上述训练样本集合中的每个训练样本,将深度神经网络模型作为初始模型,将该训练样本所包括的位置特征作为输入,将该训练样本所包括的位置信息作为输出,训练得到定位模型。
在本实施例的一些可选的实现方式中,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,包括:将关键点特征输入至预先训练的关键点模型,得到多边形图像的关键点信息,其中,关键点模型用于表征关键点特征与多边形图像的关键点信息的对应关系。关键点信息可以是用于表征多边形图像的关键点的数量、位置等的信息。示例性的,关键点信息可以是“顶点数量:5”、“顶点位置:目标图像的对角线中点”等等。关键点模型可以是技术人员基于对大量的关键点特征和关键点信息的统计而预先制定的、存储有多个关键点特征和关键点信息的对应关系的对应关系表;也可以是技术人员基于对大量数据的统计而预先设置并存储有多个关键点特征和关键点信息及其对应关系的数据库。
其中,上述关键点模型可以通过如下步骤训练得到:
首先,上述电子设备可以获取训练样本集合。其中,训练样本包括关键点特征以及与关键点特征相对应的关键点信息。训练样本可以是预先存储于上述电子设备中的,也可以是上述电子设备从其他电子设备(例如图1所示的终端设备)获取的。
然后,上述电子设备可以利用机器学习算法,对于上述训练样本集合中的每个训练样本,将深度神经网络模型作为初始模型,将该训练样本所包括的关键点特征作为输入,将该训练样本所包括的关键点信息作为输出,训练得到关键点模型。
在本实施例的一些可选的实现方式中,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,包括:确定目标图像所包括的多边形图像的预测最小外接矩形;按照预设轨迹,将预测最小外接矩形在目标图像上进行滑动操作,以确定出在目标图像上的,与类别特征、位置特征以及关键点特征相匹配的多边形图像的图像区域。其中,预测最小外接矩形可以是上述电子设备根据类别特征、位置特征以及关键点特征所预测的矩形。预设轨迹是技术人员根据需求,预先设置的轨迹。示例性的,上述预测最小外接矩形可以通过旋转法、最佳拟合直线算法确定。上述预设轨迹可以是由目标图像的重心螺旋形向目标图像的四周扩展的轨迹;也可以是与目标图像的某一边平行的、位于目标图像上的若干条平行线段。然后,上述电子设备可以将预测最小外接矩形在目标图像上进行滑动操作,依次确定上述预测最小外接矩形在目标图像上所包括的区域中是否存在与类别特征、位置特征以及关键点特征相匹配的多边形图像的图像区域。可以理解,上述利用预测最小外接矩形确定多边形图像的图像区域的方式可以进一步提高多边形图像识别的准确率。
本申请的上述实施例提供的方法通过获取包括多边形图像的目标图像;然后将目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量,其中,卷积神经网络用于表征图像与特征向量的对应关系,特征向量是包括多边形图像的类别特征、位置特征以及关键点特征的向量;之后基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域,提高了多边形图像识别的准确率。
进一步参考图4,其示出了用于处理图像的方法的又一个实施例的流程400。该用于处理图像的方法的流程400,包括以下步骤:
步骤401,获取训练样本集合。
在本实施例中,用于处理图像的方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式获取训练样本集合。其中,训练样本包括图像以及图像的特征向量。训练样本可以是预先存储于上述电子设备中的,也可以是上述电子设备从其他电子设备(例如图1所示的终端设备)获取的。
步骤402,利用机器学习算法,针对训练样本集合中的每个训练样本,将该训练样本所包括的图像作为输入,将该训练样本所包括的图像的特征向量作为输出,训练得到卷积神经网络。
在本实施例中,上述电子设备可以利用机器学习算法,对于上述训练样本集合中的每个训练样本,将该训练样本所包括的图像作为输入,将该训练样本所包括的图像的特征向量作为输出,训练得到卷积神经网络。上述机器学习算法包括但不限于梯度下降算法、神经网络算法、反向传播算法。
需要说明的是,上述训练样本集合所包括的图像可以是被遮挡的图像,上述训练样本集合所包括的图像可以包括大小差异明显的多边形图像(例如某一图像所包括的多边形图像的面积为另一图像所包括的多边形图像的面积的100倍)。由此,上述电子设备可以识别出被遮挡的图像所包括的多边形图像以及大小差异明显的多边形图像。
步骤403,获取包括多边形图像的目标图像。
在本实施例中,步骤403与图2对应实施例中的步骤201基本一致,这里不再赘述.
步骤404,将目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量。
在本实施例中,上述电子设备可以将目标图像输入至步骤402所训练得到的卷积神经网络,得到目标图像的特征向量。在这里,步骤404与图2对应实施例中的步骤202基本一致,这里不再赘述。
步骤405,基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域。
在本实施例中,步骤405与图2对应实施例中的步骤203基本一致,这里不再赘述。
步骤406,确定图像区域的识别准确率。
在本实施例中,上述电子设备可以确定上述图像区域的识别准确率。
在本实施例的一些可选的实现方式中,技术人员可以首先设置测试样本集合。其中,测试样本包括图像(包括多边形图像的图像),以及该图像所包括的多边形图像的图像区域。然后,针对测试样本集合中的每个测试样本,按照上述步骤403至步骤405的方式,确定该测试样本所包括的图像所包括的多边形图像的图像区域。再将所识别的图像区域与测试样本集合所包括的图像区域进行比对,以确定图像区域的识别准确率。示例性的,如果所识别的图像区域中存在50%图像区域与测试样本集合所包括的图像区域相同,其他50%图像区域与测试样本集合所包括的图像区域不同,则可以将图像区域的识别准确率确定为50%。
在本实施例的一些可选的实现方式中,上述电子设备可以将所识别的大量图像区域发送至终端设备,然后由终端设备的使用者判断每个图像区域是否准确,以此确定图像区域的识别准确率。
步骤407,响应于确定出识别准确率大于预设阈值,将图像区域所包括于的图像的特征向量以及图像区域所包括于的图像作为训练样本,继续训练卷积神经网络。
在本实施例中,响应于确定出识别准确率大于预设阈值(例如80%),上述电子设备可以将图像区域所包括于的图像的特征向量以及图像区域所包括于的图像作为训练样本,继续训练卷积神经网络。
可以理解,将大于预设阈值的识别准确率所对应的图像集合以及特征向量集合作为训练样本集合,继续训练卷积神经网络,将有助于提高图像区域的识别准确率。
步骤408,响应于确定出准确率不大于预设阈值,调整以下至少一项的参数:卷积神经网络、分类模型、定位模型、关键点模型。
在本实施例中,响应于确定出准确率不大于预设阈值(例如70%),上述电子设备可以调整以下至少一项的参数:卷积神经网络、分类模型、定位模型、关键点模型。可以理解,通过调整上述模型的参数,将有助于提高图像区域的识别准确率。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于处理图像的方法的流程400突出了对卷积神经网络进行训练的步骤,以及基于识别准确率调整模型的训练参数的步骤。由此,本实施例描述的方案可以引入更多的模型训练方案,从而进一步提高多边形图像识别的准确率。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于处理图像的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于处理图像的装置500包括:获取单元501、输入单元502和识别单元503。其中,获取单元501配置用于获取包括多边形图像的目标图像;输入单元502配置用于将目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量,其中,卷积神经网络用于表征图像与特征向量的对应关系,特征向量是包括多边形图像的类别特征、位置特征以及关键点特征的向量;识别单元503配置用于基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域。
在本实施例中,用于处理图像的装置500的获取单元501可以通过有线连接方式或者无线连接方式获取包括多边形图像的目标图像。其中,目标图像可以是预先存储于上述电子设备的图像;也可以是由终端设备(例如图1所示的终端设备101、102、103)传送的图像。
在本实施例中,基于获取单元501获取的目标图像,上述输入单元502可以将获取单元501中得到的目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量。其中,卷积神经网络用于表征图像与特征向量的对应关系。特征向量是包括多边形图像的类别特征、位置特征以及关键点特征的向量。类别特征可以是用于区分多边形图像的类别(例如三角形类、四边形类等等)的数据。位置特征可以是用于表征多边形图像的位置(例如边的位置、顶点的位置、多边形图像内部的像素点的位置等等)的数据。关键点特征可以是用于表征多边形图像的关键点的特征(例如顶点的坐标、顶点的数量等等)的数据。
在本实施例中,识别单元503可以基于输入单元502所得到的类别特征、位置特征以及关键点特征,识别出多边形图像的图像区域。其中,图像区域可以是多边形图像的每个像素点或各边在目标图像中所构成的区域。
在本实施例的一些可选的实现方式中,上述识别单元包括:第一输入模块(图中未示出)配置用于将类别特征输入至预先训练的分类模型,得到多边形图像的类别信息,其中,分类模型用于表征类别特征与多边形图像的类别信息的对应关系。类别信息可以是用于表征多边形图像的类别的信息。示例性的,类别信息可以是“三角形类”、“四边形类”等等。分类模型可以是技术人员基于对大量的类别特征和类别信息的统计而预先制定的、存储有多个类别特征和类别信息的对应关系的对应关系表;也可以是技术人员基于对大量数据的统计而预先设置并存储有多个类别特征和类别信息及其对应关系的数据库。
在本实施例的一些可选的实现方式中,识别单元包括:第二输入模块(图中未示出)配置用于将位置特征输入至预先训练的定位模型,得到多边形图像的位置信息,其中,定位模型用于表征位置特征与多边形图像的位置信息的对应关系。位置信息可以是用于表征多边形图像的位置的信息。示例性的,位置信息可以是坐标“(0,0)”,表征多边形图像的某个像素点(例如顶点)位于预先设置的坐标(例如以目标图像的顶点为原点,以该顶点所在的两条边为横轴以及纵轴,以该顶点到目标图像的四个顶点中距离该顶点最近的两个顶点的方向为正方向,以10像素为单位长度的坐标)的原点。定位模型可以是技术人员基于对大量的位置特征和位置信息的统计而预先制定的、存储有多个位置特征和位置信息的对应关系的对应关系表;也可以是技术人员基于对大量数据的统计而预先设置并存储有多个位置特征和位置信息及其对应关系的数据库。
在本实施例的一些可选的实现方式中,识别单元包括:第三输入模块(图中未示出)配置用于将关键点特征输入至预先训练的关键点模型,得到多边形图像的关键点信息,其中,关键点模型用于表征关键点特征与多边形图像的关键点信息的对应关系。关键点信息可以是用于表征多边形图像的关键点的数量、位置等的信息。示例性的,关键点信息可以是“顶点数量:5”、“顶点位置:目标图像的对角线中点”等等。关键点模型可以是技术人员基于对大量的关键点特征和关键点信息的统计而预先制定的、存储有多个关键点特征和关键点信息的对应关系的对应关系表;也可以是技术人员基于对大量数据的统计而预先设置并存储有多个关键点特征和关键点信息及其对应关系的数据库。
在本实施例的一些可选的实现方式中,识别单元包括:第一确定模块(图中未示出)配置用于确定目标图像所包括的多边形图像的预测最小外接矩形;第二确定模块(图中未示出)配置用于按照预设轨迹,将预测最小外接矩形在目标图像上进行滑动操作,以确定出在目标图像上的,与类别特征、位置特征以及关键点特征相匹配的多边形图像的图像区域。其中,预测最小外接矩形可以是上述电子设备根据类别特征、位置特征以及关键点特征所预测的矩形。预设轨迹是技术人员根据需求,预先设置的轨迹。
在本实施例的一些可选的实现方式中,卷积神经网络是通过如下步骤训练得到的:获取训练样本集合,其中,训练样本包括图像以及图像的特征向量;利用机器学习算法,针对训练样本集合中的每个训练样本,将该训练样本所包括的图像作为输入,将该训练样本所包括的图像的特征向量作为输出,训练得到卷积神经网络。训练样本可以是预先存储于上述电子设备中的,也可以是上述电子设备从其他电子设备(例如图1所示的终端设备)获取的。上述机器学习算法包括但不限于梯度下降算法、神经网络算法、反向传播算法。
在本实施例的一些可选的实现方式中,上述装置还包括:确定单元(图中未示出)配置用于确定图像区域的识别准确率;训练单元,配置用于响应于确定出识别准确率大于预设阈值,将图像区域所包括于的图像的特征向量以及图像区域所包括于的图像作为训练样本,继续训练卷积神经网络。
在本实施例的一些可选的实现方式中,技术人员可以首先设置测试样本集合。其中,测试样本包括图像(包括多边形图像的图像),以及该图像所包括的多边形图像的图像区域。然后,针对测试样本集合中的每个测试样本,按照上述步骤403至步骤405的方式,确定该测试样本所包括的图像所包括的多边形图像的图像区域。再将所识别的图像区域与测试样本集合所包括的图像区域进行比对,以确定图像区域的识别准确率。示例性的,如果所识别的图像区域中存在50%图像区域与测试样本集合所包括的图像区域相同,其他50%图像区域与测试样本集合所包括的图像区域不同,则可以将图像区域的识别准确率确定为50%。
在本实施例的一些可选的实现方式中,上述电子设备可以将所识别的大量图像区域发送至终端设备,然后由终端设备的使用者判断每个图像区域是否准确,以此确定图像区域的识别准确率。
在本实施例的一些可选的实现方式中,上述装置还包括:调整单元(图中未示出)配置用于响应于确定出准确率不大于预设阈值,调整以下至少一项的参数:卷积神经网络、分类模型、定位模型、关键点模型。
本申请的上述实施例提供的装置,通过获取单元501获取目标文本集合,然后确定单元502确定获取的目标文本集合两两之间的排列次序和关联程度值,之后构建单元503构建加权有向图,第一提取单元504再从加权有向图中提取目标路径,最后生成单元505根据目标路径中的各个结点的排序,将提取的目标路径中的结点的摘要进行合并以获得目标生成文本,实现了在不使用模板的情况下利用非结构化的原始文本生成最终文本,扩大了自动生成文本的适用范围。
下面参考图6,其示出了适于用来实现本申请实施例的服务器的计算机系统600的结构示意图。图6示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、输入单元和识别单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取包括多边形图像的目标图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取包括多边形图像的目标图像;将目标图像输入至预先训练的卷积神经网络,得到目标图像的特征向量,其中,卷积神经网络用于表征图像与特征向量的对应关系,特征向量是包括多边形图像的类别特征、位置特征以及关键点特征的向量;基于类别特征、位置特征以及关键点特征,识别多边形图像的图像区域。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (18)
1.一种用于处理图像的方法,包括:
获取包括多边形图像的目标图像;
将所述目标图像输入至预先训练的卷积神经网络,得到所述目标图像的特征向量,其中,所述卷积神经网络用于表征图像与特征向量的对应关系,特征向量是包括所述多边形图像的类别特征、位置特征以及关键点特征的向量;
基于所述类别特征、所述位置特征以及所述关键点特征,识别所多边形图像的图像区域。
2.根据权利要求1所述的方法,其中,所述基于所述类别特征、所述位置特征以及所述关键点特征,识别所多边形图像的图像区域,包括:
将所述类别特征输入至预先训练的分类模型,得到所述多边形图像的类别信息,其中,所述分类模型用于表征类别特征与多边形图像的类别信息的对应关系。
3.根据权利要求1所述的方法,其中,所述基于所述类别特征、所述位置特征以及所述关键点特征,识别所多边形图像的图像区域,包括:
将所述位置特征输入至预先训练的定位模型,得到所述多边形图像的位置信息,其中,所述定位模型用于表征位置特征与多边形图像的位置信息的对应关系。
4.根据权利要求1所述的方法,其中,所述基于所述类别特征、所述位置特征以及所述关键点特征,识别所多边形图像的图像区域,包括:
将所述关键点特征输入至预先训练的关键点模型,得到所述多边形图像的关键点信息,其中,所述关键点模型用于表征关键点特征与多边形图像的关键点信息的对应关系。
5.根据权利要求1所述的方法,其中,所述基于所述类别特征、所述位置特征以及所述关键点特征,识别所多边形图像的图像区域,包括:
确定所述目标图像所包括的多边形图像的预测最小外接矩形;
按照预设轨迹,将所述预测最小外接矩形在所述目标图像上进行滑动操作,以确定出在所述目标图像上的,与所述类别特征、所述位置特征以及所述关键点特征相匹配的多边形图像的图像区域。
6.根据权利要求1-5之一所述的方法,其中,所述卷积神经网络是通过如下步骤训练得到的:
获取训练样本集合,其中,训练样本包括图像以及图像的特征向量;
利用机器学习算法,针对所述训练样本集合中的每个训练样本,将该训练样本所包括的图像作为输入,将该训练样本所包括的图像的特征向量作为输出,训练得到卷积神经网络。
7.根据权利要求6所述的方法,其中,所述方法还包括:
确定所述图像区域的识别准确率;
响应于确定出所述识别准确率大于预设阈值,将所述图像区域所包括于的图像的特征向量以及所述图像区域所包括于的图像作为训练样本,继续训练所述卷积神经网络。
8.根据权利要求7所述的方法,其中,所述方法还包括:
响应于确定出所述准确率不大于所述预设阈值,调整以下至少一项的参数:卷积神经网络、分类模型、定位模型、关键点模型。
9.一种用于处理图像的装置,包括:
获取单元,配置用于获取包括多边形图像的目标图像;
输入单元,配置用于将所述目标图像输入至预先训练的卷积神经网络,得到所述目标图像的特征向量,其中,所述卷积神经网络用于表征图像与特征向量的对应关系,特征向量是包括所述多边形图像的类别特征、位置特征以及关键点特征的向量;
识别单元,配置用于基于所述类别特征、所述位置特征以及所述关键点特征,识别所多边形图像的图像区域。
10.根据权利要求9所述的装置,其中,所述识别单元包括:
第一输入模块,配置用于将所述类别特征输入至预先训练的分类模型,得到所述多边形图像的类别信息,其中,所述分类模型用于表征类别特征与多边形图像的类别信息的对应关系。
11.根据权利要求9所述的装置,其中,所述识别单元包括:
第二输入模块,配置用于将所述位置特征输入至预先训练的定位模型,得到所述多边形图像的位置信息,其中,所述定位模型用于表征位置特征与多边形图像的位置信息的对应关系。
12.根据权利要求9所述的装置,其中,所述识别单元包括:
第三输入模块,配置用于将所述关键点特征输入至预先训练的关键点模型,得到所述多边形图像的关键点信息,其中,所述关键点模型用于表征关键点特征与多边形图像的关键点信息的对应关系。
13.根据权利要求9所述的装置,其中,所述识别单元包括:
第一确定模块,配置用于确定所述目标图像所包括的多边形图像的预测最小外接矩形;
第二确定模块,配置用于按照预设轨迹,将所述预测最小外接矩形在所述目标图像上进行滑动操作,以确定出在所述目标图像上的,与所述类别特征、所述位置特征以及所述关键点特征相匹配的多边形图像的图像区域。
14.根据权利要求9-13之一所述的装置,其中,所述卷积神经网络是通过如下步骤训练得到的:
获取训练样本集合,其中,训练样本包括图像以及图像的特征向量;
利用机器学习算法,针对所述训练样本集合中的每个训练样本,将该训练样本所包括的图像作为输入,将该训练样本所包括的图像的特征向量作为输出,训练得到卷积神经网络。
15.根据权利要求14所述的装置,其中,所述装置还包括:
确定单元,配置用于确定所述图像区域的识别准确率;
训练单元,配置用于响应于确定出所述识别准确率大于预设阈值,将所述图像区域所包括于的图像的特征向量以及所述图像区域所包括于的图像作为训练样本,继续训练所述卷积神经网络。
16.根据权利要求15所述的装置,其中,所述装置还包括:
调整单元,配置用于响应于确定出所述准确率不大于所述预设阈值,调整以下至少一项的参数:卷积神经网络、分类模型、定位模型、关键点模型。
17.一种服务器,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711387870.9A CN108038880B (zh) | 2017-12-20 | 2017-12-20 | 用于处理图像的方法和装置 |
US16/134,055 US10762387B2 (en) | 2017-12-20 | 2018-09-18 | Method and apparatus for processing image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711387870.9A CN108038880B (zh) | 2017-12-20 | 2017-12-20 | 用于处理图像的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108038880A true CN108038880A (zh) | 2018-05-15 |
CN108038880B CN108038880B (zh) | 2019-12-13 |
Family
ID=62100334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711387870.9A Active CN108038880B (zh) | 2017-12-20 | 2017-12-20 | 用于处理图像的方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10762387B2 (zh) |
CN (1) | CN108038880B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108986169A (zh) * | 2018-07-06 | 2018-12-11 | 北京字节跳动网络技术有限公司 | 用于处理图像的方法和装置 |
CN109145973A (zh) * | 2018-08-10 | 2019-01-04 | 北京百度网讯科技有限公司 | 用于检测单晶硅太阳能电池缺陷的方法和装置 |
CN109187534A (zh) * | 2018-08-01 | 2019-01-11 | 江苏凯纳水处理技术有限公司 | 水质检测方法及其水样图像识别装置 |
CN109640068A (zh) * | 2018-10-31 | 2019-04-16 | 百度在线网络技术(北京)有限公司 | 视频帧的信息预测方法、装置、设备以及存储介质 |
CN110059680A (zh) * | 2019-04-24 | 2019-07-26 | 杭州智趣智能信息技术有限公司 | 一种身份证图像的检测方法、装置及设备 |
CN110263782A (zh) * | 2019-05-09 | 2019-09-20 | 平安科技(深圳)有限公司 | 基于深度学习的卡证检测方法和装置 |
CN110338835A (zh) * | 2019-07-02 | 2019-10-18 | 深圳安科高技术股份有限公司 | 一种智能扫描立体监测方法及系统 |
CN110555876A (zh) * | 2018-05-30 | 2019-12-10 | 百度在线网络技术(北京)有限公司 | 用于确定位置的方法和装置 |
CN110660103A (zh) * | 2019-09-17 | 2020-01-07 | 北京三快在线科技有限公司 | 一种无人车定位方法及装置 |
WO2020006961A1 (zh) * | 2018-07-03 | 2020-01-09 | 北京字节跳动网络技术有限公司 | 用于提取图像的方法和装置 |
CN110674834A (zh) * | 2018-07-03 | 2020-01-10 | 百度在线网络技术(北京)有限公司 | 地理围栏识别方法、装置、设备和计算机可读存储介质 |
CN110827301A (zh) * | 2019-11-11 | 2020-02-21 | 京东数字科技控股有限公司 | 用于处理图像的方法和装置 |
CN116710969A (zh) * | 2020-12-22 | 2023-09-05 | 华为技术有限公司 | 用于自动关键点和描述提取的装置和方法 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110619600B (zh) * | 2019-09-17 | 2023-12-08 | 南京旷云科技有限公司 | 神经网络模型训练方法及装置、存储介质及电子设备 |
US20220261856A1 (en) * | 2019-10-16 | 2022-08-18 | Limited Liability Company "Sarafan Tekhnologii" | Method for generating search results in an advertising widget |
CN111126416A (zh) * | 2019-12-12 | 2020-05-08 | 创新奇智(重庆)科技有限公司 | 基于关键点检测的发动机链轮识别系统及识别方法 |
US20210264263A1 (en) * | 2020-02-24 | 2021-08-26 | Capital One Services, Llc | Control of hyperparameter tuning based on machine learning |
CN111639653B (zh) * | 2020-05-08 | 2023-10-10 | 浙江大华技术股份有限公司 | 一种误检图像确定方法、装置、设备和介质 |
CN111950318A (zh) * | 2020-08-12 | 2020-11-17 | 上海连尚网络科技有限公司 | 一种二维码图像的识别方法、设备及存储介质 |
CN112241709B (zh) * | 2020-10-21 | 2024-06-21 | 北京字跳网络技术有限公司 | 图像处理方法、胡子变换网络的训练方法、装置 |
CN112085128B (zh) * | 2020-10-27 | 2022-06-07 | 苏州浪潮智能科技有限公司 | 一种基于脉动阵列的图像识别方法、装置和介质 |
CN112365465B (zh) * | 2020-11-09 | 2024-02-06 | 浙江大华技术股份有限公司 | 合成图像类别确定方法、装置、存储介质及电子装置 |
CN112801862B (zh) * | 2021-02-01 | 2024-01-19 | 中科云谷科技有限公司 | 基于图像变换的数据处理方法、数据处理装置及存储介质 |
CN114332858A (zh) * | 2021-12-31 | 2022-04-12 | 重庆金山医疗技术研究院有限公司 | 病灶检测方法及装置、病灶检测模型获取方法 |
CN114022558B (zh) * | 2022-01-05 | 2022-08-26 | 深圳思谋信息科技有限公司 | 图像定位方法、装置、计算机设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063868A (zh) * | 2014-06-30 | 2014-09-24 | 中国科学院自动化研究所 | 一种多边形工件检测定位方法 |
US20150178584A1 (en) * | 2008-10-14 | 2015-06-25 | Joshua Victor Aller | Shape detection and ellipse fitting of a polygon |
CN105469087A (zh) * | 2015-07-13 | 2016-04-06 | 百度在线网络技术(北京)有限公司 | 识别服饰图片的方法、服饰图片的标注方法及装置 |
CN106651825A (zh) * | 2015-11-03 | 2017-05-10 | 中国科学院沈阳计算技术研究所有限公司 | 一种基于图像分割的工件定位与识别的方法 |
CN106780612A (zh) * | 2016-12-29 | 2017-05-31 | 浙江大华技术股份有限公司 | 一种图像中的物体检测方法及装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005167517A (ja) * | 2003-12-01 | 2005-06-23 | Olympus Corp | 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム |
JP5075182B2 (ja) * | 2009-10-20 | 2012-11-14 | 楽天株式会社 | 画像処理装置、画像処理方法、および、画像処理プログラム |
WO2012035538A1 (en) * | 2010-09-16 | 2012-03-22 | Mor Research Applications Ltd. | Method and system for analyzing images |
US8933928B2 (en) * | 2011-11-22 | 2015-01-13 | Seiko Epson Corporation | Multiview face content creation |
US20140153832A1 (en) * | 2012-12-04 | 2014-06-05 | Vivek Kwatra | Facial expression editing in images based on collections of images |
CN106548127B (zh) * | 2015-09-18 | 2022-11-04 | 松下电器(美国)知识产权公司 | 图像识别方法 |
WO2018039667A1 (en) * | 2016-08-26 | 2018-03-01 | Aetrex Worldwide, Inc. | Process to isolate object of interest in image |
US10319019B2 (en) * | 2016-09-14 | 2019-06-11 | Ebay Inc. | Method, medium, and system for detecting cross-lingual comparable listings for machine translation using image similarity |
CN106845530B (zh) * | 2016-12-30 | 2018-09-11 | 百度在线网络技术(北京)有限公司 | 字符检测方法和装置 |
US10423827B1 (en) * | 2017-07-05 | 2019-09-24 | Amazon Technologies, Inc. | Image text recognition |
-
2017
- 2017-12-20 CN CN201711387870.9A patent/CN108038880B/zh active Active
-
2018
- 2018-09-18 US US16/134,055 patent/US10762387B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150178584A1 (en) * | 2008-10-14 | 2015-06-25 | Joshua Victor Aller | Shape detection and ellipse fitting of a polygon |
CN104063868A (zh) * | 2014-06-30 | 2014-09-24 | 中国科学院自动化研究所 | 一种多边形工件检测定位方法 |
CN105469087A (zh) * | 2015-07-13 | 2016-04-06 | 百度在线网络技术(北京)有限公司 | 识别服饰图片的方法、服饰图片的标注方法及装置 |
CN106651825A (zh) * | 2015-11-03 | 2017-05-10 | 中国科学院沈阳计算技术研究所有限公司 | 一种基于图像分割的工件定位与识别的方法 |
CN106780612A (zh) * | 2016-12-29 | 2017-05-31 | 浙江大华技术股份有限公司 | 一种图像中的物体检测方法及装置 |
Non-Patent Citations (4)
Title |
---|
张卡 等: ""视觉可量测实景影像的道路交通标志自动检测"", 《仪器仪表学报》 * |
敬斌: ""基于机器视觉的交通标志检测与识别算法研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
施俊 等: ""基于可调滤波器的几何图形自动识别算法研究"", 《中北大学学报(自然科学版)》 * |
鲍朝前: ""针对圆形和三角形交通标志的检测与识别"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110555876A (zh) * | 2018-05-30 | 2019-12-10 | 百度在线网络技术(北京)有限公司 | 用于确定位置的方法和装置 |
CN110674834A (zh) * | 2018-07-03 | 2020-01-10 | 百度在线网络技术(北京)有限公司 | 地理围栏识别方法、装置、设备和计算机可读存储介质 |
WO2020006961A1 (zh) * | 2018-07-03 | 2020-01-09 | 北京字节跳动网络技术有限公司 | 用于提取图像的方法和装置 |
CN108986169A (zh) * | 2018-07-06 | 2018-12-11 | 北京字节跳动网络技术有限公司 | 用于处理图像的方法和装置 |
CN109187534A (zh) * | 2018-08-01 | 2019-01-11 | 江苏凯纳水处理技术有限公司 | 水质检测方法及其水样图像识别装置 |
CN109145973A (zh) * | 2018-08-10 | 2019-01-04 | 北京百度网讯科技有限公司 | 用于检测单晶硅太阳能电池缺陷的方法和装置 |
CN109640068A (zh) * | 2018-10-31 | 2019-04-16 | 百度在线网络技术(北京)有限公司 | 视频帧的信息预测方法、装置、设备以及存储介质 |
CN110059680A (zh) * | 2019-04-24 | 2019-07-26 | 杭州智趣智能信息技术有限公司 | 一种身份证图像的检测方法、装置及设备 |
CN110263782A (zh) * | 2019-05-09 | 2019-09-20 | 平安科技(深圳)有限公司 | 基于深度学习的卡证检测方法和装置 |
CN110263782B (zh) * | 2019-05-09 | 2024-05-07 | 平安科技(深圳)有限公司 | 基于深度学习的卡证检测方法和装置 |
CN110338835A (zh) * | 2019-07-02 | 2019-10-18 | 深圳安科高技术股份有限公司 | 一种智能扫描立体监测方法及系统 |
CN110660103A (zh) * | 2019-09-17 | 2020-01-07 | 北京三快在线科技有限公司 | 一种无人车定位方法及装置 |
CN110827301A (zh) * | 2019-11-11 | 2020-02-21 | 京东数字科技控股有限公司 | 用于处理图像的方法和装置 |
CN110827301B (zh) * | 2019-11-11 | 2023-09-26 | 京东科技控股股份有限公司 | 用于处理图像的方法和装置 |
CN116710969A (zh) * | 2020-12-22 | 2023-09-05 | 华为技术有限公司 | 用于自动关键点和描述提取的装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
US20190188530A1 (en) | 2019-06-20 |
US10762387B2 (en) | 2020-09-01 |
CN108038880B (zh) | 2019-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108038880A (zh) | 用于处理图像的方法和装置 | |
CN108898186B (zh) | 用于提取图像的方法和装置 | |
CN107644209A (zh) | 人脸检测方法和装置 | |
CN107908789A (zh) | 用于生成信息的方法和装置 | |
CN108304835A (zh) | 文字检测方法和装置 | |
CN107590482A (zh) | 信息生成方法和装置 | |
CN107909065A (zh) | 用于检测人脸遮挡的方法及装置 | |
CN108038469A (zh) | 用于检测人体的方法和装置 | |
CN108229485A (zh) | 用于测试用户界面的方法和装置 | |
CN107919129A (zh) | 用于控制页面的方法和装置 | |
CN109308490A (zh) | 用于生成信息的方法和装置 | |
CN108062544A (zh) | 用于人脸活体检测的方法和装置 | |
CN108171191A (zh) | 用于检测人脸的方法和装置 | |
CN107958247A (zh) | 用于人脸图像识别的方法和装置 | |
CN108960110A (zh) | 用于生成信息的方法和装置 | |
CN108876858A (zh) | 用于处理图像的方法和装置 | |
CN107644208A (zh) | 人脸检测方法和装置 | |
CN107729928A (zh) | 信息获取方法和装置 | |
CN108133197A (zh) | 用于生成信息的方法和装置 | |
CN110070076A (zh) | 用于选取训练用样本的方法和装置 | |
CN108182457A (zh) | 用于生成信息的方法和装置 | |
CN108171208A (zh) | 信息获取方法和装置 | |
CN108446658A (zh) | 用于识别人脸图像的方法和装置 | |
CN110110666A (zh) | 目标检测方法和装置 | |
CN109345460A (zh) | 用于矫正图像的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |