CN110390363A - 一种图像描述方法 - Google Patents
一种图像描述方法 Download PDFInfo
- Publication number
- CN110390363A CN110390363A CN201910688842.3A CN201910688842A CN110390363A CN 110390363 A CN110390363 A CN 110390363A CN 201910688842 A CN201910688842 A CN 201910688842A CN 110390363 A CN110390363 A CN 110390363A
- Authority
- CN
- China
- Prior art keywords
- image
- feature
- picture
- features
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 239000013598 vector Substances 0.000 claims abstract description 36
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 26
- 230000004927 fusion Effects 0.000 claims abstract description 24
- 230000015654 memory Effects 0.000 claims abstract description 19
- 230000007246 mechanism Effects 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 17
- 230000002457 bidirectional effect Effects 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 8
- 210000004027 cell Anatomy 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000005484 gravity Effects 0.000 claims description 2
- 238000012216 screening Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
一种图像描述方法,利用VGG卷积神经网络来提取图片中的全局图像特征,利用Faster R‑CNN网络来提取图片中的局部图像特征,通过全局‑局部特征融合算法对全局图像特征和局部图像特征进行融合,得到图像融合特征,通过带有注意力机制的双向长短时记忆网络处理图像融合特征,生成初步的图像描述语句,利用局部图像特征提取时得到的图像目标信息与初步的图像描述语句中的名词进行基于WordNet词向量相似度计算,对图像描述语句进行纠正,生成最终的图像描述语句。本发明减少了无用信息的影响,增强了关键信息的体现,增强了模型的容错和泛化能力,增加了描述语句的准确性。
Description
技术领域
本发明涉及图像识别处理领域,尤其涉及一种基于编码解码器和多种特征融合处理的图像中目标检测与描述语句生成方法。
背景技术
随着技术的高速发展,智能手机在人群中越来越普及,自拍和随手拍也渐渐成为人们主流的一种社交方式,因此图像正以指数级的速度增长着。截至2014年,仅仅facebook就拥有超过2500亿张图片,常规的图像检索的方法,如进行人工标注图像,并进行简要的图像描述,已经无法承受这种数量级的图片了,而完完全全以人工的方式来处理变得不太可能,因此孕育而生的是使用机器来自动标注和图像描述。
图像描述在机器学习与深度学习快速发展的大背景下茁壮发展,图像描述的应用极其广泛,包括人机交互、图像处理、目标提取、视频问答等等。图像描述简单来讲就是利用计算机来处理人们利用视觉系统进行的对图像中各个目标背景进行分析描述的过程。图像描述对于人类相对方便,但是对于计算机却有相当的难度,因为计算机不但要找到图片中的目标和背景,同时还需要理解它们之间的关系,这是比较复杂的一件事情。
已有的大部分图像描述方法对于图像的特征使用的往往是全局特征,从描述结果可以看出在目标局部间的关系描述准确性低,同时在描述结果上会出现描述目标错误。目前的图像描述方法对于上述问题都没有有效的纠正方法。
发明内容
本发明提供一种图像描述方法,减少了无用信息的影响,增强了关键信息的体现,增强了模型的容错和泛化能力,增加了描述语句的准确性。
为了达到上述目的,本发明提供了一种图像描述方法,包含以下步骤:
利用VGG卷积神经网络来提取图片中的全局图像特征;
利用Faster R-CNN网络来提取图片中的局部图像特征;
通过全局-局部特征融合算法对全局图像特征和局部图像特征进行融合,得到图像融合特征;
通过带有注意力机制的双向长短时记忆网络处理图像融合特征,生成初步的图像描述语句;
利用局部图像特征提取时得到的图像目标信息与初步的图像描述语句中的名词进行基于WordNet词向量相似度计算,对初步生成的图像描述语句进行纠正,生成最终的图像描述语句。
所述的VGG卷积神经网络的图像卷积公式为:
其中,表示第l特征图层中的第j个点,中,Mi表示窗口的数量,表示第l-1输入层中的第i个单元,表示第l层中的第j个卷积层的第i个单元,表示第l层中的第j个偏移量,f表示一个激励函数;
所述的VGG卷积神经网络包含5个卷积层。
所述的利用Faster R-CNN网络来提取图片中的局部图像特征的方法包含:
FasterR-CNN网络中,使用多个卷积层将原始图片转化成一组特征图,RPN网络将特征图训练生成候选的区域框,ROI Pooling层从候选的区域框和特征图中获取到目标类别以及回归获取检测框最终的精准位置,提取到目标区域后,筛选图片中比重大于P的目标区域,利用VGG网络对筛选后的目标区域进行卷积特征提取的操作,获得和全局特征一样的N*N维的矩阵;
其中,P表示目标图片在整张图片中所占的比例,Sobject表示目标图片的面积,Spicture表示整张图片的面积。
所述的全局-局部特征融合算法的表达式为:
其中,Gf,Lf,Mf分别表示全局特征,局部特征和融合特征;目标函数中的分别表示投影后的异类数据尽可能远离,而同类数据尽可能密;常数k为平衡因子,其取值为正数;约束条件将投影矩阵进行归一化处理。
所述的带有注意力机制的双向长短时记忆网络处理图像融合特征的方法包含:
δi=softmax(fatt(hi,sj))
fatt(hi,sj)=tanh(W1hi+W2sj)
其中,Ci表示的是环境向量,hi表示目前的隐藏状态,sj表示前面的隐藏状态,aij表示注意力概率矩阵,δi是当前状态所加的权,也就是注意力权重,fatt(hi,sj)注意力函数计算的是hi和sj之间的非归一化分配值,利用全连接的方式计算;
使用索引t=1,...,N表示语句中词语的数量,双向的长短期记忆单元的表示形式为:
xt=Wωθt
et=f(Wext+be)
其中,θt是一个指示索引的列向量,表示一个词在t处的索引词向量,权重参数Wω为一个词的嵌入矩阵,双向的长短期记忆单元有两条独立的工作流,一条是自左向右的长短记忆单元另一条是自右向左的长短记忆单元St是通过映射函数f得到第t个词位及周围的词位于句子中的位置,为h维向量,b表示偏置值。
所述的对图像描述语句进行纠正的方法包含:
使用softmax函数从局部图像特征中获得目标名词;
从初步的图像描述语句中解析获得描述名词;
利用WordNet计算目标名词和描述名词的相似度,用相似度低于1的目标名词替换描述名词。
所述的使用softmax函数从局部图像特征中获得目标名词的方法包含:
假设softmax函数的输入数据是c维度的向量z,它是一个归一化的指数函数,函数的数据也是一个c维度的向量y,里面的值是0到1之间,定义如下:
式中的分母充当了正则项的作用,使得:
作为神经网络的输出层,softmax函数中的值可以用c个神经元来表示。
对于给定的输入z,得到每个分类的概率t=c for c=1...C表示为:
其中,P(t=1|z)表示,在给定输入z时,该输入数据是c分类的概率。
所述的从初步的图像描述语句中解析获得描述名词的方法包含:
对图片描述语句先进行分词的操作,随后对每个单词进行词性的分析,利用一个词性解析器以及一个关于名词的词性语料库,生成一组带有词性的单词二元组,将词性分为名词和非名词。
所述的利用WordNet计算目标名词和描述名词的相似度的方法包含:
利用WordNet,从WordNet的同义词词集抽取出候选同义词,通过WordNet进行词向量化,得到词语的特征,计算出特征集合SW:
feature(SW)={{WS},{WC}}
其中,{WS}表示图像目标提取名词的词向量特征,{WC}表示描述中名词的词向量;
词汇相似度计算方法由下式表示:
其中,IDF(wi)表示从WordNet中训练得到的构建WordNet是出现某个wi的文档的倒数,KS表示同义词特征的权重,KC表示类属特征的权重。
本发明的主要优点是:
1、增加图像内全局和局部特征的关联程度,利用VGG网络来提取全局特征,FasterR-CNN网络提取局部特征,通过全局-局部特征融合算法得到融合特征作为编码器部分的输出,以此来减少无用信息的影响,增强关键信息的体现。
2、利用注意力机制以及双向LSTM网络作为解码器部分进行训练,增加对于特征中重要信息的关注度,增加训练模型的容错率和泛化能力。
3、针对描述语句中比较明显的名词错误,利用局部特征提取时得到的图像目标信息与描述语句中的名词进行基于WordNet词向量相似度计算,对描述语句进行纠正,增加描述语句的准确性。
附图说明
图1是本发明提供的一种图像描述方法的流程图。
图2是利用VGG卷积神经网络来提取图片中的全局图像特征的示意图。
图3是利用Faster R-CNN网络来提取图片中的局部图像特征的示意图。
图4是进行图像纠正的流程图。
图5是最终生成的图像描述语句的示意图。
具体实施方式
以下根据图1~图5,具体说明本发明的较佳实施例。
如图1所示,本发明提供一种图像描述方法,包含以下步骤:
步骤1、对图片进行大小调整,将不同尺寸的输入图片缩放至统一尺寸。
步骤2、利用VGG卷积神经网络来提取图片中的全局图像特征;
步骤3、利用Faster R-CNN网络来提取图片中的局部图像特征;
步骤4、通过全局-局部特征融合算法对全局图像特征和局部图像特征进行融合,得到图像融合特征;
步骤5、通过带有注意力机制的双向长短时记忆网络处理图像融合特征,生成初步的图像描述语句;
步骤6、利用局部图像特征提取时得到的图像目标信息与初步的图像描述语句中的名词进行基于WordNet词向量相似度计算,对初步生成的图像描述语句进行纠正,生成最终的图像描述语句。
在步骤2中,本发明使用VGG16网络对图片全局特征进行提取。VGG16网络就是VGG网络,16指的是该网络共有16层。VGG16卷积神经网络有着强大的特征学习能力,通过卷积神经网络模型提取的视觉特征已成功地运用于多种视觉识别任务,且取得了较高的识别精度。VGG16采用连续的几个3x3的小卷积核。对于给定的感受野,即神经网络每一层的输出中每一个像素点在原图上映射的区域大小,采用连续多层非线性层可以增加网络深度来保证学习更复杂的模式,虽然VGG有较多的参数,较深的网络层次,但是VGG只需要很少的迭代次数就开始收敛,训练效果出色。图像根据预先定好的窗口大小,对原图进行卷积的操作,图像卷积公式如下所示:
其中,表示第l特征图层中的第j个点,和,Mi表示窗口的数量,表示第l-1输入层中的第i个单元,表示第l层中的第j个卷积层的第i个单元,表示第l层中的第j个偏移量,f表示一个激励函数。
本发明针对图像特征提取的需求,对VGG16网络稍作修改,因为不需要对图像的类别进行识别,因此在VGG16网络结构中去除了最后要进行类别预测时会用到的全连接层,以此减少训练层数和训练参数,加快训练效率。在本发明中的VGG16网络主要由5个卷积层组成。如图2所示,第一个卷积层使用了2个3*3*64的卷积核;第二个卷积层使用了2个3*3*128的卷积核;第三个卷积层使用了2个3*3*256和一个1*1*256的卷积核;第四个卷积层使用了2个3*3*512和一个1*1*512的卷积核;第五个卷积层使用了2个3*3*512和一个1*1*512的卷积核。在最后一层卷积层后,展示特征图,得到一组N*N维的矩阵,定义为Gf。这组矩阵就是本发明中所需要得到的全局特征,这组特征学习到了图像中颜色特征、纹理特征和形状特征等等的整体属性。
在步骤3中,本发明使用FasterR-CNN网络模型作为基础进行局部特征的提取,如图3所示。在FasterR-CNN网络中,使用多个卷积层用于将原始图片转化成一组特征图。该特征图被用于后续的RPN(Region Proposal Network)层和ROI Pooling(regions ofinterestpooling)层。RPN网络用于训练生成候选的区域框,综合这些候选区域框和之前的特征图信息在ROI Pooling层中获取到目标类别以及回归获取检测框最终的精准位置。
整个RPN网络训练时的损失函数为:
其中i表示第i个anchor区域框(在特征图中每个点都会预测k个预选区域框anchor boxes,这些box是在原图中M*N的图像上的,相当于预选的ROI。同时这些box都是以特征图的每点为中心,且其大小和长宽比都是事先固定的),pi是anchor的前景的预测概率(网络计算出来的值),是anchor的真实情况,ti代表预测的边框值,代表对应前景anchor对应的GTbox。当anchor是正样本时,当anchor是负样本,则表示一个与正样本anchor相关的正确的区域框(ground true box)坐标(每个正样本anchor只可能对应一个ground true box:一个正样本anchor与某个ground true box对应,那么该anchor与groundtrue box的IOU要么是所有anchor中最大,要么大于0.7)。
由于Faster RCNN得到的是一组目标位置信息以及类别信息,所以要与全局信息进行融合的话,需要将这一组数据转化为一组和全局特征一样的N*N维的矩阵。因此本发明在提取到目标后,利用VGG网络对目标进行卷积特征提取的操作,具体操作与步骤2相同。
由于在一张图片中往往会出现多种目标,如果将图片中的所有目标提取出来,再形成局部特征时,明显一些不重要的目标信息会成为干扰出现在特征中,因此需要对目标进行一次筛选,选出人们会主要关注的目标。从科学的研究中可以发现人们会更加关注于占据图片较大比重的目标。因此本发明利用目标在整张图片中所占的比率来进行评估,公式如下式所示。
其中,P表示目标图片在整张图片中所占的比例,Sobject表示目标图片的面积,Spicture表示整张图片的面积,在本发明中P的阈值定在0.3。也就是说,在Faster R-CNN提取图像中所有的目标所在区域后,本发明只保留在原图中占比超过30%的那些区域和目标,最后使用VGG16提取筛选后的区域中的图像信息。
在步骤4中,本发明将步骤2中提取到的全局特征和步骤3中提取到的局部特征进行融合,融合算法的最优化表达式为:
其中,Gf,Lf,Mf分别表示全局特征,局部特征和融合特征;目标函数中的分别表示投影后的异类数据尽可能远离,而同类数据尽可能密;常数k为平衡因子,其取值为正数,k反映了在特征提取过程中全局特征和局部特征对最终结果的影响程度;约束条件将投影矩阵进行归一化处理。
通过步骤4对图像全局特征与图像局部特征进行融合,本发明得到了一个图像融合特征向量。相较于单纯的图像全局特征,融合特征向量包含更多关键信息,着重包含了描述目标的图像信息以及目标之间的关系信息,因此可以提升描述语句的准确性。
在步骤5中,本发明构建了一个带有注意力机制的双向LSTM(长短时记忆)网络。双向LSTM可以考虑到词与词在顺序上的关系,在顺序上的关系,获取到更多的特征信息,所以效果比单向LSTM好,也由此被广泛应用到自然语言处理的任务中。同时考虑到双向LSTM在计算隐含层时的限制,使用注意力机制来增加关联较强的词的权重,降低了关联较弱的词的权重。
注意力模型是模拟人脑注意力的一种模型,其基本思想是对于事物的注意力会在特定时刻集中在某一特定地方,对其他部分分配的注意力会很少。
注意力机制可以提高处理大规模输入数据的计算效率,同时通过选择输入的子集来减少输入数据量的维度。另外注意力机制是更加关注于有用信息,让模型训练时专注于找到输入信息中更加突出的信息,以此提高训练结果的效果。注意力机制模型的提出是为了帮助编码器-解码器结构(encoder-decoder类型)的框架,从而解决encoder-decoder在设计上的一些缺陷。
本发明加入注意力机制后,对于步骤4中得到的图像融合特征计算公式如下:
δi=softmax(fatt(hi,sj))
fatt(hi,sj)=tanh(W1hi+W2sj)
其中,Ci表示的是环境向量,hi表示目前的隐藏状态,sj表示前面的隐藏状态,aij表示注意力概率矩阵,这些环境向量可以和当前的隐藏状态hi一起预测。Ci可以由前面状态的平均得出,其中δi是当前状态所加的权,也就是注意力权重,fatt(hi,sj)注意力函数计算的是hi和sj之间的非归一化分配值,利用全连接的方式计算。
双向的长短时记忆网络将N个词的序列转换为一个对应的N个M维向量。此时Bi-LSTM网络单元将计算该词的上下文关系。使用索引t=1,...,N表示语句中词语的数量,双向的长短期记忆单元的表示形式为:
xt=Wωθt
et=f(Wext+be)
其中,θt是一个指示索引的列向量,表示一个词在t处的索引词向量,权重参数Wω为一个词的嵌入矩阵,双向的长短期记忆单元有两条独立的工作流,一条是自左向右的长短记忆单元另一条是自右向左的长短记忆单元St是通过映射函数f得到第t个词位及周围的词位于句子中的位置,为h维向量,b表示偏置值。
在步骤6中,本发明使用步骤3中提取的图像局部特征对步骤5得到的初步图像描述进行纠正,本发明所涉及的描述纠正过程如图4所示。
在步骤3中,本发明使用了Faster R-CNN提取了目标在图片中的位置信息,同时,FasterR-CNN也对检测出的目标进行了预测分类。预测的类别也就是提取到了基于图像局部特征的目标名词。对于在图片中会出现各类不同的目标,在本发明中使用多项Logistic回归,该方法也被称之为softmax函数,它能够解决多分类问题。
假设softmax函数的输入数据是c维度的向量z,它是一个归一化的指数函数,函数的数据也是一个c维度的向量y,里面的值是0到1之间,定义如下:
式中的分母充当了正则项的作用,可以使得:
作为神经网络的输出层,softmax函数中的值可以用c个神经元来表示。对于给定的输入z,我们可以得到每个分类的概率t=c for c=1...C可以表示为:
其中,P(t=1|z)表示,在给定输入z时,该输入数据是c分类的概率。
对于步骤5中生成的图片描述语句,本发明对句子先进行分词的操作,随后对每个单词进行词性的分析,利用一个词性解析器以及一个关于名词的词性语料库,生成一组带有词性的单词二元组,这里本发明将词性分为名词,以及非名词。
在得到了从目标提取得到的名词以及从语句描述得到的名词后,需要利用一种关系将这两部分的名词联系起来,本发明利用了WordNet来解决这个问题。WordNet是一种特殊的英语字典,WordNet包含了许多语义、词性的信息有别于通常意义上的字典。WordNet通常会以词条不同含义进行分组,同义词集合即synset表示一组具有相同含义的词组。WordNet对每一个同义词集合都做了简明的介绍,同时根据词性,语义来连接各个同义词集合。WordNet是一个可以了解词语词之间的词性和语义关系的十分完善的知识库网络,同时还具有词性的分类的结构信息。因此可以通过WordNet将提取出来的名词转化成一组词向量,通过对词向量之间的相似度计算可以得到目标提取得到的名词与描述中的名词之间的相似度大小,若相似度较大,说明描述的内容相对准确,若相似度较低,则说明描述内容有所误差,则需要将描述中的名词替换成目标名词。
利用WordNet,从WordNet的同义词词集抽取出候选同义词,通过WordNet进行词向量化,得到词语的特征,计算出特征集合SW:
feature(SW)={{WS},{WC}}
其中,{WS}表示图像目标提取名词的词向量特征,{WC}表示描述中名词的词向量。
根据上述对于词汇特征的定义,可以通过计算词汇间的距离的大小作为词汇间相似度的判断依据。当两个词汇间的距离越小时,则说明两个词之间的相似度就越大。根据词汇相似度的值我们更加容易得到WordNet中两个词汇之间的相似度,词汇相似度计算方法可由下式表示:
其中,IDF(wi)表示从WordNet中训练得到的构建WordNet是出现某个wi的文档的倒数,KS表示同义词特征的权重,KC表示类属特征的权重。如果Similarity(Wi,Wj)的值低于1,则认为两个词的相似度较低。
步骤6利用步骤3中提取的图像局部信息,对图像描述语句中出现的描述对象进行针对性纠正,防止出现描述目标错误。
在图5中展示了本发明的图像描述生成结果。
本发明的主要优点是:
1、增加图像内全局和局部特征的关联程度,利用VGG网络来提取全局特征,FasterR-CNN网络提取局部特征,通过全局-局部特征融合算法得到融合特征作为编码器部分的输出,以此来减少无用信息的影响,增强关键信息的体现。
2、利用注意力机制以及双向LSTM网络作为解码器部分进行训练,增加对于特征中重要信息的关注度,增加训练模型的容错率和泛化能力。
3、针对描述语句中比较明显的名词错误,利用局部特征提取时得到的图像目标信息与描述语句中的名词进行基于WordNet词向量相似度计算,对描述语句进行纠正,增加描述语句的准确性。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。
Claims (9)
1.一种图像描述方法,其特征在于,包含以下步骤:
利用VGG卷积神经网络来提取图片中的全局图像特征;
利用Faster R-CNN网络来提取图片中的局部图像特征;
通过全局-局部特征融合算法对全局图像特征和局部图像特征进行融合,得到图像融合特征;
通过带有注意力机制的双向长短时记忆网络处理图像融合特征,生成初步的图像描述语句;
利用局部图像特征提取时得到的图像目标信息与初步的图像描述语句中的名词进行基于WordNet词向量相似度计算,对初步生成的图像描述语句进行纠正,生成最终的图像描述语句。
2.如权利要求1所述的图像描述方法,其特征在于,所述的VGG卷积神经网络的图像卷积公式为:
其中,表示第l特征图层中的第j个点,中,Mi表示窗口的数量,表示第l-1输入层中的第i个单元,表示第l层中的第j个卷积层的第i个单元,表示第l层中的第j个偏移量,f表示一个激励函数;
所述的VGG卷积神经网络包含5个卷积层。
3.如权利要求1所述的图像描述方法,其特征在于,所述的利用Faster R-CNN网络来提取图片中的局部图像特征的方法包含:
FasterR-CNN网络中,使用多个卷积层将原始图片转化成一组特征图,RPN网络将特征图训练生成候选的区域框,ROI Pooling层从候选的区域框和特征图中获取到目标类别以及回归获取检测框最终的精准位置,提取到目标区域后,筛选图片中比重大于P的目标区域,利用VGG网络对筛选后的目标区域进行卷积特征提取的操作,获得和全局特征一样的N*N维的矩阵;
其中,P表示目标图片在整张图片中所占的比例,Sobject表示目标图片的面积,Spicture表示整张图片的面积。
4.如权利要求1所述的图像描述方法,其特征在于,所述的全局-局部特征融合算法的表达式为:
其中,Gf,Lf,Mf分别表示全局特征,局部特征和融合特征;目标函数中的分别表示投影后的异类数据尽可能远离,而同类数据尽可能密;常数k为平衡因子,其取值为正数;约束条件将投影矩阵进行归一化处理。
5.如权利要求1所述的图像描述方法,其特征在于,所述的带有注意力机制的双向长短时记忆网络处理图像融合特征的方法包含:
δi=softmax(fatt(hi,sj))
fatt(hi,sj)=tanh(W1hi+W2sj)
其中,Ci表示的是环境向量,hi表示目前的隐藏状态,sj表示前面的隐藏状态,aij表示注意力概率矩阵,δi是当前状态所加的权,也就是注意力权重,fatt(hi,sj)注意力函数计算的是hi和sj之间的非归一化分配值,利用全连接的方式计算;
使用索引t=1,...,N表示语句中词语的数量,双向的长短期记忆单元的表示形式为:
xt=Wωθt
et=f(Wext+be)
其中,θt是一个指示索引的列向量,表示一个词在t处的索引词向量,权重参数Wω为一个词的嵌入矩阵,双向的长短期记忆单元有两条独立的工作流,一条是自左向右的长短记忆单元另一条是自右向左的长短记忆单元St是通过映射函数f得到第t个词位及周围的词位于句子中的位置,为h维向量,b表示偏置值。
6.如权利要求1所述的图像描述方法,其特征在于,所述的对图像描述语句进行纠正的方法包含:
使用softmax函数从局部图像特征中获得目标名词;
从初步的图像描述语句中解析获得描述名词;
利用WordNet计算目标名词和描述名词的相似度,用相似度低于1的目标名词替换描述名词。
7.如权利要求6所述的图像描述方法,其特征在于,所述的使用softmax函数从局部图像特征中获得目标名词的方法包含:
假设softmax函数的输入数据是c维度的向量z,它是一个归一化的指数函数,函数的数据也是一个c维度的向量y,里面的值是0到1之间,定义如下:
式中的分母充当了正则项的作用,使得:
作为神经网络的输出层,softmax函数中的值可以用c个神经元来表示。
对于给定的输入z,得到每个分类的概率t=c for c=1...C表示为:
其中,P(t=1|z)表示,在给定输入z时,该输入数据是c分类的概率。
8.如权利要求6所述的图像描述方法,其特征在于,所述的从初步的图像描述语句中解析获得描述名词的方法包含:
对图片描述语句先进行分词的操作,随后对每个单词进行词性的分析,利用一个词性解析器以及一个关于名词的词性语料库,生成一组带有词性的单词二元组,将词性分为名词和非名词。
9.如权利要求6所述的图像描述方法,其特征在于,所述的利用WordNet计算目标名词和描述名词的相似度的方法包含:
利用WordNet,从WordNet的同义词词集抽取出候选同义词,通过WordNet进行词向量化,得到词语的特征,计算出特征集合SW:
feature(SW)={{WS},{WC}}
其中,{WS}表示图像目标提取名词的词向量特征,{WC}表示描述中名词的词向量;
词汇相似度计算方法由下式表示:
其中,IDF(wi)表示从WordNet中训练得到的构建WordNet是出现某个wi的文档的倒数,KS表示同义词特征的权重,KC表示类属特征的权重。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910688842.3A CN110390363A (zh) | 2019-07-29 | 2019-07-29 | 一种图像描述方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910688842.3A CN110390363A (zh) | 2019-07-29 | 2019-07-29 | 一种图像描述方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110390363A true CN110390363A (zh) | 2019-10-29 |
Family
ID=68287863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910688842.3A Pending CN110390363A (zh) | 2019-07-29 | 2019-07-29 | 一种图像描述方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110390363A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909736A (zh) * | 2019-11-12 | 2020-03-24 | 北京工业大学 | 一种基于长短期记忆模型与目标检测算法的图像描述方法 |
CN111079658A (zh) * | 2019-12-19 | 2020-04-28 | 夸氪思维(南京)智能技术有限公司 | 基于视频的多目标连续行为分析方法、系统、装置 |
CN111310867A (zh) * | 2020-05-11 | 2020-06-19 | 北京金山数字娱乐科技有限公司 | 一种基于图片的文本生成方法及装置 |
CN111325323A (zh) * | 2020-02-19 | 2020-06-23 | 山东大学 | 一种融合全局信息和局部信息的输变电场景描述自动生成方法 |
CN111553371A (zh) * | 2020-04-17 | 2020-08-18 | 中国矿业大学 | 一种基于多特征提取的图像语义描述方法及系统 |
CN111626968A (zh) * | 2020-04-29 | 2020-09-04 | 杭州火烧云科技有限公司 | 一种基于全局信息和局部信息的像素增强设计方法 |
CN111860235A (zh) * | 2020-07-06 | 2020-10-30 | 中国科学院空天信息创新研究院 | 高低层特征融合的注意力遥感图像描述的生成方法及系统 |
CN111916050A (zh) * | 2020-08-03 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、存储介质和电子设备 |
CN112232300A (zh) * | 2020-11-11 | 2021-01-15 | 汇纳科技股份有限公司 | 全局遮挡自适应的行人训练/识别方法、系统、设备及介质 |
CN112257759A (zh) * | 2020-09-27 | 2021-01-22 | 华为技术有限公司 | 一种图像处理的方法以及装置 |
CN112528989A (zh) * | 2020-12-01 | 2021-03-19 | 重庆邮电大学 | 一种图像语义细粒度的描述生成方法 |
CN113743096A (zh) * | 2020-05-27 | 2021-12-03 | 南京大学 | 一种基于自然语言处理的众包测试报告相似度检测的方法 |
CN114049501A (zh) * | 2021-11-22 | 2022-02-15 | 江苏科技大学 | 融合集束搜索的图像描述生成方法、系统、介质及设备 |
CN114255386A (zh) * | 2021-12-23 | 2022-03-29 | 国家电网有限公司信息通信分公司 | 一种数据处理方法及装置 |
CN114333804A (zh) * | 2021-12-27 | 2022-04-12 | 北京达佳互联信息技术有限公司 | 音频分类识别方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106447658A (zh) * | 2016-09-26 | 2017-02-22 | 西北工业大学 | 基于全局和局部卷积网络的显著性目标检测方法 |
CN107918782A (zh) * | 2016-12-29 | 2018-04-17 | 中国科学院计算技术研究所 | 一种生成描述图像内容的自然语言的方法与系统 |
CN109711464A (zh) * | 2018-12-25 | 2019-05-03 | 中山大学 | 基于层次化特征关系图构建的图像描述方法 |
-
2019
- 2019-07-29 CN CN201910688842.3A patent/CN110390363A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106447658A (zh) * | 2016-09-26 | 2017-02-22 | 西北工业大学 | 基于全局和局部卷积网络的显著性目标检测方法 |
CN107918782A (zh) * | 2016-12-29 | 2018-04-17 | 中国科学院计算技术研究所 | 一种生成描述图像内容的自然语言的方法与系统 |
CN109711464A (zh) * | 2018-12-25 | 2019-05-03 | 中山大学 | 基于层次化特征关系图构建的图像描述方法 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909736A (zh) * | 2019-11-12 | 2020-03-24 | 北京工业大学 | 一种基于长短期记忆模型与目标检测算法的图像描述方法 |
CN111079658A (zh) * | 2019-12-19 | 2020-04-28 | 夸氪思维(南京)智能技术有限公司 | 基于视频的多目标连续行为分析方法、系统、装置 |
CN111079658B (zh) * | 2019-12-19 | 2023-10-31 | 北京海国华创云科技有限公司 | 基于视频的多目标连续行为分析方法、系统、装置 |
CN111325323B (zh) * | 2020-02-19 | 2023-07-14 | 山东大学 | 一种融合全局信息和局部信息的输变电场景描述自动生成方法 |
CN111325323A (zh) * | 2020-02-19 | 2020-06-23 | 山东大学 | 一种融合全局信息和局部信息的输变电场景描述自动生成方法 |
CN111553371A (zh) * | 2020-04-17 | 2020-08-18 | 中国矿业大学 | 一种基于多特征提取的图像语义描述方法及系统 |
CN111626968A (zh) * | 2020-04-29 | 2020-09-04 | 杭州火烧云科技有限公司 | 一种基于全局信息和局部信息的像素增强设计方法 |
CN111310867A (zh) * | 2020-05-11 | 2020-06-19 | 北京金山数字娱乐科技有限公司 | 一种基于图片的文本生成方法及装置 |
CN113743096A (zh) * | 2020-05-27 | 2021-12-03 | 南京大学 | 一种基于自然语言处理的众包测试报告相似度检测的方法 |
CN111860235A (zh) * | 2020-07-06 | 2020-10-30 | 中国科学院空天信息创新研究院 | 高低层特征融合的注意力遥感图像描述的生成方法及系统 |
CN111916050A (zh) * | 2020-08-03 | 2020-11-10 | 北京字节跳动网络技术有限公司 | 语音合成方法、装置、存储介质和电子设备 |
CN112257759A (zh) * | 2020-09-27 | 2021-01-22 | 华为技术有限公司 | 一种图像处理的方法以及装置 |
CN112232300A (zh) * | 2020-11-11 | 2021-01-15 | 汇纳科技股份有限公司 | 全局遮挡自适应的行人训练/识别方法、系统、设备及介质 |
CN112232300B (zh) * | 2020-11-11 | 2024-01-19 | 汇纳科技股份有限公司 | 全局遮挡自适应的行人训练/识别方法、系统、设备及介质 |
CN112528989B (zh) * | 2020-12-01 | 2022-10-18 | 重庆邮电大学 | 一种图像语义细粒度的描述生成方法 |
CN112528989A (zh) * | 2020-12-01 | 2021-03-19 | 重庆邮电大学 | 一种图像语义细粒度的描述生成方法 |
CN114049501A (zh) * | 2021-11-22 | 2022-02-15 | 江苏科技大学 | 融合集束搜索的图像描述生成方法、系统、介质及设备 |
CN114255386A (zh) * | 2021-12-23 | 2022-03-29 | 国家电网有限公司信息通信分公司 | 一种数据处理方法及装置 |
CN114333804A (zh) * | 2021-12-27 | 2022-04-12 | 北京达佳互联信息技术有限公司 | 音频分类识别方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110390363A (zh) | 一种图像描述方法 | |
CN109344288B (zh) | 一种基于多模态特征结合多层注意力机制的结合视频描述方法 | |
US11256918B2 (en) | Object detection in images | |
KR102266529B1 (ko) | 이미지 기반의 데이터 처리 방법, 장치, 기기 및 판독 가능 저장 매체 | |
CN110119786B (zh) | 文本话题分类方法及装置 | |
CN110737801B (zh) | 内容分类方法、装置、计算机设备和存储介质 | |
JP6351689B2 (ja) | 視覚質問応答用の注目に基づく設定可能な畳み込みニューラルネットワーク(abc−cnn)のシステム及び方法 | |
CN109447242B (zh) | 基于迭代学习的图像描述重生成系统及方法 | |
CN109992686A (zh) | 基于多角度自注意力机制的图像-文本检索系统及方法 | |
CN109214006B (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN114936623B (zh) | 一种融合多模态数据的方面级情感分析方法 | |
CN110347857B (zh) | 基于强化学习的遥感影像的语义标注方法 | |
CN111949824B (zh) | 基于语义对齐的视觉问答方法和系统、存储介质 | |
CN111598183A (zh) | 一种多特征融合图像描述方法 | |
CN110851641A (zh) | 跨模态检索方法、装置和可读存储介质 | |
CN113378919B (zh) | 融合视觉常识和增强多层全局特征的图像描述生成方法 | |
CN112613293B (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
CN110991515B (zh) | 一种融合视觉上下文的图像描述方法 | |
US11494431B2 (en) | Generating accurate and natural captions for figures | |
CN110968725B (zh) | 图像内容描述信息生成方法、电子设备及存储介质 | |
CN116385937B (zh) | 一种基于多粒度的跨模态交互框架解决视频问答的方法及系统 | |
CN111507093A (zh) | 一种基于相似字典的文本攻击方法、装置及存储介质 | |
CN113486669A (zh) | 应急救援输入语音的语义识别方法 | |
CN116187349A (zh) | 一种基于场景图关系信息增强的视觉问答方法 | |
CN115718815A (zh) | 一种跨模态检索方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191029 |
|
RJ01 | Rejection of invention patent application after publication |