CN110990531B - 一种文本情感识别方法及装置 - Google Patents
一种文本情感识别方法及装置 Download PDFInfo
- Publication number
- CN110990531B CN110990531B CN201911190715.7A CN201911190715A CN110990531B CN 110990531 B CN110990531 B CN 110990531B CN 201911190715 A CN201911190715 A CN 201911190715A CN 110990531 B CN110990531 B CN 110990531B
- Authority
- CN
- China
- Prior art keywords
- word
- preset
- text
- feature vector
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 106
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000013598 vector Substances 0.000 claims abstract description 316
- 230000008451 emotion Effects 0.000 claims abstract description 175
- 238000012549 training Methods 0.000 claims abstract description 166
- 238000003062 neural network model Methods 0.000 claims abstract description 35
- 230000015654 memory Effects 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 14
- 230000003313 weakening effect Effects 0.000 claims 10
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种文本情感识别方法及装置,用以解决现有的基于神经网络模型的文本情感识别方法识别准确率低的问题。所述文本情感识别方法,包括:获取待识别文本;根据预设情感识别模型对所述待识别文本进行情感识别,其中,所述预设情感识别模型是根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量获得的。
Description
技术领域
本发明涉及情感识别技术领域,尤其涉及一种文本情感识别方法及装置。
背景技术
在自然语言处理领域,情感识别一直是非常重要的任务之一。文本的情感识别是对带有情感色彩的主观性文本进行分析和处理,从而获取用户在文字中所包含的情感倾向,如积极、消极或中性等。目前,中文文本情感识别技术在电商、电影等多个领域的评论分析中应用广泛,同时,在热门话题分析、舆情监控以及消费行为分析等众多任务中发挥着巨大的作用。
现有的通用的神经网络模型方法,一般是使用预处理的词向量或者字向量作为模型的输入,但是忽略了向量特征的不可靠性,由于低频词在训练语料中很少或者从未出现,在预测的过程中,无法很恰当地对其进行特征表示,因此,训练得到的向量特征中包含的信息是不可靠的,将会降低情感识别的准确率。在情感识别任务中,不管是电影评论分析、商品评价分析还是舆情分析任务,都面临同样的问题,即文本中包含大量的复杂实体名称,如各种各样的电影名、商品名、话题等,由于这些实体名称本质上是由中文字符的排列组合生成的,因此,给这类文本的情感识别增加了难度。
发明内容
为了解决现有的基于神经网络模型的文本情感识别方法识别准确率低的问题,本发明实施例提供了一种文本情感识别方法及装置。
第一方面,本发明实施例提供了一种文本情感识别方法,包括:
获取待识别文本;
根据预设情感识别模型对所述待识别文本进行情感识别,其中,所述预设情感识别模型是根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量获得的。
本发明实施例提供的文本情感识别方法中,服务器预先根据预设情感分类训练集的文本中的每一个词的语义特征向量获得所述每一个词的情感特征向量,再根据每一个词的情感特征向量和预设的神经网络模型训练获得预设情感识别模型,服务器获取待识别文本后,根据所述预设情感识别模型对待识别文本进行情感识别,本发明实施例中的情感识别模型,是通过词的语义特征获得有效的情感特征,作为预设的神经网络模型的输入,使得训练获得的情感识别模型更加有效,提高了情感识别的准确率。
较佳地,所述词的情感特征向量是根据所述词的语义特征向量和所述词的上下文特征向量获得的;
针对所述预设情感分类训练集的文本中的每一个词,所述词的情感特征向量通过以下步骤获得:
根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量,其中,所述词的词向量为根据第二预设神经网络模型对预设训练语料的文本中的所述词进行预训练获得的,所述字的字向量为根据第三预设神经网络模型对所述预设训练语料的文本中的所述字进行预训练获得的;
根据所述词的语义特征向量和预设窗口确定所述词的上下文特征向量;
根据所述词的语义特征向量和所述词的上下文特征向量,按照第二预设规则进行组合,获得所述词的情感特征向量。
上述较佳的实施方式表征,通过词的语义特征和上下文特征进行组合获得有效的情感特征,具体通过词的词向量和组成所述词的字的字向量构建词的语义特征向量,通过词的语义特征向量和一个预设窗口获得词的上下文特征向量,再根据语义特征向量和上下文特征向量确定所述词的情感特征向量,以获得更有效的特征。
较佳地,针对所述预设情感分类训练集的文本中的每一个词,根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量,具体包括:
按照以下公式计算所述词的语义特征向量:
其中,表示将两个向量拼接起来;
wp表示所述预设情感分类训练集的文本中的第p个词;
cp,q表示组成所述预设情感分类训练集的文本中的第p个词的第q个字;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,p=1,2,......,n,n表示所述预设情感分类训练集的文本中的词的总数量;
表示所述预设情感分类训练集的文本中的第p个词的词向量,/>表示/>的权重;
表示组成所述预设情感分类训练集的文本中的第p个词的第q个字的字向量,表示/>的权重。
上述较佳的实施方式表征,词的词向量和组成所述词的字的字向量具体通过一个动态门控机制来构建所述词的语义特征向量,使得获得的所述词的语义特征向量更加精确。
较佳地,针对所述预设情感分类训练集的文本中的每一个词,根据所述词的语义特征向量和预设窗口确定所述词的上下文特征向量,具体包括:
按照以下公式计算所述词的上下文特征向量:
其中,表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量;
windows表示预设的窗口的值;
当-windows≤k≤windows且k≠0时,表示所述预设情感分类训练集的文本中的第p个词的预设窗口内下标为p+k的词的语义向量,weightp+k表示/>的权重。
较佳地,针对所述预设情感分类训练集的文本中的每一个词,根据所述词的语义特征向量和所述词的上下文特征向量,按照第二预设规则进行组合,获得所述词的情感特征向量,具体包括:
按照以下公式计算所述词的情感特征向量:
其中,vp表示所述预设情感分类训练集的文本中的第p个词的情感特征向量;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,/>表示的权重;
表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量,表示/>的权重。
上述较佳的实施方式表征,词的语义特征向量和上下文特征向量具体通过一个动态门控机制来构建所述词的情感特征向量,使得获得的所述词的情感特征向量更加精确。
第二方面,本发明实施例提供了一种文本情感识别装置,包括:
获取单元,用于获取待识别文本;
情感识别单元,用于根据预设情感识别模型对所述待识别文本进行情感识别,其中,所述预设情感识别模型是根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量获得的。
较佳地,所述词的情感特征向量是根据所述词的语义特征向量和所述词的上下文特征向量获得的;
所述情感识别单元,具体用于根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量,其中,所述词的词向量为根据第二预设神经网络模型对预设训练语料的文本中的所述词进行预训练获得的,所述字的字向量为根据第三预设神经网络模型对所述预设训练语料的文本中的所述字进行预训练获得的;根据所述词的语义特征向量和预设窗口确定所述词的上下文特征向量;根据所述词的语义特征向量和所述词的上下文特征向量,按照第二预设规则进行组合,获得所述词的情感特征向量。
较佳地,所述情感识别单元,具体用于针对所述预设情感分类训练集的文本中的每一个词,按照以下公式计算所述词的语义特征向量:
其中,表示将两个向量拼接起来;
wp表示所述预设情感分类训练集的文本中的第p个词;
cp,q表示组成所述预设情感分类训练集的文本中的第p个词的第q个字;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,p=1,2,......,n,n表示所述预设情感分类训练集的文本中的词的总数量;
表示所述预设情感分类训练集的文本中的第p个词的词向量,/>表示/>的权重;
表示组成所述预设情感分类训练集的文本中的第p个词的第q个字的字向量,表示/>的权重。
较佳地,所述情感识别单元,具体用于针对所述预设情感分类训练集的文本中的每一个词,按照以下公式计算所述词的上下文特征向量:
其中,表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量;
windows表示预设的窗口的值;
当-windows≤k≤windows且k≠0时,表示所述预设情感分类训练集的文本中的第p个词的预设窗口内下标为p+k的词的语义向量,weightp+k表示/>的权重。
较佳地,所述情感识别单元,具体用于针对所述预设情感分类训练集的文本中的每一个词,按照以下公式计算所述词的情感特征向量:
其中,vp表示所述预设情感分类训练集的文本中的第p个词的情感特征向量;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,/>表示的权重;
表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量,表示/>的权重。
本发明提供的文本情感识别装置的技术效果可以参见上述第一方面或第一方面的各个实现方式的技术效果,此处不再赘述。
第三方面,本发明实施例提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现本发明所述的文本情感识别方法。
第四方面,本发明实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本发明所述的文本情感识别方法中的步骤。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1为本发明实施例提供的文本情感识别方法的应用场景示意图;
图2为本发明实施例提供的文本情感识别方法的实施流程示意图;
图3为本发明实施例中,获得词的情感特征向量的实施流程示意图;
图4为本发明实施例提供的文本情感识别装置的结构示意图;
图5为本发明实施例提供的电子设备的结构示意图。
具体实施方式
为了解决现有的基于神经网络模型的文本情感识别方法识别准确率低的问题,本发明实施例提供了一种文本情感识别方法及装置。
以下结合说明书附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明,并且在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
在本文中,需要理解的是,本发明所涉及的技术术语中:
1、词向量(Word embedding):自然语言处理(Natural Language Processing,NLP)中的一组语言建模和特征学习技术的统称,其中来自词汇表的单词或短语被映射到实数的向量。从概念上讲,它涉及从每个单词一维的空间到具有更低维度的连续向量空间的数学嵌入。
2、自然语言处理:是计算机科学领域与人工智能领域中的一个重要方向,它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。它是数据科学里的一个分支,它的主要覆盖的内容是:以一种智能与高效的方式,对文本数据进行系统化分析、理解与信息提取的过程。
首先参考图1,其为本发明实施例提供的文本情感识别方法的应用场景示意图。服务器预先训练一个情感识别模型,根据该预先训练的情感识别模型对待识别文本进行情感识别。情感识别模型的获取过程具体如下:对预设训练语料的文本中的每个词进行词向量预训练,获得每个词对应的词向量,训练采用的神经网络模型可以为word2vec模型或者FastText(快速文本)模型等,预设训练语料可以采用能够覆盖大部分常用词的语料,例如,中文维基百科等,本发明实施例对此不作限定。对训练语料的文本中的字进行字向量预训练,获得每个字对应的字向量,训练采用的神经网络模型可以为TextCNN(TextConvolutional Neural Networks,文本卷积神经网络)模型等。针对预设情感分类训练集的文本中的每一个词,将所述词对应的预训练的词向量和组成该词的字的字向量通过一个动态门控机制进行组合,获得所述词的语义特征向量,动态门控机制具体是指:所述词对应的词向量和组成该词的字的字向量通过各自对应的权重进行组合,在训练过程中使得所述词的语义更加精确。其中,预设情感分类训练集可以采用带有情感倾向的评论等文本,本发明实施例对此不作限定。进而,词的语义特征向量和预设窗口确定所述词的上下文特征向量,以所述词为中心,在预设窗口内的其它各词即为所述词的上下文,窗口大小可以根据实际需要自行设定,本发明实施例对此不作限定。进一步地,将所述词对应的语义特征向量和所述词的上下文特征向量通过另一个动态门控机制进行组合,获得所述词的情感特征向量,同样的,此处,动态门控机制具体是指:所述词对应的语义特征向量和上下文特征向量通过各自对应的权重进行组合,在训练过程中使得所述词的情感特征向量更加精确。进一步地,将预设情感分类训练集的文本中的每一个词对应的情感特征向量作为分类器的输入、文本对应的情感倾向作为输出进行训练,获得情感识别模型。其中分类模型可以采用TextCNN模型、RNN(Recurrent Neural Networ,循环神经网络)模型或LSTM(Long Short-Term Memory,长短期记忆人工神经网络)模型等,本发明对此不作限定。
下面结合图1的应用场景,参考图2~图3来描述根据本发明示例性实施方式的文本情感识别方法。需要注意的是,上述应用场景仅是为了便于理解本发明的精神和原理而示出,本发明的实施方式在此不受任何限制。相反,本发明的实施方式可以应用于适用的任何场景。
如图2所示,其为本发明实施例提供的文本情感识别方法的实施流程示意图,可以包括以下步骤:
S11、获取待识别文本。
具体实施时,服务器获取待识别文本。服务器可以主动获取待识别文本,也可以由终端向服务器发送待识别文本,本发明实施例对此不作限定。
S12、根据预设情感识别模型对所述待识别文本进行情感识别,其中,所述预设情感识别模型是根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量获得的。
具体实施时,服务器预先训练一个预设情感识别模型,根据该预设情感识别模型对待识别文本进行情感识别,获得待识别文本的情感倾向。所述预设情感识别模型具体根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量和所述词的上下文特征向量获得的。本发明实施例中,预设情感分类训练集可以采用带有情感倾向的评论等文本,第一预设神经网络模型为分类器,可以使用但不限于TextCNN模型、RNN模型或LSTM模型,本发明实施例对此不作限定。
具体实施时,情感识别模型的训练过程如下:将情感分类训练集的文本中的每一个词的情感特征向量作为第一预设神经网络模型的输入,文本的情感倾向作为输出进行训练,训练过程中,需要人工标注文本的情感标签,所述文本的情感标签表示所述文本的真实情感,将第一预设神经网络模型输出的文本的情感倾向和人工标注的文本的真实情感进行比对,进行参数学习和优化,得到最终的情感识别模型。
具体实施时,针对所述预设情感分类训练集的文本中的每一个词,所述词的情感特征向量可以通过如图3所示的步骤获得:
S21、针对所述预设情感分类训练集的文本中的每一个词,根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量。
具体实施时,服务器针对所述预设情感分类训练集的文本中的每一个词,根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量。其中,所述词的词向量为根据第二预设神经网络模型对预设训练语料的文本中的所述词进行预训练获得的,所述字的字向量为根据第三预设神经网络模型对所述预设训练语料的文本中的所述字进行预训练获得的。
具体地,预先对预设训练语料的文本进行文本清洗,去除文本中的特殊符号,进而,再对文本进行分词处理,对分词处理后得到的每个词进行词向量预训练,获得预设训练语料的文本中的每个词对应的词向量,词向量可以表示如下:其中,N表示训练语料中词的总数,/>表示训练语料中第i个词的词向量,本发明实施例中,训练采用的第二神经网络模型可以但不限于word2vec模型或者FastText模型,预设训练语料可以采用能够覆盖大部分常用词的语料,例如,中文维基百科等,本发明实施例对此不作限定。对训练语料的文本中的字进行字向量预训练,获得每个字对应的字向量,具体地,首先对预设训练语料的文本进行文本清洗,去除文本中的特殊符号,再根据第三预设神经网络模型对所述预设训练语料的文本中的每一个字进行字向量预训练,获得每个字对应的字向量,字向量可以表示如下:其中,M表示训练语料中字的总数,/>表示训练语料中第i个字的字向量。其中,训练采用的第三预设神经网络模型可以但不限于TextCNN模型等。
进一步地,针对预设情感分类训练集的文本中的每一个词,根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量。
具体地,按照以下公式计算所述词的语义特征向量:
其中,表示将两个向量拼接起来;
wp表示所述预设情感分类训练集的文本中的第p个词;
cp,q表示组成所述预设情感分类训练集的文本中的第p个词的第q个字;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,p=1,2,......,n,n表示所述预设情感分类训练集的文本中的词的总数量;
表示所述预设情感分类训练集的文本中的第p个词的词向量,/>表示/>的权重;
表示组成所述预设情感分类训练集的文本中的第p个词的第q个字的字向量,表示/>的权重。
本发明实施例中,初始时,可以指定词向量的初始权重和字向量的初始权重,在训练的过程中,词向量的权重和字向量的权重进行动态自适应调整,直至获得比较精确的语义特征。
需要说明的是,本发明实施例中的符号为连接符,表示两个向量进行连接操作,也就是将两个向量拼接起来,例如,将两个100维的向量拼接成一个200维的向量。上式中,/>即表示将/>和/>拼接起来。
S22、根据所述词的语义特征向量和预设窗口确定所述词的上下文特征向量。
具体实施时,针对所述预设情感分类训练集的文本中的每一个词,可以按照以下公式计算所述词的上下文特征向量:
其中,表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量;
windows表示预设的窗口的值;
当-windows≤k≤windows且k≠0时,表示所述预设情感分类训练集的文本中的第p个词的预设窗口内下标为p+k的词的语义向量,weightp+k表示/>的权重。
具体实施时,窗口的大小可以根据需要自行设定,本发明实施例对此不作限定。例如,预设的窗口的值可以为5,则所述预设情感分类训练集的文本中的第p个词的前5个词和后5个词即为该词的上下文。
S23、根据所述词的语义特征向量和所述词的上下文特征向量,按照第二预设规则进行组合,获得所述词的情感特征向量。
具体实施时,针对所述预设情感分类训练集的文本中的每一个词,可以按照以下公式计算所述词的情感特征向量:
其中,表示将两个向量拼接起来;
vp表示所述预设情感分类训练集的文本中的第p个词的情感特征向量;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,/>表示的权重;
表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量,表示/>的权重。
本发明实施例中,初始时,可以指定语义特征向量的初始权重和上下文特征向量的初始权重。
一个较佳的实施方式中,上述各权重的设置原则可以为:当所述词为常用词时,则可以在组合过程中提高词向量的权重、减弱字向量的权重、提高语义特征向量的权重、减弱上下文特征向量的权重;当所述词为不常用词时,则可以在组合过程中减弱词向量的权重、提高字向量的权重、提高语义特征向量的权重、提高上下文特征向量的权重;当所述词为预设训练语料中从未出现过的词时,则组合的过程中减弱词向量的权重、减弱字向量的权重、减弱语义特征向量的权重、提高上下文特征向量的权重。
本发明实施例提供的文本情感识别方法,通过词向量和组成词的字的字向量的组合构建词的语义特征向量,再通过词的语言特征向量和词的上下文特征向量的组合构建词的情感特征向量,将词的情感特征向量作为分类器的输入,文本对应的情感倾向作为输出进行训练获得情感识别模型,利用此方式获得的情感识别模型,能够达到更好的情感识别效果,提高了情感识别的准确率。
基于同一发明构思,本发明实施例还提供了一种文本情感识别装置,由于上述文本情感识别装置解决问题的原理与文本情感识别方法相似,因此上述装置的实施可以参见方法的实施,重复之处不再赘述。
如图4所示,其为本发明实施例提供的文本情感识别装置的结构示意图,可以包括:
获取单元31,用于获取待识别文本;
情感识别单元32,用于根据预设情感识别模型对所述待识别文本进行情感识别,其中,所述预设情感识别模型是根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量获得的。
较佳地,所述词的情感特征向量是根据所述词的语义特征向量和所述词的上下文特征向量获得的;
所述情感识别单元32,具体用于根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量,其中,所述词的词向量为根据第二预设神经网络模型对预设训练语料的文本中的所述词进行预训练获得的,所述字的字向量为根据第三预设神经网络模型对所述预设训练语料的文本中的所述字进行预训练获得的;根据所述词的语义特征向量和预设窗口确定所述词的上下文特征向量;根据所述词的语义特征向量和所述词的上下文特征向量,按照第二预设规则进行组合,获得所述词的情感特征向量。
较佳地,所述情感识别单元32,具体用于针对所述预设情感分类训练集的文本中的每一个词,按照以下公式计算所述词的语义特征向量:
其中,表示将两个向量拼接起来;
wp表示所述预设情感分类训练集的文本中的第p个词;
cp,q表示组成所述预设情感分类训练集的文本中的第p个词的第q个字;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,p=1,2,......,n,n表示所述预设情感分类训练集的文本中的词的总数量;
表示所述预设情感分类训练集的文本中的第p个词的词向量,/>表示/>的权重;
表示组成所述预设情感分类训练集的文本中的第p个词的第q个字的字向量,表示/>的权重。
较佳地,所述情感识别单元32,具体用于针对所述预设情感分类训练集的文本中的每一个词,按照以下公式计算所述词的上下文特征向量:
其中,表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量;
windows表示预设的窗口的值;
当-windows≤k≤windows且k≠0时,表示所述预设情感分类训练集的文本中的第p个词的预设窗口内下标为p+k的词的语义向量,weightp+k表示/>的权重。
较佳地,所述情感识别单元32,具体用于针对所述预设情感分类训练集的文本中的每一个词,按照以下公式计算所述词的情感特征向量:
其中,vp表示所述预设情感分类训练集的文本中的第p个词的情感特征向量;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,/>表示的权重;
表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量,表示/>的权重。
基于同一技术构思,本发明实施例还提供了一种电子设备400,参照图5所示,电子设备400用于实施上述方法实施例记载的文本情感识别方法,该实施例的电子设备400可以包括:存储器401、处理器402以及存储在所述存储器中并可在所述处理器上运行的计算机程序,例如情感识别程序。所述处理器执行所述计算机程序时实现上述各个文本情感识别方法实施例中的步骤,例如图2所示的步骤S11。或者,所述处理器执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如31。
本发明实施例中不限定上述存储器401、处理器402之间的具体连接介质。本申请实施例在图5中以存储器401、处理器402之间通过总线403连接,总线403在图5中以粗线表示,其它部件之间的连接方式,仅是进行示意性说明,并不引以为限。所述总线403可以分为地址总线、数据总线、控制总线等。为便于表示,图5中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器401可以是易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器401也可以是非易失性存储器(non-volatilememory),例如只读存储器,快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD)、或者存储器401是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。存储器401可以是上述存储器的组合。
处理器402,用于实现如图2所示的一种文本情感识别方法,包括:
所述处理器402,用于调用所述存储器401中存储的计算机程序执行如图2中所示的步骤S11、获取待识别文本,和步骤S12、根据预设情感识别模型对所述待识别文本进行情感识别,其中,所述预设情感识别模型是根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量获得的。
本申请实施例还提供了一种计算机可读存储介质,存储为执行上述处理器所需执行的计算机可执行指令,其包含用于执行上述处理器所需执行的程序。
在一些可能的实施方式中,本发明提供的文本情感识别方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在电子设备上运行时,所述程序代码用于使所述电子设备执行本说明书上述描述的根据本发明各种示例性实施方式的文本情感识别方法中的步骤,例如,所述电子设备可以执行如图2中所示的步骤S11、获取待识别文本,和步骤S12、根据预设情感识别模型对所述待识别文本进行情感识别,其中,所述预设情感识别模型是根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量获得的。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本发明的实施方式的用于情感识别的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在计算设备上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了装置的若干单元或子单元,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元的特征和功能可以在一个单元中具体化。反之,上文描述的一个单元的特征和功能可以进一步划分为由多个单元来具体化。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(装置)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种文本情感识别方法,其特征在于,包括:
获取待识别文本;
根据预设情感识别模型对所述待识别文本进行情感识别,其中,所述预设情感识别模型是根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量和所述词的上下文特征向量获得的;
针对所述预设情感分类训练集的文本中的每一个词,所述词的情感特征向量通过以下步骤获得:
根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量,具体包括:将所述词的词向量和组成所述词的字的字向量通过各自对应的权重进行组合,获得所述词的语义特征向量,其中,所述词的词向量为根据第二预设神经网络模型对预设训练语料的文本中的所述词进行预训练获得的,所述字的字向量为根据第三预设神经网络模型对所述预设训练语料的文本中的所述字进行预训练获得的;
根据所述词的语义特征向量和预设窗口确定所述词的上下文特征向量;
根据所述词的语义特征向量和所述词的上下文特征向量,按照第二预设规则进行组合,获得所述词的情感特征向量,具体包括:将所述词的语义特征向量和所述词的上下文特征向量通过各自对应的权重进行组合,获得所述词的情感特征向量;
其中,各权重的设置原则为:当所述词为常用词时,则在组合过程中提高所述词的词向量的权重、减弱组成所述词的字的字向量的权重、提高所述词的语义特征向量的权重、减弱所述词的上下文特征向量的权重;当所述词为不常用词时,则在组合过程中减弱所述词的词向量的权重、提高组成所述词的字的字向量的权重、提高所述词的语义特征向量的权重、提高所述词的上下文特征向量的权重;当所述词为预设训练语料中从未出现过的词时,则组合的过程中减弱所述词的词向量的权重、减弱组成所述词的字的字向量的权重、减弱所述词的语义特征向量的权重、提高所述词的上下文特征向量的权重。
2.如权利要求1所述的方法,其特征在于,针对所述预设情感分类训练集的文本中的每一个词,根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量,具体包括:
按照以下公式计算所述词的语义特征向量:
其中,表示将两个向量拼接起来;
wp表示所述预设情感分类训练集的文本中的第p个词;
cp,q表示组成所述预设情感分类训练集的文本中的第p个词的第q个字;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,p=1,2,......,n,n表示所述预设情感分类训练集的文本中的词的总数量;
表示所述预设情感分类训练集的文本中的第p个词的词向量,/>表示/>的权重;
表示组成所述预设情感分类训练集的文本中的第p个词的第q个字的字向量,/>表示/>的权重。
3.如权利要求1或2所述的方法,其特征在于,针对所述预设情感分类训练集的文本中的每一个词,根据所述词的语义特征向量和预设窗口确定所述词的上下文特征向量,具体包括:
按照以下公式计算所述词的上下文特征向量:
其中,表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量;
windows表示预设的窗口的值;
当-windows≤k≤windows且k≠0时,表示所述预设情感分类训练集的文本中的第p个词的预设窗口内下标为p+k的词的语义向量,weightp+k表示/>的权重。
4.如权利要求3所述的方法,其特征在于,针对所述预设情感分类训练集的文本中的每一个词,根据所述词的语义特征向量和所述词的上下文特征向量,按照第二预设规则进行组合,获得所述词的情感特征向量,具体包括:
按照以下公式计算所述词的情感特征向量:
其中,vp表示所述预设情感分类训练集的文本中的第p个词的情感特征向量;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,/>表示/>的权重;
表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量,/>表示/>的权重。
5.一种文本情感识别装置,其特征在于,包括:
获取单元,用于获取待识别文本;
情感识别单元,用于根据预设情感识别模型对所述待识别文本进行情感识别,其中,所述预设情感识别模型是根据预设情感分类训练集的文本中的每一个词的情感特征向量和第一预设神经网络模型训练获得的,所述词的情感特征向量是根据所述词的语义特征向量和所述词的上下文特征向量获得的;
所述情感识别单元,具体用于根据所述词的词向量和组成所述词的字的字向量,按照第一预设规则进行组合,获得所述词的语义特征向量,其中,所述词的词向量为根据第二预设神经网络模型对预设训练语料的文本中的所述词进行预训练获得的,所述字的字向量为根据第三预设神经网络模型对所述预设训练语料的文本中的所述字进行预训练获得的;根据所述词的语义特征向量和预设窗口确定所述词的上下文特征向量;根据所述词的语义特征向量和所述词的上下文特征向量,按照第二预设规则进行组合,获得所述词的情感特征向量;
所述情感识别单元,具体用于将所述词的词向量和组成所述词的字的字向量通过各自对应的权重进行组合,获得所述词的语义特征向量;
所述情感识别单元,具体用于将所述词的语义特征向量和所述词的上下文特征向量通过各自对应的权重进行组合,获得所述词的情感特征向量;
其中,各权重的设置原则为:当所述词为常用词时,则在组合过程中提高所述词的词向量的权重、减弱组成所述词的字的字向量的权重、提高所述词的语义特征向量的权重、减弱所述词的上下文特征向量的权重;当所述词为不常用词时,则在组合过程中减弱所述词的词向量的权重、提高组成所述词的字的字向量的权重、提高所述词的语义特征向量的权重、提高所述词的上下文特征向量的权重;当所述词为预设训练语料中从未出现过的词时,则组合的过程中减弱所述词的词向量的权重、减弱组成所述词的字的字向量的权重、减弱所述词的语义特征向量的权重、提高所述词的上下文特征向量的权重。
6.如权利要求5所述的装置,其特征在于,
所述情感识别单元,具体用于针对所述预设情感分类训练集的文本中的每一个词,按照以下公式计算所述词的语义特征向量:
其中,表示将两个向量拼接起来;
wp表示所述预设情感分类训练集的文本中的第p个词;
cp,q表示组成所述预设情感分类训练集的文本中的第p个词的第q个字;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,p=1,2,......,n,n表示所述预设情感分类训练集的文本中的词的总数量;
表示所述预设情感分类训练集的文本中的第p个词的词向量,/>表示/>的权重;
表示组成所述预设情感分类训练集的文本中的第p个词的第q个字的字向量,/>表示/>的权重。
7.如权利要求5或6所述的装置,其特征在于,
所述情感识别单元,具体用于针对所述预设情感分类训练集的文本中的每一个词,按照以下公式计算所述词的上下文特征向量:
其中,表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量;
windows表示预设的窗口的值;
当-windows≤k≤windows且k≠0时,表示所述预设情感分类训练集的文本中的第p个词的预设窗口内下标为p+k的词的语义向量,weightp+k表示/>的权重。
8.如权利要求7所述的装置,其特征在于,
所述情感识别单元,具体用于针对所述预设情感分类训练集的文本中的每一个词,按照以下公式计算所述词的情感特征向量:
其中,vp表示所述预设情感分类训练集的文本中的第p个词的情感特征向量;
表示所述预设情感分类训练集的文本中的第p个词的语义特征向量,/>表示/>的权重;
表示所述预设情感分类训练集的文本中的第p个词的上下文特征向量,/>表示/>的权重。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~4任一项所述的文本情感识别方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1~4任一项所述的文本情感识别方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911190715.7A CN110990531B (zh) | 2019-11-28 | 2019-11-28 | 一种文本情感识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911190715.7A CN110990531B (zh) | 2019-11-28 | 2019-11-28 | 一种文本情感识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110990531A CN110990531A (zh) | 2020-04-10 |
CN110990531B true CN110990531B (zh) | 2024-04-02 |
Family
ID=70087818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911190715.7A Active CN110990531B (zh) | 2019-11-28 | 2019-11-28 | 一种文本情感识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110990531B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111859980B (zh) * | 2020-06-16 | 2024-04-09 | 中国科学院自动化研究所 | 讽刺类型的文本识别方法、装置、设备及计算机可读介质 |
CN113392836A (zh) * | 2021-06-24 | 2021-09-14 | 作业帮教育科技(北京)有限公司 | 冗余文字的识别方法、题目批改方法和系统 |
CN114239591B (zh) * | 2021-12-01 | 2023-08-18 | 马上消费金融股份有限公司 | 敏感词识别方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038154A (zh) * | 2016-11-25 | 2017-08-11 | 阿里巴巴集团控股有限公司 | 一种文本情感识别方法和装置 |
CN107066449A (zh) * | 2017-05-09 | 2017-08-18 | 北京京东尚科信息技术有限公司 | 信息推送方法和装置 |
CN110083833A (zh) * | 2019-04-18 | 2019-08-02 | 东华大学 | 中文字词向量和方面词向量联合嵌入情感分析方法 |
CN110287477A (zh) * | 2018-03-16 | 2019-09-27 | 北京国双科技有限公司 | 实体情感分析方法及相关装置 |
CN110427610A (zh) * | 2019-06-25 | 2019-11-08 | 平安科技(深圳)有限公司 | 文本分析方法、装置、计算机装置及计算机存储介质 |
-
2019
- 2019-11-28 CN CN201911190715.7A patent/CN110990531B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038154A (zh) * | 2016-11-25 | 2017-08-11 | 阿里巴巴集团控股有限公司 | 一种文本情感识别方法和装置 |
CN107066449A (zh) * | 2017-05-09 | 2017-08-18 | 北京京东尚科信息技术有限公司 | 信息推送方法和装置 |
CN110287477A (zh) * | 2018-03-16 | 2019-09-27 | 北京国双科技有限公司 | 实体情感分析方法及相关装置 |
CN110083833A (zh) * | 2019-04-18 | 2019-08-02 | 东华大学 | 中文字词向量和方面词向量联合嵌入情感分析方法 |
CN110427610A (zh) * | 2019-06-25 | 2019-11-08 | 平安科技(深圳)有限公司 | 文本分析方法、装置、计算机装置及计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110990531A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111312245B (zh) | 一种语音应答方法、装置和存储介质 | |
US10268671B2 (en) | Generating parse trees of text segments using neural networks | |
US11886480B2 (en) | Detecting affective characteristics of text with gated convolutional encoder-decoder framework | |
US20190377790A1 (en) | Supporting Combinations of Intents in a Conversation | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
TW201917602A (zh) | 文本語義編碼方法及裝置 | |
CN110990531B (zh) | 一种文本情感识别方法及装置 | |
CN110597966A (zh) | 自动问答方法及装置 | |
US11270082B2 (en) | Hybrid natural language understanding | |
CN113254637A (zh) | 一种融合语法的方面级文本情感分类方法及系统 | |
CN110678882A (zh) | 使用机器学习从电子文档选择回答跨距 | |
Zhou et al. | ICRC-HIT: A deep learning based comment sequence labeling system for answer selection challenge | |
CN109582786A (zh) | 一种基于自动编码的文本表示学习方法、系统及电子设备 | |
CN114861822A (zh) | 用于改进的少试学习的任务增强和自训练 | |
JP2023539470A (ja) | 自動ナレッジ・グラフ構成 | |
Yao et al. | Non-deterministic and emotional chatting machine: learning emotional conversation generation using conditional variational autoencoders | |
CN116561592A (zh) | 文本情感识别模型的训练方法和文本情感识别方法及装置 | |
CN115687934A (zh) | 意图识别方法、装置、计算机设备及存储介质 | |
CN111241843B (zh) | 基于复合神经网络的语义关系推断系统和方法 | |
CN116127060A (zh) | 一种基于提示词的文本分类方法及系统 | |
Datta et al. | A deep learning methodology for semantic utterance classification in virtual human dialogue systems | |
CN112307738B (zh) | 用于处理文本的方法和装置 | |
CN111090740B (zh) | 一种用于对话系统的知识图谱生成方法 | |
WO2024187785A1 (zh) | 文本识别的方法、装置、电子设备、存储介质及程序产品 | |
CN116821306A (zh) | 对话回复生成方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |