CN111949790A - 基于lda主题模型与分层神经网络的情感分类方法 - Google Patents
基于lda主题模型与分层神经网络的情感分类方法 Download PDFInfo
- Publication number
- CN111949790A CN111949790A CN202010698706.5A CN202010698706A CN111949790A CN 111949790 A CN111949790 A CN 111949790A CN 202010698706 A CN202010698706 A CN 202010698706A CN 111949790 A CN111949790 A CN 111949790A
- Authority
- CN
- China
- Prior art keywords
- topic
- document
- sentence
- word
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 34
- 239000013598 vector Substances 0.000 claims abstract description 85
- 230000007246 mechanism Effects 0.000 claims abstract description 16
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 12
- 230000000306 recurrent effect Effects 0.000 claims abstract description 11
- 230000008451 emotion Effects 0.000 claims abstract description 9
- 230000011218 segmentation Effects 0.000 claims abstract description 6
- 230000008569 process Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 description 10
- 239000010410 layer Substances 0.000 description 9
- 238000005070 sampling Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241000590419 Polygonia interrogationis Species 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/258—Heading extraction; Automatic titling; Numbering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于LDA主题模型与分层神经网络的情感分类方法,包括:将文档输入LDA主题模型获得文档的文档‑主题分布和主题‑词分布;将文档以标点符号划分为句子,以句子为单位进行分词并将句中的词汇表示为词向量输入到双向循环神经网络中,获取词汇的隐藏状态向量;在词汇层面,使用注意力机制获取词级别的主题特征向量,结合词汇的隐藏状态向量,形成句子的向量表示;在句子层面,将句子向量输入到双向循环神经网络中,获得句子的隐藏状态向量后,使用注意力机制对文档中的句子进行加权,获取文档的向量表示。本发明增加了模型的领域适应能力,并充分利用文档的层次结构,分别在词汇和句子两层使用注意力机制,时序信息及显著信息,提高模型情感分类的准确度。
Description
技术领域
本发明涉及自然语言处理中的情感分析领域,尤其是指一种基于LDA主题模型与分层神经网络的情感分类方法。
背景技术
随着互联网行业的快速发展,越来越多的人选择通过网络来表述自己的观点与情感,如何从海量数据中高效提取出有价值的信息是一个研究重点,情感分析研究对自然语言处理、管理科学、政治学、经济学和社会科学都有很大的价值。
情感分析结合文本数据的主题是一个重要研究课题,文档主题向量本质是表示文档的深层语义,是主题和语义的内在结合,抽取的文档主题向量可以广泛的应用于情感分析任务中,例如社交网络和新媒体的舆情分析,新闻热点的及时获取等。
当前的情感分析方法主要包括以下三类:基于语言规则的方法、基于传统机器学习的方法和基于深度神经网络的方法。近年来,随着互联网的发展和数据工程的发展,文本数据的体量急剧增大和语言表示的多元化,使得神经网络技术的优势逐渐明显。相比于基于规则的方法和传统机器学习的方法,深度神经网络由于其模型与函数的复杂性,在面对当今复杂多变的语言模型时,可以捕捉更全面,更深层的文本特征,及对文本有更好的理解能力,故在情感分析领域也可以达到更好的效果,因此使用神经网络的方法成为主流方法。
现有的基于深度神经网络的情感分析的研究中,主要的工作是将文本通过神经网络的embedding层训练并表示成向量或矩阵的形式,然后构建合适的深度神经网络模型进行深层特征的抽象,最后在神经网络模型的输出层利用激活函数进行分类概率的计算。这类深度学习的方法仅仅是将文本内容转换成数字向量作为模型的输入,并未考虑到文本数据所在的领域特殊性,也没有充分的利用文本的层次结构去挖掘出文本的信息。
发明内容
本发明的目的是为了克服现有方法模型的缺陷,针对缺乏对文本具体领域的关注和没有充分利用文档层次结构挖掘文档潜在信息的问题,提出一种新的基于LDA主题模型和分层神经网络的情感分类方法,可以合理使用文档主题特征的同时,又充分学习到文档所包含的潜在信息,提高模型的泛化能力和情感分析的准确度。
本发明的核心思想是:充分利用文档的主题信息和层次结构,得到更有利于情感分类的文档向量表示。为符合文档的层次结构,使用分层的神经网络模型,在词汇层融入由LDA主题模型提取出的主题信息,并在词汇和句子两层使用注意力机制提取文本不同位置,不同意义的词汇及句子的重要性,完成了主题信息的融入,也学习到了包含文档上下文的语义信息,时序信息及显著信息的文档向量。
鉴于此,本发明采用的技术方案是:基于LDA主题模型与分层神经网络的情感分类方法,包括以下步骤:
S1、将文档输入LDA主题模型获得文档的文档-主题分布和主题-词分布;
S2、将文档以标点符号划分为句子,以句子为单位进行分词,并将句中的词汇表示为词向量,输入到双向循环神经网络中,获取词汇的隐藏状态向量;
S3、在词汇层面,获取词级别的主题特征向量,结合词汇的隐藏状态向量,使用注意力机制对句子中的词汇进行加权,形成句子的向量表示;
S4、在句子层面,将句子向量输入到双向循环神经网络中,获得句子的隐藏状态向量后,使用注意力机制对文档中的句子进行加权,获取文档的向量表示。
本发明具有以下有益效果:
1.本发明方法利用LDA主题模型提取文档的主题信息,主题信息为θd和βk,在深度学习方法引入领域信息,在本文中具体表现为在词汇层面,获取词级别的主题特征向量,结合词汇的隐藏状态向量后,使用注意力机制对句子中的词汇进行加权,形成句子的向量表示,这样处理增强了模型在处理不同数据集时的泛化能力。
2.本发明方法使用的神经网络符合文档的层次结构,该神经网络共有两层,一层处理词汇合成句子向量表示,另一层处理句子合成词汇向量表示,这样能够充分挖掘文档的上下文信息和时序信息。
3.本发明方法在词汇层次和句子层次都使用了注意力机制,赋予不同位置和不同意义的词汇和句子不同的注意力权重αit和αi,能够充分利用文档的显著信息。
图说明
图1是本发明一种基于LDA主题模型和分层神经网络的情感分析方法的流程图;
图2是本发明方法中LDA主题模型的概率图模型示意图。
具体实施方式
为了使本发明的目的,技术方案及优点更加清楚明白,以下根据附图及实施例对本发明所述的分类方法进一步详细说明。
如图1所示,一种基于LDA主题模型和分层神经网络的情感分析方法,其基本实施过程如下:
步骤S1、将文档输入LDA主题模型获得文档的文档-主题分布θd和主题-词分布βk。
具体实现过程如下:
主题模型LDA假设文档集中共有D篇文档,所有文档共有K个主题,V个词汇(不重复),在输入所有文档后,经过LDA算法,会得到每篇文档分属这K个主题的概率分布θd和每个主题下V个词汇的概率分布βk。
LDA的长文本主题挖掘能力强且是无监督模型,被认为不依赖训练样本,不存在领域转移问题,具有很好的领域适应性;LDA模型为完全贝叶斯的概率图模型,参数的推理需要推断参数的后验分布,因此采用吉布斯采样算法估计模型参数,如图2为LDA概率图模型示意图,刻画了整个长文本数据集的生成过程,详细过程阐述如下:
1)对于每一篇文档d=1,…,D:
采样一个文档-主题分布θd~Dir(α)
2)对于每一个主题k=1,…,K:
采样一个主题-词汇分布βk~Dir(η)
3)对于文中的每一个词w=1,…,V:
3.1)采样一个主题标签Zdv~Mult(θd)
其中Mult(.)是多项式分布,Dir(.)是Dirichlet分布,θd是任一文档d的主题分布,α是分布的超参数,是一个K维向量。K代表主题个数;βk是任一主题K的词汇分布,η是分布的超参数,是一个V维向量。V代表数据集中所有文档中不重复的词的个数;文档-主题分布,主题-词汇分布是模型需要学习的参数,Zdv是隐变量,表示数据中任一文档d中的第n个词,从主题分布θd中得到的主题编号Zdv的分布,Wdv是可观察到的变量。表示在主题Zdv下的主题词汇分布。
步骤S2、将文档以句号,问号等标点符号划分为句子,以句子为单位进行分词,去停用词等预处理,并将句中的词汇表示为词向量,输入到双向循环神经网络中,获取词汇的隐藏状态向量。
具体实现过程如下:
步骤S2.1、将文档以句号,问号等标点符号划分为句子,d=(s1,…,si,…,sL);
步骤S2.2、以句子为单位进行分词,去停用词等预处理;
步骤S2.3、将句中的词汇表示为词向量,本发明利用Google的开源Word2vec工具将句中的词汇全部表示为词向量,si=(wi1,…,wit,…wiT);
步骤S2.4、将句子的词向量,输入到双向循环神经网络中,获取词汇的隐藏状态向量;假设将文档的第i个句子的第t个单词的词向量wit,传入到双向GRU,得到包含上下文信息的隐藏状态向量,其过程即如下表示:
步骤S3,在词汇层面,获取词级别的主题特征向量,结合词汇的隐藏状态向量后,使用注意力机制对句子中的词汇进行加权,形成句子的向量表示。
具体实现过程如下:
步骤S3.1、将LDA主题模型提取出的主题-词分布通过全连接层转化成低维主题嵌入ek k∈[1,K],得到的ek具有与词汇隐藏状态向量相同的维数:
ek=tanh(Wβk)
ek表示低维主题嵌入,βk表示主题-词汇分布,W是参数矩阵,tanh是非线性函数。
步骤S3.2、针对句中的每个词,计算出词与每个主题之间的关联权重:
qit,k=hit·ek T
αit,k=softmax(qit,k·θk)
qit,k是一个用于计算α的中间变量,直观上来看,qit,k是衡量词的隐藏向量与主题向量ek的匹配程度,从而在一定程度上反映了词与主题之间的相关性,为了包含更多的主题信息,所以引入θk,θk代表文档-主题分布里第k个主题的概率,hit表示词汇的隐藏状态向量,ek表示低维主题嵌入,αit,k代表第i个句子中第t个词汇和第K个主题之间的关联权重。
步骤S3.3、计算出词级别的主题特征向量:
git是第i个句子第t个词汇的词汇主题特征向量,αit,k是词与每个主题之间的关联权重,ek表示低维主题嵌入
步骤S3.4、结合词汇的隐藏状态向量,使用注意力机制对句子中的词汇进行加权,形成句子的向量表示:
hi't=[hit,git]
uit=tanh(Wwhi't+bw)
hit表示第i个句子第t个词汇的隐藏状态向量,git表示第i个句子第t个词汇的主题特征向量,hi't表示将词汇的隐藏状态向量和主题特征向量进行特征融合形成的包含主题信息的词汇向量表示;uit是hi't通过单层感知机得到的隐藏的表示;αit是衡量该词汇在整个句子中的重要性权重;si是句子的向量表示;另外的参数Ww,bw,uw为需要学习的模型参数。
步骤S4,在句子层面,将句子向量输入到双向循环神经网络中,获得句子的隐藏状态向量后,使用注意力机制对文档中的句子进行加权,获取文档的向量表示。
具体实现过程如下:
步骤S4.1、假设文档的第i个句子向量为si,i∈[1,L],L代表一篇文档总共为L个句子。传入到双向GRU得到句子的隐藏状态向量hi:
步骤S4.2、使用注意力机制对文档中的句子进行加权,获取文档的向量表示v:
ui=tanh(Wshi+bs)
hi表示第i个句子的隐藏状态向量;ui是hi通过单层感知机得到的隐藏的表示;αi是衡量该句子在整个文档中的重要性权重;F是文档的向量表示;另外的参数Ws,bs,us为需要学习的模型参数。
步骤S5、使用大规模语料来训练基于LDA主题模型与分层神经网络的情感分类模型。
首先,对大规模文本数据集进行预处理,包括中文分词,噪声处理等;
设置LDA模型超参数,主题个数;Dirichlet先验分布超参数α=50/topic,主题个数根据数据集定。初始化神经网络的神经元个数,隐藏层状态向量维数,神经元参数,设置迭代学习次数,使用梯度下降法对模型进行训练。
然后通过上述模型的步骤,根据训练测试数据集的情感维度,假设数据集的情感维度是四,0代表高兴,1代表悲伤,2代表兴奋,3代表中立,不悲不喜,可以获得每篇文档的情感所属,假设文档的情感为高兴,则模型输出0;假设文档的情感为悲伤,则模型输出为1,其余同理可推。
Claims (6)
1.基于LDA主题模型与分层神经网络的情感分类方法,其特征在于,包括以下步骤:
S1、将文档输入LDA主题模型获得文档的文档-主题分布和主题-词分布;
S2、将文档以标点符号划分为句子,以句子为单位进行分词,并将句中的词汇表示为词向量,输入到双向循环神经网络中,获取词汇的隐藏状态向量;
S3、在词汇层面,获取词级别的主题特征向量,结合词汇的隐藏状态向量,使用注意力机制对句子中的词汇进行加权,形成句子的向量表示;
S4、在句子层面,将句子向量输入到双向循环神经网络中,获得句子的隐藏状态向量后,使用注意力机制对文档中的句子进行加权,获取文档的向量表示。
2.根据权利要求1所述基于LDA主题模型与分层神经网络的情感分类方法,其特征在于:所述文档-主题分布和主题-词分布分别为:每篇文档分属K个主题的概率分布和每个主题下V个词汇的概率分布。
3.根据权利要求1或2所述基于LDA主题模型与分层神经网络的情感分类方法,其特征在于:所述LDA主题模型的处理过程为:
1)对于每一篇文档d=1,…,D,采样一个文档-主题分布θd~Dir(α);
2)对于每一个主题k=1,…,K,采样一个主题-词汇分布βk~Dir(η);
其中Mult(.)是多项式分布,Dir(.)是Dirichlet分布,θd是任一文档d的主题分布,α是分布的超参数,是一个K维向量,K代表主题个数;βk是任一主题K的词汇分布,η是分布的超参数,是一个V维向量,V代表数据集中所有文档中不重复的词的个数;文档-主题分布,主题-词汇分布是模型需要学习的参数,Zdv是隐变量,Wdv是可观察到的变量,D是文档集中的文档数量。
5.根据权利要求1所述基于LDA主题模型与分层神经网络的情感分类方法,其特征在于:所述步骤3具体包括:
S3.1、将LDA主题模型提取出的主题-词分布通过全连接层转化成低维主题嵌入ek,得到与词汇隐藏状态向量相同的维数;
S3.2、针对句中的每个词,计算出词与每个主题之间的关联权重;
S3.3、计算出词级别的主题特征向量;
S3.4、结合词汇的隐藏状态向量,使用注意力机制对句子中的词汇进行加权,形成句子的向量表示。
6.根据权利要求1所述基于LDA主题模型与分层神经网络的情感分类方法,其特征在于:步骤4所述具体包括:
S4.1、文档的第i个句子向量为si,i∈[1,L],传入到双向循环神经网络得到句子的隐藏状态向量hi;
S4.2、使用注意力机制对文档中的句子进行加权,获取文档的向量表示v。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010698706.5A CN111949790A (zh) | 2020-07-20 | 2020-07-20 | 基于lda主题模型与分层神经网络的情感分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010698706.5A CN111949790A (zh) | 2020-07-20 | 2020-07-20 | 基于lda主题模型与分层神经网络的情感分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111949790A true CN111949790A (zh) | 2020-11-17 |
Family
ID=73340705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010698706.5A Pending CN111949790A (zh) | 2020-07-20 | 2020-07-20 | 基于lda主题模型与分层神经网络的情感分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111949790A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112732872A (zh) * | 2021-01-12 | 2021-04-30 | 东南大学 | 面向生物医学文本的基于主题注意机制的多标签分类方法 |
CN112926311A (zh) * | 2021-02-03 | 2021-06-08 | 昆明理工大学 | 一种结合序列和主题信息的无监督方面词提取方法 |
CN113688241A (zh) * | 2021-08-31 | 2021-11-23 | 重庆大学 | 一种基于融合多级别主题情感模型的文本分类方法及装置 |
CN113779244A (zh) * | 2021-08-23 | 2021-12-10 | 华南师范大学 | 文档情感分类方法、装置、存储介质以及电子设备 |
CN114020901A (zh) * | 2021-09-27 | 2022-02-08 | 南京云创大数据科技股份有限公司 | 一种结合主题挖掘和情感分析的金融舆情分析方法 |
CN114676254A (zh) * | 2022-03-25 | 2022-06-28 | 青岛科技大学 | 基于主题感知的分层多注意网络的文本分类方法及系统 |
CN115879515A (zh) * | 2023-02-20 | 2023-03-31 | 江西财经大学 | 文档网络主题建模方法、变分邻域编码器、终端及介质 |
CN117743614A (zh) * | 2023-12-29 | 2024-03-22 | 中国科学院空天信息创新研究院 | 基于遥感多模态基础模型的遥感图像文本检索方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109189933A (zh) * | 2018-09-14 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 一种文本信息分类的方法及服务器 |
CN109241377A (zh) * | 2018-08-30 | 2019-01-18 | 山西大学 | 一种基于深度学习话题信息增强的文本文档表示方法和装置 |
CN109446331A (zh) * | 2018-12-07 | 2019-03-08 | 华中科技大学 | 一种文本情绪分类模型建立方法及文本情绪分类方法 |
CN110727765A (zh) * | 2019-10-10 | 2020-01-24 | 合肥工业大学 | 基于多注意力机制的问题分类方法、系统及存储介质 |
-
2020
- 2020-07-20 CN CN202010698706.5A patent/CN111949790A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241377A (zh) * | 2018-08-30 | 2019-01-18 | 山西大学 | 一种基于深度学习话题信息增强的文本文档表示方法和装置 |
CN109189933A (zh) * | 2018-09-14 | 2019-01-11 | 腾讯科技(深圳)有限公司 | 一种文本信息分类的方法及服务器 |
CN109446331A (zh) * | 2018-12-07 | 2019-03-08 | 华中科技大学 | 一种文本情绪分类模型建立方法及文本情绪分类方法 |
CN110727765A (zh) * | 2019-10-10 | 2020-01-24 | 合肥工业大学 | 基于多注意力机制的问题分类方法、系统及存储介质 |
Non-Patent Citations (4)
Title |
---|
ZICHAO YANG等: "hierarchical attention networks for document classification", 《NAACL 2016》 * |
刘广峰等: "基于主题注意力层次记忆网络的文档情感建模", 《四川大学学报(自然科学版)》 * |
曾俊杰: "基于深度学习的上下文感知和主题融合的机器问答研究", 《HTTPS://D.WANFANGDATA.COM.CN/THESIS/CHJUAGVZAXNOZXDTMJAYMTEYMDESCUQWMTC1NJMYNROIZ3FQD3QZN28%3D》 * |
滨城之恋心宽体胖: "Hierarchical Attention Networks for Document Classification 阅读笔记", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/26892711》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112732872A (zh) * | 2021-01-12 | 2021-04-30 | 东南大学 | 面向生物医学文本的基于主题注意机制的多标签分类方法 |
CN112926311A (zh) * | 2021-02-03 | 2021-06-08 | 昆明理工大学 | 一种结合序列和主题信息的无监督方面词提取方法 |
CN113779244A (zh) * | 2021-08-23 | 2021-12-10 | 华南师范大学 | 文档情感分类方法、装置、存储介质以及电子设备 |
CN113779244B (zh) * | 2021-08-23 | 2022-08-16 | 华南师范大学 | 文档情感分类方法、装置、存储介质以及电子设备 |
CN113688241A (zh) * | 2021-08-31 | 2021-11-23 | 重庆大学 | 一种基于融合多级别主题情感模型的文本分类方法及装置 |
CN113688241B (zh) * | 2021-08-31 | 2023-08-29 | 重庆大学 | 一种基于融合多级别主题情感模型的文本分类方法及装置 |
CN114020901A (zh) * | 2021-09-27 | 2022-02-08 | 南京云创大数据科技股份有限公司 | 一种结合主题挖掘和情感分析的金融舆情分析方法 |
CN114676254A (zh) * | 2022-03-25 | 2022-06-28 | 青岛科技大学 | 基于主题感知的分层多注意网络的文本分类方法及系统 |
CN115879515A (zh) * | 2023-02-20 | 2023-03-31 | 江西财经大学 | 文档网络主题建模方法、变分邻域编码器、终端及介质 |
CN117743614A (zh) * | 2023-12-29 | 2024-03-22 | 中国科学院空天信息创新研究院 | 基于遥感多模态基础模型的遥感图像文本检索方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111949790A (zh) | 基于lda主题模型与分层神经网络的情感分类方法 | |
CN110765775B (zh) | 一种融合语义和标签差异的命名实体识别领域自适应的方法 | |
Zhang et al. | A text sentiment classification modeling method based on coordinated CNN‐LSTM‐attention model | |
CN107832400B (zh) | 一种基于位置的lstm和cnn联合模型进行关系分类的方法 | |
Lai et al. | Fine-grained emotion classification of Chinese microblogs based on graph convolution networks | |
CN109582785A (zh) | 基于文本向量与机器学习的突发事件舆情演化分析方法 | |
CN114462420A (zh) | 一种基于特征融合模型的虚假新闻检测方法 | |
CN111581383A (zh) | 一种基于ERNIE-BiGRU的中文文本分类方法 | |
CN112163089B (zh) | 一种融合命名实体识别的高技术文本分类方法及系统 | |
CN115630653A (zh) | 一种基于BERT与BiLSTM的网络流行语情感分析方法 | |
CN117932066A (zh) | 一种基于预训练的“提取-生成”式答案生成模型及方法 | |
CN114897078B (zh) | 基于深度学习和主题模型的短文本相似度计算方法 | |
Luo | Research and implementation of text topic classification based on text CNN | |
CN116578705A (zh) | 基于预训练语言模型与集成神经网络的微博情感分类方法 | |
Wu et al. | Charcaps: character-level text classification using capsule networks | |
CN114385813A (zh) | 基于多特征融合的水环境文本方面级观点挖掘方法 | |
Kim | Text classification based on neural network fusion | |
Yu et al. | Multi-module Fusion Relevance Attention Network for Multi-label Text Classification. | |
CN117708336A (zh) | 一种基于主题增强和知识蒸馏的多策略情感分析方法 | |
Kim | Research on text classification based on deep neural network | |
CN115033689B (zh) | 一种基于小样本文本分类原型网络欧氏距离计算方法 | |
CN115577072A (zh) | 一种基于深度学习的短文本情感分析方法 | |
CN115169348A (zh) | 一种基于混合神经网络的事件抽取方法 | |
Zhang et al. | Construction and Research on Chinese Semantic Mapping Based on Linguistic Features and Sparse Self‐Learning Neural Networks | |
Chen et al. | Research and analysis of psychological data based on machine learning methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201117 |