CN107203600B - 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 - Google Patents
一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 Download PDFInfo
- Publication number
- CN107203600B CN107203600B CN201710334063.4A CN201710334063A CN107203600B CN 107203600 B CN107203600 B CN 107203600B CN 201710334063 A CN201710334063 A CN 201710334063A CN 107203600 B CN107203600 B CN 107203600B
- Authority
- CN
- China
- Prior art keywords
- answer
- question
- answers
- model
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001364 causal effect Effects 0.000 title claims abstract description 25
- 230000007246 mechanism Effects 0.000 title claims abstract description 23
- 230000002708 enhancing effect Effects 0.000 title claims description 9
- 238000011156 evaluation Methods 0.000 title description 5
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims abstract description 32
- 230000014509 gene expression Effects 0.000 claims abstract description 18
- 238000012163 sequencing technique Methods 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 12
- 238000005457 optimization Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 239000013604 expression vector Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种利用刻画因果依赖关系和时序影响机制来提高答案质量排序的评判方法。包括如下步骤:1)把每个问题及其按照时间先后顺序排序的答案作为训练数据集;2)对训练集中的文本通过Paragraph2Vec模型进行无监督学习,得到文本表达模型,并分别构建问题和答案的隐性表达;3)将问题与答案之间的因果依赖关系和答案与答案之间的时序影响机制引入传统的长短时记忆模型;4)基于问题与答案的隐性表达,使用学习后所得到的问答排序模型对问题的候选答案进行排序。相比一般的答案质量评判方法,本发明进一步发掘答案与答案之间基于时序的相互影响,揭示高质量答案的形成规律。本发明在答案质量排序中所取得的性能较传统的基于文本和语义关联性的评判方法更好。
Description
技术领域
本发明涉及问答文本检索,尤其涉及一种利用刻画因果依赖关系和时序影响机制增强答案质量排序方法。
背景技术
问答检索是具有现实意义的重要技术领域,而依据问答文本的语义关联性对其进行排序是这一领域中的一项重要技术。这项技术在检索过程中,对问题与其每一个候选答案的关联性高低进行排序,并将排序结果展现给用户,在答案质量排序应用中有巨大的价值。
传统的答案质量排序方法,一般先为问答数据学习一个语义空间,再将问题与答案分别映射在该语义空间中,形成相应的特征向量。之后使用一个人工指定的关联性度量函数或者机器学习的方法计算问题和每一个候选答案间的关联性,最后再依照关联性高低对答案质量进行排序。这种方法将语义空间中的特征向量作为问答数据的表示,仅考虑问题答案之间的语义关联性(即本文中所说的“因果依赖关系”),而忽略了同一问题下候选答案之间的时序影响,因此难以挖掘答案之间原本存在的复杂影响机制。
利用刻画因果依赖关系和时序影响机制增强答案质量排序方法能够有效弥补上述传统方法中的不足。本方法在传统的长短时记忆模型中引入了问答数据中常见的问题与答案之间的因果依赖关系以及答案与答案之间的时序影响机制。相比一般的答案质量评判方法,本发明不仅局限于问题和答案之间的语义关联度,还进一步发掘答案之间基于时序的相互影响,揭示高质量答案的形成规律。
发明内容
本发明的目的在于解决现有技术中存在的问题,并提供一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法。本发明所采用的具体技术方案如下:
利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法,包括如下步骤:
1)构建排序用的问答训练数据集:将每个问题及其按照时间先后顺序排序的答案作为训练数据集;
2)对训练样本进行分词操作并去除训练样本中的噪音,使用Paragraph2Vec模型对处理后的问答数据进行无监督学习,得到文本表达模型,并利用文本表达模型分别构建问题与答案在语义空间中的隐性表达;
3)基于问题和答案在语义空间中的隐性表达,将问题与答案之间的因果依赖关系和答案与答案之间的时序影响机制引入长短时记忆模型进行学习,得到问答排序模型;
4)使用学习后所得到的问答排序模型对新问题下的候选答案进行排序:基于问题和答案在语义空间中的隐性表达,使用问答排序模型对问题与每一个答案的关联性进行评分,根据关联性评分的高低对问题的候选答案进行分数排序,最后输出答案质量排序结果。
上述步骤可具体采用如下实现方式:
所述的步骤1)包括:
1)对于任意问题qi∈Q,i∈{1,2,…N},其中N为问题集Q中问题的数量,从答案集A中得到其候选答案ai,1,ai,2,ai,3…ai,K分别对应的发布时间Ti,1,Ti,2,Ti,3…Ti,K,其中K为问题qi下候选答案的数量;
2)按照时间先后顺序对Ti,1,Ti,2,Ti,3…Ti,K进行排序,得到时间序列T1,T2,T3…TK,同时根据时间Ti,1,Ti,2,Ti,3…Ti,K的先后顺序对答案进行排序,发表时间较早的答案排在靠前的位置;
所述的步骤2)包括:
1)使用分词工具对所得到的问答数据进行分词处理,对分词结果中不同词{w1,w2,w3…wn}的出现频率{f1,f2,f3…fn}进行统计;
2)针对统计结果,设定最高阈值fl与最低阈值fu,对于wi∈{w1,w2,w3…wn},如果fi<fl或者fi>fu,则从数据中删除单词wi;
3)若wi为停止词,则从数据中删除单词wi;
4)使用Paragraph2Vec对训练集中的所有问答数据进行无监督学习,得到问题和答案的特征表达向量,问题和答案分别被表示为vq∈Rd和va∈Rd,其中d为文本在语义特征空间的维数。
所述的步骤3)包括:
1)基于传统长短时记忆模型,使模型的结构单元接收当前时间节点t前所有时间节点的隐输出h(i),其中1≤i≤t-1;模型的结构单元再通过设置权重系数αi,将所接收的隐输出加权求和,得到新的向量m(t),其定义如下:
2)在模型训练过程中,模型在第一个时间节点读入一个训练样本中的问题向量vqi,将该节点作为问题节点,问题节点产生其对应的隐输出h(1);模型在之后的每一个时间节点都读入该训练样本中的一个答案向量这些节点作为答案节点,答案节点产生其对应的隐输出h(t),t≥2;对于每一个答案节点,其接收的信息来源分为以下三种:第一种为答案向量 第二种为问题节点的隐输出h(1);第三种为当前答案节点之前的所有答案节点的隐输出h(2),h(3)…h(t-1);
其中,模型通过接收隐输出h(1)保留问题与答案之间的因果依赖关系,接收隐输出h(2),h(3)…h(t-1)得到答案与答案之间的时序影响机制;
3)模型训练过程中,α1保持初始值不变,对于其他的αi,在训练的过程中按照如下公式进行更新:
其中h(t)tmp为当前答案节点在所有αi(2≤i≤t-1)更新前的隐输出;
4)构建关联度匹配函数s(q,a):
s(q,a)=σ(qTMa)
其中M为问题与答案的关联性度量矩阵,q为问题节点的隐输出,a为答案节点的隐输出,σ(·)为sigmoid函数;在关联度匹配函数基础上,定义损失函数l(t)如下:
l(t)=max{0,γ-s(q,abest)+s(q,a′)}
其中,abest为问题q的最佳答案,a′为其他的候选答案,γ为超参数;
使用随机梯度下降算法求解损失函数,得到模型的参数,该优化等价于如下无约束优化问题:
所述的步骤4)包括:
1)给定一个问题与该问题下按照时序发表的答案,将问题与答案按序读入模型;
2)根据评分结构对答案进行排序,其结果即为答案质量排序结果。
相比一般的答案质量评判方法,本发明进一步发掘答案与答案之间基于时序的相互影响,揭示高质量答案的形成规律。本发明在答案质量排序中所取得的性能较传统的基于文本和语义关联度的评判方法更好。
附图说明
图1是基于因果依赖关系和时序影响机制的长短时记忆模型的神经单元结构图;
图2是基于因果依赖关系和时序影响机制的长短时记忆模型答案节点权重α更新示意图;
图3是利用刻画因果依赖关系和时序影响机制增强答案质量排序方法示意图。
具体实施方式
下面结合附图和具体实施方式对本发明做进一步阐述和说明。
如图3所示,利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法,包括如下步骤:
1)构建排序用的问答训练数据集:将每个问题及其按照时间先后顺序排序的答案作为训练数据集。具体通过如下子步骤实现:
1.1)对于任意问题qi∈Q,i∈{1,2,…N},其中N为问题集Q中问题的数量,从答案集A中得到其候选答案ai,1,ai,2,ai,3…ai,K分别对应的发布时间Ti,1,Ti,2,Ti,3…Ti,K,其中K为问题qi下候选答案的数量;
1.2)按照时间先后顺序对Ti,1,Ti,2,Ti,3…Ti,K进行排序,得到时间序列T1,T2,T3…TK,同时根据时间Ti,1,Ti,2,Ti,3…Ti,K的先后顺序对答案进行排序,发表时间较早的答案排在靠前的位置;
2)对训练样本进行分词操作并去除训练样本中的噪音,使用Paragraph2Vec模型对处理后的问答数据进行无监督学习,得到文本表达模型,并利用文本表达模型分别构建问题与答案在语义空间中的隐性表达。具体通过如下子步骤实现:
2.1)使用分词工具对所得到的问答数据进行分词处理,对分词结果中不同词{w1,w2,w3…wn}的出现频率{f1,f2,f3…fn}进行统计;
2.2)针对统计结果,设定最高阈值fl与最低阈值fu,对于wi∈{w1,w2,w3…wn},如果fi<fl或者fi>fu,则从数据中删除单词wi;
2.3)若wi为停止词,则从数据中删除单词wi;
2.4)使用Paragraph2Vec对训练集中的所有问答数据进行无监督学习,得到问题和答案的特征表达向量,问题和答案分别被表示为vq∈Rd和va∈Rd,其中d为文本在语义特征空间的维数。
3)改造传统的长短时记忆模型的结构,得到基于因果依赖关系和时序影响机制的长短记忆模型,基于问题和答案在语义空间中的隐性表达,将问题与答案之间的因果依赖关系和答案与答案之间的时序影响机制引入长短时记忆模型进行学习,得到问答排序模型。具体通过如下子步骤实现:
3.1)为了在问答排序系统中引入因果依赖关系和时序影响机制,在传统长短时记忆模型的结构上进行修改,得到基于因果依赖关系和时序影响机制的长短时记忆模型,该模型的神经单元结构图如图1所示:
其中,x(t)为当前时间节点的输入,{h(1),h(2),h(3)…h(t-1)}为前t-1个时间节点的隐输出,×与+分别为两个向量相应元素相乘和相加的操作,σ(·)为Sigmoid函数,其定义为:
tanh为tanh函数,其定义为:
i(t),o(t),c(t),f(t),s(t)与h(t)定义如下:
i(t)=σ[Wixx(t)+Wimm(t)+bi]
o(t)=σ[Woxx(t)+Womm(t)+bo]
c(t)=σ[Wcxx(t)+Wcmm(t)+bc]
f(t)=σ[Wfxx(t)+Wfmm(t)+bf]
s(t)=c(t)·i(t)+s(t-1)·f(t)
h(t)=o(t)·tanh(s(t))
其中W*x,W*m为参数矩阵,b*为偏移向量。
不同于传统长短时记忆模型,本模型的结构单元会接收当前时间节点前所有时间节点的隐输出h(i),其中1≤i≤t-1。模型的结构单元会通过设置权重系数αi,将所接收的隐输出加权求和,得到新的向量m(t),定义如下:
其中αi∈[0,1]并且初始化α1和其他α的过程不相同:α1为手工初始化,即人为设定α1的初始值;其他的α初始化为(1-α1)/(t-2)。m(t)将作为当前时间节点的隐输入,参与当前时间节点结构单元中各个门的计算。
3.2)在模型训练过程中,模型在第一个时间节点读入一个训练样本中的问题向量vqi,称该节点为问题节点,问题节点产生其对应的隐输出h(1);模型在之后的每一个时间节点都会读入该训练样本中的一个答案向量这些节点被称为答案节点,答案节点产生其对应的隐输出h(t),t≥2。对于每一个答案节点,其接收的信息来源分为以下三种:
b.问题节点的隐输出h(1);
c.当前答案节点之前的所有答案节点的隐输出h(2),h(3)…h(t-1);
其中,模型接收隐输出h(1)可以保留问题与答案之间的因果依赖关系,接收隐输出h(2),h(3)…h(t-1)可以得到答案与答案之间的时序影响机制;
3.3)模型训练过程中,α1始终保持初始值不变。由于α1反映出问题与答案之间因果依赖关系的重要程度,为了探索其重要性,α1的初始值会按照0.01的步长从0.01到0.99进行调整,直到在评测指标上得到最好的结果。对于其他的αi,其反映了发表时间较早的答案对当前答案的时序影响程度,它们在训练的过程中会按照如下公式进行更新:
其中h(t)tmp为当前答案节点再所有αi(2≤i≤t-1)更新前的隐输出。对于所有的答案节点,其α更新的过程如图2所示:其中(a)、(b)分别为α更新前和更新后,答案节点的计算过程。
3.4)构建关联度匹配函数s(q,a):
s(q,a)=σ(qTMa)
其中M为问题与答案的关联性度量矩阵,q为问题节点的隐输出,a为答案节点的隐输出,σ(·)为sigmoid函数;在关联度匹配函数基础上,定义损失函数l(t)如下:
l(t)=max{0,γ-s(q,abest)+s(q,a′)}
其中,abest为问题q的最佳答案,a′为其他的候选答案,γ为超参数;
使用随机梯度下降算法求解损失函数,得到模型的参数,该优化等价于如下无约束优化问题:
4)使用学习后所得到的问答排序模型对新问题下的候选答案进行排序:基于问题和答案在语义空间中的隐性表达,使用问答排序模型对问题与每一个答案的关联性进行评分,根据关联性评分的高低对问题的候选答案进行分数排序,最后输出答案质量排序结果。具体通过如下子步骤实现:
1)给定一个问题与该问题下按照时序发表的答案,将问题与答案按序读入模型;
2)根据评分结构对答案进行排序,其结果即为答案质量排序结果。
下面将上述方法应用于下列实施例中,以体现本发明的技术效果,实施例中具体步骤不再赘述。
实施例
本发明在百度知道中文数据集上进行答案质量排序实验。该数据集包含了100398个问题和308725个答案。每个问题只有一个最佳答案。每个问题的候选答案都有发表时间和被点赞数的标注。每一个问题或者答案被表达为300维的特征向量。为了客观地评价本发明的算法的性能,使用nDCG(normalized Discounted Cumulative Gain),P@1(Precision@1),Accuracy和MRR(Mean Reciprocal Rank)对本发明进行评价。按照具体实施方式中描述的步骤,所得的实验结果如下:
nDCG | P@1 | Accuracy | MRR |
0.9233 | 0.7157 | 0.8004 | 0.8155 |
Claims (2)
1.一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法,其特征在于,包括如下步骤:
1)构建排序用的问答训练数据集:将每个问题及其按照时间先后顺序排序的答案作为训练数据集;
2)对训练样本进行分词操作并去除训练样本中的噪音,使用Paragraph2Vec模型对处理后的问答数据进行无监督学习,得到文本表达模型,并利用文本表达模型分别构建问题与答案在语义空间中的隐性表达;
3)基于问题和答案在语义空间中的隐性表达,将问题与答案之间的因果依赖关系和答案与答案之间的时序影响机制引入长短时记忆模型进行学习,得到问答排序模型;
4)使用学习后所得到的问答排序模型对新问题下的候选答案进行排序:基于问题和答案在语义空间中的隐性表达,使用问答排序模型对问题与每一个答案的关联性进行评分,根据关联性评分的高低对问题的候选答案进行分数排序,最后输出答案质量排序结果;
所述的步骤1)包括:
1.1)对于任意问题qi∈Q,i∈{1,2,…N},其中N为问题集Q中问题的数量,从答案集A中得到其候选答案ai,1,ai,2,ai,3…ai,K分别对应的发布时间Ti,1,Ti,2,Ti,3…Ti,K,其中K为问题qi下候选答案的数量;
1.2)按照时间先后顺序对Ti,1,Ti,2,Ti,3…Ti,K进行排序,得到时间序列T1,T2,T3…TK,同时根据时间Ti,1,Ti,2,Ti,3…Ti,K的先后顺序对答案进行排序,发表时间较早的答案排在靠前的位置;
所述的步骤2)包括:
2.1)使用分词工具对所得到的问答数据进行分词处理,对分词结果中不同词{w1,w2,w3…wn}的出现频率{f1,f2,f3…fn}进行统计;
2.2)针对统计结果,设定最高阈值fl与最低阈值fu,对于wi∈{w1,w2,w3…wn},如果fi<fl或者fi>fu,则从数据中删除单词wi;
2.3)若wi为停止词,则从数据中删除单词wi;
2.4)使用Paragraph2Vec对训练集中的所有问答数据进行无监督学习,得到问题和答案的特征表达向量,问题和答案分别被表示为vq∈Rd和va∈Rd,其中d为文本在语义特征空间的维数;
所述的步骤3)包括:
3.1)基于传统长短时记忆模型,使模型的结构单元接收当前时间节点t前所有时间节点的隐输出h(i),其中1≤i≤t-1;模型的结构单元再通过设置权重系数αi,将所接收的隐输出加权求和,得到新的向量m(t),其定义如下:
3.2)在模型训练过程中,模型在第一个时间节点读入一个训练样本中的问题向量将该节点作为问题节点,问题节点产生其对应的隐输出h(1);模型在之后的每一个时间节点都读入该训练样本中的一个答案向量这些节点作为答案节点,答案节点产生其对应的隐输出h(t),t>2;对于每一个答案节点,其接收的信息来源分为以下三种:第一种为答案向量 第二种为问题节点的隐输出h(1);第三种为当前答案节点之前的所有答案节点的隐输出h(2),h(3)…h(t-1);
其中,模型通过接收隐输出h(1)保留问题与答案之间的因果依赖关系,接收隐输出h(2),h(3)…h(t-1)得到答案与答案之间的时序影响机制;
3.3)模型训练过程中,α1保持初始值不变,对于其他的αi,在训练的过程中按照如下公式进行更新:
其中h(t)tmp为当前答案节点在所有αi(2≤i≤t-1)更新前的隐输出;
3.4)构建关联度匹配函数s(q,a):
s(q,a)=σ(qTMa)
其中M为问题与答案的关联性度量矩阵,q为问题节点的隐输出,a为答案节点的隐输出,σ(·)为sigmoid函数;在关联度匹配函数基础上,定义损失函数l(t)如下:
l(t)=max{0,γ-s(q,abest)+s(q,a′)}
其中,abest为问题q的最佳答案,a′为其他的候选答案,γ为超参数;
使用随机梯度下降算法求解损失函数,得到模型的参数,该优化等价于如下无约束优化问题:
2.根据权利要求1所述的利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法,其特征在于,所述的步骤4)包括:
4.1)给定一个问题与该问题下按照时序发表的答案,将问题与答案按序读入模型;
4.2)根据评分结构对答案进行排序,其结果即为答案质量排序结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710334063.4A CN107203600B (zh) | 2017-05-12 | 2017-05-12 | 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710334063.4A CN107203600B (zh) | 2017-05-12 | 2017-05-12 | 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107203600A CN107203600A (zh) | 2017-09-26 |
CN107203600B true CN107203600B (zh) | 2020-09-18 |
Family
ID=59906107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710334063.4A Active CN107203600B (zh) | 2017-05-12 | 2017-05-12 | 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107203600B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108388568A (zh) * | 2018-01-04 | 2018-08-10 | 浙江大学 | 一种利用排序标准网络学习解决社区问答任务的方法 |
CN108960574A (zh) * | 2018-06-07 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 问答的质量确定方法、装置、服务器和存储介质 |
CN109213847A (zh) * | 2018-09-14 | 2019-01-15 | 广州神马移动信息科技有限公司 | 答案的分层方法及其装置、电子设备、计算机可读介质 |
CN111382573A (zh) * | 2018-12-12 | 2020-07-07 | 百度在线网络技术(北京)有限公司 | 用于答案质量评估的方法、装置、设备和存储介质 |
CN111488438B (zh) * | 2020-02-21 | 2022-07-29 | 天津大学 | 一种问答匹配注意力处理方法、计算机设备及存储介质 |
CN111783473B (zh) * | 2020-07-14 | 2024-02-13 | 腾讯科技(深圳)有限公司 | 医疗问答中最佳答案的识别方法、装置和计算机设备 |
CN112507090B (zh) * | 2020-11-30 | 2024-05-03 | 北京百度网讯科技有限公司 | 用于输出信息的方法、装置、设备和存储介质 |
CN112509690B (zh) | 2020-11-30 | 2023-08-04 | 北京百度网讯科技有限公司 | 用于控制质量的方法、装置、设备和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104317834A (zh) * | 2014-10-10 | 2015-01-28 | 浙江大学 | 一种基于深度神经网络的跨媒体排序方法 |
CN105893523A (zh) * | 2016-03-31 | 2016-08-24 | 华东师范大学 | 利用答案相关性排序的评估度量来计算问题相似度的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9508340B2 (en) * | 2014-12-22 | 2016-11-29 | Google Inc. | User specified keyword spotting using long short term memory neural network feature extractor |
-
2017
- 2017-05-12 CN CN201710334063.4A patent/CN107203600B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104317834A (zh) * | 2014-10-10 | 2015-01-28 | 浙江大学 | 一种基于深度神经网络的跨媒体排序方法 |
CN105893523A (zh) * | 2016-03-31 | 2016-08-24 | 华东师范大学 | 利用答案相关性排序的评估度量来计算问题相似度的方法 |
Non-Patent Citations (3)
Title |
---|
Answer Sequence Learning with Neural Networks for Answer Selection in Community QuestionAnswering;Xiaoqiang Zhou等;《53rd Annual Meeting of the Association-for-Computational-Linguistics (ACS) / 7th International Joint Conference on Natural Language Processing of the Asian-Federation-of-Natural-Language-Processing (IJCNLP)》;20151231;第713-718页 * |
Distributed Representations of Sentences and Document;Quoc Le等;《Proceedings of the 31 st International Conference on Machine Learning》;20140522;第12卷;第1188-1196页 * |
基于LSTM的英文文本蕴含识别方法研究;刘阳;《中国优秀硕士学位论文全文数据库》;20170215(第2期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107203600A (zh) | 2017-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107203600B (zh) | 一种利用刻画因果依赖关系和时序影响机制增强答案质量排序的评判方法 | |
CN111177374B (zh) | 一种基于主动学习的问答语料情感分类方法及系统 | |
CN114998602B (zh) | 基于低置信度样本对比损失的域适应学习方法及系统 | |
CN115270752A (zh) | 一种基于多层次对比学习的模板句评估方法 | |
CN113408418A (zh) | 一种书法字体与文字内容同步识别方法及系统 | |
CN113902129A (zh) | 多模态的统一智能学习诊断建模方法、系统、介质、终端 | |
CN112232395A (zh) | 一种基于联合训练生成对抗网络的半监督图像分类方法 | |
CN110120231B (zh) | 基于自适应半监督非负矩阵分解的跨语料情感识别方法 | |
CN111797609A (zh) | 模型训练方法及装置 | |
CN113806543B (zh) | 一种基于残差跳跃连接的门控循环单元的文本分类方法 | |
Esuli et al. | Training data cleaning for text classification | |
WO2021147405A1 (zh) | 客服语句质检方法及相关设备 | |
CN110334204B (zh) | 一种基于用户记录的习题相似度计算推荐方法 | |
CN110738270B (zh) | 基于均值迭代的多任务学习模型训练以及预测方法 | |
CN113704464B (zh) | 基于网络新闻的时评类作文素材语料库的构建方法及系统 | |
CN118152521A (zh) | 一种基于文本改写的检索增强生成方法 | |
Basturk et al. | The R package MitISEM: Efficient and robust simulation procedures for Bayesian inference | |
CN116958548A (zh) | 基于类别统计驱动的伪标签自蒸馏语义分割方法 | |
CN113963235A (zh) | 一种跨类别图像识别模型重用方法和系统 | |
CN110162629B (zh) | 一种基于多基模型框架的文本分类方法 | |
CN114328923A (zh) | 一种基于多任务双边分支网络的引文意图分类方法 | |
CN112364662A (zh) | 一种基于神经网络的意图识别方法及电子装置 | |
CN114692615A (zh) | 一种针对小语种的小样本意图识别方法 | |
CN112651242A (zh) | 一种基于内外注意力机制和可变尺度卷积的文本分类方法 | |
CN114595337B (zh) | 一种基于gmm构建课程知识图谱的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |