Nothing Special   »   [go: up one dir, main page]

CN108920654A - 一种问答文本语义匹配的方法和装置 - Google Patents

一种问答文本语义匹配的方法和装置 Download PDF

Info

Publication number
CN108920654A
CN108920654A CN201810718708.9A CN201810718708A CN108920654A CN 108920654 A CN108920654 A CN 108920654A CN 201810718708 A CN201810718708 A CN 201810718708A CN 108920654 A CN108920654 A CN 108920654A
Authority
CN
China
Prior art keywords
candidate
customer issue
training
matching attribute
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810718708.9A
Other languages
English (en)
Other versions
CN108920654B (zh
Inventor
李渊
贺国秀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taikang Insurance Group Co Ltd
Taikang Online Property Insurance Co Ltd
Original Assignee
Taikang Insurance Group Co Ltd
Taikang Online Property Insurance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taikang Insurance Group Co Ltd, Taikang Online Property Insurance Co Ltd filed Critical Taikang Insurance Group Co Ltd
Priority to CN201810718708.9A priority Critical patent/CN108920654B/zh
Publication of CN108920654A publication Critical patent/CN108920654A/zh
Application granted granted Critical
Publication of CN108920654B publication Critical patent/CN108920654B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供了一种问答文本语义匹配的方法,包括:接收客户问题;依据所述客户问题获取与所述客户问题对应的至少两个候选信息,每个所述候选信息包含候选答案和候选问题;依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。结合多因素分析候选信息与客户问题的匹配程度,提高了准确度。

Description

一种问答文本语义匹配的方法和装置
技术领域
本申请涉及电子设备领域,更具体的说,是涉及一种问答文本语义匹配的方法和装置。
背景技术
智能问答系统通过分析客户问题的真实意图,依据候选问题答案的匹配程度返回正确匹配答案。智能问答系统主要由客户问题理解、信息检索和答案生成组成。
传统问答系统中的文本语义匹配技术,主要运用的机器学习模型需要手工进行文本特征的提取,存在着主观误差,机器学习模型泛化能力不足。在实际工程应用中,工作人员需要对大量文本数据进行标注,主要是依据数据标注者的工作经验知识来标注这些文本数据并提取其特征信息,这样的做法使得文本特征工程质量不高,而却需要大量工作时间。而且,在传统问答系统中考虑问答文本语义匹配信息不全面,仅是针对客户问题和候选答案的匹配值进行计算,匹配最高的候选答案作为客户问题的回复答案。采用该方法,仅考虑后续答案与客户问题的匹配值,语义匹配因子单一,准确度较低。
发明内容
有鉴于此,本申请提供了一种问答文本语义匹配的方法,解决了现有技术中问答系统由于语义匹配因子单一导致的准确度低的问题。
为实现上述目的,本申请提供如下技术方案:
一种问答文本语义匹配的方法,包括:
接收客户问题;
依据所述客户问题获取与所述客户问题对应的至少两个候选信息,每个所述候选信息包含候选答案和候选问题;
依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
上述的方法,优选的,依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子,包括:
分别获取客户问题、候选问题和候选答案的特征向量序列,所述特征向量序列具有上下文局部特征;
根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,并根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子;
根据所述客户问题的特征向量序列和所述候选问题的特征向量序列,得到第二特征向量相似度得分矩阵,并根据所述第二特征向量相似度得分矩阵确定所述客户问题和所述候选问题的第二匹配因子。
上述的方法,优选的,所述分别获取客户问题、候选问题和候选答案的特征向量序列,包括:
依据预设的专业词典以及分词规则,分别对所述客户问题、候选问题和候选答案进行分词处理,得到客户问题词组、候选问题词组和候选答案词组;
分别将所述客户问题词组、候选问题词组和候选答案词组进行词向量转化,得到客户问题词向量序列、候选问题词向量序列、候选答案词向量序列;
利用预设的双向长短时记忆网络Bi-LSTM捕获客户问题词向量序列、候选问题词向量序列、候选答案词向量序列的上下文局部特征,分别得到客户问题、候选问题和候选答案的特征向量序列。
上述的方法,优选的,所述根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,包括:
利用预设的文本相似度计算公式计算客户问题特征向量序列和候选答案特征向量序列,得到第一特征向量相似度得分矩阵。
上述的方法,优选的,所述根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子,包括:
采用预设筛选算法从所述第一特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成文本特征向量;
对文本特征向量进行语义匹配的二分类判断,并将判断结果对应的语义匹配概率作为第一匹配因子。
上述的方法,优选的,所述根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值,包括:
将任一候选信息的第一匹配因子与第二匹配因子进行加权求和计算,得到所述候选信息的匹配值。
上述的方法,优选的,所述接收客户问题之前,还包括:
预设深度学习模型和根据匹配因子计算候选信息的匹配值的计算规则,所述深度学习模型用于计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
其中,所述深度学习模型的预设过程通过训练所述深度学习模型实现,训练所述深度学习模型的过程具体包括:
获取与训练客户问题对应的至少两个训练候选信息,每个训练候选信息包括训练候选问题和训练候选答案;
基于所述深度学习模型分别获取训练客户问题、所述至少两个训练候选信息的特征向量序列;
基于所述深度学习模型根据所述训练客户问题的特征向量序列和所述训练候选答案的特征向量序列,得到第一训练特征向量相似度得分矩阵;
基于所述深度学习模型以及所述训练客户问题的特征向量序列和所述训练候选问题的特征向量序列,得到第二训练特征向量相似度得分矩阵;
基于所述深度学习模型的预设筛选算法从所述第一训练特征向量相似度得分矩阵和第二训练特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成训练文本特征向量;
基于所述深度学习模型的分类器对训练文本特征向量进行语义匹配的二分类判断,并对得到的预测结果使用梯度下降法训练所述深度学习模型的参数,并输出训练结果;
当所述训练结果满足预设条件时,记录所述深度学习模型的参数,以使得所述深度学习模型基于所述参数对客户问题确定回复答案。
一种问答文本语义匹配的装置,包括:
接收模块,用于接收客户问题;
获取模块,用于依据所述客户问题获取与所述客户问题对应的至少两个候选信息,任一所述候选信息包含至少两个因素;
第一计算模块,用于依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
第二计算模块,用于根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
选择模块,用于选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述任一项所述的问答文本语义匹配的方法。
一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述任一项所述的问答文本语义匹配的方法。
经由上述的技术方案可知,与现有技术相比,本申请提供了一种问答文本语义匹配的方法,包括:接收客户问题;依据所述客户问题获取与所述客户问题对应的至少两个候选信息,每个所述候选信息包含候选答案和候选问题;依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。采用该方法,通过多个因素组成的候选信息与客户问题进行分析,得到多个匹配因子,而基于该多个匹配因子计算得到该匹配因子对应的候选信息与该客户问题的匹配值,进而选择匹配值最大的候选信息中的候选答案作为与该客户问题对应的回复答案。该方案中,候选信息中包含有多个因素,结合该多个因素分析该候选信息与客户问题的匹配程度,提高了准确度。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的一种问答文本语义匹配的方法实施例1的流程图;
图2为本申请提供的一种问答文本语义匹配的方法实施例2的流程图;
图3为本申请提供的一种问答文本语义匹配的方法实施例3的流程图;
图4为本申请提供的一种问答文本语义匹配的方法实施例4的流程图;
图5为本申请提供的一种问答文本语义匹配的方法具体应用场景中对客户问题进行处理的过程示意图;
图6为本申请提供的一种问答文本语义匹配的装置实施例的结构示意图;
图7为本申请提供的一种电子设备实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1所示的,为本申请提供的一种问答文本语义匹配的方法实施例1的流程图,该方法应用于一电子设备,该电子设备具有问答文本语义匹配的功能,该方法包括以下步骤:
步骤S101:接收客户问题;
其中,该客户问题是客户提出的问题,需要对该客户问题进行语义匹配,从若干个候选答案中得到与其最匹配的答案。
步骤S102:依据所述客户问题获取与所述客户问题对应的至少两个候选信息;
其中,每个所述候选信息包含候选答案和候选问题。
其中,预设有数据库,该数据库中预设有海量的候选问题和候选答案组成候选对。
具体的,基于该客户问题在数据库中进行查找,可以查找到与该客户问的对应的多个候选信息,每个候选信息中包含有一个候选问题和一个候选答案组成的候选对。
具体实施中,基于该客户问题可以在数据库中进行粗略查找,能够查找到与该客户问题相关的多个候选信息,在后续步骤中对该多个候选信息与该客户问题的匹配度进行计算,确定回复的答案。
步骤S103:依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
具体实施中,根据获取到的候选答案和候选问题,可以采用预设的算法计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子。
具体实施中,该匹配因子具体可以为一个数值,该客户问题与候选答案的第一匹配因子的数值表征了客户问题与候选答案的匹配度,候选问题与客户问题的第二匹配因子的数值表征了该候选问题与客户问题的匹配度等。
需要说明的是,后续实施例中会针对该计算得到匹配因子的过程进行详细的解释,本实施例中不做详述。
步骤S104:根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
其中,该匹配因子分别表征了多个因素(候选答案和候选问题)与客户问题之间的匹配程度,在计算每个候选信息与客户问题之间的匹配度时,考虑了多个因素对应的匹配因子,提高了计算该候选信息与客户问题之间语义匹配的精确度。
步骤S105:选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
其中,计算得到该多个候选信息的匹配值,该候选信息的匹配值越大,表征该候选信息与该客户问题的匹配程度越高。
因此,从多个候选信息的匹配值中,选择匹配值最大的候选信息中的候选答案作为该客户问题的回复答案。
需要说明的是,在候选信息的匹配值计算过程中,分别考虑了与该客户问题对应的候选信息中的多个因素,提高了该候选信息与客户问题之间匹配度的计算精度,最终确定的回复答案的精确程度较高。
综上,本实施例提供的一种问答文本语义匹配的方法,包括:接收客户问题;依据所述客户问题获取与所述客户问题对应的至少两个候选信息,每个所述候选信息包含候选答案和候选问题;依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。采用该方法,通过多个因素组成的候选信息与客户问题进行分析,得到多个匹配因子,而基于该多个匹配因子计算得到该匹配因子对应的候选信息与该客户问题的匹配值,进而选择匹配值最大的候选信息中的候选答案作为与该客户问题对应的回复答案。该方案中,候选信息中包含有多个因素,结合该多个因素分析该候选信息与客户问题的匹配程度,提高了准确度。
如图2所示的,为本申请提供的一种问答文本语义匹配的方法实施例2的流程图,该方法包括以下步骤:
步骤S201:接收客户问题;
步骤S202:依据所述客户问题获取与所述客户问题对应的至少两个候选信息;
其中,步骤S201-202与实施例1中的步骤S101-102一致,本实施例中不做赘述。
步骤S203:分别获取客户问题、候选问题和候选答案的特征向量序列;
其中,所述特征向量序列具有上下文局部特征。
其中,电子设备中预设规则,对该客户问题、候选问题以及候选答案进行处理,获取其特征向量序列
具体的,本步骤S203,具体包括:
步骤S2031:依据预设的专业词典以及分词规则,分别对所述客户问题、候选问题和候选答案进行分词处理,得到客户问题词组、候选问题词组和候选答案词组;
其中,电子设备中预设专业词典和分词规则。
具体的,该专业词典中相应的包含有海量的本专业的词语。
如该专业词典为保险专业词典,例如该专业词典中可以包含保险专业的独有词语,如“微医保”等。
需要说明的是,具体实施中,该专业词典可以根据实际情况进行更新,以使得该专业词典中的词语能够涵盖最新的专业内容所涉及的词语。
其中,根据预设的分词规则结合该专业词典,对该客户问题、候选问题和候选答案分别进行分词处理,得到客户问题词组、候选问题词组和候选答案词组。
需要说明的是,对该候选问题或者候选答案进行分词,得到的分词数量可以相同,也可以不同,本实施例中不做限制。
步骤S2032:分别将所述客户问题词组、候选问题词组和候选答案词组进行词向量转化,得到客户问题词向量序列、候选问题词向量序列、候选答案词向量序列;
其中,对该客户问题词组、候选问题词组和候选答案词组分别进行词向量序列转化,得到对应的词向量序列(客户问题词向量序列、候选问题词向量序列、候选答案词向量序列)。
具体实施中,可以采用keras(深度学习框架)的embedding(嵌入层)层执行该词向量序列转化的过程。
具体实施中,为了方便词向量序列的计算,对词向量序列进行长度阈值限定,词少时可以用0补充,词数量大于限定阈值就截取阈值数量的词。
步骤S2033:利用预设的Bi-LSTM(Bidirectional long short term memory,双向长短时记忆网络)捕获客户问题词向量序列、候选问题词向量序列、候选答案词向量序列的上下文局部特征,分别得到客户问题、候选问题和候选答案的特征向量序列。
其中,将该客户问题词向量序列、候选问题词向量序列、候选答案词向量序列分别输入Bi-LSTM(Bidirectional long short term memory,双向长短时记忆网络)中进行处理。
具体实施中,将词向量序列输入深度神经网络进行处理,得到特征向量序列的过程中,首先将该词向量序列输入Bi-LSTM,在该Bi-LSTM内部,将该词向量序列处理得到倒序词向量序列后,将该词向量序列(正序)和该倒序词向量处理分别输入两个LSTM(longshort term memory,长短时记忆网络),然后两个LSTM分别输入向量序列,将该两个向量序列拼接,得到该特征向量序列。
其中,该LSTM网络的公式如下:
it=σ(Wxixt+Whiht-1+Wcict-1+bi)
ft=σ(Wxfxt+Whfht-1+Wcfct-1+bf)
ct=ftct-1+ittanh(Wxcxt+Whcht-1+bc)
ot=σ(Wxoxt+Whoht-1+Wcoct+bo)
ht=ottanh(ct)
其中,σ表示sigmoid激活函数,tanh表示双曲正切激活函数,xt表示t时刻(第t个词向量输入)中得到词嵌入向量,i,f,o和c分别是输入门、遗忘门、输出门和细胞单元的输入激活向量,其向量长度与隐藏层向量h一致。权值矩阵和偏置参数描述有明显的含义,例如Wxi表示输入和输入门的权值矩阵,Whi表示隐藏层和输入门的权值矩阵,Wci表示细胞单元和输入门的权值矩阵,bi、bf表示输入门和遗忘门的偏置参数,其角标表示所属的计算部分。
经过上述LSTM的学习训练,可以让时刻t的输入学习到前时刻和后时刻的语义信息。因为使用的是双向长短时记忆网络Bi-LSTM,将输入序列从正向和反向输入到两个长短记忆网络LSTM单元,其输出的向量序列为hfw和hbw,进行叠加,其表示为ht=[hfw,hbw],为特征向量序列,该特征向量序列中具有上下文局部特征。
最终针对客户问题、候选答案和候选问题分别得到其对应的特征向量序列。
其中可以采用Scq、Sq和Sa分别表示客户问题、候选答案和候选问题的特征向量序列。
步骤S204:根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,并根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子;
其中,本步骤中,计算表征该客户问题与候选答案匹配值的第一匹配因子。
具体的,该根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,包括:利用预设的文本相似度计算公式计算客户问题特征向量序列和候选答案特征向量序列,得到第一特征向量相似度得分矩阵。
具体实施中,文本相似度计算公式可以采用内积公式、余弦公式等。
本实施例中以内积公式为例进行说明。
设Scqi和Sqj分别代表客户问题特征向量序列和候选答案特征向量序列Scq和Sq第i个和第j个特征向量,依次计算特征向量彼此的相似度,公式如下:
simcqiqj=scqi·sqj
其中simqiaj表示特征向量Scqi和Sqj的相似度。
具体的,该根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子,包括:
步骤S2041:采用预设筛选算法从所述第一特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成文本特征向量;
其中,可以采用k-MAX pooling(集合中k个最大值)来进行筛选,筛选得到k个数值最大的特征信息。
具体实施中,该k可以为一个较小的数值,如10个,当然该k的取值不限制于此,也可以采用其他正整数。
其中,该文本特征向量是能够代表候选答案和客户问题的问答语义匹配。
步骤S2042:对文本特征向量进行语义匹配的二分类判断,并将判断结果对应的语义匹配概率作为第一匹配因子。
其中,可以采用softmax分类器进行问答文本语义匹配的二分类训练学习,得到的该候选答案和客户问题匹配或者不匹配的预测结果,并输出预测概率值作为匹配因子。
步骤S205:根据所述客户问题的特征向量序列和所述候选问题的特征向量序列,得到第二特征向量相似度得分矩阵,并根据所述第二特征向量相似度得分矩阵确定所述客户问题和所述候选问题的第二匹配因子;
该步骤S205用于计算该候选问题和客户问题的第二匹配因子。
该计算过程与计算客户问题和候选答案的第一匹配因子的过程类是,可参考步骤S204。
在一个实施例中,根据所述客户问题的特征向量序列和所述候选问题的特征向量序列,得到第二特征向量相似度得分矩阵,包括:利用预设的文本相似度计算公式计算客户问题特征向量序列和候选问题特征向量序列,得到第二特征向量相似度得分矩阵。
在一个实施例中,根据所述第二特征向量相似度得分矩阵确定所述客户问题和所述候选问题的第二匹配因子,包括:
采用预设筛选算法从所述第二特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成文本特征向量;
对文本特征向量进行语义匹配的二分类判断,并将判断结果对应的语义匹配概率作为第二匹配因子。
步骤S206:根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
步骤S207:选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
其中,步骤S206-207与实施例1中的步骤S104-105一致,本实施例中不做赘述。
综上,本实施例提供的一种问答文本语义匹配的方法中,该依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子,包括:分别获取客户问题、候选问题和候选答案的特征向量序列,所述特征向量序列具有上下文局部特征;根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,并根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子;根据所述客户问题的特征向量序列和所述候选问题的特征向量序列,得到第二特征向量相似度得分矩阵,并根据所述第二特征向量相似度得分矩阵确定所述客户问题和所述候选问题的第二匹配因子。采用该方法,在对客户问题、候选问题和候选答进行词向量序列处理以及得到最后的特征向量序列的过程中,能够得到文本的上下文局部特征信息,以及选取重点全局特征信息,利于对问答文本的深层语义的理解。
如图3所示的,为本申请提供的一种问答文本语义匹配的方法实施例3的流程图,该方法包括以下步骤:
步骤S301:接收客户问题;
步骤S302:依据所述客户问题获取与所述客户问题对应的至少两个候选信息;
步骤S303:依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
其中,步骤S301-303与实施例1中的步骤S101-103一致,本实施例中不做赘述。
步骤S304:将任一候选信息的第一匹配因子与第二匹配因子进行加权求和计算,得到所述候选信息的匹配值;
其中,计算候选信息的匹配值时,涉及的第一匹配因子和第二匹配因子的权值为预设数值,具体可以通过训练深度学习模型过程中实现权值的确定,后续实施例中会针对该部分内容进行解释,本实施例中不做详述。
具体的,计算候选信息的匹配值公式如下:
其中,p1和p1分别表示第一匹配因子和第二匹配因子,α和β分别为第一匹配因子和第二匹配因子的权值。
后续步骤中,可以对各个候选信息的匹配值进行比较,从中确定数值最大的为与客户问题最匹配的候选信息。
步骤S305:选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
其中,步骤S305与实施例1中的步骤S105一致,本实施例中不做赘述。
综上,本实施例提供的一种问答文本语义匹配的方法中,该根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值,包括:将任一候选信息的第一匹配因子与第二匹配因子进行加权求和计算,得到所述候选信息的匹配值。通过考虑了各个匹配因子的权重,提高了计算语义匹匹配的准确度。
如图4所示的,为本申请提供的一种问答文本语义匹配的方法实施例4的流程图,该方法包括以下步骤:
步骤S401:预预设深度学习模型、以及根据第一匹配因子和第二匹配因子计算候选信息的匹配值的计算规则;
其中,该深度学习模型用于计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子。
其中,所述深度学习模型的预设过程通过训练所述深度学习模型实现,所以,在进行正式的客户问题问答文本语义匹配的过程之前,先进行深度学习模型的训练。
具体实施中,该候选信息中包含有多个因素(候选问题、候选答案),相应的,该电子设备中设置有分别与该因素对应的模型,因此,需要分别训练与候选问题和候选答案对应的两个深度学习模型。
其中,该根据匹配因子计算候选信息的匹配值的规则,可以采用加权求和公式,其中,各个匹配因子的权值可以是预先人工设置的。
训练所述深度学习模型的过程具体包括:
步骤S01:获取与训练客户问题对应的至少两个训练候选信息,每个训练候选信息包括训练候选问题和训练候选答案;
其中,该训练过程中,将训练候选信息与训练客户问题一一配对,具体实施中,该配对的过程可以由人工实现,以保证与训练客户问题配对的训练候选信息是与其对应的信息,减少干扰。
步骤S02:基于所述深度学习模型分别获取训练客户问题、所述至少两个训练候选信息的特征向量序列;
其中,在进行深度学习模型训练过程中,可以先建立专业词典,以使得根据该专业词典和分词规则对训练客户问题和训练候选信息进行专业的分词。
具体实施中,可以预先依据预设的语料库建立专业词典。
其中,该语料库中包含有海量的语料。
具体实施中,该语料库可以根据不同的专业领域进行设置,不同的专业领域可以设置不同的语料库。
步骤S03:基于所述深度学习模型根据所述训练客户问题的特征向量序列和所述训练候选答案的特征向量序列,得到第一训练特征向量相似度得分矩阵;
步骤S04:基于所述深度学习模型以及所述训练客户问题的特征向量序列和所述训练候选问题的特征向量序列,得到第二训练特征向量相似度得分矩阵;
步骤S05:基于所述深度学习模型的预设筛选算法从所述第一训练特征向量相似度得分矩阵和第二训练特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成训练文本特征向量;
步骤S06:基于所述深度学习模型的分类器对训练文本特征向量进行语义匹配的二分类判断,并对得到的预测结果使用梯度下降法训练所述深度学习模型的参数,并输出训练结果;
该训练过程中,将训练候选信息与训练客户问题一一配对,经过分词后,进行词向量转换、经过Bi-LSTM处理得到特征向量序列,再根据两组特征向量序列(训练候选问题和训练客户问题、训练候选答案和训练客户问题)得到两个特征向量相似度得分矩阵。
采用预设筛选算法从第一特征向量相似度得分矩阵和第二训练特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成训练文本特征向量后,可以将该得到的文本特征向量输入到深度学习模型中,具体可以为模型的训练层(如全连接层)中,以使得使用softmax分类器对其进行二分类训练学习,对得到的预测结果(匹配、不匹配)使用梯度下降法训练参数值,该参数值是所述深度学习模型的参数所取的值。
其中,在训练该深度学习模型的参数过程中,对训练结果也进行输出,判断该训练结果是否满足预设条件,该预设条件是停止训练的条件。
具体实施中,在训练的过程,验证训练结果。其中,该训练结果可以以数字形式表示。
步骤S07:当所述训练结果满足预设条件时,记录所述深度学习模型的参数,以使得所述深度学习模型基于所述参数对客户问题确定回复答案。
其中,预设条件是停止训练的条件,而该训练结果为最佳时,可以停止训练,该模型达到最优的状态。
具体的,该训练结果最佳是指训练结果的数字不再便更好。
相应的,记录该深度学习模型训练结果满足预设条件时的参数。
其中,该深度学习模型的参数为该记录的参数时,可以对接收到的客户问题进行文本语义匹配,得到准确度较高的回复答案。
步骤S402:接收客户问题;
步骤S403:依据所述客户问题获取与所述客户问题对应的至少两个候选信息,每个所述候选信息包含候选答案和候选问题;
步骤S404:依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
步骤S405:根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
步骤S406:选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
其中,步骤S402-406与实施例1中的步骤S101-105一致,本实施例中不做赘述。
综上,本实施例提供的一种问答文本语义匹配的方法中,还包括:预设深度学习模型和根据匹配因子计算候选信息的匹配值的计算规则,所述深度学习模型用于计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子。采用该方法,通过预先对深度学习模型和根据匹配因子计算候选信息的匹配值的计算规则进行设置,为后续从候选信息中为客户问题确定回复答案的具体使用中提供依据。
如图5所示的为具体应用场景中对客户问题进行处理的过程示意图。
从问答候选集中查找得到候选问题和候选答案;将候选问题和客户问题组成一组,完成分词后,将词组输入一深度学习模型中,该模型包括embedding层、Bi-LSTM、文本相似度计算公式、k-MAX pooling,其中,该候选问题和客户问题分别经过embedding层、Bi-LSTM处理后,分别输出的特征向量序列输入文本相似度计算公式中进行特征向量相似度计算,将计算结果输出给k-MAX pooling进行处理并经过分类器预测结果后得到匹配因子p1;相应的,该候选答案和客户问题组成一组,完成分词后,将词组输入另一模型中,经过与候选问题和客户问题同样的处理后,得到匹配因子p2,匹配因子p1和匹配因子p2经过加权求和得到该候选问题和候选答案组与该客户问题的匹配度值。
需要说明的是,当从问答候选集中查找得到的候选问题和候选答案不只一个时,通过比对最终得到的匹配度值,可以确定匹配度值最大的候选问题和候选答案组合中的候选答案为返回答案。
与上述本申请提供的一种问答文本语义匹配的方法实施例相对应的,本申请还提供了应用该问答文本语义匹配的方法的装置实施例。
如图6所示的为本申请提供的一种问答文本语义匹配的装置实施例的结构示意图,包括以下结构:接收模块601、获取模块602、第一计算模块603、第二计算模块604和选择模块605;
其中,接收模块601,用于接收客户问题;
其中,获取模块602,用于依据所述客户问题获取与所述客户问题对应的至少两个候选信息,任一所述候选信息包含至少两个因素;
其中,第一计算模块603,用于依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
具体实施中,该第一计算模块中603设置有深度学习模型,用于计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子。
具体的,该第一计算模块603用于分别获取客户问题、候选问题和候选答案的特征向量序列,所述特征向量序列具有上下文局部特征;
根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,并根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子;
根据所述客户问题的特征向量序列和所述候选问题的特征向量序列,得到第二特征向量相似度得分矩阵,并根据所述第二特征向量相似度得分矩阵确定所述客户问题和所述候选问题的第二匹配因子。
具体的,该第一计算模块603分别获取客户问题、候选问题和候选答案的特征向量序列,包括:
依据预设的专业词典以及分词规则,分别对所述客户问题、候选问题和候选答案进行分词处理,得到客户问题词组、候选问题词组和候选答案词组;
分别将所述客户问题词组、候选问题词组和候选答案词组进行词向量转化,得到客户问题词向量序列、候选问题词向量序列、候选答案词向量序列;
利用预设的双向长短时记忆网络捕获客户问题词向量序列、候选问题词向量序列、候选答案词向量序列的上下文局部特征,分别得到客户问题、候选问题和候选答案的特征向量序列。
具体的,该第一计算模块603根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,包括:
利用预设的文本相似度计算公式计算客户问题特征向量序列和候选答案特征向量序列,得到第一特征向量相似度得分矩阵。
具体的,该第一计算模块603根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子,包括:
采用预设筛选算法从所述第一特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成文本特征向量;
对文本特征向量进行语义匹配的二分类判断,并将判断结果对应的语义匹配概率作为第一匹配因子。
其中,第二计算模块604,用于根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
具体的,该第二计算模块具体用于将任一候选信息的第一匹配因子与第二匹配因子进行加权求和计算,得到所述候选信息的匹配值。
其中,选择模块605,用于选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
具体实施中,该第一计算模块可以采用深度学习模型。该深度学习模型中有embedding层、Bi-LSTM、文本相似度计算公式、k-MAX pooling等组成部分。
在本申请的一个实施例中,基于前述方案,所述接收模块601配置为:通信接口,用于从其他与该装置相连的结构中接收该客户问题,或者该接收模块601也可配置鼠标、键盘、触控装置等能够用于输入内容的结构。
由于本申请的示例实施例的问答文本语义匹配的装置的各个功能模块与上述问答文本语义匹配的方法的示例实施例的步骤对应,因此对于本申请装置实施例中未披露的细节,请参照本申请上述的问答文本语义匹配的方法的实施例。
具体实施中,所述问答文本语义匹配的装置包括处理器和存储器,上述接收模块601、获取模块602、第一计算模块603、第二计算模块604和选择模块605等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来实现任务调度。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。
综上,本实施例提供的一种问答文本语义匹配的装置中,通过多个因素组成的候选信息与客户问题进行分析,得到多个匹配因子,而基于该多个匹配因子计算得到该匹配因子对应的候选信息与该客户问题的匹配值,进而选择匹配值最大的候选信息中的候选答案作为与该客户问题对应的正确答案。该方案中,候选信息中包含有多个因素,结合该多个因素分析该候选信息与客户问题的匹配程度,提高了准确度。
本申请实施例提供了一种存储介质,其上存储有程序,该程序被处理器执行时实现所述问答文本语义匹配方法。
本申请实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行所述问答文本语义匹配方法。
如图7所示的为本申请提供的一种电子设备实施例的结构示意图,包括以下结构:处理器701和存储器702;
其中,该电子设备中包含有一个或者多个处理器;
存储装置,用于存储一个或多个程序,所述程序能够在处理器上运行。
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如方法实施例1-4中的问答文本语义匹配的方法。
本申请中,该电子设备可以是服务器、PC(personal computer,个人计算机)、PAD(平板电脑)、手机等。
具体的,处理器执行程序时实现以下步骤:
接收客户问题;
依据所述客户问题获取与所述客户问题对应的至少两个候选信息,每个所述候选信息包含候选答案和候选问题;
依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
优选的,依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子,包括:
分别获取客户问题、候选问题和候选答案的特征向量序列,所述特征向量序列具有上下文局部特征;
根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,并根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子;
根据所述客户问题的特征向量序列和所述候选问题的特征向量序列,得到第二特征向量相似度得分矩阵,并根据所述第二特征向量相似度得分矩阵确定所述客户问题和所述候选问题的第二匹配因子。
优选的,所述分别获取客户问题、候选问题和候选答案的特征向量序列,包括:
依据预设的专业词典以及分词规则,分别对所述客户问题、候选问题和候选答案进行分词处理,得到客户问题词组、候选问题词组和候选答案词组;
分别将所述客户问题词组、候选问题词组和候选答案词组进行词向量转化,得到客户问题词向量序列、候选问题词向量序列、候选答案词向量序列;
利用预设的双向长短时记忆网络捕获客户问题词向量序列、候选问题词向量序列、候选答案词向量序列的上下文局部特征,分别得到客户问题、候选问题和候选答案的特征向量序列。
优选的,所述根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,包括:
利用预设的文本相似度计算公式计算客户问题特征向量序列和候选答案特征向量序列,得到第一特征向量相似度得分矩阵。
优选的,所述根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子,包括:
采用预设筛选算法从所述第一特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成文本特征向量;
对文本特征向量进行语义匹配的二分类判断,并将判断结果对应的语义匹配概率作为第一匹配因子。
优选的,所述根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值,包括:
将任一候选信息的第一匹配因子与第二匹配因子进行加权求和计算,得到所述候选信息的匹配值。
优选的,所述接收客户问题之前,还包括:
预设深度学习模型和根据匹配因子计算候选信息的匹配值的计算规则,所述深度学习模型用于计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
其中,所述深度学习模型的预设过程通过训练所述深度学习模型实现,训练所述深度学习模型的过程具体包括:
获取与训练客户问题对应的至少两个训练候选信息,每个训练候选信息包括训练候选问题和训练候选答案;
基于所述深度学习模型分别获取训练客户问题、所述至少两个训练候选信息的特征向量序列;
基于所述深度学习模型根据所述训练客户问题的特征向量序列和所述训练候选答案的特征向量序列,得到第一训练特征向量相似度得分矩阵;
基于所述深度学习模型以及所述训练客户问题的特征向量序列和所述训练候选问题的特征向量序列,得到第二训练特征向量相似度得分矩阵;
基于所述深度学习模型的预设筛选算法从所述第一训练特征向量相似度得分矩阵和第二训练特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成训练文本特征向量;
基于所述深度学习模型的分类器对训练文本特征向量进行语义匹配的二分类判断,并对得到的预测结果使用梯度下降法训练所述深度学习模型的参数,并输出训练结果;
当所述训练结果满足预设条件时,记录所述深度学习模型的参数,以使得所述深度学习模型基于所述参数对客户问题确定回复答案。
本申请还提供了一种计算机可读介质,其上存储有计算机程序,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:
接收客户问题;
依据所述客户问题获取与所述客户问题对应的至少两个候选信息,每个所述候选信息包含候选答案和候选问题;
依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
优选的,依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子,包括:
分别获取客户问题、候选问题和候选答案的特征向量序列,所述特征向量序列具有上下文局部特征;
根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,并根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子;
根据所述客户问题的特征向量序列和所述候选问题的特征向量序列,得到第二特征向量相似度得分矩阵,并根据所述第二特征向量相似度得分矩阵确定所述客户问题和所述候选问题的第二匹配因子。
优选的,所述分别获取客户问题、候选问题和候选答案的特征向量序列,包括:
依据预设的专业词典以及分词规则,分别对所述客户问题、候选问题和候选答案进行分词处理,得到客户问题词组、候选问题词组和候选答案词组;
分别将所述客户问题词组、候选问题词组和候选答案词组进行词向量转化,得到客户问题词向量序列、候选问题词向量序列、候选答案词向量序列;
利用预设的双向长短时记忆网络捕获客户问题词向量序列、候选问题词向量序列、候选答案词向量序列的上下文局部特征,分别得到客户问题、候选问题和候选答案的特征向量序列。
优选的,所述根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,包括:
利用预设的文本相似度计算公式计算客户问题特征向量序列和候选答案特征向量序列,得到第一特征向量相似度得分矩阵。
优选的,所述根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子,包括:
采用预设筛选算法从所述第一特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成文本特征向量;
对文本特征向量进行语义匹配的二分类判断,并将判断结果对应的语义匹配概率作为第一匹配因子。
优选的,所述根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值,包括:
将任一候选信息的第一匹配因子与第二匹配因子进行加权求和计算,得到所述候选信息的匹配值。
优选的,所述接收客户问题之前,还包括:
预设深度学习模型和根据匹配因子计算候选信息的匹配值的计算规则,所述深度学习模型用于计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
其中,所述深度学习模型的预设过程通过训练所述深度学习模型实现,训练所述深度学习模型的过程具体包括:
获取与训练客户问题对应的至少两个训练候选信息,每个训练候选信息包括训练候选问题和训练候选答案;
基于所述深度学习模型分别获取训练客户问题、所述至少两个训练候选信息的特征向量序列;
基于所述深度学习模型根据所述训练客户问题的特征向量序列和所述训练候选答案的特征向量序列,得到第一训练特征向量相似度得分矩阵;
基于所述深度学习模型以及所述训练客户问题的特征向量序列和所述训练候选问题的特征向量序列,得到第二训练特征向量相似度得分矩阵;
基于所述深度学习模型的预设筛选算法从所述第一训练特征向量相似度得分矩阵和第二训练特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成训练文本特征向量;
基于所述深度学习模型的分类器对训练文本特征向量进行语义匹配的二分类判断,并对得到的预测结果使用梯度下降法训练所述深度学习模型的参数,并输出训练结果;
当所述训练结果满足预设条件时,记录所述深度学习模型的参数,以使得所述深度学习模型基于所述参数对客户问题确定回复答案。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例提供的装置而言,由于其与实施例提供的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所提供的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所提供的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种问答文本语义匹配的方法,其特征在于,包括:
接收客户问题;
依据所述客户问题获取与所述客户问题对应的至少两个候选信息,每个所述候选信息包含候选答案和候选问题;
依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
2.根据权利要求1所述的方法,其特征在于,依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子,包括:
分别获取客户问题、候选问题和候选答案的特征向量序列,所述特征向量序列具有上下文局部特征;
根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,并根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子;
根据所述客户问题的特征向量序列和所述候选问题的特征向量序列,得到第二特征向量相似度得分矩阵,并根据所述第二特征向量相似度得分矩阵确定所述客户问题和所述候选问题的第二匹配因子。
3.根据权利要求2所述的方法,其特征在于,所述分别获取客户问题、候选问题和候选答案的特征向量序列,包括:
依据预设的专业词典以及分词规则,分别对所述客户问题、候选问题和候选答案进行分词处理,得到客户问题词组、候选问题词组和候选答案词组;
分别将所述客户问题词组、候选问题词组和候选答案词组进行词向量转化,得到客户问题词向量序列、候选问题词向量序列、候选答案词向量序列;
利用预设的双向长短时记忆网络捕获客户问题词向量序列、候选问题词向量序列、候选答案词向量序列的上下文局部特征,分别得到客户问题、候选问题和候选答案的特征向量序列。
4.根据权利要求2所述的方法,其特征在于,所述根据所述客户问题的特征向量序列和所述候选答案的特征向量序列,得到第一特征向量相似度得分矩阵,包括:
利用预设的文本相似度计算公式计算客户问题特征向量序列和候选答案特征向量序列,得到第一特征向量相似度得分矩阵。
5.根据权利要求2所述的方法,其特征在于,所述根据所述第一特征向量相似度得分矩阵确定所述客户问题和所述候选答案的第一匹配因子,包括:
采用预设筛选算法从所述第一特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成文本特征向量;
对文本特征向量进行语义匹配的二分类判断,并将判断结果对应的语义匹配概率作为第一匹配因子。
6.根据权利要求1所述的方法,其特征在于,所述根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值,包括:
将任一候选信息的第一匹配因子与第二匹配因子进行加权求和计算,得到所述候选信息的匹配值。
7.根据权利要求1所述的方法,其特征在于,所述接收客户问题之前,还包括:
预设深度学习模型、以及根据第一匹配因子和第二匹配因子计算候选信息的匹配值的计算规则,所述深度学习模型用于计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
其中,所述深度学习模型的预设过程通过训练所述深度学习模型实现,训练所述深度学习模型的过程包括:
获取与训练客户问题对应的至少两个训练候选信息,每个训练候选信息包括训练候选问题和训练候选答案;
基于所述深度学习模型分别获取训练客户问题、所述至少两个训练候选信息的特征向量序列;
基于所述深度学习模型根据所述训练客户问题的特征向量序列和所述训练候选答案的特征向量序列,得到第一训练特征向量相似度得分矩阵;
基于所述深度学习模型以及所述训练客户问题的特征向量序列和所述训练候选问题的特征向量序列,得到第二训练特征向量相似度得分矩阵;
基于所述深度学习模型的预设筛选算法从所述第一训练特征向量相似度得分矩阵和第二训练特征向量相似度得分矩阵中筛选预设个数满足预设重要条件的特征信息,形成训练文本特征向量;
基于所述深度学习模型的分类器对训练文本特征向量进行语义匹配的二分类判断,并对得到的预测结果使用梯度下降法训练所述深度学习模型的参数,并输出训练结果;
当所述训练结果满足预设条件时,记录所述深度学习模型的参数,以使得所述深度学习模型基于所述参数对客户问题确定回复答案。
8.一种问答文本语义匹配的装置,其特征在于,包括:
接收模块,用于接收客户问题;
获取模块,用于依据所述客户问题获取与所述客户问题对应的至少两个候选信息,任一所述候选信息包含至少两个因素;
第一计算模块,用于依据所述候选信息,分别计算客户问题与候选答案的第一匹配因子、客户问题与候选问题的第二匹配因子;
第二计算模块,用于根据每个候选信息的第一匹配因子和第二匹配因子来计算对应于每个候选信息的匹配值;
选择模块,用于选择匹配值最大的候选信息中的候选答案作为所述客户问题的回复答案。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的问答文本语义匹配的方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的问答文本语义匹配的方法。
CN201810718708.9A 2018-06-29 2018-06-29 一种问答文本语义匹配的方法和装置 Active CN108920654B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810718708.9A CN108920654B (zh) 2018-06-29 2018-06-29 一种问答文本语义匹配的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810718708.9A CN108920654B (zh) 2018-06-29 2018-06-29 一种问答文本语义匹配的方法和装置

Publications (2)

Publication Number Publication Date
CN108920654A true CN108920654A (zh) 2018-11-30
CN108920654B CN108920654B (zh) 2021-10-29

Family

ID=64423529

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810718708.9A Active CN108920654B (zh) 2018-06-29 2018-06-29 一种问答文本语义匹配的方法和装置

Country Status (1)

Country Link
CN (1) CN108920654B (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109582970A (zh) * 2018-12-12 2019-04-05 科大讯飞华南人工智能研究院(广州)有限公司 一种语义度量方法、装置、设备及可读存储介质
CN109597881A (zh) * 2018-12-17 2019-04-09 北京百度网讯科技有限公司 匹配度确定方法、装置、设备和介质
CN109726396A (zh) * 2018-12-20 2019-05-07 泰康保险集团股份有限公司 问答文本的语义匹配方法、装置、介质及电子设备
CN109800292A (zh) * 2018-12-17 2019-05-24 北京百度网讯科技有限公司 问答匹配度的确定方法、装置及设备
CN109918673A (zh) * 2019-03-14 2019-06-21 湖北亿咖通科技有限公司 语义仲裁方法、装置、电子设备和计算机可读存储介质
CN110134775A (zh) * 2019-05-10 2019-08-16 中国联合网络通信集团有限公司 问答数据生成方法及装置、存储介质
CN110347813A (zh) * 2019-06-26 2019-10-18 北京大米科技有限公司 一种语料处理方法、装置、存储介质及电子设备
CN110399473A (zh) * 2019-06-28 2019-11-01 阿里巴巴集团控股有限公司 为用户问题确定答案的方法和装置
CN110413730A (zh) * 2019-06-27 2019-11-05 平安科技(深圳)有限公司 文本信息匹配度检测方法、装置、计算机设备和存储介质
CN110489730A (zh) * 2019-08-14 2019-11-22 腾讯科技(深圳)有限公司 文本处理方法、装置、终端及存储介质
CN111026840A (zh) * 2019-11-26 2020-04-17 腾讯科技(深圳)有限公司 文本处理方法、装置、服务器和存储介质
CN111108501A (zh) * 2019-12-25 2020-05-05 深圳市优必选科技股份有限公司 一种基于上下文的多轮对话方法、装置、设备及存储介质
CN111259130A (zh) * 2020-02-14 2020-06-09 支付宝(杭州)信息技术有限公司 用于在对话中提供答复语句的方法及装置
CN111309878A (zh) * 2020-01-19 2020-06-19 支付宝(杭州)信息技术有限公司 检索式问答方法、模型训练方法、服务器及存储介质
CN111753062A (zh) * 2019-11-06 2020-10-09 北京京东尚科信息技术有限公司 一种会话应答方案确定方法、装置、设备及介质
CN112231456A (zh) * 2020-10-15 2021-01-15 泰康保险集团股份有限公司 问题生成方法、装置、存储介质和的电子设备
CN112434514A (zh) * 2020-11-25 2021-03-02 重庆邮电大学 基于多粒度多通道的神经网络的语义匹配方法、装置及计算机设备
CN112836027A (zh) * 2019-11-25 2021-05-25 京东方科技集团股份有限公司 用于确定文本相似度的方法、问答方法及问答系统
CN112989001A (zh) * 2021-03-31 2021-06-18 建信金融科技有限责任公司 一种问答处理方法、装置、介质及电子设备
CN113157868A (zh) * 2021-04-29 2021-07-23 青岛海信网络科技股份有限公司 一种基于结构化数据库匹配问题答案的方法及装置
WO2022226879A1 (zh) * 2021-04-29 2022-11-03 京东方科技集团股份有限公司 一种问答处理方法、装置、电子设备和计算机可读存储介质
US12147465B2 (en) 2021-04-29 2024-11-19 Boe Technology Group Co., Ltd. Question-answer processing method, apparatus, electronic device and computer-readable storage medium

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236677A (zh) * 2010-04-28 2011-11-09 北京大学深圳研究生院 一种基于问答系统的信息匹配方法及系统
CN102609500A (zh) * 2012-02-01 2012-07-25 北京百度网讯科技有限公司 一种问题推送方法和采用该方法的问答系统和搜索引擎
CN102903008A (zh) * 2011-07-29 2013-01-30 国际商业机器公司 用于计算机问答的方法及系统
CN103544216A (zh) * 2013-09-23 2014-01-29 Tcl集团股份有限公司 一种结合图像内容和关键字的信息推荐方法及系统
CN104133817A (zh) * 2013-05-02 2014-11-05 深圳市世纪光速信息技术有限公司 网络社区交互方法、装置及网络社区平台
CN105989040A (zh) * 2015-02-03 2016-10-05 阿里巴巴集团控股有限公司 智能问答的方法、装置及系统
US20170212916A1 (en) * 2016-01-22 2017-07-27 International Business Machines Corporation Duplicate post handling with natural language processing
CN107239574A (zh) * 2017-06-29 2017-10-10 北京神州泰岳软件股份有限公司 一种智能问答系统知识‑问题匹配的方法及装置
CN107315772A (zh) * 2017-05-24 2017-11-03 北京邮电大学 基于深度学习的问题匹配方法以及装置
CN107741976A (zh) * 2017-10-16 2018-02-27 泰康保险集团股份有限公司 智能应答方法、装置、介质和电子设备
CN107818164A (zh) * 2017-11-02 2018-03-20 东北师范大学 一种智能问答方法及其系统

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102236677A (zh) * 2010-04-28 2011-11-09 北京大学深圳研究生院 一种基于问答系统的信息匹配方法及系统
CN102903008A (zh) * 2011-07-29 2013-01-30 国际商业机器公司 用于计算机问答的方法及系统
CN102609500A (zh) * 2012-02-01 2012-07-25 北京百度网讯科技有限公司 一种问题推送方法和采用该方法的问答系统和搜索引擎
CN104133817A (zh) * 2013-05-02 2014-11-05 深圳市世纪光速信息技术有限公司 网络社区交互方法、装置及网络社区平台
CN103544216A (zh) * 2013-09-23 2014-01-29 Tcl集团股份有限公司 一种结合图像内容和关键字的信息推荐方法及系统
CN105989040A (zh) * 2015-02-03 2016-10-05 阿里巴巴集团控股有限公司 智能问答的方法、装置及系统
US20170212916A1 (en) * 2016-01-22 2017-07-27 International Business Machines Corporation Duplicate post handling with natural language processing
CN107315772A (zh) * 2017-05-24 2017-11-03 北京邮电大学 基于深度学习的问题匹配方法以及装置
CN107239574A (zh) * 2017-06-29 2017-10-10 北京神州泰岳软件股份有限公司 一种智能问答系统知识‑问题匹配的方法及装置
CN107741976A (zh) * 2017-10-16 2018-02-27 泰康保险集团股份有限公司 智能应答方法、装置、介质和电子设备
CN107818164A (zh) * 2017-11-02 2018-03-20 东北师范大学 一种智能问答方法及其系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
伍浩铖: "社区问答搜索中排序方法的研究", 《中国优秀博硕士学位论文全文数据库(博士) 信息科技辑》 *
相洋: "问答系统的答案优化方法研究相", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109582970B (zh) * 2018-12-12 2023-05-30 科大讯飞华南人工智能研究院(广州)有限公司 一种语义度量方法、装置、设备及可读存储介质
CN109582970A (zh) * 2018-12-12 2019-04-05 科大讯飞华南人工智能研究院(广州)有限公司 一种语义度量方法、装置、设备及可读存储介质
CN109597881A (zh) * 2018-12-17 2019-04-09 北京百度网讯科技有限公司 匹配度确定方法、装置、设备和介质
CN109800292A (zh) * 2018-12-17 2019-05-24 北京百度网讯科技有限公司 问答匹配度的确定方法、装置及设备
CN109726396A (zh) * 2018-12-20 2019-05-07 泰康保险集团股份有限公司 问答文本的语义匹配方法、装置、介质及电子设备
CN109918673A (zh) * 2019-03-14 2019-06-21 湖北亿咖通科技有限公司 语义仲裁方法、装置、电子设备和计算机可读存储介质
CN109918673B (zh) * 2019-03-14 2021-08-03 湖北亿咖通科技有限公司 语义仲裁方法、装置、电子设备和计算机可读存储介质
CN110134775A (zh) * 2019-05-10 2019-08-16 中国联合网络通信集团有限公司 问答数据生成方法及装置、存储介质
CN110134775B (zh) * 2019-05-10 2021-08-24 中国联合网络通信集团有限公司 问答数据生成方法及装置、存储介质
CN110347813A (zh) * 2019-06-26 2019-10-18 北京大米科技有限公司 一种语料处理方法、装置、存储介质及电子设备
CN110347813B (zh) * 2019-06-26 2021-09-17 北京大米科技有限公司 一种语料处理方法、装置、存储介质及电子设备
CN110413730A (zh) * 2019-06-27 2019-11-05 平安科技(深圳)有限公司 文本信息匹配度检测方法、装置、计算机设备和存储介质
CN110413730B (zh) * 2019-06-27 2024-06-07 平安科技(深圳)有限公司 文本信息匹配度检测方法、装置、计算机设备和存储介质
WO2020258506A1 (zh) * 2019-06-27 2020-12-30 平安科技(深圳)有限公司 文本信息匹配度检测方法、装置、计算机设备和存储介质
CN110399473A (zh) * 2019-06-28 2019-11-01 阿里巴巴集团控股有限公司 为用户问题确定答案的方法和装置
CN110399473B (zh) * 2019-06-28 2023-08-29 创新先进技术有限公司 为用户问题确定答案的方法和装置
CN110489730A (zh) * 2019-08-14 2019-11-22 腾讯科技(深圳)有限公司 文本处理方法、装置、终端及存储介质
CN111753062A (zh) * 2019-11-06 2020-10-09 北京京东尚科信息技术有限公司 一种会话应答方案确定方法、装置、设备及介质
CN112836027A (zh) * 2019-11-25 2021-05-25 京东方科技集团股份有限公司 用于确定文本相似度的方法、问答方法及问答系统
CN111026840A (zh) * 2019-11-26 2020-04-17 腾讯科技(深圳)有限公司 文本处理方法、装置、服务器和存储介质
CN111026840B (zh) * 2019-11-26 2023-10-13 腾讯科技(深圳)有限公司 文本处理方法、装置、服务器和存储介质
CN111108501A (zh) * 2019-12-25 2020-05-05 深圳市优必选科技股份有限公司 一种基于上下文的多轮对话方法、装置、设备及存储介质
CN111108501B (zh) * 2019-12-25 2024-02-06 深圳市优必选科技股份有限公司 一种基于上下文的多轮对话方法、装置、设备及存储介质
CN111309878A (zh) * 2020-01-19 2020-06-19 支付宝(杭州)信息技术有限公司 检索式问答方法、模型训练方法、服务器及存储介质
CN111309878B (zh) * 2020-01-19 2023-08-22 支付宝(杭州)信息技术有限公司 检索式问答方法、模型训练方法、服务器及存储介质
CN111259130B (zh) * 2020-02-14 2023-04-07 支付宝(杭州)信息技术有限公司 用于在对话中提供答复语句的方法及装置
CN111259130A (zh) * 2020-02-14 2020-06-09 支付宝(杭州)信息技术有限公司 用于在对话中提供答复语句的方法及装置
CN112231456A (zh) * 2020-10-15 2021-01-15 泰康保险集团股份有限公司 问题生成方法、装置、存储介质和的电子设备
CN112231456B (zh) * 2020-10-15 2024-02-23 泰康保险集团股份有限公司 问题生成方法、装置、存储介质和的电子设备
CN112434514B (zh) * 2020-11-25 2022-06-21 重庆邮电大学 基于多粒度多通道的神经网络的语义匹配方法、装置及计算机设备
CN112434514A (zh) * 2020-11-25 2021-03-02 重庆邮电大学 基于多粒度多通道的神经网络的语义匹配方法、装置及计算机设备
CN112989001B (zh) * 2021-03-31 2023-05-26 建信金融科技有限责任公司 一种问答处理方法、装置、介质及电子设备
CN112989001A (zh) * 2021-03-31 2021-06-18 建信金融科技有限责任公司 一种问答处理方法、装置、介质及电子设备
WO2022226879A1 (zh) * 2021-04-29 2022-11-03 京东方科技集团股份有限公司 一种问答处理方法、装置、电子设备和计算机可读存储介质
CN113157868A (zh) * 2021-04-29 2021-07-23 青岛海信网络科技股份有限公司 一种基于结构化数据库匹配问题答案的方法及装置
US12147465B2 (en) 2021-04-29 2024-11-19 Boe Technology Group Co., Ltd. Question-answer processing method, apparatus, electronic device and computer-readable storage medium

Also Published As

Publication number Publication date
CN108920654B (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
CN108920654A (zh) 一种问答文本语义匹配的方法和装置
CN111724083B (zh) 金融风险识别模型的训练方法、装置、计算机设备及介质
CN111191002B (zh) 一种基于分层嵌入的神经代码搜索方法及装置
CN109978060B (zh) 一种自然语言要素抽取模型的训练方法及装置
US20170193086A1 (en) Methods, devices, and systems for constructing intelligent knowledge base
CN110008984B (zh) 一种基于多任务样本的目标欺诈交易模型训练方法和装置
CN114647741A (zh) 工艺自动决策和推理方法、装置、计算机设备及存储介质
CN109829065B (zh) 图像检索方法、装置、设备及计算机可读存储介质
CN115146068B (zh) 关系三元组的抽取方法、装置、设备及存储介质
CN114357117A (zh) 事务信息查询方法、装置、计算机设备及存储介质
CN110490304B (zh) 一种数据处理方法及设备
CN112508048A (zh) 图像描述的生成方法和装置
CN112132238A (zh) 一种识别隐私数据的方法、装置、设备和可读介质
CN115456421A (zh) 工单的分派方法及装置、处理器和电子设备
EP3811323A2 (en) Systems and methods for determining structured proceeding outcomes
CN110263817B (zh) 一种基于用户账号的风险等级划分方法及装置
CN110472063A (zh) 社交媒体数据处理方法、模型训练方法及相关装置
CN111259975B (zh) 分类器的生成方法及装置、文本的分类方法及装置
CN117034942B (zh) 一种命名实体识别方法、装置、设备及可读存储介质
CN114254622B (zh) 一种意图识别方法和装置
CN114547308B (zh) 文本处理的方法、装置、电子设备及存储介质
Ali et al. Identifying and Profiling User Interest over time using Social Data
CN112579774B (zh) 模型训练方法、模型训练装置及终端设备
CN114969253A (zh) 市场主体与政策的匹配方法、装置、计算设备及介质
CN113408263A (zh) 刑期预测方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: Floor 36, Zheshang Building, No. 718 Jianshe Avenue, Jiang'an District, Wuhan, Hubei 430019

Patentee after: TK.CN INSURANCE Co.,Ltd.

Patentee after: TAIKANG INSURANCE GROUP Co.,Ltd.

Address before: Taikang Life Building, 156 fuxingmennei street, Xicheng District, Beijing 100031

Patentee before: TAIKANG INSURANCE GROUP Co.,Ltd.

Patentee before: TK.CN INSURANCE Co.,Ltd.

CP03 Change of name, title or address