CN117763126A - 知识检索方法、设备、存储介质及装置 - Google Patents
知识检索方法、设备、存储介质及装置 Download PDFInfo
- Publication number
- CN117763126A CN117763126A CN202410039037.9A CN202410039037A CN117763126A CN 117763126 A CN117763126 A CN 117763126A CN 202410039037 A CN202410039037 A CN 202410039037A CN 117763126 A CN117763126 A CN 117763126A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- similarity
- preset
- answer
- segments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000004364 calculation method Methods 0.000 claims abstract description 48
- 238000004458 analytical method Methods 0.000 claims abstract description 35
- 239000013598 vector Substances 0.000 claims description 54
- 238000012216 screening Methods 0.000 claims description 20
- 238000000225 bioluminescence resonance energy transfer Methods 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012163 sequencing technique Methods 0.000 claims 3
- 239000012634 fragment Substances 0.000 abstract description 175
- 238000001914 filtration Methods 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 3
- 238000009792 diffusion process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于人工智能技术领域,公开了一种知识检索方法、设备、存储介质及装置,本发明通过对预设知识库中的知识文档进行分割,获得多个知识片段;基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;基于预设BERT模型对所述问题信息、知识片段以及候选答案进行相似度分析,获得综合相似度;基于预设大语言模型以及综合相似度确定目标答案,本发明使用大语言模型将用户提问进行候选答案生成后,对问题、候选答案和知识片段进行综合相似度计算,可以更准确地衡量问题、答案和知识片段之间的相似度,从而筛选出最精准的目标答案。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种知识检索方法、设备、存储介质及装置。
背景技术
大语言模型一个常见的应用方向是用于问答系统,用户提出的自然语言问题。大语言模型可以根据输入的问题,从预先准备的知识库中检索和生成答案,以满足用户的信息需求。然而在使用大语言模型进行问题解析时,由于问题分析维度单一,导致准确率低。
发明内容
本发明的主要目的在于提供一种知识检索方法、设备、存储介质及装置,旨在解决针对使用大语言模型进行问题解析时,由于问题分析维度单一,导致准确率低的技术问题。
为实现上述目的,本发明提供一种知识检索方法,所述知识检索方法包括以下步骤:
对预设知识库中的知识文档进行分割,获得多个知识片段;
基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;
基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度;
基于所述预设大语言模型以及所述综合相似度确定目标答案。
可选地,所述基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度的步骤,包括:
基于预设BERT模型对所述候选答案以及所述问题信息进行相似度计算,获得第一相似度;
基于所述预设BERT模型对知识片段信息以及所述问题信息进行相似度计算,获得第二相似度;
基于所述预设BERT模型对所述候选答案以及所述知识片段信息进行相似度计算,获得第三相似度;
根据所述第一相似度、所述第二相似度以及所述第三相似度确定综合相似度。
可选地,所述基于预设BERT模型对所述候选答案以及所述问题信息进行相似度计算,获得第一相似度的步骤,包括:
将所述候选答案以及所述问题信息输入至预设BRET模型中,将所述候选答案转换为高维向量,获得第一嵌入向量;
将所述问题信息转换为高维向量,获得第二嵌入向量;
对所述第一嵌入向量以及所述第二嵌入向量进行余弦相似度计算,获得余弦相似度;
根据所述余弦相似度确定第一相似度;
其中,所述余弦相似度=(A·B)/(||A||*||B||);
其中,A·B是A向量和B向量的点积,||A||和||B||分别是A向量和B向量的模。
可选地,所述基于所述预设大语言模型以及所述综合相似度确定目标答案的步骤,包括:
根据所述第一相似度与预设阈值进行对比,根据对比结果确定相似度判断值;
根据预设召回片段数量、所述相似度判断值、所述第二相似度和所述第三相似度对所述知识片段进行排序,获得目标知识片段并构建知识片段筛选集;
将所述知识片段筛选集和所述用户输入的问题信息输入至预设大语言模型中,生成目标答案。
可选地,所述根据所述第一相似度与预设阈值进行对比,根据对比结果确定相似度判断值步骤,包括:
根据所述第一相似度与预设阈值进行对比,获得对比结果;
若所述对比结果为不大于预设阈值,则将相似度判断值设置为第一数值;
若所述对比结果为大于所述预设阈值,则将相似度判断值设置为第二数值。
可选地,所述根据预设召回片段数量、所述相似度判断值、所述第二相似度和所述第三相似度对所述知识片段进行排序,获得目标知识片段并构建知识片段筛选集的步骤,包括:
若所述相似度判断值设置为所述第一数值时,根据所述第二相似度对所述知识片段进行排序,并根据预设召回片段数据从排序后的知识片段中选取目标知识片段并构建知识片段筛选集;
若所述相似度判断值设置为所述第二数值时,根据所述第三相似度对所述知识片段进行排序,并根据所述预设召回片段数量从排序后的知识片段中选取目标知识片段构建预设数量的知识片段集合,并根据所述预设数量的知识片段集合的交集作为知识片段筛选集。
可选地,所述对预设知识库中的知识文档进行分割,获得多个知识片段的步骤,包括:
根据预设字符长度对预设知识库中的知识文档进行分割,获得多个知识片段。
此外,为实现上述目的,本发明还提出一种知识检索设备,所述知识检索设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的知识检索程序,所述知识检索程序配置为实现如上文所述的知识检索的步骤。
此外,为实现上述目的,本发明还提出一种存储介质,所述存储介质上存储有知识检索程序,所述知识检索程序被处理器执行时实现如上文所述的知识检索方法的步骤。
此外,为实现上述目的,本发明还提出一种知识检索装置,所述知识检索装置包括:
文档分割模块,用于对预设知识库中的知识文档进行分割,获得多个知识片段;
答案解析模块,用于基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;
相似度计算模块,用于基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度;
答案确定模块,用于基于所述预设大语言模型以及所述综合相似度确定目标答案。
本发明通过对预设知识库中的知识文档进行分割,获得多个知识片段;基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度;基于所述预设大语言模型以及所述综合相似度确定目标答案,相较于针对使用大语言模型进行问题解析时,由于问题分析维度单一,导致准确率低,本发明使用大语言模型将用户提问进行候选答案生成后,对问题、候选答案和知识片段进行综合相似度计算,可以更准确地衡量问题、答案和知识片段之间的相似度,从而筛选出最精准的目标答案。
附图说明
图1是本发明实施例方案涉及的硬件运行环境的知识检索设备的结构示意图;
图2为本发明知识检索方法第一实施例的流程示意图;
图3为本发明知识检索方法第二实施例的流程示意图;
图4为本发明知识检索方法第二实施例的方案执行流程示意图;
图5为本发明知识检索装置第一实施例的结构框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,图1为本发明实施例方案涉及的硬件运行环境的知识检索设备结构示意图。
如图1所示,该知识检索设备可以包括:处理器1001,例如中央处理器(CentralProcessing Unit,CPU),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display),可选用户接口1003还可以包括标准的有线接口、无线接口,对于用户接口1003的有线接口在本发明中可为USB接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(Wireless-Fidelity,Wi-Fi)接口)。存储器1005可以是高速的随机存取存储器(Random Access Memory,RAM),也可以是稳定的存储器(Non-volatile Memory,NVM),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的结构并不构成对知识检索设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,认定为一种数据处理存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及知识检索程序。
在图1所示的知识检索设备中,网络接口1004主要用于连接后台服务器,与所述后台服务器进行数据通信;用户接口1003主要用于连接用户设备;所述知识检索设备通过处理器1001调用存储器1005中存储的知识检索程序,并执行本发明实施例提供的知识检索方法。
基于上述硬件结构,提出本发明知识检索方法的实施例。
参照图2,图2为本发明知识检索方法第一实施例的流程示意图,提出本发明知识检索方法第一实施例。
在本实施例中,所述知识检索方法包括以下步骤:
步骤S10:对预设知识库中的知识文档进行分割,获得多个知识片段。
需说明的是,本实施例中的执行主体可以是包含问答系统的设备,如:计算机、平板、手机或笔记本,还可为其他可实现相同或相似功能的设备,所述问答系统包含问题收集以及知识检索功能,在本实施例以及下述各实施例中以计算机为例对本发明知识检索方法进行说明。
可理解的是,预设知识库可以是指预先设置的用于存储现有知识文档的文本数据知识库,所述知识文档可以来自不同的来源,如文档、网页和书籍等。其中,收集的数据会经过预处理,包括分词、去除停用词、词形还原等操作,以更好地表示和理解文本内容。为了让机器理解和处理文本,需要将文本转换为数值表示。基于通过词嵌入(Word Embedding)的方法将知识库中的每个知识片段映射为一个向量,以便计算它们之间的相似度。
应理解的是,本方案通过对现有知识文档T进行分割,获得多个知识片段。
进一步地,所述步骤S10还包括:根据预设字符长度对预设知识库中的知识文档进行分割,获得多个知识片段。
需说明的是,针对知识片段分割,可以是针对现有知识文档T,根据预设的字符长度(例如:可以默认为512个字符,但并非固定,可以根据实际需求进行调整),将其分割为若干个知识片段,分别记为T1、T2、T3……。
应理解的是,若干个知识片段可以是由数值或向量的形式进行表示。
步骤S20:基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案。
需说明的是,预设大语言模型可以是预先训练好的用于对用户输入的问题进行问题预处理的模型,所述大语言模型可以是通过大量数据进行预训练、监督微调、奖励建模以及强化学习后输出的模型,在大型语言模型的训练和应用中,模型接收一串tokens作为输入,并尝试预测下一个最可能的token。
应理解的是,用户输入的问题信息可以是指用户输入的信息需求,需要通过知识检索找到最准确的答案,本方案通过预设大语言模型对用户输入的问题进行答案解析,并生成候选答案。
具体实现中,利用大语言模型,对用户输入的问题Q进行答案生成。大语言模型通过大量文本训练,可以根据问题的语义,生成候选答案,可以默认生成3个答案,即A1,A2,A3,但并非限于3个,可以根据实际需求进行调整。
步骤S30:基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度。
需说明的是,预设BERT模型可以是预先设置的用于对文本进行相似度分析的模型,其中,通过BERT模型对问题信息、知识片段以及候选答案进行相似度分析,获得综合相似度,所述综合相似度包含答案-问题相似度、问题-知识片段相似度和答案-知识片段相似度。
可理解的是,本方案通过对问题、候选答案和知识片段进行综合相似度计算,包括答案-问题相似度、问题-知识片段相似度和答案-知识片段相似度的计算。这种综合计算的方法可以更准确地衡量问题、答案和知识片段之间的相似度,从而提高知识检索的准确性。
具体实现中,对于每个生成的候选答案A1、A2、A3和问题Q,利用BERT模型计算余弦相似度进行相似度计算,得到答案-问题相似度分别为A1-Q,A2-Q,A3-Q。对于问题Q和每一个知识片段Tx,利用相同的相似度计算方法,得到问题-知识片段相似度Q-Tx。对于每个生成的候选答案A1、A2、A3和每一个知识片段Tx,利用相同的相似度计算方法,得到答案-知识片段相似度A1-Tx,A2-Tx,A3-Tx。
进一步地,所述步骤S30还包括:基于预设BERT模型对所述候选答案以及所述问题信息进行相似度计算,获得第一相似度;基于所述预设BERT模型对知识片段信息以及所述问题信息进行相似度计算,获得第二相似度;基于所述预设BERT模型对所述候选答案以及所述知识片段信息进行相似度计算,获得第三相似度;根据所述第一相似度、所述第二相似度以及所述第三相似度确定综合相似度。
需说明的是,本方案通过BERT模型进行相似度计算的主要过程,包括:1、文本编码:首先,需要将待比较的文本(例如问题Q、知识片段Tx、候选答案A1、A2、A3等)输入到已经预训练好的BERT模型中。BERT模型会将每一个输入的文本转换为一个高维向量(这个向量可以被称为“嵌入”)。这个嵌入向量能够捕捉到文本的语义信息。2、计算余弦相似度:当获取了每个文本的嵌入向量后,就可以计算这些向量之间的余弦相似度了。余弦相似度是衡量两个向量夹角余弦值的一种方法,可以用于衡量两个向量的相似度。余弦相似度的计算公式为:
余弦相似度=(A·B)/(||A||*||B||);
其中,A·B是A向量和B向量的点积,||A||和||B||分别是A向量和B向量的模。这样就可以得到两个文本嵌入向量的余弦相似度,这个相似度值可以作为两个文本相似度的度量。
进一步地,为说明三种相似度的计算过程,针对每个生成的候选答案A1、A2、A3和问题Q,利用BERT模型计算余弦相似度进行相似度计算,得到答案-问题相似度分别为A1-Q,A2-Q,A3-Q。其中,所述基于预设BERT模型对所述候选答案以及所述问题信息进行相似度计算,获得第一相似度的步骤,包括:将所述候选答案以及所述问题信息输入至预设BRET模型中,将所述候选答案转换为高维向量,获得第一嵌入向量;将所述问题信息转换为高维向量,获得第二嵌入向量;对所述第一嵌入向量以及所述第二嵌入向量进行余弦相似度计算,获得余弦相似度;根据所述余弦相似度确定第一相似度。
需说明的是,基于上述同样计算过程,对于问题Q和每一个知识片段Tx,利用相同的相似度计算方法,得到问题-知识片段相似度Q-Tx。将知识片段信息以及所述问题信息输入至预设BRET模型中,将知识片段信息以及所述问题信息转换为高维向量,并对高维向量进行余弦相似度计算,根据余弦相似度确定第二相似度。
可理解的是,基于上述同样计算过程,对于每个生成的候选答案A1、A2、A3和每一个知识片段Tx,利用相同的相似度计算方法,得到答案-知识片段相似度A1-Tx,A2-Tx,A3-Tx。将知识片段信息以及所述问题信息输入至预设BRET模型中,将候选答案以及所述知识片段转换为高维向量,并对高维向量进行余弦相似度计算,根据余弦相似度确定第三相似度。
步骤S40:基于所述预设大语言模型以及所述综合相似度确定目标答案。
需说明的是,通过上述计算获得的第一相似度、第二相似度以及第三相似度结合预设大语言模型确定目标答案,并将目标答案返回至用户。
本实施例对预设知识库中的知识文档进行分割,获得多个知识片段;基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度;基于所述预设大语言模型以及所述综合相似度确定目标答案,相较于针对使用大语言模型进行问题解析时,由于问题分析维度单一,导致准确率低,本实施例使用大语言模型将用户提问进行候选答案生成后,对问题、候选答案和知识片段进行综合相似度计算,可以更准确地衡量问题、答案和知识片段之间的相似度,从而筛选出最精准的目标答案。
基于上述图2所示的第一实施例,提出本发明知识检索方法的第二实施例,参照图3,图3本发明知识检索方法第二实施例的流程示意图。
在本实施例中,所述步骤S40之前还包括:
步骤S401:根据所述第一相似度与预设阈值进行对比,根据对比结果确定相似度判断值。
需说明的是,针对问题与候选答案相似度判断的步骤,可以是通过预先设定一个阈值,所述阈值可以用于判断知识片段与问题是否能够良好匹配,从而确定是否需要使用虚拟答案进行扩散匹配。
可理解的是,所述对比结果包括第一相似度大于预设阈值和第一相似度不大于预设阈值两种结果。
进一步地,所述步骤S401还包括:根据所述第一相似度与预设阈值进行对比,获得对比结果;若所述对比结果为不大于预设阈值,则将相似度判断值设置为第一数值;若所述对比结果为大于所述预设阈值,则将相似度判断值设置为第二数值。
应理解的是,若对比结果为不大于预设阈值,则将相似度判断值设置为第一数值;若对比结果为大于所述预设阈值,则将相似度判断值设置为第二数值。第一数值与第二数值可以是用于区分问题与候选答案相似度判断值,所述第一数值可以设置为1,第二数值可以设置为0。
具体实现中,问题与候选答案相似度判断:可以设定一个阈值,如0.7。如果A1-Q,A2-Q,A3-Q的值均大于0.7,这表明问题本身已经能良好地与知识片段进行匹配,无需使用虚拟答案进行扩散匹配,将问题与候选答案相似度判断值D设定为1。如果不满足上述条件,表明问题不能与知识片段进行良好匹配,我们将问题与候选答案相似度判断值D设定为0。
步骤S402:根据预设召回片段数量、所述相似度判断值、所述第二相似度和所述第三相似度对所述知识片段进行排序,获得目标知识片段并构建知识片段筛选集。
需说明的是,针对知识片段筛选过程,本方案可以预先设置需要召回的知识片段数量,例如:8条,并根据相似度判断值确定目标知识片段选取方式以及知识片段筛选集构建方式。
具体实现中,通过相似度判断值、第二相似度以及第三相似度对知识片段进行排序,获得排序结果,并根据预设召回片段数量从排序结果中选取目标知识片段,并根据目标知识片段构建知识片段筛选集。
进一步地,所述步骤S402还包括:若所述相似度判断值设置为所述第一数值时,根据所述第二相似度对所述知识片段进行排序,并根据预设召回片段数据从排序后的知识片段中选取目标知识片段并构建知识片段筛选集;若所述相似度判断值设置为所述第二数值时,根据所述第三相似度对所述知识片段进行排序,并根据所述预设召回片段数量从排序后的知识片段中选取目标知识片段构建预设数量的知识片段集合,并根据所述预设数量的知识片段集合的交集作为知识片段筛选集。
需说明的是,若相似度判断值设置为第一数值时,根据第二相似度对所述知识片段进行排序,并根据预设召回片段数据从排序后的知识片段中选取目标知识片段并构建知识片段筛选集;若相似度判断值设置为第二数值时,根据第三相似度对所述知识片段进行排序,并根据预设召回片段数量从排序后的知识片段中选取目标知识片段构建预设数量的知识片段集合,并根据预设数量的知识片段集合的交集作为知识片段筛选集。
可理解的是,针对相似度判断值为第一数值时,例如:如果D值为1,我们根据问题-知识片段相似度Q-Tx对知识片段排序,并取出排名最高的8个知识片段,构成知识片段筛选集T_top8。针对相似度判断值为第二数值时,例如:如果D值为0,通过答案-知识片段相似度A1-Tx,A2-Tx,A3-Tx进行知识片段排序,并取出排名最高的8个知识片段构成TA1_top8、TA2_top8、TA3_top8,然后取这三个集合的交集作为知识片段筛选集T_top8。
具体实现中,如果D值为1,可以根据问题-知识片段相似度Q-Tx对知识片段排序,并取出排名最高的8个知识片段,构成知识片段筛选集T_top8。如果D值为0,我们分别根据答案-知识片段相似度A1-Tx,A2-Tx,A3-Tx进行知识片段排序,并取出排名最高的8个知识片段构成TA1_top8、TA2_top8、TA3_top8,然后取这三个集合的交集作为知识片段筛选集T_top8。如果交集元素不足8个,则扩大抽取的排名最高的知识片段范围(例如将排名最高的8个元素扩大为10个),直到交集元素数量等于8为止。
步骤S403:将所述知识片段筛选集和所述用户输入的问题信息输入至预设大语言模型中,生成目标答案。
需说明的是,通过上述获得的知识片段筛选集与问题Q一起输入至大语言模型中,生成最终答案并返回至用户,满足用户的信息需求。
具体实现中,为进一步说明本方案中的方案执行流程图,可以参考图4所示的方案执行流程示意图,其中本方案执行步骤包括:步骤1,问题输入:用户输入问题Q,步骤2:利用大语言模型,对用户输入的问题Q进行答案生成。步骤3:用BERT进行余弦相似度计算,其中包括:对于每个生成的候选答案A1、A2、A3和问题Q,利用BERT模型计算余弦相似度进行相似度计算,得到答案-问题相似度分别为A1-Q,A2-Q,A3-Q。对于问题Q和每一个知识片段Tx,利用相同的相似度计算方法,得到问题-知识片段相似度Q-Tx。对于每个生成的候选答案A1、A2、A3和每一个知识片段Tx,利用相同的相似度计算方法,得到答案-知识片段相似度A1-Tx,A2-Tx,A3-Tx。步骤3:问题与候选答案相似度判断,步骤4:知识片段筛选,其中包括使用问题进行片段召回以及使用答案进行知识片段召回。步骤5:将召回的知识片段输入至大语言模型生成最终答复,输出返回至用户。
本实施例对预设知识库中的知识文档进行分割,获得多个知识片段;基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度;根据所述第一相似度与预设阈值进行对比,根据对比结果确定相似度判断值;根据预设召回片段数量、所述相似度判断值、所述第二相似度和所述第三相似度对所述知识片段进行排序,获得目标知识片段并构建知识片段筛选集;将所述知识片段筛选集和所述用户输入的问题信息输入至预设大语言模型中,生成目标答案,相较于针对使用大语言模型进行问题解析时,由于问题分析维度单一,导致准确率低,本实施例使用大语言模型将用户提问进行候选答案生成后,对问题、候选答案和知识片段进行综合相似度计算,可以更准确地衡量问题、答案和知识片段之间的相似度,从而筛选出最精准的目标答案。
此外,为实现上述目的,本发明还提出一种存储介质,所述存储介质上存储有知识检索程序,所述知识检索程序被处理器执行时实现如上文所述的知识检索方法的步骤。
参照图5,图5为本发明知识检索装置第一实施例的结构框图。
如图5所示,本发明实施例提出的知识检索装置包括:
文档分割模块10,用于对预设知识库中的知识文档进行分割,获得多个知识片段;
答案解析模块20,用于基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;
相似度计算模块30,用于基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度;
答案确定模块40,用于基于所述预设大语言模型以及所述综合相似度确定目标答案。
本实施例对预设知识库中的知识文档进行分割,获得多个知识片段;基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度;基于所述预设大语言模型以及所述综合相似度确定目标答案,相较于针对使用大语言模型进行问题解析时,由于问题分析维度单一,导致准确率低,本实施例使用大语言模型将用户提问进行候选答案生成后,对问题、候选答案和知识片段进行综合相似度计算,可以更准确地衡量问题、答案和知识片段之间的相似度,从而筛选出最精准的目标答案。
进一步地,所述相似度计算模块30还用于基于预设BERT模型对所述候选答案以及所述问题信息进行相似度计算,获得第一相似度;基于所述预设BERT模型对知识片段信息以及所述问题信息进行相似度计算,获得第二相似度;基于所述预设BERT模型对所述候选答案以及所述知识片段信息进行相似度计算,获得第三相似度;根据所述第一相似度、所述第二相似度以及所述第三相似度确定综合相似度。
进一步地,所述相似度计算模块30还用于将所述候选答案以及所述问题信息输入至预设BRET模型中,将所述候选答案转换为高维向量,获得第一嵌入向量;将所述问题信息转换为高维向量,获得第二嵌入向量;对所述第一嵌入向量以及所述第二嵌入向量进行余弦相似度计算,获得余弦相似度;根据所述余弦相似度确定第一相似度;
其中,所述余弦相似度=(A·B)/(||A||*||B||);
其中,A·B是A向量和B向量的点积,||A||和||B||分别是A向量和B向量的模。
进一步地,所述答案确定模块40还用于根据所述第一相似度与预设阈值进行对比,根据对比结果确定相似度判断值;根据预设召回片段数量、所述相似度判断值、所述第二相似度和所述第三相似度对所述知识片段进行排序,获得目标知识片段并构建知识片段筛选集;将所述知识片段筛选集和所述用户输入的问题信息输入至预设大语言模型中,生成目标答案。
进一步地,所述答案确定模块40还用于根据所述第一相似度与预设阈值进行对比,获得对比结果;若所述对比结果为不大于预设阈值,则将相似度判断值设置为第一数值;若所述对比结果为大于所述预设阈值,则将相似度判断值设置为第二数值。
进一步地,所述答案确定模块40还用于若所述相似度判断值设置为所述第一数值时,根据所述第二相似度对所述知识片段进行排序,并根据预设召回片段数据从排序后的知识片段中选取目标知识片段并构建知识片段筛选集;若所述相似度判断值设置为所述第二数值时,根据所述第三相似度对所述知识片段进行排序,并根据所述预设召回片段数量从排序后的知识片段中选取目标知识片段构建预设数量的知识片段集合,并根据所述预设数量的知识片段集合的交集作为知识片段筛选集。
进一步地,所述文档分割模块10还用于根据预设字符长度对预设知识库中的知识文档进行分割,获得多个知识片段。
应当理解的是,以上仅为举例说明,对本发明的技术方案并不构成任何限定,在具体应用中,本领域的技术人员可以根据需要进行设置,本发明对此不做限制。
需要说明的是,以上所描述的工作流程仅仅是示意性的,并不对本发明的保护范围构成限定,在实际应用中,本领域的技术人员可以根据实际的需要选择其中的部分或者全部来实现本实施例方案的目的,此处不做限制。
另外,未在本实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的知识检索方法,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。词语第一、第二、以及第三等的使用不表示任何顺序,可将这些词语解释为名称。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如只读存储器镜像(Read Only Memory image,ROM)/随机存取存储器(Random AccessMemory,RAM)、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种知识检索方法,其特征在于,所述知识检索方法包括以下步骤:
对预设知识库中的知识文档进行分割,获得多个知识片段;
基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;
基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度;
基于所述预设大语言模型以及所述综合相似度确定目标答案。
2.如权利要求1所述的知识检索方法,其特征在于,所述基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度的步骤,包括:
基于预设BERT模型对所述候选答案以及所述问题信息进行相似度计算,获得第一相似度;
基于所述预设BERT模型对知识片段信息以及所述问题信息进行相似度计算,获得第二相似度;
基于所述预设BERT模型对所述候选答案以及所述知识片段信息进行相似度计算,获得第三相似度;
根据所述第一相似度、所述第二相似度以及所述第三相似度确定综合相似度。
3.如权利要求2所述的知识检索方法,其特征在于,所述基于预设BERT模型对所述候选答案以及所述问题信息进行相似度计算,获得第一相似度的步骤,包括:
将所述候选答案以及所述问题信息输入至预设BRET模型中,将所述候选答案转换为高维向量,获得第一嵌入向量;
将所述问题信息转换为高维向量,获得第二嵌入向量;
对所述第一嵌入向量以及所述第二嵌入向量进行余弦相似度计算,获得余弦相似度;
根据所述余弦相似度确定第一相似度;
其中,所述余弦相似度=(A·B)/(||A||*||B||);
其中,A·B是A向量和B向量的点积,||A||和||B||分别是A向量和B向量的模。
4.如权利要求3所述的知识检索方法,其特征在于,所述基于所述预设大语言模型以及所述综合相似度确定目标答案的步骤,包括:
根据所述第一相似度与预设阈值进行对比,根据对比结果确定相似度判断值;
根据预设召回片段数量、所述相似度判断值、所述第二相似度和所述第三相似度对所述知识片段进行排序,获得目标知识片段并构建知识片段筛选集;
将所述知识片段筛选集和所述用户输入的问题信息输入至预设大语言模型中,生成目标答案。
5.如权利要求4所述的知识检索方法,其特征在于,所述根据所述第一相似度与预设阈值进行对比,根据对比结果确定相似度判断值步骤,包括:
根据所述第一相似度与预设阈值进行对比,获得对比结果;
若所述对比结果为不大于预设阈值,则将相似度判断值设置为第一数值;
若所述对比结果为大于所述预设阈值,则将相似度判断值设置为第二数值。
6.如权利要求5所述的知识检索方法,其特征在于,所述根据预设召回片段数量、所述相似度判断值、所述第二相似度和所述第三相似度对所述知识片段进行排序,获得目标知识片段并构建知识片段筛选集的步骤,包括:
若所述相似度判断值设置为所述第一数值时,根据所述第二相似度对所述知识片段进行排序,并根据预设召回片段数据从排序后的知识片段中选取目标知识片段并构建知识片段筛选集;
若所述相似度判断值设置为所述第二数值时,根据所述第三相似度对所述知识片段进行排序,并根据所述预设召回片段数量从排序后的知识片段中选取目标知识片段构建预设数量的知识片段集合,并根据所述预设数量的知识片段集合的交集作为知识片段筛选集。
7.如权利要求1所述的知识检索方法,其特征在于,所述对预设知识库中的知识文档进行分割,获得多个知识片段的步骤,包括:
根据预设字符长度对预设知识库中的知识文档进行分割,获得多个知识片段。
8.一种知识检索设备,其特征在于,所述知识检索设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的知识检索程序,所述知识检索程序被所述处理器执行时实现如权利要求1至7中任一项所述的知识检索方法。
9.一种存储介质,其特征在于,所述存储介质上存储有知识检索程序,所述知识检索程序被处理器执行时实现如权利要求1至7中任一项所述的知识检索方法。
10.一种知识检索装置,其特征在于,所述知识检索装置包括:
文档分割模块,用于对预设知识库中的知识文档进行分割,获得多个知识片段;
答案解析模块,用于基于预设大语言模型对用户输入的问题信息进行答案解析,获得候选答案;
相似度计算模块,用于基于预设BERT模型对所述问题信息、所述知识片段以及所述候选答案进行相似度分析,获得综合相似度;
答案确定模块,用于基于所述预设大语言模型以及所述综合相似度确定目标答案。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410039037.9A CN117763126A (zh) | 2024-01-10 | 2024-01-10 | 知识检索方法、设备、存储介质及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410039037.9A CN117763126A (zh) | 2024-01-10 | 2024-01-10 | 知识检索方法、设备、存储介质及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117763126A true CN117763126A (zh) | 2024-03-26 |
Family
ID=90325970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410039037.9A Pending CN117763126A (zh) | 2024-01-10 | 2024-01-10 | 知识检索方法、设备、存储介质及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117763126A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118051602A (zh) * | 2024-04-15 | 2024-05-17 | 可之(宁波)人工智能科技有限公司 | 面向信息安全领域的智能问答方法及系统、介质、设备 |
CN119621919A (zh) * | 2025-02-14 | 2025-03-14 | 中国人民解放军国防科技大学 | 一种分层检索增强生成方法及系统 |
-
2024
- 2024-01-10 CN CN202410039037.9A patent/CN117763126A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118051602A (zh) * | 2024-04-15 | 2024-05-17 | 可之(宁波)人工智能科技有限公司 | 面向信息安全领域的智能问答方法及系统、介质、设备 |
CN119621919A (zh) * | 2025-02-14 | 2025-03-14 | 中国人民解放军国防科技大学 | 一种分层检索增强生成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108804641B (zh) | 一种文本相似度的计算方法、装置、设备和存储介质 | |
CN112395506A (zh) | 一种资讯推荐方法、装置、电子设备和存储介质 | |
TW202020691A (zh) | 特徵詞的確定方法、裝置和伺服器 | |
CN117763126A (zh) | 知识检索方法、设备、存储介质及装置 | |
JP6053131B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN112163424A (zh) | 数据的标注方法、装置、设备和介质 | |
CN112036168A (zh) | 事件主体识别模型优化方法、装置、设备及可读存储介质 | |
CN117690545A (zh) | 一种基于大模型的治疗方案生成方法及装置 | |
CN117592470A (zh) | 大语言模型驱动的低成本公报数据抽取方法 | |
CN119066179B (zh) | 问答处理方法、计算机程序产品、设备及介质 | |
CN111950265A (zh) | 一种领域词库构建方法和装置 | |
CN116050516A (zh) | 基于知识蒸馏的文本处理方法及装置、设备和介质 | |
CN109657710B (zh) | 数据筛选方法、装置、服务器及存储介质 | |
CN119377415A (zh) | 一种中文不良言论检测方法及系统 | |
CN114021716A (zh) | 一种模型训练的方法、系统及电子设备 | |
CN117349408B (zh) | 一种人机互动结果生成方法及系统 | |
CN118228993A (zh) | 需求优先级的确定方法、装置、计算机设备和存储介质 | |
CN112001176B (zh) | 文本数据的同质化检测方法及装置 | |
CN115292489A (zh) | 企业舆情分析方法、装置、设备及存储介质 | |
CN114676237A (zh) | 语句相似度确定方法、装置、计算机设备和存储介质 | |
CN118170920B (zh) | 一种混合语种文本检测方法及系统 | |
CN110929033A (zh) | 长文本分类方法、装置、计算机设备及存储介质 | |
CN118643170B (zh) | 词云图的生成方法、词云图的生成设备以及可读存储介质 | |
CN118069932B (zh) | 配置信息的推荐方法、装置、计算机设备 | |
CN114357194B (zh) | 种子数据的扩充方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |