Nothing Special   »   [go: up one dir, main page]

CN115033683A - 摘要生成方法、装置、设备及存储介质 - Google Patents

摘要生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN115033683A
CN115033683A CN202210689662.9A CN202210689662A CN115033683A CN 115033683 A CN115033683 A CN 115033683A CN 202210689662 A CN202210689662 A CN 202210689662A CN 115033683 A CN115033683 A CN 115033683A
Authority
CN
China
Prior art keywords
abstract
model
text
vector
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210689662.9A
Other languages
English (en)
Other versions
CN115033683B (zh
Inventor
杜江楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210689662.9A priority Critical patent/CN115033683B/zh
Publication of CN115033683A publication Critical patent/CN115033683A/zh
Application granted granted Critical
Publication of CN115033683B publication Critical patent/CN115033683B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及人工智能技术领域,公开了一种摘要生成方法、装置、设备及存储介质,方法包括:获取训练文本、正例摘要以及负例摘要;根据训练文本以及正例摘要对预设的第一BART模型进行训练,得到比对模型;根据训练文本、正例摘要以及负例摘要对预设的BERT模型进行训练,得到评估模型;根据训练文本以及正例摘要对预设的第二BART模型进行训练,并利用评估模型以及比对模型判断第二BART模型是否训练完成,得到摘要生成模型;当接收到摘要生成指令时,从摘要生成指令中获取待处理文本;识别待处理文本中的关键词,并获取关键词对应的同义词;利用摘要生成模型生成对应待处理文本的初始摘要,并利用关键词以及同义词对初始摘要进行标记处理,得到结果摘要。

Description

摘要生成方法、装置、设备及存储介质
技术领域
本申请涉及人工智能的技术领域,尤其涉及一种摘要生成方法、装置、设备及存储介质。
背景技术
一篇较长的文本对于用户有很高的阅读成本,在当今生活的快节奏下,人们一般不愿意花大量的时间把一篇文本从头到尾读完。但是,大多数文本的核心思想并不需要完整的读完,文本被概括总结成摘要后,用户通过阅读摘要,即可基本掌握文本的主要内容,摘要的长度往往远小于原文本的长度,这种阅读方式提高了用户的阅读效率以及阅读体验。然而,传统的摘要生成需要人工先去阅读文本全文,然后再进行概括总结并编写,这需要花费大量的人力成本,并且效率低下。
发明内容
本申请的主要目的在于提供一种摘要生成方法、装置、设备及存储介质,旨在解决现有技术中通过人工编写生成摘要的方式人力成本高,效率低下的问题。
第一方面,本申请提供一种摘要生成方法,包括:
获取训练文本、正例摘要以及负例摘要,其中,所述正例摘要为所述训练文本对应的摘要,所述负例摘要为预设的文本集合中除所述训练文本以外的其他文本对应的摘要;
根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型;
根据所述训练文本、所述正例摘要以及所述负例摘要对预设的BERT模型进行训练,得到评估模型;
根据所述训练文本以及所述正例摘要对预设的第二BART模型进行训练,并利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成,当所述第二BART模型训练完成时,得到摘要生成模型;
当接收到摘要生成指令时,从所述摘要生成指令中获取待处理文本;
识别所述待处理文本中的关键词,并获取所述关键词对应的同义词;
利用所述摘要生成模型生成所述待处理文本对应的初始摘要,并利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要。
第二方面,本申请还提供一种摘要生成装置,所述摘要生成装置包括:
训练数据获取模块,用于获取训练文本、正例摘要以及负例摘要,其中,所述正例摘要为所述训练文本对应的摘要,所述负例摘要为预设的文本集合中除所述训练文本以外的其他文本对应的摘要;
比对模型训练模块,用于根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型;
评估模型训练模块,用于根据所述训练文本、所述正例摘要以及所述负例摘要对预设的BERT模型进行训练,得到评估模型;
摘要模型训练模块,用于根据所述训练文本以及所述正例摘要对预设的第二BART模型进行训练,并利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成,当所述第二BART模型训练完成时,得到摘要生成模型;
生成指令处理模块,用于当接收到摘要生成指令时,从所述摘要生成指令中获取待处理文本;
文本识别模块,用于识别所述待处理文本中的关键词,并获取所述关键词对应的同义词;
摘要生成模块,用于利用所述摘要生成模型生成所述待处理文本对应的初始摘要,并利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要。
第三方面,本申请还提供一种计算机设备,所述计算机设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的计算机程序,其中所述计算机程序被所述处理器执行时,实现如上所述的摘要生成方法的步骤。
第四方面,本申请还提供一种存储介质,所述计算机可读存储介质上存储有计算机程序,其中所述计算机程序被处理器执行时,实现如上所述的摘要生成方法的步骤。
本申请提供一种摘要生成方法、装置、设备及存储介质,本申请提供一种摘要生成方法、装置、设备及存储介质,本申请中,根据训练文本以及正例摘要对预设的第二BART模型进行训练,并利用评估模型以及比对模型判断第二BART模型是否训练完成,得到摘要生成模型,可以确保所得到的摘要生成模型所生成的摘要的语言通顺性以及语义准确度要优于比对模型。另外,利用摘要生成模型即可生成对应待处理文本的摘要,解决了现有技术中通过人工编写生成摘要的方式人力成本高,效率低下的问题;并且,利用关键词以及关键词对应的同义词对初始摘要进行标记处理,用户阅读所得到结果摘要可以更快的抓住文本的重点,提高了用户阅读体验。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种摘要生成方法的步骤流程示意图;
图2为本申请实施例提供的一种摘要生成装置的示意性框图;
图3为本申请实施例提供的一种计算机设备的结构示意性框图。
本申请目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。另外,虽然在装置示意图中进行了功能模块的划分,但是在某些情况下,可以以不同于装置示意图中的模块划分。
本申请实施例提供一种摘要生成方法、装置、设备及存储介质。其中,该方法可应用于终端设备或服务器中,该终端设备可以为手机、平板电脑、笔记本电脑、台式电脑、个人数字助理和穿戴式设备等电子设备;该服务器可以为单台的服务器,也可以为由多台服务器组成的服务器集群。以下以该方法应用于服务器为例进行解释说明。
下面结合附图,对本申请的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参照图1,图1为本申请实施例提供的一种摘要生成方法的步骤流程示意图。
如图1所示,该摘要生成方法包括步骤S10至步骤S16。
步骤S10、获取训练文本、正例摘要以及负例摘要,其中,所述正例摘要为所述训练文本对应的摘要,所述负例摘要为预设的文本集合中除所述训练文本以外的其他文本对应的摘要。
可以理解,训练文本、正例摘要以及负例摘要可以从预设的文本集合中获取,预设的文本集合存储于执行主体的数据库中。训练文本的数量为一个或多个,其中,每一个训练文本都有一个或多个对应的正例摘要,并且,每一个训练文本都有一个或多个对应的负例摘要。训练文本、正例摘要以及负例摘要越丰富,训练模型的效果越好。
正例摘要表征训练文本的正确摘要,为工作人员阅读训练文本之后,对训练文本进行概括总结后编写出来的摘要。而负例摘要为文本集合中除训练文本以外的其他文本对应的摘要,作为训练文本的错误摘要。
步骤S11、根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型。
可以理解,第一BART模型为预设的BART(Bidirectional and Auto-RegressiveTransformers,双向自回归变压器)模型,是使用Transformer模型整体结构的预训练语言模型,一方面,第一BART模型既带有Transformer-Encoder结构,可以用于执行自然语言理解任务;另一方面,第一BART模型也带有Transformer-Decoder结构,可以用于执行自然语言生成任务。
使用训练文本以及正例摘要对预设的第一BART模型进行训练时,可以让第一BART模型学习如何根据训练文本生成正例摘要,训练完成时,确认第一BART模型为比对模型。
在一些实施方式中,所述根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型,包括:
以所述训练文本作为所述第一BART模型的编码输入参数,并以所述正例摘要作为所述第一BART模型的解码输入参数,且以最大似然函数作为所述第一BART模型的损失函数,对所述第一BART模型进行训练,得到比对模型。
在第一BART模型的训练过程中,第一BART模型在计算损失函数的同时,不断的调整其自身的模型参数,当损失函数收敛时,第一BART模型训练完成,此时确定第一BART模型为比对模型。
可以理解,以最大似然函数作为第一BART模型的损失函数,可以提高训练出来的比对模型所生成的摘要的语言通顺性。另外,用于训练第一BART模型的训练文本以及正例摘要的数据越丰富,第一BART模型的训练效果越好,利用比对模型输出的摘要的语言通顺性越好。
最大似然函数如下所示:
Figure BDA0003701107490000051
其中,x为输入第一BART模型的训练文本;向第一BART模型输入训练文本x后,第一BART模型输出的摘要yt包括n个字符,分别为:y′1,…,y′t-1,p(y′t∣y′1,…,y′t-1,x)表征在输入的训练文本x确定的情况下,第一BART模型输出的摘要中的各个字符的概率。
步骤S12、根据所述训练文本、所述正例摘要以及所述负例摘要对预设的BERT模型进行训练,得到评估模型。
可以理解,BERT(Bidirectional Encoder Representation from Transformers)模型引用了Transformer架构中的Encoder模块,并舍弃了Transformer架构中的Decoder模块,这样使得它拥有强大的特征提取能力。
利用训练文本以及正例摘要对BERT模型进行训练,可以让BERT模型学习训练文本以及正例摘要的语义;另外,结合正例摘要以及负例摘要对BERT模型进行训练,可以提高BERT模型的训练效果;利用最终得到的评估模型,可以评估文本与摘要的匹配程度。
评估模型可以通过对输入数据进行编码的方式来获取输入数据的向量,以提取输入数据的特征,示例性的,向评估模型输入待评估文本时,评估模型对待评估文本进行编码即可得到待评估文本对应的文本向量;同理,向评估模型输入待评估摘要时,评估模型对待评估摘要进行编码处理即可得到待评估摘要对应的摘要向量;通过预设的评估方法对文本向量以及摘要向量进行分析,即可得出待评估文本与待评估摘要的匹配程度。
步骤S13、根据所述训练文本以及所述正例摘要对预设的第二BART模型进行训练,并利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成,当所述第二BART模型训练完成时,得到摘要生成模型。
可以理解,用于训练第二BART模型的数据与用于训练第一BART模型的数据相同,但是,第二BART模型的训练过程与第一BART模型的训练过程不太一样。
在第二BART模型的训练过程中,通过评估模型对第二BART模型与比对模型进行评估,以判断第二BART模型是否训练完成。
在一些实施方式中,当分别向第二BART模型与比对模型输入训练文本时,利用评估模型评估到第二BART模型所输出的摘要与训练文本的语义比比对模型所输出的摘要与训练文本的语义更相近,或者第二BART模型所输出的摘要与正例摘要的语义比比对模型所输出的摘要与正例摘要的语义更接近时,说明第二BART模型比比对模型更优秀,此时,第二BART模型训练完成,确定第二BART模型为摘要生成模型。
在一些实施方式中,所述利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成,包括:
利用所述比对模型生成对应所述训练文本的第一摘要,并利用所述第二BART模型生成对应所述训练文本的第二摘要;
利用所述评估模型生成对应所述第一摘要的第一摘要向量,并利用所述评估模型生成对应所述第二摘要的第二摘要向量;
利用所述评估模型生成对应所述训练文本的文本向量,并利用所述评估模型生成对应所述正例摘要的正例摘要向量;
根据所述文本向量、所述第一摘要向量以及所述第二摘要向量构建第一损失函数,并根据所述正例摘要向量、所述第一摘要向量以及所述第二摘要向量构建第二损失函数;
根据所述第一损失函数、所述第二损失函数以及所述最大似然函数构建目标损失函数;
根据所述目标损失函数调整所述第二BART模型的模型参数,并根据所述目标损失函数判断所述第二BART模型是否训练完成。
可以理解,向比对模型输入训练文本,则比对模型根据训练文所输出的结果即为第一摘要;同理,向第二BART模型输入训练文本,则第二BART模型根据训练文所输出的结果即为第二摘要。
向评估模型输入数据,评估模型即可通过对输入数据进行编码处理的方式提取输入数据的特征,生成对应输入数据的向量。利用评估模型分别对第一摘要、第二摘要、训练文本以及正例摘要进行编码处理,分别得到第一摘要向量、第二摘要向量、文本向量以及正例摘要向量。
根据文本向量、第一摘要向量以及第二摘要向量所构建的第一损失函数,可以评估第一摘要与训练文本的相似度以及第二摘要与训练文本的相似度。同理,根据正例摘要向量、第一摘要向量以及第二摘要向量所构建的第二损失函数,则可以评估第一摘要与正例摘要的相似度以及第二摘要与正例摘要的相似度。
可以理解,如果第二摘要与训练文本的相似度要高于第一摘要与训练文本的相似度,并且,如果第一摘要与正例摘要的相似度要高于第二摘要与正例摘要的相似度,则说明当前训练的第二BART模型要比比对模型更优秀,与比对模型相比,当前训练的第二BART模型更好的理解了训练文本与正例摘要的关系。
另外,目标损失函数除了第一损失函数以及第二损失函数之外,还包括最大似然函数。通过本实施方式所提供的技术方案,最终构建出来的目标损失函数中,既有似然损失保证摘要生成模型生成的摘要的语言通顺性,也有第一损失函数保证摘要生成模型生成的摘要和训练文本的语义相似性,还有第二损失函数保证摘要生成模型生成的摘要和正例摘要的语义相似性,能够提升摘要生成模型生成摘要的语言通顺性和语义的准确性。
第二BART模型在训练过程中,根据目标损失函数不断的调整其自身的参数。在一些实施方式中,当目标损失函数收敛到预设值以内时,第二BART模型训练完成,此时,确定第二BART模型为摘要生成模型。
在一些实施方式中,所述根据所述文本向量、所述第一摘要向量以及所述第二摘要向量构建第一损失函数,并根据所述正例摘要向量、所述第一摘要向量以及所述第二摘要向量构建第二损失函数,包括:
计算所述第一摘要向量与所述文本向量的第一点积结果,并计算所述第二摘要向量与所述文本向量的第二点积结果,根据所述第一点积结果以及所述第二点积结果构建所述第一损失函数;
计算所述第一摘要向量与所述正例摘要向量的第三点积结果,并计算所述第二摘要向量与所述正例摘要向量的第四点积结果,根据所述第三点积结果以及所述第四点积结果构建所述第二损失函数。
在一些实施方式中,所述根据所述文本向量、所述第一摘要向量以及所述第二摘要向量构建第一损失函数,并根据所述正例摘要向量、所述第一摘要向量以及所述第二摘要向量构建第二损失函数,包括:
计算所述第一摘要向量与所述文本向量的余弦相似度,得到第一相似结果,并计算所述第二摘要向量与所述文本向量的余弦相似度,得到第二相似结果,根据所述第一相似结果以及所述第二相似结果构建第一损失函数;
计算所述第一摘要向量与所述正例摘要向量的余弦相似度,得到第三相似结果,并计算所述第二摘要向量与所述正例摘要向量的余弦相似度,得到第四相似结果,根据所述第三相似结果以及所述第四相似结果构建第二损失函数。
可以理解,在上面两个实施例中,与根据第一点积结果以及第二点积结果构建第一损失函数,并根据第三点积结果以及第四点积结果构建第二损失函数相比,根据第一相似结果以及第二相似结果构建第一损失函数,并根据第三相似结果以及第四相似结果构建第二损失函数来对第二BART模型进行训练所取得的训练效果更好。
具体的,第一损失函数为:
Figure BDA0003701107490000091
在E(x)中,x为训练文本,E(x)表征将训练文本输入评估模型后,评估模型对训练文本进行编码后,输出的对应训练文本的文本向量。
Figure BDA0003701107490000092
中,
Figure BDA0003701107490000093
为向比对模型输入训练文本后,比对模型输出的第一摘要,
Figure BDA0003701107490000094
表征将第一摘要输入评估模型后,评估模型对第一摘要进行编码后,输出的对应第一摘要的第一摘要向量。
在E(ygen)中,ygen为向第二BART模型输入训练文本后,第二BART模型输出的第二摘要,E(ygen)表征将第二摘要输入评估模型后,评估模型对第二摘要进行编码后,输出的对应第二摘要的第二摘要向量。
在一些实施方式中,s()函数可以为计算输入的两个向量的点积,也可以为计算输入的两个向量的余弦相似度,在此不做限制。可以理解,通过计算两个向量的点积或者余弦相似度,可以判断两个向量之间的语义相似度。
第二损失函数为:
Figure BDA0003701107490000095
在E(ytrue)中,ytrue为正例摘要,E(ytrue)表征将正例摘要输入评估模型后,评估模型对正例摘要进行编码后,输出的对应正例摘要的第二摘要向量。
在第一损失函数以及第二损失函数中,第二摘要ygen中包括n个字符,分别为:
Figure BDA0003701107490000096
表征在输入的训练文本x确定的情况下,第二BART模型输出的第二摘要中的各个字符的概率。
将第一损失函数以及第二损失函数联合起来,即得到如下损失函数:
Figure BDA0003701107490000097
其中,α为超参数,在一些实施方式中,α可以设置为0.5,也可以根据情况需要设置为其他数值,在此不做限制。
基于上述损失函数,最终构建出来的目标损失函数为:Lfinal=γLlm+(1-γ)Lrl,其中,γ为超参数,Llm为训练第一BART模型时所用到的最大似然损失函数。在一些实施方式中,γ可以设置为0.5,也可以根据情况需要设置为其他数值,在此不做限制。
步骤S14、当接收到摘要生成指令时,从所述摘要生成指令中获取待处理文本。
可以理解,摘要生成指令中包含待处理文本,待处理文本为需要进行处理以生成摘要的文本。
在一些实施方式中,当本方法的执行主体为服务器时,摘要生成指令可以为服务器接收到的发自终端设备的网络请求,也可以为服务器接收到的其他操作指令,在此不做限制;当本方法的执行主体为终端设备时,摘要生成指令可以为终端设备响应用户点击事件时接收到的操作指令,也可以为其他形式的可以指示终端设备执行任务的指令,在此不做限制。
步骤S15、识别所述待处理文本中的关键词,并获取所述关键词对应的同义词。
可以理解,从待处理文本中选取的关键词为一个或多个,另外,每一个关键词对应的同义词也可以为一个或多个。在一些实施方式中,可以采用TF-IDF(term frequency–inverse document frequency)算法从待处理文本中选取关键词,也可以根据情况需要通过其他方法从待处理文本中选取关键词,在此不做限制。
在一些实施方式中,所述识别所述待处理文本中的关键词,包括:
对所述待处理文本进行分词处理,得到第一词集;
根据预设的无用词集滤除所述第一词集中的无用词,得到第二词集;
计算所述第二词集中各个词语的词频,并根据所述词频计算所述第二词集中各个词语的权重;
根据所述权重从所述第二词集中筛选关键词。
对待处理文本进行分词处理时,可以使用(NLP,Natural Language Processing)自然语言处理技术来实现,也可以根据情况需要采用其他方法来实现分词,在此不做限制。对待处理文本进行分词处理后,利用得到的分词组成的集合,即为第一词集。
第一词集中可能会存在一些无用词,比如说“可以”、“我们”、“通常”等,这些词语在人们日常说话的过程中出现频率较高,但是没有多少表征意义。预设的无用词集中记录了这些出现频率高却没有表征意义的无用词,滤除掉第一词集中被无用词集记录的无用词,即得到第二词集。
统计第二词集中各个词语的词频,词语在第二词集中出现的频率越高,则可以推断这个词语在待处理文本中越关键,可以通过计算第二词集中各个词语的词频,来设置各个词语的权重,词语的词频越高,对应的权重越大。根据权重即可从第二词集中筛选关键词。
在一些实施方式中,所述获取所述关键词对应的同义词,包括:
计算所述关键词的关键词向量;
计算所述关键词向量与预设的词库中的各个备选词的备选词向量的余弦相似度,并根据所述余弦相似度从所述词库中筛选所述关键词对应的同义词。
可以理解,可以通过预训练好的向量获取模型对关键词进行编码处理,得到关键词向量,当然,也可以根据情况需要采取其他方法获取关键词向量,在此不做限制。
在一些实施方式中,向量获取模型可以为BERT模型,可以为word2vec(wordembedding)模型,还可以为其他可以计算关键词对应的词向量的模型,在此不做限制。
预设的词库中记录有多个备选词以及各个备选词对应的备选词向量,其中,关键词向量为可以表征关键词的语义的向量,同理,备选词向量为可以表征备选词的语义的向量。计算关键词向量与词库中各个备选词对应的备选词向量的余弦相似度,即可根据余弦相似度筛选与关键词对应的同义词。
步骤S16、利用所述摘要生成模型生成所述待处理文本对应的初始摘要,并利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要。
可以理解,向摘要生成模型输入待处理文本,摘要生成模型的输出结果即为待处理文本的初始摘要。
在一些实施方式中,标记初始摘要中的关键词以及关键词对应的同义词的方式,可以为对初始摘要中的关键词以及关键词对应的同义词进行加粗处理、设置高亮字体颜色、增加下划线等等,当然,也可以根据情况需要采用其他标记方式,在此不做限制。
在一些实施方式中,所述利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要,包括:
获取所述初始摘要中包含所述关键词或所述同义词的关键句子,并确定所述关键句子在所述初始摘要中的起始位置以及终止位置;
根据所述起始位置以及所述终止位置对所述初始摘要进行标记处理,得到结果摘要。
在一些实施方式中,当识别到初始摘要中关键词或者同义词的目标位置时,可以根据预设的文本分割符号来确定包含关键词或同义词的句子的起始位置以及终止位置。其中,文本分割符号可以为逗号或者句号,具体使用可以根据情况需要进行选择,在此不做限制。
位于初始摘要中的起始位置以及终止位置之间的语句即为初始摘要中的关键语句,对初始摘要中的关键语句进行标记处理,即得到结果摘要。
通过本实施方式所提供的技术方案,用户在阅读结果摘要时,可以更快的发现结果摘要中包含关键词以及关键词对应的同义词的关键语句,可以提高用户的阅读体验。
本申请中,根据训练文本以及正例摘要对预设的第二BART模型进行训练,并利用评估模型以及比对模型判断第二BART模型是否训练完成,得到摘要生成模型,可以确保所得到的摘要生成模型所生成的摘要的语言通顺性以及语义准确度要优于比对模型。另外,利用摘要生成模型即可生成对应待处理文本的摘要,解决了现有技术中通过人工编写生成摘要的方式人力成本高,效率低下的问题;并且,利用关键词以及关键词对应的同义词对初始摘要进行标记处理,用户阅读所得到结果摘要可以更快的抓住文本的重点,提高了用户阅读体验。
请参照图2,图2为本申请实施例提供的一种摘要生成装置的示意性框图。
如图2所示,该摘要生成装置201,包括:
训练数据获取模块2011,用于获取训练文本、正例摘要以及负例摘要,其中,所述正例摘要为所述训练文本对应的摘要,所述负例摘要为预设的文本集合中除所述训练文本以外的其他文本对应的摘要;
比对模型训练模块2012,用于根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型;
评估模型训练模块2013,用于根据所述训练文本、所述正例摘要以及所述负例摘要对预设的BERT模型进行训练,得到评估模型;
摘要模型训练模块2014,用于根据所述训练文本以及所述正例摘要对预设的第二BART模型进行训练,并利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成,当所述第二BART模型训练完成时,得到摘要生成模型;
生成指令处理模块2015,用于当接收到摘要生成指令时,从所述摘要生成指令中获取待处理文本;
文本识别模块2016,用于识别所述待处理文本中的关键词,并获取所述关键词对应的同义词;
摘要生成模块2017,用于利用所述摘要生成模型生成所述待处理文本对应的初始摘要,并利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要。
在一些实施方式中,所述比对模型训练模块2012在根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型时,包括:
以所述训练文本作为所述第一BART模型的编码输入参数,并以所述正例摘要作为所述第一BART模型的解码输入参数,且以最大似然函数作为所述第一BART模型的损失函数,对所述第一BART模型进行训练,得到比对模型。
在一些实施方式中,所述摘要模型训练模块2014在利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成时,包括:
利用所述比对模型生成对应所述训练文本的第一摘要,并利用所述第二BART模型生成对应所述训练文本的第二摘要;
利用所述评估模型生成对应所述第一摘要的第一摘要向量,并利用所述评估模型生成对应所述第二摘要的第二摘要向量;
利用所述评估模型生成对应所述训练文本的文本向量,并利用所述评估模型生成对应所述正例摘要的正例摘要向量;
根据所述文本向量、所述第一摘要向量以及所述第二摘要向量构建第一损失函数,并根据所述正例摘要向量、所述第一摘要向量以及所述第二摘要向量构建第二损失函数;
根据所述第一损失函数、所述第二损失函数以及所述最大似然函数构建目标损失函数;
根据所述目标损失函数调整所述第二BART模型的模型参数,并根据所述目标损失函数判断所述第二BART模型是否训练完成。
在一些实施方式中,所述摘要模型训练模块2014在根据所述文本向量、所述第一摘要向量以及所述第二摘要向量构建第一损失函数,并根据所述正例摘要向量、所述第一摘要向量以及所述第二摘要向量构建第二损失函数时,包括:
计算所述第一摘要向量与所述文本向量的第一点积结果,并计算所述第二摘要向量与所述文本向量的第二点积结果,根据所述第一点积结果以及所述第二点积结果构建所述第一损失函数;
计算所述第一摘要向量与所述正例摘要向量的第三点积结果,并计算所述第二摘要向量与所述正例摘要向量的第四点积结果,根据所述第三点积结果以及所述第四点积结果构建所述第二损失函数。
在一些实施方式中,所述文本识别模块2016在识别所述待处理文本中的关键词时,包括:
对所述待处理文本进行分词处理,得到第一词集;
根据预设的无用词集滤除所述第一词集中的无用词,得到第二词集;
计算所述第二词集中各个词语的词频,并根据所述词频计算所述第二词集中各个词语的权重;
根据所述权重从所述第二词集中筛选关键词。
在一些实施方式中,所述文本识别模块2016在获取所述关键词对应的同义词时,包括:
计算所述关键词的关键词向量;
计算所述关键词向量与预设的词库中的各个备选词的备选词向量的余弦相似度,并根据所述余弦相似度从所述词库中筛选所述关键词对应的同义词。
在一些实施方式中,所述摘要生成模块2017在利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要时,包括:
获取所述初始摘要中包含所述关键词或所述同义词的关键句子,并确定所述关键句子在所述初始摘要中的起始位置以及终止位置;
根据所述起始位置以及所述终止位置对所述初始摘要进行标记处理,得到结果摘要。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的装置和各模块及单元的具体工作过程,可以参考前述摘要生成方法实施例中的对应过程,在此不再赘述。
上述实施例提供的装置可以实现为一种计算机程序的形式,该计算机程序可以在如图3所示的计算机设备上运行。
请参阅图3,图3为本申请实施例提供的一种计算机设备的结构示意性框图。该计算机设备包括但不限定于服务器。
如图3所示,该计算机设备301包括通过系统总线连接的处理器3011、存储器和网络接口,其中,存储器可以包括存储介质3012和内存储器3015,存储介质3012可以是非易失性的,也可以是易失性的。
存储介质3012可存储操作系统和计算机程序。该计算机程序包括程序指令,该程序指令被执行时,可使得处理器3011执行任意一种摘要生成方法。
处理器3011用于提供计算和控制能力,支撑整个计算机设备的运行。
内存储器3015为存储介质3012中的计算机程序的运行提供环境,该计算机程序被处理器3011执行时,可使得处理器3011执行任意一种摘要生成方法。
该网络接口用于进行网络通信,如发送分配的任务等。本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
应当理解的是,处理器3011可以是中央处理单元(Central Processing Unit,CPU),该处理器3011还可以是其他通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
其中,在一些实施方式中,所述处理器3011用于运行存储在存储器中的计算机程序,以实现如下步骤:
获取训练文本、正例摘要以及负例摘要,其中,所述正例摘要为所述训练文本对应的摘要,所述负例摘要为预设的文本集合中除所述训练文本以外的其他文本对应的摘要;
根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型;
根据所述训练文本、所述正例摘要以及所述负例摘要对预设的BERT模型进行训练,得到评估模型;
根据所述训练文本以及所述正例摘要对预设的第二BART模型进行训练,并利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成,当所述第二BART模型训练完成时,得到摘要生成模型;
当接收到摘要生成指令时,从所述摘要生成指令中获取待处理文本;
识别所述待处理文本中的关键词,并获取所述关键词对应的同义词;
利用所述摘要生成模型生成所述待处理文本对应的初始摘要,并利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要。
在一些实施方式中,所述处理器3011在根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型时,用于实现:
以所述训练文本作为所述第一BART模型的编码输入参数,并以所述正例摘要作为所述第一BART模型的解码输入参数,且以最大似然函数作为所述第一BART模型的损失函数,对所述第一BART模型进行训练,得到比对模型。
在一些实施方式中,所述处理器3011在利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成时,用于实现:
利用所述比对模型生成对应所述训练文本的第一摘要,并利用所述第二BART模型生成对应所述训练文本的第二摘要;
利用所述评估模型生成对应所述第一摘要的第一摘要向量,并利用所述评估模型生成对应所述第二摘要的第二摘要向量;
利用所述评估模型生成对应所述训练文本的文本向量,并利用所述评估模型生成对应所述正例摘要的正例摘要向量;
根据所述文本向量、所述第一摘要向量以及所述第二摘要向量构建第一损失函数,并根据所述正例摘要向量、所述第一摘要向量以及所述第二摘要向量构建第二损失函数;
根据所述第一损失函数、所述第二损失函数以及所述最大似然函数构建目标损失函数;
根据所述目标损失函数调整所述第二BART模型的模型参数,并根据所述目标损失函数判断所述第二BART模型是否训练完成。
在一些实施方式中,所述处理器3011在根据所述文本向量、所述第一摘要向量以及所述第二摘要向量构建第一损失函数,并根据所述正例摘要向量、所述第一摘要向量以及所述第二摘要向量构建第二损失函数时,用于实现:
计算所述第一摘要向量与所述文本向量的第一点积结果,并计算所述第二摘要向量与所述文本向量的第二点积结果,根据所述第一点积结果以及所述第二点积结果构建所述第一损失函数;
计算所述第一摘要向量与所述正例摘要向量的第三点积结果,并计算所述第二摘要向量与所述正例摘要向量的第四点积结果,根据所述第三点积结果以及所述第四点积结果构建所述第二损失函数。
在一些实施方式中,所述文处理器3011在识别所述待处理文本中的关键词时,用于实现:
对所述待处理文本进行分词处理,得到第一词集;
根据预设的无用词集滤除所述第一词集中的无用词,得到第二词集;
计算所述第二词集中各个词语的词频,并根据所述词频计算所述第二词集中各个词语的权重;
根据所述权重从所述第二词集中筛选关键词。
在一些实施方式中,所述处理器3011在获取所述关键词对应的同义词时,用于实现:
计算所述关键词的关键词向量;
计算所述关键词向量与预设的词库中的各个备选词的备选词向量的余弦相似度,并根据所述余弦相似度从所述词库中筛选所述关键词对应的同义词。
在一些实施方式中,所述处理器3011在利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要时,用于实现:
获取所述初始摘要中包含所述关键词或所述同义词的关键句子,并确定所述关键句子在所述初始摘要中的起始位置以及终止位置;
根据所述起始位置以及所述终止位置对所述初始摘要进行标记处理,得到结果摘要。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述计算机设备的具体工作过程,可以参考前述摘要生成方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供一种存储介质,该存储介质为计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序中包括程序指令,所述程序指令被执行时所实现的方法可参照本申请摘要生成方法的各个实施例。
其中,所述计算机可读存储介质可以是前述实施例所述的计算机设备的内部存储单元,例如所述计算机设备的硬盘或内存。所述计算机可读存储介质也可以是所述计算机设备的外部存储设备,例如所述计算机设备上配备的插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种摘要生成方法,其特征在于,所述方法包括:
获取训练文本、正例摘要以及负例摘要,其中,所述正例摘要为所述训练文本对应的摘要,所述负例摘要为预设的文本集合中除所述训练文本以外的其他文本对应的摘要;
根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型;
根据所述训练文本、所述正例摘要以及所述负例摘要对预设的BERT模型进行训练,得到评估模型;
根据所述训练文本以及所述正例摘要对预设的第二BART模型进行训练,并利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成,当所述第二BART模型训练完成时,得到摘要生成模型;
当接收到摘要生成指令时,从所述摘要生成指令中获取待处理文本;
识别所述待处理文本中的关键词,并获取所述关键词对应的同义词;
利用所述摘要生成模型生成所述待处理文本对应的初始摘要,并利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要。
2.根据权利要求1所述的方法,其特征在于,所述根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型,包括:
以所述训练文本作为所述第一BART模型的编码输入参数,并以所述正例摘要作为所述第一BART模型的解码输入参数,且以最大似然函数作为所述第一BART模型的损失函数,对所述第一BART模型进行训练,得到比对模型。
3.根据权利要求2所述的方法,其特征在于,所述利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成,包括:
利用所述比对模型生成对应所述训练文本的第一摘要,并利用所述第二BART模型生成对应所述训练文本的第二摘要;
利用所述评估模型生成对应所述第一摘要的第一摘要向量,并利用所述评估模型生成对应所述第二摘要的第二摘要向量;
利用所述评估模型生成对应所述训练文本的文本向量,并利用所述评估模型生成对应所述正例摘要的正例摘要向量;
根据所述文本向量、所述第一摘要向量以及所述第二摘要向量构建第一损失函数,并根据所述正例摘要向量、所述第一摘要向量以及所述第二摘要向量构建第二损失函数;
根据所述第一损失函数、所述第二损失函数以及所述最大似然函数构建目标损失函数;
根据所述目标损失函数调整所述第二BART模型的模型参数,并根据所述目标损失函数判断所述第二BART模型是否训练完成。
4.根据权利要求3所述的方法,其特征在于,所述根据所述文本向量、所述第一摘要向量以及所述第二摘要向量构建第一损失函数,并根据所述正例摘要向量、所述第一摘要向量以及所述第二摘要向量构建第二损失函数,包括:
计算所述第一摘要向量与所述文本向量的第一点积结果,并计算所述第二摘要向量与所述文本向量的第二点积结果,根据所述第一点积结果以及所述第二点积结果构建所述第一损失函数;
计算所述第一摘要向量与所述正例摘要向量的第三点积结果,并计算所述第二摘要向量与所述正例摘要向量的第四点积结果,根据所述第三点积结果以及所述第四点积结果构建所述第二损失函数。
5.根据权利要求1所述的方法,其特征在于,所述识别所述待处理文本中的关键词,包括:
对所述待处理文本进行分词处理,得到第一词集;
根据预设的无用词集滤除所述第一词集中的无用词,得到第二词集;
计算所述第二词集中各个词语的词频,并根据所述词频计算所述第二词集中各个词语的权重;
根据所述权重从所述第二词集中筛选关键词。
6.根据权利要求1所述的方法,其特征在于,所述获取所述关键词对应的同义词,包括:
计算所述关键词的关键词向量;
计算所述关键词向量与预设的词库中的各个备选词的备选词向量的余弦相似度,并根据所述余弦相似度从所述词库中筛选所述关键词对应的同义词。
7.根据权利要求1所述的方法,其特征在于,所述利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要,包括:
获取所述初始摘要中包含所述关键词或所述同义词的关键句子,并确定所述关键句子在所述初始摘要中的起始位置以及终止位置;
根据所述起始位置以及所述终止位置对所述初始摘要进行标记处理,得到结果摘要。
8.一种摘要生成装置,其特征在于,包括:
训练数据获取模块,用于获取训练文本、正例摘要以及负例摘要,其中,所述正例摘要为所述训练文本对应的摘要,所述负例摘要为预设的文本集合中除所述训练文本以外的其他文本对应的摘要;
比对模型训练模块,用于根据所述训练文本以及所述正例摘要对预设的第一BART模型进行训练,得到比对模型;
评估模型训练模块,用于根据所述训练文本、所述正例摘要以及所述负例摘要对预设的BERT模型进行训练,得到评估模型;
摘要模型训练模块,用于根据所述训练文本以及所述正例摘要对预设的第二BART模型进行训练,并利用所述评估模型以及所述比对模型判断所述第二BART模型是否训练完成,当所述第二BART模型训练完成时,得到摘要生成模型;
生成指令处理模块,用于当接收到摘要生成指令时,从所述摘要生成指令中获取待处理文本;
文本识别模块,用于识别所述待处理文本中的关键词,并获取所述关键词对应的同义词;
摘要生成模块,用于利用所述摘要生成模型生成所述待处理文本对应的初始摘要,并利用所述关键词以及所述同义词对所述初始摘要进行标记处理,得到结果摘要。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器、以及存储在所述存储器上并可被所述处理器执行的计算机程序,其中所述计算机程序被所述处理器执行时,实现如权利要求1至7中任一项所述的摘要生成方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,其中所述计算机程序被处理器执行时,实现如权利要求1至7中任一项所述的摘要生成方法的步骤。
CN202210689662.9A 2022-06-17 2022-06-17 摘要生成方法、装置、设备及存储介质 Active CN115033683B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210689662.9A CN115033683B (zh) 2022-06-17 2022-06-17 摘要生成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210689662.9A CN115033683B (zh) 2022-06-17 2022-06-17 摘要生成方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN115033683A true CN115033683A (zh) 2022-09-09
CN115033683B CN115033683B (zh) 2024-05-07

Family

ID=83124424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210689662.9A Active CN115033683B (zh) 2022-06-17 2022-06-17 摘要生成方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN115033683B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115688796A (zh) * 2022-10-21 2023-02-03 北京百度网讯科技有限公司 用于自然语言处理领域中预训练模型的训练方法及其装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113901289A (zh) * 2021-10-08 2022-01-07 新华智云科技有限公司 一种基于无监督学习的推荐方法及系统
CN114218928A (zh) * 2021-12-30 2022-03-22 杭州电子科技大学 一种基于图知识和主题感知的抽象文本摘要方法
CN114519395A (zh) * 2022-02-22 2022-05-20 平安科技(深圳)有限公司 模型的训练方法和装置、文本摘要生成方法和装置、设备
WO2022116441A1 (zh) * 2020-12-03 2022-06-09 平安科技(深圳)有限公司 基于卷积神经网络的bert模型的微调方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022116441A1 (zh) * 2020-12-03 2022-06-09 平安科技(深圳)有限公司 基于卷积神经网络的bert模型的微调方法及装置
CN113901289A (zh) * 2021-10-08 2022-01-07 新华智云科技有限公司 一种基于无监督学习的推荐方法及系统
CN114218928A (zh) * 2021-12-30 2022-03-22 杭州电子科技大学 一种基于图知识和主题感知的抽象文本摘要方法
CN114519395A (zh) * 2022-02-22 2022-05-20 平安科技(深圳)有限公司 模型的训练方法和装置、文本摘要生成方法和装置、设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115688796A (zh) * 2022-10-21 2023-02-03 北京百度网讯科技有限公司 用于自然语言处理领域中预训练模型的训练方法及其装置
CN115688796B (zh) * 2022-10-21 2023-12-05 北京百度网讯科技有限公司 用于自然语言处理领域中预训练模型的训练方法及其装置

Also Published As

Publication number Publication date
CN115033683B (zh) 2024-05-07

Similar Documents

Publication Publication Date Title
CN111027327B (zh) 机器阅读理解方法、设备、存储介质及装置
WO2021135469A1 (zh) 基于机器学习的信息抽取方法、装置、计算机设备及介质
CN113268586A (zh) 文本摘要生成方法、装置、设备及存储介质
CN112633003B (zh) 一种地址识别方法、装置、计算机设备及存储介质
CN110866098B (zh) 基于transformer和lstm的机器阅读方法、装置及可读存储介质
CN111783471B (zh) 自然语言的语义识别方法、装置、设备及存储介质
CN112287069B (zh) 基于语音语义的信息检索方法、装置及计算机设备
CN115599901B (zh) 基于语义提示的机器问答方法、装置、设备及存储介质
CN112328761A (zh) 一种意图标签设置方法、装置、计算机设备及存储介质
CN113887229A (zh) 地址信息的识别方法、装置、计算机设备及存储介质
CN112052329A (zh) 文本摘要生成方法、装置、计算机设备及可读存储介质
CN113449081A (zh) 文本特征的提取方法、装置、计算机设备及存储介质
CN110633475A (zh) 基于计算机场景的自然语言理解方法、装置、系统和存储介质
CN113705315A (zh) 视频处理方法、装置、设备及存储介质
CN112560506B (zh) 文本语义解析方法、装置、终端设备及存储介质
CN113342935A (zh) 语义识别方法、装置、电子设备及可读存储介质
WO2023134085A1 (zh) 问题答案的预测方法、预测装置、电子设备、存储介质
CN115033683A (zh) 摘要生成方法、装置、设备及存储介质
CN112988996B (zh) 知识库生成方法、装置、设备及存储介质
CN115203388A (zh) 机器阅读理解方法、装置、计算机设备和存储介质
CN116484864A (zh) 一种数据识别方法及相关设备
CN115796141A (zh) 文本数据增强方法和装置、电子设备、存储介质
CN114239601A (zh) 语句的处理方法、装置及电子设备
CN114298032A (zh) 文本标点检测方法、计算机设备及存储介质
CN114638229A (zh) 笔录数据的实体识别方法、装置、介质及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant