CN112597768B - 文本审核方法、装置、电子设备、存储介质及程序产品 - Google Patents
文本审核方法、装置、电子设备、存储介质及程序产品 Download PDFInfo
- Publication number
- CN112597768B CN112597768B CN202011443455.2A CN202011443455A CN112597768B CN 112597768 B CN112597768 B CN 112597768B CN 202011443455 A CN202011443455 A CN 202011443455A CN 112597768 B CN112597768 B CN 112597768B
- Authority
- CN
- China
- Prior art keywords
- candidate
- information
- clause
- audited
- candidate information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 230000015654 memory Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 9
- 238000012216 screening Methods 0.000 claims description 9
- 238000012550 audit Methods 0.000 abstract description 25
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010801 machine learning Methods 0.000 abstract description 2
- 238000012549 training Methods 0.000 description 34
- 238000012795 verification Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000001915 proofreading effect Effects 0.000 description 2
- 235000006040 Prunus persica var persica Nutrition 0.000 description 1
- 240000006413 Prunus persica var. persica Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种文本审核方法、装置、电子设备、存储介质及程序产品,涉及机器学习与自然语言处理等人工智能技术领域。具体实现方案为:获取待审核文本的待审核分句;基于待审核分句,从数据库中召回待审核分句对应的多个候选信息;基于多个候选信息,获取与待审核分句最相关的候选信息;基于最相关的候选信息,对待审核分句进行审核。本申请通过采用上述技术方案,可以自动地对待审核文本的各待审核分句进行审核,进而实现对待审核文本进行审核,避免人工对待审核文本的审核,能够有效地提高文本审核的准确性、以及文本审核效率。
Description
技术领域
本申请涉及计算机技术领域,具体涉及机器学习与自然语言处理等人工智能技术领域,尤其涉及一种文本审核方法、装置、电子设备、存储介质及程序产品。
背景技术
每一门语言都是复杂的,经历了几百甚至上千年的长期发展和演变,积累形成了一套复杂的文法和句法规则。语言的运用对于使用者来说,提出了比较高的要求,一旦掌握不全或者粗心大意,很容易造成张冠李戴,差之毫厘谬以千里,特别是在比较重要的场合,即便是极小的语言错误,也会带来非常恶劣的影响。基于此,文本审核作为自然语言处理的一个传统的问题,变得尤为重要。
近年来,随着媒体行业的高速发展,以及每天的信息爆炸,对于稿件的校稿需求急剧上升。特别是在传统的媒体行业,涉及比较重要的稿件,都需要进行严格的三审三校,要杜绝严重的错误。除了传统的媒体,新兴的自媒体从业人数也在逐年增加,他们更加缺乏人工校稿环节。而在为自媒体从业者提供服务的新媒体平台上,结合当前的整体环境,也是需要对重要的信息,进行严格的审校的。
发明内容
本申请提供了一种文本审核方法、装置、电子设备、存储介质及程序产品。
根据本申请的一方面,提供了一种文本审核方法,其中,所述方法包括:
获取待审核文本的待审核分句;
基于所述待审核分句,从数据库中召回所述待审核分句对应的多个候选信息;
基于所述多个候选信息,获取与所述待审核分句最相关的候选信息;
基于所述最相关的候选信息,对所述待审核分句进行审核。
根据本申请的另一方面,提供了一种文本审核装置,其中,所述装置包括:
分句获取模块,用于获取待审核文本的待审核分句;
召回模块,用于基于所述待审核分句,从数据库中召回所述待审核分句对应的多个候选信息;
候选获取模块,用于基于所述多个候选信息,获取与所述待审核分句最相关的候选信息;
审核模块,用于基于所述最相关的候选信息,对所述待审核分句进行审核。
根据本申请的再一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
根据本申请的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上所述的方法。
根据本申请的再另一方面,提供了一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行如上所述的方法。
根据本申请的技术,通过获取待审核文本的待审核分句;基于待审核分句,从数据库中召回待审核分句对应的多个候选信息;基于多个候选信息,获取与待审核分句最相关的候选信息;基于最相关的候选信息,对待审核分句进行审核。本申请通过采用上述技术方案,可以自动地对待审核文本的各待审核分句进行审核,进而实现对待审核文本进行审核,避免人工对待审核文本的审核,能够有效地提高文本审核的准确性、以及文本审核效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是根据本申请第三实施例的示意图;
图4是根据本申请第四实施例的示意图;
图5是用来实现本申请实施例的文本审核方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请第一实施例的示意图;如图1所示,本实施例提供一种文本审核方法,具体可以包括如下步骤:
S101、获取待审核文本的待审核分句;
S102、基于待审核分句,从数据库中召回待审核分句对应的多个候选信息;
S103、基于多个候选信息,获取与待审核分句最相关的候选信息;
S104、基于最相关的候选信息,对待审核分句进行审核。
本实施例的文本审核方法的执行主体为文本审核装置,该文本审核装置具体可以为一电子实体,或者也可以为采用软件集成的应用。使用时,通过该文本审核装置能够对待审核文本中每个待审核分句进行审核。
本实施例中的待审核文本可以为包括多个句子的文章或者文章中的段落等。审核时,先获取待审核文本中的待审核分句,具体可以依据待审核文本所使用的语言的撰写习惯,依次获取待审核文本中的每个待审核分句。如可以采用标点符号对待审核文本进行分句,得到每个待审核分句。
本实施例的数据库可以为一个大数据库,或者也可以分为多个领域或者分类的数据库,如诗歌类的数据库、历史类数据库、实时新闻类数据库、法律类数据库等等;或者还可以根据数据库所应用的审核场景的需求,分为名人讲话语录数据库、经典数据库以及事实性数据库等等。其中名人讲话语录数据库中可以包括需要大家学习的名人的各次讲话内容。经典数据库中可以包括诗词、历史等等各种经典历史信息。事实性数据库中可以包括各种官方发布的事实性宣告信息等等。本实施例的数据库可以实时更新,如每天进行更新,以保证一些实时新闻类的数据库中存储的文档能够及时更新。
本实施例的数据库中可以存储有每个文档的属性信息如文档的作者、作者的详细信息、发表时间等等;例如,对一些经常更新文档,如法条法规类的文档,还可以进一步包括每次更新时更新的内容以及更新时间等等。同时还要存储文档的标题(Title)以及文档的具体内容等等。
若本实施例的数据库中包括多个领域或者多个分类的数据库时,步骤S102基于待审核分句,从数据库中召回待审核分句对应的多个候选信息时,需要依次分析所有的数据库,获取该待审核分句对应的所有候选信息。
进一步地,本实施例中,还需要基于多个候选信息,获取与待审核分句最相关的候选信息,并基于最相关的候选信息,对待审核分句进行审核。例如,审核时,可以将最相关的候选信息和待审核分句进行详细对比,以检测待审核分句是否正确。可选地,若待审核分句不正确,还可以进一步标识出不正确的内容,或者进一步可选地,还可以对待审核分句不正确的内容进行分类,并标识不正确的类别,能够有效地向用户展示丰富的审核结果,便于用户准确了解不正确的内容和类别。
本实施例的文本审核方法,通过采用上述技术方案,依次对待审核文本中的每个待审核分句进行审核,进而实现对待审核文本进行审核。
本实施例的文本审核方法,通过获取待审核文本的待审核分句;基于待审核分句,从数据库中召回待审核分句对应的多个候选信息;基于多个候选信息,获取与待审核分句最相关的候选信息;基于最相关的候选信息,对待审核分句进行审核。本实施例通过采用上述技术方案,可以自动地对待审核文本的各待审核分句进行审核,进而实现对待审核文本进行审核,避免人工对待审核文本的审核,能够有效地提高文本审核的准确性、以及文本审核效率。
进一步可选地,上述图1所示实施例中的步骤S102,具体可以包括如下三种方式中至少一种:
第一种方式:基于待审核分句,采用搜索的方式,从数据库中召回多个候选文档信息;
例如,本实施例的搜索的方式可以直接为文本搜索,即可以基于待审核分句,在数据库中进行文本搜索,召回多个候选文档信息,例如,可选地,此处召回的候选文档信息可以采用文档的属性信息来标识,如文档的title+作者等,能够唯一标识该候选文档信息即可。
另外,可选地,在该第一种方式中,具体可以采用如下步骤来实现:
(a1)采用弹性搜索(ElasticSearch;ES)的方式,从数据库中召回待审核分句的多个备选文档信息;
具体地该ES搜索的方式可以参考相关现有技术中的ES搜索的方式,以从数据库中召回与该待审核分句对应的多个备选文档信息。
(b1)采用预先训练的语义表示模型,基于相似度,从数据库中召回待审核分句的多个备选文档信息;
本实施例的语义表示模型可以采用知识增强的语义表示模型(EnhancedRepresentation from knowledge Integration;ERNIE),或者其他语义表示模型,在此不做限定。基于预先训练的语义表示模型,可以表示待审核分句的语义表示。同时,对于数据库中的每个文档信息,如文档的title或者整篇文档的内容信息都可以进行语义表示。例如,本实施例中,以对数据库中的文档的title和文档的内容信息都进行语义表示为例,在文档的title维度上,基于相似度,可以计算待审核分句分别与数据库中各文档的title的相似度;然后可以基于预设的相似度阈值,从数据库中筛选相似度大于相似度阈值的多个文档的title对应的文档属性,作为多个备选文档信息。其中文档属性可以取文档的title,或者文档tilte与作者的组合等等,能够唯一标识备选文档信息即可。
同理,在文档的内容信息维度上,基于相似度,也可以计算待审核分句分别与数据库中各文档的内容信息的相似度;然后可以基于预设的相似度阈值,从数据库中筛选相似度大于相似度阈值的各文档的内容信息对应的文档属性,作为多个备选文档信息。其中文档属性同上,能够唯一标识备选文档信息即可。
另外,可选地,也可以基于文档的title维度或者文档的内容信息维度,分别取相似度最大的前N个文档的信息,作为对应的多个备选文档信息。
按照上述方式,能够从文档的title维度和文档的内容信息维度上,从数据库中召回待审核分句的多个备选文档信息,并集合在一起,作为所有的备选文档信息。
实际应用中,可以仅从文档的title维度或者文档的内容信息维度上获取多个备选文档信息。或者还可以从文档的其他维度如title+摘要维度、或者title+作者等等维度上,获取多个备选文档信息,在此不做限定。
(c1)基于待审核分句和各备选文档信息,分别提取召回的各备选文档信息对应的至少一个相关特征信息;
对于上述实施例中,召回的每个备选文档信息,基于待审核分句和对应的备选文档信息,可以提取该召回的备选文档信息对应的至少一个相关特征信息。
例如,对应的至少一个相关特征信息中各特征以及对应的含义如下述表1所述。其中表1中的query表示待审核分句,tilte表示数据库中文档的标题,content表示数据库中文档的内容信息。其中terms为分别对title和query基于基础分词粒度得到的terms;title_entity表示标题中识别出来的实体,query_entity表示query中识别出来的实体。
表1
按照上述表1中记录的各特征,可以基于各特征的含义获取到相应的相关特征信息。需要说明的是,上述表1中的特征是基于title维度和文档的内容信息维度来设置的,实际应用中,也可以参考上述表1中的特征设置方式,基于其他维度设置相应的相关特征,在此不再一一举例赘述。
(d1)基于各备选文档信息对应的至少一个相关特征信息,采用预先训练的相关度打分模型,获取各备选文档信息与待审核分句的相关度;
可选地,本实施例中,可以仍以不同信息维度,获取相关度。例如,在文档的title维度上,可以取上述特征1、3、5、6、7、8和9中的至少一个。在文档的内容信息维度上,可以取上述特征2、4、10和11中的至少一个。或者可选地,也可以不按照维度来获取相关特征信息,无论在哪个维度上,均包括上述所有的相关特征信息,但是没有具体内容信息的相关特征可以采用空特征来表示。
本实施例中,可以预先训练一个相关度打分模型。使用时,对于各备选文档信息,将获取到的该备选文档信息对应的至少一个相关特征信息,输入至该相关度打分模型中,该相关度打分模型可以预测并输出该备选文档信息与待审核分句的相关度,具体为一个数值。该相关度的值越大,表示该备选文档信息与待审核分句的相关性越强,否则,相关性越弱。
本实施例的相关度打分模型,可以为一个梯度提升树(Gradient BoostingDecision Tree;GBDT)模型。在训练过程中,可以预先采集多组训练数据,每一组训练数据中包括备选文档信息与待审核分句的相关特征信息,以及标注的备选文档信息与待审核分句的相关度。然后采用多组训练数据,对该相关度打分模型进行训练,使得该相关度打分模型可以基于训练数据,学习相关度打分,详细可以参考相关神经网络模型的训练过程,在此不再赘述。
(e1)基于各备选文档信息与待审核分句的相关度、以及预设的相关度阈值,从召回的所有备选文档信息中筛选多个候选文档信息。
本实施例中预设的相关度阈值可以根据实际需求来设置。具体地,可以基于预设的相关度阈值,从上述召回的所有备选文档信息中,筛选相关度大于预设的相关度阈值的多个备选文档信息,作为多个候选文档信息。
第二种方式:基于trie树结构,从数据库中召回待审核分句的多个候选语句信息;
例如,可以基于trie树结构的原理,将数据库中的每个文档中的每个语句,都映射到trie树结构中。召回时,可以按照从前先后的顺序,依次在trie树结构中检索待审核分句的每一个字,直至检索到待审核分句中的最后一个字,从trie树结构中获取检索到的候选语句以及对应的文档信息。其中文档信息存储在trie树结构中的节点的属性信息中。
需要说明的时,在trie树结构中检索时,可以设置跳字检索,以及最大跳字数和一个语句中的最大跳字次数。例如,在trie树结构中检索到待审核分句的第一个字之后,但是未检索到第二个字,此时可以跳过第二个字,检索第三个字,若也未检索到第三个字,可以跳过,继续检索第四个字,依次类推,直至再检索到待审核语句中的下一个字,对应的候选语句则为trie树结构中依次检索到的各字拼接而成的语句。若在检索过程中,在满足跳字条件的情况下,仍未检索到,则认为未检索到相关的候选语句。
因此,本实施例的基于trie树结构的检索,也可以理解为一种前缀匹配,即可以跳字的前缀匹配。
按照上述方式,可以从数据库中召回到该待审核分句对应的多个候选语句信息。当然,基于trie树结构的特点,也可以获取到每个候选语句信息所属文档信息,如文档的标题以及作者等等信息。
第三种方式:基于simhash算法,从数据库中召回待审核分句的多个候选文档信息。
具体地,基于simhash算法,可以对数据库中每个文档建立一个指纹特征。同理,基于该simhash算法,可以计算待审核分句的指纹信息,然后计算该待审核分句的指纹信息分别与数据库中各文档的指纹特征的相似度,并基于相似度,筛选与待审核分句的最相似的多个候选文档信息。此处基于相似度进行筛选的过程,可以选取相似度大于某个预设相似度阈值的所有候选文档信息,也可以按照相似度由大到小的顺序,选择相似度最大的多个候选文档信息,在此不做限定。
实际应用中,上述三种从数据库中召回待审核分句对应的多个候选信息的方式,可以以择一的方式单独存在,或者也可以两两互相组合,或者也可以三种方式同时存在。无论哪种方式,均能够从数据库中召回待审核分句对应的多个候选信息。而且上述召回方式,均能够保证召回的候选信息的准确性,进而能够有效的提高文本审核的准确性。
图2是根据本申请第二实施例的示意图;如图2所示,本实施例的文本审核方法,在上述图1所示实施例的技术方案的基础上,进一步更加详细地描述本申请的技术方案。如图2所示,本实施例的文本审核方法,具体可以包括如下步骤:
S201、采用预先训练的分句模型,对待审核文本进行分句,得到多个待审核分句;
本实施例中可以采用分句模型对待审核文本进行分句,该分句模型采用预先训练的神经网络模型。在训练时,可以采用采集多个训练文本,并在每个训练文本中标注该训练文本中连续的两个训练分句,对该分句模型进行训练,使得分句模型学习标注的分句方法。例如,本实施例中,采集的连续两个训练分句,可以采用逗号、句号或者分号等想要的分句方式来间隔。或者可选地,本实施例在训练数据中,将某人说“……”放在一个训练分句中,使得说话的内容能够完整地位于一个分句内。
训练时,将各训练数据中的训练文本输入至分句模型中,分句模型对该训练文本进行分句;识别分句模型预测的分句与训练数据中标注的分句是否一致,若不一致,调整分句模型的参数,使得预测的分句和标注的分句一致。采用多条训练数据,按照上述方式不断地对分句模型进行训练,使得分句模型可以学习到训练数据中标注的分句方式,进而可以准确地标注待审核文本中的各待审核分句。
S202、基于各待审核分句,采用搜索的方式,从数据库中召回多个候选文档信息,作为多个候选信息;
S203、基于trie树结构,从数据库中召回待审核分句的多个候选语句信息,作为多个候选信息;
S204、基于simhash算法,从数据库中召回待审核分句的多个候选文档信息,作为多个候选信息;
本实施例中,以步骤S102、同时采用上述步骤S202、S203和S204三种方式为例,从数据库中召回候选文档信息和候选语句信息。实际应用中,可以参考上述实施例的记载,上述三种召回候选信息的方式可以择一或者择二存在,在此不做限定。
S205、对获取的所有候选信息中各候选信息进行打分;
具体地,可以参考各候选信息的某一个或者多个特征对各候选信息进行打分。例如,可选地,该步骤在具体实施时,可以包括如下步骤:
(a2)基于各候选信息和待审核分句,获取各候选信息对应的特征信息;
例如,可选地,该步骤(a2)在具体实施时,可以获取如下特性信息中的至少一种:
(a3)基于各候选信息与待审核分句,获取最长公共子序列相关的特征;
具体地,首先可以基于各候选信息与待审核分句,获取最长公共子序列;然后对于各候选信息,获取对应的最长公共子序列生成过程中的跳字个数与对应的最长公共子序列的比例、对应的最长公共子序列与待审核分句的长度的比例以及对应的最长公共子序列生成过程中的跳字个数与待审核分句的长度的比例。
例如,对于上述步骤S202所述的第一种方式,获取的候选信息为候选文档信息时,具体可以将该待审核分句与该候选文档中的每个句子进行对比,获取各句子与待审核分句的公共子序列。需要说明的是,此处的公共子序列可以跳字,并非完全连续。例如,待审核分句为“ABCDEF”,而某个句子为“A1C2EF”,则对应的公共子序列为“A、C、EF”,对应的长度为4个字。按照类似的方式,可以获取到候选文档中每个句子与该待审核分句的公共子序列。然后取最长公共子序列,并获取最长公共子序列对应的句子为该待审核分句对应的候选语句。然后对于每个候选语句,可以获取对应的最长公共子序列生成过程中的跳字个数与对应的最长公共子序列的比例、对应的最长公共子序列与待审核分句的长度的比例以及对应的最长公共子序列生成过程中的跳字个数与待审核分句的长度的比例。
例如,对于上述步骤S203所述的第二种方式,获取的候选信息为候选语句信息,此时直接将各候选语句分别与该待审核分句进行对比,获取各候选语句与待审核分句的最长公共子序列。并进一步获取对应的最长公共子序列生成过程中的跳字个数与对应的最长公共子序列的比例、对应的最长公共子序列与待审核分句的长度的比例以及对应的最长公共子序列生成过程中的跳字个数与待审核分句的长度的比例。
例如,对于上述步骤S204所述的第三种方式,获取的候选信息同第一种方式相同,也为候选文档信息。此时最长公共子序列相关的特征的获取方式与上述步骤S202所述的第一种方式相同,详细可以参考上述相关记载,在此不再赘述。
(b3)获取召回的各候选信息与待审核分句的相似度;
例如,对于上述步骤S202所述的第一种方式,各候选信息与上述待审核分句的相似度,可以参考上述实施例中的(a1)-(e1)的记载,等同于上述实施例(e1)所筛选的各候选文档信息,在步骤(d1)中计算的与待审核分句的相关度。
例如,对于上述步骤S203所述的第二种方式获取的各候选信息为候选语句信息,此时各候选信息与上述待审核分句的相似度,可以直接取各候选信息与上述待审核分句的语义相似度。
例如,对于上述步骤S204所述的第三种方式获取的各候选信息为候选文档信息时,此时各候选信息与上述待审核分句的相似度,可以参考上述实施例中的第三种方式中的相关记载中获取的候选文档信息与待审核分句的相似度,在此不再赘述。
(c3)基于各候选信息与待审核分句的时间信息,获取各候选信息的时效性分数;以及
本实施例的时效性分数,具体可以基于待审核分句的时间信息以及各候选信息对应的时间信息来确定。其中待审核分句的时间信息可以为待审核分句所属的待审核文本的时间信息,各候选信息对应的时间信息可以为候选文档或者候选语句所属的候选文档的发表时间或者公布时间等时间信息。若候选信息为网络发表的文档,携带的时间信息可以具体到发布时刻。而若候选信息为其他方式如发布的文档,时间信息也可以仅详细到具体的日期即可。若候选信息与待审核分句的时间信息的差值越接近,设置的该候选信息的时效性分数可以越大,表示两者的时间相似度越高。而若候选信息与待审核分句的时间信息的差值越大,设置的该候选信息的时效性分数可以越小,表示两者的时间相似度越小。例如,该时效性分数的数值可以设置在0-1之间。
(d3)获取各候选信息中的候选语句与待审核分句的语义相似度。
例如,对于上述步骤S202所述的第一种方式和S204所述的第三种方式,候选信息为候选文档,可以取候选文档中与待审核分句的公共子序列长度最长的语句作为候选语句。
对于上述步骤S203所述的第二种方式,获取的候选信息即为候选语句信息。
具体地,可以采用预先训练的语义表示模型分别获取候选语句和待审核分句的语义表示,然后基于两者的语义表示,计算两者的语义相似度。
对于各候选信息,可以按照上述(a3)-(d3)获取该候选信息对应的各种特征信息,且各种特征信息可以单独存在,或者也可以任意组合,构成步骤(a2)获取的该候选信息对应的特征信息。
(b2)基于各候选信息对应的特征信息和预先训练的打分模型,对各候选信息进行打分。
将上述步骤(a2)获取的各候选信息对应的特征信息输入至预先训练的打分模型中,该打分模型可以预测并输出该候选信息相对于待审核分句的一个打分结果,标识该候选信息与该待审核分句的相关性,该打分结果的值越大,表示两者的相关性越强,否则表示两者的相关性越弱。
本实施例的打分模型与上述实施例中的相关度打分模型的实现原理相同,详细可以参考上述实施例的相关记载,在此不再赘述。
通过上述(a3)-(d3)的方式获取候选信息对应的各种特征信息,能够有效地保证获取的候选信息的特征信息的全面性,进而能够有效地保证基于候选信息对应的特征信息对候选信息打分的准确性。
S206、基于各候选信息的打分结果,从多个候选信息中获取与待审核分句最相关的候选信息;
例如,具体可以取打分结果值最大的候选信息,作为与待审核分句最相关的候选信息。
步骤S205-S206为上述图1所示实施例的步骤S103的一种具体实现方式。该方式能够有效地保证获取的最相关的候选信息的准确性,进而可以有效地保证文本审核的准确性。
S207、基于最相关的候选信息,采用预先训练的审核模型,对待审核分句进行审核。
例如,本实施例中,可以先基于最相关的候选信息,获取最相关的候选语句。并将最相关的候选语句和待审核分句,输入至预先训练的审核模型中,该审核模型可以根据最相关的候选语句对待审核分句进行审核,生成并输出审核结果。
如上述获取候选信息的第一种和第三种方式,候选信息为候选文档时,可以取最相关的候选文档中最长公共子序列对应的语句为最相关的候选语句。如上述获取候选信息的第二种方式,候选信息为候选语句时,获取的最相关的候选信息即为最相关的候选语句。
本实施例中,审核模型在根据最相关的候选语句对待审核分句进行审核,生成审核结果时,可以在审核结果中携带错误类别、错误的内容以及纠正后的内容。例如,若审核到文字性错误,可以直接在审核结果中携带错误类别为文字性错误、错误的内容以及纠正后的内容。若审核到事实性错误,可以直接在审核结果中携带错误类别为事实性错误、错误的内容以及纠正后的内容。
本实施例的错误类别可以为预先定义的。处理上述文字性错误、实时性错误,还可以包括实体名称错误、作者错误、朝代错误、语录错误等等各种类型的错误,在此不再一一举例赘述。
在训练审核模型时,可以采集所有错误类别的训练数据,在各条训练数据中包括训练分句以及参考语句,并在相应的训练数据中标注错误的类别、训练分句中错误的内容以及基于参考语句纠正后的内容。训练时,将各条训练数据中的训练分句以及参考语句,输入至审核模型中,审核模型可以预测并输出审核结果,在审核结果中可以预测错误的类别,预测训练分句中错误的内容以及基于参考语句预测的纠正后的内容。然后将预测的结果与标注的结果进行比对,若两者不一样,调整审核模型的参数,使得预测的结果与标注的结果一致。采用所有错误类别的所有训练数据,按照上述方式,不断地对审核模型进行训练,使得审核模型学习到训练数据的审核方式,直至预测的结果与标注的结果始终一致,训练完毕,确定审核模型的参数,进而确定审核模型。
按照本实施例的上述方式,通过对待审核文本中的每个审核分句进行审核,进而实现对整个待审核文本进行审核。
本实施例的文本审核方法,通过采用上述技术方案中的多种召回方式,能够更加全面地召回更多、更准确地候选信息,并通过对获取的所有候选信息中各候选信息进行打分;并基于打分结果获取与待审核分句最相关的候选信息,能够有效地保证获取的最相关的候选信息的准确性,进而能够有效地提高文本审核的准确性、以及文本审核效率。而且本实施例中,还采用预先训练的审核模型对待审核分句进行审核,能够进一步有效地提高文本审核的效率。
图3是根据本申请第三实施例的示意图;如图3所示,本实施例提供一种文本审核装置300,包括:
分句获取模块301,用于获取待审核文本的待审核分句;
召回模块302,用于基于待审核分句,从数据库中召回待审核分句对应的多个候选信息;
候选获取模块303,用于基于多个候选信息,获取与待审核分句最相关的候选信息;
审核模块304,用于基于最相关的候选信息,对待审核分句进行审核。
本实施例的文本审核装置300,通过采用上述模块实现文本审核的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述方法实施例的相关记载,在此不再赘述。
图4是根据本申请第四实施例的示意图;如图4所示,本实施例的文本审核装置300,在上述图3所示实施例的技术方案的基础上,进一步更加详细地描述本申请的技术方案。
如图4所示,本实施例的文本审核装置300中,召回模块302,包括如下至少一个:
搜索召回单元3021,用于基于待审核分句,采用搜索的方式,从数据库中召回多个候选文档信息;
树结构召回单元3022,用于基于trie树结构,从数据库中召回待审核分句的多个候选语句信息;和
哈希召回单元3023,用于基于simhash算法,从数据库中召回待审核分句的多个候选文档信息。
进一步可选地,其中搜索召回单元3021,用于:
采用弹性搜索的方式,从数据库中召回待审核分句的多个备选文档信息;
采用预先训练的语义表示模型,基于相似度,从数据库中召回待审核分句的多个备选文档信息;
基于待审核分句和各备选文档信息,分别提取召回的各备选文档信息对应的至少一个相关特征信息;
基于各备选文档信息对应的至少一个相关特征信息,采用预先训练的相关度打分模型,获取各备选文档信息与待审核分句的相关度;
基于各备选文档信息与待审核分句的相关度、以及预设的相关度阈值,从召回的所有备选文档信息中筛选多个候选文档信息。
进一步可选地,如图4所示,本实施例的文本审核装置300中,候选获取模块303,包括:
打分单元3031,用于对多个候选信息中各候选信息进行打分;
筛选单元3032,用于基于各候选信息的打分结果,从多个候选信息中获取与待审核分句最相关的候选信息。
进一步可选地,打分单元3031,用于:
基于各候选信息和待审核分句,获取各候选信息对应的特征信息;
基于各候选信息对应的特征信息和预先训练的打分模型,对各候选信息进行打分。
进一步可选地,打分单元3031,用于执行如下至少一种:
基于各候选信息与待审核分句,获取最长公共子序列相关的特征;
获取召回的各候选信息与待审核分句的相似度;
基于各候选信息与待审核分句的时间信息,获取各候选信息的时效性分数;以及
获取各候选信息中的候选语句与待审核分句的语义相似度。
进一步可选地,打分单元3031,用于:
基于各候选信息与待审核分句,获取最长公共子序列;
对于各候选信息,获取对应的最长公共子序列生成过程中的跳字个数与对应的最长公共子序列的比例、对应的最长公共子序列与待审核分句的长度的比例以及对应的最长公共子序列生成过程中的跳字个数与待审核分句的长度的比例。
进一步可选地,审核模块304,用于:
基于最相关的候选信息,采用预先训练的审核模型,对待审核分句进行审核。
本实施例的文本审核装置300,通过采用上述模块实现文本审核的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述方法实施例的相关记载,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备、一种可读存储介质以及一种计算机程序产品。
如图5所示,是本申请实施例的实现文本审核方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图5所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图5中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的文本审核方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的文本审核方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的文本审核方法对应的程序指令/模块(例如,附图3和附图4所示的相关模块)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的文本审核方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据实现文本审核方法的电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至实现文本审核方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现文本审核方法的电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图5中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与实现文本审核方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网和区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以分布式系统的服务器,或者是结合了区块链的服务器。
根据本申请实施例的技术方案,通过获取待审核文本的待审核分句;基于待审核分句,从数据库中召回待审核分句对应的多个候选信息;基于多个候选信息,获取与待审核分句最相关的候选信息;基于最相关的候选信息,对待审核分句进行审核。本实施例通过采用上述技术方案,可以自动地对待审核文本的各待审核分句进行审核,进而实现对待审核文本进行审核,避免人工对待审核文本的审核,能够有效地提高文本审核的准确性、以及文本审核效率。
根据本申请实施例的技术方案,通过采用上述技术方案中的多种召回方式,能够更加全面地召回更多、更准确地候选信息,并通过对获取的所有候选信息中各候选信息进行打分;并基于打分结果获取与待审核分句最相关的候选信息,能够有效地保证获取的最相关的候选信息的准确性,进而能够有效地提高文本审核的准确性、以及文本审核效率。而且本实施例中,还采用预先训练的审核模型对待审核分句进行审核,能够进一步有效地提高文本审核的效率。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (17)
1.一种文本审核方法,其中,所述方法包括:
获取待审核文本的待审核分句;
基于所述待审核分句,从数据库中召回所述待审核分句对应的多个候选信息;
基于所述多个候选信息的打分结果,获取与所述待审核分句最相关的候选信息;其中,所述打分结果为基于各候选信息对应的特征信息和预先训练的打分模型获得的;其中,所述各候选信息对应的特征信息,包括如下至少一种:基于各所述候选信息与所述待审核分句所获取的最长公共子序列相关的特征;召回的各所述候选信息与所述待审核分句的相似度;基于各所述候选信息与所述待审核分句的时间信息所获取的各所述候选信息的时效性分数;以及各所述候选信息中的候选语句与所述待审核分句的语义相似度;
将所述最相关的候选信息和所述待审核分句输入预先训练的审核模型中,由所述审核模型生成并输出审核结果,包括:将最相关的候选信息和待审核分句进行对比,以检测待审核分句是否正确,若待审核分句不正确,标识出错误的内容,以及,对待审核分句错误的内容进行分类,并标识错误类别,并输出纠正后的内容。
2.根据权利要求1所述的方法,其中,基于所述待审核分句,从数据库中召回所述待审核分句对应的多个候选信息,包括如下至少一种:
基于所述待审核分句,采用搜索的方式,从所述数据库中召回多个候选文档信息;
基于trie树结构,从所述数据库中召回所述待审核分句的多个候选语句信息;和
基于simhash算法,从所述数据库中召回所述待审核分句的多个候选文档信息。
3.根据权利要求2所述的方法,其中,基于所述待审核分句,采用搜索的方式,从所述数据库中召回多个候选文档信息,包括:
采用弹性搜索的方式,从所述数据库中召回所述待审核分句的多个备选文档信息;
采用预先训练的语义表示模型,基于相似度,从所述数据库中召回所述待审核分句的多个备选文档信息;
基于所述待审核分句和各所述备选文档信息,分别提取召回的各所述备选文档信息对应的至少一个相关特征信息;
基于各所述备选文档信息对应的所述至少一个相关特征信息,采用预先训练的相关度打分模型,获取各所述备选文档信息与所述待审核分句的相关度;
基于各所述备选文档信息与所述待审核分句的相关度、以及预设的相关度阈值,从召回的所有所述备选文档信息中筛选所述多个候选文档信息。
4.根据权利要求1-3任一所述的方法,其中,基于所述多个候选信息的打分结果,获取与所述待审核分句最相关的候选信息,包括:
对所述多个候选信息中各所述候选信息进行打分;
基于各所述候选信息的打分结果,从所述多个候选信息中获取与所述待审核分句最相关的候选信息。
5.根据权利要求4所述的方法,其中,对所述多个候选信息中各所述候选信息进行打分,包括:
基于各所述候选信息和所述待审核分句,获取各所述候选信息对应的特征信息;
基于各所述候选信息对应的所述特征信息和预先训练的打分模型,对各所述候选信息进行打分。
6.根据权利要求5所述的方法,其中,基于各所述候选信息和所述待审核分句,获取各所述候选信息对应的特征信息,包括如下至少一种:
基于各所述候选信息与所述待审核分句,获取最长公共子序列相关的特征;
获取召回的各所述候选信息与所述待审核分句的相似度;
基于各所述候选信息与所述待审核分句的时间信息,获取各所述候选信息的时效性分数;以及
获取各所述候选信息中的候选语句与所述待审核分句的语义相似度。
7.根据权利要求6所述的方法,其中,基于各所述候选信息与所述待审核分句,获取最长公共子序列相关的特征,包括:
基于各所述候选信息与所述待审核分句,获取最长公共子序列;
对于各所述候选信息,获取对应的所述最长公共子序列生成过程中的跳字个数与对应的所述最长公共子序列的比例、对应的所述最长公共子序列与所述待审核分句的长度的比例以及对应的所述最长公共子序列生成过程中的跳字个数与所述待审核分句的长度的比例。
8.一种文本审核装置,其中,所述装置包括:
分句获取模块,用于获取待审核文本的待审核分句;
召回模块,用于基于所述待审核分句,从数据库中召回所述待审核分句对应的多个候选信息;
候选获取模块,用于基于所述多个候选信息的打分结果,获取与所述待审核分句最相关的候选信息;其中,所述打分结果为基于各候选信息对应的特征信息和预先训练的打分模型获得的;其中,所述各候选信息对应的特征信息,包括如下至少一种:基于各所述候选信息与所述待审核分句所获取的最长公共子序列相关的特征;召回的各所述候选信息与所述待审核分句的相似度;基于各所述候选信息与所述待审核分句的时间信息所获取的各所述候选信息的时效性分数;以及各所述候选信息中的候选语句与所述待审核分句的语义相似度;
审核模块,用于将所述最相关的候选信息和所述待审核分句输入预先训练的审核模型中,由所述审核模型生成并输出审核结果,包括:将最相关的候选信息和待审核分句进行对比,以检测待审核分句是否正确,若待审核分句不正确,标识出错误的内容,以及,对待审核分句错误的内容进行分类,并标识错误类别,并输出纠正后的内容。
9.根据权利要求8所述的装置,其中,所述召回模块,包括如下至少一个:
搜索召回单元,用于基于所述待审核分句,采用搜索的方式,从所述数据库中召回多个候选文档信息;
树结构召回单元,用于基于trie树结构,从所述数据库中召回所述待审核分句的多个候选语句信息;和
哈希召回单元,用于基于simhash算法,从所述数据库中召回所述待审核分句的多个候选文档信息。
10.根据权利要求9所述的装置,其中,所述搜索召回单元,用于:
采用弹性搜索的方式,从所述数据库中召回所述待审核分句的多个备选文档信息;
采用预先训练的语义表示模型,基于相似度,从所述数据库中召回所述待审核分句的多个备选文档信息;
基于所述待审核分句和各所述备选文档信息,分别提取召回的各所述备选文档信息对应的至少一个相关特征信息;
基于各所述备选文档信息对应的所述至少一个相关特征信息,采用预先训练的相关度打分模型,获取各所述备选文档信息与所述待审核分句的相关度;
基于各所述备选文档信息与所述待审核分句的相关度、以及预设的相关度阈值,从召回的所有所述备选文档信息中筛选所述多个候选文档信息。
11.根据权利要求8-10任一所述的装置,其中,所述候选获取模块,包括:
打分单元,用于对所述多个候选信息中各所述候选信息进行打分;
筛选单元,用于基于各所述候选信息的打分结果,从所述多个候选信息中获取与所述待审核分句最相关的候选信息。
12.根据权利要求11所述的装置,其中,所述打分单元,用于:
基于各所述候选信息和所述待审核分句,获取各所述候选信息对应的特征信息;
基于各所述候选信息对应的所述特征信息和预先训练的打分模型,对各所述候选信息进行打分。
13.根据权利要求12所述的装置,其中,所述打分单元,用于执行如下至少一种:
基于各所述候选信息与所述待审核分句,获取最长公共子序列相关的特征;
获取召回的各所述候选信息与所述待审核分句的相似度;
基于各所述候选信息与所述待审核分句的时间信息,获取各所述候选信息的时效性分数;以及
获取各所述候选信息中的候选语句与所述待审核分句的语义相似度。
14.根据权利要求13所述的装置,其中,所述打分单元,用于:
基于各所述候选信息与所述待审核分句,获取最长公共子序列;
对于各所述候选信息,获取对应的所述最长公共子序列生成过程中的跳字个数与对应的所述最长公共子序列的比例、对应的所述最长公共子序列与所述待审核分句的长度的比例以及对应的所述最长公共子序列生成过程中的跳字个数与所述待审核分句的长度的比例。
15.一种电子设备,其中,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011443455.2A CN112597768B (zh) | 2020-12-08 | 2020-12-08 | 文本审核方法、装置、电子设备、存储介质及程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011443455.2A CN112597768B (zh) | 2020-12-08 | 2020-12-08 | 文本审核方法、装置、电子设备、存储介质及程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112597768A CN112597768A (zh) | 2021-04-02 |
CN112597768B true CN112597768B (zh) | 2022-06-28 |
Family
ID=75192028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011443455.2A Active CN112597768B (zh) | 2020-12-08 | 2020-12-08 | 文本审核方法、装置、电子设备、存储介质及程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112597768B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116150323B (zh) * | 2023-04-23 | 2023-06-23 | 天津市普迅电力信息技术有限公司 | 一种基于人工智能的文本语言数据处理方法 |
CN116992874B (zh) * | 2023-09-27 | 2023-12-22 | 珠海金智维信息科技有限公司 | 一种文本引用审核溯源方法、系统、装置和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110744A (zh) * | 2019-03-27 | 2019-08-09 | 平安国际智慧城市科技股份有限公司 | 基于语义理解的文本配对方法、装置及计算机设备 |
CN111046142A (zh) * | 2019-12-13 | 2020-04-21 | 深圳前海环融联易信息科技服务有限公司 | 文本审查方法、装置、电子设备及计算机存储介质 |
CN111444320A (zh) * | 2020-06-16 | 2020-07-24 | 太平金融科技服务(上海)有限公司 | 文本检索方法、装置、计算机设备和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012039686A1 (en) * | 2010-09-24 | 2012-03-29 | National University Of Singapore | Methods and systems for automated text correction |
CN111626048A (zh) * | 2020-05-22 | 2020-09-04 | 腾讯科技(深圳)有限公司 | 文本纠错方法、装置、设备及存储介质 |
CN112001169B (zh) * | 2020-07-17 | 2022-03-25 | 北京百度网讯科技有限公司 | 文本纠错的方法、装置、电子设备和可读存储介质 |
-
2020
- 2020-12-08 CN CN202011443455.2A patent/CN112597768B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110744A (zh) * | 2019-03-27 | 2019-08-09 | 平安国际智慧城市科技股份有限公司 | 基于语义理解的文本配对方法、装置及计算机设备 |
CN111046142A (zh) * | 2019-12-13 | 2020-04-21 | 深圳前海环融联易信息科技服务有限公司 | 文本审查方法、装置、电子设备及计算机存储介质 |
CN111444320A (zh) * | 2020-06-16 | 2020-07-24 | 太平金融科技服务(上海)有限公司 | 文本检索方法、装置、计算机设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112597768A (zh) | 2021-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2019263758B2 (en) | Systems and methods for generating a contextually and conversationally correct response to a query | |
CN112507715A (zh) | 确定实体之间关联关系的方法、装置、设备和存储介质 | |
US10691770B2 (en) | Real-time classification of evolving dictionaries | |
CN110516073A (zh) | 一种文本分类方法、装置、设备和介质 | |
Zhou et al. | Resolving surface forms to wikipedia topics | |
US20180075013A1 (en) | Method and system for automating training of named entity recognition in natural language processing | |
CN108038725A (zh) | 一种基于机器学习的电商产品客户满意度分析方法 | |
US20180181544A1 (en) | Systems for Automatically Extracting Job Skills from an Electronic Document | |
CN112528001B (zh) | 一种信息查询方法、装置及电子设备 | |
CN103049435A (zh) | 文本细粒度情感分析方法及装置 | |
US11030533B2 (en) | Method and system for generating a transitory sentiment community | |
CN111832278B (zh) | 文档流畅度的检测方法、装置、电子设备及介质 | |
JP2014120053A (ja) | 質問応答装置、方法、及びプログラム | |
CN111783861A (zh) | 数据分类方法、模型训练方法、装置和电子设备 | |
CN112597768B (zh) | 文本审核方法、装置、电子设备、存储介质及程序产品 | |
CN111859953A (zh) | 训练数据的挖掘方法、装置、电子设备及存储介质 | |
Singh et al. | Sentiment analysis using lexicon based approach | |
CN110321561A (zh) | 一种关键词提取方法和装置 | |
CN105786971B (zh) | 一种面向国际汉语教学的语法点识别方法 | |
Wang et al. | Lexicon knowledge extraction with sentiment polarity computation | |
US20210201162A1 (en) | Method and system for generating a transitory sentiment community | |
CN110928985A (zh) | 一种基于深度学习算法自动提取近义词的科技项目查重方法 | |
Agrawal et al. | Comparative analysis of NLP models for Google Meet Transcript summarization | |
JP5506482B2 (ja) | 固有表現抽出装置、文字列−固有表現クラス対データベース作成装置、固有表現抽出方法、文字列−固有表現クラス対データベース作成方法、プログラム | |
CN112015989A (zh) | 用于推送信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |