Nothing Special   »   [go: up one dir, main page]

CN115114918B - 实体关系抽取方法、装置、数据标注系统以及存储介质 - Google Patents

实体关系抽取方法、装置、数据标注系统以及存储介质 Download PDF

Info

Publication number
CN115114918B
CN115114918B CN202110286687.XA CN202110286687A CN115114918B CN 115114918 B CN115114918 B CN 115114918B CN 202110286687 A CN202110286687 A CN 202110286687A CN 115114918 B CN115114918 B CN 115114918B
Authority
CN
China
Prior art keywords
relationship
graph
processing
model
reinforcement learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110286687.XA
Other languages
English (en)
Other versions
CN115114918A (zh
Inventor
贾丹
项超
王学敏
孟维业
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Telecom Corp Ltd
Original Assignee
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Telecom Corp Ltd filed Critical China Telecom Corp Ltd
Priority to CN202110286687.XA priority Critical patent/CN115114918B/zh
Publication of CN115114918A publication Critical patent/CN115114918A/zh
Application granted granted Critical
Publication of CN115114918B publication Critical patent/CN115114918B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供了一种实体关系抽取方法、装置、数据标注系统以及存储介质,其中的方法包括:使用强化学习模型对词向量以及初始关系子图进行处理,获取词向量中的各个词之间的实体关系抽取信息;基于实体关系抽取信息生成关系子图,使用关系图处理模型对关系子图进行处理,生成与关系子图相对应的关系子图特征信息;基于词向量和关系子图特征信息,生成强化学习模型的状态信息,使用强化学习模型对状态信息进行处理,用以获取新实体关系抽取信息。本公开的方法、装置以及存储介质,将NLP的实体关系生成问题转换为实体关系图的生成问题,能够高效地表征实体关系,降低了人工成本,提高了标注效率。

Description

实体关系抽取方法、装置、数据标注系统以及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种实体关系抽取方法、装置、数据标注系统以及存储介质。
背景技术
数据标注平台是自动机器学习流水线中的重要一环,数据标注效果直接影响后续模型训练、预测的好坏。现有的标注平台包含大量重复标注,智能化程度较低,导致大量人工时间和精力的浪费,所以构建高效、自学习的标注平台尤为重要。实体关系抽取作为一项NLP(Natural Language Processing,自然语言处理)的基础任务,在知识图谱的构建、自动问答、智能搜索引擎等多个领域有广泛的应用。实体关系标注是NLP数据标注的一种,但是,由于文本中实体关系的复杂性,将在标注工作中消耗较高的人工成本。因此,需要一种新的实体关系抽取的技术方案。
发明内容
有鉴于此,本发明要解决的一个技术问题是提供一种实体关系抽取方法、装置、数据标注系统以及存储介质。
根据本公开的第一方面,提供一种实体关系抽取方法,包括:获取待标注文本,基于所述待标注文本生成词向量;使用强化学习模型对所述词向量以及初始关系子图进行处理,获取所述词向量中的各个词之间的实体关系抽取信息;基于所述实体关系抽取信息生成关系子图,使用关系图处理模型对所述关系子图进行处理,生成与所述关系子图相对应的关系子图特征信息;基于所述词向量和所述关系子图特征信息,生成所述强化学习模型的状态信息,使用所述强化学习模型对所述状态信息进行处理,用以获取新实体关系抽取信息。
可选地,所述基于所述待标注文本生成词向量包括:使用词向量生成模型对所述待标注文本进行处理,生成所述词向量;其中,所述词向量生成模型包括:Word2Vec模型。
可选地,构建用于对所述关系子图进行识别的所述关系图处理模型;根据关系子图样本集合对所述关系图处理模型进行训练。
可选地,所述关系图处理模型包括:图卷积神经网络模型。
可选地,所述强化学习模型为基于Q学习的强化学习模型;所述强化学习模型的Q学习网络使用双向LSTM模型。
可选地,将所述状态信息输入所述强化学习模型,获取与所述状态信息相对应的动作;其中,所述动作包括:增加关系实体、在已有的关系实体之间增加关联关系、不增加实体以及关联关系。
可选地,根据与所述待标注文本对应的目标实体关系抽取信息与所述新实体关系抽取信息,并使用预设的奖惩函数进行计算,得到奖惩处理结果;其中,奖惩处理结果包括:加分、减分、不改变分数;
基于所述奖惩处理结果,对所述强化学习模型进行优化处理。
根据本公开的第二方面,提供一种实体关系抽取装置,包括:词向量生成模块,用于获取待标注文本,基于所述待标注文本生成词向量;识别处理模块,用于使用强化学习模型对所述词向量以及初始关系子图进行处理,获取所述词向量中的各个词之间的实体关系抽取信息;关系子图处理模块,用于基于所述实体关系抽取信息生成关系子图,使用关系图处理模型对所述关系子图进行处理,生成与所述关系子图相对应的关系子图特征信息;所述识别处理模块,还用于基于所述词向量和所述关系子图特征信息,生成所述强化学习模型的状态信息,使用所述强化学习模型对所述状态信息进行处理,用以获取新实体关系抽取信息。
可选地,所述词向量生成模块,用于使用词向量生成模型对所述待标注文本进行处理,生成所述词向量;其中,所述词向量生成模型包括:Word2Vec模型。
可选地,模型训练模块,用于构建用于对所述关系子图进行识别的所述关系图处理模型;根据关系子图样本集合对所述关系图处理模型进行训练。
可选地,所述关系图处理模型包括:图卷积神经网络模型。
可选地,所述强化学习模型为基于Q学习的强化学习模型;所述强化学习模型的Q学习网络使用双向LSTM模型。
可选地,所述识别处理模块,用于将所述状态信息输入所述强化学习模型,获取与所述状态信息相对应的动作;其中,所述动作包括:增加关系实体、在已有的关系实体之间增加关联关系、不增加实体以及关联关系。
可选地,模型优化模块,用于根据与所述待标注文本对应的目标实体关系抽取信息与所述新实体关系抽取信息,并使用预设的奖惩函数进行计算,得到奖惩处理结果;其中,奖惩处理结果包括:加分、减分、不改变分数;基于所述奖惩处理结果,对所述强化学习模型进行优化处理。
根据本公开的第三方面,提供一种实体关系抽取装置,包括:存储器;以及耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如上所述的方法。
根据本公开的第四方面,提供一种数据标注系统,包括:如上所述的实体关系抽取装置。
根据本公开的第五方面,提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述指令被处理器执行如上所述的方法。
本公开的实体关系抽取方法、装置、数据标注系统以及存储介质,将NLP的实体关系生成问题转换为实体关系图的生成问题,能够高效地表征实体关系,并从人工标注行为中学习,降低了人工成本,提高了标注效率,避免了重复标注和相似标注。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为根据本公开的实体关系抽取方法的一个实施例的流程示意图;
图2A为根据本公开的实体关系抽取方法的一个实施例的模型运行示意图;图2B为关系子图的示意图;
图3为根据本公开的实体关系抽取装置的一个实施例的模块示意图
图4为根据本公开的实体关系抽取装置的另一个实施例的模块示意图;
图5为根据本公开的实体关系抽取装置的又一个实施例的模块示意图。
具体实施方式
下面参照附图对本公开进行更全面的描述,其中说明本公开的示例性实施例。下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
实体关系标注是NLP数据标注的一种,本公开提出一种实体关系抽取方法,将NLP的实体关系生成问题转换为实体关系图的生成问题,从而可以采用较为自然高效的方式来表征实体关系;将模型从人工标注行为中学习,并得到人工反馈奖惩的交互过程转化为强化学习过程,通过最大化获得的奖励来获得准确的关系标注行为。
图1为根据本公开的实体关系抽取方法的一个实施例的流程示意图,如图1所示:
步骤101,获取待标注文本,基于待标注文本生成词向量。
步骤102,使用强化学习模型对词向量以及初始关系子图进行处理,获取词向量中的各个词之间的实体关系抽取信息。
在一个实施例中,强化学习(Reinforcement Learning,RL),又称再励学习、评价学习或增强学习,是机器学习的范式和方法论之一,用于描述和解决智能体(agent)在与环境的交互过程中通过学习策略以达成回报最大化或实现特定目标的问题。
可以使用现有的训练方法,预先对强化学习模型进行训练,使用训练好的强化学习模型对词向量以及初始关系子图进行处理,获取词向量中的各个词之间的实体关系抽取信息,实体关系抽取信息包括词语之间的关联关系,关联关系可以为“创建”、“生成”等。初始关系子图可以为预设的关系子图或者为内容为空的关系子图,或者,使用强化学习模型对词向量进行处理,
步骤103,基于实体关系抽取信息生成关系子图,使用关系图处理模型对关系子图进行处理,生成与关系子图相对应的关系子图特征信息。
在一个实施例中,可以使用强化学习模型直接输出关系子图,也可以使用其他工具基于词语以及词语之间的关联关系生成关系子图。
步骤104,基于词向量和关系子图特征信息,生成强化学习模型的状态信息,使用强化学习模型对状态信息进行处理,用以获取新实体关系抽取信息。
在一个实施例中,可以使用现有的方法基于词向量和关系子图特征信息,生成强化学习模型的状态信息。新实体关系抽取信息包括再次获得的词语之间的关联关系,可以基于词语以及词语之间的关联关系生成实体关系图。
上述实施例中的实体关系抽取方法,将NLP的实体关系生成问题转换为实体关系图的生成问题,从而可以采用较为自然高效的方式来表征实体关系,并从人工标注行为中学习,极大降低了人工成本,提高了标注效率,避免重复标注、相似标注;第一次将图生成和强化学习结合起来用于NLP实体关系抽取。
在一个实施例中,使用词向量生成模型对待标注文本进行处理,生成词向量,词向量生成模型包括Word2Vec模型等。构建用于对关系子图进行识别的关系图处理模型,根据关系子图样本集合对关系图处理模型进行训练,关系图处理模型包括卷积神经网络(Convolutional Neural Networks,CNN)模型等。可以采用现有的方法构造关系子图样本集合,并基于现有的模型训练方法根据关系子图样本集合对关系图处理模型进行训练。
强化学习模型为基于Q学习的强化学习模型,强化学习模型的Q学习网络使用双向LSTM(Long Short-Term Memory,长短期记忆网络)模型。将状态信息输入强化学习模型,获取与状态信息相对应的动作;其中,动作包括:增加关系实体、在已有的关系实体之间增加关联关系、不增加实体以及关联关系。
根据与待标注文本对应的目标实体关系抽取信息与新实体关系抽取信息,并使用预设的奖惩函数进行计算,得到奖惩处理结果;奖惩处理结果包括:加分、减分、不改变分数;基于奖惩处理结果,对强化学习模型进行优化处理。
在本公开的实体关系抽取方法中,强化学习的状态更新不仅使用LSTM的输出,还增加了使用图卷积提取当前关系子图的特征;强化学习的动作空间不再是简单的分类问题,而是根据情况确定是否向关系图中增加表示实体的节点或在已有的节点上增加表示关系的边,将实体标注和关系抽取合为一个生成关系图的步骤,不必再引入额外的关系抽取模型。
在一个实施例中,如图2A所示,采用基于图生成策略的交互学习的NLP实体关系标注方案,将关系标注问题转化为关系图生成问题,获得高效的关系表征,并使模型在人工标注、人工反馈的交互过程中进行学习。
例如,待标注的句子为“微软由比尔.盖茨与保罗.艾伦创办于1975年”。通过DQN模型和图卷积GCN模型,将实体关系抽取问题转化为利用强化学习一步步构建关系图的过程,生成的关系子图为图2B所示。关系子图通过图卷积GCN模型提取特征作为环境观测的一部分,更新到强化学习的状态S中。图卷积GCN模型是在实体关系数据库上预训练好的图生成模型,在提取子图特征时只进行关系子图特征信息预测。
如图2A所示,强化学习的状态部分S包括词语的词向量和当前关系子图的图卷积的表示,在Q-learning部分使用双向LSTM模型,每次输入的状态S和双向LSTM的隐含层作为Q-learning网络的输入,对于每个状态有三类动作:增加图的节点、向已有子图增加边、next(既不增加实体也不增加边),Agent获得的Reward也有三类:加分(10、30)、减分(-10)、零分(0)。
在一个实施例中,如图3所示,本公开提供一种实体关系抽取装置30,包括词向量生成模块31、识别处理模块32和关系子图处理模块33。词向量生成模块31获取待标注文本,基于待标注文本生成词向量。识别处理模块32使用强化学习模型对词向量以及初始关系子图进行处理,获取词向量中的各个词之间的实体关系抽取信息。
关系子图处理模块33基于实体关系抽取信息生成关系子图,使用关系图处理模型对关系子图进行处理,生成与关系子图相对应的关系子图特征信息。识别处理模块32基于词向量和关系子图特征信息,生成强化学习模型的状态信息,使用强化学习模型对状态信息进行处理,用以获取新实体关系抽取信息。
在一个实施例中,词向量生成模块31使用词向量生成模型对待标注文本进行处理,生成词向量,其中,词向量生成模型包括:Word2Vec模型等。如图4所示,实体关系抽取装置30还包括模型训练模块34和模型优化模块35。模型训练模块34构建用于对关系子图进行识别的关系图处理模型,根据关系子图样本集合对关系图处理模型进行训练,关系图处理模型包括图卷积神经网络模型等。
识别处理模块32将状态信息输入强化学习模型,获取与状态信息相对应的动作,动作包括增加关系实体、在已有的关系实体之间增加关联关系、不增加实体以及关联关系等。模型优化模块35根据与待标注文本对应的目标实体关系抽取信息与新实体关系抽取信息,并使用预设的奖惩函数进行计算,得到奖惩处理结果,其中,奖惩处理结果包括:加分、减分、不改变分数等。模型优化模块35基于奖惩处理结果,对强化学习模型进行优化处理。
图5为根据本公开的实体关系抽取装置的又一个实施例的模块示意图。如图5所示,该装置可包括存储器51、处理器52、通信接口53以及总线54。存储器51用于存储指令,处理器52耦合到存储器51,处理器52被配置为基于存储器51存储的指令执行实现上述的实体关系抽取方法。
存储器51可以为高速RAM存储器、非易失性存储器(non-volatile memory)等,存储器51也可以是存储器阵列。存储器51还可能被分块,并且块可按一定的规则组合成虚拟卷。处理器52可以为中央处理器CPU,或专用集成电路ASIC(Application SpecificIntegrated Circuit),或者是被配置成实施本公开的实体关系抽取方法的一个或多个集成电路。
在一个实施例中,本公开提供一种数据标注系统,包括如上任一个实施例中的实体关系抽取装置。
在一个实施例中,本公开提供一种计算机可读存储介质,计算机可读存储介质存储有计算机指令,指令被处理器执行时实现如上任一个实施例中的实体关系抽取方法。
上述实施例中提供的实体关系抽取方法、装置、数据标注系统以及存储介质,将NLP的实体关系生成问题转换为实体关系图的生成问题,从而可以采用较为自然高效的方式来表征实体关系,并从人工标注行为中学习,极大降低了人工成本,提高了标注效率,避免重复标注、相似标注。
可能以许多方式来实现本公开的方法和系统。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和系统。用于方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
本公开的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本公开限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本公开的原理和实际应用,并且使本领域的普通技术人员能够理解本公开从而设计适于特定用途的带有各种修改的各种实施例。

Claims (15)

1.一种实体关系抽取方法,包括:
获取待标注文本,基于所述待标注文本生成词向量;
使用强化学习模型对所述词向量以及初始关系子图进行处理,获取所述词向量中的各个词之间的实体关系抽取信息;
基于所述实体关系抽取信息生成关系子图,使用关系图处理模型对所述关系子图进行处理,生成与所述关系子图相对应的关系子图特征信息;
基于所述词向量和所述关系子图特征信息,生成所述强化学习模型的状态信息,使用所述强化学习模型对所述状态信息进行处理,用以获取新实体关系抽取信息;
其中,所述强化学习模型为基于Q学习的强化学习模型;将所述状态信息输入所述强化学习模型,获取与所述状态信息相对应的动作;所述动作包括:增加关系实体、在已有的关系实体之间增加关联关系、不增加实体以及关联关系。
2.如权利要求1所述的方法,所述基于所述待标注文本生成词向量包括:
使用词向量生成模型对所述待标注文本进行处理,生成所述词向量;
其中,所述词向量生成模型包括:Word2Vec模型。
3.如权利要求2所述的方法,还包括:
构建用于对所述关系子图进行识别的所述关系图处理模型;
根据关系子图样本集合对所述关系图处理模型进行训练。
4.如权利要求3所述的方法,其中,
所述关系图处理模型包括:图卷积神经网络模型。
5.如权利要求1所述的方法,其中,
所述强化学习模型的Q学习网络使用双向LSTM模型。
6.如权利要求1所述的方法,还包括:
根据与所述待标注文本对应的目标实体关系抽取信息与所述新实体关系抽取信息,并使用预设的奖惩函数进行计算,得到奖惩处理结果;其中,奖惩处理结果包括:加分、减分、不改变分数;
基于所述奖惩处理结果,对所述强化学习模型进行优化处理。
7.一种实体关系抽取装置,包括:
词向量生成模块,用于获取待标注文本,基于所述待标注文本生成词向量;
识别处理模块,用于使用强化学习模型对所述词向量以及初始关系子图进行处理,获取所述词向量中的各个词之间的实体关系抽取信息;
关系子图处理模块,用于基于所述实体关系抽取信息生成关系子图,使用关系图处理模型对所述关系子图进行处理,生成与所述关系子图相对应的关系子图特征信息;
所述识别处理模块,还用于基于所述词向量和所述关系子图特征信息,生成所述强化学习模型的状态信息,使用所述强化学习模型对所述状态信息进行处理,用以获取新实体关系抽取信息;
其中,所述强化学习模型为基于Q学习的强化学习模型;所述识别处理模块,用于将所述状态信息输入所述强化学习模型,获取与所述状态信息相对应的动作;其中,所述动作包括:增加关系实体、在已有的关系实体之间增加关联关系、不增加实体以及关联关系。
8.如权利要求7所述的装置,其中,
所述词向量生成模块,用于使用词向量生成模型对所述待标注文本进行处理,生成所述词向量;其中,所述词向量生成模型包括:Word2Vec模型。
9.如权利要求8所述的装置,还包括:
模型训练模块,用于构建用于对所述关系子图进行识别的所述关系图处理模型;根据关系子图样本集合对所述关系图处理模型进行训练。
10.如权利要求9所述的装置,其中,
所述关系图处理模型包括:图卷积神经网络模型。
11.如权利要求7所述的装置,其中,
所述强化学习模型的Q学习网络使用双向LSTM模型。
12.如权利要求7所述的装置,还包括:
模型优化模块,用于根据与所述待标注文本对应的目标实体关系抽取信息与所述新实体关系抽取信息,并使用预设的奖惩函数进行计算,得到奖惩处理结果;其中,奖惩处理结果包括:加分、减分、不改变分数;基于所述奖惩处理结果,对所述强化学习模型进行优化处理。
13.一种实体关系抽取装置,包括:
存储器;以及耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如权利要求1至6中任一项所述的方法。
14.一种数据标注系统,包括:
如权利要求7至13任一项所述的实体关系抽取装置。
15.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述指令被处理器执行如权利要求1至6中任一项所述的方法。
CN202110286687.XA 2021-03-17 2021-03-17 实体关系抽取方法、装置、数据标注系统以及存储介质 Active CN115114918B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110286687.XA CN115114918B (zh) 2021-03-17 2021-03-17 实体关系抽取方法、装置、数据标注系统以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110286687.XA CN115114918B (zh) 2021-03-17 2021-03-17 实体关系抽取方法、装置、数据标注系统以及存储介质

Publications (2)

Publication Number Publication Date
CN115114918A CN115114918A (zh) 2022-09-27
CN115114918B true CN115114918B (zh) 2024-09-06

Family

ID=83323994

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110286687.XA Active CN115114918B (zh) 2021-03-17 2021-03-17 实体关系抽取方法、装置、数据标注系统以及存储介质

Country Status (1)

Country Link
CN (1) CN115114918B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533932A (zh) * 2019-08-06 2019-12-03 银江股份有限公司 一种基于滚动优化的城市级全域交通信号推荐方法及系统
CN111276258A (zh) * 2020-01-15 2020-06-12 大连理工大学 一种基于领域知识的药物致病关系抽取方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020023650A1 (en) * 2018-07-25 2020-01-30 Wuxi Nextcode Genomics Usa, Inc. Retrosynthesis prediction using deep highway networks and multiscale reaction classification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110533932A (zh) * 2019-08-06 2019-12-03 银江股份有限公司 一种基于滚动优化的城市级全域交通信号推荐方法及系统
CN111276258A (zh) * 2020-01-15 2020-06-12 大连理工大学 一种基于领域知识的药物致病关系抽取方法

Also Published As

Publication number Publication date
CN115114918A (zh) 2022-09-27

Similar Documents

Publication Publication Date Title
Alzubaidi et al. A survey on deep learning tools dealing with data scarcity: definitions, challenges, solutions, tips, and applications
CN110569443B (zh) 一种基于强化学习的自适应学习路径规划系统
Bengio et al. Machine learning for combinatorial optimization: a methodological tour d’horizon
CN109299237B (zh) 基于行动者评论家强化学习算法的循环网络人机对话方法
CN111783993A (zh) 智能标注方法、装置、智能平台及存储介质
CN112699247A (zh) 一种基于多类交叉熵对比补全编码的知识表示学习框架
CN114281957A (zh) 自然语言数据查询方法、装置、电子设备及存储介质
CN113010683B (zh) 基于改进图注意力网络的实体关系识别方法及系统
US11016740B2 (en) Systems and methods for virtual programming by artificial intelligence
CN109948160B (zh) 短文本分类方法及装置
CN113239167A (zh) 一种可自动生成对话策略的任务型对话管理方法和系统
CN116719520B (zh) 代码生成方法及装置
CN113705196A (zh) 基于图神经网络的中文开放信息抽取方法和装置
CN115687610A (zh) 文本意图分类模型训练方法、识别方法、装置、电子设备及存储介质
CN113779988A (zh) 一种通信领域过程类知识事件抽取方法
CN116245097A (zh) 训练实体识别模型的方法、实体识别方法及对应装置
CN111027292A (zh) 一种限定采样文本序列生成方法及其系统
CN113238947B (zh) 一种人机协同的对话系统评测方法及系统
CN118312167B (zh) 基于低代码平台的套件机制实现方法及系统
CN111783464A (zh) 一种面向电力的领域实体识别方法、系统及存储介质
CN115114918B (zh) 实体关系抽取方法、装置、数据标注系统以及存储介质
CN113806489A (zh) 用于数据集创建的方法、电子设备和计算机程序产品
CN117540004A (zh) 基于知识图谱和用户行为的工业领域智能问答方法及系统
CN113961667B (zh) 一种基于Bert的动态阈值调整的智能问答系统
CN116738983A (zh) 模型进行金融领域任务处理的词嵌入方法、装置、设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant