CN114880527B - 一种基于多预测任务的多模态知识图谱表示方法 - Google Patents
一种基于多预测任务的多模态知识图谱表示方法 Download PDFInfo
- Publication number
- CN114880527B CN114880527B CN202210648954.8A CN202210648954A CN114880527B CN 114880527 B CN114880527 B CN 114880527B CN 202210648954 A CN202210648954 A CN 202210648954A CN 114880527 B CN114880527 B CN 114880527B
- Authority
- CN
- China
- Prior art keywords
- modal
- prediction
- vector
- loss
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 239000013598 vector Substances 0.000 claims abstract description 117
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims abstract description 23
- 238000009499 grossing Methods 0.000 claims abstract description 16
- 238000005516 engineering process Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Machine Translation (AREA)
Abstract
本发明公开一种基于多预测任务的多模态知识图谱表示方法,包括如下步骤:基于预设的TransR模型、CBOW模型以及ResNet模型分别获取多模态知识图谱中结构化模态、语义模态和图像模态数据的向量表示;利用Imagined方法将语义模态数据的向量表示与图像模态的向量表示进行匹配、重构得到混合模态的向量表示;基于结构化模态和混合模态的向量表示构建三个跨模态预测任务,并针对三个跨模态预测任务分别利用标签平滑技术和自适应权重更新方法构建全连接神经网络的子模型;整合面向不同预测任务的多个子模型得到完整训练模型。本发明可以完成多模态数据表示学习以及后续的知识图谱补全任务。
Description
技术领域
本发明涉及知识图谱表示学习技术领域,尤其涉及一种基于多预测任务的多模态知识图谱表示方法。
背景技术
如何高效表示并拓展人类知识是人工智能研究及发展的主要方向之一,知识库常常作为自然语言理解、自然语言生成等AI任务的实现基础。近年来,结构化表述知识的知识图谱技术受到了领域内的广泛关注。知识图谱利用三元组的结构描述知识事实,每个三元组由实体及关系构成。知识图谱其结构化的特性使知识图谱在知识表示、知识嵌入以及知识拓展等方向都有十分良好的表现,知识图谱技术已经在语言表示学习以及智能语言问答等人工智能应用程序中被广泛应用。近年来,为了使知识图谱具备更加完备的知识内容进而使知识图谱在表示学习嵌入时更加准确、效率更高,越来越多的研究不仅仅局限于结构化的文本知识内容,而是致力于构建多模态的知识图谱,向知识图谱中引入高质量的外部信息,构建对图谱中不同模态数据协同表达的方法,使知识图谱能够为跨模态的任务提供支撑。多模态知识图谱的表示学习方法是当前热门且前沿的研究方向。
目前的知识图谱表示学习方法在结构化数据的单一模态上已经较为成熟,其中基于翻译原理的表示学习模型因其简单且准确的特性得到了广泛应用。多模态知识图谱由结构化数据、图像数据、语义数据等不同模态的数据构成,对多模态知识图谱进行表示学习需要首先将不同模态的数据进行向量表示,然后选取适当的方法对向量进行统一训练。现存多模态向量统一训练过程多数基于翻译原理构建训练模型,经过训练不断缩小不同模态向量表示之间的差距,进而获得多模态数据的统一向量表示。知识图谱补全是知识获取的重要分支,是知识图谱表示学习后面临的重要任务,知识图谱补全任务可以抽象为实体预测和关系预测任务,多模态知识图谱补全需要图谱表示学习方法能够满足实现跨模态执行预测任务的需求。现存方法处理知识图谱跨模态任务的准确度以及稳定性不足,表示方法中多模态协同训练的模型有待优化。知识图谱中存在一对一、一对多和多对多关系,现存方法缺乏对不同关系类型的不同处理,导致表示方法无法适用于表达不同关系类型的三元组数据。
发明内容
为了解决上述技术问题,本发明提出一种基于多预测任务的多模态知识图谱表示方法,解决了现有多模态知识图谱表示学习方法难以执行跨模态任务以及无法适用于表达不同关系类型的三元组数据的问题。本发明可以用于多模态数据表示学习以及后续的知识图谱补全任务。
为了达到上述目的,本发明的技术方案如下:
一种基于多预测任务的多模态知识图谱表示方法,包括如下步骤:
基于预设的TransR模型、CBOW模型以及ResNet模型分别获取多模态知识图谱中结构化模态、语义模态和图像模态数据的向量表示;
利用Imagined方法将语义模态的向量表示和图像模态的向量表示进行匹配,对向量进行重构得到混合模态的向量表示;
基于结构化模态和混合模态的向量表示构建三个跨模态预测任务,并针对三个跨模态预测任务分别利用标签平滑技术和自适应权重更新方法构建全连接神经网络的子模型;
整合面向不同预测任务的三个子模型得到完整训练模型,经过训练优化得到知识图谱不同模态下最终的向量表示。
优选地,所述基于结构化模态和混合模态的向量表示构建三个跨模态预测任务,并针对三个跨模态预测任务分别利用标签平滑技术和自适应权重更新方法构建全连接神经网络的子模型,具体包括如下步骤:
设计三个预测任务如下:基于给定头实体的结构化向量表示和尾实体的混合模态向量表示预测关系,即hs,tm→rs;基于给定头实体和尾实体的混合模态向量表示预测关系,即hm,tm→rs;基于给定头实体的混合模态向量表示和关系的向量表示预测尾实体,即hm,rs→ts,
三个预测任务主要由全连接神经网络训练实现,神经网络的输入都是两个维度为2d的向量,神经网络的多层结构利用评分函数算出,s(hs,tm)、s(hm,tm)和s(hm,rs)分别表示三个预测任务的评分函数,公式如下:
神经网络将评分函数使用softmax层计算,可以得到子模型对于相应预测任务的预测标签向量,pr、pr′和pt分别表示三个子模型针对三个预测任务生成的预测结果的向量表示:
pr=softmax(s(hs,tm)),
pr′=softmax(s(hm,tm)),
pt=softmax(s(hm,rs))。
优选地,所述利用标签平滑技术是采用Label Smoothing方法使训练数据标签平滑化,具体包括如下步骤:
式中,lr、lr′和lt分别表示三个子模型中经过标签平滑化处理的目标标签向量,和是三个子模型中的超参数,qr、qr′和qt分别表示针对三个预测任务生成的目标标签向量,|E|和|R|分别表示知识图谱中实体和关系的数量,模型训练原理是最小化模型预测标签向量与目标标签向量之间的差距,基于多分类交叉熵构建子模型的损失函数,分别为Loss(pr,lr)、Loss(pr′,lr′)和Loss(pt,lt),计算过程如下:
优选地,所述自适应权重更新方法,具体包括如下步骤:
对于不同预测任务赋予不同的权值,分别为wr、wr′和wt,且满足一对多关系或多对多关系在损失函数中的惩罚权重大于一对一关系在损失函数中的惩罚权重,得到优化后的损失子模型损失函数Loss′(pr,lr)、Loss′(pr′,lr′)和Loss′(pt,lt),计算过程如下:
优选地,所述完整训练模型的损失函数Loss(h,r,t),公式如下:
Loss(h,r,t)=Loss′(pr,lr)+Loss′(pr′,lr′)+Loss′(pt,lt),
通过不断最小化损失函数利用反向梯度算法进行模型的参数优化。
基于上述技术方案,本发明的有益效果是:本发明涉及的一种基于多预测任务的多模态知识图谱表示方法,分别利用TransR模型、CBOW词向量模型和ResNet模型训练多模态知识图谱中的数据,分别生成结构化数据模态、语义数据模态以及图像数据模态的向量表示;利用Imagined方法将语义模态的向量表示与图像模态的向量表示进行匹配,对向量进行重构得到混合模态的向量表示;提出使用不同模态数据的多个数据预测任务,对不同预测任务利用标签平滑技术和自适应权重更新方法构建全连接神经网络的子模型;最后整合面向不同预测任务的多个子模型得到完整训练模型,经过训练优化得到知识图谱不同模态下最终的向量表示。本发明解决了现有多模态知识图谱表示学习方法难以执行跨模态任务以及无法适用于表达不同关系类型的三元组数据的问题,能够完成多模态数据表示学习以及后续的知识图谱补全任务。
附图说明
图1是一个实施例中一种基于多预测任务的多模态知识图谱表示方法流程图;
图2是一个实施例中Imagined混合向量生成方法原理示意图;
图3是一个实施例中整合多个预测任务子模型的完整训练模型架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
结合图1对本实施方式进行说明,本实施方式给出的基于多预测任务的多模态知识图谱表示方法,具体包括以下步骤:
步骤S1、基于预设的TransR模型、CBOW模型以及ResNet模型分别获取多模态知识图谱中结构化模态、语义模态和图像模态数据的向量表示。
本实施例中,TransR模型用于将头实体、尾实体和关系嵌入到同一向量空间中,将三元组描述的事实看成一种近似翻译的过程,即头实体经过关系翻译得到尾实体。从向量角度,头实体向量与关系向量的加和应当接近尾实体向量,即h+r≈t。经过TransR模型处理生成头实体向量表示hs、关系向量表示rs和尾实体向量表示ts,向量的维度为2d。
CBOW模型用于给定中心词wi一定邻近区域内的单词wi-2、wi-1、wi+1和wi+2,经过投影层和输出层得到目标中心词wi的向量表示。经过CBOW模型处理生成头向量表示hl和尾向量表示tl,向量的维度为d。
读取多模态知识图谱中与三元组实体对应的图像数据,并利用ResNet模型进行训练。ResNet模型是图像卷积神经网络网络的一种,是在VGG19网络的基础上进行修改,其特点是通过短路机制加入了残差单元,解决了深度网络训练过程中的退化问题。本实施例中采用ResNet模型,处理生成头向量表示hi和尾向量表示ti,向量的维度为d。
步骤S2、利用Imagined方法将语义模态的向量表示和图像模态的向量表示进行匹配,对向量进行重构得到混合模态的向量表示。
具体实施原理示意图如图2所示。Imagined方法通过训练一个映射方法将图像向量表示映射到语义向量表达空间,该映射的训练过程由简单的神经网络实现。将同一实体的图像向量表示在语义向量空间中的表示结果与该实体的语义表示向量连接,生成包含语义以及图像两种模态信息的混合模态向量表示hm和tm,向量维度为2d。
步骤S3、基于结构化模态和混合模态的向量表示构建三个跨模态预测任务,并针对三个跨模态预测任务分别利用标签平滑技术和自适应权重更新方法构建全连接神经网络的子模型。
本实施例中,设计三个跨模态预测任务,并依据不同的预测任务构建三个子模型。三个预测任务如下:基于给定头实体的结构化向量表示和尾实体的混合模态向量表示预测关系,即hs,tm→rs;基于给定头实体和尾实体的混合模态向量表示预测关系,即hm,tm→rs;基于给定头实体的混合模态向量表示和关系的向量表示预测尾实体,即hm,rs→ts。
上述三个预测任务主要由全连接神经网络训练实现。神经网络的输入都是两个维度为2d的向量,神经网络的多层结构利用评分函数算出。s(hs,tm)、s(hm,tm)和s(hm,rs)分别表示三个预测任务的评分函数,和表示解决预测任务一的子模型中神经网络第n层的权重和偏置项,MR T和ME T分别表示所有关系向量rs构成的矩阵的转置和所有尾实体向量ts构成的矩阵的转置。三个子模型的评分函数分别如下:
神经网络将评分函数使用softmax层计算,可以得到子模型对于相应预测任务的预测标签向量。pr、pr′和pt分别表示三个子模型针对三个预测任务生成的预测结果的向量表示:
pr=softmax(s(hs,tm)),
pr′=softmax(s(hm,tm)),
pt=softmax(s(hm,rs)),
qr、qr′和qt分别表示针对三个预测任务生成的目标标签向量,和分别表示针对预测任务一和任务二在训练集中能够与给定头实体和尾实体构成正确三元组的关系的集合,表示针对预测任务三在训练集中能够与给定头实体和关系构成正确三元组的尾实体的集合。生成目标标签向量过程:
接下来使用标签平滑技术,软化传统的one-hot类型标签,能够在计算损失函数阶段避免模型训练的过拟合。lr、lr′和lt分别表示三个子模型中经过标签平滑化处理的目标标签向量,和是模型中的超参数,|E|和|R|分别表示知识图谱中实体和关系的数量。标签平滑化过程如下:
模型训练原理是最小化模型预测标签向量与目标标签向量之间的差距,本发明基于多分类交叉熵构建子模型的损失函数,分别为Loss(pr,lr)、Loss(pr′,lr′)和Loss(pt,lt),计算过程如下:
为解决表达不同关系类型的三元组数据的适用性问题,采用自适应权重更新方法,对于不同的分类任务赋予不同的权值,分别为wr、wr′和wt。而且对于一对多关系或多对多关系相较于一对一关系在损失函数中的惩罚权重应当更大一些,得到优化后的损失子模型损失函数Loss′(pr,lr)、Loss′(pr′,lr′)和Loss′(pt,lt),计算过程如下:
步骤S4、整合面向不同预测任务的三个子模型得到完整训练模型,经过训练优化得到知识图谱不同模态下最终的向量表示,其模型示意图如图3所示。基于子模型损失函数加和得到整体模型训练的损失函数,即Loss(h,r,t):
Loss(h,r,t)=Loss′(pr,lr)+Loss′(pr′,lr′)+Loss′(pt,lt),
遍历整个训练数据集,N表示训练数据集中三元组的数量,获取整个训练集的整体损失函数final_loss,并基于final_loss优化多模态知识图谱的向量表示:
以上所述仅为本发明所公开的一种基于多预测任务的多模态知识图谱表示方法的优选实施方式,并非用于限定本说明书实施例的保护范围。凡在本说明书实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书实施例的保护范围之内。
Claims (5)
1.一种基于多预测任务的多模态知识图谱表示方法,其特征在于,包括如下步骤:
基于预设的TransR模型、CBOW模型以及ResNet模型分别获取多模态知识图谱中结构化模态、语义模态和图像模态数据的向量表示;
利用Imagined方法将语义模态的向量表示和图像模态的向量表示进行匹配,对向量进行重构得到混合模态的向量表示;
基于结构化模态和混合模态的向量表示构建如下三个跨模态预测任务:基于给定头实体的结构化向量表示和尾实体的混合模态向量表示预测关系;基于给定头实体和尾实体的混合模态向量表示预测关系;基于给定头实体的混合模态向量表示和关系的向量表示预测尾实体,并针对所述三个跨模态预测任务分别利用标签平滑技术和自适应权重更新方法构建全连接神经网络的子模型;
整合面向不同预测任务的三个子模型得到完整训练模型,经过训练优化得到知识图谱不同模态下最终的向量表示。
2.根据权利要求1所述的一种基于多预测任务的多模态知识图谱表示方法,其特征在于,所述针对三个跨模态预测任务分别利用标签平滑技术和自适应权重更新方法构建全连接神经网络的子模型,具体包括如下步骤:
设计三个预测任务如下:预测任务一,基于给定头实体的结构化向量表示和尾实体的混合模态向量表示预测关系,即hs,tm→rs;预测任务二,基于给定头实体和尾实体的混合模态向量表示预测关系,即hm,tm→rs;预测任务三,基于给定头实体的混合模态向量表示和关系的向量表示预测尾实体,即hm,rs→ts,其中hs、hm、ts、tm和rs分别表示头节点的结构化模态向量表示、头节点的混合模态向量表示、尾节点的结构化模态向量表示、尾节点的混合模态向量表示和关系的结构化模态向量表示,
三个预测任务主要由全连接神经网络训练实现,神经网络的输入都是两个维度为2d的向量,神经网络的多层结构利用评分函数算出,s(hs,tm)、s(hm,tm)和s(hm,rs)分别表示三个预测任务的评分函数,公式如下:
神经网络将评分函数使用softmax层计算,可以得到子模型对于相应预测任务的预测标签向量,pr、pr′和pt分别表示三个子模型针对三个预测任务生成的预测结果的向量表示:
pr=softmax(s(hs,tm)),
pr′=softmax(s(hm,tm)),
pt=softmax(s(hm,rs))。
5.根据权利要求4所述的一种基于多预测任务的多模态知识图谱表示方法,其特征在于,所述完整训练模型的损失函数Loss(h,r,t),公式如下:
Loss(h,r,t)=Loss′(pr,lr)+Loss′(pr′,lr′)+Loss′(pt,lt),
通过不断最小化损失函数利用反向梯度算法进行模型的参数优化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210648954.8A CN114880527B (zh) | 2022-06-09 | 2022-06-09 | 一种基于多预测任务的多模态知识图谱表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210648954.8A CN114880527B (zh) | 2022-06-09 | 2022-06-09 | 一种基于多预测任务的多模态知识图谱表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114880527A CN114880527A (zh) | 2022-08-09 |
CN114880527B true CN114880527B (zh) | 2023-03-24 |
Family
ID=82681094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210648954.8A Active CN114880527B (zh) | 2022-06-09 | 2022-06-09 | 一种基于多预测任务的多模态知识图谱表示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114880527B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116028654B (zh) * | 2023-03-30 | 2023-06-13 | 中电科大数据研究院有限公司 | 知识节点的多模态融合更新方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463242A (zh) * | 2014-11-12 | 2015-03-25 | 天津理工大学 | 基于特征变换和词典学习的多特征动作识别方法 |
CN105760507A (zh) * | 2016-02-23 | 2016-07-13 | 复旦大学 | 基于深度学习的跨模态主题相关性建模方法 |
CN112200317A (zh) * | 2020-09-28 | 2021-01-08 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 多模态知识图谱构建方法 |
CN114064918A (zh) * | 2021-11-06 | 2022-02-18 | 中国电子科技集团公司第五十四研究所 | 一种多模态事件知识图谱构建方法 |
CN114564593A (zh) * | 2022-02-21 | 2022-05-31 | 北京百度网讯科技有限公司 | 多模态知识图谱的补全方法、装置和电子设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008293A (zh) * | 2018-10-06 | 2020-04-14 | 上海交通大学 | 基于结构化语义表示的视觉问答方法 |
EP3896581A1 (en) * | 2020-04-14 | 2021-10-20 | Naver Corporation | Learning to rank with cross-modal graph convolutions |
CN112288091B (zh) * | 2020-10-30 | 2023-03-21 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 基于多模态知识图谱的知识推理方法 |
CN112364168A (zh) * | 2020-11-24 | 2021-02-12 | 中国电子科技集团公司电子科学研究院 | 一种基于多属性信息融合的舆情分类方法 |
CN112699247B (zh) * | 2020-12-23 | 2023-10-17 | 清华大学 | 一种基于多类交叉熵对比补全编码的知识表示学习方法 |
CN112667824B (zh) * | 2021-01-17 | 2024-03-15 | 北京工业大学 | 基于多语义学习的知识图谱补全方法 |
CN112966522B (zh) * | 2021-03-03 | 2022-10-14 | 北京百度网讯科技有限公司 | 一种图像分类方法、装置、电子设备及存储介质 |
CN113761936B (zh) * | 2021-08-19 | 2023-04-07 | 哈尔滨工业大学(威海) | 一种基于多头自注意力机制的多任务篇章级事件抽取方法 |
CN114330334A (zh) * | 2021-12-30 | 2022-04-12 | 杭州电子科技大学 | 一种基于知识图谱和跨模态注意力的多模态反讽检测方法 |
-
2022
- 2022-06-09 CN CN202210648954.8A patent/CN114880527B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104463242A (zh) * | 2014-11-12 | 2015-03-25 | 天津理工大学 | 基于特征变换和词典学习的多特征动作识别方法 |
CN105760507A (zh) * | 2016-02-23 | 2016-07-13 | 复旦大学 | 基于深度学习的跨模态主题相关性建模方法 |
CN112200317A (zh) * | 2020-09-28 | 2021-01-08 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 多模态知识图谱构建方法 |
CN114064918A (zh) * | 2021-11-06 | 2022-02-18 | 中国电子科技集团公司第五十四研究所 | 一种多模态事件知识图谱构建方法 |
CN114564593A (zh) * | 2022-02-21 | 2022-05-31 | 北京百度网讯科技有限公司 | 多模态知识图谱的补全方法、装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN114880527A (zh) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108073711B (zh) | 一种基于知识图谱的关系抽取方法和系统 | |
CN110377686A (zh) | 一种基于深度神经网络模型的地址信息特征抽取方法 | |
CN106971414B (zh) | 一种基于深度循环神经网络算法的三维动画生成方法 | |
CN112861995B (zh) | 基于模型无关元学习的无监督少样本图像分类方法、系统及存储介质 | |
CN110046252B (zh) | 一种基于注意力机制神经网络与知识图谱的医疗文本分级方法 | |
CN112699247A (zh) | 一种基于多类交叉熵对比补全编码的知识表示学习框架 | |
CN111859978A (zh) | 一种基于深度学习的情感文本生成方法 | |
CN110222164A (zh) | 一种问答模型训练方法、问题语句处理方法、装置及存储介质 | |
CN112417092B (zh) | 基于深度学习的智能化文本自动生成系统及其实现方法 | |
CN113516968A (zh) | 一种端到端长时语音识别方法 | |
CN110162789A (zh) | 一种基于汉语拼音的词表征方法及装置 | |
CN114398976A (zh) | 基于bert与门控类注意力增强网络的机器阅读理解方法 | |
CN116030257B (zh) | 一种基于NesT模型的语义分割方法 | |
CN116415170A (zh) | 基于预训练语言模型的提示学习小样本分类方法、系统、设备及介质 | |
CN110516724A (zh) | 可视化作战场景的高性能多层字典学习特征图像处理方法 | |
CN113312919A (zh) | 一种知识图谱的文本生成方法及装置 | |
CN112069827B (zh) | 一种基于细粒度主题建模的数据到文本生成方法 | |
CN116932722A (zh) | 一种基于跨模态数据融合的医学视觉问答方法及系统 | |
CN118230347B (zh) | 一种基于语义保留与重构的图像文本控制描述生成方法 | |
CN114880527B (zh) | 一种基于多预测任务的多模态知识图谱表示方法 | |
CN113780059A (zh) | 一种基于多特征点的连续手语识别方法 | |
CN116136870A (zh) | 基于增强实体表示的智能社交对话方法、对话系统 | |
CN112116685A (zh) | 基于多粒度奖励机制的多注意力融合网络的图像字幕生成方法 | |
CN114490922B (zh) | 一种自然语言理解模型训练方法及装置 | |
CN117611938A (zh) | 多模态模型训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |