Nothing Special   »   [go: up one dir, main page]

CN112308370B - 一种基于Transformer的面向思政课程的主观题自动评分方法 - Google Patents

一种基于Transformer的面向思政课程的主观题自动评分方法 Download PDF

Info

Publication number
CN112308370B
CN112308370B CN202010974030.8A CN202010974030A CN112308370B CN 112308370 B CN112308370 B CN 112308370B CN 202010974030 A CN202010974030 A CN 202010974030A CN 112308370 B CN112308370 B CN 112308370B
Authority
CN
China
Prior art keywords
scoring
score
answer
similarity
matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010974030.8A
Other languages
English (en)
Other versions
CN112308370A (zh
Inventor
刘新
蔡林杰
刘龙
唐朝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiangtan University
Original Assignee
Xiangtan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiangtan University filed Critical Xiangtan University
Priority to CN202010974030.8A priority Critical patent/CN112308370B/zh
Publication of CN112308370A publication Critical patent/CN112308370A/zh
Application granted granted Critical
Publication of CN112308370B publication Critical patent/CN112308370B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Tourism & Hospitality (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Marketing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Technology (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Primary Health Care (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开了一种基于Transformer的面向思政课程的主观题自动评分方法,涉及自然语言处理及深度学习,属于计算机应用技术领域,解决思政课程主观题自动评分技术准确度低的问题,具体方案为:包括以下步骤:S1:输入学生答案初始文本,通过基于BERT和序列标注的语义完整性分析模型对初始文本进行切分,将所述初始文本切分为多个语义完整分句;S2:通过BERT将每个学生答案分句和每个标准答案得分点表示为嵌入矩阵;S3:输入一个学生答案分句和一个标准答案得分点的嵌入矩阵表示,通过基于Transformer的短文本相似度计算模型计算两个文本之间的相似度;S4:重复S3直至计算完每个学生答案分句和每个标准答案得分点之间的相似度;S5:根据每个得分点的分数和S4计算的相似度得到每个学生答案分句对于每个得分点的得分矩阵,选取行列都不重叠且总分最高的得分序列得到最终评分。

Description

一种基于Transformer的面向思政课程的主观题自动评分 方法
技术领域
本发明涉及自然语言处理及深度学习,属于计算机应用技术领域,更具体地说,它涉及一种基于Transformer的面向思政课程的主观题自动评分方法。
背景技术
Transformer模型2017年由《Attention is All You Need》提出,主要用于自然语言处理(NLP)领域,有一个完整的Encoder-Decoder框架,其主要由Attention(注意力)机制构成。每个编码器均由自注意力机制和前馈神经网络两个主要子层组成。每个解码器由自注意力机制、编码器-解码器注意力机制和前馈神经网络三个主要子层组成。像循环神经网络(RNN)一样,Transformer旨在处理顺序数据(例如自然语言),以执行翻译和文本摘要之类的任务。与R NN不同的是,Transformer不需要按顺序处理顺序数据,与R NN相比,Transformer允许更多的并行化,因此减少了训练时间,可以对更大的数据集进行训练。自问世以来,Transformer已成为解决NLP中许多问题的首选模型,取代了旧的循环神经网络模型。
2018年Google在论文《BERT:Pre-training of Deep Bid irectionalTransformers for Language Understanding》中提出了BERT模型,BERT模型主要利用了Transformer的双向编码器结构,采用的是最原始的Transformer。与最近的其他语言表示模型不同,BERT旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的BERT表示可以通过一个额外的输出层进行微调,适用于广泛任务的最先进模型的构建,比如问答任务和语言推理,无需针对具体任务做大幅架构修改。
发明内容
本发明提供一种基于Transformer的面向思政课程的主观题自动评分方法,解决思政课程主观题自动评分技术准确度低的问题,使用Python语言编写代码,先将学生答案初始文本切分成多个语义完整的分句,再计算每一个学生答案分句和每一个标准答案得分点之间的相似度,根据计算的相似度和每个得分点的分数得到每个学生答案分句对于每个得分点的得分矩阵,选取行列都不重叠且总分最高的得分序列得到最终评分。
本发明的上述技术目的是通过以下技术方案得以实现的。一种基于Transformer的面向思政课程的主观题自动评分方法,包括以下步骤:
S1:输入学生答案初始文本,通过基于BERT和序列标注的语义完整性分析模型对初始文本进行切分,将所述初始文本切分为多个语义完整分句;
S2:通过BERT将每个学生答案分句和每个标准答案得分点表示为嵌入矩阵;
S3:输入一个学生答案分句和一个标准答案得分点的嵌入矩阵表示,通过基于Transformer的短文本相似度计算模型计算两个文本之间的相似度;
S4:重复S3直至计算完每个学生答案分句和每个标准答案得分点之间的相似度;
S5:根据每个得分点的分数和S4计算的相似度得到每个学生答案分句对于每个得分点的得分矩阵,选取行列都不重叠且总分最高的得分序列得到最终评分。
步骤S1输入学生答案初始文本,通过BERT预训练模型可以得到由字符级向量组成的嵌入矩阵,再增加全连接层和Softmax层来对每个字符进行标注,最后根据标注序列将学生答案切分为多个语义完整分句。采用标注集T={B,M,E}进行,其中字母B表示语义完整句的开始字符,M表示语义完整句的中间字符,E表示语义完整句的结束字符。如得到“运/B动/M是/M物/M质/M的/M存/M在/M方/M式/M和/M根/M本/M属/M性/E物/B质/M是/M运/M动/M着/M的/M物/M质/E”,可依据字母E将该文本切分为“运动是物质的存在方式和根本属性”和“物质是运动着的物质”两个语义完整分句。
步骤S2通过BERT预训练模型分别得到每个学生答案分句和每个标准答案得分点的由字符级向量组成的嵌入矩阵,学生答案分句对应矩阵为Qn×768,标准答案得分点矩阵为Am×768,n和m分别表示两个文本的长度,768表示BERT输出每个字向量的长度。
步骤S3第一次的输入为一个学生答案分句和一个标准答案得分点的嵌入矩阵表示,进入堆叠6个Transformer编码器的编码组件,每个编码器有三个子层,分别是原有的多头自注意力层和前馈神经网络层以及新增的交互注意力层,前两个子层获得两个文本各自的上下文信息,新增的第三层使两个文本获得二者的交互信息,除了第一次输入,后面每个编码器的输入都是上一个编码器的输出,堆叠6个编码器使得两个文本在不同的语义程度上进行交互,获得更为丰富的交互信息。矩阵Qn×768表示学生答案分句,矩阵Am×768表示标准答案得分点,交互注意力层先计算交互注意力权重矩阵Mn×m=QAT,按行方向对M进行Softmax操作,表示A中每个字符对Q中每个字符的注意力权重,因此交互后Q=softrowmax(M)A。按列方向对M进行Softmax操作,表示Q中每个字符对A中每个字符的注意力权重,因此交互后A=[softcolmax(M)]TQ。这样学生答案分句Q和标准答案得分点A就进行了信息交互,经过整个编码组件(6个编码器)编码后,获得丰富的上下文信息和交互信息。将Q和A输入到池化层(max-pooling)后分别得到两个文本序列的向量表示v1和v2。v1和v2进入预测层,两个文本序列的相似度计算公式: 其中/>表示两个文本序列之间的相似度预测值,v1×v2强调两个文本序列之间相同的地方,|v1-v2|强调两个文本序列之间不同的地方,F表示将这4个向量拼接成一个向量输入到全连接神经网络后再经过Sigmoid函数处理输出相似度预测值。
步骤S4重复步骤S3直至计算完每个学生答案分句和每个标准答案得分点之间的相似度,由此得到一个相似度矩阵Sqn×an,qn表示学生答案的分句数,an表示标准答案的得分点数。
步骤S5根据每个得分点的分数gan和S4计算的相似度矩阵Sqn×an,gan每个分数值乘以对应Sqn×an列得到每个学生答案分句对于每个得分点的得分矩阵Gqn×an,在Gqn×an中选取行列都不重叠且总分最高的得分序列Zmin(qn,an)得到最终评分。
本发明提供了一种基于Transformer的面向思政课程的主观题自动评分方法,克服了现有的思政课程主观题自动评分技术不注重上下文信息和两个文本之间交互信息的问题,能够解决思政课程主观题自动评分技术准确度低的问题,提高计算效率。
附图说明
图1是本发明实现过程图;
图2是本发明中基于BERT和序列标注的语义完整性分析模型的结构示意图。
图3是本明中基于Transformer的短文本相似度计算模型的结构示意图。
具体实施方式
本发明的实际应用环境是针对思政课程主观题依据标准答案来对学生答案进行评分。以下结合附图对本发明作进一步详细说明。本发明在实施例具体实施时,如图1所示包括以下步骤:
S1:输入学生答案初始文本,通过基于BERT和序列标注的语义完整性分析模型对初始文本进行切分,将所述初始文本切分为多个语义完整分句;
S2:通过BERT将每个学生答案分句和每个标准答案得分点表示为嵌入矩阵;
S3:输入一个学生答案分句和一个标准答案得分点的嵌入矩阵表示,通过基于Transformer的短文本相似度计算模型计算两个文本之间的相似度;
S4:重复S3直至计算完每个学生答案分句和每个标准答案得分点之间的相似度;
S5:根据每个得分点的分数和S4计算的相似度得到每个学生答案分句对于每个得分点的得分矩阵,选取行列都不重叠且总分最高的得分序列得到最终评分。
如图2所示,步骤S1输入学生答案初始文本,通过BERT预训练模型可以得到由字符级向量组成的嵌入矩阵,再增加全连接层和Softmax层来对每个字符进行标注,最后根据标注序列将学生答案切分为多个语义完整分句。采用标注集T={B,M,E}进行,其中字母B表示语义完整句的开始字符,M表示语义完整句的中间字符,E表示语义完整句的结束字符。如得到“运/B动/M是/M物/M质/M的/M存/M在/M方/M式/M和/M根/M本/M属/M性/E物/B质/M是/M运/M动/M着/M的/M物/M质/E”,可依据字母E将该文本切分为“运动是物质的存在方式和根本属性”和“物质是运动着的物质”两个语义完整分句。
步骤S2通过BERT预训练模型分别得到每个学生答案分句和每个标准答案得分点的由字符级向量组成的嵌入矩阵,学生答案分句对应矩阵为Qn×768,标准答案得分点矩阵为Am×768,n和m分别表示两个文本的长度,768表示BERT输出每个字向量的长度。
如图3所示,步骤S3第一次的输入为一个学生答案分句和一个标准答案得分点的嵌入矩阵表示,进入堆叠6个Transformer编码器的编码组件,每个编码器有三个子层,分别是原有的多头自注意力层和前馈神经网络层以及新增的交互注意力层,前两个子层获得两个文本各自的上下文信息,新增的第三层使两个文本获得二者的交互信息,除了第一次输入,后面每个编码器的输入都是上一个编码器的输出,堆叠6个编码器使得两个文本在不同的语义程度上进行交互,获得更为丰富的交互信息。矩阵Qn×768表示学生答案分句,矩阵Am ×768表示标准答案得分点,交互注意力层先计算交互注意力权重矩阵Mn×m=QAT,按行方向对M进行Softmax操作,表示A中每个字符对Q中每个字符的注意力权重,因此交互后Q=softrowmax(M)A。按列方向对M进行Softmax操作,表示Q中每个字符对A中每个字符的注意力权重,因此交互后A=[softcolmax(M)]TQ。这样学生答案分句Q和标准答案得分点A就进行了信息交互,经过整个编码组件(6个编码器)编码后,获得丰富的上下文信息和交互信息。将Q和A输入到池化层(max-pooling)后分别得到两个文本序列的向量表示v1和v2。v1和v2进入预测层,两个文本序列的相似度计算公式: 其中/>表示两个文本序列之间的相似度预测值,v1×v2强调两个文本序列之间相同的地方,|v1-v2|强调两个文本序列之间不同的地方,F表示将这4个向量拼接成一个向量输入到全连接神经网络后再经过Sigmoid函数处理输出相似度预测值。
步骤S4重复步骤S3直至计算完每个学生答案分句和每个标准答案得分点之间的相似度,由此得到一个相似度矩阵Sqn×an,qn表示学生答案的分句数,an表示标准答案的得分点数。
步骤S5根据每个得分点的分数gan和S4计算的相似度矩阵Sqn×an,每个分数值乘以对应Sqn×an列得到每个学生答案分句对于每个得分点的得分矩阵Gqn×an,在Gqn×an中选取行列都不重叠且总分最高的得分序列Zmin(qn,an)得到最终评分。如z=[3241]得到最终评分为9。
本具体实施例仅仅是对本发明的解释,其并不是对本发明的限制,本领域技术人员在阅读完本说明书后可以根据需要对本实施例做出没有创造性贡献的修改,但只要在本发明的权利要求范围内都受到专利法的保护。

Claims (3)

1.一种基于Transformer的面向思政课程的主观题自动评分方法,其特征在于,包括以下步骤:
S1:输入学生答案初始文本,通过基于BERT和序列标注的语义完整性分析模型对初始文本进行切分,将所述初始文本切分为多个语义完整分句;
S2:通过BERT将每个学生答案分句和每个标准答案得分点表示为嵌入矩阵;
S3:输入一个学生答案分句和一个标准答案得分点的嵌入矩阵表示,通过基于Transformer的短文本相似度计算模型计算两个文本之间的相似度;
S4:重复S3直至计算完每个学生答案分句和每个标准答案得分点之间的相似度;
S5:根据每个得分点的分数和S4计算的相似度得到每个学生答案分句对于每个得分点的得分矩阵,选取行列都不重叠且总分最高的得分序列得到最终评分;
其中,上述S3第一次的输入为一个学生答案分句和一个标准答案得分点的嵌入矩阵表示,进入堆叠6个Transformer编码器的编码组件,每个编码器有三个子层,分别是原有的多头自注意力层和前馈神经网络层以及新增的交互注意力层,前两个子层获得两个文本各自的上下文信息,新增的第三层使两个文本获得二者的交互信息,除了第一次输入,后面每个编码器的输入都是上一个编码器的输出,堆叠6个编码器使得两个文本在不同的语义程度上进行交互,获得更为丰富的交互信息;矩阵Qn×768表示学生答案分句,矩阵Am×768表示标准答案得分点,交互注意力层先计算交互注意力权重矩阵Mn×m=QAT,按行方向对M进行Softmax操作,表示A中每个字符对Q中每个字符的注意力权重,因此交互后Q=softrowmax(M)A,按列方向对M进行Softmax操作,表示Q中每个字符对A中每个字符的注意力权重,因此交互后A=[softcolmax(M)]TQ,这样学生答案分句Q和标准答案得分点A就进行了信息交互,经过整个编码组件编码后,获得丰富的上下文信息和交互信息,将Q和A输入到池化层后分别得到两个文本序列的向量表示v1和v2,v1和v2进入预测层,两个文本序列的相似度计算公式 其中/>表示两个文本序列之间的相似度预测值,v1×v2强调两个文本序列之间相同的地方,|v1-v2|强调两个文本序列之间不同的地方,F表示将这4个向量拼接成一个向量输入到全连接神经网络后再经过Sigmoid函数处理输出相似度预测值。
2.根据权利要求1所述的基于Transformer的面向思政课程的主观题自动评分方法,其特征在于,所述S1过程中,语义完整性分析模型使用BERT预训练模型结合序列标注实现对学生答案初始文本的切分。
3.根据权利要求1所述的基于Transformer的面向思政课程的主观题自动评分方法,其特征在于,所述S2过程中,通过BERT生成的矩阵嵌入表示包含上下文信息,解决一词多义对句子的影响。
CN202010974030.8A 2020-09-16 2020-09-16 一种基于Transformer的面向思政课程的主观题自动评分方法 Active CN112308370B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010974030.8A CN112308370B (zh) 2020-09-16 2020-09-16 一种基于Transformer的面向思政课程的主观题自动评分方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010974030.8A CN112308370B (zh) 2020-09-16 2020-09-16 一种基于Transformer的面向思政课程的主观题自动评分方法

Publications (2)

Publication Number Publication Date
CN112308370A CN112308370A (zh) 2021-02-02
CN112308370B true CN112308370B (zh) 2024-03-05

Family

ID=74483451

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010974030.8A Active CN112308370B (zh) 2020-09-16 2020-09-16 一种基于Transformer的面向思政课程的主观题自动评分方法

Country Status (1)

Country Link
CN (1) CN112308370B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113282748B (zh) * 2021-04-29 2023-05-12 湘潭大学 基于transformer的针对隐私文本的自动检测方法
CN113312909B (zh) * 2021-05-19 2023-01-06 华南理工大学 基于自然语言处理的智能分析试题答案方法与系统
CN113505603A (zh) * 2021-07-09 2021-10-15 上海艾爵斯信息科技有限公司 适用于司法考试主观题的多任务学习智能阅卷方法及装置
CN113505602A (zh) * 2021-07-09 2021-10-15 上海艾爵斯信息科技有限公司 适用于司法考试主观题的智能阅卷方法、装置及电子设备
CN113641789B (zh) * 2021-08-11 2023-08-04 福州大学 基于分层融合多头注意力网络和卷积网络的观点检索方法及系统
CN116796197A (zh) * 2022-12-22 2023-09-22 华信咨询设计研究院有限公司 一种医疗短文本相似度匹配方法

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109213999A (zh) * 2018-08-20 2019-01-15 成都佳发安泰教育科技股份有限公司 一种主观题评分方法
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN110263352A (zh) * 2019-06-18 2019-09-20 澳门大学 用于训练深层神经机器翻译模型的方法及装置
CN110309503A (zh) * 2019-05-21 2019-10-08 昆明理工大学 一种基于深度学习bert--cnn的主观题评分模型及评分方法
CN110309306A (zh) * 2019-06-19 2019-10-08 淮阴工学院 一种基于wsd层级记忆网络的文档建模分类方法
CN110413741A (zh) * 2019-08-07 2019-11-05 山东山大鸥玛软件股份有限公司 一种面向主观题的智能阅卷方法
CN110427605A (zh) * 2019-05-09 2019-11-08 苏州大学 面向短文本理解的省略恢复方法
CN110516055A (zh) * 2019-08-16 2019-11-29 西北工业大学 一种结合bert的用于教学任务的跨平台智能问答实现方法
CN110838288A (zh) * 2019-11-26 2020-02-25 杭州博拉哲科技有限公司 一种语音交互方法及其系统和对话设备
CN111046132A (zh) * 2019-10-25 2020-04-21 众安信息技术服务有限公司 一种检索多轮对话的客服问答处理方法及其系统
CN111125331A (zh) * 2019-12-20 2020-05-08 京东方科技集团股份有限公司 语义识别方法、装置、电子设备及计算机可读存储介质
CN111259625A (zh) * 2020-01-16 2020-06-09 平安科技(深圳)有限公司 意图识别方法、装置、设备及计算机可读存储介质
CN111310458A (zh) * 2020-03-20 2020-06-19 广东工业大学 一种基于多特征融合的主观题自动评分方法
JP6714268B1 (ja) * 2019-10-11 2020-06-24 株式会社エクサウィザーズ 質問文出力方法、コンピュータプログラム及び情報処理装置
CN111339779A (zh) * 2020-03-20 2020-06-26 桂林电子科技大学 一种用于越南语的命名实体识别方法
CN111625641A (zh) * 2020-07-30 2020-09-04 浙江大学 一种基于多维度语义交互表征模型的对话意图识别方法及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11138392B2 (en) * 2018-07-26 2021-10-05 Google Llc Machine translation using neural network models

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109213999A (zh) * 2018-08-20 2019-01-15 成都佳发安泰教育科技股份有限公司 一种主观题评分方法
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN110427605A (zh) * 2019-05-09 2019-11-08 苏州大学 面向短文本理解的省略恢复方法
CN110309503A (zh) * 2019-05-21 2019-10-08 昆明理工大学 一种基于深度学习bert--cnn的主观题评分模型及评分方法
CN110263352A (zh) * 2019-06-18 2019-09-20 澳门大学 用于训练深层神经机器翻译模型的方法及装置
CN110309306A (zh) * 2019-06-19 2019-10-08 淮阴工学院 一种基于wsd层级记忆网络的文档建模分类方法
CN110413741A (zh) * 2019-08-07 2019-11-05 山东山大鸥玛软件股份有限公司 一种面向主观题的智能阅卷方法
CN110516055A (zh) * 2019-08-16 2019-11-29 西北工业大学 一种结合bert的用于教学任务的跨平台智能问答实现方法
JP6714268B1 (ja) * 2019-10-11 2020-06-24 株式会社エクサウィザーズ 質問文出力方法、コンピュータプログラム及び情報処理装置
CN111046132A (zh) * 2019-10-25 2020-04-21 众安信息技术服务有限公司 一种检索多轮对话的客服问答处理方法及其系统
CN110838288A (zh) * 2019-11-26 2020-02-25 杭州博拉哲科技有限公司 一种语音交互方法及其系统和对话设备
CN111125331A (zh) * 2019-12-20 2020-05-08 京东方科技集团股份有限公司 语义识别方法、装置、电子设备及计算机可读存储介质
CN111259625A (zh) * 2020-01-16 2020-06-09 平安科技(深圳)有限公司 意图识别方法、装置、设备及计算机可读存储介质
CN111310458A (zh) * 2020-03-20 2020-06-19 广东工业大学 一种基于多特征融合的主观题自动评分方法
CN111339779A (zh) * 2020-03-20 2020-06-26 桂林电子科技大学 一种用于越南语的命名实体识别方法
CN111625641A (zh) * 2020-07-30 2020-09-04 浙江大学 一种基于多维度语义交互表征模型的对话意图识别方法及系统

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
《Spacecraft Anomaly Detection and Relation Visualization via Masked Time Series Modeling》;Hengyu Meng et al.;《2019 Prognostics and System Health Management Conference (PHM-Qingdao)》;全文 *
基于BERT的语义匹配算法在问答系统中的应用;吴炎;王儒敬;;仪表技术(第06期);全文 *
基于多语言预训练语言模型的译文质量估计方法;陆金梁;张家俊;;厦门大学学报(自然科学版)(第02期);全文 *
基于对抗训练的文本表示和分类算法;张晓辉;于双元;王全新;徐保民;;计算机科学(第S1期);全文 *
基于自注意力门控图卷积网络的特定目标情感分析;陈佳伟;韩芳;王直杰;;计算机应用(第08期);全文 *
面向短文本理解的省略恢复研究;郑杰;孔芳;周国栋;;中文信息学报(第04期);全文 *

Also Published As

Publication number Publication date
CN112308370A (zh) 2021-02-02

Similar Documents

Publication Publication Date Title
CN112308370B (zh) 一种基于Transformer的面向思政课程的主观题自动评分方法
CN112270193A (zh) 基于bert-flat的中文命名实体识别方法
CN113297364B (zh) 一种面向对话系统中的自然语言理解方法及装置
CN111460132B (zh) 一种基于图卷积神经网络的生成式会议摘要方法
CN109766427A (zh) 一种基于堆叠Bi-LSTM网络和协同注意力的虚拟学习环境智能问答方法
CN111831789A (zh) 一种基于多层语义特征提取结构的问答文本匹配方法
CN110276069A (zh) 一种中国盲文错误自动检测方法、系统及存储介质
CN113536804B (zh) 一种基于关键词强化的GRU和Kronecker的自然语言特征提取方法
CN114881042B (zh) 基于图卷积网络融合句法依存与词性的中文情感分析方法
CN113326367B (zh) 基于端到端文本生成的任务型对话方法和系统
CN115510814A (zh) 一种基于双重规划的篇章级复杂问题生成方法
CN112612881A (zh) 基于Transformer的中文智能对话方法
CN114972907A (zh) 基于强化学习和对比学习的图像语义理解及文本生成
CN114511084A (zh) 增强问答交互信息的自动问答系统答案抽取方法及系统
CN117851565A (zh) 基于多源交互的文本视觉问答方法及系统
CN113239678A (zh) 一种面向答案选择的多角度注意力特征匹配方法及系统
CN113590745B (zh) 一种可解释的文本推断方法
CN114625830B (zh) 一种中文对话语义角色标注方法及系统
CN116860920A (zh) 基于常识图谱的模型生成和智能问答方法与系统
CN116127954A (zh) 一种基于词典的新工科专业中文知识概念抽取方法
CN110162777A (zh) 一种看图写作型作文自动评分方法和系统
CN114547278A (zh) 一种英语学习辅助方法及系统
CN113761154A (zh) 智能问答方法、装置、设备及计算机可读存储介质
Guo RETRACTED: An automatic scoring method for Chinese-English spoken translation based on attention LSTM [EAI Endorsed Scal Inf Syst (2022), Online First]
CN118278392B (zh) 一种基于深度学习的中文拼写纠错方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant