CN110276068A - 法律案情分析方法及装置 - Google Patents
法律案情分析方法及装置 Download PDFInfo
- Publication number
- CN110276068A CN110276068A CN201910379141.1A CN201910379141A CN110276068A CN 110276068 A CN110276068 A CN 110276068A CN 201910379141 A CN201910379141 A CN 201910379141A CN 110276068 A CN110276068 A CN 110276068A
- Authority
- CN
- China
- Prior art keywords
- task
- case
- vector
- prediction
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 130
- 239000013598 vector Substances 0.000 claims abstract description 298
- 238000013528 artificial neural network Methods 0.000 claims abstract description 84
- 239000011159 matrix material Substances 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 29
- 238000012163 sequencing technique Methods 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 7
- 210000004218 nerve net Anatomy 0.000 claims description 6
- 230000001052 transient effect Effects 0.000 claims description 5
- 239000000463 material Substances 0.000 claims description 4
- 230000008901 benefit Effects 0.000 claims description 3
- 235000013399 edible fruits Nutrition 0.000 claims description 3
- 210000005036 nerve Anatomy 0.000 claims 1
- 238000000034 method Methods 0.000 abstract description 21
- 238000005516 engineering process Methods 0.000 description 7
- 230000000306 recurrent effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 208000027418 Wounds and injury Diseases 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000006378 damage Effects 0.000 description 3
- 208000014674 injury Diseases 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000000740 bleeding effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001351 cycling effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Tourism & Hospitality (AREA)
- Computing Systems (AREA)
- Technology Law (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供一种法律案情分析方法及装置。其中,方法包括:对待分析的案件描述文本进行分词和命名实体识别,获取句子序列;根据句子序列包含的各词语获取多个词向量,利用第一循环神经网络对每一词向量进行编码,并获取各分析任务对应的任务文本向量;将各要素判断任务对应的任务文本向量进行最大池化,获得要素判断任务的整体任务文本向量,利用第二循环神经网络对要素判断任务的整体任务文本向量和案由预测任务对应的任务文本向量进行编码,获取案由预测任务对应的第一隐向量,并将案由预测任务对应的第一隐向量输入至案由预测模型,获取案由预测结果。本发明实施例提供的法律案情分析方法及装置,能提高分析准确度。
Description
技术领域
本发明涉及计算机技术领域,更具体地,涉及一种法律案情分析方法及装置。
背景技术
随着人工智能技术的高速发展,利用人工智能来帮助司法领域的发展成为了时代必然趋势。近几年来,人工智能与法律的交叉学科研究有很多。上个世纪,许多学者利用数学统计算法、关键词匹配算法对法律案件进行案情分析。随着机器学习技术的发展,更多学者开始通过手动抽取文本特征的方法,来进一步自动分析案情。随着深度学习技术高速发展,许多学者专注于利用神经网络抽取文本中蕴含的信息,来进一步提高案件分析的质量。但是,这些方法普遍无法解决实际场景中案件数量分布极度不均衡,相似罪名极度易混淆的问题。在实际场景中,有许多罪名、法条出现频次很低,而传统的深度学习模型无法准确地给出这些案件的分析结果。换句话说,传统的深度学习方法只能够分析最常出现的部分罪名/案由的案件事实,且现有技术无法很好的区分相似罪名案件的区别,不具有好的实用性。
综上所述,现有的技术只能够分析高频的部分罪名的案件事实,且无法区分相似罪名的案件,因此现有技术对案件的分析准确度低且覆盖率低。
发明内容
本发明实施例提供一种法律案情分析方法及装置,用以解决或者至少部分地解决现有法律案情分析方法准确度低的缺陷。
第一方面,本发明实施例提供一种法律案情分析方法,包括:
对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体;
根据所述句子序列包含的各词语、所述事件序列和所述命名实体,获取多个词向量,利用第一循环神经网络对每一所述词向量进行编码,并根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量;其中,所述分析任务包括要素判断任务和案由预测任务;要素为与判断案由相关的多个法学要素;所述要素判断任务的个数与要素的个数相同,各所述要素判断任务分别对应一个所述法学要素;所述任务隐向量的个数与所述分析任务的个数相同,各所述任务隐向量分别对应一个所述分析任务;
将各所述要素判断任务对应的任务文本向量进行最大池化,获得所述要素判断任务的整体任务文本向量,利用第二循环神经网络对所述要素判断任务的整体任务文本向量和所述案由预测任务对应的任务文本向量进行编码,获取所述案由预测任务对应的第一隐向量,并将所述案由预测任务对应的第一隐向量输入至案由预测模型,获取待分析的案件描述文本的案由预测结果;
其中,所述第一循环神经网络、所述任务隐向量、所述相关矩阵、所述第二循环神经网络和所述案由预测模型,均是基于样本法律文书进行训练后获得的。
优选地,所述分析任务还包括:相关法条预测任务和时长预测任务;
相应地,获得所述要素判断任务的整体任务文本向量之后包括:
利用第二循环神经网络对所述要素判断任务的整体任务文本向量、所述案由预测任务对应的任务文本向量、所述相关法条预测任务对应的任务文本向量和所述时长预测任务对应的任务文本向量进行编码,获取所述案由预测任务、所述相关法条预测任务和所述时长预测任务分别对应的第一隐向量;
将所述案由预测任务对应的第一隐向量、所述相关法条预测任务对应的第一隐向量和所述时长预测任务对应的第一隐向量,分别输入至所述案由预测模型、相关法条预测模型和时长预测模型,获取待分析的案件描述文本的案由预测结果、相关法条预测结果和时长预测结果;
其中,所述相关法条预测模型和所述时长预测模型,均是基于所述样本法律文书进行训练后获得的。
优选地,所述根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量之后,还包括:
将每一所述要素判断任务对应的任务文本向量,分别输入至所述要素判断任务对应的要素判断模型,获取所述要素判断任务的结果;
其中,各所述要素判断任务对应的要素判断模型,均是基于所述样本法律文书进行训练后获得的。
优选地,对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体的具体步骤包括:
对所述待分析的案件描述文本进行分词和词性标注,删除停用词,获得多个句子;每一句子包含若干个词语及每一词语对应的词性;
根据预先构造的触发词表对所述多个句子进行筛选,保留描述与案件有关的重要事实的句子,组成所述句子序列;
根据预设的规则、句法依存关系、所述句子序列中各句子包含的词语及词语对应的词性,获取所述待分析的案件描述文本描述的若干个事件和各命名实体,将所述若干个事件按照事件发生时间的先后顺序,组成所述事件序列。
优选地,根据所述句子序列包含的各词语、所述事件序列和所述命名实体,获取多个词向量的具体步骤包括:
将所述句子序列包含的各词语,按照所述事件序列中各事件发生时间的先后顺序进行拼接,获得词语序列;
根据预训练获得的词向量表对所述词语序列进行映射,获得所述句子序列包含的每一词语的原始词向量;
对于所述句子序列包含的每一词语,根据所述词语所在句子所描述的事件及所述词语是否为所述命名实体,对所述词语的原始词向量进行扩展,获取所述词语对应的词向量,获取所述多个词向量。
优选地,所述根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量的具体步骤包括:
对于每一所述分析任务,根据所述编码结果、所述分析任务对应的任务隐向量和所述相关矩阵,获取所述编码结果对应的权重,并根据所述编码结果对应的权重对所述编码结果进行加权求和,获取所述分析任务对应的任务文本向量。
优选地,所述第一循环神经网络为长短时记忆神经网络;所述第二循环神经网络为长短时记忆神经网络。
第二方面,本发明实施例提供一种法律案情分析装置,包括:
数据处理模块,用于对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体;
事实编码模块,用于根据所述句子序列包含的各词语、所述事件序列和所述命名实体,获取多个词向量,利用第一循环神经网络对每一所述词向量进行编码,并根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量;其中,所述分析任务包括要素判断任务和案由预测任务;要素为与判断案由相关的多个法学要素;所述要素判断任务的个数与要素的个数相同,各所述要素判断任务分别对应一个所述法学要素;所述任务隐向量的个数与所述分析任务的个数相同,各所述任务隐向量分别对应一个所述分析任务;
任务序列预测模块,用于将各所述要素判断任务对应的任务文本向量进行最大池化,获得所述要素判断任务的整体任务文本向量,利用第二循环神经网络对所述要素判断任务的整体任务文本向量和所述案由预测任务对应的任务文本向量进行编码,获取所述案由预测任务对应的第一隐向量,并将所述案由预测任务对应的第一隐向量输入至案由预测模型,获取待分析的案件描述文本的案由预测结果;
其中,所述第一循环神经网络、所述任务隐向量、所述相关矩阵、所述第二循环神经网络和所述案由预测模型,均是基于样本法律文书进行训练后获得的。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,执行所述程序时实现如第一方面的各种可能的实现方式中任一种可能的实现方式所提供的法律案情分析方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面的各种可能的实现方式中任一种可能的实现方式所提供的法律案情分析方法的步骤。
本发明实施例提供的法律案情分析方法及装置,基于法律要素与案由之间的依赖关系对法律案情进行分析,能根据要素区分相似罪名的案件,并能适用于分析全部案由的案件事实,而不限于常见的部分案由的案件事实,从而能大大提高案件分析的准确度,并具有更高的案件覆盖率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为根据本发明实施例提供的法律案情分析方法的流程示意图;
图2为根据本发明实施例提供的法律案情分析装置的结构示意图;
图3为根据本发明实施例提供的电子设备的实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了克服现有技术的上述问题,本发明实施例提供一种法律案情分析方法及装置,其发明构思是,通过训练获得的模型对与判断案由相关的多个法学要素进行分析,根据法学要素的分析结果和机器学习模型,获得更准确的案由预测结果。
图1为根据本发明实施例提供的法律案情分析方法的流程示意图。如图1所示,方法包括:步骤S101、对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体。
具体地,待分析的案件描述文本,描述了一段案件事实。
句子序列中的每个句子,是一个词语序列。该词语序列,由待分析的案件描述文本中的一个句子(指由逗号、分号或句号分隔开的句子)进行分词获得。
对于中文文本,可以采用现有的任一中文分词包进行分词,例如现有开源的中文分词包thulac。
对于句子序列中的每个句子,若该句子包含特定的词语,则可以获取该句子包含的事件,从而可以获取句子序列包含的全部事件。
例如,若句子序列中的某个句子中包含“殴打”一词,则该句子包含攻击事件。
命名实体至少包括人名、地名和单位名称等。人名、地名和单位名称等具有明显的文本特征,因而可以抽取出句子序列包含的词语中的各命名实体。
步骤S102、根据句子序列包含的各词语、事件序列和命名实体,获取多个词向量,利用第一循环神经网络对每一词向量进行编码,并根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量。
其中,分析任务包括要素判断任务和案由预测任务;要素为与判断案由相关的多个法学要素;要素判断任务的个数与要素的个数相同,各要素判断任务分别对应一个法学要素;任务隐向量的个数与分析任务的个数相同,各任务隐向量分别对应一个分析任务。
具体地,深度学习模型以词向量序列的形式读取序列化的单词,获取句子序列、事件序列和命名实体之后,对于句子序列包含的各词语,利用任一用来产生词向量的相关模型,并结合事件序列和命名实体,可以获得一个词向量序列。该词向量序列包括多个词向量,每一词向量对应句子序列包含的一个词语。
用来产生词向量的相关模型,可以为Word2vec、GloVe和FastText等中的任意一种,本发明实施例对此不作具体限制。
获得词向量序列后,可以利用第一循环神经网络对该词向量序列中的每一词向量进行编码,捕捉句子前后关联的语义信息,编码结果为第二隐向量序列或第二隐向量矩阵。第二隐向量序列的长度与词向量序列的长度相同,即第二隐向量序列中第二隐向量的个数为句子序列包含的词语的个数。
任一词向量输入第一循环神经网络,第一循环神经网络输出一个新的向量,称为第二隐向量。
为了得到与分析任务相关的文本向量,采用注意力机制将第二隐向量序列映射到不同的任务文本空间,得到不同的分析任务对应的任务文本向量。
分析任务至少包括要素判断任务和案由预测任务。要素为与判断案由相关的多个法学要素,因而要素判断任务的个数为多个,分别用于对不同的法学要素的取值进行判断和预测。要素是预先确定的,有多少个要素,相应地有多少个要素预测任务。
例如,对于刑事案件,要素可以包括盈利、买卖、死亡、暴力、国家机关或国家工作人员、公共场合、非法占用、伤害、主观故意和生产作业期间等10个要素。
上述10个要素的含义分别为:盈利,指被告(或犯罪嫌疑人)是否以盈利为目的;买卖,指被告(或犯罪嫌疑人)行为中是否涉及买卖行为;死亡,指被害人是否死亡;暴力,指被告(或犯罪嫌疑人)是否采用了暴力手段犯罪;国家机关或国家工作人员,指案件中是否涉及国家机关与国家工作人员;公共场合,指案件是否发生在公共场合;非法占用,指被告(或犯罪嫌疑人)是否以非法占用为目的;伤害,指被害人是否受伤;主观故意,指被告(或犯罪嫌疑人)主观上是否故意犯罪;生产作业期间,指案件是否发生在生产作业期间。
对于不同类型的行政案件(如治安案件、交通违法案件和工商行政案件等),可以采用相应的要素,以判断案由。
可以理解的是,每一要素判断任务均有一个对应的任务文本向量。
为了实现注意力机制,为每一个分析任务定义了一个任务隐向量,因而任务隐向量的个数与分析任务的个数相同,各任务隐向量分别对应一个分析任务。任务向量作为查询向量(query)。
相关矩阵,用于表示编码结果与各任务隐向量的相关程度。
案由预测任务,用于预测案由。
步骤S103、将各要素判断任务对应的任务文本向量进行最大池化,获得要素判断任务的整体任务文本向量,利用第二循环神经网络对要素判断任务的整体任务文本向量和案由预测任务对应的任务文本向量进行编码,获取案由预测任务对应的第一隐向量,并将案由预测任务对应的第一隐向量输入至案由预测模型,获取待分析的案件描述文本的案由预测结果。
由于要素判断任务对应的任务文本向量的个数为多个,为了便于进行案由预测,将各要素判断任务对应的任务文本向量定义为对各要素判断任务对应的任务文本向量进行最大池化后的结果。
tattr=max_pooling([t1,t2,...,tk])
tattr,i=max(t1,i,t2,i,...,tk,i)
其中,tattr表示要素判断任务的整体任务文本向量;t1,t2,...,tk分别表示各要素判断任务对应的任务文本向量;k为正整数,表示要素判断任务的个数;tattr,i表示tattr的第i个元素值;1≤i≤d1,d1表示任务文本向量的维数;t1,i,t2,i,...,tk,i分别表示各要素判断任务对应的任务文本向量的第i个元素值。
利用第二循环神经网络捕捉各分析任务之间的依赖关系,当分析任务包括要素判断任务和案由预测任务时,要素判断任务的整体任务文本向量为tattr,案由预测任务对应的任务文本向量为taccu,将tattr和taccu按要素判断任务和案由预测任务的顺序组成任务序列,通过第二循环神经网络得到要素判断任务对应的第一隐向量和案由预测任务对应的第一隐向量计算公式为
其中,RNN表示第二循环神经网络执行的运算。
获得案由预测任务对应的第一隐向量之后,将输入至案由预测模型,实现将第一隐向量映射到案由预测任务对应的标签空间上,获得案由预测结果。
例如,对于刑事案件,案由预测任务对应的标签可以包括盗窃罪、抢劫罪、故意伤害罪和贪污罪等;对于交通违法案件,案由预测任务对应的标签可以包括超速、不按交通信号灯规定通行、违反交通禁令标志和故意遮挡污损机动车号牌等。
案由预测模型,可以为任一种训练好的分类器,例如支持向量机、人工神经网络和决策树等。
例如,采用训练好的全连接神经网络作为案由预测模型,对于案由预测模型的输出其中,Yaccu={盗窃罪,抢劫罪,...},则案由预测模型输出的案由预测结果yaccu为
其中,softmax表示案由预测模型执行的运算;Waccu和baccu均表示案由预测模型的参数。
可以理解的是,案由预测结果。yaccu为向量,yaccu每一维度的取值代表对应标签的概率。也就是说,yaccu的各元素值分别表示对应的案由标签的概率。
其中,第一循环神经网络、任务隐向量、相关矩阵、第二循环神经网络和案由预测模型,均是基于样本法律文书进行训练后获得的。
可以理解的是,可以基于样本法律文书进行训练,调整参数,获得第一循环神经网络、各任务隐向量、相关矩阵、第二循环神经网络和案由预测模型。
样本法律文书,指确定最终法律结果的法律文书。例如,对于刑事案件,可以为法院的判决文书;对于行政案件,可以为行政管理机关下达的行政处罚决定书。
本发明实施例基于法律要素与案由之间的依赖关系对法律案情进行分析,能根据要素区分相似罪名的案件,并能适用于分析全部案由的案件事实,而不限于常见的部分案由的案件事实,从而能大大提高案件分析的准确度,并具有更高的案件覆盖率。
基于上述各实施例的内容,分析任务还包括:相关法条预测任务和时长预测任务。
具体地,为了进一步提高案情分析的全面性,还可以对相关法条和时长进行分析,因而分析任务还包括相关法条预测任务和时长预测任务。
相关法条预测任务,用于预测相关法条。
时长预测任务,用于预测处罚的时长。例如,对于刑事案件,处罚的时长为刑期;对于不同的行政案件,处罚的时长可以分别为行政拘留的时长、停业整顿的时长和暂扣驾驶证的时长等。
相应地,获得要素判断任务的整体任务文本向量之后包括:利用第二循环神经网络对要素判断任务的整体任务文本向量、案由预测任务对应的任务文本向量、相关法条预测任务对应的任务文本向量和时长预测任务对应的任务文本向量进行编码,获取案由预测任务、相关法条预测任务和时长预测任务分别对应的第一隐向量。
具体地,分析任务包括要素判断任务、案由预测任务、相关法条预测任务和时长预测任务时,将要素判断任务的整体任务文本向量tattr、案由预测任务对应的任务文本向量taccu、相关法条预测任务对应的任务文本向量tlaw和时长预测任务对应的任务文本向量ttime,按照要素判断任务、案由预测任务、相关法条预测任务和时长预测任务的顺序,组成任务序列,利用第二循环神经网络捕捉各分析任务之间的依赖关系,对该任务序列进行编码,获得要素判断任务对应的第一隐向量案由预测任务对应的第一隐向量相关法条预测任务对应的第一隐向量和时长预测任务对应的第一隐向量
例如,采用长短时记忆神经网络作为第二循环神经网络时,各分析任务对应的第一隐向量的计算公式为
其中,LSTM表示长短时记忆神经网络执行的运算。
案由预测任务,依赖于各要素判断任务;相关法条预测任务,依赖于各要素判断任务和案由预测任务;时长预测任务,依赖于各要素判断任务、案由预测任务和相关法条预测任务。
将案由预测任务对应的第一隐向量、相关法条预测任务对应的第一隐向量和时长预测任务对应的第一隐向量,分别输入至案由预测模型、相关法条预测模型和时长预测模型,获取待分析的案件描述文本的案由预测结果、相关法条预测结果和时长预测结果。
其中,相关法条预测模型和时长预测模型,均是基于样本法律文书进行训练后获得的。
具体地,获得案由预测任务对应的第一隐向量相关法条预测任务对应的第一隐向量和时长预测任务对应的第一隐向量之后,将和分别输入至案由预测模型、相关法条预测模型和时长预测模型,实现将第一隐向量和分别映射到案由预测任务、相关法条预测任务和时长预测任务对应的标签空间上,获得案由预测结果、相关法条预测结果、时长预测结果。
获得案由预测结果、相关法条预测结果、时长预测结果的具体步骤,与上述实施例中获得案由预测结果的具体步骤类似,此处不再赘述。
可以理解的是,可以基于样本法律文书进行训练,调整参数,获得相关法条预测模型和时长预测模型。
分析任务包括要素判断任务、案由预测任务、相关法条预测任务和时长预测任务
本发明实施例基于法律要素、案由与相关法条之间的依赖关系对相关法条进行预测,基于法律要素、案由、相关法条与时长之间的依赖关系对时长进行预测,能获得更准确地相关法条预测结果和时长预测结果,从而能提高案件分析的准确度和全面性。
基于上述各实施例的内容,根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量之后,还包括:将每一要素判断任务对应的任务文本向量,分别输入至要素判断任务对应的要素判断模型,获取要素判断任务的结果。
其中,各要素判断任务对应的要素判断模型,均是基于样本法律文书进行训练后获得的。
具体地,获得各分析任务对应的任务文本向量t1,t2,...,tk之后,将t1,t2,...,tk分别输入至各自对应的要素判断模型,获得各要素的预测值,作为要素判断任务的结果。
任一要素的预测值的预测公式为
yi=softmax(Witi+bi)
其中,ti表示第i个要素判断任务对应的任务文本;yi表示第i个要素的预测值;1≤i≤k;k为正整数,表示要素的个数;Wi和bi均表示第i个要素判断模型的参数;Yattr={是,否}。
可以理解的是,yi为向量,yi每一维度的取值代表对应标签的概率。例如,yi=[0.1,0.9],表示第i个要素取值为否的概率为90%,取值为是的概率为10%。
可以理解的是,可以基于样本法律文书进行训练,调整参数,获得各要素判断模型。
本发明实施例通过要素判断模型和各要素判断任务对应的任务文本向量,获得各要素的预测值,便于更全面地了解案件的要点,能提高案情分析的全面性和智能化水平。
基于上述各实施例的内容,对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体的具体步骤包括:对待分析的案件描述文本进行分词和词性标注,删除停用词,获得多个句子;每一句子包含若干个词语及每一词语对应的词性。
具体地,对待分析的案件描述文本中的每个句子进行分词,对分词获得的每个词语进行词性标注,并删除停用词,将待分析的案件描述文本转化为句子的原始序列s={s1,s2,...,sm}。该原始序列包括多个句子s1,s2,...,sm,m表示原始序列中句子的数量。
停用词是指在处理自然语言数据(或文本)中,为节省存储空间和提高处理效率,在处理自然语言数据(或文本)之前或之后会自动过滤掉某些字或词,这些字或词即被称为Stop Words(停用词)。
对于法律案情分析,停用词主要包括人类语言中包含的功能词,这些功能词极其普遍,与其他词相比,功能词没有什么实际含义。
原始序列中每个句子sj为一个词语序列sj={wj1,wj2,...,wjn},以及各个词语对应的词性cj={cj1,cj2,...,cjn}。其中,n表示句子sj包含的词语的数量;wji表示第j个句子中的第i个词语;1≤j≤m;1≤i≤n;cji表示第j个句子中的第i个词语对应的词性,即wji对应的词性;cji∈C,C表示词性表。
根据预先构造的触发词表对多个句子进行筛选,保留描述与案件有关的重要事实的句子,组成句子序列。
获得原始序列之后,可以根据预先构造的触发词表对原始序列中的句子进行筛选,检测文本中涉及的对案件发展有意义的事实,保留描述与案件有关的重要事实的句子,删除未描述与案件有关的重要事实的句子,将保留的句子组成句子序列s′={s′1,s′2,...,s′m′}。m′表示句子序列中句子的数量。
包含事件触发词的句子被认为包含触发词对应的事件。例如,“殴打”为一个触发词,若句子序列中的某个句子中包含“殴打”一词,则该句子包含攻击事件。
根据预设的规则、句法依存关系、句子序列中各句子包含的词语及词语对应的词性,获取待分析的案件描述文本描述的若干个事件和各命名实体,将若干个事件按照事件发生时间的先后顺序,组成事件序列。
具体地,根据句法依存关系、词性等特征,利用预设的规则,从句子序列中各句子包含的词语中抽取出各命名实体,通过抽取的人名、地名等实体可以抽取出相关事件的发生地点、事件人物、发生时间等属性,从而获取描述的若干个事件及每一事件发生的地点,涉及人物以及发生时间。
例如,预设的规则为动词“殴打”的宾语为攻击事件的受害者,从而可以根据动词“殴打”前后的词语确定涉及攻击事件的人物,主语为施害者、宾语为受害者。
获得上述若干个事件后,可以梳理出事实时间线,将上述若干个事件按照事件发生时间的先后顺序,而不是在句子序列中出现的先后顺序,组成事件序列。对于事件序列中的每一事件,除了标注是什么事件之外,如果获取到事件发生的地点,涉及人物以及发生时间。
例如,待分析的案件描述文本为“李某入室盗窃财物,盗窃过程中被主人发现,随即与主人发生打斗使主人流血受伤,李某立马逃走了”;进行中文分词和词性(如v表示动词,p表示介词,n表示名词,np表示人名,d表示副词,w表示标点等)标注的结果为(李某,np)(入室,v)(盗窃,v)(财物,n)(,,w)(盗窃,v)(过程,n)(中,f)(被,p)(主人,n)(发现,v)(,,w)(随即,d)(与,c)(主人,n)(发生,v)(打斗,v)(使,v)(主人,n)(流血,v)(受伤,v)(,,w)(李某,np)(立马,d)(逃走,v)(了,u)(。,w));删除被、中等中文停用词的结果为(李某,np)(入室,v)(盗窃,v)(财物,n)(盗窃,v)(过程,n)(主人,n)(发现,v)(随即,d)(与,c)(主人,n)(发生,v)(打斗,v)(主人,n)(流血,v)(受伤,v)(李某,np)(立马,d)(逃走,v);进行命名实体识别的结果为获得句子“李某入室盗窃财物盗窃过程主人发现与主人发生打斗主人流血受伤李某立马逃走”,实体包括(李某,np)和(主人,n);进行检测,获得事件序列为事件1:盗窃事件,人物:李某,事件2:攻击事件,人物:李某、主人。
本发明实施例通过触发词对句子进行筛选,能够筛除无用事实,降低输入噪音,从而能减少数据处理量并提高分析准确度。
基于上述各实施例的内容,根据句子序列包含的各词语、事件序列和命名实体,获取多个词向量的具体步骤包括:将句子序列包含的各词语,按照事件序列中各事件发生时间的先后顺序进行拼接,获得词语序列。
具体地,将句子序列s′包含的词语按照事件发生时间的先后顺序进行拼接,得到一个输入词语序列w={w1,w2,...,wl}。其中,l表示词语的数量。
根据预训练获得的词向量表对词语序列进行映射,获得句子序列包含的每一词语的原始词向量。
对词向量进行预训练,得到一个词向量表。预训练可以采用Word2vec、GloVe和FastText等中的任意一种方法,本发明实施例对此不作具体限制。
将输入的词语序列通过上述词向量表映射得到每一词语的原始词向量。
对于句子序列包含的每一词语,根据词语所在句子所描述的事件及词语是否为命名实体,对词语的原始词向量进行扩展,获取词语对应的词向量,获取多个词向量。
对于句子序列包含的每一词语,根据词语所在句子所描述的事件,以及该词语是否为命名实体(包括是哪一种命名实体),对该词语的原始词向量进行扩展,即在该词语的原始词向量后增加若干个元素,增加的若干个元素用于表示词语所在句子所描述的事件以及该词语是哪一种命名实体,从而将该词语的原始词向量扩展为该词语对应的词向量。
对句子序列包含的每一词语都进行扩展之后,得到多个词向量,构成词向量序列其中,l表示词语数量,d表示词向量的维度。
v={v1,v2,...,vl}
其中,v1,v2,...,vl分别为词语w1,w2,...,wl对应的词向量。
本发明实施例根据词语所在句子所描述的事件及词语是否为命名实体,对词语的原始词向量进行扩展,获取词语对应的词向量,使得词向量能更好地描述该词语的语境,从而能根据词向量获得更准确的要素判断结果和案由分析结果。
基于上述各实施例的内容,根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量的具体步骤包括:对于每一分析任务,根据编码结果、分析任务对应的任务隐向量和相关矩阵,获取编码结果对应的权重,并根据编码结果对应的权重对编码结果进行加权求和,获取分析任务对应的任务文本向量。
可以理解的是,编码结果为第二隐向量序列其中,d1表示第二隐向量的维数。
h={h1,h2,...,hl}
第二隐向量序列h包括1个第二隐向量,即第二隐向量序列的长度与词语序列w的长度相同。
各任务隐向量可以组成任务向量序列u={u1,u2,...,up};其中,ui表示第i个分析任务对应的任务隐向量;1≤i≤p;p表示分析任务的数量。
例如,要素预测任务的数量为10,其他分析任务还包括案由预测任务、相关法条预测任务和时长预测任务,则p=13。
对于第i个分析任务,根据该分析任务对应的任务隐向量ui、第二隐向量序列h和相关矩阵Wa,可以获得该分析任务对应的任务文本向量ti。
具体步骤如下:
获取该分析任务的权重向量权重向量α由第二隐向量序列h中各第二隐向量的权重组成;
权重的计算公式为
其中,αj表示第二隐向量序列h中第j个第二隐向量的权重;1≤j≤l;
获得该分析任务的权重向量α之后,通过如下公式计算获得ti,
通过上述步骤,可以获得每一个分析任务对应的任务文本向量。
本发明实施例基于编码结果与任务隐向量之间的相关程度,获得编码结果对于每一任务隐向量的权重,根据编码结果对应的权重对编码结果进行加权求和,获取分析任务对应的任务文本向量,能更准确地表征各分析任务的特征,从而获得更准确的案情分析结果。
基于上述各实施例的内容,第一循环神经网络为长短时记忆神经网络;第二循环神经网络为长短时记忆神经网络。
具体地,第一循环神经网络和第二循环神经网络均可以采用门控循环神经网络。
门控循环神经网络在简单循环神经网络的基础上对网络的结构做了调整,加入了门控机制,用来控制神经网络中信息的传递。门控机制可以用来控制记忆单元中的信息有多少需要保留,有多少需要丢弃,新的状态信息又有多少需要保存到记忆单元中等。这使得门控循环神经网络可以学习跨度相对较长的依赖关系,而不会出现梯度消失和梯度爆炸的问题。
常见的门控循环神经网络包括长短时记忆神经网络和门控制循环单元。
优选地,第一循环神经网络和第二循环神经网络均可以采用长短时记忆神经网络。
长短时记忆神经网络(Long Short-term Memory,简称LSTM)是一种时间递归神经网络,适合于处理和预测时间序列中间隔和延迟相对较长的重要事件。长短时记忆神经网络是一种特殊的门控循环神经网络,也是一种特殊的循环神经网络。
在一般的循环神经网络中,记忆单元没有衡量信息的价值量的能力,因此,记忆单元对于每个时刻的状态信息等同视之,这就导致了记忆单元中往往存储了一些无用的信息,而真正有用的信息却被这些无用的信息挤了出去。LSTM正是从这一点出发做了相应改进,和一般结构的循环神经网络只有一种网络状态不同,LSTM中将网络的状态分为内部状态和外部状态两种。LSTM的外部状态类似于一般结构的循环神经网络中的状态,即该状态既是当前时刻隐藏层的输出,也是下一时刻隐藏层的输入。这里的内部状态则是LSTM特有的。
在LSTM中有三个称之为“门”的控制单元,分别是输入门(input gate)、输出门(output gate)和遗忘门(forget gate),其中输入门和遗忘门是LSTM能够记忆长期依赖的关键。输入门决定了当前时刻网络的状态有多少信息需要保存到内部状态中,而遗忘门则决定了过去的状态信息有多少需要丢弃。最后,由输出门决定当前时刻的内部状态有多少信息需要输出给外部状态。
通过选择性的记忆和遗忘状态信息,使的LSTM要比一般的循环神经网络能够学习更长时间间隔的依赖关系。
本发明实施例通过采用长短时记忆神经网络作为第一循环神经网络,能更好地捕捉句子前后关联的语义信息,通过采用长短时记忆神经网络作为第二循环神经网络,能更好地捕捉分析任务之间的依赖关系,从而能获得更准确的分析结果,提高分析的准确度。
图2为根据本发明实施例提供的法律案情分析装置的结构示意图。基于上述各实施例的内容,如图2所示,该装置包括数据处理模块201、事实编码模块202和任务序列预测模块203,其中:
数据处理模块201,用于对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体;
事实编码模块202,用于根据句子序列包含的各词语、事件序列和命名实体,获取多个词向量,利用第一循环神经网络对每一词向量进行编码,并根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量;其中,分析任务包括要素判断任务和案由预测任务;要素为与判断案由相关的多个法学要素;要素判断任务的个数与要素的个数相同,各要素判断任务分别对应一个法学要素;任务隐向量的个数与分析任务的个数相同,各任务隐向量分别对应一个分析任务;
任务序列预测模块203,用于将各要素判断任务对应的任务文本向量进行最大池化,获得要素判断任务的整体任务文本向量,利用第二循环神经网络对要素判断任务的整体任务文本向量和案由预测任务对应的任务文本向量进行编码,获取案由预测任务对应的第一隐向量,并将案由预测任务对应的第一隐向量输入至案由预测模型,获取待分析的案件描述文本的案由预测结果;
其中,第一循环神经网络、任务隐向量、相关矩阵、第二循环神经网络和案由预测模型,均是基于样本法律文书进行训练后获得的。
具体地,数据处理模块201对待分析的案件描述文本进行分词,并对分词获得的词语进行命名实体识别,获取句子序列、事件序列和命名实体。
事实编码模块202获取句子序列、事件序列和命名实体之后,对于句子序列包含的各词语,利用任一用来产生词向量的相关模型,并结合事件序列和命名实体,可以获得一个包括多个词向量的词向量序列;可以利用第一循环神经网络对该词向量序列中的每一词向量进行编码,捕捉句子前后关联的语义信息,编码结果为第二隐向量序列或第二隐向量矩阵;采用注意力机制,根据任务隐向量和相关矩阵,将第二隐向量序列映射到不同的任务文本空间,得到不同的分析任务对应的任务文本向量。
任务序列预测模块203将各要素判断任务对应的任务文本向量进行最大池化,获得要素判断任务的整体任务文本向量;将要素判断任务的整体任务文本向量和案由预测任务对应的任务文本向量,按要素判断任务和案由预测任务的顺序组成任务序列,利用第二循环神经网络捕捉各分析任务之间的依赖关系,对要素判断任务的整体任务文本向量和案由预测任务对应的任务文本向量进行编码,获取案由预测任务对应的第一隐向量;将案由预测任务对应的第一隐向量输入至案由预测模型,实现将案由预测任务对应的第一隐向量映射到案由预测任务对应的标签空间上,获得案由预测结果。
本发明实施例提供的法律案情分析装置,用于执行本发明上述各实施例提供的法律案情分析方法,该法律案情分析装置包括的各模块实现相应功能的具体方法和流程详见上述法律案情分析方法的实施例,此处不再赘述。
该法律案情分析装置用于前述各实施例的法律案情分析方法。因此,在前述各实施例中的法律案情分析方法中的描述和定义,可以用于本发明实施例中各执行模块的理解。
本发明实施例基于法律要素与案由之间的依赖关系对法律案情进行分析,能根据要素区分相似罪名的案件,并能适用于分析全部案由的案件事实,而不限于常见的部分案由的案件事实,从而能大大提高案件分析的准确度,并具有更高的案件覆盖率。
图3为根据本发明实施例提供的电子设备的结构框图。基于上述实施例的内容,如图3所示,该电子设备可以包括:处理器(processor)301、存储器(memory)302和总线303;其中,处理器301和存储器302通过总线303完成相互间的通信;处理器301用于调用存储在存储器302中并可在处理器301上运行的计算机程序指令,以执行上述各方法实施例所提供的法律案情分析方法,例如包括:对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体;根据句子序列包含的各词语、事件序列和命名实体,获取多个词向量,利用第一循环神经网络对每一词向量进行编码,并根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量;其中,分析任务包括要素判断任务和案由预测任务;要素为与判断案由相关的多个法学要素;要素判断任务的个数与要素的个数相同,各要素判断任务分别对应一个法学要素;任务隐向量的个数与分析任务的个数相同,各任务隐向量分别对应一个分析任务;将各要素判断任务对应的任务文本向量进行最大池化,获得要素判断任务的整体任务文本向量,利用第二循环神经网络对要素判断任务的整体任务文本向量和案由预测任务对应的任务文本向量进行编码,获取案由预测任务对应的第一隐向量,并将案由预测任务对应的第一隐向量输入至案由预测模型,获取待分析的案件描述文本的案由预测结果;其中,第一循环神经网络、任务隐向量、相关矩阵、第二循环神经网络和案由预测模型,均是基于样本法律文书进行训练后获得的。
本发明另一实施例公开一种计算机程序产品,计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,计算机能够执行上述各方法实施例所提供的法律案情分析方法,例如包括:对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体;根据句子序列包含的各词语、事件序列和命名实体,获取多个词向量,利用第一循环神经网络对每一词向量进行编码,并根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量;其中,分析任务包括要素判断任务和案由预测任务;要素为与判断案由相关的多个法学要素;要素判断任务的个数与要素的个数相同,各要素判断任务分别对应一个法学要素;任务隐向量的个数与分析任务的个数相同,各任务隐向量分别对应一个分析任务;将各要素判断任务对应的任务文本向量进行最大池化,获得要素判断任务的整体任务文本向量,利用第二循环神经网络对要素判断任务的整体任务文本向量和案由预测任务对应的任务文本向量进行编码,获取案由预测任务对应的第一隐向量,并将案由预测任务对应的第一隐向量输入至案由预测模型,获取待分析的案件描述文本的案由预测结果;其中,第一循环神经网络、任务隐向量、相关矩阵、第二循环神经网络和案由预测模型,均是基于样本法律文书进行训练后获得的。
此外,上述的存储器302中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明另一实施例提供一种非暂态计算机可读存储介质,非暂态计算机可读存储介质存储计算机指令,计算机指令使计算机执行上述各方法实施例所提供的法律案情分析方法,例如包括:对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体;根据句子序列包含的各词语、事件序列和命名实体,获取多个词向量,利用第一循环神经网络对每一词向量进行编码,并根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量;其中,分析任务包括要素判断任务和案由预测任务;要素为与判断案由相关的多个法学要素;要素判断任务的个数与要素的个数相同,各要素判断任务分别对应一个法学要素;任务隐向量的个数与分析任务的个数相同,各任务隐向量分别对应一个分析任务;将各要素判断任务对应的任务文本向量进行最大池化,获得要素判断任务的整体任务文本向量,利用第二循环神经网络对要素判断任务的整体任务文本向量和案由预测任务对应的任务文本向量进行编码,获取案由预测任务对应的第一隐向量,并将案由预测任务对应的第一隐向量输入至案由预测模型,获取待分析的案件描述文本的案由预测结果;其中,第一循环神经网络、任务隐向量、相关矩阵、第二循环神经网络和案由预测模型,均是基于样本法律文书进行训练后获得的。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行上述各个实施例或者实施例的某些部分的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种法律案情分析方法,其特征在于,包括:
对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体;
根据所述句子序列包含的各词语、所述事件序列和所述命名实体,获取多个词向量,利用第一循环神经网络对每一所述词向量进行编码,并根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量;其中,所述分析任务包括要素判断任务和案由预测任务;要素为与判断案由相关的多个法学要素;所述要素判断任务的个数与要素的个数相同,各所述要素判断任务分别对应一个所述法学要素;所述任务隐向量的个数与所述分析任务的个数相同,各所述任务隐向量分别对应一个所述分析任务;
将各所述要素判断任务对应的任务文本向量进行最大池化,获得所述要素判断任务的整体任务文本向量,利用第二循环神经网络对所述要素判断任务的整体任务文本向量和所述案由预测任务对应的任务文本向量进行编码,获取所述案由预测任务对应的第一隐向量,并将所述案由预测任务对应的第一隐向量输入至案由预测模型,获取待分析的案件描述文本的案由预测结果;
其中,所述第一循环神经网络、所述任务隐向量、所述相关矩阵、所述第二循环神经网络和所述案由预测模型,均是基于样本法律文书进行训练后获得的。
2.根据权利要求1所述的法律案情分析方法,其特征在于,所述分析任务还包括:相关法条预测任务和时长预测任务;
相应地,获得所述要素判断任务的整体任务文本向量之后包括:
利用第二循环神经网络对所述要素判断任务的整体任务文本向量、所述案由预测任务对应的任务文本向量、所述相关法条预测任务对应的任务文本向量和所述时长预测任务对应的任务文本向量进行编码,获取所述案由预测任务、所述相关法条预测任务和所述时长预测任务分别对应的第一隐向量;
将所述案由预测任务对应的第一隐向量、所述相关法条预测任务对应的第一隐向量和所述时长预测任务对应的第一隐向量,分别输入至所述案由预测模型、相关法条预测模型和时长预测模型,获取待分析的案件描述文本的案由预测结果、相关法条预测结果和时长预测结果;
其中,所述相关法条预测模型和所述时长预测模型,均是基于所述样本法律文书进行训练后获得的。
3.根据权利要求1所述的法律案情分析方法,其特征在于,所述根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量之后,还包括:
将每一所述要素判断任务对应的任务文本向量,分别输入至所述要素判断任务对应的要素判断模型,获取所述要素判断任务的结果;
其中,各所述要素判断任务对应的要素判断模型,均是基于所述样本法律文书进行训练后获得的。
4.根据权利要求1所述的法律案情分析方法,其特征在于,对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体的具体步骤包括:
对所述待分析的案件描述文本进行分词和词性标注,删除停用词,获得多个句子;每一句子包含若干个词语及每一词语对应的词性;
根据预先构造的触发词表对所述多个句子进行筛选,保留描述与案件有关的重要事实的句子,组成所述句子序列;
根据预设的规则、句法依存关系、所述句子序列中各句子包含的词语及词语对应的词性,获取所述待分析的案件描述文本描述的若干个事件和各命名实体,将所述若干个事件按照事件发生时间的先后顺序,组成所述事件序列。
5.根据权利要求1所述的法律案情分析方法,其特征在于,根据所述句子序列包含的各词语、所述事件序列和所述命名实体,获取多个词向量的具体步骤包括:
将所述句子序列包含的各词语,按照所述事件序列中各事件发生时间的先后顺序进行拼接,获得词语序列;
根据预训练获得的词向量表对所述词语序列进行映射,获得所述句子序列包含的每一词语的原始词向量;
对于所述句子序列包含的每一词语,根据所述词语所在句子所描述的事件及所述词语是否为所述命名实体,对所述词语的原始词向量进行扩展,获取所述词语对应的词向量,获取所述多个词向量。
6.根据权利要求1所述的法律案情分析方法,其特征在于,所述根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量的具体步骤包括:
对于每一所述分析任务,根据所述编码结果、所述分析任务对应的任务隐向量和所述相关矩阵,获取所述编码结果对应的权重,并根据所述编码结果对应的权重对所述编码结果进行加权求和,获取所述分析任务对应的任务文本向量。
7.根据权利要求1至6任一所述的法律案情分析方法,其特征在于,所述第一循环神经网络为长短时记忆神经网络;所述第二循环神经网络为长短时记忆神经网络。
8.一种法律案情分析装置,其特征在于,包括:
数据处理模块,用于对待分析的案件描述文本进行分词和命名实体识别,获取句子序列、事件序列和命名实体;
事实编码模块,用于根据所述句子序列包含的各词语、所述事件序列和所述命名实体,获取多个词向量,利用第一循环神经网络对每一所述词向量进行编码,并根据编码结果、任务隐向量和相关矩阵获取各分析任务对应的任务文本向量;其中,所述分析任务包括要素判断任务和案由预测任务;要素为与判断案由相关的多个法学要素;所述要素判断任务的个数与要素的个数相同,各所述要素判断任务分别对应一个所述法学要素;所述任务隐向量的个数与所述分析任务的个数相同,各所述任务隐向量分别对应一个所述分析任务;
任务序列预测模块,用于将各所述要素判断任务对应的任务文本向量进行最大池化,获得所述要素判断任务的整体任务文本向量,利用第二循环神经网络对所述要素判断任务的整体任务文本向量和所述案由预测任务对应的任务文本向量进行编码,获取所述案由预测任务对应的第一隐向量,并将所述案由预测任务对应的第一隐向量输入至案由预测模型,获取待分析的案件描述文本的案由预测结果;
其中,所述第一循环神经网络、所述任务隐向量、所述相关矩阵、所述第二循环神经网络和所述案由预测模型,均是基于样本法律文书进行训练后获得的。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述的法律案情分析方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述的法律案情分析方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910379141.1A CN110276068B (zh) | 2019-05-08 | 2019-05-08 | 法律案情分析方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910379141.1A CN110276068B (zh) | 2019-05-08 | 2019-05-08 | 法律案情分析方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110276068A true CN110276068A (zh) | 2019-09-24 |
CN110276068B CN110276068B (zh) | 2020-08-28 |
Family
ID=67959767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910379141.1A Active CN110276068B (zh) | 2019-05-08 | 2019-05-08 | 法律案情分析方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110276068B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110928987A (zh) * | 2019-10-18 | 2020-03-27 | 平安科技(深圳)有限公司 | 基于神经网络混合模型的法律条文检索方法及相关设备 |
CN111325387A (zh) * | 2020-02-13 | 2020-06-23 | 清华大学 | 可解释法律自动判决预测方法及装置 |
CN111382333A (zh) * | 2020-03-11 | 2020-07-07 | 昆明理工大学 | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 |
CN111460834A (zh) * | 2020-04-09 | 2020-07-28 | 北京北大软件工程股份有限公司 | 基于lstm网络的法条语义标注方法及装置 |
CN111523313A (zh) * | 2020-07-03 | 2020-08-11 | 支付宝(杭州)信息技术有限公司 | 模型训练、命名实体识别方法及装置 |
CN111552808A (zh) * | 2020-04-20 | 2020-08-18 | 北京北大软件工程股份有限公司 | 一种基于卷积神经网络的行政违法案由预测方法及工具 |
CN111797221A (zh) * | 2020-06-16 | 2020-10-20 | 北京北大软件工程股份有限公司 | 类似案件推荐方法及装置 |
CN112100212A (zh) * | 2020-09-04 | 2020-12-18 | 中国航天科工集团第二研究院 | 一种基于机器学习和规则匹配的案件情节抽取方法 |
CN113157880A (zh) * | 2021-03-25 | 2021-07-23 | 科大讯飞股份有限公司 | 一种要素内容获取方法、装置、设备及存储介质 |
US11256856B2 (en) | 2017-10-17 | 2022-02-22 | Handycontract Llc | Method, device, and system, for identifying data elements in data structures |
US11475209B2 (en) | 2017-10-17 | 2022-10-18 | Handycontract Llc | Device, system, and method for extracting named entities from sectioned documents |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107239445A (zh) * | 2017-05-27 | 2017-10-10 | 中国矿业大学 | 一种基于神经网络的新闻事件抽取的方法及系统 |
CN107818138A (zh) * | 2017-09-28 | 2018-03-20 | 银江股份有限公司 | 一种案件法律条例推荐方法及系统 |
CN108009284A (zh) * | 2017-12-22 | 2018-05-08 | 重庆邮电大学 | 采用半监督卷积神经网络的法律文本分类方法 |
CN108304911A (zh) * | 2018-01-09 | 2018-07-20 | 中国科学院自动化研究所 | 基于记忆神经网络的知识抽取方法以及系统和设备 |
WO2018147653A1 (ko) * | 2017-02-08 | 2018-08-16 | 사회복지법인 삼성생명공익재단 | 생존율 예측 모델 생성 방법, 장치 및 컴퓨터 프로그램 |
CN109308355A (zh) * | 2018-09-17 | 2019-02-05 | 清华大学 | 法律判决结果预测方法及装置 |
-
2019
- 2019-05-08 CN CN201910379141.1A patent/CN110276068B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018147653A1 (ko) * | 2017-02-08 | 2018-08-16 | 사회복지법인 삼성생명공익재단 | 생존율 예측 모델 생성 방법, 장치 및 컴퓨터 프로그램 |
CN107239445A (zh) * | 2017-05-27 | 2017-10-10 | 中国矿业大学 | 一种基于神经网络的新闻事件抽取的方法及系统 |
CN107818138A (zh) * | 2017-09-28 | 2018-03-20 | 银江股份有限公司 | 一种案件法律条例推荐方法及系统 |
CN108009284A (zh) * | 2017-12-22 | 2018-05-08 | 重庆邮电大学 | 采用半监督卷积神经网络的法律文本分类方法 |
CN108304911A (zh) * | 2018-01-09 | 2018-07-20 | 中国科学院自动化研究所 | 基于记忆神经网络的知识抽取方法以及系统和设备 |
CN109308355A (zh) * | 2018-09-17 | 2019-02-05 | 清华大学 | 法律判决结果预测方法及装置 |
Non-Patent Citations (1)
Title |
---|
刘宗林 等: "《融入罪名关键词的法律判决预测多任务学习模型》", 《清华大学学报(自然科学版)》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11475209B2 (en) | 2017-10-17 | 2022-10-18 | Handycontract Llc | Device, system, and method for extracting named entities from sectioned documents |
US11256856B2 (en) | 2017-10-17 | 2022-02-22 | Handycontract Llc | Method, device, and system, for identifying data elements in data structures |
WO2021072892A1 (zh) * | 2019-10-18 | 2021-04-22 | 平安科技(深圳)有限公司 | 基于神经网络混合模型的法律条文检索方法及相关设备 |
CN110928987A (zh) * | 2019-10-18 | 2020-03-27 | 平安科技(深圳)有限公司 | 基于神经网络混合模型的法律条文检索方法及相关设备 |
CN110928987B (zh) * | 2019-10-18 | 2023-07-25 | 平安科技(深圳)有限公司 | 基于神经网络混合模型的法律条文检索方法及相关设备 |
CN111325387A (zh) * | 2020-02-13 | 2020-06-23 | 清华大学 | 可解释法律自动判决预测方法及装置 |
CN111325387B (zh) * | 2020-02-13 | 2023-08-18 | 清华大学 | 可解释法律自动判决预测方法及装置 |
CN111382333A (zh) * | 2020-03-11 | 2020-07-07 | 昆明理工大学 | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 |
CN111382333B (zh) * | 2020-03-11 | 2022-06-21 | 昆明理工大学 | 基于案件相关性联合学习与图卷积的新闻文本句中案件要素抽取方法 |
CN111460834A (zh) * | 2020-04-09 | 2020-07-28 | 北京北大软件工程股份有限公司 | 基于lstm网络的法条语义标注方法及装置 |
CN111460834B (zh) * | 2020-04-09 | 2023-06-06 | 北京北大软件工程股份有限公司 | 基于lstm网络的法条语义标注方法及装置 |
CN111552808A (zh) * | 2020-04-20 | 2020-08-18 | 北京北大软件工程股份有限公司 | 一种基于卷积神经网络的行政违法案由预测方法及工具 |
CN111797221A (zh) * | 2020-06-16 | 2020-10-20 | 北京北大软件工程股份有限公司 | 类似案件推荐方法及装置 |
CN111797221B (zh) * | 2020-06-16 | 2023-12-08 | 北京北大软件工程股份有限公司 | 类似案件推荐方法及装置 |
CN111523313A (zh) * | 2020-07-03 | 2020-08-11 | 支付宝(杭州)信息技术有限公司 | 模型训练、命名实体识别方法及装置 |
CN111523313B (zh) * | 2020-07-03 | 2020-09-29 | 支付宝(杭州)信息技术有限公司 | 模型训练、命名实体识别方法及装置 |
CN112100212A (zh) * | 2020-09-04 | 2020-12-18 | 中国航天科工集团第二研究院 | 一种基于机器学习和规则匹配的案件情节抽取方法 |
CN113157880B (zh) * | 2021-03-25 | 2023-01-17 | 科大讯飞股份有限公司 | 一种要素内容获取方法、装置、设备及存储介质 |
CN113157880A (zh) * | 2021-03-25 | 2021-07-23 | 科大讯飞股份有限公司 | 一种要素内容获取方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110276068B (zh) | 2020-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110276068A (zh) | 法律案情分析方法及装置 | |
CN110825901A (zh) | 基于人工智能的图文匹配方法、装置、设备及存储介质 | |
ALRashdi et al. | Deep learning and word embeddings for tweet classification for crisis response | |
CN112015859A (zh) | 文本的知识层次抽取方法及装置、计算机设备及可读介质 | |
CN111209384A (zh) | 基于人工智能的问答数据处理方法、装置及电子设备 | |
CN108335693B (zh) | 一种语种识别方法以及语种识别设备 | |
CN108549658A (zh) | 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统 | |
CN111522987A (zh) | 一种图像审核方法、设备及计算机可读存储介质 | |
CN111563158B (zh) | 文本排序方法、排序装置、服务器和计算机可读存储介质 | |
CN110197389A (zh) | 一种用户识别方法及装置 | |
CN112507912B (zh) | 一种识别违规图片的方法及装置 | |
CN110188195A (zh) | 一种基于深度学习的文本意图识别方法、装置及设备 | |
CN108229527A (zh) | 训练及视频分析方法和装置、电子设备、存储介质、程序 | |
Pardos et al. | Imputing KCs with representations of problem content and context | |
Altadmri et al. | A framework for automatic semantic video annotation: Utilizing similarity and commonsense knowledge bases | |
CN108268629A (zh) | 基于关键词的图像描述方法和装置、设备、介质、程序 | |
CN108229170A (zh) | 利用大数据和神经网络的软件分析方法和装置 | |
CN109271624A (zh) | 一种目标词确定方法、装置及存储介质 | |
CN110287314A (zh) | 基于无监督聚类的长文本可信度评估方法及系统 | |
CN111985207A (zh) | 一种访问控制策略的获取方法、装置及电子设备 | |
CN114372532A (zh) | 标签标注质量的确定方法、装置、设备、介质及产品 | |
CN112818212B (zh) | 语料数据采集方法、装置、计算机设备和存储介质 | |
Sethi et al. | Large-scale multimedia content analysis using scientific workflows | |
CN115329176A (zh) | 搜索请求的处理方法、装置、计算机设备及存储介质 | |
CN111445545B (zh) | 一种文本转贴图方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |