CN116501852B - 一种可控对话模型训练方法、装置、存储介质及电子设备 - Google Patents
一种可控对话模型训练方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN116501852B CN116501852B CN202310785301.9A CN202310785301A CN116501852B CN 116501852 B CN116501852 B CN 116501852B CN 202310785301 A CN202310785301 A CN 202310785301A CN 116501852 B CN116501852 B CN 116501852B
- Authority
- CN
- China
- Prior art keywords
- strategy
- sentence
- dialogue
- word
- controllable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012549 training Methods 0.000 title claims description 78
- 238000004590 computer program Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 6
- 230000008451 emotion Effects 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 230000006872 improvement Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 230000018109 developmental process Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Train Traffic Observation, Control, And Security (AREA)
- Machine Translation (AREA)
Abstract
本说明书公开了一种可控对话模型训练方法、装置、存储介质及电子设备,本方法使用历史对话数据与预设的共情策略,训练一种基于共情策略的可控对话模型,可以使对话模型输出的答复语句更符合预设的共情策略,从而达到对对话模型输出语句的情感可控。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种可控对话模型训练方法、装置、存储介质及电子设备。
背景技术
随着计算机技术的飞速发展,人工智能技术的不断进步,人机对话的应用越来越广泛。
为提高用户体验,人们通常希望对话模型能够生成与用户情感相符的回复,在现有的人机对话技术中,将情感属性加入对话模型中可以使模型生成的答复受用户的情绪约束,通常,情感一般以词向量形式在输入端加入,标注中包含用户的情感,然而这种模型生成的回复存在情感表达不明显或者实际情感不符合预期的问题,即对模型生成的回复情感的可控性不强。
基于此,本说明书提供一种可控对话模型训练方法。
发明内容
本说明书提供一种可控对话模型训练方法、装置、存储介质及电子设备,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供一种可控对话模型训练方法,所述方法包括:
确定历史对话数据,从所述历史对话数据的用户输出的语句中,确定目标语句;
根据历史对话数据中所述目标语句之前的语句以及所述目标语句,确定训练样本,根据所述目标语句之后向所述用户输出的语句,以及从预设的共情策略中确定的正确策略,确定所述训练样本的标注;
将所述训练样本输入可控对话模型中的策略预测层,获得所述策略预测层输出的候选策略;
将所述候选策略与所述训练样本输入所述可控对话模型中的策略调整层,获得所述策略调整层输出的目标策略;
将所述目标策略与所述训练样本输入所述可控对话模型中的答复生成层,获得所述答复生成层输出的预测答复语句;
根据所述候选策略、所述预测答复语句与所述训练样本的标注之间的差异,调整所述可控对话模型,用于与用户进行对话。
可选地,根据历史对话数据中所述目标语句之前的语句以及所述目标语句,确定训练样本,具体包括:
对历史对话数据中所述目标语句之前的语句以及所述目标语句做分词处理,得到各分词;
针对每个分词,确定该分词所属的语句对应的角色信息以及该分词所属的语句在所述历史对话中所处的顺序位置;
根据各分词、各分词所属的语句对应的角色信息以及各分词所属的语句在所述历史对话中的位置,确定训练样本。
可选地,根据各分词、各分词所属的语句对应的角色信息以及各分词所属的语句在所述历史对话中的位置,确定训练样本,具体包括:
针对每个分词,将该分词、该分词所属的语句对应的角色信息以及该分词所属的语句在所述历史对话中的位置进行拼接;
按照所述历史对话中各语句的顺序,以及各分词在该分词所属的语句中的顺序,确定训练样本。
可选地,根据所述目标语句之后向所述用户输出的语句,以及从预设的共情策略中确定的正确策略,确定所述训练样本的标注,具体包括:
将所述目标语句之后向所述用户输出的下一个语句作为标准答复语句;
确定所述标准答复语句在所述历史对话中所处的顺序位置,作为第一预设位置;
从预设的共情策略中确定所述第一预设位置对应的共情策略,作为正确策略;
将所述标准答复语句与所述正确策略作为训练样本。
可选地,所述预设的共情策略分为探索型策略、领悟型策略与行动型策略。
可选地,根据所述候选策略、所述预测答复语句与所述训练样本的标注之间的差异,调整所述可控对话模型,具体包括:
根据所述候选策略与所述正确策略之间的第一差异,以及所述预测答复语句与所述标准答复语句之间的第二差异,调整所述可控对话模型。
可选地,调整所述可控对话模型,具体包括:
根据所述第一差异调整所述策略预测层,根据所述第二差异调整所述答复生成层。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述可控对话模型训练的方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述可控对话模型训练的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
本方法使用历史对话数据与预设的共情策略,训练一种基于共情策略的可控对话模型,可以使对话模型输出的答复语句更符合预设的共情策略,从而达到对对话模型输出语句的情感可控。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种可控对话模型训练方法的流程示意图;
图2为本说明书中提供的一种可控对话模型的结构示意图;
图3为本说明书提供的一种可控对话模型的策略调整的原理示意图;
图4为本说明书提供的一种可控对话模型训练的装置结构的示意图;
图5为本说明书提供的一种对应于图1的电子设备的结构示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种可控对话模型训练的方法的流程示意图,包括以下步骤:
S100:确定历史对话数据,从所述历史对话数据的用户输出的语句中,确定目标语句。
本方法的执行主体为任意一种具有计算能力的计算设备,如计算器、服务器等,为了方便描述后续以服务器为执行主体进行说明。该服务器,首先可确定历史对话数据,并从该历史对话中确定用户输出的语句,作为目标语句。当期,由于后续需要根据历史对话数据以及确定出的目标语句,确定训练样本,其标注为历史对话数据中,对应该目标语句输出的下一语句,因此该服务器可从历史对话数据中,确定非最后输出的语句,作为目标语句。
在本说明提供的一种实施例中,历史对话数据即用户与对话系统或用户与另一个用户之间的对话,是上下文连贯、顺畅的对话。需要说明的是,历史对话是两方之间的对话。例如,假设以u表示用户,s表示对话系统的机器人,则确定的历史对话数据可以表示为,可见改历史对话一共存在t轮,并且第t轮只有用户输入的语句。需要由机器人对该/>语句对应输出/>语句,则该/>为目标语句。当然,如前所述,在需要确定训练样本以及标注时,该服务器可以确定/>中的任一一句作为目标语句。
在下文所述的本方法中,用户即与可控对话模型对话的对象。可控对话模型的结构如图2所示,至少包括策略预测层、策略调整层与答复生成层,本说明书不限制可控对话模型的输入层等。
S102:根据历史对话数据中所述目标语句之前的语句以及所述目标语句,确定训练样本,根据所述目标语句之后向所述用户输出的语句,以及从预设的共情策略中确定的正确策略,确定所述训练样本的标注。
在本说明书一个或多个实施例中,该服务器在确定历史对话数据以及目标语句之后,便可确定用于训练可控对话模型的训练样本。具体地,该服务器可对历史对话数据中所述目标语句之前的语句以及所述目标语句做分词处理,得到各分词。之后,可针对每个分词,确定该分词所属的语句对应的角色信息以及该分词所属的语句在所述历史对话中所处的顺序位置。最后,根据各分词、各分词所属的语句对应的角色信息以及各分词所属的语句在所述历史对话中的位置,确定训练样本。
例如,针对每个语句,该服务器可确定该语句包含的各分词以表示,确定角色信息以/>表示,确定顺序位置以/>表示,则训练样本可以表示为。
并且,该服务器还可将所述目标语句之后向所述用户输出的下一个语句作为标准答复语句,确定所述标准答复语句在所述历史对话中所处的顺序位置,作为第一预设位置。从预设的共情策略中确定所述第一预设位置对应的共情策略,作为正确策略,将所述标准答复语句与所述正确策略作为训练样本。
在本说明书一个或多个实施例中,该服务器在确定出训练样本之后,还需要确定该训练样本的标注。具体地,该服务器可将所述目标语句之后向所述用户输出的下一个语句作为标准答复语句。确定所述标准答复语句在所述历史对话中所处的顺序位置,作为第一预设位置。从预设的共情策略中确定所述第一预设位置对应的共情策略,作为正确策略。最后,将所述标准答复语句与所述正确策略作为训练样本的标注。
需要说明的是,预设的共情策略是根据心理学助人理论设计的情感支持对话框架/策略,或者称之为对话模型的话术,即对话模型需要基于共情策略输出答复语句。预设的共情策略分为探索型策略、领悟型策略与行动型策略。每种类型的策略都可以包括多种策略,其中,探索型策略可以为针对用户想法/做法的开放式提问,具体指邀请用户对其想法进行澄清或探索,例如,“说xx话时,你是怎么想的”,“再告诉我你对xx事件的想法”。领悟型策略可以为领悟性自我表露,即利用共情,促进用户对子集想法、感受、行为和问题的理解,例如,“我像你一样会容忍子集的一些坏习惯,我知道他们不好,但就像你一样,我不想改变他们,我后来发现,我原本时不喜欢被人控制的感觉,因为小时候我母亲对我的控制欲就很强。”。行动型策略可以为提供建议的策略,即为用户提供建议或劝告,例如,“如果你事先告知他你会怎么处理,也许对处理这件事有帮助。”
另外,由于在历史对话数据所包含的对话中的语句具有先后顺序,探索型策略通常用于生成对话的前半部分语句,领悟型策略通常用于生成对话的中间部分或后半部分语句,行动型策略通常也用于生成对话的中间部分或后半部分语句。
S104:将所述训练样本输入可控对话模型中的策略预测层,获得所述策略预测层输出的候选策略。
S106:将所述候选策略与所述训练样本输入所述可控对话模型中的策略调整层,获得所述策略调整层输出的目标策略。
在本说明书一个或多个实施例中,该服务器在确定出训练样本之后,便可将将训练样本输入可控对话模型中,通过该可控对话模型中策略预测层,预测针对该目标语句应采用的候选策略。其中,该候选策略为策略预测层预测的针对该目标语句,对应输出语句时最有可能的采用的策略。例如,以表示各策略的选择概率,x表示训练样本中目标语句以及目标语句之前的对话语句,/>表示策略,则该服务器可确定/>最大的,作为候选策略。
如图3所示,可控对话模型中的策略调整层的功能即根据目标语句在历史对话中的位置,确定目标语句在对话中所处的位置对应的共情策略类型,将确定出的共情策略类型的包括的策略作为可用的策略。
之后,在步骤S106中该服务器可判断候选策略的类型是否为确定出的共情策略类型,即判断候选策略是否为确定出的可用的策略之一。若是,候选策略即目标策略,若否,从确定出的可用的策略中确定一个策略作为目标策略。
S108:将所述目标策略与所述训练样本输入所述可控对话模型中的答复生成层,获得所述答复生成层输出的预测答复语句。
在本说明书中,该服务器可通过该答复生成层,基于确定出的目标策略,生成预测答复语句。具体的,可控对话模型的策略预测层以及策略调整层,可视为是编码层,而该答复生成层可视为是解码层,则该可控对话模型为一种编码-解码结构的模型。通过策略调整层,确定目标策略以及上述的的编码特征,在通过答复生成层进行解码,以目标为最大化条件概率,确定预测答复语句。即,以/>的概率最大为目标,确定/>,/>为预测答复语句,/>为候选答复语句,/>此时为目标策略,i表示预测答复语句中第i个词。也就是说,基于不同策略,确定由i个词组成的预测答复语句,是训练样本/>对应的输出语句的概率。
需要说明的是,在本说明书中,若目标语句为用户回复的语句,则预测答复语句为对应的该回复输出的语句,可以是疑问句也可以是陈述句、感叹句、祈使句等。若目标语句为用户提出问题的语句,则预测答复语句为对应的该回复输出的语句,可以是陈述句也可以是反问句、感叹句、祈使句等,本说明书对此不做限制。
S110:根据所述候选策略、所述预测答复语句与所述训练样本的标注之间的差异,调整所述可控对话模型,用于与用户进行对话。
根据所述候选策略与所述正确策略之间的第一差异,以及所述预测答复语句与所述标准答复语句之间的第二差异,调整该可控对话模型。调整后的该可控对话模型,可用于客服系统等与用户进行对话的对话系统中,根据用户输入的语句,确定答复语句并输出给用户。需要说明的是,在应用该可控对话模型时,该可控对话模型也是先确定候选策略,再进行调整确定目标策略的。
从上述方法可以看出,本方法使用历史对话数据与预设的共情策略,训练一种基于共情策略的可控对话模型,可以使对话模型输出的答复语句更符合预设的共情策略,从而达到对对话模型输出语句的情感可控。
进一步地,调整所述可控对话模型,可以根据所述第一差异调整所述策略预测层,根据所述第二差异调整所述答复生成层。具体地,即以第一差异最小化为目标调整策略预测层,以第二差异最小化为目标调整答复生成层。
以上为本说明书的一个或多个实施的方法,基于同样的思路,本说明书还提供了相应的训练分类模型的装置,如图4所示。
图4为本说明书提供的一种的可控对话模型训练的装置的示意图,所述装置包括:
第一确定模块401,用于确定历史对话数据,从所述历史对话数据的用户输出的语句中,确定目标语句;
第二确定模块402,用于根据历史对话数据中所述目标语句之前的语句以及所述目标语句,确定训练样本,根据所述目标语句之后向所述用户输出的语句,以及从预设的共情策略中确定的正确策略,确定所述训练样本的标注;
策略预测模块403,用于将所述训练样本输入可控对话模型中的策略预测层,获得所述策略预测层输出的候选策略;
策略调整模块404,用于将所述候选策略与所述训练样本输入所述可控对话模型中的策略调整层,获得所述策略调整层输出的目标策略;
答复模块405,用于将所述目标策略与所述训练样本输入所述可控对话模型中的答复生成层,获得所述答复生成层输出的预测答复语句;
训练模块406,用于根据所述候选策略、所述预测答复语句与所述训练样本的标注之间的差异,调整所述可控对话模型,用于与用户进行对话。
可选地,第二确定模块402,具体用于对历史对话数据中所述目标语句之前的语句以及所述目标语句做分词处理,得到各分词;针对每个分词,确定该分词所属的语句对应的角色信息以及该分词所属的语句在所述历史对话中所处的顺序位置;根据各分词、各分词所属的语句对应的角色信息以及各分词所属的语句在所述历史对话中的位置,确定训练样本。
可选地,第二确定模块402,具体用于针对每个分词,将该分词、该分词所属的语句对应的角色信息以及该分词所属的语句在所述历史对话中的位置进行拼接;按照所述历史对话中各语句的顺序,以及各分词在该分词所属的语句中的顺序,确定训练样本。
可选地,第二确定模块402,具体用于将所述目标语句之后向所述用户输出的下一个语句作为标准答复语句;确定所述标准答复语句在所述历史对话中所处的顺序位置,作为第一预设位置;从预设的共情策略中确定所述第一预设位置对应的共情策略,作为正确策略;将所述标准答复语句与所述正确策略作为训练样本。
可选地,所述预设的共情策略分为探索型策略、领悟型策略与行动型策略。
可选地,训练模块406,具体用于根据所述候选策略与所述正确策略之间的第一差异,以及所述预测答复语句与所述标准答复语句之间的第二差异,调整所述可控对话模型。
可选地,训练模块406,具体用于根据所述第一差异调整所述策略预测层,根据所述第二差异调整所述答复生成层。
本说明书还提供了图5所示的一种对应于图1的电子设备的示意结构图。如图5所示,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的可控对话模型训练的方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (8)
1.一种可控对话模型训练的方法,其特征在于,所述方法包括:
确定历史对话数据,从所述历史对话数据的用户输出的语句中,确定目标语句;
对历史对话数据中所述目标语句之前的语句以及所述目标语句做分词处理,得到各分词;针对每个分词,确定该分词所属的语句对应的角色信息以及该分词所属的语句在所述历史对话中所处的顺序位置;并根据所述各分词、所述各分词的角色信息以及所述各分词的顺序位置,确定训练样本;
将所述目标语句之后向所述用户输出的下一个语句作为标准答复语句;确定所述标准答复语句在所述历史对话中所处的顺序位置,作为第一预设位置;从预设的共情策略中,确定所述第一预设位置对应的共情策略,作为正确策略;将所述标准答复语句与所述正确策略作为训练样本的标注;
将所述训练样本输入可控对话模型中的策略预测层,获得所述策略预测层输出的候选策略;
将所述候选策略与所述训练样本输入所述可控对话模型中的策略调整层,获得所述策略调整层输出的目标策略;
将所述目标策略与所述训练样本输入所述可控对话模型中的答复生成层,获得所述答复生成层输出的预测答复语句;
根据所述候选策略、所述预测答复语句与所述训练样本的标注之间的差异,调整所述可控对话模型,用于与用户进行对话。
2.如权利要求1所述的方法,其特征在于,根据所述各分词、所述各分词的角色信息以及所述各分词的顺序位置,确定训练样本,具体包括:
针对每个分词,将该分词、该分词所属的语句对应的角色信息以及该分词所属的语句在所述历史对话中的位置进行拼接;
按照所述历史对话中各语句的顺序,以及各分词在该分词所属的语句中的顺序,确定训练样本。
3.如权利要求1所述的方法,其特征在于,所述预设的共情策略分为探索型策略、领悟型策略与行动型策略。
4.如权利要求1所述的方法,其特征在于,根据所述候选策略、所述预测答复语句与所述训练样本的标注之间的差异,调整所述可控对话模型,具体包括:
根据所述候选策略与所述正确策略之间的第一差异,以及所述预测答复语句与所述标准答复语句之间的第二差异,调整所述可控对话模型。
5.如权利要求4所述的方法,其特征在于,调整所述可控对话模型,具体包括:
根据所述第一差异调整所述策略预测层,根据所述第二差异调整所述答复生成层。
6.一种可控对话模型训练的装置,其特征在于,所述装置包括:
第一确定模块,用于确定历史对话数据,从所述历史对话数据的用户输出的语句中,确定目标语句;
第二确定模块,对历史对话数据中所述目标语句之前的语句以及所述目标语句做分词处理,得到各分词;针对每个分词,确定该分词所属的语句对应的角色信息以及该分词所属的语句在所述历史对话中所处的顺序位置;并根据所述各分词、所述各分词的角色信息以及所述各分词的顺序位置,确定训练样本;将所述目标语句之后向所述用户输出的下一个语句作为标准答复语句;确定所述标准答复语句在所述历史对话中所处的顺序位置,作为第一预设位置;从预设的共情策略中,确定所述第一预设位置对应的共情策略,作为正确策略;将所述标准答复语句与所述正确策略作为训练样本的标注;
策略预测模块,用于将所述训练样本输入可控对话模型中的策略预测层,获得所述策略预测层输出的候选策略;
策略调整模块,用于将所述候选策略与所述训练样本输入所述可控对话模型中的策略调整层,获得所述策略调整层输出的目标策略;
答复模块,用于将所述目标策略与所述训练样本输入所述可控对话模型中的答复生成层,获得所述答复生成层输出的预测答复语句;
训练模块,用于根据所述候选策略、所述预测答复语句与所述训练样本的标注之间的差异,调整所述可控对话模型,用于与用户进行对话。
7.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~5任一项所述的方法。
8.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述权利要求1~5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310785301.9A CN116501852B (zh) | 2023-06-29 | 2023-06-29 | 一种可控对话模型训练方法、装置、存储介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310785301.9A CN116501852B (zh) | 2023-06-29 | 2023-06-29 | 一种可控对话模型训练方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116501852A CN116501852A (zh) | 2023-07-28 |
CN116501852B true CN116501852B (zh) | 2023-09-01 |
Family
ID=87328903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310785301.9A Active CN116501852B (zh) | 2023-06-29 | 2023-06-29 | 一种可控对话模型训练方法、装置、存储介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116501852B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020177282A1 (zh) * | 2019-03-01 | 2020-09-10 | 平安科技(深圳)有限公司 | 一种机器对话方法、装置、计算机设备及存储介质 |
CN112735407A (zh) * | 2020-12-24 | 2021-04-30 | 北京三快在线科技有限公司 | 一种对话处理方法及装置 |
CN114999610A (zh) * | 2022-03-31 | 2022-09-02 | 华东师范大学 | 基于深度学习的情绪感知与支持的对话系统构建方法 |
CN115203394A (zh) * | 2022-07-20 | 2022-10-18 | 北京三快在线科技有限公司 | 一种模型训练的方法、业务执行的方法及装置 |
CN115329068A (zh) * | 2022-05-16 | 2022-11-11 | 腾讯科技(深圳)有限公司 | 一种工单分类模型训练方法、装置、电子设备和存储介质 |
WO2022242699A1 (zh) * | 2021-05-20 | 2022-11-24 | 华为技术有限公司 | 一种信息推荐方法以及相关设备 |
CN115545002A (zh) * | 2022-11-29 | 2022-12-30 | 支付宝(杭州)信息技术有限公司 | 一种模型训练和业务处理的方法、装置、存储介质及设备 |
-
2023
- 2023-06-29 CN CN202310785301.9A patent/CN116501852B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020177282A1 (zh) * | 2019-03-01 | 2020-09-10 | 平安科技(深圳)有限公司 | 一种机器对话方法、装置、计算机设备及存储介质 |
CN112735407A (zh) * | 2020-12-24 | 2021-04-30 | 北京三快在线科技有限公司 | 一种对话处理方法及装置 |
WO2022242699A1 (zh) * | 2021-05-20 | 2022-11-24 | 华为技术有限公司 | 一种信息推荐方法以及相关设备 |
CN114999610A (zh) * | 2022-03-31 | 2022-09-02 | 华东师范大学 | 基于深度学习的情绪感知与支持的对话系统构建方法 |
CN115329068A (zh) * | 2022-05-16 | 2022-11-11 | 腾讯科技(深圳)有限公司 | 一种工单分类模型训练方法、装置、电子设备和存储介质 |
CN115203394A (zh) * | 2022-07-20 | 2022-10-18 | 北京三快在线科技有限公司 | 一种模型训练的方法、业务执行的方法及装置 |
CN115545002A (zh) * | 2022-11-29 | 2022-12-30 | 支付宝(杭州)信息技术有限公司 | 一种模型训练和业务处理的方法、装置、存储介质及设备 |
Non-Patent Citations (1)
Title |
---|
基于带约束语义文法的领域相关自然语言理解方法;王东升;王石;王卫民;符建辉;诸峰;;中文信息学报(02);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116501852A (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116227474B (zh) | 一种对抗文本的生成方法、装置、存储介质及电子设备 | |
CN115203394A (zh) | 一种模型训练的方法、业务执行的方法及装置 | |
CN117828360A (zh) | 一种模型训练、代码生成方法、装置、存储介质及设备 | |
CN115146601A (zh) | 语言处理任务的执行方法、装置、可读存储介质以及设备 | |
CN115238826B (zh) | 一种模型训练的方法、装置、存储介质及电子设备 | |
CN117369783B (zh) | 一种安全代码生成模型的训练方法及装置 | |
CN117332282B (zh) | 一种基于知识图谱的事件匹配的方法及装置 | |
CN116127328B (zh) | 一种对话状态识别模型的训练方法、装置、介质及设备 | |
CN116501852B (zh) | 一种可控对话模型训练方法、装置、存储介质及电子设备 | |
CN117910542A (zh) | 用户转化预测模型训练方法及装置 | |
CN115017915B (zh) | 一种模型训练、任务执行的方法及装置 | |
CN116824331A (zh) | 一种模型训练、图像识别方法、装置、设备及存储介质 | |
CN116522939A (zh) | 数据处理方法、装置及设备 | |
CN115994252A (zh) | 数据处理方法、装置及设备 | |
CN115934902A (zh) | 一种生成对话信息的方法、装置、可读存储介质以及设备 | |
CN113642305A (zh) | 一种文本生成方法、装置、存储介质及电子设备 | |
CN118098266B (zh) | 一种基于多模型选择的语音数据处理方法及装置 | |
CN117807961B (zh) | 一种文本生成模型的训练方法、装置、介质及电子设备 | |
CN117351946B (zh) | 一种语音识别方法、装置、存储介质及电子设备 | |
CN118193757B (zh) | 一种任务执行方法、装置、存储介质及电子设备 | |
CN114817469B (zh) | 文本增强方法、文本增强模型的训练方法及装置 | |
CN111104591B (zh) | 一种推荐信息生成方法及装置 | |
CN117593003A (zh) | 一种模型训练的方法、装置、存储介质及电子设备 | |
CN116029441A (zh) | 一种数据处理方法、装置及设备 | |
CN117743824A (zh) | 一种模型训练、业务执行方法、装置、存储介质及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |