CN110377716A - 对话的交互方法、装置及计算机可读存储介质 - Google Patents
对话的交互方法、装置及计算机可读存储介质 Download PDFInfo
- Publication number
- CN110377716A CN110377716A CN201910666945.XA CN201910666945A CN110377716A CN 110377716 A CN110377716 A CN 110377716A CN 201910666945 A CN201910666945 A CN 201910666945A CN 110377716 A CN110377716 A CN 110377716A
- Authority
- CN
- China
- Prior art keywords
- information
- text
- word slot
- intent
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000002452 interceptive effect Effects 0.000 claims abstract description 66
- 238000004458 analytical method Methods 0.000 claims abstract description 50
- 230000004044 response Effects 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims description 30
- 230000009191 jumping Effects 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 210000004218 nerve net Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提出一种对话的交互方法、装置及计算机可读存储介质,所述方法包括将待识别语音转换为第一文本;将所述第一文本输入语义分析模型,得出第一文本的意图信息和词槽信息;将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息。本发明实施例利用语义分析模型直接从第一文本得出第一文本的意图信息和词槽信息。减少了现有技术语义分析模型需要连接在语言模型后的步骤,由此缩短了时间,可以更快响应用户。同时,上述方案减小计算复杂度,降低整体系统的成本。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种对话的交互方法、装置及计算机可读存储介质。
背景技术
近几年,人工智能技术得到迅速地发展,与智能语音技术相关的产品已经进入到千家万户中。人们逐渐习惯了与机器对话,并且对机器的理解与应答能力有了更高的期待。
主流的基于语音的对话系统框架采用自动语音识别(ASR,Automatic SpeechRecognition)模型和自然语言理解(NLU,Natural Language Understanding)模型。工作流程包括:首先通过ASR模型将用户的声音转换为文字,然后利用NLU模型进行语义解析,最终得到用户的意图。
现有方法的主要问题在于:工作流程分为两段,一旦ASR模型识别出现误差,在采用NLU模型的时候就会将误差放大。另外,当模型较大的时候,NLU的计算量大,整体负责成本较高,且识别过程会出现延迟。
发明内容
本发明实施例提供一种对话的交互方法、装置及计算机可读存储介质,以解决现有技术中的一个或多个技术问题。
第一方面,本发明实施例提供了一种对话的交互方法,包括:
将待识别语音转换为第一文本;
将所述第一文本输入语义分析模型,得出第一文本的意图信息和词槽信息;
将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息。
在一种实施方式中,还包括:
将所述第一文本输入语言模型,得出多个候选文本及其对应的第一置信度,所述语言模型是自动语音识别ASR模型;
将第一置信度最高的候选文本作为所述第二文本。
在一种实施方式中,将所述第一文本输入语义分析模型,得出第一文本的意图信息和词槽信息,包括:
将所述第一文本输入语义分析模型,得出多个候选意图信息及其对应的第二置信度,所述语义分析模型是自然语言理解NLU模型;
将第二置信度最高的候选意图信息作为所述第一文本的意图信息;
获取所述第一文本中包括的与所述第一文本的意图信息对应的词槽信息。
在一种实施方式中,将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息,包括:
将所述第一文本的意图信息和词槽信息输入所述对话状态机的初始节点;
筛选出所述对话状态机中符合所述第一文本的意图信息的对话路径;
根据所述第一文本的词槽信息,在符合所述第一文本的意图信息的对话路径中,查找需要跳转到的下一个中间节点;
利用中间节点返回交互信息。
在一种实施方式中,将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息,还包括:
在收到所述交互信息的应答信息的情况下,利用语义分析模型得出所述应答信息的词槽信息;
将所述应答信息的词槽信息输入对话状态机的所述中间节点的下一节点。
在一种实施方式中,所述对话状态机的构建包括:
利用语义分析模型得出所述训练样本的意图信息;
确定所述训练样本的意图信息所对应的各词槽信息;
根据意图信息所对应的各词槽信息,构建意图信息包括的对话路径。
在一种实施方式中,所述根据意图信息所对应的各词槽信息,构建意图信息包括的对话路径,包括:
利用语义分析模型,提取与所述训练样本的意图信息对应的各词槽信息;
根据各词槽信息,确定对话状态机包括的初始节点、中间节点和结束节点;
根据各词槽信息,确定各节点之间的跳转关系;
根据各节点及其之间的跳转关系,构建所述训练样本的意图信息包括的对话路径。
第二方面,本发明实施例提供了一种对话的交互装置,包括:
语音转换模块,用于将待识别语音转换为第一文本;
意图信息和词槽信息获取模块,用于将所述第一文本输入语义分析模型,得出第一文本的意图信息和词槽信息;
交互信息获取模块,用于将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息。
在一种实施方式中,该装置还包括:
候选文本及置信度获取模块,用于将所述第一文本输入语言模型,得出多个候选文本及其对应的第一置信度,所述语言模型是自动语音识别ASR模型;
第二文本获取模块,用于将第一置信度最高的候选文本作为所述第二文本。
在一种实施方式中,所述意图信息和词槽信息获取模块,包括:
候选意图信息及置信度获取子模块,用于将所述第一文本输入语义分析模型,得出多个候选意图信息及其对应的第二置信度,所述语义分析模型是自然语言理解NLU模型;
第一文本意图信息获取子模块,用于将第二置信度最高的候选意图信息作为所述第一文本的意图信息;
第一词槽信息获取子模块,用于获取所述第一文本中包括的与所述第一文本的意图信息对应的词槽信息。
在一种实施方式中,所述交互信息获取模块,包括:
意图信息和词槽信息输入子模块,用于将所述第一文本的意图信息和词槽信息输入所述对话状态机的初始节点;
对话路径筛选子模块,用于筛选出所述对话状态机中符合所述第一文本的意图信息的对话路径;
跳转节点查找子模块,用于根据所述第一文本的词槽信息,在符合所述第一文本的意图信息的对话路径中,查找需要跳转到的下一个中间节点;
交互信息返回子模块,用于利用中间节点返回交互信息。
在一种实施方式中,所述交互信息获取模块,还包括:
第二词槽信息获取子模块,用于在收到所述交互信息的应答信息的情况下,利用语义分析模型得出所述应答信息的词槽信息;
第二词槽信息输入子模块,用于将所述应答信息的词槽信息输入对话状态机的所述中间节点的下一节点。
在一种实施方式中,构建所述对话状态机包括:
训练样本意图信息获取模块,用于利用语义分析模型得出所述训练样本的意图信息;
词槽信息确定模块,用于确定所述训练样本的意图信息所对应的各词槽信息;
对话路径构建模块,用于根据意图信息所对应的各词槽信息,构建意图信息包括的对话路径。
在一种实施方式中,所述对话路径构建模块,包括:
信息提取模块,用于利用语义分析模型,提取与所述训练样本的意图信息对应的各词槽信息;
节点确定子模块,用于根据各词槽信息,确定对话状态机包括的初始节点、中间节点和结束节点;
跳转关系确定子模块,用于根据各词槽信息,确定各节点之间的跳转关系;
构建执行子模块,用于根据各节点及其之间的跳转关系,构建所述训练样本的意图信息包括的对话路径。
第三方面,本发明实施例提供了一种对话的交互装置,所述装置的功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一个可能的设计中,所述装置的结构中包括处理器和存储器,所述存储器用于存储支持所述装置执行上述对话的交互的程序,所述处理器被配置为用于执行所述存储器中存储的程序。所述装置还可以包括通信接口,用于与其他设备或通信网络通信。
第四方面,本发明实施例提供了一种计算机可读存储介质,用于存储对话的交互装置所用的计算机软件指令,其包括用于执行上述对话的交互方法所涉及的程序。
上述技术方案中的一个技术方案具有如下优点或有益效果:利用语义分析模型直接从第一文本得出第一文本的意图信息和词槽信息。减少了现有技术语义分析模型需要连接在语言模型后的步骤,由此缩短了时间,可以更快响应用户。同时,上述方案减小计算复杂度,降低整体系统的成本。
上述技术方案中的另一个技术方案具有如下优点或有益效果:将自动语音识别ASR模型和自然语言理解NLU模型集成在一起。采用整体思想对待识别语音进行处理,可以同时输出置信度最高的候选文本和候选意图信息。
上述概述仅仅是为了说明书的目的,并不意图以任何方式进行限制。除上述描述的示意性的方面、实施方式和特征之外,通过参考附图和以下的详细描述,本发明进一步的方面、实施方式和特征将会是容易明白的。
附图说明
在附图中,除非另外规定,否则贯穿多个附图相同的附图标记表示相同或相似的部件或元素。这些附图不一定是按照比例绘制的。应该理解,这些附图仅描绘了根据本发明公开的一些实施方式,而不应将其视为是对本发明范围的限制。
图1示出根据本发明实施例的对话的交互方法的流程图。
图2示出根据本发明实施例的对话的交互方法的流程图。
图3示出根据本发明实施例的对话的交互方法的流程图。
图4示出根据本发明实施例的对话的交互方法的流程图。
图5示出根据本发明实施例的对话状态机的示意图。
图6示出根据本发明实施例的对话的交互方法的流程图。
图7示出根据本发明实施例的对话的交互方法的流程图。
图8示出根据本发明实施例的对话的交互方法的流程图。
图9示出根据本发明实施例的对话的交互装置的结构框图。
图10示出根据本发明实施例的对话的交互装置的结构框图。
图11示出根据本发明实施例的对话的交互装置的结构框图。
图12示出根据本发明实施例的对话的交互装置的结构框图。
图13示出根据本发明实施例的对话的交互装置的结构框图。
图14示出根据本发明实施例的对话的交互装置的结构框图。
图15示出根据本发明实施例的对话的交互装置的结构框图。
图16示出根据本发明实施例的对话的交互装置的结构框图。
具体实施方式
在下文中,仅简单地描述了某些示例性实施例。正如本领域技术人员可认识到的那样,在不脱离本发明的精神或范围的情况下,可通过各种不同方式修改所描述的实施例。因此,附图和描述被认为本质上是示例性的而非限制性的。
图1示出根据本发明实施例的对话的生成方法的流程图。如图1所示,该方法包括以下步骤:
S101:将待识别语音转换为第一文本。
对话终端接收待识别语音后,可以利用声学模型将待识别语音识别为第一文本。对话终端可以包括智能音箱、智能机器人、智能手机等具有人机交互功能的装置。
S102:将所述第一文本输入语义分析模型,得出第一文本的意图信息和词槽信息。
语义分析模型可以用于提取第一文本中所包括的句子的意图信息。意图信息可以是一句话想要达到的目的。第一文本中可以包括与意图信息对应的一个或多个词槽信息。例如第一文本可以是“明天天气怎么样”、“查一下天气”、“查一下北京天气”、“查一下北京明天的天气”中的一种。上述第一文本的意图信息均可以对应为“查询天气”。而“查询天气”对应的词槽信息可以包括“时间”和“地点”。例如第一文本为“明天天气怎么样”,则第一文本包括的词槽信息“时间”为明天,“地点”为空。如果第一文本为“查一下天气”,则第一文本包括的词槽信息“时间”、“地点”均为空。如果第一文本为“查一下北京天气”,则第一文本包括的词槽信息“时间”为空,“地点”为北京。如果第一文本为“查一下北京明天的天气”,则第一文本包括的词槽信息“时间”为明天,“地点”为北京。
在确定了第一文本的词槽信息“时间”和“地点”后,便可以查询到对应的天气信息。
S103:将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息。
对话状态机可以是根据当前的对话状态生成交互信息。交互信息可以是对应第一文本得出的查询结果信息,也可以是针对第一文本提出的询问信息。
例如在第一文本是“查一下北京明天的天气”的情况下,第一文本中所包括的词槽信息齐全,由此对话状态机得出的第一文本对应的交互信息可以是直接得出北京明天天气情况的查询结果。查询结果可以通过云服务器获取,例如,对话终端在确定第一文本的意图后,可以与云服务器通信以获取到北京明天天气情况,将其作为交互信息输出给用户。输出的形式包括语音输出和/或文字输出。
例如在第一文本是“明天天气怎么样”的情况下,第一文本中包括的词槽信息“地点”为空,则对话状态机可以生成一询问“地点”的交互信息。例如交互信息可以是“请问查哪里的天气”,将其作为交互信息输出给用户。
如图2所示,在一种实施方式中,该方法还包括:
S201:将所述第一文本输入语言模型,得出多个候选文本及其对应的第一置信度,所述语言模型是自动语音识别ASR模型。
S202:将第一置信度最高的候选文本作为所述第二文本。
语言模型可以用于计算一个句子出现概率的模型。例如,第一文本是“今天天气怎么样”这一句话,利用语言模型进行计算可以包括:先将这句话进行分词,得到“今天”、“天气”、“怎么样”三个分词。
得出的第一候选文本可以是“今天/今天:0.1天气/天气:0.2怎么样/怎么样:0.6”。得出的第二候选文本可以是“今天/今天:0.1天气/天意:0.08怎么样/咋样:0.4”。第一置信度可以采用搜索路径累积代价表示,以搜索路径累积代价为搜索路径总权重的负对数和为例:第一候选文本的搜索路径累积代价表示为-lg(0.1)-lg(0.2)-lg(0.6)≈0.91。第二候选文本的搜索路径累积代价表示为-lg(0.1)-lg(0.08)-lg(0.4)≈2.49。
通过比较可以得出,第一候选文本的搜索路径累积代价相比较小,其置信度较高,因此可以选择第一候选文本作为所述第二文本。第二文本可以显示在对话终端的显示装置上。用户可以通过查看第二文本,验证对话终端的识别结果。
语言模型可以是自动语音识别ASR模型。该ASR模型还可以包括声学模型,从而可以对接收的语音进行识别,得出多个候选文本及其对应的第一置信度。
如图3所示,在一种实施方式中,步骤S102包括:
S1021:将所述第一文本输入语义分析模型,得出多个候选意图信息及其对应的第二置信度,所述语义分析模型是自然语言理解NLU模型。
S1022:将第二置信度最高的候选意图信息作为所述第一文本的意图信息。
S1023:获取所述第一文本中包括的与所述第一文本的意图信息对应的词槽信息。
语义分析模型首先在第一文本中提取出关键信息。可以采用训练好的深度神经网络(DNN,Deep Neural Network)或正则表达式(Regular Expression)等模型得出基于关键信息所对应的意图信息,以及该意图信息的置信度。
例如,第一文本是“今天天气怎么样”这一句话。提取出的关键信息可以包括“今天”“天气”、“怎么样”等关键信息。将上述关键信息输入训练好的模型,可以得出候选意图信息是“查询天气”的置信度为0.6,得出候选意图信息是“查询时间”的置信度为0.2。
通过比较置信度,可以将候选意图信息是“查询天气”作为第一文本的意图信息。获取“查询天气”对应的词槽信息,例如可以是“时间”和“地点”。
意图信息与词槽信息的对应关系可以通过人工标注,或者在训练模型时进行关联,从而可以确定不同意图信息所对应的词槽信息。
在一个实施方式中,可以将自动语音识别ASR模型和自然语言理解NLU模型集成在一起。对待识别语音进行处理可以包括:利用自动语音识别ASR模型中的声学模型将待识别语音转换为第一文本后,可以将第一文本分别输入自动语音识别ASR模型中的语言模型和自然语言理解NLU模型,以得出置信度最高的第二文本和第一文本的意图信息。
得出置信度最高的第二文本和第一文本的意图信息可以包括:将所述第一文本输入语言模型,得出多个候选文本及其对应的第一置信度。将所述第一文本输入语义分析模型,得出多个候选意图信息及其对应的第二置信度。将每个第一置信度逐一与第二置信度进行乘法运算。确定出乘法运算的最大值所对应的第一置信度和第二置信度。将确定出的第一置信度所对应的候选文本和确定出的第二置信度所对应的候选意图信息输出。
通过上述方案,自然语言理解NLU模型无需根据自动语音识别ASR模型的输出进行后续识别,而是将自动语音识别ASR模型和自然语言理解NLU模型集成在一起。采用整体思想对待识别语音进行处理,可以同时输出置信度最高的候选文本和候选意图信息。
结合图4、图5所示,在一种实施方式中,步骤S103包括:
S1031:将所述第一文本的意图信息和词槽信息输入所述对话状态机的初始节点。
S1032:筛选出所述对话状态机中符合所述第一文本的意图信息的对话路径。
S1033:根据所述第一文本的词槽信息,在符合所述第一文本的意图信息的对话路径中,查找需要跳转到的下一个中间节点。
S1034:利用中间节点返回交互信息。
例如第一文本可以是“明天天气怎么样”、“查一下天气”、“查一下北京天气”、“查一下北京明天的天气”中的一种。通过语义分析模型可以得出第一文本的意图信息是“查询天气”。
结合图5所示,对话状态机中实线可以对应意图是“查询天气”的对话路径。对话状态机中虚线可以对应意图是“查询时间”的对话路径。将所述第一文本的意图信息和词槽信息输入所述对话状态机的初始节点(图5中的节点0)。基于对第一文本意图的识别,可以筛选出符合意图是“查询天气”的对话路径。即将对话路径限定在节点0-节点1、节点0-节点2、节点0-节点3、节点0-节点4。例如通过语义分析模型得出第一文本的意图信息是“查询时间”,则将对话路径限定在节点0-节点9、节点0-节点10。
对话状态机根据第一文本的词槽信息缺失情况在对话路径的节点中进行跳转。例如“明天天气怎么样”对应的词槽信息是“时间”,缺失的词槽信息是“地点”。在节点2是输出向用户获取“地点”的交互信息。因此在在符合所述第一文本的意图信息的对话路径中查找到节点2,从初始节点0跳转至中间节点2。中间节点2向用户返回交互信息“请问查哪里的天气”。向用户返回的交互信息可以采用语音、文字、图像等多种形式。
结合图5、图6所示,在一种实施方式中,步骤S103还包括:
S1034:在收到所述交互信息的应答信息的情况下,利用语义分析模型得出所述应答信息的词槽信息。
S1035:将所述应答信息的词槽信息输入对话状态机的所述中间节点的下一节点。
对话终端每次在返回交互信息后,都可以对对话进行跟踪以实现对话记录。在用户针对交互信息进行应答的情况下,对话终端接收应答的语音后利用语义分析模型得出所述应答信息的词槽信息。利用词槽信息在对话状态机中进行跳转。例如中间节点2向用户返回交互信息“请问查哪里的天气”后。用户的应答信息为“北京”,则语义分析模型得出“北京”对应的词槽信息是“地点”。结合对话记录可以确定在“查询天气”的意图下,两个词槽信息均已获取,则跳转至节点4。节点4对应词槽信息齐全的情况,可以跳转至结束节点8,最终输出天气查询信息。
如图7所示,在一种实施方式中,所述对话状态机的构建包括:
S301:利用语义分析模型得出所述训练样本的意图信息。
S302:确定所述训练样本的意图信息所对应的各词槽信息。
S303:根据意图信息所对应的各词槽信息,构建意图信息包括的对话路径。
确定所述训练样本的意图信息时,可以采用表达相同意图的不同样本进行训练。例如“明天天气如何”、“明天多少度”,“北京热不热”等都可以表达相同的“查询天气”的意图。
意图信息所对应的各词槽信息可以通过人工设定,也可以通过模型训练设定。构建意图信息包括的对话路径的目的在于:根据接收的语音生成交互信息,利用交互信息引导用户补全当前意图下的所有词槽信息,使得对话状态机最终可以提供查询结果。
如图8所示,在一种实施方式中,步骤S303包括:
S3031:利用语义分析模型,提取与所述训练样本的意图信息对应的各词槽信息。
S3032:根据所述各词槽信息,确定对话状态机包括的初始节点、中间节点和结束节点。
S3033:根据所述各词槽信息,确定各节点之间的跳转关系。
S3034:根据各节点及其之间的跳转关系,构建所述训练样本的意图信息包括的对话路径。
例如,在意图为“查询天气”的情况下,对应的词槽信息可以是“时间”、“地点”。可以用四个状态进行表示,分别是:
初始节点0-中间节点4,表示词槽信息有“时间”,有“地点”;
初始节点0-中间节点2,表示词槽信息有“时间”,无“地点”;中间节点2-中间节点7,表示生产交互信息,询问“地点”;中间节点7-中间节点4,表示词槽信息有“时间”,有“地点”;
初始节点0-中间节点3,表示词槽信息无“时间”,有“地点”;中间节点3-中间节点6,表示生产交互信息,询问“时间”;中间节点6-中间节点4,表示词槽信息有“时间”,有“地点”;
初始节点0-中间节点1,表示词槽信息无“时间”,无“时间”;中间节点1-中间节点5,表示生产交互信息,询问“时间”;中间节点5-中间节点2,表示词槽信息有“时间”,无“时间”。中间节点2-中间节点7,表示生产交互信息,询问“地点”;中间节点7-中间节点4,表示词槽信息有“时间”,有“地点”。
结束节点8可以作为查询天气结果的最终节点。
图9示出根据本发明实施例的对话的交互装置的结构框图。如图9所示,该装置包括:
语音转换模块901,用于将待识别语音转换为第一文本。
意图信息和词槽信息获取模块902,用于将所述第一文本输入语义分析模型,得出第一文本的意图信息和词槽信息。
交互信息获取模块903,用于将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息。
如图10所示,在一种实施方式中,该装置还包括:
候选文本及置信度获取模块1001,用于将所述第一文本输入语言模型,得出多个候选文本及其对应的第一置信度,所述语言模型是自动语音识别ASR模型。
第二文本获取模块1002,用于将第一置信度最高的候选文本作为所述第二文本。
如图11所示,在一种实施方式中,所述意图信息和词槽信息获取模块902,包括:
候选意图信息及置信度获取子模块9021,用于将所述第一文本输入语义分析模型,得出多个候选意图信息及其对应的第二置信度,所述语义分析模型是自然语言理解NLU模型。
第一文本意图信息获取子模块9022,用于将第二置信度最高的候选意图信息作为所述第一文本的意图信息。
第一词槽信息获取子模块9023,用于获取所述第一文本中包括的与所述第一文本的意图信息对应的词槽信息。
如图12所示,在一种实施方式中,所述交互信息获取模块903,包括:
意图信息和词槽信息输入子模块9031,用于将所述第一文本的意图信息和词槽信息输入所述对话状态机的初始节点。
对话路径筛选子模块9032,用于筛选出所述对话状态机中符合所述第一文本的意图信息的对话路径。
跳转节点查找子模块9033,用于根据所述第一文本的词槽信息,在符合所述第一文本的意图信息的对话路径中,查找需要跳转到的下一个中间节点。
交互信息返回子模块9034,用于利用中间节点返回交互信息。
如图13所示,在一种实施方式中,所述交互信息获取模块903,还包括:
第二词槽信息获取子模块9031,用于在收到所述交互信息的应答信息的情况下,利用语义分析模型得出所述应答信息的词槽信息。
第二词槽信息输入子模块9032,用于将所述应答信息的词槽信息输入对话状态机的所述中间节点的下一节点。
如图14所示,在一种实施方式中,构建所述对话状态机包括:
训练样本意图信息获取模块1401,用于利用语义分析模型得出所述训练样本的意图信息。
词槽信息确定模块1402,用于确定所述训练样本的意图信息所对应的各词槽信息。
对话路径构建模块1403,用于根据意图信息所对应的各词槽信息,构建意图信息包括的对话路径。
如图15所示,在一种实施方式中,所述对话路径构建模块1403,包括:
信息提取模块14031,用于利用语义分析模型,提取与所述训练样本的意图信息对应的各词槽信息。
节点确定子模块14032,用于根据各词槽信息,确定对话状态机包括的初始节点、中间节点和结束节点。
跳转关系确定子模块14033,用于根据各词槽信息,确定各节点之间的跳转关系。
构建执行子模块14034,用于根据各节点及其之间的跳转关系,构建所述训练样本的意图信息包括的对话路径。
图16示出根据本发明实施例的对话的交互装置的结构框图。如图16所示,该装置包括:存储器1610和处理器1620,存储器1610内存储有可在处理器1620上运行的计算机程序。所述处理器1620执行所述计算机程序时实现上述实施例中的对话的交互方法。所述存储器1610和处理器1620的数量可以为一个或多个。
该装置还包括:
通信接口1630,用于与外界设备进行通信,进行数据交互传输。
存储器1610可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
如果存储器1610、处理器1620和通信接口1630独立实现,则存储器1610、处理器1620和通信接口1630可以通过总线相互连接并完成相互间的通信。所述总线可以是工业标准体系结构(ISA,Industry Standard Architecture)总线、外部设备互连(PCI,Peripheral Component Interconnect)总线或扩展工业标准体系结构(EISA,ExtendedIndustry Standard Architecture)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图16中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
可选的,在具体实现上,如果存储器1610、处理器1620及通信接口1630集成在一块芯片上,则存储器1610、处理器1620及通信接口1630可以通过内部接口完成相互间的通信。
本发明实施例提供了一种计算机可读存储介质,其存储有计算机程序,该程序被处理器执行时实现上述实施例中任一所述的方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读存储介质中。所述存储介质可以是只读存储器,磁盘或光盘等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到其各种变化或替换,这些都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (16)
1.一种对话的交互方法,其特征在于,包括:
将待识别语音转换为第一文本;
将所述第一文本输入语义分析模型,得出第一文本的意图信息和词槽信息;
将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息。
2.根据权利要求1所述的方法,其特征在于,还包括:
将所述第一文本输入语言模型,得出多个候选文本及其对应的第一置信度,所述语言模型是自动语音识别ASR模型;
将第一置信度最高的候选文本作为第二文本。
3.根据权利要求1所述的方法,其特征在于,将所述第一文本输入语义分析模型,得出第一文本的意图信息和词槽信息,包括:
将所述第一文本输入语义分析模型,得出多个候选意图信息及其对应的第二置信度,所述语义分析模型是自然语言理解NLU模型;
将第二置信度最高的候选意图信息作为所述第一文本的意图信息;
获取所述第一文本中包括的与所述第一文本的意图信息对应的词槽信息。
4.根据权利要求1所述的方法,其特征在于,将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息,包括:
将所述第一文本的意图信息和词槽信息输入所述对话状态机的初始节点;
筛选出所述对话状态机中符合所述第一文本的意图信息的对话路径;
根据所述第一文本的词槽信息,在符合所述第一文本的意图信息的对话路径中,查找需要跳转到的下一个中间节点;
利用中间节点返回交互信息。
5.根据权利要求1所述的方法,其特征在于,将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息,还包括:
在收到所述交互信息的应答信息的情况下,利用语义分析模型得出所述应答信息的词槽信息;
将所述应答信息的词槽信息输入对话状态机的所述中间节点的下一节点。
6.根据权利要求1所述的方法,其特征在于,所述对话状态机的构建包括:
利用语义分析模型得出训练样本的意图信息;
确定所述训练样本的意图信息所对应的各词槽信息;
根据意图信息所对应的各词槽信息,构建意图信息包括的对话路径。
7.根据权利要求6所述的方法,其特征在于,所述根据意图信息所对应的各词槽信息,构建意图信息包括的对话路径,包括:
利用语义分析模型,提取与所述训练样本的意图信息对应的各词槽信息;
根据所述各词槽信息,确定对话状态机包括的初始节点、中间节点和结束节点;
根据所述各词槽信息,确定各节点之间的跳转关系;
根据各节点及其之间的跳转关系,构建所述训练样本的意图信息包括的对话路径。
8.一种对话的交互装置,其特征在于,包括:
语音转换模块,用于将待识别语音转换为第一文本;
意图信息和词槽信息获取模块,用于将所述第一文本输入语义分析模型,得出第一文本的意图信息和词槽信息;
交互信息获取模块,用于将所述第一文本的意图信息和词槽信息输入对话状态机,得出所述第一文本对应的交互信息。
9.根据权利要求8所述的装置,其特征在于,还包括:
候选文本及置信度获取模块,用于将所述第一文本输入语言模型,得出多个候选文本及其对应的第一置信度,所述语言模型是自动语音识别ASR模型;
第二文本获取模块,用于将第一置信度最高的候选文本作为所述第二文本。
10.根据权利要求8所述的装置,其特征在于,所述意图信息和词槽信息获取模块,包括:
候选意图信息及置信度获取子模块,用于将所述第一文本输入语义分析模型,得出多个候选意图信息及其对应的第二置信度,所述语义分析模型是自然语言理解NLU模型;
第一文本意图信息获取子模块,用于将第二置信度最高的候选意图信息作为所述第一文本的意图信息;
第一词槽信息获取子模块,用于获取所述第一文本中包括的与所述第一文本的意图信息对应的词槽信息。
11.根据权利要求8所述的装置,其特征在于,所述交互信息获取模块,包括:
意图信息和词槽信息输入子模块,用于将所述第一文本的意图信息和词槽信息输入所述对话状态机的初始节点;
对话路径筛选子模块,用于筛选出所述对话状态机中符合所述第一文本的意图信息的对话路径;
跳转节点查找子模块,用于根据所述第一文本的词槽信息,在符合所述第一文本的意图信息的对话路径中,查找需要跳转到的下一个中间节点;
交互信息返回子模块,用于利用中间节点返回交互信息。
12.根据权利要求8所述的装置,其特征在于,所述交互信息获取模块,还包括:
第二词槽信息获取子模块,用于在收到所述交互信息的应答信息的情况下,利用语义分析模型得出所述应答信息的词槽信息;
第二词槽信息输入子模块,用于将所述应答信息的词槽信息输入对话状态机的所述中间节点的下一节点。
13.根据权利要求8所述的装置,其特征在于,构建所述对话状态机包括:
训练样本意图信息获取模块,用于利用语义分析模型得出所述训练样本的意图信息;
词槽信息确定模块,用于确定所述训练样本的意图信息所对应的各词槽信息;
对话路径构建模块,用于根据意图信息所对应的各词槽信息,构建意图信息包括的对话路径。
14.根据权利要求13所述的装置,其特征在于,所述对话路径构建模块,包括:
信息提取模块,用于利用语义分析模型,提取与所述训练样本的意图信息对应的各词槽信息;
节点确定子模块,用于根据各词槽信息,确定对话状态机包括的初始节点、中间节点和结束节点;
跳转关系确定子模块,用于根据各词槽信息,确定各节点之间的跳转关系;
构建执行子模块,用于根据各节点及其之间的跳转关系,构建所述训练样本的意图信息包括的对话路径。
15.一种对话的交互装置,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的方法。
16.一种计算机可读存储介质,其存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至7中任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910666945.XA CN110377716B (zh) | 2019-07-23 | 2019-07-23 | 对话的交互方法、装置及计算机可读存储介质 |
JP2020018248A JP7150770B2 (ja) | 2019-07-23 | 2020-02-05 | 対話方法、装置、コンピュータ可読記憶媒体、及びプログラム |
US16/797,497 US11322153B2 (en) | 2019-07-23 | 2020-02-21 | Conversation interaction method, apparatus and computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910666945.XA CN110377716B (zh) | 2019-07-23 | 2019-07-23 | 对话的交互方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110377716A true CN110377716A (zh) | 2019-10-25 |
CN110377716B CN110377716B (zh) | 2022-07-12 |
Family
ID=68255023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910666945.XA Active CN110377716B (zh) | 2019-07-23 | 2019-07-23 | 对话的交互方法、装置及计算机可读存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11322153B2 (zh) |
JP (1) | JP7150770B2 (zh) |
CN (1) | CN110377716B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110706707A (zh) * | 2019-11-13 | 2020-01-17 | 百度在线网络技术(北京)有限公司 | 用于语音交互的方法、装置、设备和计算机可读存储介质 |
CN110909541A (zh) * | 2019-11-08 | 2020-03-24 | 杭州依图医疗技术有限公司 | 指令生成方法、系统、设备和介质 |
CN110910866A (zh) * | 2019-11-28 | 2020-03-24 | 出门问问信息科技有限公司 | 一种对话处理方法、设备及计算机可读存储介质 |
CN111104502A (zh) * | 2019-12-24 | 2020-05-05 | 携程计算机技术(上海)有限公司 | 外呼系统的对话管理方法、系统、电子设备和存储介质 |
CN111104495A (zh) * | 2019-11-19 | 2020-05-05 | 深圳追一科技有限公司 | 基于意图识别的信息交互方法、装置、设备和存储介质 |
CN111198937A (zh) * | 2019-12-02 | 2020-05-26 | 泰康保险集团股份有限公司 | 对话生成及装置、计算机可读存储介质、电子设备 |
CN111488447A (zh) * | 2020-04-16 | 2020-08-04 | 上海茂声智能科技有限公司 | 一种意图节点跳转方法、装置和跳转设备 |
CN111524533A (zh) * | 2020-03-02 | 2020-08-11 | 北京声智科技有限公司 | 语音操作方法、装置、电子设备及存储介质 |
CN111597808A (zh) * | 2020-04-24 | 2020-08-28 | 北京百度网讯科技有限公司 | 仪表盘绘制处理方法、装置、电子设备和存储介质 |
CN111612482A (zh) * | 2020-05-22 | 2020-09-01 | 云知声智能科技股份有限公司 | 对话管理方法、装置和设备 |
CN111710336A (zh) * | 2020-06-05 | 2020-09-25 | 平安科技(深圳)有限公司 | 语音的意图识别方法、装置、计算机设备及存储介质 |
CN111881271A (zh) * | 2020-07-08 | 2020-11-03 | 泰康保险集团股份有限公司 | 一种实现自动对话的方法和装置 |
CN112017647A (zh) * | 2020-09-04 | 2020-12-01 | 北京蓦然认知科技有限公司 | 一种结合语义的语音识别方法、装置和系统 |
CN112015880A (zh) * | 2020-10-23 | 2020-12-01 | 和美(深圳)信息技术股份有限公司 | 智能机器人的人机对话流程自动流转方法及系统 |
CN112015881A (zh) * | 2020-10-23 | 2020-12-01 | 和美(深圳)信息技术股份有限公司 | 智能机器人的人机对话流程自动切换方法及系统 |
CN112148847A (zh) * | 2020-08-27 | 2020-12-29 | 出门问问(苏州)信息科技有限公司 | 一种语音信息的处理方法及装置 |
CN113032661A (zh) * | 2019-12-09 | 2021-06-25 | 北京搜狗科技发展有限公司 | 一种信息交互方法及装置 |
CN113535923A (zh) * | 2021-07-26 | 2021-10-22 | 未鲲(上海)科技服务有限公司 | 一种人机交互方法、装置、终端设备及存储介质 |
CN115497465A (zh) * | 2022-09-06 | 2022-12-20 | 平安银行股份有限公司 | 语音交互方法、装置、电子设备和存储介质 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111782965B (zh) * | 2020-06-29 | 2023-08-11 | 北京百度网讯科技有限公司 | 意图推荐方法、装置、设备及存储介质 |
CN112926313B (zh) * | 2021-03-10 | 2023-08-15 | 新华智云科技有限公司 | 一种槽位信息的提取方法与系统 |
WO2022198365A1 (zh) * | 2021-03-22 | 2022-09-29 | 华为技术有限公司 | 一种语音控制方法及装置 |
CN113157939B (zh) * | 2021-03-26 | 2024-08-27 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN112949263A (zh) * | 2021-04-15 | 2021-06-11 | 北京小米移动软件有限公司 | 文本调整方法、装置、电子设备和存储介质 |
JP7295445B2 (ja) * | 2021-06-10 | 2023-06-21 | 富士通クライアントコンピューティング株式会社 | 情報処理装置およびプログラム |
CN113362827B (zh) * | 2021-06-24 | 2024-02-13 | 上海风和雨网络科技有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
CN113793597A (zh) * | 2021-09-15 | 2021-12-14 | 云知声智能科技股份有限公司 | 一种语音识别方法、装置、电子设备和存储介质 |
CN114005447A (zh) * | 2021-11-15 | 2022-02-01 | 中国第一汽车股份有限公司 | 一种语音对话交互方法、装置、车辆及介质 |
CN114265505A (zh) * | 2021-12-27 | 2022-04-01 | 中国电信股份有限公司 | 人机交互处理方法、装置、存储介质及电子设备 |
CN114676244B (zh) * | 2022-05-27 | 2023-01-24 | 深圳市人马互动科技有限公司 | 信息处理方法、信息处理装置以及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8027745B1 (en) * | 2005-03-01 | 2011-09-27 | Electrical Controls, Inc. | Non-linear, animated, interactive assembly guide and method for controlling production |
CN105589848A (zh) * | 2015-12-28 | 2016-05-18 | 百度在线网络技术(北京)有限公司 | 对话管理方法和装置 |
CN107463301A (zh) * | 2017-06-28 | 2017-12-12 | 北京百度网讯科技有限公司 | 基于人工智能的对话系统构建方法、装置、设备及计算机可读存储介质 |
CN108804536A (zh) * | 2018-05-04 | 2018-11-13 | 科沃斯商用机器人有限公司 | 人机对话与策略生成方法、设备、系统及存储介质 |
CN109003605A (zh) * | 2018-07-02 | 2018-12-14 | 北京百度网讯科技有限公司 | 智能语音交互处理方法、装置、设备及存储介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7606714B2 (en) | 2003-02-11 | 2009-10-20 | Microsoft Corporation | Natural language classification within an automated response system |
JP2004334193A (ja) | 2003-05-01 | 2004-11-25 | Microsoft Corp | 音声認識および自然言語理解のための複合統計/ルール・ベース文法モデルを有するシステム |
JP2008234443A (ja) | 2007-03-22 | 2008-10-02 | Matsushita Electric Ind Co Ltd | 情報処理装置 |
US8812323B2 (en) | 2007-10-11 | 2014-08-19 | Agency For Science, Technology And Research | Dialogue system and a method for executing a fully mixed initiative dialogue (FMID) interaction between a human and a machine |
JP5149737B2 (ja) | 2008-08-20 | 2013-02-20 | 株式会社ユニバーサルエンターテインメント | 自動会話システム、並びに会話シナリオ編集装置 |
US20160163314A1 (en) * | 2013-11-25 | 2016-06-09 | Mitsubishi Electric Corporation | Dialog management system and dialog management method |
JP2015133047A (ja) * | 2014-01-15 | 2015-07-23 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
DE112014007123T5 (de) | 2014-10-30 | 2017-07-20 | Mitsubishi Electric Corporation | Dialogsteuersystem und Dialogsteuerverfahren |
US20160202957A1 (en) | 2015-01-13 | 2016-07-14 | Microsoft Technology Licensing, Llc | Reactive agent development environment |
EP3384488B1 (en) | 2015-12-01 | 2022-10-12 | Fluent.ai Inc. | System and method for implementing a vocal user interface by combining a speech to text system and a speech to intent system |
CN105845137B (zh) | 2016-03-18 | 2019-08-23 | 中国科学院声学研究所 | 一种语音对话管理系统 |
KR20180058476A (ko) | 2016-11-24 | 2018-06-01 | 삼성전자주식회사 | 다양한 입력 처리를 위한 방법, 이를 위한 전자 장치 및 서버 |
US10503468B2 (en) * | 2017-12-08 | 2019-12-10 | Amazon Technologies, Inc. | Voice enabling applications |
CN108197115B (zh) * | 2018-01-26 | 2022-04-22 | 上海智臻智能网络科技股份有限公司 | 智能交互方法、装置、计算机设备和计算机可读存储介质 |
KR102508863B1 (ko) * | 2018-03-19 | 2023-03-10 | 삼성전자 주식회사 | 전자 장치 및 상기 전자 장치로부터 수신된 데이터를 처리하는 서버 |
KR20200013152A (ko) * | 2018-07-18 | 2020-02-06 | 삼성전자주식회사 | 이전에 대화를 수집한 결과를 기반으로 인공 지능 서비스를 제공하는 전자 장치 및 방법 |
CN110222162A (zh) | 2019-05-10 | 2019-09-10 | 天津中科智能识别产业技术研究院有限公司 | 一种基于自然语言处理和知识图谱的智能问答方法 |
-
2019
- 2019-07-23 CN CN201910666945.XA patent/CN110377716B/zh active Active
-
2020
- 2020-02-05 JP JP2020018248A patent/JP7150770B2/ja active Active
- 2020-02-21 US US16/797,497 patent/US11322153B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8027745B1 (en) * | 2005-03-01 | 2011-09-27 | Electrical Controls, Inc. | Non-linear, animated, interactive assembly guide and method for controlling production |
CN105589848A (zh) * | 2015-12-28 | 2016-05-18 | 百度在线网络技术(北京)有限公司 | 对话管理方法和装置 |
CN107463301A (zh) * | 2017-06-28 | 2017-12-12 | 北京百度网讯科技有限公司 | 基于人工智能的对话系统构建方法、装置、设备及计算机可读存储介质 |
CN108804536A (zh) * | 2018-05-04 | 2018-11-13 | 科沃斯商用机器人有限公司 | 人机对话与策略生成方法、设备、系统及存储介质 |
CN109003605A (zh) * | 2018-07-02 | 2018-12-14 | 北京百度网讯科技有限公司 | 智能语音交互处理方法、装置、设备及存储介质 |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110909541A (zh) * | 2019-11-08 | 2020-03-24 | 杭州依图医疗技术有限公司 | 指令生成方法、系统、设备和介质 |
US11393490B2 (en) | 2019-11-13 | 2022-07-19 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus, device and computer-readable storage medium for voice interaction |
CN110706707A (zh) * | 2019-11-13 | 2020-01-17 | 百度在线网络技术(北京)有限公司 | 用于语音交互的方法、装置、设备和计算机可读存储介质 |
CN111104495A (zh) * | 2019-11-19 | 2020-05-05 | 深圳追一科技有限公司 | 基于意图识别的信息交互方法、装置、设备和存储介质 |
CN111104495B (zh) * | 2019-11-19 | 2023-07-28 | 深圳追一科技有限公司 | 基于意图识别的信息交互方法、装置、设备和存储介质 |
CN110910866B (zh) * | 2019-11-28 | 2022-07-29 | 出门问问创新科技有限公司 | 一种对话处理方法、设备及计算机可读存储介质 |
CN110910866A (zh) * | 2019-11-28 | 2020-03-24 | 出门问问信息科技有限公司 | 一种对话处理方法、设备及计算机可读存储介质 |
CN111198937A (zh) * | 2019-12-02 | 2020-05-26 | 泰康保险集团股份有限公司 | 对话生成及装置、计算机可读存储介质、电子设备 |
CN113032661B (zh) * | 2019-12-09 | 2024-07-23 | 北京搜狗科技发展有限公司 | 一种信息交互方法及装置 |
CN113032661A (zh) * | 2019-12-09 | 2021-06-25 | 北京搜狗科技发展有限公司 | 一种信息交互方法及装置 |
CN111104502A (zh) * | 2019-12-24 | 2020-05-05 | 携程计算机技术(上海)有限公司 | 外呼系统的对话管理方法、系统、电子设备和存储介质 |
CN111524533A (zh) * | 2020-03-02 | 2020-08-11 | 北京声智科技有限公司 | 语音操作方法、装置、电子设备及存储介质 |
CN111524533B (zh) * | 2020-03-02 | 2023-12-08 | 北京声智科技有限公司 | 语音操作方法、装置、电子设备及存储介质 |
CN111488447B (zh) * | 2020-04-16 | 2023-06-13 | 上海茂声智能科技有限公司 | 一种意图节点跳转方法、装置和跳转设备 |
CN111488447A (zh) * | 2020-04-16 | 2020-08-04 | 上海茂声智能科技有限公司 | 一种意图节点跳转方法、装置和跳转设备 |
CN111597808A (zh) * | 2020-04-24 | 2020-08-28 | 北京百度网讯科技有限公司 | 仪表盘绘制处理方法、装置、电子设备和存储介质 |
CN111612482A (zh) * | 2020-05-22 | 2020-09-01 | 云知声智能科技股份有限公司 | 对话管理方法、装置和设备 |
CN111710336A (zh) * | 2020-06-05 | 2020-09-25 | 平安科技(深圳)有限公司 | 语音的意图识别方法、装置、计算机设备及存储介质 |
CN111710336B (zh) * | 2020-06-05 | 2023-05-26 | 平安科技(深圳)有限公司 | 语音的意图识别方法、装置、计算机设备及存储介质 |
CN111881271A (zh) * | 2020-07-08 | 2020-11-03 | 泰康保险集团股份有限公司 | 一种实现自动对话的方法和装置 |
CN112148847B (zh) * | 2020-08-27 | 2024-03-12 | 出门问问创新科技有限公司 | 一种语音信息的处理方法及装置 |
CN112148847A (zh) * | 2020-08-27 | 2020-12-29 | 出门问问(苏州)信息科技有限公司 | 一种语音信息的处理方法及装置 |
CN112017647B (zh) * | 2020-09-04 | 2024-05-03 | 深圳海冰科技有限公司 | 一种结合语义的语音识别方法、装置和系统 |
CN112017647A (zh) * | 2020-09-04 | 2020-12-01 | 北京蓦然认知科技有限公司 | 一种结合语义的语音识别方法、装置和系统 |
CN112015881A (zh) * | 2020-10-23 | 2020-12-01 | 和美(深圳)信息技术股份有限公司 | 智能机器人的人机对话流程自动切换方法及系统 |
CN112015881B (zh) * | 2020-10-23 | 2021-02-19 | 和美(深圳)信息技术股份有限公司 | 智能机器人的人机对话流程自动切换方法及系统 |
CN112015880A (zh) * | 2020-10-23 | 2020-12-01 | 和美(深圳)信息技术股份有限公司 | 智能机器人的人机对话流程自动流转方法及系统 |
CN113535923A (zh) * | 2021-07-26 | 2021-10-22 | 未鲲(上海)科技服务有限公司 | 一种人机交互方法、装置、终端设备及存储介质 |
CN115497465A (zh) * | 2022-09-06 | 2022-12-20 | 平安银行股份有限公司 | 语音交互方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2021018797A (ja) | 2021-02-15 |
US11322153B2 (en) | 2022-05-03 |
JP7150770B2 (ja) | 2022-10-11 |
US20210027788A1 (en) | 2021-01-28 |
CN110377716B (zh) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110377716A (zh) | 对话的交互方法、装置及计算机可读存储介质 | |
CN1975858B (zh) | 会话控制装置 | |
CN103065630B (zh) | 用户个性化信息语音识别方法及系统 | |
CN110489538A (zh) | 基于人工智能的语句应答方法、装置及电子设备 | |
CN108711420A (zh) | 多语言混杂模型建立、数据获取方法及装置、电子设备 | |
CN112799747A (zh) | 智能助理评价、推荐方法、系统、终端及可读存储介质 | |
CN110287461A (zh) | 文本转换方法、装置及存储介质 | |
CN112182229A (zh) | 一种文本分类模型构建方法、文本分类方法及装置 | |
CN108447471A (zh) | 语音识别方法及语音识别装置 | |
CN112948534A (zh) | 一种智能人机对话的交互方法、系统和电子设备 | |
CN108682420A (zh) | 一种音视频通话方言识别方法及终端设备 | |
CN110580516B (zh) | 一种基于智能机器人的交互方法及装置 | |
CN106844341A (zh) | 基于人工智能的新闻摘要提取方法及装置 | |
CN110187780A (zh) | 长文本预测方法、装置、设备和存储介质 | |
CN110189751A (zh) | 语音处理方法及设备 | |
CN110245216A (zh) | 用于问答系统的语义匹配方法、装置、设备及存储介质 | |
CN105161095A (zh) | 语音识别语法树的构图方法及装置 | |
CN110175242B (zh) | 基于知识图谱的人机交互联想方法、装置及介质 | |
Sabharwal et al. | Developing Cognitive Bots Using the IBM Watson Engine: Practical, Hands-on Guide to Developing Complex Cognitive Bots Using the IBM Watson Platform | |
CN108846125A (zh) | 对话生成方法、装置、终端和计算机可读存储介质 | |
CN112885338B (zh) | 语音识别方法、设备、计算机可读存储介质及程序产品 | |
CN110246494A (zh) | 基于语音识别的服务请求方法、装置及计算机设备 | |
CN115525740A (zh) | 对话应答语句的生成方法、装置、电子设备及存储介质 | |
CN111161706A (zh) | 交互方法、装置、设备和系统 | |
CN111739518B (zh) | 音频的识别方法和装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210507 Address after: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant after: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd. Applicant after: Shanghai Xiaodu Technology Co.,Ltd. Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing Applicant before: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |