CN104407834A - 信息输入方法和装置 - Google Patents
信息输入方法和装置 Download PDFInfo
- Publication number
- CN104407834A CN104407834A CN201410647418.1A CN201410647418A CN104407834A CN 104407834 A CN104407834 A CN 104407834A CN 201410647418 A CN201410647418 A CN 201410647418A CN 104407834 A CN104407834 A CN 104407834A
- Authority
- CN
- China
- Prior art keywords
- speech recognition
- speech
- user
- recognition database
- text message
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Telephonic Communication Services (AREA)
Abstract
本发明涉及一种信息输入方法和装置。所述方法包括以下步骤:接收输入的语音信息;将所述语音信息转化为文本信息;识别所述语音信息中的语气助词;获取与所述语气助词相对应的表情;将所述表情添加到所述文本信息中;输出所述文本信息。上述信息输入方法和装置,通过将接收的语音信息识别转化为文本信息,对语音信息中的语气助词进行识别,获取到与语气助词相应的表情,将表情添加到文本信息中,提高了对语音识别的准确性,并输出显示,应用于键盘和鼠标正被使用进行操控的场景中,提高了信息输入的便捷性,且不影响键盘和鼠标的操控,且将语音信息识别为文本信息,因数据量小,降低了对网络带宽的要求,节省了数据流量。
Description
技术领域
本发明涉及网络通信技术,特别是涉及一种信息输入方法和装置。
背景技术
随着网络技术的发展,越来越多的人通过网络通信进行交流。在网络通信交流中需要输入文字信息,由此产生了各种输入法。通过输入法输入文本信息依赖于键盘和鼠标。
而在某些场景下,例如游戏中,需要使用键盘和鼠标进行游戏控制,若需要输入文本信息,则需要打断当前的游戏控制,将键盘鼠标切换到聊天系统进行文本信息输入,给用户操作带来不便,且影响了游戏数据的流畅性。
发明内容
基于此,有必要针对键盘和鼠标已被使用切换入聊天系统进行信息输入而导致操作不方便的问题,提供一种信息输入方法,不需进行键盘和鼠标的切换操作,操作简便。
此外,还有必要提供一种信息输入装置。
一种信息输入方法,包括以下步骤:
接收输入的语音信息;
将所述语音信息转化为文本信息;
识别所述语音信息中的语气助词;
获取与所述语气助词相对应的表情;
将所述表情添加到所述文本信息中;
输出所述文本信息。
一种信息输入装置,包括:
接收模块,用于接收输入的语音信息;
识别模块,用于将所述语音信息转化为文本信息,并识别所述语音信息中的语气助词;
获取模块,用于获取与所述语气助词相对应的表情;
添加模块,用于将所述表情添加到所述文本信息中;
输出模块,用于输出所述文本信息。
上述信息输入方法和装置,通过将接收的语音信息识别转化为文本信息,对语音信息中的语气助词进行识别,获取到与语气助词相应的表情,将表情添加到文本信息中,提高了对语音识别的准确性,并输出显示,不需用户通过键盘和鼠标等输入设备切换进入聊天系统中进行输入,应用于键盘和鼠标正被使用进行操控的场景中,提高了信息输入的便捷性,且不影响键盘和鼠标的操控,且将语音信息识别为文本信息,因数据量小,降低了对网络带宽的要求,节省了数据流量。
附图说明
图1为一个实施例中信息输入方法的流程图;
图2为另一个实施例中信息输入方法的流程图;
图3为一个实施例中信息输入装置的结构示意图;
图4为另一个实施例中信息输入装置的结构示意图;
图5为又一个实施例中信息输入装置的结构示意图;
图6为图5中初始化模块的内部结构示意图;
图7为能实现本发明实施例的一个计算机系统的模块图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中信息输入方法的流程图。如图1所示,该信息输入方法,包括以下步骤:
步骤102,接收输入的语音信息。
具体的,通过麦克风或话筒等音频输入设备接收用户输入的语音信息。
在步骤102之前,上述信息输入方法还包括:语音识别系统初始化,并对语音识别系统进行校正。
具体的,启动语音识别系统,接收用户输入的测试语音,通过语音识别系统对该测试语音进行识别,根据识别结果对语音识别系统中的鼻音模型等进行校正,以提高识别准确性。对音频输入设备可进行音量调节校正,对于有较大电流声或杂音的可调整相应的参数,如混音参数等。
在一个实施例中,该语音识别系统初始化,并对语音识别系统进行校正的步骤包括(1)至(4),具体如下:
(1)获取用户标识和用户地理位置信息。
具体的,用户标识包括用户的即时通讯账号或用户登录账号等,用户地理位置信息可根据用户登录的IP(Internet Protocol,网际协议)地址确定或登录账号所使用的终端中的定位系统获取的地理位置信息。
(2)根据该用户标识和用户地理位置信息判断是否为第一次使用语音识别功能。
(3)若为第一次使用语音识别功能,则根据该用户标识和用户地理位置信息获取相应的预先建立的地区语音识别数据库,并创建与该用户标识所对应的个人语音识别数据库,接收测试语音信息,根据该地区语音识别数据库对该测试语音进行识别,若识别错误率超过预设阈值,则从云平台获取与该测试语音相对应的地区语音识别数据库,并记录在与该用户标识所对应的个人语音识别数据库中,若识别错误率未超过预设阈值,则根据测试语音对该地区语音识别数据库进行校正。
个人语音识别数据库中可记录用户的个人发音数据、使用频率较高的词汇、以及包含历史的纠错结果等,例如浊音舌音不清等数据。该测试语音信息可为用户阅读预先提供的词句产生的语音信息。采用预先获取的地区语音识别数据库对测试语音进行识别,若识别错误率超过预设阈值,则表示该地区语音识别数据库与用户的语音习惯差别很大,则将该测试语音上传到云平台,由云平台查找到与该测试语音匹配的地区语音识别数据库。
地区语音识别数据库是通过按照地区采集若干用户的语音信息进行聚类分析建立的。采集用户标识所对应的个人信息,从个人信息中获取用户标识所在的地区,采集用户的语音信息作为训练样本,采用训练样本进行训练建立地区语音识别模型,从而建立地区语音识别数据库。然后通过不断的采集用户的语音信息并进行识别累积完善该地区语音识别数据库。此外,还可对地区语音识别数据库中的语音识别进行修正,统计同类型的修正,当同类型的修正数量超过数量阈值,则将修正添加到地区语音识别数据库中。
(4)若不为第一次使用语音识别功能,则获取与该用户标识对应的历史语音识别数据库。该历史语音识别数据库可包括以前使用的地区语音识别数据库和/或个人语音识别数据库。
在步骤(4)之后,还可包括:接收该用户标识对应的测试语音信息,提取该测试语音信息中的声线指纹;将该测试语音信息中的声线指纹与该历史语音识别数据库中的声线指纹进行对比,若不同,则将该用户标识作为第一次使用语音识别功能,根据该用户标识和用户地理位置信息获取相应的预先建立的地区语音识别数据库,并创建与该用户标识所对应的个人语音识别数据库,接收测试语音信息,根据该地区语音识别数据库对该测试语音进行识别,若识别错误率超过预设阈值,则从云平台获取与该测试语音相对应的地区语音识别数据库,并记录在与该用户标识所对应的个人语音识别数据库中,若识别错误率未超过预设阈值,则根据测试语音对该地区语音识别数据库进行校正。
步骤104,将该语音信息转化为文本信息,并识别该语音信息中的语气助词。
本实施例中,将该语音信息转化为文本信息的步骤包括:当处于连接外网状态时,将该语音信息上传到云平台,并接收该云平台根据该语音信息转化后的文本信息。
具体的,将语音信息压缩打包,然后上传到云平台,由云平台对语音信息进行识别转化为文本信息。云平台是指由多台计算机组成的用以提供语音识别服务的网络平台。
将该语音信息转化为文本信息的步骤包括:当处于未连接外网状态时,在本地对该语音信息进行识别,并转化为文本信息。具体的,在本地安装有对语音进行识别的应用程序,且存储有识别语音的数据库。
将该语音信息转化为文本信息的步骤包括:
(1)若不为第一次使用语音识别功能,则调用历史语音识别数据库将该语音信息转化为文本信息;
(2)若为第一次使用语音识别功能且识别错误率未超过预设阈值,则调用校正后的地区语音识别数据库结合个人语音识别数据库将该语音信息转化为文本信息;
该个人语音识别数据库中未包含测试语音所对应的地区语音识别数据库。
(3)若为第一次使用语音识别功能且识别错误率超过预设阈值,则调用记录了测试语音对应的地区语音识别数据库的个人语音识别数据库将该语音信息转化为文本信息。
用户输入语音时,有时语音中含有较为强烈的语气助词,例如“啊!”“吗?”等。识别出语音信息中的语气助词。
步骤106,获取与该语气助词相对应的表情。
首先,预先建立语气助词和表情的对应关系。步骤106包括:根据该语气助词从所述预先建立语气助词和表情的对应关系中获取该语气助词所对应的表情。该预先建立的语气助词与表情的对应关系可定期更新,也可根据需要进行更新。该语气助词与表情的对应关系可存储在服务器上。第一次使用时,可从服务器下载语气助词与表情的对应关系到本地,以后可定期进行更新。
此外,该语气助词与表情的对应关系可根据用户的个人信息进行更新,采集用户使用常用的语气助词,获取表达该语气助词的表情,将该语气助词和表情建立对应关系,并存储。对识别的语气助词可进行纠错处理。
步骤108,将该表情添加到该文本信息中。
步骤110,输出该文本信息。
具体的,通过调用聊天接口,将语音识别后的文本信息输出。
上述信息输入方法,通过将接收的语音信息识别转化为文本信息,对语音信息中的语气助词进行识别,获取到与语气助词相应的表情,将表情添加到文本信息中,提高了对语音识别的准确性,并输出显示,不需用户通过键盘和鼠标等输入设备切换进入聊天系统中进行输入,应用于键盘和鼠标正被使用进行操控的场景中,提高了信息输入的便捷性,且不影响键盘和鼠标的操控,将语音信息识别为文本信息,因数据量小,降低了对网络带宽的要求,节省了数据流量。
图2为另一个实施例中信息输入方法的流程图。如图2所示,该信息输入方法包括以下步骤:
步骤202,接收输入的语音信息。
具体的,通过麦克风或话筒等音频输入设备接收用户输入的语音信息。
在步骤202之前,上述信息输入方法还包括:语音识别系统初始化,并对语音识别系统进行校正。
步骤204,将该语音信息转化为文本信息,并识别该语音信息中的语气助词。
本实施例中,步将该语音信息转化为文本信息的步骤包括:当处于连接外网状态时,将该语音信息上传到云平台,并接收该云平台根据该语音信息转化后的文本信息。
具体的,将语音信息压缩打包,然后上传到云平台,由云平台对语音信息进行识别转化为文本信息。云平台是指由多台计算机组成的用以提供语音识别服务的网络平台。
将该语音信息转化为文本信息的步骤包括:当处于未连接外网状态时,在本地对该语音信息进行识别,并转化为文本信息。具体的,在本地安装有对语音进行识别的应用程序,且存储有识别语音的数据库。
用户输入语音时,有时语音中含有较为强烈的语气助词,例如“啊!”“吗?”等。
步骤206,获取与该语气助词相对应的表情。
首先,预先建立语气助词和表情的对应关系。步骤206包括:根据该语气助词从所述预先建立语气助词和表情的对应关系中获取该语气助词所对应的表情。该预先建立的语气助词与表情的对应关系可定期更新,也可根据需要进行更新。该语气助词与表情的对应关系可存储在服务器上。第一次使用时,可从服务器下载语气助词与表情的对应关系到本地,以后可定期进行更新。
此外,该语气助词与表情的对应关系可根据用户的个人信息进行更新,采集用户使用常用的语气助词,获取表达该语气助词的表情,将该语气助词和表情建立对应关系,并存储。对识别的语气助词可进行纠错处理。
步骤208,将该表情添加到该文本信息中。
步骤210,对该文本信息进行纠错处理。
具体的,对文本信息进行纠错主要是对同音字进行识别纠错和/或一些方言词语的错误识别进行纠错。可采用词汇联想和同音词识别模型进行纠错。也可搜集用户使用输入法的历史数据、使用搜索引擎或论坛或聊天系统等的历史数据等,作为纠错训练样本进行训练,建立识别纠错模型,然后采用识别纠错模型对文本信息进行纠错处理。
步骤212,输出该文本信息。
具体的,该输出的文本信息中带有表情且进行了纠错处理,能更加准确的表达用户的意思。
上述信息输入方法,通过对接收的语音信息进行识别转化为文本信息,对语音信息中的语气助词进行识别,获取到与语气助词相应的表情,将表情添加到文本信息中,提高了对语音识别的准确性,且对文本信息进行纠错处理,进一步提高了语音识别的准确性,再者不需用户通过键盘和鼠标等输入设备切换进入聊天系统中进行输入,应用于键盘和鼠标正被使用进行操控的场景中,提高了信息输入的便捷性,且不影响键盘和鼠标的操控。此外,因将语音信息识别为文本信息,避免了直接语音交流中音量或杂音等产生的语音信息不清楚以及语音信息传输对网络要求高的;将语音信息识别为文本信息,提高了信息输入的准确性,因数据量小,降低了对网络带宽的要求,节省了数据流量。
此外,在其他实施例中,步骤210可在步骤204之后,步骤206之前。
图3为一个实施例中信息输入装置的结构示意图。如图3所示,该信息输入装置,包括接收模块310、识别模块320、获取模块330、添加模块340和输出模块350。其中:
接收模块310用于接收输入的语音信息。具体的,通过麦克风或话筒等音频输入设备接收用户输入的语音信息。
识别模块320用于将该语音信息转化为文本信息,并识别该语音信息中的语气助词。
该识别模块320还用于当处于连接外网状态时,将该语音信息上传到云平台,并接收该云平台根据该语音信息转化后的文本信息;以及当处于未连接外网状态时,在本地对该语音信息进行识别,并转化为文本信息。具体的,将语音信息压缩打包,然后上传到云平台,由云平台对语音信息进行识别转化为文本信息。云平台是指由多台计算机组成的用以提供语音识别服务的网络平台。在本地安装有对语音进行识别的应用程序,且存储有识别语音的数据库。
用户输入语音时,有时语音中含有较为强烈的语气助词,例如“啊!”“吗?”等。识别模块320识别出语音信息中的语气助词。对识别的语气助词可进行纠错处理。
获取模块330用于获取与该语气助词相对应的表情。
添加模块340用于将该表情添加到该文本信息中。
输出模块350用于输出该文本信息。具体的,通过调用聊天接口,将语音识别后的文本信息输出。
上述信息输入装置,通过将接收的语音信息识别转化为文本信息,对语音信息中的语气助词进行识别,获取到与语气助词相应的表情,将表情添加到文本信息中,提高了对语音识别的准确性,并输出显示,不需用户通过键盘和鼠标等输入设备切换进入聊天系统中进行输入,应用于键盘和鼠标正被使用进行操控的场景中,提高了信息输入的便捷性,且不影响键盘和鼠标的操控,将语音信息识别为文本信息,因数据量小,降低了对网络带宽的要求,节省了数据流量。
图4为另一个实施例中信息输入装置的结构示意图。如图4所示,该信息输入装置,除了包括接收模块310、识别模块320、获取模块330、添加模块340和输出模块350,还包括关联模块322和纠错模块342。其中:
关联模块322用于预先建立语气助词和表情的对应关系。该预先建立的语气助词与表情的对应关系可定期更新,也可根据需要进行更新。该语气助词与表情的对应关系可存储在服务器上。第一次使用时,可从服务器下载语气助词与表情的对应关系到本地,以后可定期进行更新。此外,该语气助词与表情的对应关系可根据用户的个人信息进行更新,采集用户使用常用的语气助词,获取表达该语气助词的表情,将该语气助词和表情建立对应关系,并存储。对识别的语气助词可进行纠错处理。
获取模块330还用于根据该语气助词从该预先建立语气助词和表情的对应关系中获取该语气助词所对应的表情。
纠错模块342用于在该添加模块340将表情添加到文本信息中之后,对该文本信息进行纠错处理。
具体的,对文本信息进行纠错主要是对同音字进行识别纠错和/或一些方言词语的错误识别进行纠错。可采用词汇联想和同音词识别模型进行纠错。也可搜集用户使用输入法的历史数据、使用搜索引擎或论坛或聊天系统等的历史数据等,作为纠错训练样本进行训练,建立识别纠错模型,然后采用识别纠错模型对文本信息进行纠错处理。
输出模块350还用于输出纠错后的文本信息。
上述信息输入装置,通过对接收的语音信息进行识别转化为文本信息,对语音信息中的语气助词进行识别,获取到与语气助词相应的表情,将表情添加到文本信息中,提高了对语音识别的准确性,且对文本信息进行纠错处理,进一步提高了语音识别的准确性,再者不需用户通过键盘和鼠标等输入设备切换进入聊天系统中进行输入,应用于键盘和鼠标正被使用进行操控的场景中,提高了信息输入的便捷性,且不影响键盘和鼠标的操控。此外,因将语音信息识别为文本信息,避免了直接语音交流中音量或杂音等产生的语音信息不清楚以及语音信息传输对网络要求高的;将语音信息识别为文本信息,提高了信息输入的准确性,因数据量小,降低了对网络带宽的要求,节省了数据流量。
图5为又一个实施例中信息输入装置的结构示意图。如图5所示,该信息输入装置,除了包括接收模块310、识别模块320、获取模块330、添加模块340和输出模块350,还包括初始化模块302。其中:
初始化模块302用于在该接收输入的语音信息之前,语音识别系统初始化,并对语音识别系统进行校正。
具体的,启动语音识别系统,接收用户输入的测试语音,通过语音识别系统对该测试语音进行识别,根据识别结果对语音识别系统中的鼻音模型等进行校正,以提高识别准确性。对音频输入设备可进行音量调节校正,对于有较大电流声或杂音的可调整相应的参数,如混音参数等。
图6所示,初始化模块302包括获取单元3022、判断单元3024、接收单元3026、识别单元3028和校正单元3029。其中:
获取单元3022用于获取用户标识和用户地理位置信息。具体的,用户标识包括用户的即时通讯账号或用户登录账号等,用户地理位置信息可根据用户登录的IP地址确定或登录账号所使用的终端中的定位系统获取的地理位置信息。
判断单元3024用于根据该用户标识和用户地理位置信息判断是否为第一次使用语音识别功能。
获取单元3022还用于若为第一次使用语音识别功能,则根据该用户标识和用户地理位置信息获取相应的预先建立的地区语音识别数据库,并创建与该用户标识所对应的个人语音识别数据库,以及若不为第一次使用语音识别功能,则获取与该用户标识对应的历史语音识别数据库。
接收单元3026用于接收测试语音信息。
识别单元3028用于根据该地区语音识别数据库对该测试语音进行识别。
个人语音识别数据库中可记录用户的个人发音数据、使用频率较高的词汇、以及包含历史的纠错结果等,例如浊音舌音不清等数据。该测试语音信息可为用户阅读预先提供的词句产生的语音信息。采用预先获取的地区语音识别数据库对测试语音进行识别,若识别错误率超过预设阈值,则表示该地区语音识别数据库与用户的语音习惯差别很大,则将该测试语音上传到云平台,由云平台查找到与该测试语音匹配的地区语音识别数据库。
地区语音识别数据库是通过按照地区采集若干用户的语音信息进行聚类分析建立的。采集用户标识所对应的个人信息,从个人信息中获取用户标识所在的地区,采集用户的语音信息作为训练样本,采用训练样本进行训练建立地区语音识别模型,从而建立地区语音识别数据库。然后通过不断的采集用户的语音信息并进行识别累积完善该地区语音识别数据库。此外,还可对地区语音识别数据库中的语音识别进行修正,统计同类型的修正,当同类型的修正数量超过数量阈值,则将修正添加到地区语音识别数据库中。
获取单元3022还用于若识别错误率超过预设阈值,则从云平台获取与该测试语音相对应的地区语音识别数据库,并记录在与该用户标识所对应的个人语音识别数据库中。
校正单元3029用于若识别错误率未超过预设阈值,根据测试语音对该地区语音识别数据库进行校正。
接收单元3026还用于在获取单元3022获取与该用户标识对应的历史语音识别数据库之后,接收该用户标识对应的测试语音信息,提取该测试语音信息中的声线指纹。
判断单元3024还用于将该测试语音信息中的声线指纹与该历史语音识别数据库中的声线指纹进行对比。
获取单元3022还用于当该测试语音信息中的声线指纹与该历史语音识别数据库中的声线指纹不同时,将该用户标识作为第一次使用语音识别功能,根据该用户标识和用户地理位置信息获取相应的预先建立的地区语音识别数据库,并创建与该用户标识所对应的个人语音识别数据库。然后再由判断单元3024用于根据该用户标识和用户地理位置信息判断是否为第一次使用语音识别功能。获取单元3022还用于若为第一次使用语音识别功能,则根据该用户标识和用户地理位置信息获取相应的预先建立的地区语音识别数据库,并创建与该用户标识所对应的个人语音识别数据库,以及若不为第一次使用语音识别功能,则获取与该用户标识对应的历史语音识别数据库。接收单元3026用于接收测试语音信息。识别单元3028用于根据该地区语音识别数据库对该测试语音进行识别。获取单元3022还用于若识别错误率超过预设阈值,则从云平台获取与该测试语音相对应的地区语音识别数据库,并记录在与该用户标识所对应的个人语音识别数据库中。校正单元3029用于若识别错误率未超过预设阈值,根据测试语音对该地区语音识别数据库进行校正。
识别模块320还用于若不为第一次使用语音识别功能,则调用历史语音识别数据库将该语音信息转化为文本信息,并还用于若为第一次使用语音识别功能且识别错误率未超过预设阈值,则调用校正后的地区语音识别数据库结合个人语音识别数据库将该语音信息转化为文本信息,以及还用于若为第一次使用语音识别功能且识别错误率超过预设阈值,则调用记录了测试语音对应的地区语音识别数据库的个人语音识别数据库将该语音信息转化为文本信息。
在其他实施例中,该信息输入装置,包括初始化模块302、接收模块310、识别模块320、关联模块322、获取模块330、添加模块340、纠错模块342和输出模块350,还包括等所有可能的组合方式。
图7为能实现本发明实施例的一个计算机系统1000的模块图。该计算机系统1000只是一个适用于本发明的计算机环境的示例,不能认为是提出了对本发明的使用范围的任何限制。计算机系统1000也不能解释为需要依赖于或具有图示的示例性的计算机系统1000中的一个或多个部件的组合。
图7中示出的计算机系统1000是一个适合用于本发明的计算机系统的例子。具有不同子系统配置的其它架构也可以使用。例如有大众所熟知的台式机、笔记本、个人数字助理、智能电话、平板电脑等类似设备可以适用于本发明的一些实施例。但不限于以上所列举的设备。
如图7所示,计算机系统1000包括处理器1010、存储器1020和系统总线1022,还包括存储器1020和处理器1010在内的各种系统组件连接到系统总线1022上。处理器1010是一个用来通过计算机系统中基本的算术和逻辑运算来执行计算机程序指令的硬件。存储器1020是一个用于临时或永久性存储计算程序或数据(例如,程序状态信息)的物理设备。系统总线1020可以为以下几种类型的总线结构中的任意一种,包括存储器总线或存储控制器、外设总线和局部总线。处理器1010和存储器1020可以通过系统总线1022进行数据通信。其中存储器1020包括只读存储器(ROM)或闪存(图中都未示出),以及随机存取存储器(RAM),RAM通常是指加载了操作系统和应用程序的主存储器。
计算机系统1000还包括显示接口1030(例如,图形处理单元)、显示设备1040(例如,液晶显示器)、音频接口1050(例如,声卡)以及音频设备1060(例如,麦克风和扬声器)。显示设备1040和音频设备1060是用于体验多媒体内容的媒体设备。通过音频设备1060采集用户输入的语音信息。
计算机系统1000一般包括一个存储设备1070。存储设备1070可以从多种计算机可读介质中选择,计算机可读介质是指可以通过计算机系统1000访问的任何可利用的介质,包括移动的和固定的两种介质。例如,计算机可读介质包括但不限于,闪速存储器(微型SD卡),CD-ROM,数字通用光盘(DVD)或其它光盘存储、磁带盒、磁带、磁盘存储或其它磁存储设备,或者可用于存储所需信息并可由计算机系统1000访问的任何其它介质。
计算机系统1000还包括输入装置1080和输入接口1090(例如,IO控制器)。用户可以通过输入装置1080,如键盘、鼠标、显示装置1040上的触摸面板设备,输入指令和信息到计算机系统1000中。输入装置1080通常是通过输入接口1090连接到系统总线1022上的,但也可以通过其它接口或总线结构相连接,如通用串行总线(USB)。
计算机系统1000可在网络环境中与一个或者多个网络设备进行逻辑连接。网络设备可以是个人电脑、服务器、路由器、智能电话、平板电脑或者其它公共网络节点。计算机系统1000通过局域网(LAN)接口1100或者移动通信单元1110与网络设备相连接。局域网(LAN)是指在有限区域内,例如家庭、学校、计算机实验室、或者使用网络媒体的办公楼,互联组成的计算机网络。WiFi和双绞线布线以太网是最常用的构建局域网的两种技术。WiFi是一种能使计算机系统1000间交换数据或通过无线电波连接到无线网络的技术。移动通信单元1110能在一个广阔的地理区域内移动的同时通过无线电通信线路接听和拨打电话。除了通话以外,移动通信单元1110也支持在提供移动数据服务的2G,3G或4G蜂窝通信系统中进行互联网访问。
应当指出的是,其它包括比计算机系统1000更多或更少的子系统的计算机系统也能适用于发明。例如,计算机系统1000可以包括能在短距离内交换数据的蓝牙单元,用于照相的图像传感器,以及用于测量加速度的加速计。
如上面详细描述的,适用于本发明的计算机系统1000能执行信息输入方法的指定操作。计算机系统1000通过处理器1010运行在非易失性计算机可读介质中的软件指令的形式来执行这些操作。这些软件指令可以从存储设备1070或者通过局域网接口1100从另一设备读入到存储器1020中。存储在存储器1020中的软件指令使得处理器1010执行上述的信息输入方法。此外,通过硬件电路或者硬件电路结合软件指令也能同样实现本发明。因此,实现本发明并不限于任何特定硬件电路和软件的组合。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种信息输入方法,包括以下步骤:
接收输入的语音信息;
将所述语音信息转化为文本信息,并识别所述语音信息中的语气助词;
获取与所述语气助词相对应的表情;
将所述表情添加到所述文本信息中;
输出所述文本信息。
2.根据权利要求1所述的方法,其特征在于,在将所述表情添加到所述文本信息中的步骤之后,所述方法还包括:
对所述文本信息进行纠错处理。
3.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
预先建立语气助词和表情的对应关系;
所述获取与所述语气助词相对应的表情的步骤包括:
根据所述语气助词从所述预先建立语气助词和表情的对应关系中获取所述语气助词所对应的表情。
4.根据权利要求1或2所述的方法,其特征在于,在所述接收输入的语音信息的步骤之前,所述方法还包括:
语音识别系统初始化,并对语音识别系统进行校正,具体包括:
获取用户标识和用户地理位置信息;
根据所述用户标识和用户地理位置信息判断是否为第一次使用语音识别功能;
若为第一次使用语音识别功能,则根据所述用户标识和用户地理位置信息获取相应的预先建立的地区语音识别数据库,并创建与所述用户标识所对应的个人语音识别数据库,接收测试语音信息,根据所述地区语音识别数据库对所述测试语音进行识别,若识别错误率超过预设阈值,则从云平台获取与所述测试语音相对应的地区语音识别数据库,并记录在与所述用户标识所对应的个人语音识别数据库中,若识别错误率未超过预设阈值,则根据测试语音对所述地区语音识别数据库进行校正;
若不为第一次使用语音识别功能,则获取与所述用户标识对应的历史语音识别数据库;
所述将所述语音信息转化为文本信息的步骤包括:
若不为第一次使用语音识别功能,则调用历史语音识别数据库将所述语音信息转化为文本信息;
若为第一次使用语音识别功能且识别错误率未超过预设阈值,则调用校正后的地区语音识别数据库结合个人语音识别数据库将所述语音信息转化为文本信息;
若为第一次使用语音识别功能且识别错误率超过预设阈值,则调用记录了测试语音对应的地区语音识别数据库的个人语音识别数据库将所述语音信息转化为文本信息。
5.根据权利要求4所述的方法,其特征在于,在所述若不为第一次使用语音识别功能,获取与所述用户标识对应的历史语音识别数据库的步骤之后,还包括:
接收所述用户标识对应的测试语音信息,提取所述测试语音信息中的声线指纹;
将所述测试语音信息中的声线指纹与所述历史语音识别数据库中的声线指纹进行对比,若不同,则将所述用户标识作为第一次使用语音识别功能,根据所述用户标识和用户地理位置信息获取相应的预先建立的地区语音识别数据库。
6.一种信息输入装置,其特征在于,包括:
接收模块,用于接收输入的语音信息;
识别模块,用于将所述语音信息转化为文本信息,并识别所述语音信息中的语气助词;
获取模块,用于获取与所述语气助词相对应的表情;
添加模块,用于将所述表情添加到所述文本信息中;
输出模块,用于输出所述文本信息。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
纠错模块,用于在所述添加模块将所述表情添加到所述文本信息中之后,对所述文本信息进行纠错处理。
8.根据权利要求6或7所述的装置,其特征在于,所述装置还包括:
关联模块,用于预先建立语气助词和表情的对应关系;
所述获取模块还用于根据所述语气助词从所述预先建立语气助词和表情的对应关系中获取所述语气助词所对应的表情。
9.根据权利要求6或7所述的装置,其特征在于,所述装置还包括:
初始化模块,用于在所述接收输入的语音信息之前,语音识别系统初始化,并对语音识别系统进行校正,具体包括:
获取单元,用于获取用户标识和用户地理位置信息;
判断单元,用于根据所述用户标识和用户地理位置信息判断是否为第一次使用语音识别功能;
所述获取单元还用于若为第一次使用语音识别功能,则根据所述用户标识和用户地理位置信息获取相应的预先建立的地区语音识别数据库,并创建与所述用户标识所对应的个人语音识别数据库,以及若不为第一次使用语音识别功能,则获取与所述用户标识对应的历史语音识别数据库;
接收单元,用于接收测试语音信息;
识别单元,用于根据所述地区语音识别数据库对所述测试语音进行识别;
所述获取单元还用于若识别错误率超过预设阈值,则从云平台获取与所述测试语音相对应的地区语音识别数据库,并记录在与所述用户标识所对应的个人语音识别数据库中;
校正单元,用于若识别错误率未超过预设阈值,根据测试语音对所述地区语音识别数据库进行校正;
所述识别模块还用于若不为第一次使用语音识别功能,则调用历史语音识别数据库将所述语音信息转化为文本信息,并还用于若为第一次使用语音识别功能且识别错误率未超过预设阈值,则调用校正后的地区语音识别数据库结合个人语音识别数据库将所述语音信息转化为文本信息,以及还用于若为第一次使用语音识别功能且识别错误率超过预设阈值,则调用记录了测试语音对应的地区语音识别数据库的个人语音识别数据库将所述语音信息转化为文本信息。
10.根据权利要求9所述的装置,其特征在于,所述接收单元还用于在所述获取单元获取与所述用户标识对应的历史语音识别数据库之后,接收所述用户标识对应的测试语音信息,提取所述测试语音信息中的声线指纹;
所述判断单元还用于将所述测试语音信息中的声线指纹与所述历史语音识别数据库中的声线指纹进行对比;
所述获取单元还用于当所述测试语音信息中的声线指纹与所述历史语音识别数据库中的声线指纹不同时,将所述用户标识作为第一次使用语音识别功能,根据所述用户标识和用户地理位置信息获取相应的预先建立的地区语音识别数据库。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410647418.1A CN104407834A (zh) | 2014-11-13 | 2014-11-13 | 信息输入方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410647418.1A CN104407834A (zh) | 2014-11-13 | 2014-11-13 | 信息输入方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104407834A true CN104407834A (zh) | 2015-03-11 |
Family
ID=52645467
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410647418.1A Pending CN104407834A (zh) | 2014-11-13 | 2014-11-13 | 信息输入方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104407834A (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104731549A (zh) * | 2015-04-09 | 2015-06-24 | 徐敏 | 一种基于鼠标的语音识别人机交互装置及其方法 |
CN105678513A (zh) * | 2015-12-31 | 2016-06-15 | 联想(北京)有限公司 | 信息处理方法、装置及电子设备 |
CN106024014A (zh) * | 2016-05-24 | 2016-10-12 | 努比亚技术有限公司 | 一种语音转换方法、装置及移动终端 |
CN106570106A (zh) * | 2016-11-01 | 2017-04-19 | 北京百度网讯科技有限公司 | 一种输入过程中将语音信息转化为表情的方法和装置 |
CN106888158A (zh) * | 2017-02-28 | 2017-06-23 | 努比亚技术有限公司 | 一种即时通信方法和装置 |
CN106997764A (zh) * | 2016-01-26 | 2017-08-01 | 阿里巴巴集团控股有限公司 | 一种基于语音识别的即时通信方法和即时通信系统 |
CN107450746A (zh) * | 2017-08-18 | 2017-12-08 | 联想(北京)有限公司 | 一种表情符号的插入方法、装置和电子设备 |
CN107479723A (zh) * | 2017-08-18 | 2017-12-15 | 联想(北京)有限公司 | 一种表情符号的插入方法、装置和电子设备 |
CN107491251A (zh) * | 2017-08-07 | 2017-12-19 | 努比亚技术有限公司 | 移动终端及指纹控制方法 |
CN107544726A (zh) * | 2017-07-04 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音识别结果纠错方法、装置及存储介质 |
CN107731229A (zh) * | 2017-09-29 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 用于识别语音的方法和装置 |
CN107948708A (zh) * | 2017-11-14 | 2018-04-20 | 优酷网络技术(北京)有限公司 | 弹幕展示方法及装置 |
CN108231064A (zh) * | 2018-01-02 | 2018-06-29 | 联想(北京)有限公司 | 一种数据处理方法及系统 |
WO2018120945A1 (zh) * | 2016-12-28 | 2018-07-05 | 广州虎牙信息科技有限公司 | 直播客户端语音输入方法及终端设备 |
CN108447473A (zh) * | 2018-03-06 | 2018-08-24 | 深圳市沃特沃德股份有限公司 | 语音翻译方法和装置 |
CN109286726A (zh) * | 2018-10-25 | 2019-01-29 | 维沃移动通信有限公司 | 一种内容显示方法及终端设备 |
CN109637674A (zh) * | 2018-10-30 | 2019-04-16 | 北京健康有益科技有限公司 | 自动获取健康医疗问题答案的方法、系统、介质和设备 |
CN110211584A (zh) * | 2019-06-04 | 2019-09-06 | 广州小鹏汽车科技有限公司 | 车辆控制方法、装置、存储介质及控制终端 |
CN110765105A (zh) * | 2019-10-14 | 2020-02-07 | 珠海格力电器股份有限公司 | 一种唤醒指令数据库的建立方法、装置、设备及介质 |
CN111312247A (zh) * | 2020-02-19 | 2020-06-19 | 百度在线网络技术(北京)有限公司 | 语音交互方法和装置 |
WO2021008025A1 (zh) * | 2019-07-18 | 2021-01-21 | 平安科技(深圳)有限公司 | 基于语音识别的信息分析方法、装置和计算机设备 |
CN112365893A (zh) * | 2020-10-30 | 2021-02-12 | 上海中通吉网络技术有限公司 | 语音转化方法、装置及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1431960A1 (en) * | 2002-12-11 | 2004-06-23 | Samsung Electronics Co., Ltd. | Method and apparatus for managing dialog between user and agent |
CN101741953A (zh) * | 2009-12-21 | 2010-06-16 | 中兴通讯股份有限公司 | 一种通话时应用卡通动画显示语音信息的方法和装置 |
CN102708865A (zh) * | 2012-04-25 | 2012-10-03 | 北京车音网科技有限公司 | 语音识别方法、装置及系统 |
CN103247291A (zh) * | 2013-05-07 | 2013-08-14 | 华为终端有限公司 | 一种语音识别设备的更新方法、装置及系统 |
-
2014
- 2014-11-13 CN CN201410647418.1A patent/CN104407834A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1431960A1 (en) * | 2002-12-11 | 2004-06-23 | Samsung Electronics Co., Ltd. | Method and apparatus for managing dialog between user and agent |
CN101741953A (zh) * | 2009-12-21 | 2010-06-16 | 中兴通讯股份有限公司 | 一种通话时应用卡通动画显示语音信息的方法和装置 |
CN102708865A (zh) * | 2012-04-25 | 2012-10-03 | 北京车音网科技有限公司 | 语音识别方法、装置及系统 |
CN103247291A (zh) * | 2013-05-07 | 2013-08-14 | 华为终端有限公司 | 一种语音识别设备的更新方法、装置及系统 |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104731549A (zh) * | 2015-04-09 | 2015-06-24 | 徐敏 | 一种基于鼠标的语音识别人机交互装置及其方法 |
CN104731549B (zh) * | 2015-04-09 | 2017-12-19 | 安徽咪鼠科技有限公司 | 一种基于鼠标的语音识别人机交互方法 |
CN105678513A (zh) * | 2015-12-31 | 2016-06-15 | 联想(北京)有限公司 | 信息处理方法、装置及电子设备 |
CN105678513B (zh) * | 2015-12-31 | 2020-02-04 | 联想(北京)有限公司 | 信息处理方法、装置及电子设备 |
CN106997764B (zh) * | 2016-01-26 | 2021-07-27 | 阿里巴巴集团控股有限公司 | 一种基于语音识别的即时通信方法和即时通信系统 |
CN106997764A (zh) * | 2016-01-26 | 2017-08-01 | 阿里巴巴集团控股有限公司 | 一种基于语音识别的即时通信方法和即时通信系统 |
CN106024014A (zh) * | 2016-05-24 | 2016-10-12 | 努比亚技术有限公司 | 一种语音转换方法、装置及移动终端 |
CN106570106A (zh) * | 2016-11-01 | 2017-04-19 | 北京百度网讯科技有限公司 | 一种输入过程中将语音信息转化为表情的方法和装置 |
WO2018120945A1 (zh) * | 2016-12-28 | 2018-07-05 | 广州虎牙信息科技有限公司 | 直播客户端语音输入方法及终端设备 |
CN106888158A (zh) * | 2017-02-28 | 2017-06-23 | 努比亚技术有限公司 | 一种即时通信方法和装置 |
CN107544726A (zh) * | 2017-07-04 | 2018-01-05 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音识别结果纠错方法、装置及存储介质 |
CN107491251A (zh) * | 2017-08-07 | 2017-12-19 | 努比亚技术有限公司 | 移动终端及指纹控制方法 |
CN107491251B (zh) * | 2017-08-07 | 2021-06-15 | 努比亚技术有限公司 | 移动终端及指纹控制方法 |
CN107479723A (zh) * | 2017-08-18 | 2017-12-15 | 联想(北京)有限公司 | 一种表情符号的插入方法、装置和电子设备 |
CN107450746A (zh) * | 2017-08-18 | 2017-12-08 | 联想(北京)有限公司 | 一种表情符号的插入方法、装置和电子设备 |
US11011163B2 (en) | 2017-09-29 | 2021-05-18 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for recognizing voice |
CN107731229A (zh) * | 2017-09-29 | 2018-02-23 | 百度在线网络技术(北京)有限公司 | 用于识别语音的方法和装置 |
CN107948708B (zh) * | 2017-11-14 | 2020-09-11 | 阿里巴巴(中国)有限公司 | 弹幕展示方法及装置 |
CN107948708A (zh) * | 2017-11-14 | 2018-04-20 | 优酷网络技术(北京)有限公司 | 弹幕展示方法及装置 |
CN108231064A (zh) * | 2018-01-02 | 2018-06-29 | 联想(北京)有限公司 | 一种数据处理方法及系统 |
CN108447473A (zh) * | 2018-03-06 | 2018-08-24 | 深圳市沃特沃德股份有限公司 | 语音翻译方法和装置 |
CN109286726B (zh) * | 2018-10-25 | 2021-05-14 | 维沃移动通信有限公司 | 一种内容显示方法及终端设备 |
CN109286726A (zh) * | 2018-10-25 | 2019-01-29 | 维沃移动通信有限公司 | 一种内容显示方法及终端设备 |
CN109637674A (zh) * | 2018-10-30 | 2019-04-16 | 北京健康有益科技有限公司 | 自动获取健康医疗问题答案的方法、系统、介质和设备 |
CN109637674B (zh) * | 2018-10-30 | 2022-12-20 | 北京健康有益科技有限公司 | 自动获取健康医疗问题答案的方法、系统、介质和设备 |
CN110211584A (zh) * | 2019-06-04 | 2019-09-06 | 广州小鹏汽车科技有限公司 | 车辆控制方法、装置、存储介质及控制终端 |
WO2021008025A1 (zh) * | 2019-07-18 | 2021-01-21 | 平安科技(深圳)有限公司 | 基于语音识别的信息分析方法、装置和计算机设备 |
CN110765105A (zh) * | 2019-10-14 | 2020-02-07 | 珠海格力电器股份有限公司 | 一种唤醒指令数据库的建立方法、装置、设备及介质 |
CN111312247A (zh) * | 2020-02-19 | 2020-06-19 | 百度在线网络技术(北京)有限公司 | 语音交互方法和装置 |
CN112365893A (zh) * | 2020-10-30 | 2021-02-12 | 上海中通吉网络技术有限公司 | 语音转化方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104407834A (zh) | 信息输入方法和装置 | |
CN111261144B (zh) | 一种语音识别的方法、装置、终端以及存储介质 | |
US10614803B2 (en) | Wake-on-voice method, terminal and storage medium | |
CN106875949B (zh) | 一种语音识别的校正方法及装置 | |
CN107644638B (zh) | 语音识别方法、装置、终端和计算机可读存储介质 | |
CN108091333B (zh) | 语音控制方法及相关产品 | |
US11024300B2 (en) | Electronic device and control method therefor | |
CN108564966B (zh) | 语音测试的方法及其设备、具有存储功能的装置 | |
CN108172223A (zh) | 语音指令识别方法、装置及服务器和计算机可读存储介质 | |
WO2021135604A1 (zh) | 语音控制方法、装置、服务器、终端设备及存储介质 | |
CN110827826B (zh) | 语音转换文字方法、电子设备 | |
CN103956167A (zh) | 一种基于Web的可视化手语翻译方法及设备 | |
EP2747464A1 (en) | Sent message playing method, system and related device | |
EP3627498A1 (en) | Method and system, for generating speech recognition training data | |
CN111813910A (zh) | 客服问题的更新方法、系统、终端设备及计算机存储介质 | |
CN103514882A (zh) | 一种语音识别方法及系统 | |
CN108073572A (zh) | 信息处理方法及其装置、同声翻译系统 | |
CN112017670B (zh) | 一种目标账户音频的识别方法、装置、设备及介质 | |
CN107808662B (zh) | 更新语音识别用的语法规则库的方法及装置 | |
JP7375089B2 (ja) | 音声応答速度確定方法、装置、コンピュータ読み取り可能な記憶媒体及びコンピュータプログラム | |
KR20210042520A (ko) | 전자 장치 및 이의 제어 방법 | |
US10529324B1 (en) | Geographical based voice transcription | |
CN112562688A (zh) | 语音转写方法、装置、录音笔和存储介质 | |
EP3663940A1 (en) | Information processing device and information processing method | |
CN111161706A (zh) | 交互方法、装置、设备和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150311 |
|
RJ01 | Rejection of invention patent application after publication |