Nothing Special   »   [go: up one dir, main page]

CN113162837B - 语音消息的处理方法、装置、设备及存储介质 - Google Patents

语音消息的处理方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113162837B
CN113162837B CN202010013975.3A CN202010013975A CN113162837B CN 113162837 B CN113162837 B CN 113162837B CN 202010013975 A CN202010013975 A CN 202010013975A CN 113162837 B CN113162837 B CN 113162837B
Authority
CN
China
Prior art keywords
audio data
audio
audio frame
frame
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010013975.3A
Other languages
English (en)
Other versions
CN113162837A (zh
Inventor
梁俊斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010013975.3A priority Critical patent/CN113162837B/zh
Publication of CN113162837A publication Critical patent/CN113162837A/zh
Application granted granted Critical
Publication of CN113162837B publication Critical patent/CN113162837B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/45Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of analysis window
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本申请公开了语音消息的处理方法、装置、设备及存储介质,属于计算机技术领域。方法包括:获取第一音频数据和第一参考数量个连续的第二音频数据,第一音频数据对应语音消息中当前待处理的第一音频帧,第一参考数量个连续的第二音频数据对应第二音频帧;基于第一音频数据和第二音频数据,确定第一音频帧的有效性;响应于第一音频帧无效,确定语音消息中位于第一音频帧之后的音频帧的有效性,直至得到有效的音频帧,获取与有效的音频帧对应的待播放音频数据。基于上述过程,仅获取与有效的音频帧对应的待播放音频数据,可以在基于待播放音频数据对语音消息进行播放的过程中,既保证播放质量,又有效缩短播放耗时,语音消息的处理效果较好。

Description

语音消息的处理方法、装置、设备及存储介质
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种语音消息的处理方法、装置、设备及存储介质。
背景技术
随着智能终端技术的快速发展,应用程序的种类越来越多,功能也趋于多样化。目前,大部分即时通讯类应用程序已支持语音消息功能,以便于用户的终端通过该语音消息功能向其他用户的终端发送语音消息或接收其他用户的终端发送的语音消息。终端可以对语音消息进行处理,得到待播放的音频数据,然后基于待播放的音频数据对语音消息进行播放。
相关技术在处理语音消息的过程中,终端对语音消息中的各个音频帧依次进行解码处理,得到各个音频帧对应的音频数据,然后将各个音频帧对应的音频数据均作为待播放的音频数据。
在实现本申请的过程中,发明人发现相关技术至少存在以下问题:
相关技术中,将各个音频帧对应的音频数据均作为待播放的音频数据,使得语音消息的播放时长与语音消息的录制时长相同,语音消息的播放过程耗时较长,语音消息的处理效果较差。
发明内容
本申请实施例提供了一种语音消息的处理方法、装置、设备及存储介质,可用于提高语音消息的处理效果。所述技术方案如下:
一方面,本申请实施例提供了一种语音消息的处理方法,所述方法包括:
获取第一音频数据和第一参考数量个连续的第二音频数据,所述第一音频数据对应语音消息中当前待处理的第一音频帧,所述第一参考数量个连续的第二音频数据对应第二音频帧,所述第二音频帧为所述语音消息中位于所述第一音频帧之后的连续音频帧;
基于所述第一音频数据和所述第二音频数据,确定所述第一音频帧的有效性;
响应于所述第一音频帧无效,确定所述语音消息中位于所述第一音频帧之后的音频帧的有效性,直至得到有效的音频帧,获取与所述有效的音频帧对应的待播放音频数。
另一方面,提供了一种语音消息的处理装置,所述装置包括:
第一获取模块,用于获取第一音频数据和第一参考数量个连续的第二音频数据,所述第一音频数据对应语音消息中当前待处理的第一音频帧,所述第一参考数量个连续的第二音频数据对应第二音频帧,所述第二音频帧为所述语音消息中位于所述第一音频帧之后的连续音频帧;
确定模块,用于基于所述第一音频数据和所述第二音频数据,确定所述第一音频帧的有效性;
所述确定模块,还用于响应于所述第一音频帧无效,确定所述语音消息中位于所述第一音频帧之后的音频帧的有效性,直至得到有效的音频帧;
第二获取模块,用于获取与所述有效的音频帧对应的待播放音频数据。
在一种可能实现方式中,所述第二获取模块,还用于将所述第一音频数据和所述目标音频数据进行拼接处理,得到拼接处理后的音频数据,将所述拼接处理后的音频数据作为与所述第一音频帧对应的待播放音频数据。
在一种可能实现方式中,所述第二获取模块,还用于将所述目标音频数据中的第一采样点集和所述第一音频数据中的第二采样点集进行加窗处理,得到第三采样点集,所述第一采样点集包括所述目标音频数据中位于末尾部分的第二参考数量个采样点,所述第二采样点集包括所述第一音频数据中位于起始部分的第二参考数量个采样点;
基于所述第三采样点集,对所述第一音频数据和所述目标音频数据进行拼接,得到拼接处理后的音频数据。
在一种可能实现方式中,所述确定模块,用于获取所述第一音频数据对应的检测结果和各个第二音频数据对应的检测结果,任一音频数据对应的检测结果用于指示所述任一音频数据是否为语音信号数据;基于所述第一音频数据对应的检测结果和所述各个第二音频数据对应的检测结果,确定所述第一音频帧的有效性。
在一种可能实现方式中,所述确定模块,用于响应于所述第一音频数据对应的检测结果和所述各个第二音频数据对应的检测结果满足无效条件,确定所述第一音频帧无效;响应于所述第一音频数据对应的检测结果和所述各个第二音频数据对应的检测结果不满足所述无效条件,确定所述第一音频帧有效。
在一种可能实现方式中,所述第一音频数据对应的检测结果和所述各个第二音频数据对应的检测结果满足无效条件,包括:所述第一音频数据对应的检测结果指示所述第一音频数据为非语音信号数据,所述各个第二音频数据对应的检测结果指示所述各个第二音频数据均为非语音信号数据。
在一种可能实现方式中,所述第一参考数量个连续的第二音频数据包括第一部分第二音频数据和第二部分第二音频数据,所述第一部分第二音频数据对应所述第二音频帧中除最后一个音频帧外的其他音频帧,所述第二部分第二音频数据对应所述第二音频帧中最后一个音频帧;所述第一获取模块,用于从缓存中提取所述第一音频数据和所述第一部分第二音频数据;对所述第二音频帧中最后一个音频帧的码流进行解码处理,得到所述第二部分第二音频数据。
在一种可能实现方式中,所述第一获取模块,用于对所述第一音频帧的码流进行解码处理,得到所述第一音频数据;对所述第二音频帧中的各个音频帧的码流分别进行解码处理,得到所述第一参考数量个连续的第二音频数据。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现上述任一所述的语音消息的处理方法。
另一方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现上述任一所述的语音消息的处理方法。
本申请实施例提供的技术方案至少带来如下有益效果:
根据第一音频数据和第二音频数据,确定第一音频帧的有效性,当第一音频帧无效时,确定之后的音频帧的有效性,直至得到有效的音频帧,获取与有效的音频帧对应的待播放音频数据。在此种语音消息的处理过程中,仅获取与有效的音频帧对应的待播放音频数据,此种方式可以在基于待播放音频数据对语音消息进行播放的过程中,既保证播放质量,又有效缩短播放耗时,语音消息的处理效果较好。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种语音消息的处理方法的实施环境的示意图;
图2是本申请实施例提供的一种语音消息的处理方法的流程图;
图3是本申请实施例提供的一种汉宁窗函数的示意图;
图4是本申请实施例提供的一种语音消息的处理过程的示意图;
图5是本申请实施例提供的一种对第一音频帧进行处理的过程的示意图;
图6是本申请实施例提供的一种语音消息的处理装置的示意图;
图7是本申请实施例提供的一种语音消息的处理设备的结构示意图;
图8是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
随着智能终端技术的快速发展,应用程序的种类越来越多,功能也趋于多样化。目前,大部分即时通讯类应用程序已支持语音消息功能,以便于用户的终端通过该语音消息功能向其他用户的终端发送语音消息或接收其他用户的终端发送的语音消息。终端可以对即时通讯过程中的语音消息进行处理,得到待播放的音频数据,然后基于待播放的音频数据对即时通讯过程中的语音消息进行播放。
对此,本申请实施例提供了一种语音消息的处理方法,请参考图1,其示出了本申请实施例提供的语音消息的处理方法的实施环境的示意图。该实施环境可以包括:终端11和服务器12。
其中,终端11安装有支持语音消息功能的即时通讯类应用程序,终端11可以基于该应用程序发送或接收语音消息。终端11在对即时通讯过程中的语音消息进行播放之前,可以利用本申请实施例提供的方法对即时通讯过程中的语音消息进行处理,得到待播放的音频数据。服务器12可以是指支持语音消息功能的即时通讯类应用程序的后台服务器,能够为终端11中安装的应用程序提供数据支持。
在一种可能实现方式中,终端11可以是诸如手机、平板电脑、个人计算机等的智能设备。服务器12可以是一台服务器,也可以是由多台服务器组成的服务器集群,或者是一个云计算服务中心。终端11与服务器12通过有线或无线网络建立通信连接。
本领域技术人员应能理解上述终端11和服务器12仅为举例,其他现有的或今后可能出现的终端或服务器如可适用于本申请,也应包含在本申请保护范围以内,并在此以引用方式包含于此。
基于上述图1所示的实施环境,本申请实施例提供一种语音消息的处理方法,以该方法应用于终端为例。如图2所示,本申请实施例提供的方法可以包括如下步骤:
在步骤201中,获取第一音频数据和第一参考数量个连续的第二音频数据。
其中,第一音频数据对应语音消息中当前待处理的第一音频帧,第一参考数量个连续的第二音频数据对应第二音频帧,第二音频帧为语音消息中位于第一音频帧之后的连续音频帧。第二音频帧中包括第一参考数量个音频帧,每个音频帧对应一个第二音频数据。
本申请实施例中的语音消息是指即时通讯过程中待播放的任一语音消息,该语音消息可以是指终端发送的语音消息,也可以是指终端接收到的语音消息,本申请实施例对此不加以限定。
由于语音消息是对录制的语音信号进行编码处理后得到的,所以可以按照录制时间的先后顺序将语音消息划分为顺序排列的多个音频帧。语音消息对应一个完整码流,将语音消息划分为多个音频帧的过程就是将该语音消息对应的完整码流划分为多个码流的过程,每个音频帧对应一个码流。在一种可能实现方式中,可以为多个音频帧进行顺序编号,使得每个音频帧对应一个序号,每个序号可以用于唯一标识一个音频帧。
在播放语音消息之前,需要对语音消息中的每个音频帧进行处理,以得到与语音消息对应的待播放音频数据。在本申请实施例中,将语音消息中当前待处理的音频帧作为第一音频帧。第一音频数据是指对第一音频帧的码流进行解码后得到的数据。
第一参考数量个连续的第二音频数据对应第二音频帧,也就是说,第一参考数量个连续的第二音频数据为对第二音频帧的码流进行解码后得到的数据。第二音频帧包括语音消息中位于第一音频帧之后与第一音频帧连续的第一参考数量个音频帧。需要说明的是,第一参考数量可以根据经验设置,也可以根据实际情况自由调整,本申请实施例对此不加以限定。示例性地,当语音消息中除第一音频帧外未处理的音频帧的数量不小于n(不小于0的整数)时,可以将第一参考数量设置为n;当语音消息中除第一音频帧外未处理的音频帧的数量小于n时,可以将第一参考数量设置为等于语音消息中除第一音频帧外未处理的音频帧的数量。
需要说明的是,当第一音频帧为语音消息中的最后一个音频帧时,第一参考数量为0,此时不存在第二音频数据,也就是说,当第一音频帧为语音消息中的最后一个音频帧时,只需获取第一音频数据。
在一种可能实现方式中,当第一音频帧为语音消息中的第一个音频帧时,终端可以基于语音消息的选中指令,执行获取第一音频数据和第一参考数量个连续的第二音频数据的操作。语音消息的选中指令可以是指用户的触发指令,也可以是指自动选取指令,本申请实施例对此不加以限定。
在一种可能实现方式中,当第一音频帧不为语音消息中的第一个音频帧时,终端执行获取第一音频数据和第一参考数量个连续的第二音频数据的操作的情况包括但不限于以下两种:
情况一:响应于第一音频帧的前一个音频帧处理完毕,自动执行获取第一音频数据和第一参考数量个连续的第二音频数据的操作。
此种情况发生的前提条件为:在第一音频帧的前一个音频帧处理完毕时,未检测到语音消息的暂停播放指令。
情况二:响应于语音消息的继续播放指令,执行获取第一音频数据和第一参考数量个连续的第二音频数据的操作。
此种情况发生的前提条件为:在第一音频帧的前一个音频帧处理完毕时,检测到语音消息的暂停播放指令。在此种前提条件下,终端检测到语音消息的暂停播放指令后,记录当前待处理的第一音频帧的标识信息,当检测到语音消息的继续播放指令时,再执行获取第一音频数据和第一参考数量个连续的第二音频数据的操作。示例性地,第一音频帧的标识信息可以是指第一音频帧的序号。
在一种可能实现方式中,终端获取第一音频数据和第一参考数量个连续的第二音频数据的方式包括但不限于以下两种:
方式一:第一参考数量个连续的第二音频数据包括第一部分第二音频数据和第二部分第二音频数据。从缓存中提取第一音频数据和第一部分第二音频数据;对第二音频帧中最后一个音频帧的码流进行解码处理,得到第二部分第二音频数据。
其中,第一部分第二音频数据对应第二音频帧中除最后一个音频帧外的其他音频帧,第二部分第二音频数据对应第二音频帧中最后一个音频帧。需要说明的是,在对各个音频帧进行顺序编号的情况下,第二音频帧中最后一个音频帧是指序号与第一音频帧的序号的差值为第一参考数量的音频帧。
在一种可能实现方式中,此种方式一发生的条件为:第一音频帧不为语音消息中的第一个音频帧,并且将之前的处理过程中得到的音频数据保存在缓存数据中。
在满足上述条件的情况下,第一音频帧的码流已经在处理第一音频帧之前的音频帧的过程中被解码处理成第一音频数据,该第一音频数据已被保存在缓存数据中,因此,可以从缓存中直接提取第一音频数据。同样地,第二音频帧中除最后一个音频帧外的其他音频帧的码流也已经在处理第一音频帧之前的音频帧的过程中被解码处理成第一部分第二音频数据,该第一部分第二音频数据也已被保存在缓存数据中,因此,可以从缓存中直接提取第一部分第二音频数据。
但是,由于在处理第一音频帧之前的音频帧的过程中,未涉及到对第二音频帧中最后一个音频帧的码流进行解码处理的过程,因此,需要对第二音频帧中最后一个音频帧的码流进行解码处理,以得到第二部分第二音频数据。
也就是说,在基于此种方式获取第一音频数据和第一参考数量的第二音频数据的过程中,只需对第二音频帧中最后一个音频帧的码流进行解码处理,得到第二部分第二音频数据。第一音频数据和第一部分第二音频数据均可以从缓存中直接提取。
示例性地,假设第一音频帧的序号为2,第一参考数量为5。则第二音频帧中包括序号分别为3、4、5、6、7的五个音频帧,第二音频帧中最后一个音频帧为序号为7的音频帧。在处理序号为1的音频帧的过程中,已经将序号为2的音频帧(第一音频帧)的码流以及序号分别为3、4、5、6的四个音频帧(第二音频帧中除最后一个音频帧外的其他音频帧)的码流进行解码处理并将得到的音频数据保存在缓存数据中,只有序号为7的音频帧(第二音频帧中最后一个音频帧)的码流未被解码处理过。因此,在获取第一音频数据和第一参考数量个连续的第二音频数据的过程中,从缓存中提取序号为2的音频帧的数据(第一音频数据)以序号分别为3、4、5、6的音频帧的数据(第一部分第二音频数据);然后通过对序号为7的音频帧的码流进行解码处理,得到序号为7的音频帧的数据(第二部分第二音频数据)。
方式二:对第一音频帧的码流进行解码处理,得到第一音频数据;对第二音频帧中的各个音频帧的码流分别进行解码处理,得到第一参考数量个连续的第二音频数据。
在一种可能实现方式中,此种方式二发生的条件包括但不限于以下两种:
条件1:第一音频帧为语音消息中的第一个音频帧。
条件2:第一音频帧不为语音消息中的第一个音频帧,但是未将之前的处理过程中得到的音频数据保存在缓存数据中。
在满足上述任一条件的情况下,由于第一音频数据和第一参考数量个连续的第二音频数据均无法从缓存中直接提取,因此,通过对第一音频帧的码流和第二音频帧中的各个音频帧的码流分别进行解码处理,得到第一音频数据和第一参考数量个连续的第二音频数据。
在一种可能实现方式中,在满足上述条件1的情况下,也就是当第一音频帧为语音消息中的第一个音频帧时,在获取第一音频数据和第一参考数量个连续的第二音频数据后,可以将第一音频数据和第一参考数量个连续的第二音频数据保存在缓存数据中,以便于在后续处理其他音频帧时,直接从缓存中提取相关的音频数据。
需要说明的是,本申请实施例对解码处理后得到的音频数据的格式不加以限定,只要解码处理后得到的音频数据的格式能够被终端的播放设备识别并播放即可。示例性地,解码处理后得到的音频数据的格式可以为PCM(Pulse Code Modulation,脉冲编码调制)格式。PCM格式的音频数据是由模拟信号经过采样、量化、编码转换成的标准的数字音频数据。本申请实施例对播放设备不加以限定,例如,播放设备可以是指声卡设备。
在步骤202中,基于第一音频数据和第二音频数据,确定第一音频帧的有效性。
第一音频帧的有效性用于指示是否需要获取与第一音频帧对应的待播放音频数据。当第一音频帧有效时,需要获取与第一音频帧对应的待播放音频数据;当第一音频帧无效时,无需获取与第一音频帧对应的待播放音频数据。在一种可能实现方式中,基于第一音频数据和第二音频数据,确定第一音频帧的有效性的过程包括以下步骤2021和步骤2022:
步骤2021:获取第一音频数据对应的检测结果和各个第二音频数据对应的检测结果。
任一音频数据对应的检测结果用于指示任一音频数据是否为语音信号数据。也就是说,任一音频数据对应的检测结果指示的含义包括两种:任一音频数据为语音信号数据,以及任一音频数据为非语音信号数据。
在实际应用场景中,任一音频数据为非语言信号数据的情况包括但不限于:该任一音频数据为静默数据;该任一音频数据为无特定语义的数据,例如,拖音数据等;该任一音频数据为噪音数据,例如,环境噪音数据、无关语音数据等。
第一音频数据对应的检测结果和各个第二音频数据对应的检测结果可以是基于VAD(Voice Activity Detection,语音活跃检测)算法对第一音频数据和各个第二音频数据进行检测得到的。VAD算法是一种检测输入的音频数据是否为语音信号数据的检测算法。本申请实施例对VAD算法的类型不加以限定。示例性地,VAD算法的类型包括但不限于:基于信噪比(Signal Noise Ratio,SNR)的VAD算法、基于能量平稳度的VAD算法、基于深度神经网络(Deep Neural Networks,DNN)的VAD算法,以及基于隐马尔可夫模型(Hidden MarkovModel,HMM)的VAD算法等。
需要说明的是,当第一音频帧为语音消息中的最后一个音频帧时,不存在第二音频数据,此时,只需获取第一音频数据对应的检测结果。
在一种可能实现方式中,获取第一音频数据对应的检测结果和各个第二音频数据对应的检测结果的方式包括但不限于以下两种:
方式一:从缓存中提取第一音频数据对应的检测结果以及第一部分第二音频数据对应的检测结果;基于VAD算法对第二部分第二音频数据进行检测,得到第二部分第二音频数据对应的检测结果。
在一种可能实现方式中,此种方式一发生的条件为:第一音频帧不为语音消息中的第一个音频帧,并且将之前的处理过程中得到的音频数据对应的检测结果保存在缓存数据中。
在满足上述条件的情况下,第一音频数据对应的检测结果和第一部分第二音频数据对应的检测结果已经在处理第一音频帧之前的音频帧的过程中得到并保存在缓存数据中。因此,可以从缓存中直接提取第一音频数据对应的检测结果以及第一部分第二音频数据对应的检测结果。
但是,由于在处理第一音频帧之前的音频帧的过程中,未涉及到基于VAD算法对第二部分第二音频数据进行检测的过程,因此,需要基于VAD算法对第二部分第二音频数据进行检测,以得到第二部分第二音频数据对应的检测结果。
也就是说,在基于此种方式获取第一音频数据对应的检测结果和各个第二音频数据对应的检测结果的过程中,只需基于VAD算法对第二部分第二音频数据进行检测,得到第二部分第二音频数据对应的检测结果;第一音频数据对应的检测结果和第一部分第二音频数据对应的检测结果均可以从缓存中直接提取。
方式二:基于VAD算法对第一音频数据进行检测,得到第一音频数据对应的检测结果;基于VAD算法分别对各个第二音频数据进行检测,得到各个第二音频数据对应的检测结果。
在一种可能实现方式中,此种方式二发生的条件包括但不限于以下两种:
条件1:第一音频帧为语音消息中的第一个音频帧。
条件2:第一音频帧不为语音消息中的第一个音频帧,但是未将之前的处理过程中得到的音频数据对应的检测结果保存在缓存数据中。
在满足上述任一条件的情况下,由于第一音频数据对应的检测结果和各个第二音频数据对应的检测结果均无法从缓存中直接提取,因此,通过基于VAD算法分别对第一音频数据和各个第二音频数据进行检测,得到第一音频数据对应的检测结果和各个第二音频数据对应的检测结果。
在一种可能实现方式中,在满足上述条件1的情况下,也就是当第一音频帧为语音消息中的第一个音频帧时,在获取第一音频数据对应的检测结果和各个第二音频数据对应的检测结果后,可以将第一音频数据对应的检测结果和各个第二音频数据对应的检测结果保存在缓存数据中,以便于在后续处理其他音频帧时,直接从缓存中提取相关的音频数据对应的检测结果。
无论是通过上述方式一还是上述方式二,均可以获取第一音频数据对应的检测结果和各个第二音频数据对应的检测结果,然后执行步骤2022。
步骤2022:基于第一音频数据对应的检测结果和各个第二音频数据对应的检测结果,确定第一音频帧的有效性。
在一种可能实现方式中,该步骤的实现过程为:响应于第一音频数据对应的检测结果和各个第二音频数据对应的检测结果满足无效条件,确定第一音频帧无效;响应于第一音频数据对应的检测结果和各个第二音频数据对应的检测结果不满足无效条件,确定第一音频帧有效。
在一种可能实现方式中,第一音频数据对应的检测结果和各个第二音频数据对应的检测结果满足无效条件可以是指:第一音频数据对应的检测结果指示第一音频数据为非语音信号数据,各个第二音频数据对应的检测结果指示各个第二音频数据均为非语音信号数据。
当第一音频数据对应的检测结果和各个第二音频数据对应的检测结果满足无效条件时,说明第一音频数据和第一参考数量个连续的第二音频数据均为非语音信号数据,此时,确定第一音频帧无效。
当第一音频数据对应的检测结果和各个第二音频数据对应的检测结果不满足无效条件时,说明第一音频数据和第一参考数量个连续的第二音频数据中存在至少一个音频数据为语音信号数据,此时,确定第一音频帧有效。
示例性地,检测结果可以用第一数值例如0和第二数值例如1表示,其中,数值1表示语音信号数据,数值0表示非语音信号数据,假设第一参考数量为n(不小于0的整数),则第一音频数据和第一参考数量个连续的第二音频数据共对应(N+1)个检测结果。当这(N+1)个检测结果均为数值0时,说明满足无效条件,第一音频帧无效;当这(N+1)个检测结果中包括至少一个数值1时,说明不满足无效条件,第一音频帧有效。
基于上述步骤2021和步骤2022,即可确定第一音频帧的有效性。当第一音频帧无效时,执行步骤203;当第一音频帧有效时,响应于第一音频帧有效,基于第一音频数据,获取与第一音频帧对应的待播放音频数据。
在一种可能实现方式中,基于第一音频数据,获取与第一音频帧对应的待播放音频数据的过程包括以下步骤A至步骤C:
步骤A:获取第三音频帧的有效性。
其中,第三音频帧为语音消息中位于第一音频帧前一位的音频帧。
当第一音频帧有效时,需要获取语音消息中位于第一音频帧前一位的第三音频帧的有效性;当第三音频帧有效时,执行步骤B;当第三音频帧无效时,执行步骤C。
在一种可能实现方式中,终端在处理语音消息的过程中,可以将已知有效性的音频帧的序号和有效性的对应关系保存在缓存数据中。终端获取第三音频帧的有效性的方式为:终端基于第三音频帧的序号,在音频帧的序号和有效性的对应关系中查询与第三音频帧的序号对应的有效性。
步骤B:响应于第三音频帧有效,将第一音频数据作为与第一音频帧对应的待播放音频数据。
当第三音频帧有效时,说明连续的两个音频帧均有效,此时无需对第一音频数据进行处理,即可将第一音频数据直接作为与第一音频帧对应的待播放音频数据。
步骤C:响应于第三音频帧无效,获取目标音频数据,基于第一音频数据和目标音频数据,获取与第一音频帧对应的待播放音频数据。
其中,目音频数据为与目标音频帧对应的待播放音频数据,目标音频帧为在已经确定有效的各个音频帧中与第一音频帧最近的音频帧。
当第三音频帧无效时,获取目标音频数据。然后基于第一音频数据和目标音频数据,获取与第一音频帧对应的待播放音频数据。
需要说明的是,待播放音频数据需要放入播放缓冲中,才能由终端的播放设备进行播放。在一种可能实现方式中,获取目标音频数据的方式包括但不限于以下两种:
方式一:从播放缓冲中提取目标音频数据。
此种方式发生的条件为:在得到目标音频数据后,将目标音频数据放入播放缓冲中。也就是说,每次得到新的待播放音频数据后,将新的待播放音频数据放入播放缓冲中。
在上述条件下,需要从播放缓冲中将目标音频数据提取出来,当基于目标音频数据和第一音频数据,获取与第一音频帧对应的待播放音频数据后,再将与第一音频帧对应的待播放音频数据放入播放缓冲中。
方式二:从缓存中提取目标音频数据。
此种方式发生的条件为:得到目标音频数据后,将目标音频数据暂时保存在缓存数据中。也就是说,每次得到新的待播放音频数据后,将新的待播放音频数据暂时保存在缓存数据中。需要说明的是,在此种条件下,在确定目标音频数据无需与其他音频数据进行拼接处理后,再将目标音频数据放入播放缓冲中。
在上述条件下,需要从缓存中提取目标音频数据,当基于目标音频数据和第一音频数据,获取与第一音频帧对应的待播放音频数据后,继续将与第一音频帧对应的待播放音频数据暂时保存在缓存数据中。在确定与第一音频帧对应的待播放音频数据无需与其他音频数据进行拼接处理后,再将与第一音频帧对应的待播放音频数据放入播放缓冲中。
此种方式可以避免将目标音频数据放入播放缓冲中,还需再从播放缓冲中将目标音频数据提取出来的冗余操作。
无论基于上述方式一还是上述方式二获取目标音频数据,在获取目标音频数据后,基于第一音频数据和目标音频数据,获取与第一音频帧对应的待播放音频数据。在一种可能实现方式中,基于第一音频数据和目标音频数据,获取与第一音频帧对应的待播放音频数据的方式为:将第一音频数据和目标音频数据进行拼接处理,得到拼接处理后的音频数据,将拼接处理后的音频数据作为与第一音频帧对应的待播放音频数据。
由于第一音频帧和目标音频帧不为连续音频帧,所以,需要将第一音频数据与目标音频数据进行拼接处理,以保证语音消息的播放流畅性。
在一种可能实现方式中,将第一音频数据与目标音频数据进行拼接处理,得到拼接处理后的音频数据的过程包括以下两个步骤:
步骤1:将目标音频数据中的第一采样点集和第一音频数据中的第二采样点集进行加窗处理,得到第三采样点集。
其中,第一采样点集包括目标音频数据中位于末尾部分的第二参考数量个采样点,第二采样点集包括第一音频数据中位于起始部分的第二参考数量个采样点。第二参考数量可以根据经验设置,也可以根据应用场景自由调整,本申请实施例对此不加以限定。为了便于说明,假设第二参考数量为N(不小于1的整数)。则第一采样点集中包括N个采样点;第二采样点集中也包括N个采样点。
在一种可能实现方式中,将第一采样点集和第二采样点集进行加窗处理,得到第三采样点集的过程为:利用汉宁窗函数对第一采样点集中的第i个(1≤i≤N)采样点和第二采样点集中的第i个采样点进行加窗计算,然后基于算术加和限值处理,得到第三采样点集中的第i个采样点。
利用汉宁窗函数对第一采样点集中的第i个采样点和第二采样点集中的第i个采样点进行加窗计算,然后基于算术加和限值处理,得到第三采样点集中的第i个采样点的过程为:基于公式1,对第一采样点集中的第i个采样点的值和第一汉宁窗函数的乘积,以及第二采样点集中的第i个采样点的值和第二汉宁窗函数的乘积进行算术加和;然后基于公式2进行算术加和限值处理,得到第三采样点集中的第i个采样点的值。
x(i)=x1(i)hanning(N-i)+x2(i)hanning(i) 公式1
其中,x(i)表示第三采样点集中的第i个采样点的值,x1(i)表示第一采样点集中的第i个采样点的值,x2(i)表示第二采样点集中的第i个采样点的值。hanning(N-i)为第一汉宁窗函数,hanning(i)为第二汉宁窗函数,hanning(i)的函数表示式如公式3所示。如图3所示,曲线301表示第一汉宁窗函数hanning(N-i),曲线302表示第二汉宁窗函数hanning(i)。图3中的横坐标表示i的值,纵坐标表示汉宁窗函数的函数值。
根据i值的变化,可以根据上述公式1和公式2,得到第三采样点集中的各个采样点的值,也就是说,可以得到第三采样点集。
步骤2:基于第三采样点集,对第一音频数据和目标音频数据进行拼接,得到拼接处理后的音频数据。
在得到第三采样点集后,即可基于第三采样点集,对第一音频数据和目标音频数据进行拼接,得到拼接处理后的音频数据。在一种可能实现方式中,基于第三采样点集,对第一音频数据和目标音频数据进行拼接,得到拼接处理后的音频数据的过程为:将目标音频数据中除第一采样点集中的采样点外的其他采样点、第三采样点集中的采样点和第一音频数据中除第二采样点集中的采样点外的其他采样点连接起来,得到拼接处理后的音频数据。该拼接处理后的音频数据即为与第一音频帧对应的待播放音频数据。基于此种方式得到拼接处理后的音频数据,可以避免因两个音频数据的首尾采样点直接对接而导致的杂音问题。
需要说明的,基于第一音频数据和目标音频数据得到的待播放音频数据,不仅仅为与第一音频帧对应的待播放音频数据,还为与目标音频帧对应的更新后的待播放音频数据。
在一种可能实现方式中,当第一音频帧为语音消息中的第一个音频帧时,不存在第三音频帧,也不存在目标音频帧。在此种情况下,当第一音频帧有效时,直接将第一音频数据作为与第一音频帧对应的待播放音频数据。
当第一音频帧有效时,基于上述步骤A至步骤C即可获取与第一音频帧对应的待播放音频数据。在获取与第一音频帧对应的待播放音频数据后,可以判断第一音频帧是否为语音消息中的最后一个音频帧。若第一音频帧为语音消息中的最后一个音频帧,则当前语音消息处理完毕,可以继续处理下一个语音消息;当第一音频帧不为语音消息中的最后一个音频帧时,可以将语音消息中位于第一音频帧的下一为的音频帧作为当前待处理的第一音频帧,直至第一音频帧为语音消息中的最后一个音频帧。
在步骤203中,响应于第一音频帧无效,确定语音消息中位于第一音频帧之后的音频帧的有效性,直至得到有效的音频帧,获取与有效的音频帧对应的待播放音频数据。
当第一音频帧无效时,不获取与第一音频帧对应的待播放音频数据。基于步骤201以及步骤202中的步骤2021和步骤2022,确定语音消息中位于第一音频帧之后的音频帧的有效性,直至得到有效的音频帧。
在确定语音消息中位于第一音频帧之后的音频帧的有效性的过程中,先确定语音消息中位于第一音频帧后一位的音频帧的有效性。当语音消息中位于第一音频帧后一位的音频帧有效时,该位于第一音频帧后一位的音频帧即为有效的音频帧;当语音消息中位于第一音频帧后一位的音频帧无效时,继续确定语音消息中下一个待处理的音频帧的有效性,循环上述过程,直至得到有效的音频帧。
在得到有效的音频帧后,基于步骤202中的步骤A至步骤C获取与有效的音频帧对应的待播放音频数据。基于上述过程,仅获取与有效的音频帧对应的待播放音频数据,可以将语音消息中无效的音频帧进行有效压缩。
在一种可能实现方式中,当任一音频帧无效时,可以将该任一音频帧对应的音频数据置于无需播放的数据队列中,并定期进行清除。
基于上述过程,可以得到与语音消息中的有效的音频帧对应的待播放音频数据,以由终端的播放设备基于与有效的音频帧对应的待播放音频数据,对语音消息进行播放。
综上所述,语音消息的处理过程可以如图4中的步骤401至步骤410所示,获取语音消息的选中指令,然后判断该语音消息中是否存在未处理的音频帧;若存在未处理的音频帧,则判断是否检测到暂停播放指令;若未检测到暂停播放指令,则直接获取第一音频数据和第一参考数量个连续的第二音频数据;若检测到暂停指令,则保存第一音频帧的序号并停止播放,当检测到继续播放指令时,再获取第一音频数据和第一参考数量个连续的第二音频数据。基于第一音频数据和第一参考数量个连续的第二音频数据,对第一音频帧进行处理;第一音频帧处理结束后,返回步骤402循环进行,直至当语音消息中不存在未处理的音频帧时,执行步骤401。在上述处理过程中,将得到的与有效的音频帧对应的待播放音频数据放入播放缓冲中,由终端的播放设备基于与有效的音频帧对应的待播放音频数据对语音消息进行播放。
基于第一音频数据和第二音频数据,对第一音频帧进行处理的过程可以参见图5中的步骤501至步骤509。在获取第一音频数据和第一参考数量个连续的第二音频数据后,进一步获取第一音频数据对应的VAD检测结果和各个第二音频数据对应的VAD检测结果。判断第一音频数据对应的VAD检测结果和各个第二音频数据对应的VAD检测结果是否均为0;若第一音频数据对应的VAD检测结果和各个第二音频数据对应的VAD检测结果均为0,则确定第一音频帧无效,继续对下一音频帧进行处理;若第一音频数据对应的VAD检测结果和各个第二音频数据对应的VAD检测结果不均为0,则确定第一音频帧有效。此时判断第一音频帧的上一帧是否有效,若第一音频帧的上一帧有效,则将第一音频数据作为与第一音频帧对应的待播放音频数据;若第一音频帧的上一帧无效,则将第一音频数据和与最近一个有效的音频帧对应的待播放音频数据进行拼接处理,得到与第一音频帧对应的待播放音频数据。
基于本申请实施例提供的语音消息处理方式,可以将无效的音频帧进行有效压缩,有利于有效提升用户收听语音消息的效率,根据统计可知,该方法能够有效节省用户20%以上的收听时间。
在本申请实施例中,根据第一音频数据和第二音频数据,确定第一音频帧的有效性,当第一音频帧无效时,确定之后的音频帧的有效性,直至得到有效的音频帧,获取与有效的音频帧对应的待播放音频数据。在此种语音消息的处理过程中,仅获取与有效的音频帧对应的待播放音频数据,此种方式可以在基于待播放音频数据对语音消息进行播放的过程中,既保证播放质量,又有效缩短播放耗时,语音消息的处理效果较好。
基于相同技术构思,参见图6,本申请实施例提供了一种语音消息的处理装置,该装置包括:
第一获取模块601,用于获取第一音频数据和第一参考数量个连续的第二音频数据,第一音频数据对应语音消息中当前待处理的第一音频帧,第一参考数量个连续的第二音频数据对应第二音频帧,第二音频帧为语音消息中位于第一音频帧之后的连续音频帧;
确定模块602,用于基于第一音频数据和第二音频数据,确定第一音频帧的有效性;
确定模块602,还用于响应于第一音频帧无效,确定语音消息中位于第一音频帧之后的音频帧的有效性,直至得到有效的音频帧;
第二获取模块603,用于获取与有效的音频帧对应的待播放音频数据。
在一种可能实现方式中,第二获取模块603,还用于响应于第一音频帧有效,基于第一音频数据,获取与第一音频帧对应的待播放音频数据。
在一种可能实现方式中,第二获取模块603,还用于获取第三音频帧的有效性,第三音频帧为语音消息中位于第一音频帧前一位的音频帧;
响应于第三音频帧有效,将第一音频数据作为与第一音频帧对应的待播放音频数据;
响应于第三音频帧无效,获取目标音频数据,基于第一音频数据和目标音频数据,获取与第一音频帧对应的待播放音频数据,目标音频数据为与目标音频帧对应的待播放音频数据,目标音频帧为在已经确定有效的各个音频帧中与第一音频帧最近的音频帧。
在一种可能实现方式中,第二获取模块603,还用于将第一音频数据和目标音频数据进行拼接处理,得到拼接处理后的音频数据,将拼接处理后的音频数据作为与第一音频帧对应的待播放音频数据。
在一种可能实现方式中,第二获取模块603,还用于将目标音频数据中的第一采样点集和第一音频数据中的第二采样点集进行加窗处理,得到第三采样点集,第一采样点集包括目标音频数据中位于末尾部分的第二参考数量个采样点,第二采样点集包括第一音频数据中位于起始部分的第二参考数量个采样点;
基于第三采样点集,对第一音频数据和目标音频数据进行拼接,得到拼接处理后的音频数据。
在一种可能实现方式中,确定模块602,用于获取第一音频数据对应的检测结果和各个第二音频数据对应的检测结果,任一音频数据对应的检测结果用于指示任一音频数据是否为语音信号数据;基于第一音频数据对应的检测结果和各个第二音频数据对应的检测结果,确定第一音频帧的有效性。
在一种可能实现方式中,确定模块602,用于响应于第一音频数据对应的检测结果和各个第二音频数据对应的检测结果满足无效条件,确定第一音频帧无效;响应于第一音频数据对应的检测结果和各个第二音频数据对应的检测结果不满足无效条件,确定第一音频帧有效。
在一种可能实现方式中,第一音频数据对应的检测结果和各个第二音频数据对应的检测结果满足无效条件,包括:第一音频数据对应的检测结果指示第一音频数据为非语音信号数据,各个第二音频数据对应的检测结果指示各个第二音频数据均为非语音信号数据。
在一种可能实现方式中,第一参考数量个连续的第二音频数据包括第一部分第二音频数据和第二部分第二音频数据,第一部分第二音频数据对应第二音频帧中除最后一个音频帧外的其他音频帧,第二部分第二音频数据对应第二音频帧中最后一个音频帧;第一获取模块601,用于从缓存中提取第一音频数据和第一部分第二音频数据;对第二音频帧中最后一个音频帧的码流进行解码处理,得到第二部分第二音频数据。
在一种可能实现方式中,第一获取模块601,用于对第一音频帧的码流进行解码处理,得到第一音频数据;对第二音频帧中的各个音频帧的码流分别进行解码处理,得到第一参考数量个连续的第二音频数据。
在本申请实施例中,根据第一音频数据和第第二音频数据,确定第一音频帧的有效性,当第一音频帧无效时,确定之后的音频帧的有效性,直至得到有效的音频帧,获取与有效的音频帧对应的待播放音频数据。在此种语音消息的处理过程中,仅获取与有效的音频帧对应的待播放音频数据,此种方式可以在基于待播放音频数据对语音消息进行播放的过程中,既保证播放质量,又有效缩短播放耗时,语音消息的处理效果较好。
需要说明的是,上述实施例提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图7是本申请实施例提供的一种语音消息的处理设备的结构示意图。该设备可以为终端,例如可以是:智能手机、平板电脑、笔记本电脑或台式电脑。终端还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端包括有:处理器701和存储器702。
处理器701可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器701可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器701也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器701可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器701还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器702可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器702还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器702中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器701所执行以实现本申请中方法实施例提供的语音消息的处理方法。
在一些实施例中,终端还可选包括有:外围设备接口703和至少一个外围设备。处理器701、存储器702和外围设备接口703之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口703相连。具体地,外围设备包括:射频电路704、触摸显示屏705、摄像头组件706、音频电路707、定位组件708和电源709中的至少一种。
外围设备接口703可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器701和存储器702。在一些实施例中,处理器701、存储器702和外围设备接口703被集成在同一芯片或电路板上;在一些其他实施例中,处理器701、存储器702和外围设备接口703中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路704用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路704通过电磁信号与通信网络以及其他通信设备进行通信。射频电路704将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路704包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路704可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路704还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏705用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏705是触摸显示屏时,显示屏705还具有采集在显示屏705的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器701进行处理。此时,显示屏705还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏705可以为一个,设置在终端的前面板;在另一些实施例中,显示屏705可以为至少两个,分别设置在终端的不同表面或呈折叠设计;在再一些实施例中,显示屏705可以是柔性显示屏,设置在终端的弯曲表面上或折叠面上。甚至,显示屏705还可以设置成非矩形的不规则图形,也即异形屏。显示屏705可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(OrganicLight-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件706用于采集图像或视频。可选地,摄像头组件706包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件706还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路707可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器701进行处理,或者输入至射频电路704以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器701或射频电路704的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路707还可以包括耳机插孔。
定位组件708用于定位终端的当前地理位置,以实现导航或LBS(LocationBasedService,基于位置的服务)。定位组件708可以是基于美国的GPS(GlobalPositioningSystem,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源709用于为终端中的各个组件进行供电。电源709可以是交流电、直流电、一次性电池或可充电电池。当电源709包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端还包括有一个或多个传感器710。该一个或多个传感器710包括但不限于:加速度传感器711、陀螺仪传感器712、压力传感器713、指纹传感器714、光学传感器715以及接近传感器716。
加速度传感器711可以检测以终端建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器711可以用于检测重力加速度在三个坐标轴上的分量。处理器701可以根据加速度传感器711采集的重力加速度信号,控制触摸显示屏705以横向视图或纵向视图进行用户界面的显示。加速度传感器711还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器712可以检测终端的机体方向及转动角度,陀螺仪传感器712可以与加速度传感器711协同采集用户对终端的3D动作。处理器701根据陀螺仪传感器712采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器713可以设置在终端的侧边框和/或触摸显示屏705的下层。当压力传感器713设置在终端的侧边框时,可以检测用户对终端的握持信号,由处理器701根据压力传感器713采集的握持信号进行左右手识别或快捷操作。当压力传感器713设置在触摸显示屏705的下层时,由处理器701根据用户对触摸显示屏705的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器714用于采集用户的指纹,由处理器701根据指纹传感器714采集到的指纹识别用户的身份,或者,由指纹传感器714根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器701授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器714可以被设置在终端的正面、背面或侧面。当终端上设置有物理按键或厂商Logo时,指纹传感器714可以与物理按键或厂商Logo集成在一起。
光学传感器715用于采集环境光强度。在一个实施例中,处理器701可以根据光学传感器715采集的环境光强度,控制触摸显示屏705的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏705的显示亮度;当环境光强度较低时,调低触摸显示屏705的显示亮度。在另一个实施例中,处理器701还可以根据光学传感器715采集的环境光强度,动态调整摄像头组件706的拍摄参数。
接近传感器716,也称距离传感器,通常设置在终端的前面板。接近传感器716用于采集用户与终端的正面之间的距离。在一个实施例中,当接近传感器716检测到用户与终端的正面之间的距离逐渐变小时,由处理器701控制触摸显示屏705从亮屏状态切换为息屏状态;当接近传感器716检测到用户与终端的正面之间的距离逐渐变大时,由处理器701控制触摸显示屏705从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图7中示出的结构并不构成对终端的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种计算机设备,参见图8,该计算机设备包括处理器801和存储器802,该存储器802中存储有至少一条程序代码。该至少一条程序代码由一个或者一个以上处理器801加载并执行,以实现上述任一种语音消息的处理方法。
在示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条程序代码,该至少一条程序代码由计算机设备的处理器加载并执行,以实现上述任一种语音消息的处理方法。
可选地,上述计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(CompactDisc Read-OnlyMemory,CD-ROM)、磁带、软盘和光数据存储设备等。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
以上所述仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (15)

1.一种语音消息的处理方法,其特征在于,所述方法包括:
获取第一音频数据和第一参考数量个连续的第二音频数据,所述第一音频数据对应语音消息中当前待处理的第一音频帧,所述第一参考数量个连续的第二音频数据对应第二音频帧,所述第二音频帧为所述语音消息中位于所述第一音频帧之后的连续音频帧;
基于所述第一音频数据和所述第二音频数据,确定所述第一音频帧的有效性;
响应于所述第一音频帧无效,确定所述语音消息中位于所述第一音频帧之后的音频帧的有效性,直至得到有效的音频帧,获取与所述有效的音频帧对应的待播放音频数据。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于所述第一音频帧有效,基于所述第一音频数据,获取与所述第一音频帧对应的待播放音频数据。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第一音频数据,获取与所述第一音频帧对应的待播放音频数据,包括:
获取第三音频帧的有效性,所述第三音频帧为所述语音消息中位于所述第一音频帧前一位的音频帧;
响应于所述第三音频帧有效,将所述第一音频数据作为与所述第一音频帧对应的待播放音频数据;
响应于所述第三音频帧无效,获取目标音频数据,基于所述第一音频数据和所述目标音频数据,获取与所述第一音频帧对应的待播放音频数据,所述目标音频数据为与目标音频帧对应的待播放音频数据,所述目标音频帧为在已经确定有效的各个音频帧中与所述第一音频帧最近的音频帧。
4.根据权利要求3所述的方法,其特征在于,所述基于所述第一音频数据和所述目标音频数据,获取与所述第一音频帧对应的待播放音频数据,包括:
将所述第一音频数据和所述目标音频数据进行拼接处理,得到拼接处理后的音频数据,将所述拼接处理后的音频数据作为与所述第一音频帧对应的待播放音频数据。
5.根据权利要求4所述的方法,其特征在于,所述将所述第一音频数据和所述目标音频数据进行拼接处理,得到拼接处理后的音频数据,包括:
将所述目标音频数据中的第一采样点集和所述第一音频数据中的第二采样点集进行加窗处理,得到第三采样点集,所述第一采样点集包括所述目标音频数据中位于末尾部分的第二参考数量个采样点,所述第二采样点集包括所述第一音频数据中位于起始部分的第二参考数量个采样点;
基于所述第三采样点集,对所述第一音频数据和所述目标音频数据进行拼接,得到拼接处理后的音频数据。
6.根据权利要求1所述的方法,其特征在于,所述基于所述第一音频数据和所述第二音频数据,确定所述第一音频帧的有效性,包括:
获取所述第一音频数据对应的检测结果和各个第二音频数据对应的检测结果,任一音频数据对应的检测结果用于指示所述任一音频数据是否为语音信号数据;
基于所述第一音频数据对应的检测结果和所述各个第二音频数据对应的检测结果,确定所述第一音频帧的有效性。
7.根据权利要求6所述的方法,其特征在于,所述基于所述第一音频数据对应的检测结果和所述各个第二音频数据对应的检测结果,确定所述第一音频帧的有效性,包括:
响应于所述第一音频数据对应的检测结果和所述各个第二音频数据对应的检测结果满足无效条件,确定所述第一音频帧无效;
响应于所述第一音频数据对应的检测结果和所述各个第二音频数据对应的检测结果不满足所述无效条件,确定所述第一音频帧有效。
8.根据权利要求7所述的方法,其特征在于,所述第一音频数据对应的检测结果和所述各个第二音频数据对应的检测结果满足无效条件,包括:
所述第一音频数据对应的检测结果指示所述第一音频数据为非语音信号数据,所述各个第二音频数据对应的检测结果指示所述各个第二音频数据均为非语音信号数据。
9.根据权利要求1所述的方法,其特征在于,所述第一参考数量个连续的第二音频数据包括第一部分第二音频数据和第二部分第二音频数据,所述第一部分第二音频数据对应所述第二音频帧中除最后一个音频帧外的其他音频帧,所述第二部分第二音频数据对应所述第二音频帧中最后一个音频帧;所述获取第一音频数据和第一参考数量个连续的第二音频数据,包括:
从缓存中提取所述第一音频数据和所述第一部分第二音频数据;
对所述第二音频帧中最后一个音频帧的码流进行解码处理,得到所述第二部分第二音频数据。
10.根据权利要求1所述的方法,其特征在于,所述获取第一音频数据和第一参考数量个连续的第二音频数据,包括:
对所述第一音频帧的码流进行解码处理,得到所述第一音频数据;
对所述第二音频帧中的各个音频帧的码流分别进行解码处理,得到所述第一参考数量个连续的第二音频数据。
11.一种语音消息的处理装置,其特征在于,所述装置包括:
第一获取模块,用于获取第一音频数据和第一参考数量个连续的第二音频数据,所述第一音频数据对应语音消息中当前待处理的第一音频帧,所述第一参考数量个连续的第二音频数据对应第二音频帧,所述第二音频帧为所述语音消息中位于所述第一音频帧之后的连续音频帧;
确定模块,用于基于所述第一音频数据和所述第二音频数据,确定所述第一音频帧的有效性;
所述确定模块,还用于响应于所述第一音频帧无效,确定所述语音消息中位于所述第一音频帧之后的音频帧的有效性,直至得到有效的音频帧;
第二获取模块,用于获取与所述有效的音频帧对应的待播放音频数据。
12.根据权利要求11所述的装置,其特征在于,所述第二获取模块,还用于响应于所述第一音频帧有效,基于所述第一音频数据,获取与所述第一音频帧对应的待播放音频数据。
13.根据权利要求12所述的装置,其特征在于,所述第二获取模块,还用于获取第三音频帧的有效性,所述第三音频帧为所述语音消息中位于所述第一音频帧前一位的音频帧;
响应于所述第三音频帧有效,将所述第一音频数据作为与所述第一音频帧对应的待播放音频数据;
响应于所述第三音频帧无效,获取目标音频数据,基于所述第一音频数据和所述目标音频数据,获取与所述第一音频帧对应的待播放音频数据,所述目标音频数据为与目标音频帧对应的待播放音频数据,所述目标音频帧为在已经确定有效的各个音频帧中与所述第一音频帧最近的音频帧。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现如权利要求1至10任一所述的语音消息的处理方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现如权利要求1至10任一所述的语音消息的处理方法。
CN202010013975.3A 2020-01-07 2020-01-07 语音消息的处理方法、装置、设备及存储介质 Active CN113162837B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010013975.3A CN113162837B (zh) 2020-01-07 2020-01-07 语音消息的处理方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010013975.3A CN113162837B (zh) 2020-01-07 2020-01-07 语音消息的处理方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113162837A CN113162837A (zh) 2021-07-23
CN113162837B true CN113162837B (zh) 2023-09-26

Family

ID=76881369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010013975.3A Active CN113162837B (zh) 2020-01-07 2020-01-07 语音消息的处理方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113162837B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113936698B (zh) * 2021-09-26 2023-04-28 度小满科技(北京)有限公司 音频数据的处理方法、装置以及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108566558A (zh) * 2018-04-24 2018-09-21 腾讯科技(深圳)有限公司 视频流处理方法、装置、计算机设备及存储介质
CN109348247A (zh) * 2018-11-23 2019-02-15 广州酷狗计算机科技有限公司 确定音视频播放时间戳的方法、装置及存储介质
CN110634497A (zh) * 2019-10-28 2019-12-31 普联技术有限公司 降噪方法、装置、终端设备及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009098878A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 映像音声データ同期方法、映像出力機器、音声出力機器及び映像音声出力システム
CN106409310B (zh) * 2013-08-06 2019-11-19 华为技术有限公司 一种音频信号分类方法和装置
CN108877778B (zh) * 2018-06-13 2019-09-17 百度在线网络技术(北京)有限公司 语音端点检测方法及设备
CN109473123B (zh) * 2018-12-05 2022-05-31 百度在线网络技术(北京)有限公司 语音活动检测方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108566558A (zh) * 2018-04-24 2018-09-21 腾讯科技(深圳)有限公司 视频流处理方法、装置、计算机设备及存储介质
CN109348247A (zh) * 2018-11-23 2019-02-15 广州酷狗计算机科技有限公司 确定音视频播放时间戳的方法、装置及存储介质
CN110634497A (zh) * 2019-10-28 2019-12-31 普联技术有限公司 降噪方法、装置、终端设备及存储介质

Also Published As

Publication number Publication date
CN113162837A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
CN110022489B (zh) 视频播放方法、装置及存储介质
WO2020249025A1 (zh) 身份信息的确定方法、装置及存储介质
CN110059686B (zh) 字符识别方法、装置、设备及可读存储介质
CN111862972B (zh) 语音交互服务方法、装置、设备及存储介质
CN111681655A (zh) 语音控制方法、装置、电子设备及存储介质
WO2021052306A1 (zh) 声纹特征注册
CN110798327B (zh) 消息处理方法、设备及存储介质
CN110931048A (zh) 语音端点检测方法、装置、计算机设备及存储介质
CN111613213B (zh) 音频分类的方法、装置、设备以及存储介质
CN112269559A (zh) 音量调整方法、装置、电子设备及存储介质
CN111681654A (zh) 语音控制方法、装置、电子设备及存储介质
CN113744736B (zh) 命令词识别方法、装置、电子设备及存储介质
CN113362836B (zh) 训练声码器方法、终端及存储介质
CN114299935A (zh) 唤醒词识别方法、装置、终端及存储介质
CN114360494A (zh) 韵律标注方法、装置、计算机设备及存储介质
CN112133319B (zh) 音频生成的方法、装置、设备及存储介质
CN113162837B (zh) 语音消息的处理方法、装置、设备及存储介质
CN112015612B (zh) 一种获取卡顿信息的方法及装置
CN111341317A (zh) 唤醒音频数据的评价方法、装置、电子设备及介质
CN113160802B (zh) 语音处理方法、装置、设备及存储介质
CN115035187A (zh) 声源方向确定方法、装置、终端、存储介质及产品
CN114333821A (zh) 电梯控制方法、装置、电子设备、存储介质及产品
CN111028846B (zh) 免唤醒词注册的方法和装置
CN110336881B (zh) 执行业务处理请求的方法和装置
CN114388001A (zh) 多媒体文件的播放方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40048301

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant