Nothing Special   »   [go: up one dir, main page]

CN113823314B - 语音处理方法和电子设备 - Google Patents

语音处理方法和电子设备 Download PDF

Info

Publication number
CN113823314B
CN113823314B CN202110925923.8A CN202110925923A CN113823314B CN 113823314 B CN113823314 B CN 113823314B CN 202110925923 A CN202110925923 A CN 202110925923A CN 113823314 B CN113823314 B CN 113823314B
Authority
CN
China
Prior art keywords
frequency domain
domain signal
frequency
signal
frequency point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110925923.8A
Other languages
English (en)
Other versions
CN113823314A (zh
Inventor
高海宽
刘镇亿
王志超
玄建永
夏日升
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Honor Device Co Ltd
Original Assignee
Beijing Honor Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Honor Device Co Ltd filed Critical Beijing Honor Device Co Ltd
Priority to CN202110925923.8A priority Critical patent/CN113823314B/zh
Publication of CN113823314A publication Critical patent/CN113823314A/zh
Priority to EP22855005.9A priority patent/EP4280212A4/en
Priority to US18/279,475 priority patent/US20240144951A1/en
Priority to PCT/CN2022/093168 priority patent/WO2023016018A1/zh
Application granted granted Critical
Publication of CN113823314B publication Critical patent/CN113823314B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/57Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

一种语音处理方法和电子设备。实施本申请提供的技术方案,电子设备先对第一频域信号进行去混响处理得到第二频域信号,以及对第一频域信号进行降噪处理得到第三频域信号,再根据第二频域信号的第一语音特征和第三频域信号的第二语音特征,对归属于同一路第一频域信号的第二频域信号和第三频域信号进行融合处理以得到融合频域信号,其中,该融合频域信号不损伤底噪,可以有效确保经过语音处理后的语音信号的底噪平稳。

Description

语音处理方法和电子设备
技术领域
本申请涉及语音处理领域,尤其涉及一种语音处理方法和电子设备。
背景技术
手机、平板、PC等具有录音功能的产品,随着当前办公及使用场景多样化,其录音需求也随之增加,产品录音功能的好坏也影响着用户对产品的评价,其中去混响效果就是其指标之一。
现有技术中,一种去混响优化方案是自适应滤波器方案,该方案在去除人声混响的同时,会对平稳底噪造成频谱破坏,进而影响底噪的平稳性,造成去混响后的语音有不平稳的情况。
发明内容
本申请提供了一种语音处理方法和电子设备,电子设备可以处理语音信号得到不损伤底噪的融合频域信号,以有效确保经过语音处理后的语音信号的底噪平稳。
第一方面,本申请提供了一种语音处理方法,应用于电子设备,电子设备包括n个麦克风,n大于或等于二,该方法包括:对n个麦克风所拾取的语音信号进行傅里叶变换以得到对应的n路第一频域信号S,每路第一频域信号S具有M个频点,M为进行傅里叶变换时所采用的变换点数;对n路第一频域信号S进行去混响处理,得到n路第二频域信号SE;以及,对n路第一频域信号S进行降噪处理,得到n路第三频域信号SS;确定第一频域信号Si对应的第二频域信号SEi的M个频点对应的第一语音特征,以及第一频域信号Si对应的第三频域信号SSi的M个频点对应的第二语音特征,并根据第一语音特征、第二语音特征、第二频域信号SEi、第三频域信号SSi得到第一频域信号Si对应的M个目标幅度值,其中i=1,2,……n,第一语音特征用于表征第二频域信号SEi的去混响程度,第二语音特征用于表征第三频域信号SSi的降噪程度;根据M个目标幅度值确定第一频域信号Si对应的融合频域信号。
实施第一方面的方法,电子设备先对第一频域信号进行去混响处理得到第二频域信号,以及对第一频域信号进行降噪处理得到第三频域信号,再根据第二频域信号的第一语音特征和第三频域信号的第二语音特征,对归属于同一路第一频域信号的第二频域信号和第三频域信号进行融合处理以得到融合频域信号,其中,该融合频域信号不损伤底噪,可以有效确保经过语音处理后的语音信号的底噪平稳。
结合第一方面,在一种实施方式中,根据第一语音特征、第二语音特征、第二频域信号SEi、第三频域信号SSi得到第一频域信号Si对应的M个目标幅度值,具体包括:确定M个频点中的频点Ai对应的第一语音特征和第二语音特征满足第一预设条件时,将第二频域信号SEi中频点Ai对应的第一幅度值确定为频点Ai对应的目标幅度值;或者,根据第一幅度值和第三频域信号SSi中频点Ai对应的第二幅度值确定频点Ai对应的目标幅度值;其中i=1,2,……M;确定频点Ai对应的第一语音特征和第二语音特征不满足第一预设条件时,将第二幅度值确定为频点Ai对应的目标幅度值。
在上述实施例中,利用第一预设条件进行融合判断,以根据第二频域信号SEi中频点Ai对应的第一幅度值和第三频域信号SSi中频点Ai对应的第二幅度值确定频点Ai对应的目标幅度值。当频点Ai满足第一预设条件时,可以将第一幅度值确定为频点Ai对应的目标幅度值,或者,根据第一幅度值和第二幅度值确定频点Ai对应的目标幅度值。而当频点Ai不满足第一预设条件时,可以将第二幅度值确定为频点Ai对应的目标幅度值。
结合第一方面,在一种实施方式中,根据第一幅度值和第三频域信号SSi中频点Ai对应的第二幅度值确定频点Ai对应的目标幅度值,具体包括:根据频点Ai对应的第一幅度值及对应的第一权重确定第一加权幅度值;根据频点Ai对应的第二幅度值及对应的第二权重确定第二加权幅度值;将第一加权幅度值和第二加权幅度值之和确定为频点Ai对应的目标幅度值。
在上述实施例中,利用加权运算原理,根据第一幅度值和第二幅度值得到频点Ai对应的目标幅度值,既可以实现去混响,又能保障底噪平稳。
结合第一方面,在一种实施方式中,第一语音特征包括第一双麦相关系数和第一频点能量值,第二语音特征包括第二双麦相关系数和第二频点能量值;第一双麦相关系数用于表征第二频域信号SEi和第二频域信号SEt在相对应频点上的信号相关程度,第二频域信号SEt为n路第二频域信号SE中除第二频域信号SEi之外的任意一路第二频域信号SE;第二双麦相关系数用于表征第三频域信号SSi和第三频域信号SSt在相对应频点上的信号相关程度,第三频域信号SSt为n路第三频域信号SS中与第二频域信号SEt对应同一个第一频域信号的第三频域信号SS。进一步地,第一预设条件包括频点Ai的第一双麦相关系数和第二双麦相关系数满足第二预设条件,且频点Ai的第一频点能量值和第二频点能量值满足第三预设条件。
在上述实施例中,第一预设条件包括关于双麦相关系数的第二预设条件和关于频点能量值的第三预设条件,利用双麦相关系数和频点能量值进行融合判断,使得第二频域信号和第三频域信号融合更加准确。
结合第一方面,在一种实施方式中,第二预设条件为频点Ai的第一双麦相关系数减去第二双麦相关系数的第一差值大于第一阈值;第三预设条件为频点Ai的第一频点能量值减去第二频点能量值的第二差值小于第二阈值。
在上述实施例中,当频点Ai满足第二预设条件时,可以认为去混响效果明显,去混响后人声成分比降噪成分大到了一定程度。而当频点Ai满足第三预设条件时,认为去混响后的能量比降噪后的能量小到了一定程度,认为去混响后的第二频域信号去除了更多的无用信号。
结合第一方面,在一种实施方式中,去混响处理的方法包括基于相干扩散功率比的去混响方法或基于加权预测误差的去混响方法。
在上述实施例中,提供了两种去混响的方法,可以有效去除第一频域信号中的混响信号。
结合第一方面,在一种实施方式中,方法还包括:对融合频域信号进行傅里叶逆变换得到融合语音信号。
结合第一方面,在一种实施方式中,对语音信号进行傅里叶变换之前,方法还包括:显示拍摄界面,拍摄界面包括第一控件;检测到对第一控件的第一操作;响应于第一操作,电子设备进行视频拍摄得到包含语音信号的视频。
在上述实施例中,在获得语音信号方面,电子设备可以是通过录制视频来得到该语音信号。
结合第一方面,在一种实施方式中,对语音信号进行傅里叶变换之前,方法还包括:显示录音界面,录音界面包括第二控件;检测到对第二控件的第二操作;响应于第二操作,电子设备进行录音得到语音信号。
在上述实施例中,在获得语音信号方面,电子设备也可以是通过录音来得到该语音信号。
第二方面,本申请提供了一种电子设备,该电子设备包括一个或多个处理器和一个或多个存储器;其中,所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,使得所述电子设备执行如第一方面或第一方面的任意一种实施方式所述的方法。
第三方面,本申请提供了一种芯片系统,所述芯片系统应用于电子设备,所述芯片系统包括一个或多个处理器,所述处理器用于调用计算机指令以使得所述电子设备执行如第一方面或第一方面的任意一种实施方式所述的方法。
第四方面,本申请提供了一种计算机可读存储介质,包括指令,当所述指令在电子设备上运行时,使得所述电子设备执行如第一方面或第一方面的任意一种实施方式所述的方法。
第五方面,本申请实施例提供了一种包含指令的计算机程序产品,当该计算机程序产品在电子设备上运行时,使得该电子设备执行如第一方面或第一方面的任意一种实施方式所描述的方法。
附图说明
图1是本申请实施例提供的电子设备的结构示意图;
图2是本申请实施例提供的语音处理方法的流程图;
图3是本申请实施例提供的语音处理方法的具体流程图;
图4是本申请实施例提供的录制视频的场景示意图;
图5是本申请实施例中语音处理方法的一个示例性流程示意图;
图6a、图6b、图6c是本申请实施例提供的语音处理方法的效果对比示意图。
具体实施方式
本申请以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括复数表达形式,除非其上下文中明确地有相反指示。还应当理解,本申请中使用的术语“和/或”是指并包含一个或多个所列出项目的任何或所有可能组合。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为暗示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征,在本申请实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
由于本申请实施例涉及语音处理方法,为了便于理解,下面先对本申请实施例涉及的相关术语及概念进行介绍。
(1)混响
声波在室内传播时,要被墙壁、天花板、地板等障碍物反射,每反射一次都要被障碍物吸收一些。这样,当声源停止发声后,声波在室内要经过多次反射和吸收,最后才消失,我们就感觉到声源停止发声后还有若干个声波混合持续一段时间(室内声源停止发声后仍然存在的声延续现象)。这种现象叫做混响,这段时间叫做混响时间。
(2)底噪
背景噪声,一译“本底噪声”。一般指在发生、检查、测量或记录系统中与信号存在与否无关的一切干扰。但在工业噪声或环境噪声测量中则是指被测噪声源以外的周围环境噪声。如对在工厂附近的街道测量噪声来说,若要测量的是交通噪声,则工厂噪声便是背景噪声。若测量的目的在于测定工厂噪声,交通噪声便成为背景噪声。
(3)WPE
基于加权预测误差(Weighted prediction error,WPE)的去混响方法的主要思路是首先估计信号的混响尾部,然后再从观测信号中减去混响尾部,得到对弱混响信号的极大似然意义下的最优估计,以实现去混响。
(4)CDR
基于相干扩散功率比(Coherent-to-Diffuse power Ratio,CDR)的去混响方法的主要思路是对语音信号进行基于相干性的去混响处理。
下面结合上述术语,对一些实施例中,电子设备的语音处理方法以及本申请实施例中涉及的语音处理方法进行介绍。
现有技术中,由于使用的去混响技术(如滤波器滤波等)会滤除部分的底噪,导致去混响之后的语音底噪不平稳,影响去混响之后的语音在听觉上的舒适性。
由此,本申请实施例提供一种语音处理方法,其先对语音信号对应的第一频域信号进行去混响处理得到第二频域信号,以及对第一频域信号进行降噪处理得到第三频域信号,再根据第二频域信号的第一语音特征和第三频域信号的第二语音特征,对归属于同一路第一频域信号的第二频域信号和第三频域信号进行融合处理以得到融合频域信号,其中,由于该融合频域信号不损伤底噪,可以有效确保经过上述处理后的语音信号的底噪平稳,保障处理后的语音在听觉上的舒适性。
下面首先介绍本申请实施例提供的示例性电子设备。
图1是本申请实施例提供的电子设备的结构示意图。
下面以电子设备为例对实施例进行具体说明。应该理解的是,电子设备可以具有比图1中所示的更多的或者更少的部件,可以组合两个或多个的部件,或者可以具有不同的部件配置。图1中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
电子设备可以包括:处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M,多光谱传感器(未示出)等。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。
I2S接口可以用于音频通信。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。
SIM接口可以被用于与SIM卡接口195通信,实现传送数据到SIM卡或读取SIM卡中数据的功能。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备的结构限定。在本申请另一些实施例中,电子设备也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。
电源管理模块141用于连接电池142,充电管理模块140与处理器110,以为外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。
电子设备的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。
移动通信模块150可以提供应用在电子设备上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),红外技术(infrared,IR)等无线通信的解决方案。
在一些实施例中,电子设备的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS)等。
电子设备通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光信号通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。该感光元件又可被称为图像传感器。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备在处理语音信号时,数字信号处理器用于对语音信号进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备可以支持一种或多种视频编解码器。这样,电子设备可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备的存储能力。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。
电子设备可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。本实施例中,电子设备可以包括n个麦克风170C,n为大于或等于2的正整数。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。
环境光传感器180L用于感知环境光亮度。电子设备可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。
本申请实施例中,该处理器110可以调用内部存储器121中存储的计算机指令,以使得电子设备执行本申请实施例中的语音处理方法。
下面结合上述示例性电子设备的硬件结构示意图,对本申请实施例中的语音处理方法进行具体描述,参考图2和图3,图2是本申请实施例提供的语音处理方法的流程图,图3是本申请实施例提供的语音处理方法的具体流程图;语音处理方法包括以下步骤:
201、电子设备对n个麦克风所拾取的语音信号进行傅里叶变换以得到对应的n路第一频域信号S,每路第一频域信号S具有M个频点,M为进行傅里叶变换时所采用的变换点数。
具体地,傅里叶变换能将满足一定条件的某个函数表示成三角函数(正弦和/或余弦函数)或者它们的积分的线性组合。而时域分析与频域分析是对信号的两个观察面。时域分析是以时间轴为坐标表示动态信号的关系;频域分析是把信号变为以频率轴为坐标表示出来。一般来说,时域的表示较为形象与直观,而频域分析则更为简练,剖析问题更为深刻和方便。因此,本实施例中,为了便于对语音信号进行处理分析,对麦克风拾取得到的语音信号进行时频域转换,即傅里叶变换;其中,进行傅里叶变换时所采用的变换点数为M,则傅里叶变换后得到的第一频域信号S具有M个频点。M的取值为正整数,具体的取值可以根据实际情况进行设置,例如,将M设置为2x,x大于等于1,如M为256、1024或2048等。
202、电子设备对n路第一频域信号S进行去混响处理,得到n路第二频域信号SE;以及,对n路第一频域信号S进行降噪处理,得到n路第三频域信号SS
具体地,利用去混响方法对n路第一频域信号S进行去混响处理,减少第一频域信号S中的混响信号,以得到对应的n路第二频域信号SE,其中,每路第二频域信号SE具有M个频点。另外,利用降噪方法对n路第一频域信号S进行降噪处理,减少第一频域信号S中的噪声,以得到对应的n路第三频域信号SS,其中,每路第三频域信号SS具有M个频点。
203、电子设备确定第一频域信号Si对应的第二频域信号SEi的M个频点对应的第一语音特征,以及第一频域信号Si对应的第三频域信号SSi的M个频点对应的第二语音特征,并根据第一语音特征、第二语音特征、第二频域信号SEi、第三频域信号SSi得到第一频域信号Si对应的M个目标幅度值,其中i=1,2,……n,第一语音特征用于表征第二频域信号SEi的去混响程度,第二语音特征用于表征第三频域信号SSi的降噪程度。
具体地,对于每一路第一频域信号S对应的第二频域信号SE和第三频域信号SS,均进行步骤203的处理,则可以得到n路第一频域信号S对应的M个目标幅度值,即可以得到n组目标幅度值,一组目标幅度值包括M个目标幅度值。
204、根据M个目标幅度值确定第一频域信号Si对应的融合频域信号。
具体地,根据一组目标幅度值可以确定一路第一频域信号S对应的融合频域信号,则n路第一频域信号S可以得到对应的n个融合频域信号。其中,可以将M个目标幅度值进行拼接可以一个融合频域信号。
利用图1的语音处理方法,电子设备根据第二频域信号的第一语音特征和第三频域信号的第二语音特征,对归属于同一路第一频域信号的第二频域信号和第三频域信号进行融合处理以得到融合频域信号,可以有效确保经过上述处理后的语音信号的底噪平稳,进而有效确保经过语音处理后的语音信号的底噪平稳,保障处理后的语音信号在听觉上的舒适性。
在一个可能的实施例中,参考图2,步骤203中,根据第一语音特征、第二语音特征、第二频域信号SEi、第三频域信号SSi得到第一频域信号Si对应的M个目标幅度值,具体包括:
确定M个频点中的频点Ai对应的第一语音特征和第二语音特征满足第一预设条件时,表明去混响效果较好,此时,可以将第二频域信号SEi中频点Ai对应的第一幅度值确定为频点Ai对应的目标幅度值;或者,根据第一幅度值和第三频域信号SSi中频点Ai对应的第二幅度值确定频点Ai对应的目标幅度值;其中i=1,2,……M。
而确定频点Ai对应的第一语音特征和第二语音特征不满足第一预设条件时,表明此时去混响效果不佳,可以直接将第二幅度值确定为频点Ai对应的目标幅度值。
在一个可能的实施例中,参考图2,本实施例中,语音处理方法还包括:
电子设备对融合频域信号进行傅里叶逆变换得到融合语音信号。
具体地,电子设备利用图1的方法可以处理得到n路融合频域信号,接着,电子设备可以对n路融合频域信号进行时频域逆变换,即傅里叶逆变换,以得到对应的n路融合语音信号。可选地,电子设备还可以接着对n路融合语音信号进行其他处理,例如语音识别等处理。另外,可选地,电子设备也可以是处理n路融合语音信号得到双声道信号进行输出,例如,可以利用扬声器播放该双声道信号。
值得注意的是,本申请所指的语音信号可以是电子设备进行录音得到的语音信号,也可以是指电子设备进行视频录制得到的视频中所包含的语音信号。
在一个可能的实施例中,对语音信号进行傅里叶变换之前,方法还包括:
A1、电子设备显示拍摄界面,拍摄界面包括第一控件。其中,第一控件为控制视频录制过程的控件,通过操作第一控件,可以控制开始录制视频和停止录制视频,例如,通过点击第一控件,可以控制电子设备开始录制视频,再次点击第一控件时,可以控制电子设备停止录制视频。又或者,通过长按第一控件,可以控制电子设备开始进行视频录制,松开第一控件时,则停止视频录制。当然,操作第一控件以控制视频开始和结束录制的操作不限于上述提供的示例。
A2、电子设备检测到对第一控件的第一操作。本实施例中,第一操作为控制电子设备开始录制视频的操作,可以为上述点击第一控件或者长按第一控件的操作。
A3、电子设备响应于第一操作,电子设备进行图像拍摄得到包含语音信号的视频。电子设备响应于第一操作进行视频录制(也即连续图像拍摄)得到录制的视频,其中,录制的视频包括图像和语音。电子设备可以在每录制得到一段时间的视频的时候,即利用本实施例的语音处理方法对视频中的语音信号进行处理,实现一边录制视频一边处理语音信号,减少语音信号的处理等待时间。或者,电子设备也可以在视频录制完成后,再用本实施例的语音处理方法对视频中的语音信号进行处理。
参考图4,图4是本申请实施例提供的录制视频的场景示意图;其中,用户可以在办公室401中,手持电子设备403(例如手机)进行视频录制。其中,教师402正在给学生授课,当电子设备403打开相机应用,显示预览界面,用户在用户界面上选择了视频录制功能,进入视频录制界面,视频录制界面显示有第一控件404,用户可以通过操作第一控件404以控制电子设备403开始录制视频,本实施例中,在视频录制过程中,电子设备可以利用本申请实施例中的语音处理方法对录制得到的视频中的语音信号进行处理。
在一个可能的实施例中,对语音信号进行傅里叶变换之前,方法还包括:
B1、电子设备显示录音界面,录音界面包括第二控件。其中,第二为控制录音过程的控件,通过操作第二控件,可以控制开始录音和停止录音,例如,通过点击第二控件,可以控制电子设备开始录音,再次点击第二控件时,可以控制电子设备停止录音。又或者,通过长按第二控件,可以控制电子设备开始进行录音,松开第二控件时,则停止录音。当然,操作第二控件以控制开始录音和结束录音的操作不限于上述提供的示例。
B2、电子设备检测到对第二控件的第二操作。本实施例中,第一操作为控制电子设备开始录音的操作,可以为上述点击第二控件或者长按第二控件的操作。
B3、电子设备响应于第二操作,电子设备进行录音得到语音信号。其中,电子设备可以在每录制得到一段时间的语音的时候,即利用本实施例的语音处理方法对该语音信号进行处理,实现一边录音一边处理语音信号,减少语音信号的处理等待时间。或者,电子设备也可以在完成录音后,再用本实施例的语音处理方法对录制的语音信号进行处理。
在一个可能的实施例中,步骤201中的傅里叶变换具体可以包括短时傅里叶变换(Short-Time Fourier Transform,STFT)或快速傅里叶变换(Fast Fourier Transform,FFT)。短时傅里叶变换的思想是:选择一个时频局部化的窗函数,假定分析窗函数g(t)在一个短时间间隔内是平稳(伪平稳)的,移动窗函数,使f(t)g(t)在不同的有限时间宽度内是平稳信号,从而计算出各个不同时刻的功率谱。
而快速傅里叶变换的基本思想是把原始的N点序列,依次分解成一系列的短序列。其充分利用离散傅里叶变换(Discrete Fourier Transform,DFT)计算式中指数因子所具有的对称性质和周期性质,进而求出这些短序列相应的DFT并进行适当组合,达到删除重复计算,减少乘法运算和简化结构的目的。因此,快速傅里叶变换的处理速度比短时傅里叶变换快,本实施例中,优先选择快速傅里叶变换对语音信号进行傅里叶变换,以得到第一频域信号。
在一个可能的实施例中,步骤202中去混响处理的方法可以包括基于CDR的去混响方法或基于WPE的去混响方法。
在一个可能的实施例中,步骤202中降噪处理的方法可以包括双麦降噪或多麦降噪。其中,当电子设备具有两个麦克风时,可以利用双麦降噪技术对两个麦克风对应的第一频域信号进行降噪处理。而当电子设备具有三个以上的麦克风时,有两种降噪处理方案,第一种,可以利用多麦降噪技术同时对三个以上的麦克风的第一频域信号进行降噪处理。
第二种,可以对三个以上的麦克风的第一频域信号以组合的方式进行双麦降噪处理,其中,以麦克风A、麦克风B、麦克风C三个麦克风为例:可以对麦克风A和麦克风B对应的第一频域信号进行双麦降噪,得到麦克风A和麦克风B对应的第三频域信号a1。再对麦克风A和麦克风C对应的第一频域信号进行双麦降噪,得到麦克风C对应的第三频域信号。此时,可以再次得到一个麦克风A对应的第三频域信号a2,可以忽略该第三频域信号a2,将第三频域信号a1作为麦克风A的第三频域信号;也可以是忽略第三频域信号a1,将第三频域信号a2作为麦克风A的第三频域信号;还可以是为a1和a2赋予不同的权重,再根据第三频域信号a1和第三频域信号a2进行加权运算得到麦克风A最终的第三频域信号。
可选地,也可以是对麦克风B和麦克风C对应的第一频域信号进行双麦降噪处理,以得到麦克风C对应的第三频域信号。而麦克风B的第三频域信号的确定方法可以参考上述麦克风A的第三频域信号的确定方法,不做赘述。这样,可以利用双麦降噪技术对三个麦克风对应的第一频域信号进行降噪处理,得到三个麦克风对应的第三频域信号。
其中,双麦克风降噪技术是大规模应用的最普遍的降噪技术,一个麦克风为普通的用户通话时使用的麦克风,用于收集人声,而另一个配置在机身顶端的麦克风,具备背景噪声采集功能,方便采集周围环境噪音。以手机为例,假设手机设有A、B两个性能相同的电容式麦克风,其中A是主话筒,用于拾取通话的语音,话筒B是背景声拾音话筒,它通常安装在手机话筒的背面,并且远离A话筒,两个话筒在内部有主板隔离。正常语音通话时,嘴巴靠近话筒A,它产生较大的音频信号Va,与此同时,话筒B多多少少也会得到一些语音信号Vb,但它要比A小得多,这两个信号输入话筒处理器,其输入端是个差分放大器,也就是把两路信号相减后再放大,于是得到的信号是Vm=Va-Vb。如果在使用环境中有背景噪音,因为音源是远离手机的,所以到达手机的两个话筒时声波的强度几乎是一样的,也就是Va≈Vb,于是对于背景噪音,两个话筒虽然是都拾取了,但Vm=Va-Vb≈0从上面的分析可以看出,这样的设计可以有效地抵御手机周边的环境噪声干扰,大大提高正常通话的清晰度,即实现降噪。
进一步地,双麦降噪方案可以包括双卡尔曼滤波方案或其他降噪方案。卡尔曼滤波方案的主要思想是通过对主麦频域信号S1和副麦频域信号S2进行分析,如取副麦频域信号S1为参考信号,通过卡尔曼滤波器的不断迭代优化来滤除主麦频域信号S2中的噪声信号,从而可以得到干净的语音信号。
在一个可能的实施例中,第一语音特征包括第一双麦相关系数和第一频点能量,和/或,第二语音特征包括第二双麦相关系数和第二频点能量。
其中,第一双麦相关系数用于表征第二频域信号SEi和第二频域信号SEt在相对应频点上的信号相关程度,第二频域信号SEt为n路第二频域信号SE中除第二频域信号SEi之外的任意一路第二频域信号SE;第二双麦相关系数用于表征第三频域信号SSi和第三频域信号SSt在相对应频点上的信号相关程度,第三频域信号SSt为n路第三频域信号SS中与第二频域信号SEt对应同一个第一频域信号的第三频域信号SS。而频点的第一频点能量是指第二频域信号上的频点的幅度的平方值,频点的第二频点能量是指第三频域信号上的频点的幅度的平方值。由于第二频域信号和第三频域信号均具有M个频点,则对于每路第二频域信号来说,可以得到M个第一双麦相关系数和M个第一频点能量;对于每路第三频域信号来说,可以得到M个第二双麦相关系数和M个第二频点能量。
进一步地,可以将n路第二频域信号SE中除第二频域信号SEi之外的第二频域信号中,麦克风位置最接近第二频域信号SEi的麦克风的第二频域信号作为第二频域信号SEt
特别地,相关系数是研究变量之间线性相关程度的量,一般用字母γ表示。本申请实施例中,第一双麦相关系数和第二双麦相关系数均表征两个麦克风对应的频域信号之间的相似性。如果两个麦克风的频域信号的双麦相关系数越大,表明两个麦克风的信号互相关性越大,其语音的成分越高。
进一步地,第一双麦相关系数的计算公式为:
Figure BDA0003209195340000111
式中,γ12(t,f)表示第二频域信号SEi和第二频域信号SEt在相对应的频点的相关性,Φ12(t,f)表示该频点上第二频域信号SEi和第二频域信号SEt之间的互功率谱,Φ11(t,f)表示该频点上第二频域信号SEi的自功率谱,Φ22(t,f)表示该频点上第二频域信号SEt的自功率谱。
其中,求解Φ12(t,f)、Φ11(t,f)、Φ22(t,f)的公式分别为:
Figure BDA0003209195340000112
Figure BDA0003209195340000113
Figure BDA0003209195340000114
上述三个式子中,E{}为期望,X1{t,f}=A(t,f)*cos(w)+j*A(,f)*sin(),其表示第二频域信号SEi中该频点的复数域,其表示该频点对应的频域信号的幅度与相位信息;其中,A(t,f)表示第二频域信号SEi中该频点对应的声音的能量。X2{t,f}=A′(t,f)*cos(w)+j*A′(,f)*sin(),其表示第二频域信号SEt中该频点的复数域,其表示该频点对应的频域信号的幅度与相位信息;其中,A′(t,f)表示第二频域信号SEt中该频点对应的声音的能量。
另外,第二双麦相关系数的计算公式与第一双麦相关系数相似,不再赘述。
在一个可能的实施例中,第一预设条件包括频点Ai的第一双麦相关系数和第二双麦相关系数满足第二预设条件,且频点Ai的第一频点能量和第二频点能量满足第三预设条件。
其中,当频点Ai同时满足第二预设条件和第三预设条件时,认为去混响效果比较好,表明第二频域信号去除了更多的无用信号,第二频域信号剩余的信号中人声成分占比也较大,此时,选用第二频域信号SEi中频点Ai对应的第一幅度值作为频点Ai对应的目标幅度值。或者,将第二频域信号SEi中频点Ai对应的第一幅度值和第三频域信号SSi中频点Ai对应的第二幅度值进行平滑融合,以得到频点Ai对应的目标幅度值,实现用降噪的优点去除掉去混响时对平稳噪声的负面影响,以保证融合后的频域信号不会破坏底噪,保障处理后的语音信号的听觉舒适性。进一步地,平滑融合具体包括:
根据第二频域信号SEi中对应频点Ai的第一幅度值及对应的第一权重q1得到第一加权幅度值,以及根据第三频域信号SSi中对应频点Ai的第二幅度值及对应的第二权重q2得到第二加权值,将第一加权幅度值和第二加权幅度值之和确定为频点Ai对应的目标幅度值,频点Ai对应的目标幅度值SRi=q1*SEi+q2*SSi。其中,第一权重q1和第二权重q2之和为一,可以根据实际情况设置第一权重q1和第二权重q2的具体数值,例如,第一权重q1为0.5,第二权重q2为0.5;或者,第一权重q1为0.6,第二权重q2为0.3,或者,第一权重为0.7,第二权重q2为0.3。
而如果频点Ai不满足第二预设条件,或者,频点Ai不满足第三预设条件,或者,频点Ai不满足第二预设条件和第三预设条件,此时,表明去混响的效果不佳,则将第三频域信号SSi中频点Ai对应的第二幅度值确定为频点Ai对应的目标幅度值,避免去混响的负面效果引入,保障处理后的语音信号的底噪的舒适性。
在一个可能的实施例中,第二预设条件为频点Ai的第一双麦相关系数减去频点Ai的第二双麦相关系数的第一差值大于第一阈值。
其中,第一阈值的具体数值可以根据实际情况进行设置,不做特别限定。当频点Ai满足第二预设条件时,可以认为去混响效果明显,去混响后人声成分比降噪成分大到了一定程度。
在一个可能的实施例中,第三预设条件为频点Ai的第一频点能量减去频点Ai的第二频点能量的第二差值小于第二阈值。
其中,第二阈值的具体数值可以根据实际情况进行设置,不做特别限定,第二阈值为负值。当频点Ai满足第三预设条件时,认为去混响后的能量比降噪后的能量小到了一定程度,认为去混响后的第二频域信号去除了更多的无用信号。
下面介绍本申请实施例中涉及的语音处理方法的2个示例性使用场景。
使用场景1:
参考图5,图5是本申请实施例中语音处理方法的一个示例性流程示意图。
本实施例中,电子设备具有设置在电子设备的顶部和电子设备的底部的两个麦克风,相应地,电子设备能获得两路语音信号。参考图4,以录制视频得到语音信号为例,电子设备打开相机应用,显示预览界面,用户在用户界面上选择了视频录制功能,进入视频录制界面,视频录制界面显示有第一控件404,用户可以通过操作第一控件404以控制电子设备403开始录制视频。以在录制视频过程中,对视频中的语音信号进行语音处理为例进行说明。
电子设备对两路语音信号进行时频域转换得到两路第一频域信号,接着,分别对两路第一频域信号进行去混响处理和降噪处理,得到两路第二频域信号SE1和SE2,以及对应的两路第三频域信号SS1和SS2
电子设备计算第二频域信号SE1和第二频域信号SE2之间的第一双麦相关系数a,以及第二频域信号SE1的第一频点能量c1和第二频域信号SE2的第一频点能量c2
电子设备计算第三频域信号SS1和第三频域信号SS2之间的第二双麦相关系数b,以及第三频域信号SS1的第二频点能量d1和第三频域信号SS2的第二频点能量d2
接着,电子设备判断第i路第一频域信号对应的第二频域信号SEi和第三频域信号SSi是否符合融合条件,下面以电子设备判断第1路第一频域信号对应的第二频域信号SE1和第三频域信号SS1是否符合融合条件为例进行说明,具体地,对于第二频域信号SE1上的每个频点A进行以下判断处理:
频点A对应的aA减去频点A对应的bA的第一差值是否大于第一阈值y1,以及,
频点A对应的c1A减去频点A对应的d1A的第二差值是否小于第二阈值y2;
当频点A满足以上两个判断条件,则将第二频域信号SE1中频点A对应的第一幅度值作为频点A的目标幅度值,即SR1=SE1;或者,根据第一幅度值及对应的第一权重q1、第三频域信号SS1中频点A对应的第二幅度值及对应的第二权重q2进行加权运算得到频点A的目标幅度值,即SR1=q1*SE1+q2*SS1。而反之,频点A不满足以上至少一个判断条件时,将频点A对应的第二幅度值作为频点A的目标幅度值,即SR1=SS1
经过上述处理后,假设第二频域信号和第三频域信号均有M个频点,则可以得到对应的M个目标幅度值,根据该M个目标幅度值,电子设备可以融合第二频域信号SE1和第三频域信号SS1得到第1路融合频域信号。
电子设备可以用判断第1路第一频域信号对应的第二频域信号SE1和第三频域信号SS1的方法,对第2路第一频域信号对应的第二频域信号SE2和第三频域信号SS2进行判断,不做赘述。因此,电子设备可以融合第二频域信号SE2和第三频域信号SS2得到第2路融合频域信号。
电子设备再对第1路融合频域信号和第2路融合频域信号进行时频域逆变换,以得到第1路融合语音信号和第2路融合语音信号。
使用场景2:
本实施例中,电子设备具有设置在电子设备的顶部、电子设备的底部和电子设备的背部的三个麦克风,相应地,电子设备能获得三路语音信号。参考图5,类似地,电子设备对三路语音信号进行时频域转换得到三路第一频域信号,而电子设备对三路第一频域信号进行去混响处理得到三路第二频域信号,以及对三路第一频域信号进行降噪处理得到三路第三频域信号。
接着,在计算第一双麦相关系数和第二双麦相关系数时,对于一路第一频域信号来说,可以随机选择另外一路第一频域信号来计算第一双麦相关系数,或者,可以选择麦克风位置比较接近的那一路第一频域信号进行第一双麦相关系数的计算。同样地,电子设备需要计算每一路第二频域信号的第一频点能量和每一路第三频域信号的第二频点能量。接着,电子设备可以利用使用场景1相似的判断方法对第二频域信号和第三频域信号进行融合得到融合频域信号,最后将融合频域信号转换成融合语音信号,完成语音处理过程。
应该理解的,除了上述使用场景,本申请实施例涉及的语音处理方法还可以运用在其他的场景中,上述使用场景不应该对本申请实施例形成限制。
本申请实施例中,参考图1和图2,电子设备的内部存储器121中或者外部存储器接口120外接的存储设备中可以预先存储本申请实施例涉及的语音处理方法涉及的相关指令,使得电子设备执行本申请实施例中的语音处理方法。
下面以结合步骤201-步骤203为例,示例性说明电子设备的工作流程。
1.电子设备获取麦克风拾取的语音信号;
在一些实施例中,电子设备的触摸传感器180K接收到触摸操作(用户触摸第一控件或第二控件时触发的),相应的硬件中断被发给内核层。内核层将触摸操作加工成原始输入事件(包括触摸坐标,触摸操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,识别该输入事件所对应的控件。
例如,以上触摸操作是触摸单击操作,该单击操作所对应的控件为相机应用中的第一控件为例。相机应用调用应用框架层的接口,启动相机应用,进而通过调用内核层启动摄像头驱动,通过摄像头193获取待处理图像。
具体的,电子设备的摄像头193可以将拍摄对象反射的光信号通过镜头传递到摄像头193的图像传感器上,该图像传感器将该光信号转换为电信号,该图像传感器将该电信号传递给ISP,该ISP将该电信号转成为对应的图像,进而得到拍摄视频。而拍摄视频的同时,电子设备的麦克风170C将会拾取周围的声音得到语音信号,电子设备可以将该拍摄视频和对应采集得到的语音信号存储到内部存储器121中或者外部存储器接口120外接的存储设备中。其中,电子设备具有n个麦克风,则可以得到n路语音信号。
2.电子设备将n路语音信号转换成n路第一频域信号;
电子设备可以通过处理器110获取内部存储器121中或者外部存储器接口120外接的存储设备中存储的语音信号。电子设备的处理器110调用相关计算机指令,对语音信号进行时频域转换,以得到对应的第一频域信号。
3.电子设备对n路第一频域信号进行去混响处理得到n路第二频域信号,以及,对n路第一频域信号进行降噪处理得到n路第三频域信号;
电子设备的处理器110调用相关计算机指令,分别对第一频域信号进行去混响处理和降噪处理,以得到n路第二频域信号和n路第三频域信号。
4.电子设备确定每路第二频域信号的第一语音特征和每路第三频域信号的第二语音特征;
电子设备的处理器110调用相关计算机指令,计算第二频域信号的第一语音特征,以及计算第三频域信号的第二语音特征。
5.电子设备将对应同一路第一频域信号的第二频域信号和第三频域信号进行融合处理,得到融合频域信号;
电子设备的处理器110调用相关计算机指令,从内部存储器121中或者外部存储器接口120外接的存储设备中获取第一阈值和第二阈值,处理器110根据第一阈值、第二阈值、频点对应的第二频域信号的第一语音特征以及频点对应的第三频域信号的第二语音特征确定该频点对应的目标幅度值,对M个频点进行上述融合处理,继而得到M个目标幅度值,根据该M个目标幅度值可以得到对应的融合频域信号。
对应一路第一频域信号可以得到一路融合频域信号,因此,电子设备可以得到n路融合频域信号。
6.电子设备根据n路融合频域信号进行时频域逆转换得到n路融合语音信号。
电子设备的处理器110可以调用相关计算机指令,对n路融合频域信号进行时频域逆转换处理,以得到n路融合语音信号。
综上所述,利用本申请实施例提供的语音处理方法,电子设备先对第一频域信号进行去混响处理得到第二频域信号,以及对第一频域信号进行降噪处理得到第三频域信号,再根据第二频域信号的第一语音特征和第三频域信号的第二语音特征,对归属于同一路第一频域信号的第二频域信号和第三频域信号进行融合处理以得到融合频域信号,由于同时考虑到了去混响效果以及底噪平稳,即能实现去混响,又能有效确保经过语音处理后的语音信号的底噪平稳。
下面对本申请实施例的语音处理方法的效果进行说明,参考图6a、图6b、图6c,图6a、图6b、图6c是本申请实施例提供的语音处理方法的效果对比示意图,其中,图6a为原始语音的语谱图,图6b为利用基于WPE的去混响方法处理原始语音后的语谱图,图6c为利用本申请实施例的去混响、降噪融合的语音处理方法处理原始语音后的语谱图;而语谱图的横坐标是时间,纵坐标是频率,图中某个地方的颜色的深浅表示某一时刻某个频率的能量大小,颜色越亮,代表该时刻该频率段的能量越大。
其中,图6a中,原始语音的语谱图在横坐标(时间轴)方向上有拖尾现象,表明有混响跟在录音后,图6b和图6c两幅图就没有这种明显的拖尾,代表已经将混响消除。
另外,图6b中,低频部分(纵坐标方向数值偏小的部分)在横坐标方向(时间轴)的语谱图,在某一段时间之内其明亮的部分和昏暗的部分差异较大,即颗粒感较强,表明其经过WPE去混响后低频部分在时间轴上能量变化比较突兀,会让在原始语音有平稳底噪的地方听起来会有能量快速变化导致的不平稳的感觉——类似人工生成的噪音。而图6c中,使用去混响和降噪融合的语音处理方法使得该问题得到了很好的优化,颗粒感有所改善,增强处理后的语音的舒适感。以框601所框中区域为例,原始语音中存在混响,混响能量较大;而原始语音在经过WPE去混响之后,框601所在区域颗粒感较强;而原始语音在经过本申请的语音处理方法处理后,框601所在区域颗粒感明显有所改善。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。
上述实施例中所用,根据上下文,术语“当…时”可以被解释为意思是“如果…”或“在…后”或“响应于确定…”或“响应于检测到…”。类似地,根据上下文,短语“在确定…时”或“如果检测到(所陈述的条件或事件)”可以被解释为意思是“如果确定…”或“响应于确定…”或“在检测到(所陈述的条件或事件)时”或“响应于检测到(所陈述的条件或事件)”。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如DVD)、或者半导体介质(例如固态硬盘)等。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,该流程可以由计算机程序来指令相关的硬件完成,该程序可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法实施例的流程。而前述的存储介质包括:ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储程序代码的介质。

Claims (13)

1.一种语音处理方法,其特征在于,应用于电子设备,所述电子设备包括n个麦克风,n大于或等于二,所述方法包括:
对所述n个麦克风所拾取的语音信号进行傅里叶变换以得到对应的n路第一频域信号S,每路第一频域信号S具有M个频点,所述M为进行所述傅里叶变换时所采用的变换点数;
对所述n路第一频域信号S进行去混响处理,得到n路第二频域信号SE;以及,对所述n路第一频域信号S进行降噪处理,得到n路第三频域信号SS
确定第一频域信号Si对应的第二频域信号SEi的M个频点对应的第一语音特征,以及所述第一频域信号Si对应的第三频域信号SSi的M个频点对应的第二语音特征,并根据所述第一语音特征、所述第二语音特征、所述第二频域信号SEi、所述第三频域信号SSi得到所述第一频域信号Si对应的M个目标幅度值,其中i=1,2,……n,所述第一语音特征用于表征所述第二频域信号SEi的去混响程度,所述第二语音特征用于表征所述第三频域信号SSi的降噪程度;
根据所述M个目标幅度值确定所述第一频域信号Si对应的融合频域信号。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一语音特征、所述第二语音特征、所述第二频域信号SEi、所述第三频域信号SSi得到所述第一频域信号Si对应的M个目标幅度值,具体包括:
确定所述M个频点中的频点Ai对应的所述第一语音特征和所述第二语音特征满足第一预设条件时,将所述第二频域信号SEi中所述频点Ai对应的第一幅度值确定为所述频点Ai对应的所述目标幅度值;或者,根据所述第一幅度值和所述第三频域信号SSi中所述频点Ai对应的第二幅度值确定所述频点Ai对应的所述目标幅度值;其中i=1,2,……M;
确定所述频点Ai对应的所述第一语音特征和所述第二语音特征不满足所述第一预设条件时,将所述第二幅度值确定为所述频点Ai对应的所述目标幅度值。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一幅度值和所述第三频域信号SSi中所述频点Ai对应的第二幅度值确定所述频点Ai对应的所述目标幅度值,具体包括:
根据所述频点Ai对应的第一幅度值及对应的第一权重确定第一加权幅度值;根据所述频点Ai对应的第二幅度值及对应的第二权重确定第二加权幅度值;
将所述第一加权幅度值和所述第二加权幅度值之和确定为所述频点Ai对应的所述目标幅度值。
4.根据权利要求2或3所述的方法,其特征在于,所述第一语音特征包括第一双麦相关系数和第一频点能量值,所述第二语音特征包括第二双麦相关系数和第二频点能量值;
其中,所述第一双麦相关系数用于表征所述第二频域信号SEi和第二频域信号SEt在相对应频点上的信号相关程度,所述第二频域信号SEt为所述n路第二频域信号SE中除所述第二频域信号SEi之外的任意一路第二频域信号SE;所述第二双麦相关系数用于表征所述第三频域信号SSi和第三频域信号SSt在相对应频点上的信号相关程度,所述第三频域信号SSt为所述n路第三频域信号SS中与所述第二频域信号SEt对应同一个第一频域信号的第三频域信号SS
5.根据权利要求4所述的方法,其特征在于,所述第一预设条件包括所述频点Ai的所述第一双麦相关系数和所述第二双麦相关系数满足第二预设条件,且所述频点Ai的所述第一频点能量值和所述第二频点能量值满足第三预设条件。
6.根据权利要求5所述的方法,其特征在于,所述第二预设条件为所述频点Ai的所述第一双麦相关系数减去所述第二双麦相关系数的第一差值大于第一阈值;所述第三预设条件为所述频点Ai的所述第一频点能量值减去所述第二频点能量值的第二差值小于第二阈值。
7.根据权利要求1、2、3、5、6中任一项所述的方法,其特征在于,所述去混响处理的方法包括基于相干扩散功率比的去混响方法或基于加权预测误差的去混响方法。
8.根据权利要求1、2、3、5、6中任一项所述的方法,其特征在于,所述方法还包括:
对所述融合频域信号进行傅里叶逆变换得到融合语音信号。
9.根据权利要求1、2、3、5、6中任一项所述的方法,其特征在于,对所述语音信号进行傅里叶变换之前,所述方法还包括:
显示拍摄界面,所述拍摄界面包括第一控件;
检测到对所述第一控件的第一操作;
响应于所述第一操作,所述电子设备进行视频拍摄得到包含所述语音信号的视频。
10.根据权利要求1、2、3、5、6中任一项所述的方法,其特征在于,对所述语音信号进行傅里叶变换之前,所述方法还包括:
显示录音界面,所述录音界面包括第二控件;
检测到对所述第二控件的第二操作;
响应于所述第二操作,所述电子设备进行录音得到所述语音信号。
11.一种电子设备,其特征在于,所述电子设备包括一个或多个处理器和一个或多个存储器;其中,所述一个或多个存储器与所述一个或多个处理器耦合,所述一个或多个存储器用于存储计算机程序代码,所述计算机程序代码包括计算机指令,当所述一个或多个处理器执行所述计算机指令时,使得所述电子设备执行如权利要求1-10任一项所述的方法。
12.一种芯片系统,其特征在于,所述芯片系统应用于电子设备,所述芯片系统包括一个或多个处理器,所述处理器用于调用计算机指令以使得所述电子设备执行如权利要求1-10中任一项所述的方法。
13.一种计算机可读存储介质,包括指令,其特征在于,当所述指令在电子设备上运行时,使得所述电子设备执行如权利要求1-10中任一项所述的方法。
CN202110925923.8A 2021-08-12 2021-08-12 语音处理方法和电子设备 Active CN113823314B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202110925923.8A CN113823314B (zh) 2021-08-12 2021-08-12 语音处理方法和电子设备
EP22855005.9A EP4280212A4 (en) 2021-08-12 2022-05-16 SPEECH PROCESSING METHOD AND ELECTRONIC DEVICE
US18/279,475 US20240144951A1 (en) 2021-08-12 2022-05-16 Voice processing method and electronic device
PCT/CN2022/093168 WO2023016018A1 (zh) 2021-08-12 2022-05-16 语音处理方法和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110925923.8A CN113823314B (zh) 2021-08-12 2021-08-12 语音处理方法和电子设备

Publications (2)

Publication Number Publication Date
CN113823314A CN113823314A (zh) 2021-12-21
CN113823314B true CN113823314B (zh) 2022-10-28

Family

ID=78922754

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110925923.8A Active CN113823314B (zh) 2021-08-12 2021-08-12 语音处理方法和电子设备

Country Status (4)

Country Link
US (1) US20240144951A1 (zh)
EP (1) EP4280212A4 (zh)
CN (1) CN113823314B (zh)
WO (1) WO2023016018A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113823314B (zh) * 2021-08-12 2022-10-28 北京荣耀终端有限公司 语音处理方法和电子设备
CN116233696B (zh) * 2023-05-05 2023-09-15 荣耀终端有限公司 气流杂音抑制方法、音频模组、发声设备和存储介质
CN117316175B (zh) * 2023-11-28 2024-01-30 山东放牛班动漫有限公司 一种动漫数据智能编码存储方法及系统
CN118014885B (zh) * 2024-04-09 2024-08-09 深圳市资福医疗技术有限公司 一种底噪消除方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2386653A1 (en) * 1999-10-05 2001-04-12 Syncphase Labs, Llc Apparatus and methods for mitigating impairments due to central auditory nervous system binaural phase-time asynchrony
CN105427861A (zh) * 2015-11-03 2016-03-23 胡旻波 智能家居协同麦克风语音控制系统及控制方法
US9401158B1 (en) * 2015-09-14 2016-07-26 Knowles Electronics, Llc Microphone signal fusion
CN107316648A (zh) * 2017-07-24 2017-11-03 厦门理工学院 一种基于有色噪声的语音增强方法
CN109195043A (zh) * 2018-07-16 2019-01-11 恒玄科技(上海)有限公司 一种无线双蓝牙耳机提高降噪量的方法
CN110827791A (zh) * 2019-09-09 2020-02-21 西北大学 一种面向边缘设备的语音识别-合成联合的建模方法
CN111223493A (zh) * 2020-01-08 2020-06-02 北京声加科技有限公司 语音信号降噪处理方法、传声器和电子设备

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9171551B2 (en) * 2011-01-14 2015-10-27 GM Global Technology Operations LLC Unified microphone pre-processing system and method
US9467779B2 (en) * 2014-05-13 2016-10-11 Apple Inc. Microphone partial occlusion detector
CN105635500B (zh) * 2014-10-29 2019-01-25 辰芯科技有限公司 双麦克风回声及噪声的抑制系统及其方法
CN105825865B (zh) * 2016-03-10 2019-09-27 福州瑞芯微电子股份有限公司 噪声环境下的回声消除方法及系统
CN107316649B (zh) * 2017-05-15 2020-11-20 百度在线网络技术(北京)有限公司 基于人工智能的语音识别方法及装置
CN109979476B (zh) * 2017-12-28 2021-05-14 电信科学技术研究院 一种语音去混响的方法及装置
CN110197669B (zh) * 2018-02-27 2021-09-10 上海富瀚微电子股份有限公司 一种语音信号处理方法及装置
CN110875060A (zh) * 2018-08-31 2020-03-10 阿里巴巴集团控股有限公司 语音信号处理方法、装置、系统、设备和存储介质
WO2020211004A1 (zh) * 2019-04-17 2020-10-22 深圳市大疆创新科技有限公司 音频信号处理方法、设备及存储介质
CN110310655B (zh) * 2019-04-22 2021-10-22 广州视源电子科技股份有限公司 麦克风信号处理方法、装置、设备及存储介质
CN110211602B (zh) * 2019-05-17 2021-09-03 北京华控创为南京信息技术有限公司 智能语音增强通信方法及装置
CN110648684B (zh) * 2019-07-02 2022-02-18 中国人民解放军陆军工程大学 一种基于WaveNet的骨导语音增强波形生成方法
US11244696B2 (en) * 2019-11-06 2022-02-08 Microsoft Technology Licensing, Llc Audio-visual speech enhancement
CN111131947B (zh) * 2019-12-05 2022-08-09 小鸟创新(北京)科技有限公司 耳机信号处理方法、系统和耳机
CN111161751A (zh) * 2019-12-25 2020-05-15 声耕智能科技(西安)研究院有限公司 复杂场景下的分布式麦克风拾音系统及方法
CN111489760B (zh) * 2020-04-01 2023-05-16 腾讯科技(深圳)有限公司 语音信号去混响处理方法、装置、计算机设备和存储介质
CN111599372B (zh) * 2020-04-02 2023-03-21 云知声智能科技股份有限公司 一种稳定的在线多通道语音去混响方法及系统
CN111312273A (zh) * 2020-05-11 2020-06-19 腾讯科技(深圳)有限公司 混响消除方法、装置、计算机设备和存储介质
CN112420073B (zh) * 2020-10-12 2024-04-16 北京百度网讯科技有限公司 语音信号处理方法、装置、电子设备和存储介质
CN113823314B (zh) * 2021-08-12 2022-10-28 北京荣耀终端有限公司 语音处理方法和电子设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2386653A1 (en) * 1999-10-05 2001-04-12 Syncphase Labs, Llc Apparatus and methods for mitigating impairments due to central auditory nervous system binaural phase-time asynchrony
US9401158B1 (en) * 2015-09-14 2016-07-26 Knowles Electronics, Llc Microphone signal fusion
CN105427861A (zh) * 2015-11-03 2016-03-23 胡旻波 智能家居协同麦克风语音控制系统及控制方法
CN107316648A (zh) * 2017-07-24 2017-11-03 厦门理工学院 一种基于有色噪声的语音增强方法
CN109195043A (zh) * 2018-07-16 2019-01-11 恒玄科技(上海)有限公司 一种无线双蓝牙耳机提高降噪量的方法
CN110827791A (zh) * 2019-09-09 2020-02-21 西北大学 一种面向边缘设备的语音识别-合成联合的建模方法
CN111223493A (zh) * 2020-01-08 2020-06-02 北京声加科技有限公司 语音信号降噪处理方法、传声器和电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
联合长短时记忆递归神经网络和非负矩阵分解的语音混响消除方法;刘斌等;《信号处理》;20170325(第03期);全文 *

Also Published As

Publication number Publication date
CN113823314A (zh) 2021-12-21
US20240144951A1 (en) 2024-05-02
WO2023016018A1 (zh) 2023-02-16
EP4280212A4 (en) 2024-07-10
EP4280212A1 (en) 2023-11-22

Similar Documents

Publication Publication Date Title
CN113823314B (zh) 语音处理方法和电子设备
WO2020078237A1 (zh) 音频处理方法和电子设备
WO2021052214A1 (zh) 一种手势交互方法、装置及终端设备
CN112532892B (zh) 图像处理方法及电子装置
CN110458902B (zh) 3d光照估计方法及电子设备
WO2023005383A1 (zh) 一种音频处理方法及电子设备
CN112533115B (zh) 一种提升扬声器的音质的方法及装置
CN113448482B (zh) 触控屏的滑动响应控制方法及装置、电子设备
CN113810603B (zh) 点光源图像检测方法和电子设备
CN114697812A (zh) 声音采集方法、电子设备及系统
WO2022027972A1 (zh) 一种设备搜寻方法以及电子设备
WO2022161077A1 (zh) 语音控制方法和电子设备
WO2023241209A9 (zh) 桌面壁纸配置方法、装置、电子设备及可读存储介质
CN111314763A (zh) 流媒体播放方法及装置、存储介质与电子设备
CN115641867A (zh) 语音处理方法和终端设备
CN113132532A (zh) 环境光强度校准方法、装置及电子设备
CN113593567B (zh) 视频声音转文本的方法及相关设备
US20230162718A1 (en) Echo filtering method, electronic device, and computer-readable storage medium
CN114120950B (zh) 一种人声屏蔽方法和电子设备
WO2022111593A1 (zh) 一种用户图形界面显示方法及其装置
WO2022033344A1 (zh) 视频防抖方法、终端设备和计算机可读存储介质
CN115695640B (zh) 一种防关机保护方法及电子设备
WO2022007757A1 (zh) 跨设备声纹注册方法、电子设备及存储介质
CN114390406B (zh) 一种控制扬声器振膜位移的方法及装置
CN115480250A (zh) 语音识别方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220615

Address after: 100095 floors 2-14, building 3, yard 5, honeysuckle Road, Haidian District, Beijing

Applicant after: Beijing Honor Device Co.,Ltd.

Address before: Unit 3401, unit a, building 6, Shenye Zhongcheng, No. 8089, Hongli West Road, Donghai community, Xiangmihu street, Futian District, Shenzhen, Guangdong 518040

Applicant before: Honor Device Co.,Ltd.

GR01 Patent grant
GR01 Patent grant