CN113160844A - 基于噪声背景分类的语音增强方法及系统 - Google Patents
基于噪声背景分类的语音增强方法及系统 Download PDFInfo
- Publication number
- CN113160844A CN113160844A CN202110459982.0A CN202110459982A CN113160844A CN 113160844 A CN113160844 A CN 113160844A CN 202110459982 A CN202110459982 A CN 202110459982A CN 113160844 A CN113160844 A CN 113160844A
- Authority
- CN
- China
- Prior art keywords
- voice
- speech
- noise
- processed
- generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000012549 training Methods 0.000 claims description 41
- 230000015654 memory Effects 0.000 claims description 18
- 238000005457 optimization Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 6
- 230000006835 compression Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 5
- 230000009191 jumping Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 4
- 238000005070 sampling Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L2021/02087—Noise filtering the noise being separate speech, e.g. cocktail party
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
本发明公开了基于噪声背景分类的语音增强方法及系统,包括:获取待处理语音信号;对待处理语音信号进行特征提取;将提取的特征,输入到训练后的分类器中,得到待处理语音的噪声背景标签;根据噪声背景标签,选择对应标签的训练后的生成器;将待处理的语音信号,输入到被选中的训练后的生成器中,得到增强后的语音信号。本方法选择了提取带噪语音的梅尔频率倒谱系数输入分类器对噪声背景进行分类,对分类好的语音使用同一个模型内针对此类噪声背景的生成对抗网络来实现语音增强,此方法在面对多场景下的语音增强都有较好的效果。
Description
技术领域
本发明涉及语音信号处理技术领域,特别是涉及基于噪声背景分类的语音增强方法及系统。
背景技术
本部分的陈述仅仅是提到了与本发明相关的背景技术,并不必然构成现有技术。
语音是人与人之间进行信息交换最直接、最有效的工具,同时也是人与机器进行通信的工具。但是,当人与人之间进行信息交换、人与机器之间进行通信时,总是会受到噪声的影响,而且在不同的场景下,噪声的类型也是不同的,不同的噪声对有效的语音信息的影响也是不同的。例如人们在汽车内进行交谈,其噪声多为引擎噪声、喇叭声等等;在咖啡馆内噪声多为客人交谈声;在计算机机房噪声多为计算机运行的风扇声。因此同一方法在多场景进行语音增强效果往往可能不佳。因此,如何使用一种语音增强方法在不同场景时都能达到不错的效果成为了领域技术人员亟待解决的技术问题。
目前各类语音增强方法大多都针对某一特定的背景噪声进行语音增强,在遇到其他类型噪声背景时,其增强效果大都一般,所以急需一种针对多种噪声场景的语音增强方法。
发明内容
为了解决现有技术的不足,本发明提供了基于噪声背景分类的语音增强方法及系统;对不同的噪声场景进行区分,来达到针对某一种场景使用同一个模型内的某一特定的网络进行语音增强,来实现更好的语音增强效果。
第一方面,本发明提供了基于噪声背景分类的语音增强方法;
基于噪声背景分类的语音增强方法,包括:
获取待处理语音信号;
对待处理语音信号进行特征提取;
将提取的特征,输入到训练后的分类器中,得到待处理语音的噪声背景标签;
根据噪声背景标签,选择对应标签的训练后的生成器;
将待处理的语音信号,输入到被选中的训练后的生成器中,得到增强后的语音信号。
第二方面,本发明提供了基于噪声背景分类的语音增强系统;
基于噪声背景分类的语音增强系统,包括:
获取模块,其被配置为:获取待处理语音信号;
特征提取模块,其被配置为:对待处理语音信号进行特征提取;
分类模块,其被配置为:将提取的特征,输入到训练后的分类器中,得到待处理语音的噪声背景标签;
选择模块,其被配置为:根据噪声背景标签,选择对应标签的训练后的生成器;
增强模块,其被配置为:将待处理的语音信号,输入到被选中的训练后的生成器中,得到增强后的语音信号。
第三方面,本发明还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述第一方面所述的方法。
第四方面,本发明还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成第一方面所述的方法。
与现有技术相比,本发明的有益效果是:
本发明充分考虑了语音增强领域中大多数语音增强方法在多场景下进行语音增强时无法获得良好的效果的问题,本方法选择了提取带噪语音的梅尔频率倒谱系数输入分类器对噪声背景进行分类,对分类好的语音使用同一个模型内针对此类噪声背景的生成对抗网络来实现语音增强,此方法在面对多场景下的语音增强都有较好的效果。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为第一个实施例的方法流程图。
具体实施方式
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
术语解释:
梅尔频率倒谱系数(Mel Frequency Cepstral Coefficient,MFCC);
生成对抗网络(Generative Adversarial Networks)。
实施例一
本实施例提供了基于噪声背景分类的语音增强方法;
如图1所示,基于噪声背景分类的语音增强方法,包括:
S101:获取待处理语音信号;
S102:对待处理语音信号进行特征提取;
S103:将提取的特征,输入到训练后的分类器中,得到待处理语音的噪声背景标签;
S104:根据噪声背景标签,选择对应标签的训练后的生成器;
S105:将待处理的语音信号,输入到被选中的训练后的生成器中,得到增强后的语音信号。
进一步地,所述S102:对待处理语音信号进行特征提取;具体包括:
对待处理语音信号,提取梅尔频率倒谱系数特征。
进一步地,所述S103:将提取的特征,输入到训练后的分类器中,得到待处理语音的噪声背景标签;其中,训练后的分类器,训练步骤包括:
构建第一训练集,所述第一训练集为已知噪声背景标签的语音信号特征;
将训练集输入到分类器中,对分类器进行训练;
当分类器的损失函数得到最小值或者训练达到迭代次数时,停止训练,得到训练后的分类器。
示例性的,构建数据集的构建步骤包括:
对于纯净的语音数据集,选择使用THCHS30,THCHS30是由清华大学语音与语言技术中心(CSLT)出版的开放式中文语音数据库。
噪声背景选择在咖啡厅、行驶的汽车内、在运行的地铁上、服务器运行的机房内和自助餐厅内五种场景下录制的噪声。
将数据集THCHS30均分为六份,每份时长为5小时,利用程序将五份纯净语音数据分别与五个不同场景的噪声合成为不同信噪比的带噪语音作为训练集,再将剩下的一份纯净语音分为五份,再与五个噪声场景的噪声合成不同信噪比的带噪语音作为测试集。
在合成带噪语音文件时,每个训练集文件会根据当前的噪声背景类型在文件名称最后添加该类型的代码,本发明将咖啡厅内噪声代码设置为A,行驶的汽车内代码设置为B,在运行的地铁上代码设置为C,服务器运行的机房内代码设置为D,自助餐厅内代码设置为E,测试集文件名称最后不设置添加噪声背景代码。
提取带噪语音的信息:
对各个场景下的带噪语音进行MFCC特征提取,读取其噪声类型的标签代码,将每个MFCC特征与标签对应存储在一个数组A中,并将数组A的顺序打乱。
进一步地,所述分类器为卷积神经网络。
或者,
进一步地,所述分类器具体结构包括:
依次连接的第一卷积层、第一激活函数层、第一最大池化层、第二卷积层、第二激活函数层和第二最大池化层。
其中,第一卷积层和第二卷积层的卷积核数量相同,第一卷积层设有32个卷积核,每个卷积核有5*5的采样窗口。
示例性的:分类器由第一层由卷积层构成,该卷积层有32个卷积核,每个卷积核有5*5的采样窗口,卷积层后使用ReLU激活函数,并施加max-pooling池化层,而后添加第二个卷积层其配置与第一个卷积层相同,同样使用ReLU激活函数,并施加max-pooling池化层,第二个max-pooling池化层的输出扁平化为1维,输入全连接层,经过全连接层后得到分类器预测结果。
进一步地,所述已知噪声背景标签,例如包括:咖啡厅、行驶的汽车内、运行的地铁上、服务器运行的机房内和/或自主餐厅内。
示例性的,分类器训练:将打乱后的带噪语音数组a输入到分类器,分类器在得到预测噪声背景类型标签后会与数组a中的标签进行验证,由于大批量的文件不断的比较,如果误差大,模型会使用AdamOptimizer优化器进行优化反向传输调整这些层的参数来降低误差,经过150次迭代训练会自己学会预测噪声背景标签,准确率在98%以上。
进一步地,所述S104:根据噪声背景标签,选择对应标签的训练后的生成器;其中,训练后的生成器,具体训练步骤包括:
S1041:构建第二训练集;所述第二训练集,包括:无噪声语音信号和已知噪声背景标签的带噪声语音信号;其中,已知噪声背景标签的带噪声语音信号,是通过对无噪声语音信号添加对应标签的背景噪声得到的;
S1042:重复鉴别器初始化步骤、生成器初始化步骤和优化权值步骤三个步骤;
首次执行时,鉴别器初始化步骤和生成器初始化步骤,均使用正态分布的随机数对权值进行赋值;
非首次执行时,鉴别器初始化步骤和生成器初始化步骤,使用上一次优化权值步骤中的优化器优化后的权重;
S1043:判断当前已训练数据个数是否大于设定值,重复进行训练,直到达到设定的训练个数;训练完成后保存优化权值步骤中最后一层权重;得到训练后的生成器。
进一步地,所述鉴别器初始化步骤;具体包括:
首次执行时,使用正态分布的随机数对权值进行赋值;将预处理后的无噪声语音输入鉴别器,鉴别器将输出为1,表示此类输入为无噪声语音;
非首次执行时,使用上一次优化权值步骤中的优化器优化后的权重;将无噪声语音和生成器处理后的带噪声语音输入到鉴别器中,鉴别器输出鉴别结果。
进一步地,所述生成器初始化步骤;具体包括:
首次执行时,使用正态分布的随机数对权值进行赋值;将预处理后的带噪声语音输入生成器,编码结构将预处理后的带噪声语音进行压缩,再由解码结构进行反压缩,并通过跳跃连接将带噪声语音中语音特征从编码结构送入解码结构内来指导解码结构生成增强语音;
非首次执行时,使用上一次优化权值步骤中的优化器优化后的权重;将预处理后的带噪语音输入生成器,编码结构首先会将预处理后的带噪语音进行压缩,再由解码结构进行反压缩,并通过跳跃连接将带噪语音中语音特征从编码结构送入解码结构内来指导解码结构生成增强语音。
进一步地,所述优化权值步骤;具体包括:
生成对抗网络内的AdamOptimizer优化器根据由增强语音与无噪声语音求取的生成器的损失值和鉴别器的损失值,通过梯度下降来对生成器内各个编码结构与解码结构的卷积核的权重进行更新,从而生成与无噪声语音相比更加相似的增强语音;同时优化器也更新鉴别器内的权重,来增强鉴别器识别增强语音的能力。
进一步地,所述构建第二训练集,是选择合适的语音数据集、多种噪声背景,利用纯净语音和不同噪声合成不同信噪比的带噪声类型标签的训练数据。
示例性的,生成器由多层卷积层和多层反卷积层构成,卷积层可称为编码结构,反卷积层称为解码结构,卷积层与反卷积层呈镜面对称的结构,并且在卷积层与反卷积层间添加跳跃连接结构。
鉴别器由多层卷积层构成,其结构与生成器中的卷积层结构相同。
进一步地,所述S105:将待处理的语音信号,输入到被选中的训练后的生成器中,得到增强后的语音信号;具体包括:
将待处理的语音信号,输入到被选中的训练后的生成器中,依次进行编码和解码处理,得到增强后的语音信号。
本发明通过提取带噪语音的梅尔频率倒谱系数(Mel FrequencyCepstralCoefficient,MFCC)输入到卷积神经网络对噪声背景进行分类,对分类好的语音使用同一个模型内针对此类噪声背景的生成对抗网络(GenerativeAdversarialNetworks)模型实现语音增强。
构建多个语音增强网络,语音增强网络的数量与噪声背景的数量相同,并对每个语音增强网络的输入噪声类型进行划分,划分后的语音增强网络将只接受对应带噪语言的输入。
将未知场景的带噪语音输入模型,分类器会对带噪语音进行分类并通过该类的语音增强网络得到增强后的语音。
示例性的,语音增强模型选择多个生成对抗网络(Generativeadversarialnetwork,GAN),一共构建五个相同的生成对抗网络,每个生成对抗网络选择相同的结构,每个GAN网络由一个生成器与一个鉴别器组成。
示例性的,训练阶段生成对抗网络输入数据处理:
将五种噪声背景对应的带噪语音、无噪声语音、带噪语音的场景类型标签存储为一个TFrecord文件。
在TFrecord文件内,带噪语音被标记为noise,无噪声语音被标记为clean,带噪语音的场景类型标签标记为label,根据label的类型将此类带噪语音与无噪声语音输入对应的生成对抗网络内。
带噪语音与无噪声语音输入之前还会对其进行预处理的操作,预处理后将带噪语音与无噪声语音分为多个批次,一个批次为150个一秒的采样点数。
五个生成对抗网络在进行语音增强操作时相同,仅输入的带噪语音与无噪声语音不同,下面取噪声代码设置为A的咖啡厅内噪声背景的生成对抗网络举例。
示例性的,训练阶段生成对抗网络内的鉴别器初始化:
鉴别器内卷积层的卷积核的权重,使用生成正态分布的随机数进行的初始化,将预处理后的无噪声语音输入鉴别器,鉴别器将输出为1,表示此类输入为无噪声语音。
示例性的,训练阶段生成对抗网络内的生成器初始化:
生成器内编码结构与解码结构的卷积核的权重,使用生成正态分布的随机数进行的初始化。将预处理后的带噪语音输入生成器,编码结构首先会将预处理后的带噪语音进行压缩,再由解码结构进行反压缩,并通过跳跃连接将带噪语音中语音特征从编码结构送入解码结构内来指导解码结构生成增强语音。
示例性的,训练阶段优化权值阶段:
鉴别器初始化、生成器初始化两个阶段完成后,将生成器生成的增强语音输入鉴别器内,因为在初始化阶段鉴别器输入的为无噪声语音,此时的增强语音与无噪声语音有较大的差别,所以鉴别器会输出0,代表此次输入为增强语音。
生成对抗网络内的AdamOptimizer优化器根据由增强语音与无噪声语音求取的生成器的损失值和鉴别器的损失值,来指导生成器内各个编码结构与解码结构的卷积核的权重进行更新,从而生成与无噪声语音相比更加相似的增强语音;同时优化器也更新鉴别器内的权重,来增强鉴别器识别增强语音的能力。
将测试集的文件输入分类器,分类器将自动将测试集内文件自动分类并标注噪声背景标签,将按照分类器标注的标签将该带噪语音输入到处理该类带噪语音的GAN网络内,GAN网络将以1秒为间隔对带噪语音进行降噪处理,将所有带噪语音处理完毕后,将所处理的文件进行连接,得到增强语音。
本发明的创新点在于:提取带噪语音的梅尔频率倒谱系数输入分类器对噪声背景进行分类,对分类好的语音使用模型内针对此类噪声背景的生成对抗网络来实现语音增强。
本发明给出一种基于噪声背景分类的语音增强方法,通过取带噪语音的梅尔频率倒谱系数输入分类器对噪声背景进行分类,对分类好的语音使用模型内针对此类噪声背景的生成对抗网络来实现语音增强。该发明与其他语音增强方法相比具有更好的泛化性,在不同的噪声场景下都具有较好的效果。
实施例二
本实施例提供了基于噪声背景分类的语音增强系统;
基于噪声背景分类的语音增强系统,包括:
获取模块,其被配置为:获取待处理语音信号;
特征提取模块,其被配置为:对待处理语音信号进行特征提取;
分类模块,其被配置为:将提取的特征,输入到训练后的分类器中,得到待处理语音的噪声背景标签;
选择模块,其被配置为:根据噪声背景标签,选择对应标签的训练后的生成器;
增强模块,其被配置为:将待处理的语音信号,输入到被选中的训练后的生成器中,得到增强后的语音信号。
此处需要说明的是,上述获取模块、特征提取模块、分类模块、选择模块和增强模块对应于实施例一中的步骤S101至S105,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例一所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
上述实施例中对各个实施例的描述各有侧重,某个实施例中没有详述的部分可以参见其他实施例的相关描述。
所提出的系统,可以通过其他的方式实现。例如以上所描述的系统实施例仅仅是示意性的,例如上述模块的划分,仅仅为一种逻辑功能划分,实际实现时,可以有另外的划分方式,例如多个模块可以结合或者可以集成到另外一个系统,或一些特征可以忽略,或不执行。
实施例三
本实施例还提供了一种电子设备,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述实施例一所述的方法。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。
实施例一中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元及算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
实施例四
本实施例还提供了一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例一所述的方法。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.基于噪声背景分类的语音增强方法,其特征是,包括:
获取待处理语音信号;
对待处理语音信号进行特征提取;
将提取的特征,输入到训练后的分类器中,得到待处理语音的噪声背景标签;
根据噪声背景标签,选择对应标签的训练后的生成器;
将待处理的语音信号,输入到被选中的训练后的生成器中,得到增强后的语音信号。
2.如权利要求1所述的基于噪声背景分类的语音增强方法,其特征是,对待处理语音信号进行特征提取;具体包括:
对待处理语音信号,提取梅尔频率倒谱系数特征。
3.如权利要求1所述的基于噪声背景分类的语音增强方法,其特征是,将提取的特征,输入到训练后的分类器中,得到待处理语音的噪声背景标签;其中,训练后的分类器,训练步骤包括:
构建第一训练集,所述第一训练集为已知噪声背景标签的语音信号特征;
将训练集输入到分类器中,对分类器进行训练;
当分类器的损失函数得到最小值或者训练达到迭代次数时,停止训练,得到训练后的分类器。
4.如权利要求1所述的基于噪声背景分类的语音增强方法,其特征是,根据噪声背景标签,选择对应标签的训练后的生成器;其中,训练后的生成器,具体训练步骤包括:
(1)构建第二训练集;所述第二训练集,包括:无噪声语音信号和已知噪声背景标签的带噪声语音信号;其中,已知噪声背景标签的带噪声语音信号,是通过对无噪声语音信号添加对应标签的背景噪声得到的;
(2)重复鉴别器初始化步骤、生成器初始化步骤和优化权值步骤三个步骤;
首次执行时,鉴别器初始化步骤和生成器初始化步骤,均使用正态分布的随机数对权值进行赋值;
非首次执行时,鉴别器初始化步骤和生成器初始化步骤,使用上一次优化权值步骤中的优化器优化后的权重;
(3)判断当前已训练数据个数是否大于设定值,重复进行训练,直到达到设定的训练个数;训练完成后保存优化权值步骤中最后一层权重;得到训练后的生成器。
5.如权利要求4所述的基于噪声背景分类的语音增强方法,其特征是,所述鉴别器初始化步骤;具体包括:
首次执行时,使用正态分布的随机数对权值进行赋值;将预处理后的无噪声语音输入鉴别器,鉴别器将输出为1,表示此类输入为无噪声语音;
非首次执行时,使用上一次优化权值步骤中的优化器优化后的权重;将无噪声语音和生成器处理后的带噪声语音输入到鉴别器中,鉴别器输出鉴别结果。
6.如权利要求4所述的基于噪声背景分类的语音增强方法,其特征是,所述生成器初始化步骤;具体包括:
首次执行时,使用正态分布的随机数对权值进行赋值;将预处理后的带噪声语音输入生成器,编码结构将预处理后的带噪声语音进行压缩,再由解码结构进行反压缩,并通过跳跃连接将带噪声语音中语音特征从编码结构送入解码结构内来指导解码结构生成增强语音;
非首次执行时,使用上一次优化权值步骤中的优化器优化后的权重;将预处理后的带噪语音输入生成器,编码结构首先会将预处理后的带噪语音进行压缩,再由解码结构进行反压缩,并通过跳跃连接将带噪语音中语音特征从编码结构送入解码结构内来指导解码结构生成增强语音。
7.如权利要求4所述的基于噪声背景分类的语音增强方法,其特征是,所述优化权值步骤;具体包括:
生成对抗网络内的优化器根据由增强语音与无噪声语音求取的生成器的损失值和鉴别器的损失值,通过梯度下降来对生成器内各个编码结构与解码结构的卷积核的权重进行更新,从而生成与无噪声语音相比更加相似的增强语音;同时优化器也更新鉴别器内的权重,来增强鉴别器识别增强语音的能力。
8.基于噪声背景分类的语音增强系统,其特征是,包括:
获取模块,其被配置为:获取待处理语音信号;
特征提取模块,其被配置为:对待处理语音信号进行特征提取;
分类模块,其被配置为:将提取的特征,输入到训练后的分类器中,得到待处理语音的噪声背景标签;
选择模块,其被配置为:根据噪声背景标签,选择对应标签的训练后的生成器;
增强模块,其被配置为:将待处理的语音信号,输入到被选中的训练后的生成器中,得到增强后的语音信号。
9.一种电子设备,其特征是,包括:一个或多个处理器、一个或多个存储器、以及一个或多个计算机程序;其中,处理器与存储器连接,上述一个或多个计算机程序被存储在存储器中,当电子设备运行时,该处理器执行该存储器存储的一个或多个计算机程序,以使电子设备执行上述权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其特征是,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110459982.0A CN113160844A (zh) | 2021-04-27 | 2021-04-27 | 基于噪声背景分类的语音增强方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110459982.0A CN113160844A (zh) | 2021-04-27 | 2021-04-27 | 基于噪声背景分类的语音增强方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113160844A true CN113160844A (zh) | 2021-07-23 |
Family
ID=76871861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110459982.0A Pending CN113160844A (zh) | 2021-04-27 | 2021-04-27 | 基于噪声背景分类的语音增强方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113160844A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114267372A (zh) * | 2021-12-31 | 2022-04-01 | 思必驰科技股份有限公司 | 语音降噪方法、系统、电子设备和存储介质 |
CN116597855A (zh) * | 2023-07-18 | 2023-08-15 | 深圳市则成电子股份有限公司 | 自适应降噪的方法、装置和计算机设备 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104795064A (zh) * | 2015-03-30 | 2015-07-22 | 福州大学 | 低信噪比声场景下声音事件的识别方法 |
CN108806708A (zh) * | 2018-06-13 | 2018-11-13 | 中国电子科技集团公司第三研究所 | 基于计算听觉场景分析和生成对抗网络模型的语音降噪方法 |
CN109285538A (zh) * | 2018-09-19 | 2019-01-29 | 宁波大学 | 一种基于常q变换域的加性噪声环境下手机来源识别方法 |
CN109448702A (zh) * | 2018-10-30 | 2019-03-08 | 上海力声特医学科技有限公司 | 人工耳蜗听觉场景识别方法 |
CN109859767A (zh) * | 2019-03-06 | 2019-06-07 | 哈尔滨工业大学(深圳) | 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质 |
CN110164472A (zh) * | 2019-04-19 | 2019-08-23 | 天津大学 | 基于卷积神经网络的噪声分类方法 |
CN110600054A (zh) * | 2019-09-06 | 2019-12-20 | 南京工程学院 | 基于网络模型融合的声场景分类方法 |
EP3716270A1 (en) * | 2019-03-29 | 2020-09-30 | Goodix Technology (HK) Company Limited | Speech processing system and method therefor |
CN111785288A (zh) * | 2020-06-30 | 2020-10-16 | 北京嘀嘀无限科技发展有限公司 | 语音增强方法、装置、设备及存储介质 |
US20200335086A1 (en) * | 2019-04-19 | 2020-10-22 | Behavioral Signal Technologies, Inc. | Speech data augmentation |
CN112446242A (zh) * | 2019-08-29 | 2021-03-05 | 北京三星通信技术研究有限公司 | 声学场景分类方法、装置及相应设备 |
-
2021
- 2021-04-27 CN CN202110459982.0A patent/CN113160844A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104795064A (zh) * | 2015-03-30 | 2015-07-22 | 福州大学 | 低信噪比声场景下声音事件的识别方法 |
CN108806708A (zh) * | 2018-06-13 | 2018-11-13 | 中国电子科技集团公司第三研究所 | 基于计算听觉场景分析和生成对抗网络模型的语音降噪方法 |
CN109285538A (zh) * | 2018-09-19 | 2019-01-29 | 宁波大学 | 一种基于常q变换域的加性噪声环境下手机来源识别方法 |
CN109448702A (zh) * | 2018-10-30 | 2019-03-08 | 上海力声特医学科技有限公司 | 人工耳蜗听觉场景识别方法 |
CN109859767A (zh) * | 2019-03-06 | 2019-06-07 | 哈尔滨工业大学(深圳) | 一种用于数字助听器的环境自适应神经网络降噪方法、系统及存储介质 |
EP3716270A1 (en) * | 2019-03-29 | 2020-09-30 | Goodix Technology (HK) Company Limited | Speech processing system and method therefor |
CN110164472A (zh) * | 2019-04-19 | 2019-08-23 | 天津大学 | 基于卷积神经网络的噪声分类方法 |
US20200335086A1 (en) * | 2019-04-19 | 2020-10-22 | Behavioral Signal Technologies, Inc. | Speech data augmentation |
CN112446242A (zh) * | 2019-08-29 | 2021-03-05 | 北京三星通信技术研究有限公司 | 声学场景分类方法、装置及相应设备 |
CN110600054A (zh) * | 2019-09-06 | 2019-12-20 | 南京工程学院 | 基于网络模型融合的声场景分类方法 |
CN111785288A (zh) * | 2020-06-30 | 2020-10-16 | 北京嘀嘀无限科技发展有限公司 | 语音增强方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
刘载文: "《水环境系统智能化软测量与控制方法》", 31 March 2013, 中国轻工业出版社 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114267372A (zh) * | 2021-12-31 | 2022-04-01 | 思必驰科技股份有限公司 | 语音降噪方法、系统、电子设备和存储介质 |
CN116597855A (zh) * | 2023-07-18 | 2023-08-15 | 深圳市则成电子股份有限公司 | 自适应降噪的方法、装置和计算机设备 |
CN116597855B (zh) * | 2023-07-18 | 2023-09-29 | 深圳市则成电子股份有限公司 | 自适应降噪的方法、装置和计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2498015C (en) | Combining active and semi-supervised learning for spoken language understanding | |
CN113470662A (zh) | 生成和使用用于关键词检出系统的文本到语音数据和语音识别系统中的说话者适配 | |
CN113160844A (zh) | 基于噪声背景分类的语音增强方法及系统 | |
US20030061037A1 (en) | Method and apparatus for identifying noise environments from noisy signals | |
CN101154380B (zh) | 说话人认证的注册及验证的方法和装置 | |
CN111081230B (zh) | 语音识别方法和设备 | |
CN104903954A (zh) | 使用基于人工神经网络的亚语音单位区分的说话人验证及识别 | |
JP2013539558A (ja) | パラメータ音声の合成方法及びシステム | |
CN112735482A (zh) | 基于联合深度神经网络的端点检测方法及系统 | |
CN1199488A (zh) | 模式识别 | |
CN104299623A (zh) | 语音应用中用于自动确认和消歧模块的方法和系统 | |
KR20150145024A (ko) | 화자적응 음성인식 시스템의 단말 및 서버와 그 운용 방법 | |
CN113611293B (zh) | 一种蒙古语数据集扩充方法 | |
CN114664318A (zh) | 基于生成对抗网络的语音增强方法及系统 | |
JP2020071482A (ja) | 語音分離方法、語音分離モデル訓練方法及びコンピュータ可読媒体 | |
KR102241364B1 (ko) | 음성 신호를 이용한 사용자 스트레스 판별 장치 및 방법 | |
CN108369803B (zh) | 用于形成基于声门脉冲模型的参数语音合成系统的激励信号的方法 | |
CN112750445A (zh) | 语音转换方法、装置和系统及存储介质 | |
CN116994553A (zh) | 语音合成模型的训练方法、语音合成方法、装置及设备 | |
CN118675536A (zh) | 使用深度生成网络的实时数据包丢失隐藏 | |
CN117373431A (zh) | 音频合成方法、训练方法、装置、设备及存储介质 | |
CN110633735B (zh) | 基于小波变换的渐进式深度卷积网络图像识别方法及装置 | |
CN115376498A (zh) | 语音识别方法、模型训练方法、装置、介质、电子设备 | |
Alashban et al. | Speaker gender classification in mono-language and cross-language using BLSTM network | |
JP2017520016A (ja) | パラメトリック音声合成システムに基づく声門パルスモデルの励磁信号形成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |