Nothing Special   »   [go: up one dir, main page]

CN113327626A - 语音降噪方法、装置、设备及存储介质 - Google Patents

语音降噪方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113327626A
CN113327626A CN202110699792.6A CN202110699792A CN113327626A CN 113327626 A CN113327626 A CN 113327626A CN 202110699792 A CN202110699792 A CN 202110699792A CN 113327626 A CN113327626 A CN 113327626A
Authority
CN
China
Prior art keywords
voice
scene
recognition model
scene recognition
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110699792.6A
Other languages
English (en)
Other versions
CN113327626B (zh
Inventor
汪雪
黄石磊
程刚
何竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Raisound Technology Co ltd
Original Assignee
Shenzhen Raisound Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Raisound Technology Co ltd filed Critical Shenzhen Raisound Technology Co ltd
Priority to CN202110699792.6A priority Critical patent/CN113327626B/zh
Publication of CN113327626A publication Critical patent/CN113327626A/zh
Application granted granted Critical
Publication of CN113327626B publication Critical patent/CN113327626B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本申请涉及音频处理技术领域,揭露了一种语音降噪方法,包括:获取语音数据,将所述语音数据输入预设的标准场景识别模型,确定所述语音数据对应的语音场景,所述标准场景识别模型为根据各个场景下的噪声样本集训练得到,选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪。此外,本申请还揭露一种语音降噪方法、装置、设备及存储介质。本申请可提高语音降噪的精确度。

Description

语音降噪方法、装置、设备及存储介质
技术领域
本申请涉及音频处理技术领域,尤其涉及一种语音降噪方法、装置及存储介质。
背景技术
现在的生活中充斥着各种各样的噪音音频数据,例如马路边的噪音音频数据、公园里的噪音音频数据和办公室的噪音音频数据等,不同语音场景下噪音音频数据的音频特征不同,与此同时对应采用的语音降噪手段也不相同。
现有的语音降噪方法是基于用户声纹特征的降噪,例如,根据用户的声纹特征对语音数据中的用户语音进行增强,以实现对背景噪声的削弱,完成语音降噪。但实际应用场景中,当背景噪声的音量过大时,该方法无法根据对用户语音的增强实现对背景噪声的削弱,导致降噪的精确度不高。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本申请提供了一种语音降噪方法、装置及存储介质。
第一方面,本申请提供了一种语音降噪方法,所述方法包括:
获取语音数据;
将所述语音数据输入预设的标准场景识别模型,确定所述语音数据对应的语音场景,所述标准场景识别模型为根据各个场景下的噪声样本集训练得到;
选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪。
第一方面的其中一个实施例中,获取语音数据的步骤之前,包括:
采集各个场景下的噪声样本集,从各个噪声样本中提取音频特征;
基于所述音频特征对所述噪声样本集进行聚类分析,得到分类语音集;
将所述分类语音集切分为训练语音集和测试语音集,利用所述训练语音集构建所述场景识别模型,并利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型。
第一方面的其中一个实施例中,将所述分类语音集切分为训练语音集和测试语音集,利用所述训练语音集构建所述场景识别模型,并利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型的步骤之后,还包括:
根据采集到的各个场景下的噪声样本集,建立与各个场景对应的降噪模型,以供调用。
第一方面的其中一个实施例中,所述利用所述训练语音集构建得到场景识别模型,包括:
计算每一个特征标注与对应的所述训练语音集之间的基尼指数,得到所述特征标注对应的基尼指数集合,所述特征标注为从各个场景下的噪声样本集中提取得到对应音频特征的类别标注;
对所述基尼指数集合按照从大到小的顺序进行排序,选取所述基尼指数集合中最小的基尼指数所对应的标注作为切分点;
以所述切分点作为初始决策树的根节点,从所述切分点出发生成子节点并将所述训练语音集分配到所述子节点中,直到将所述特征标注中的所有标注遍历完毕,生成所述初始决策树;
对所述初始决策树进行剪枝处理,得到场景识别模型。
第一方面的其中一个实施例中,所述对所述初始决策树进行剪枝处理,得到场景识别模型,包括:
计算所述初始决策树上所有非叶子节点的表面误差增益值;
对所述表面误差增益值小于预设的增益阈值的非叶子节点进行剪枝,得到场景识别模型。
第一方面的其中一个实施例中,所述利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型,包括:
利用所述场景识别模型对所述测试语音集进行场景识别处理,得到所述测试语音集对应的识别结果;
当所述测试语音集对应的识别结果与所述测试语音集对应的特征标注不一致时,重新利用所述训练语音集对所述场景识别模型进行训练,直到所述测试语音集对应的识别结果与所述测试语音集对应的特征标注一致时,得到标准场景识别模型。
第一方面的其中一个实施例中,所述基于所述音频特征对所述噪声样本集进行聚类分析,得到分类语音集,包括:
获取预设的标准特征,计算所述音频特征与所述标准特征之间的条件概率值;
按照所述条件概率值的大小对所述噪声样本集中的每个噪声样本进行排序,以预设的音频间隔为划分点对排序后的噪声样本集进行划分,得到分类语音集。
第一方面的其中一个实施例中,采集各个场景下的噪声样本集,从各个噪声样本中提取音频特征,包括:
对所述噪声样本集进行预加重处理、分帧处理、加窗处理以及快速傅里叶变换,得到所述噪声样本集的短时频谱;
对所述短时频谱取模平方,得到所述噪声样本集的功率谱;
利用预设的梅尔尺度的三角形滤波器组对所述功率谱进行计算并得到对数能量,对所述对数能量进行离散余弦变换,得到每个噪声样本对应的音频特征。
第二方面,本申请提供了一种语音场景识别装置,所述装置包括:
语音数据获取模块,用于获取语音数据;
语音场景识别模块,用于将所述语音数据输入预设的标准场景识别模型,确定所述语音数据对应的语音场景,所述标准场景识别模型为根据各个场景下的噪声样本集训练得到;
降噪模块,用于选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪。
第三方面,提供了一种语音识别设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现第一方面任一项实施例所述的语音降噪方法的步骤。
第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面任一项实施例所述的语音降噪方法的步骤。
本申请实施例提供的上述技术方案与现有技术相比具有如下优点:
本申请实施例通过将获取得到的语音数据输入预设的标准场景识别模型中,利用所述标准场景识别模型识别出所述语音数据对应的语音场景,识别所述语音数据对应的语音场景可以确定所述语音数据所处的语音环境,并选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪,通过与场景匹配的降噪模型进行降噪,更加精准地执行了降噪操作,因此,实现了提高语音降噪的精确度的目的。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种语音降噪方法的流程示意图;
图2为本申请实施例提供的语音降噪方法中对场景识别模型进行测试调整的流程示意图;
图3为本申请实施例提供的一种语音降噪的装置的模块示意图;
图4为本申请实施例提供的一种语音降噪的电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为本申请实施例提供的一种语音降噪方法的流程示意图。在本实施例中,所述语音降噪方法包括:
S1、获取语音数据。
本发明实施例中,所述语音数据为待进行降噪处理的含有噪声的音频数据,以便后续进行诸如语音识别等的音频处理。具体的,所述语音数据可以为在任意语音场景中采集到的音频数据。
进一步的,获取语音数据的步骤之前,包括:
采集各个场景下的噪声样本集,从各个噪声样本中提取音频特征;
基于所述音频特征对所述噪声样本集进行聚类分析,得到分类语音集;
将所述分类语音集切分为训练语音集和测试语音集,利用所述训练语音集构建所述场景识别模型,并利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型。
详细地,本申请实施例中,所述噪声样本集包括各个语音场景下的噪音音频数据,例如,公园中的噪音音频数据,马路边的噪音音频数据或者办公室里的噪音音频数据。本发明实施例中,所述噪声样本集中还可以包括各个噪声样本所对应的特征标注,该特征标注用于标注各个噪声样本中提取对应的音频特征。所述音频特征可以包括过零率、梅尔频率倒谱系数、频谱质心、频谱扩散、谱熵和谱通量等,其中,本申请实施例中的所述音频特征优选为梅尔频率倒谱系数。
具体地,所述采集各个场景下的噪声样本集,从各个噪声样本中提取音频特征,包括:
对所述噪声样本集进行预加重处理、分帧处理、加窗处理以及快速傅里叶变换,得到所述噪声样本集的短时频谱;
对所述短时频谱取模平方,得到所述噪声样本集的功率谱;
利用预设的梅尔尺度的三角形滤波器组对所述功率谱进行计算并得到对数能量,对所述对数能量进行离散余弦变换,得到每个噪声样本对应的音频特征。
在本申请一可选实施例中,通过一个预设的高通滤波器对所述噪声样本集进行预加重处理,得到高频噪声样本集,所述预加重处理可以增强所述噪声样本集中语音信号的高频部分。
本申请实施例对所述噪声样本集进行预加重处理,可以突出噪声样本中高频部分的共振峰。
在本申请一可选实施例中,利用预设的采样点将所述高频噪声样本集切分成多帧的数据,得到分帧数据集;
优选地,本申请实施例中,所述采样点为512或者256。
在本申请一可选实施例中,所述加窗处理是根据预设的窗口函数对所述分帧数据集中的每一帧进行加窗处理,得到加窗信号。
详细地,所述预设的窗口函数为:
S′(n)=S(n)×W(n)
Figure BDA0003129791290000041
其中,S′(n)为加窗信号,S(n)为分帧数据集,W(n)为窗口函数,N为帧的大小,n为帧的个数。
优选地,本申请实施例中,所述预设的窗口函数可选择汉明窗,所述W(n)为汉明窗的函数表达式。
本申请实施例对所述分帧数据集进行加窗处理可以增加帧左端和帧右端的连续性,减少频谱泄漏。
进一步地,本发明实施例采用下述公式执行快速傅里叶变换,包括:
Figure BDA0003129791290000042
采用下述公式对所述短时频谱取模平方:
Figure BDA0003129791290000043
其中,s(k)为短时频谱,p(k)为功率谱,S′(n)为加窗信号,N为帧的大小,n为帧的个数,k为短时频谱上的预设参数。
由于信号在时域上的变换通常很难看出信号的特性,因此,本发明实施例将所述噪声样本集转换为频域上的能量分布,不同的能量分布可以代表不同语音的特性。
进一步地,本发明实施例中,所述梅尔(Mel)尺度的三角形滤波器组为:
Figure BDA0003129791290000051
其中,T(m)为对数能量,p(k)为功率谱,H(k)为三角滤波器的频率响应,N为帧的大小,k为短时频谱上的预设参数。
本发明实施例利用所述三角滤波器对所述功率谱进行对数能量的计算可以使短时频谱平滑,并消除谐波,突显语音信息中的共振峰。
具体地,所述基于所述音频特征对所述噪声样本集进行聚类分析,得到分类语音集,包括:
获取预设的标准特征,计算所述音频特征与所述标准特征之间的相关系数;
按照所述相关系数的大小对所述噪声样本集中的每个噪声样本进行排序,以预设的音频间隔为划分点对排序后的噪声样本集进行划分,得到分类语音集。
其中,所述分类语音集包括不同场景下的语音,例如,马路场景下的语音,公园场景下的语音等。
详细地,利用如下公式计算所述噪声样本集中每个噪声样本对应的音频特征与所述标准特征之间的相关系数,包括:
Figure BDA0003129791290000052
其中,qij为所述相关系数,yi为噪声样本对应的音频特征,yj为所述标准特征,exp为指数函数,yk和yl为固定参数。
具体地,对所述原始噪声样本集进行聚类分析是将分布在高维空间中的噪声样本嵌入到某个低维子空间中,尽可能地保持低维空间中的数据与高维空间中的特性一致。进行所述聚类分析可以在低维空间保持高维数据全局聚类特性的优势,对多种噪声样本的聚类关系进行可视化分析,从而将时频域特性相似的噪声样本归为一类进行分类识别,以提高识别的准确率。
进一步地,将所述分类语音集切分为训练语音集和测试语音集,利用所述训练语音集构建所述场景识别模型,并利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型。其中,根据预设的划分比例对所述分类语音集进行切分,得到训练语音集和测试语音集。
优选地,所述划分比例为训练语音集:测试语音集=7:3。
其中,所述训练语音集可以用于后续模型训练,是用于模型进行拟合的样本,所述测试语音集可以用于调整模型的超参数和用于对模型的能力进行初步评估,具体用来评估模型的泛化能力。
具体地,所述利用所述训练语音集构建得到场景识别模型,包括:
计算每一个特征标注与对应的所述训练语音集之间的基尼指数,得到所述特征标注对应的基尼指数集合,所述特征标注为从各个场景下的噪声样本集中提取得到对应音频特征的类别标注;
对所述基尼指数集合按照从大到小的顺序进行排序,选取所述基尼指数集合中最小的基尼指数所对应的标注作为切分点;
以所述切分点作为初始决策树的根节点,从所述切分点出发生成子节点并将所述训练语音集分配到所述子节点中,直到将所述特征标注中的所有标注遍历完毕,生成所述初始决策树;
对所述初始决策树进行剪枝处理,得到场景识别模型。
具体地,所述计算每一个特征标注与对应的所述训练数据集之间的基尼指数,包括:
利用下述基尼指数计算函数每一个特征标注和所述特征标注对应的所述训练语音集之间的基尼指数:
Figure BDA0003129791290000061
其中,Gini(p)为基尼指数,pk表示所述训练语音集中的第k帧数据,K是所述训练语音集中的帧数。
详细地,所述基尼指数代表了模型的不纯度,所述基尼指数越小,不纯度越低,说明特征越好。
进一步地,所述对所述初始决策树进行剪枝处理,得到场景识别模型,包括:
计算所述初始决策树上所有非叶子节点的表面误差增益值;
对所述表面误差增益值小于预设的增益阈值的非叶子节点进行剪枝,得到场景识别模型。
其中,本申请实施例中,所述预设的增益阈值为0.5。
进一步地,所述计算所述初始决策树上所有非叶子节点的表面误差增益值,包括:
利用下述增益公式计算计算所述初始决策树上所有非叶子节点的表面误差增益值:
Figure BDA0003129791290000062
R(t)=r(t)*p(t)
其中,α表示表面误差增益值,R(t)表示叶子节点的误差代价,R(T)表示非叶子节点的误差代价,N(T)表示所述初始决策树的节点个数,r(t)为叶子节点的错误率,p(t)为叶子节点的个数与所有节点个数的占比。
具体地,参阅图2所示,所述利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型,包括:
S101、利用所述场景识别模型对所述测试语音集进行场景识别处理,得到所述测试语音集对应的识别结果;
S102、当所述测试语音集对应的识别结果与所述测试语音集对应的特征标注不一致时,重新利用所述训练语音集对所述场景识别模型进行训练,直到所述测试语音集对应的识别结果与所述测试语音集对应的特征标注一致时,得到标准场景识别模型。
进一步地,将所述分类语音集切分为训练语音集和测试语音集,利用所述训练语音集构建所述场景识别模型,并利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型的步骤之后,还包括:
根据采集到的各个场景下的噪声样本集,建立与各个场景对应的降噪模型,以供调用。
S2、将所述语音数据输入预设的标准场景识别模型,确定所述语音数据对应的语音场景,所述标准场景识别模型为根据各个场景下的噪声样本集训练得到。
本申请实施例中,将获取到的语音数据输入至所述预设的标准场景识别模型中,所述预设的标准场景识别模型对所述语音数据进行场景识别处理,输出所述语音数据对应的语音场景。
S3、选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪。
本申请实施例中,所述降噪模型包括动态时间规整模型、矢量量化模型和隐马尔可夫模型等,根据所述语音数据所对应的语音场景及所述降噪模型的特性,选择对应的降噪模型对所述语音数据执行降噪操作,得到降噪结果。
本申请实施例通过将获取得到的语音数据输入预设的标准场景识别模型中,利用所述标准场景识别模型识别出所述语音数据对应的语音场景,识别所述语音数据对应的语音场景可以确定所述语音数据所处的语音环境,并选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪,提高语音降噪的精确度。
如图3所示,本申请实施例提供了一种语音降噪装置10的模块示意图,所述语音降噪装置10,包括:语音数据获取模块11、语音场景识别模块12和降噪模块13。
所述语音数据获取模块11,用于获取语音数据;
所述语音场景识别模块12,用于将所述语音数据输入预设的标准场景识别模型,确定所述语音数据对应的语音场景,所述标准场景识别模型为根据各个场景下的噪声样本集训练得到;
所述降噪模块13,用于选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪。
详细地,本申请实施例中所述语音降噪装置10中的各模块在使用时采用与上述的图1中所述的语音降噪方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图4所示,本申请实施例提供了一种语音降噪设备,包括处理器111、通信接口112、存储器113和通信总线114,其中,处理器111,通信接口112,存储器113通过通信总线114完成相互间的通信,
存储器113,用于存放计算机程序;
在本申请一个实施例中,处理器111,用于执行存储器113上所存放的程序时,实现前述任意一个方法实施例提供的语音降噪方法,包括:
获取语音数据;
将所述语音数据输入预设的标准场景识别模型,确定所述语音数据对应的语音场景,所述标准场景识别模型为根据各个场景下的噪声样本集训练得到;
选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪。
上述通信总线114可以是外设部件互连标准(PeripheralComponentInterconnect,简称PCI)总线或扩展工业标准结构(ExtendedIndustryStandardArchitecture,简称EISA)总线等。该通信总线114可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口112用于上述电子设备与其他设备之间的通信。
存储器113可以包括随机存取存储器(RandomAccessMemory,简称RAM),也可以包括非易失性存储器(non-volatilememory),例如至少一个磁盘存储器。可选的,存储器113还可以是至少一个位于远离前述处理器111的存储装置。
上述的处理器111可以是通用处理器,包括中央处理器(CentralProcessingUnit,简称CPU)、网络处理器(NetworkProcessor,简称NP)等;还可以是数字信号处理器(DigitalSignalProcessing,简称DSP)、专用集成电路(ApplicationSpecificIntegratedCircuit,简称ASIC)、现场可编程门阵列(Field-ProgrammableGateArray,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本申请实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如前述任意一个方法实施例提供的语音降噪方法的步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请实施例的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidStateDisk(SSD))等。需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所申请的原理和新颖特点相一致的最宽的范围。

Claims (11)

1.一种语音降噪方法,其特征在于,所述方法包括:
获取语音数据;
将所述语音数据输入预设的标准场景识别模型,确定所述语音数据对应的语音场景,所述标准场景识别模型为根据各个场景下的噪声样本集训练得到;
选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪。
2.根据权利要求1所述的语音降噪方法,其特征在于,获取语音数据的步骤之前,包括:
采集各个场景下的噪声样本集,从各个噪声样本中提取音频特征;
基于所述音频特征对所述噪声样本集进行聚类分析,得到分类语音集;
将所述分类语音集切分为训练语音集和测试语音集,利用所述训练语音集构建所述场景识别模型,并利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型。
3.根据权利要求2所述的语音降噪方法,其特征在于,将所述分类语音集切分为训练语音集和测试语音集,利用所述训练语音集构建所述场景识别模型,并利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型的步骤之后,还包括:
根据采集到的各个场景下的噪声样本集,建立与各个场景对应的降噪模型,以供调用。
4.根据权利要求2所述的语音降噪方法,其特征在于,所述利用所述训练语音集构建所述场景识别模型,包括:
计算每一个特征标注与对应的所述训练语音集之间的基尼指数,得到所述特征标注对应的基尼指数集合,所述特征标注为从各个场景下的噪声样本集中提取得到对应音频特征的类别标注;
对所述基尼指数集合按照从大到小的顺序进行排序,选取所述基尼指数集合中最小的基尼指数所对应的标注作为切分点;
以所述切分点作为初始决策树的根节点,从所述切分点出发生成子节点并将所述训练语音集分配到所述子节点中,直到将所述特征标注中的所有标注遍历完毕,生成所述初始决策树;
对所述初始决策树进行剪枝处理,得到场景识别模型。
5.根据权利要求4所述的语音降噪方法,其特征在于,所述对所述初始决策树进行剪枝处理,得到场景识别模型,包括:
计算所述初始决策树上所有非叶子节点的表面误差增益值;
对所述表面误差增益值小于预设的增益阈值的非叶子节点进行剪枝,得到场景识别模型。
6.根据权利要求4所述的语音降噪方法,其特征在于,所述利用所述测试语音集对所述场景识别模型进行测试调整,得到标准场景识别模型,包括:
利用所述场景识别模型对所述测试语音集进行场景识别处理,得到所述测试语音集对应的识别结果;
当所述测试语音集对应的识别结果与所述测试语音集对应的特征标注不一致时,重新利用所述训练语音集对所述场景识别模型进行训练,直到所述测试语音集对应的识别结果与所述测试语音集对应的特征标注一致时,得到标准场景识别模型。
7.根据权利要求2所述的语音降噪方法,其特征在于,所述基于所述音频特征对所述噪声样本集进行聚类分析,得到分类语音集,包括:
获取预设的标准特征,计算所述音频特征与所述标准特征之间的条件概率值;
按照所述条件概率值的大小对所述噪声样本集中的每个噪声样本进行排序,以预设的音频间隔为划分点对排序后的噪声样本集进行划分,得到分类语音集。
8.根据权利要求1至5中任意一项所述的语音降噪方法,其特征在于,采集各个场景下的噪声样本集,从各个噪声样本中提取音频特征,包括:
对所述噪声样本集进行预加重处理、分帧处理、加窗处理以及快速傅里叶变换,得到所述噪声样本集的短时频谱;
对所述短时频谱取模平方,得到所述噪声样本集的功率谱;
利用预设的梅尔尺度的三角形滤波器组对所述功率谱进行计算并得到对数能量,对所述对数能量进行离散余弦变换,得到每个噪声样本对应的音频特征。
9.一种语音降噪装置,其特征在于,所述装置包括:
语音数据获取模块,用于获取语音数据;
语音场景识别模块,用于将所述语音数据输入预设的标准场景识别模型,确定所述语音数据对应的语音场景,所述标准场景识别模型为根据各个场景下的噪声样本集训练得到;
降噪模块,用于选择预设的与所述语音场景对应的降噪模型,对所述语音数据进行降噪。
10.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-8中任意一项所述的语音降噪方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-8中任意一项所述的语音降噪方法的步骤。
CN202110699792.6A 2021-06-23 2021-06-23 语音降噪方法、装置、设备及存储介质 Active CN113327626B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110699792.6A CN113327626B (zh) 2021-06-23 2021-06-23 语音降噪方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110699792.6A CN113327626B (zh) 2021-06-23 2021-06-23 语音降噪方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113327626A true CN113327626A (zh) 2021-08-31
CN113327626B CN113327626B (zh) 2023-09-08

Family

ID=77424416

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110699792.6A Active CN113327626B (zh) 2021-06-23 2021-06-23 语音降噪方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN113327626B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516985A (zh) * 2021-09-13 2021-10-19 北京易真学思教育科技有限公司 语音识别方法、装置和非易失性计算机可读存储介质
CN113793620A (zh) * 2021-11-17 2021-12-14 深圳市北科瑞声科技股份有限公司 基于场景分类的语音降噪方法、装置、设备及存储介质
CN114333881A (zh) * 2022-03-09 2022-04-12 深圳市迪斯声学有限公司 基于环境自适应的音频传输降噪方法、装置、设备及介质
CN114566160A (zh) * 2022-03-01 2022-05-31 游密科技(深圳)有限公司 语音处理方法、装置、计算机设备、存储介质
CN114666092A (zh) * 2022-02-16 2022-06-24 奇安信科技集团股份有限公司 用于安全分析的实时行为安全基线数据降噪方法及装置
CN114974279A (zh) * 2022-05-10 2022-08-30 中移(杭州)信息技术有限公司 音质控制方法、装置、设备及存储介质
CN115331689A (zh) * 2022-08-11 2022-11-11 北京声智科技有限公司 语音降噪模型的训练方法、装置、设备、存储介质及产品
CN116758934A (zh) * 2023-08-18 2023-09-15 深圳市微克科技有限公司 一种智能穿戴设备对讲功能的实现方法、系统及介质
CN116994599A (zh) * 2023-09-13 2023-11-03 湖北星纪魅族科技有限公司 用于电子设备的音频降噪方法、电子设备及存储介质
CN117202071A (zh) * 2023-09-21 2023-12-08 广东金海纳实业有限公司 一种降噪耳机的测试方法及系统

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710490A (zh) * 2009-11-20 2010-05-19 安徽科大讯飞信息科技股份有限公司 语音评测的噪声补偿方法及装置
US20120225719A1 (en) * 2011-03-04 2012-09-06 Mirosoft Corporation Gesture Detection and Recognition
KR20120129421A (ko) * 2011-05-20 2012-11-28 고려대학교 산학협력단 숫자 음성 인식 장치 및 방법
US8438029B1 (en) * 2012-08-22 2013-05-07 Google Inc. Confidence tying for unsupervised synthetic speech adaptation
CN106611183A (zh) * 2016-05-30 2017-05-03 四川用联信息技术有限公司 基尼指数与误分类代价敏感决策树构建方法
KR20180046062A (ko) * 2016-10-27 2018-05-08 에스케이텔레콤 주식회사 정규화를 이용한 음성 구간 판단 방법 및 이를 위한 음성 구간 판단 장치
CN108181107A (zh) * 2018-01-12 2018-06-19 东北电力大学 计及多分类目标的风电机组轴承机械故障诊断方法
CN108198547A (zh) * 2018-01-18 2018-06-22 深圳市北科瑞声科技股份有限公司 语音端点检测方法、装置、计算机设备和存储介质
US20180254041A1 (en) * 2016-04-11 2018-09-06 Sonde Health, Inc. System and method for activation of voice interactive services based on user state
CN109285538A (zh) * 2018-09-19 2019-01-29 宁波大学 一种基于常q变换域的加性噪声环境下手机来源识别方法
WO2019237519A1 (zh) * 2018-06-11 2019-12-19 平安科技(深圳)有限公司 通用向量训练方法、语音聚类方法、装置、设备及介质
CN110769111A (zh) * 2019-10-28 2020-02-07 珠海格力电器股份有限公司 一种降噪方法、系统、存储介质以及终端
CN111754988A (zh) * 2020-06-23 2020-10-09 南京工程学院 基于注意力机制和双路径深度残差网络的声场景分类方法
CN111916066A (zh) * 2020-08-13 2020-11-10 山东大学 基于随机森林的语音声调识别方法及系统
CN111933175A (zh) * 2020-08-06 2020-11-13 北京中电慧声科技有限公司 一种基于噪声场景识别的活动语音检测方法及系统
CN112614504A (zh) * 2020-12-22 2021-04-06 平安科技(深圳)有限公司 单声道语音降噪方法、系统、设备及可读存储介质
CN112863667A (zh) * 2021-01-22 2021-05-28 杭州电子科技大学 一种基于深度学习的肺部声音诊断装置

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101710490A (zh) * 2009-11-20 2010-05-19 安徽科大讯飞信息科技股份有限公司 语音评测的噪声补偿方法及装置
US20120225719A1 (en) * 2011-03-04 2012-09-06 Mirosoft Corporation Gesture Detection and Recognition
KR20120129421A (ko) * 2011-05-20 2012-11-28 고려대학교 산학협력단 숫자 음성 인식 장치 및 방법
US8438029B1 (en) * 2012-08-22 2013-05-07 Google Inc. Confidence tying for unsupervised synthetic speech adaptation
US20180254041A1 (en) * 2016-04-11 2018-09-06 Sonde Health, Inc. System and method for activation of voice interactive services based on user state
CN106611183A (zh) * 2016-05-30 2017-05-03 四川用联信息技术有限公司 基尼指数与误分类代价敏感决策树构建方法
KR20180046062A (ko) * 2016-10-27 2018-05-08 에스케이텔레콤 주식회사 정규화를 이용한 음성 구간 판단 방법 및 이를 위한 음성 구간 판단 장치
CN108181107A (zh) * 2018-01-12 2018-06-19 东北电力大学 计及多分类目标的风电机组轴承机械故障诊断方法
CN108198547A (zh) * 2018-01-18 2018-06-22 深圳市北科瑞声科技股份有限公司 语音端点检测方法、装置、计算机设备和存储介质
WO2019237519A1 (zh) * 2018-06-11 2019-12-19 平安科技(深圳)有限公司 通用向量训练方法、语音聚类方法、装置、设备及介质
CN109285538A (zh) * 2018-09-19 2019-01-29 宁波大学 一种基于常q变换域的加性噪声环境下手机来源识别方法
CN110769111A (zh) * 2019-10-28 2020-02-07 珠海格力电器股份有限公司 一种降噪方法、系统、存储介质以及终端
CN111754988A (zh) * 2020-06-23 2020-10-09 南京工程学院 基于注意力机制和双路径深度残差网络的声场景分类方法
CN111933175A (zh) * 2020-08-06 2020-11-13 北京中电慧声科技有限公司 一种基于噪声场景识别的活动语音检测方法及系统
CN111916066A (zh) * 2020-08-13 2020-11-10 山东大学 基于随机森林的语音声调识别方法及系统
CN112614504A (zh) * 2020-12-22 2021-04-06 平安科技(深圳)有限公司 单声道语音降噪方法、系统、设备及可读存储介质
CN112863667A (zh) * 2021-01-22 2021-05-28 杭州电子科技大学 一种基于深度学习的肺部声音诊断装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
涂晴宇: "面向人机交互的语音情感识别与文本敏感词检测", 《 中国优秀硕士学位论文全文数据库 (信息科技辑)》, pages 136 - 201 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113516985A (zh) * 2021-09-13 2021-10-19 北京易真学思教育科技有限公司 语音识别方法、装置和非易失性计算机可读存储介质
CN113793620A (zh) * 2021-11-17 2021-12-14 深圳市北科瑞声科技股份有限公司 基于场景分类的语音降噪方法、装置、设备及存储介质
CN113793620B (zh) * 2021-11-17 2022-03-08 深圳市北科瑞声科技股份有限公司 基于场景分类的语音降噪方法、装置、设备及存储介质
CN114666092A (zh) * 2022-02-16 2022-06-24 奇安信科技集团股份有限公司 用于安全分析的实时行为安全基线数据降噪方法及装置
CN114566160A (zh) * 2022-03-01 2022-05-31 游密科技(深圳)有限公司 语音处理方法、装置、计算机设备、存储介质
CN114333881A (zh) * 2022-03-09 2022-04-12 深圳市迪斯声学有限公司 基于环境自适应的音频传输降噪方法、装置、设备及介质
CN114974279A (zh) * 2022-05-10 2022-08-30 中移(杭州)信息技术有限公司 音质控制方法、装置、设备及存储介质
CN115331689A (zh) * 2022-08-11 2022-11-11 北京声智科技有限公司 语音降噪模型的训练方法、装置、设备、存储介质及产品
CN116758934A (zh) * 2023-08-18 2023-09-15 深圳市微克科技有限公司 一种智能穿戴设备对讲功能的实现方法、系统及介质
CN116758934B (zh) * 2023-08-18 2023-11-07 深圳市微克科技有限公司 一种智能穿戴设备对讲功能的实现方法、系统及介质
CN116994599A (zh) * 2023-09-13 2023-11-03 湖北星纪魅族科技有限公司 用于电子设备的音频降噪方法、电子设备及存储介质
CN117202071A (zh) * 2023-09-21 2023-12-08 广东金海纳实业有限公司 一种降噪耳机的测试方法及系统
CN117202071B (zh) * 2023-09-21 2024-03-29 广东金海纳实业有限公司 一种降噪耳机的测试方法及系统

Also Published As

Publication number Publication date
CN113327626B (zh) 2023-09-08

Similar Documents

Publication Publication Date Title
CN113327626B (zh) 语音降噪方法、装置、设备及存储介质
WO2021208287A1 (zh) 用于情绪识别的语音端点检测方法、装置、电子设备及存储介质
US8160877B1 (en) Hierarchical real-time speaker recognition for biometric VoIP verification and targeting
CN109493881B (zh) 一种音频的标签化处理方法、装置和计算设备
CN109256138B (zh) 身份验证方法、终端设备及计算机可读存储介质
CN109065071B (zh) 一种基于迭代k-means算法的歌曲聚类方法
CN113223536B (zh) 声纹识别方法、装置及终端设备
CN111724770B (zh) 一种基于深度卷积生成对抗网络的音频关键词识别方法
CN108899033B (zh) 一种确定说话人特征的方法及装置
CN111540342B (zh) 一种能量阈值调整方法、装置、设备及介质
CN109378014A (zh) 一种基于卷积神经网络的移动设备源识别方法及系统
CN111402922B (zh) 基于小样本的音频信号分类方法、装置、设备及存储介质
CN117935789A (zh) 语音识别方法及系统、设备、存储介质
Kaminski et al. Automatic speaker recognition using a unique personal feature vector and Gaussian Mixture Models
Leow et al. Language-resource independent speech segmentation using cues from a spectrogram image
CN115938346A (zh) 音准评估方法、系统、设备及存储介质
Marković et al. Reverberation-based feature extraction for acoustic scene classification
CN113111855B (zh) 一种多模态情感识别方法、装置、电子设备及存储介质
CN107993666A (zh) 语音识别方法、装置、计算机设备及可读存储介质
CN111933153B (zh) 一种语音分割点的确定方法和装置
Patil et al. Content-based audio classification and retrieval: A novel approach
CN111326161B (zh) 一种声纹确定方法及装置
CN114446284A (zh) 说话人日志生成方法、装置、计算机设备及可读存储介质
CN114302301A (zh) 频响校正方法及相关产品
Therese et al. A linear visual assessment tendency based clustering with power normalized cepstral coefficients for audio signal recognition system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant