Nothing Special   »   [go: up one dir, main page]

CN105340007A - 用于产生舒缓噪声的自适应频谱形状的装置及方法 - Google Patents

用于产生舒缓噪声的自适应频谱形状的装置及方法 Download PDF

Info

Publication number
CN105340007A
CN105340007A CN201480035498.3A CN201480035498A CN105340007A CN 105340007 A CN105340007 A CN 105340007A CN 201480035498 A CN201480035498 A CN 201480035498A CN 105340007 A CN105340007 A CN 105340007A
Authority
CN
China
Prior art keywords
audio signal
frame
noise
received
territory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480035498.3A
Other languages
English (en)
Other versions
CN105340007B (zh
Inventor
迈克尔·施那拜尔
戈兰·马尔科维奇
拉尔夫·斯皮尔施内德
杰雷米·勒孔特
克里斯蒂安·赫尔姆里希
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to CN201910375722.8A priority Critical patent/CN110289005B/zh
Publication of CN105340007A publication Critical patent/CN105340007A/zh
Application granted granted Critical
Publication of CN105340007B publication Critical patent/CN105340007B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/083Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being an excitation gain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0016Codebook for LPC parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Noise Elimination (AREA)
  • Circuits Of Receivers In General (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)
  • Mathematical Physics (AREA)

Abstract

提供一种用于对编码音频信号进行解码以获得重建音频信号的装置。该装置包括用于接收一个或多个帧的接收接口(1110),系数产生器(1120)及信号重建器(1130)。系数产生器(1120)用于在一个或多个帧的当前帧由接收接口(1110)接收的情况下及在由接收接口(1110)接收的当前帧未被损毁的情况下,判定由当前帧包含的一个或多个第一音频信号系数,其中一个或多个第一音频信号系数指示编码音频信号的特性,且判定指示编码音频信号的背景噪声的一个或多个噪声系数。此外,系数产生器(1120)用于在当前帧不由接收接口(1110)接收的情况下或在由接收接口(1110)接收的当前帧被损毁的情况下,根据一个或多个第一音频信号系数及根据一个或多个噪声系数而产生一个或多个第二音频信号系数。音频信号重建器(1130)用于在当前帧由接收接口(1110)接收的情况下及在由接收接口(1110)接收的当前帧未被损毁的情况下,根据一个或多个第一音频信号系数而重建音频信号的第一部分。此外,音频信号重建器(1130)用于在当前帧不由接收接口(1110)接收的情况下或在由接收接口(1110)接收的当前帧被损毁的情况下,根据一个或多个第二音频信号系数而重建音频信号的第二部分。

Description

用于产生舒缓噪声的自适应频谱形状的装置及方法
技术领域
本发明涉及音频信号编码、处理及解码,特别地涉及,针对切换式音频编码系统在错误隐藏过程中的改良信号衰落的装置及方法。
背景技术
在下文中,描述关于封包丢失隐藏(PLC)过程中的语音及音频编码解码器衰落的现有技术的状态。关于现有技术的状态的解释始于G系列(G.718、G.719、G.722、G.722.1、G.729、G.729.1)的ITU-T编码解码器,接着为3GPP编码解码器(AMR、AMR-WB、AMR-WB+)及IETF编码解码器(OPUS),且以两种MPEG编码解码器(E-AAC、HILN)结束(ITU=国际电信协会;3GPP=第三代合作伙伴计划;AMR=适应性多速率;WB=宽带;IETF=因特网工程任务小组)。随后,分析关于追踪背景噪声水平的现有技术的状态,接着为提供概述的总结。
首先,考虑G.718。G.718为支持DTX/CNG(DTX=数字影院系统;CNG=舒缓噪声产生)的窄频及宽带语音编码解码器。作为尤其涉及低延迟码的实施例,此处,将更详细地描述低延迟版本模式。
考虑ACELP(层1)(ACELP=代数码激发线性预测),ITU-T为G.718[ITU08a,章节7.11]推荐了用以控制衰落速度的线性预测域中的适应性衰落。大体而言,隐藏遵循此原理:
根据G.718,在帧擦除的状况下,隐藏策略可总结为将信号能量及频谱包络收敛至背景噪声的所估计参数。将信号的周期性收敛为零。收敛速度取决于最后正确地接收的帧的参数及连续被擦除的帧的数目,并由衰减因子α控制。衰减因子α进一步取决于用于无声帧的LP(LP=线性预测)滤波器的稳定性θ。大体而言,若接收到的最后良好帧处于稳定分段中,则收敛是缓慢的,且若帧处于转变分段中,则收敛是快速的。
衰减因子α取决于[ITU08a,章节6.8.1.3.1及7.11.1.1]中所描述的信号分类得到的语音信号类别。基于邻近ISF(导抗频谱频率)滤波器之间的距离度量计算稳定性因子θ[ITU08a,章节7.1.2.4.2]。
表1展示α的计算方案:
表1:衰减因子α的值,值θ为自邻近LP滤波器之间的距离度量所计算的稳定性因子[ITU08a,章节7.1.2.4.2]。
此外,G.718提供衰落方法以便修改的频谱包络。一般想法为使最后的ISF参数朝向适应性ISF均值向量收敛。首先,从最后3个已知的ISF向量计算出平均ISF向量。接着,将平均ISF向量与脱机训练的长期ISF向量(其为常数向量)再次平均[ITU08a,章节7.11.1.2]。
此外,G.718提供衰落方法,以控制长期行为且因此控制与背景噪声的相互作用,其中将音高激发能量(且因此激发周期性)收敛为0,而随机激发能量收敛为CNG激发能量[ITU08a,章节7.11.1.6]。如下计算创新增益衰落:
g s [ 1 ] = αg s [ 0 ] + ( 1 - α ) g n - - - ( 1 )
其中为下一个帧的开始处的创新增益,为当前帧的开始处的创新增益,gn为舒缓噪声产生过程中所使用的激发增益及衰减因子α。
类似于周期性激发衰落,从开始,并在下一个帧的开始处到达逐个样本地贯穿帧以使增益线性衰减。
图2概述G.718的解码器结构。特别地,图2说明用于PLC的具有高通滤波器的高阶G.718解码器结构。
通过G.718的上文所描述的方法,对于封包丢失的较长突发,创新增益gs收敛为舒缓噪声产生过程中所使用的增益gn。如[ITU08a,章节6.12.3]中所描述,舒缓噪声增益gn给定为能量的平方根。并不详细描述的更新条件。遵循参考实施(浮点C码,stat_noise_uv_mod.c),如下得到
其中unvoiced_vad包含语音活动检测,其中unv_cnt包含成列的无声帧的数目,其中lp_gainc包含固定码簿的低通增益,且其中lp_ener包含初始化为0的低通CNG能量估计
此外,若最后的良好帧的信号分类为不同于无声的信号,则G.718提供引入至无声激发的信号路径中的高通滤波器,参见图2,亦参见[ITU08a,章节7.11.1.6]。此滤波器具有低搁板特性,其在DC处的频率响应比奈奎斯频率处的频率响应低大约5dB。
此外,G.718提出解耦式LTP反馈回路(LTP=长期预测):虽然在正常操作过程中,基于完全激发逐子帧地更新用于适应性码簿的反馈回路([ITU08a,章节7.1.2.1.4])。在隐藏过程中,仅基于有声激发,逐帧地更新此反馈回路(参见[ITU08a,章节7.11.1.4、7.11.2.4、7.11.1.6、7.11.2.6;dec_GV_excdec_gen_voic.c及syn_bfi_postsyn_bfi_pre_post.c])。借助于此方法,适应性码簿未被噪声「污染」,该噪声的起源在于随机选择的创新激发。
关于G.718的变换编码增强层(3至5),在隐藏过程中,解码器的关于高层解码的行为类似于正常操作,只是MDCT(改良型离散余弦转换)频谱被设定为零。在隐藏过程中并未应用特定的衰落行为。
关于CNG,在G.718中,按以下次序完成CNG合成。首先,对舒缓噪声帧的参数进行解码。接着,合成舒缓噪声帧。然后重置音高缓冲器。接着,储存用于FER(帧错误恢复)分类的合成。然后,进行频谱去加重。接着进行低频后滤波。接着,更新CNG变量。
在隐藏的状况下,执行完全一样的步骤,除了从比特串流中解码CNG参数。这意味在帧丢失的过程中不更新参数,而是使用来自最后良好SID(静默插入描述符)帧的解码参数。
现在考虑G.719。基于Siren22的G.719为基于变换的全频带音频编码解码器。ITU-T为G.719推荐了在频谱域中具有帧重复的衰落[ITU08b,章节8.6]。根据G.719,将帧擦除隐藏机制并入到解码器中。当正确地接收到帧时,将重建变换系数储存于缓冲器中。若通知解码器帧已丢失或帧被损毁,则在最近接收的帧中重建的变换系数以因子0.5按比例递减,且接着被用作当前帧的重建变换系数。解码器通过将这些系数变换至时域及执行开窗重迭相加操作而继续进行。
在下文中,描述了G.722。G.722为50至7000Hz编码系统,其使用在高达64kbit/s(千位/秒)的比特率内的子频带适应性差分脉码调制(SB-ADPCM)。使用QMF分析(QMF=正交镜像滤波)将信号拆分成较高及较低子频带。两个所得频带为ADPCM编码的(ADPCM=适应性差分脉码调制)。
对于G.722,在附录III[ITU06a]中指定用于封包丢失隐藏的高复杂性算法,及在附录IV[ITU07]中指定用于封包丢失隐藏的低复杂性算法。G.722-附录III([ITU06a,章节III.5])提出逐步执行的静音,其在帧丢失20ms之后开始,在帧丢失60ms之后完成。此外,G.722-附录IV提出衰落技术,其「对每一个样本」应用「逐样本地计算及调适的增益因子」[ITU07,章节IV.6.1.2.7]。
在G.722中,就在QMF合成之前,静音程序发生于子频带域中,且作为PLC模块的最后步骤。使用来自信号分类器的类别信息执行静音因子的计算,该信号分类器亦为PLC模块的部分。在类别TRANSIENT、UV_TRANSITION与其他类别之间进行区别。此外,在10ms帧的单次丢失与其他状况(10ms帧的多次丢失及20ms帧的单次/多次丢失)之间进行区别。
由图3说明此情形。特别地,图3描绘G.722的衰落因子取决于类别信息且其中80个样本等效于10ms的情境。
根据G.722,PLC模块产生用于遗漏帧的信号及应该与下一良好帧交叉衰落的某一额外信号(10ms)。针对此额外信号的静音遵循相同规则。在G.722的高频带隐藏中,交叉衰落并未发生。
在下文中,考虑G.722.1。基于Siren7的G.722.1为具有超宽带带扩展模式的基于变换的宽带带音频编码解码器,其被称作G.722.1C。G.722.1C自身基于Siren14。ITUT为G.722.1推荐具有后续静音的帧重复[ITU05,章节4.7]。若借助于此推荐中未定义的外部发信号机制来通知解码器帧已丢失或损毁,则解码器重复先前帧的解码MLT(调制重迭变换)系数。该解码器通过将该系数变换至时域及执行与先前及下一帧的解码信息的重迭及相加操作来继续进行。若先前帧亦丢失或损毁,则解码器将所有当前帧MLT系数设定为零。
现在考虑G.729。G.729为用于语音的音频数据压缩算法,其压缩10毫秒持续时间的封包中的数字语音。其被正式地描述为使用码激发线性预测语音编码码(CS-ACELP)的在8kbit/s下的语音编码[ITU12]。
如[CPK08]中所概述,G.729推荐LP域中的衰落。G.729标准中所使用的PLC算法基于先前接收的语音信息来重建用于当前帧的语音信号。换言之,PLC算法用先前接收的帧的等效特性来代替遗漏激发,但激发能量最终逐渐衰减,适应性及固定码簿的增益按常数因子衰减。
通过以下等式来给出衰减的固定码簿增益:
g c ( m ) = 0.98 · g c ( m - 1 )
其中m为子帧索引。
适应性码簿增益是基于先前适应性码簿增益的衰减版本:
g p ( m ) = 0.9 &CenterDot; g p ( m - 1 ) , 限制為 g p ( m ) < 0.9
NaminPark等人针对G.729提议使用借助于线性回归的预测的信号振幅控制[CPK08,PKJ+11]。其用于突发封包丢失,且使用线性回归作为核心技术。线性回归是基于如下线性模型:
g′i=a+bi(2)
其中,g′i为新预测的当前振幅,a及b为用于一阶线性函数的系数,且i为帧的索引。为了找到优化系数a*及b*,使平方预测误差的总和最小化:
&Element; = &Sigma; j = i - 4 i - 1 ( g j - g j &prime; ) 2 - - - ( 3 )
ε为平方误差,gj为原始的过去第j个振幅。为了使此误差最小化,简单地将关于a及b的导数设定为零。通过使用优化参数a*及b*,每一个的估计由以下等式来表示:
g i * = a * + b * i - - - ( 4 )
图4展示通过使用线性回归的振幅预测,特别地,振幅的预测。
为了获得丢失封包i的振幅A′i,将比率σi
&sigma; i = g i * g i - 1 - - - ( 5 )
与比例因子Si相乘:
A′i=Sii(6)
其中比例因子Si取决于连续隐藏帧的数目l(i):
在[PKJ+11]中,提出了略有不同的按比例缩放。
根据G.729,然后A′i将被平滑化以防止帧边界处的离散衰减。将最终平滑化振幅Ai(n)与自先前PLC组件获得的激发相乘。
在下文中,考虑G.729.1。G.729.1为基于G.729的嵌入式可变比特率编码器:可与G.729互操作的8至32kbit/s可调式宽带编码器比特串流[ITU06b]。
根据G.729.1,如在G.718(参见上文)中,提出适应性衰落,其取决于信号特性的稳定性([ITU06b,章节7.6.1])。在隐藏的过程中,信号通常是基于衰减因子α而衰减的,衰减因子α取决于最后良好接收的帧类别的参数及连续被擦除帧的数目。衰减因子α进一步取决于用于无声帧的LP滤波器的稳定性。大体而言,若最后良好接收帧处于稳定分段中,则衰减是缓慢的,且若帧处于转变分段中,则衰减是快速的。
此外,衰减因子α取决于每一子帧的平均音高增益([ITU06b,等式163,164]):
g &OverBar; p = 0.1 g p ( 0 ) + 0.2 g p ( 1 ) + 0.3 g p ( 2 ) + 0.4 g p ( 3 ) - - - ( 8 )
其中为子帧i中的音高增益。
表2展示α的计算方案,其中
其中0.85≥β≥0.98(9)
在隐藏程序的过程中,α被用于以下隐藏工具中:
表2:衰减因子α的值,值θ为自邻近LP滤波器之间的距离度量所计算的稳定性因子。[ITU06b,章节7.6.1]。
根据G.729.1,关于喉脉冲再同步,因为先前帧的激发的最后脉冲是用于建构周期性部分,所以其增益在隐藏的帧的开始处大约是正确的,且可被设定为1。增益接着在整个帧中逐样本地线性衰减,从而达成在帧的结束处的α的值。通过使用最后良好帧的每一子帧的音高激发增益值来外插有声片段的能量演进。大体而言,若这些增益大于1,则信号能量正在增加,若这些增益小于1,则能量正在减少。α因此被设定为如上文所描述,参见[ITU06b,等式163,164]。β的值被限于0.98与0.85之间,从而避免强能量增加及减少,参见[ITU06b,章节7.6.4]。
关于激发的随机部分的建构,根据G.729.1,在被擦除区块的开始处,通过使用最后良好帧的每一子帧的创新激发增益来初始化创新增益gs:
gs=0.1g(0)+0.2g(1)+0.3g(2)+0.4g(3)
其中g(0)、g(1)、g(2)及g(3)为最后正确地接收的帧的四个子帧的固定码簿增益或创新增益。如下进行创新增益衰减:
g s ( 1 ) = &alpha; &CenterDot; g s ( 0 )
其中为在下一帧的开始处的创新增益,为在当前帧的开始处的创新增益,且α是如上文表2中所定义。类似于周期性激发衰减,增益因此在整个帧中逐样本地线性衰减,以开始,且直至会在下一帧的开始处达成的的值。
根据G.729.1,若最后良好帧为无声,则仅使用创新激发且其进一步按0.8的因子衰减。在此状况下,用创新激发来更新过去激发缓冲器,因为激发的周期性部分是不可用的,参见[ITU06b,章节7.6.6]。
在下文中,考虑AMR。3GPPAMR[3GP12b]为利用ACELP算法的语音编码解码器。AMR能够编码具有8000个样本/s的采样率及4.75与12.2kbit/s之间的比特率的语音,且支持静默描述符帧的发信号(DTX/CNG)。
在AMR中,在错误隐藏的过程中(参见[3GP12a]),区别了易于出错(位错误)的帧与完全丢失(完全没有资料)的帧。
对于ACELP隐藏,AMR引入估计频道质量的状态机:状态计数器的值愈大,频道质量愈差。系统在状态0开始。每次检测到不良帧,状态计数器便递增1,且在其达到6时饱和。每次检测到良好语音帧,状态计数器便被重置为零,不过在状态为6时除外,此时状态计数器被设定为5。状态机的控制流程可由以下C程序代码描述(BFI为不良帧指示符,State为状态变量):
除了此状态机之外,在AMR中,检查来自当前及先前帧的不良帧旗标(prevBFI)。
三个不同组合为可能的:
三个组合中的第一个为BFI=0,prevBFI=0,State=0:在所接收的语音帧或在先前接收的语音帧中并未检测到错误。所接收的语音参数以正常方式用于语音合成中。储存语音参数的当前帧。
三个组合中的第二者为BFI=0,prevBFI=1,State=0或5:在所接收的语音帧中并未检测到错误,但先前接收的语音帧是不良的。限制LTP增益及固定码簿增益使其低于用于最后接收的良好子帧的值:
g p = g p , g p &le; g p ( - 1 ) g p ( - 1 ) , g p > g p ( - 1 ) - - - ( 10 )
其中gp=当前解码LTP增益,gp(-1)=用于最后良好子帧的LTP增益(BFI=0),且
g c = g c , g c &le; g c ( - 1 ) g c ( - 1 ) , g c > g c ( - 1 ) - - - ( 11 )
其中gc=当前解码固定码簿增益,且gc(-1)=用于最后良好子帧的固定码簿增益(BFI=0)。
所接收的语音参数的剩余部分被正常地用于语音合成中。储存语音参数的当前帧。
三个组合中的第三者为BFI=1,prevBFI=0或1,State=1……6:在所接收的语音帧中检测到错误,且开始替换及静音程序。LTP增益及固定码簿增益由来自先前子帧的衰减值代替:
g p = P ( s t a t e ) &CenterDot; g p ( - 1 ) , g p ( - 1 ) &le; m e d i a n 5 ( g p ( - 1 ) , ... &CenterDot; , g p ( - 5 ) ) P ( s t a t e ) &CenterDot; m e d i a n 5 ( g p ( - 1 ) , ... , g p ( - 5 ) ) g p ( - 1 ) > m e d i a n 5 ( g p ( - 1 ) , ... , g p ( - 5 ) ) - - - ( 12 )
其中gp指示当前解码LTP增益,且gp(-1),……,gp(-n)指示用于最后n个子帧的LTP增益,且median5()指示5点中值运算,且
P(state)=衰减因子,
其中(P(1)=0.98,P(2)=0.98,P(3)=0.8,P(4)=0.3,P(5)=0.2,P(6)=0.2)且state=状态号,且
g c = C ( s t a t e ) &CenterDot; g c ( - 1 ) , g c ( - 1 ) &le; m e d i a n 5 ( g c ( - 1 ) , ... &CenterDot; , g c ( - 5 ) ) C ( s t a t e ) &CenterDot; m e d i a n 5 ( g c ( - 1 ) , ... , g c ( - 5 ) ) g c ( - 1 ) > m e d i a n 5 ( g c ( - 1 ) , ... , g c ( - 5 ) ) - - - ( 13 )
其中gc指示当前解码固定码簿增益,且gc(-1),……,gc(-n)指示用于最后n个子帧的固定码簿增益,且median5()指示5点中值运算,且C(state)=衰减因子,其中(C(1)=0.98,C(2)=0.98,C(3)=0.98,C(4)=0.98,C(5)=0.98,C(6)=0.7)且state=状态号。
在AMR中,LTP滞后值(LTP=长期预测)由来自先前帧的第4个子帧的过去值(12.2模式)或基于最后正确接收的值略作修改的值(所有其他模式)代替。
根据AMR,在接收到损毁资料时按接收到固定码簿创新脉冲时的状态使用来自错误帧的所接收脉冲。在并未接收到数据的状况下,应使用随机固定码簿索引。
关于AMR中的CNG,根据[3GP12a,章节6.4],通过使用来自较早接收的有效SID帧的SID信息来替换每一个第一丢失的SID帧,且应用用于有效SID帧的程序。对于后续丢失的SID帧,将衰减技术应用于舒缓噪声,该舒缓噪声将逐渐减少输出水平。因此,检查最后SID更新是否是在超过50个帧(=1s)以前,若是如此,则将使输出静音(每一帧水平衰减-6/8dB[3GP12d,dtx_dec{}sp_dec.c],其每秒产生37.5dB)。应注意在LP域中执行应用于CNG的衰落。
在下文中,考虑AMR-WB。适应性多速率WB[ITU03,3GP09c]为基于AMR的语音编码解码器,ACELP(参见章节1.8)。其使用参数带宽扩展且亦支持DTX/CNG。在标准[3GP12g]的描述中,给出了隐藏实例解决方案,其与AMR[3GP12a]下的状况相同,具有微小的偏差。因此,此处仅描述与AMR的不同之处。针对标准描述,参见上文的描述。
关于ACELP,在AMR-WB中,基于参考源代码,通过修改音高增益gp(针对上文的AMR,被称作LTP增益)及通过修改码增益gc执行ACELP衰落[3GP12c]。
在丢失帧的状况下,用于第一子帧的音高增益gp与最后良好帧中的音高增益相同,不过其被限于0.95与0.5之间。对于第二、第三及以后的子帧,音高增益gp以0.95的因子减小,且再次受限制。
AMR-WB提出:在隐藏的帧中,gc是基于最后gc
gc,current=gc,past*(1.4-gp,past)(14)
g c = g c , c u r r e n t * g c i n o v - - - ( 15 )
g c i n o v = 1.0 ener i n o v s u b f r a m e _ s i z e - - - ( 16 )
ener i n o v = &Sigma; i = 0 s u b f r a m e _ s i z e - 1 c o d e &lsqb; i &rsqb; - - - ( 17 )
为了隐藏LTP滞后,在AMR-WB中,将五个最后良好LTP滞后及LTP增益的历史用于寻找在帧丢失的状况下进行更新的最佳方法。在接收到具有位错误的帧的情况下,不论所接收的LTP滞后是否可使用,皆执行预测[3GP12g]。
关于CNG,在AMR-WB中,若最后正确地接收的帧为SID帧,且帧分类为丢失,则其应由最后有效的SID帧信息来替换,且应该应用用于有效SID帧的程序。
对于后续丢失SID帧,AMR-WB提出将衰减技术应用于舒缓噪声,该舒缓噪声将逐渐减少输出水平。因此,检查最后SID更新是否是在超过50个帧(=1s)以前,若是如此,则将输出静音(每一帧水平衰减-3/8dB[3GP12f,dtx_dec{}dtx.c],其每秒产生18.75dB)。应注意在LP域中执行应用于CNG的衰落。
现在考虑AMR-WB+。适应性多速率WB+[3GP09a]为使用ACELP及TCX(TCX=9变换编码激发)作为核心编码解码器的切换式编码解码器。其使用参数带宽扩展且亦支持DTX/CNG。
在AMR-WB+中,应用模式外插逻辑以在失真超帧内外插丢失帧的模式。此模式外插是基于在模式指示符的定义中存在冗余的事实。由AMR-WB+提出的决策逻辑(在[3GP09a,图18]中给出)如下:
-定义向量模式(m-1,m0,m1,m2,m3),其中m-1指示先前超帧的最后帧的模式,且m0、m1、m2、m3指示当前超帧(自比特串流解码)中的帧的模式,其中mk=-1、0、1、2或3(-1:丢失,0:ACELP,1:TCX20,2:TCX40,3:TCX80),且其中丢失帧的数目nloss可在0与4之间。
-若m-1=3,且帧0至3的模式指示符中的两者等于三,则所有指示符将被设定为三,因为接着可肯定在超帧内指示了一个TCX80帧。
-若帧0至3中的仅一个指示符为三(且丢失帧的数目nloss为三),则模式将被设定为(1,1,1,1),因为接着TCX80目标频谱的3/4丢失且极有可能全局TCX增益丢失。
-若模式指示(x,2,-1,x,x)或(x,-1,2,x,x),则其将被外插为(x,2,2,x,x),从而指示TCX40帧。若模式指示(x,x,x,2,-1)或(x,x,-1,2),则其将被外插为(x,x,x,2,2),亦指示TCX40帧。应注意(x,[0,1],2,2,[0,1])为无效配置。
-之后,对于丢失的每一帧(模式=-1),若前一帧为ACELP,将模式设定为ACELP(模式=0),且针对所有其他状况,将模式设定为TCX20(模式=1)。
关于ACELP,根据AMR-WB+,若丢失帧模式导致在模式外插之后mk=0,则针对此帧应用与[3GP12g]中相同的方法(参见上文)。
在AMR-WB+中,取决于丢失帧的数目及外插之模式,区别进行以下TCX相关隐藏方法(TCX=经变换编码激发):
-若整个帧丢失,则应用类似ACELP的隐藏:重复最后激发,且使用隐藏的ISF系数(朝向其适应性均值稍微移位)以合成时域信号。另外,就在LPC(线性预测性编码)合成之前,在线性预测性域中乘以每一帧(20ms)0.7的衰落因子[3GP09b,dec_tcx.c]。
-若最后模式为TCX80,以及(部分丢失)超帧的外插模式为TCX80(nloss=[1,2],模式=(3,3,3,3,3)),则考虑到最后正确地接收的帧,利用相位及振幅外插在FFT域中执行隐藏。此处,相位信息的外插方法并不被关注(与衰落策略无关),且因此未进行描述。对于进一步细节,参见[3GP09a,章节6.5.1.2.4]。关于AMR-WB+的振幅修改,针对TCX隐藏所执行的方法由以下步骤构成[3GP09a,章节6.5.1.2.3]:
-计算先前帧量级频谱:
o l d A &lsqb; k &rsqb; = | o l d X ^ &lsqb; k &rsqb; |
-计算当前帧量级频谱:
A &lsqb; k &rsqb; = | X ^ &lsqb; k &rsqb; |
-计算先前与当前帧之间的非丢失频谱系数的能量的增益差:
g a i n = &Sigma; A &lsqb; k &rsqb; 2 &Sigma; o l d A &lsqb; k &rsqb; 2
-使用如下等式来外插遗漏频谱系数的振幅:
若(lost[k])A[k]=gain·oldA[k]
-在mk=[2,3]的丢失帧的每一其他状况中,使用所有可用的信息(包括全局TCX增益)来合成TCX目标(解码频谱加噪声填充(使用自比特串流解码的噪声水平)的反FFT)。在此状况下并不应用衰落。
关于AMR-WB+中的CNG,使用与AMR-WB中相同的方法(参见上文)。
在下文中,考虑OPUS。OPUS[IET12]并有来自两种编码解码器的技术:语音导向式SILK(其被称为Skype编码解码器)及低潜时CELT(CELT=受约束的能量重迭变换)。可在高及低比特率之间顺畅地调整Opus,且在内部,Opus在处于较低比特率下的线性预测编码解码器(SILK)与处于较高比特率下的变换编码解码器(CELT)以及用于短重迭的混合体之间切换。
关于SILK音讯数据压缩及解压缩,在OPUS中,若干参数在SILK解码器例程中的隐藏的过程中受到衰减。在使用来自先前帧的激发的最后音高循环积累起激发的情况下,取决于连续丢失帧的数目,通过对于每一帧将所有LPC系数与0.99、0.95抑或0.90相乘使LTP增益参数衰减。音高滞后参数在连续丢失的过程中极缓慢地增大。对于单次丢失,与最后帧相比较,音高滞后参数保持恒定。此外,激发增益参数按每一帧指数地衰减,使得对于第一激发增益参数,激发增益参数为0.99,使得对于第二激发增益参数,激发增益参数为0.992等等。使用随机数产生器产生激发,该随机数产生器通过变量溢出产生白噪声。此外,基于最后正确地接收的系数集合外插LPC系数/对LPC系数求平均值。在产生衰减的激发向量之后,在OPUS中使用隐藏的LPC系数以合成时域输出信号。
现在,在OPUS的上下文中,考虑CELT。CELT为基于变换的编码解码器。CELT的隐藏以基于音高的PLC方法为特征,该方法应用于多达五个连续丢失帧。从帧6开始,应用类似噪声的隐藏方法,该方法产生背景噪声,该背景噪声的特性应该听起来好像先前背景噪声。
图5说明CELT的突发丢失行为。特别地,图5描绘CELT隐藏语音分段的频谱图(x轴:时间;y轴:频率)。浅灰色方框指示前5个连续丢失帧,其中应用基于音高的PLC方法。除此之外,展示了类似噪声的隐藏。应注意的是即刻执行切换,该切换并非平滑地转变。
关于基于音高的隐藏,在OPUS中,基于音高的隐藏由通过自相关发现解码信号中的周期性及使用音高偏移(音高滞后)重复窗化波形(在使用LPC分析及合成的激发域中)构成。窗化波形以保留时域混迭消除的方式与先前帧及下一帧重迭[IET12]。另外,通过以下程序代码得到及应用衰落因子:
在此程序代码中,exc含有激发信号,该激发信号多达在丢失之前的MAX_PERIOD个样本。
激发信号稍后与衰减相乘,接着经由LPC合成而被合成及输出。
用于时域方法的衰落算法可概述如下:
-找到在丢失之前的最后音高循环的音高同步能量。
-找到在丢失之前的倒数第二音高循环的音高同步能量。
-若能量增大,则对其进行限制以保持恒定:衰减=1
-若能量减少,则在隐藏的过程中继续相同的衰减。
关于类似噪声的隐藏,根据OPUS,对于第六个及以后的连续丢失帧,执行MDCT域中的噪声替换方法,以便对舒缓背景噪声进行仿真。
关于背景噪声水平及形状的追踪,在OPUS中,背景噪声估计执行如下:在MDCT分析之后,计算每一频带的MDCT频带能量的平方根,其中根据[IET12,表55],MDCT频率仓(bin)的分组遵循巴克尺度(barkscale)。接着通过以下等式将能量的平方根变换至log2域:
bandLogE[i]=log2(e)·loge(bandE[i]-eMeans[i])其中i=0...21(18)
其中e为欧拉数,bandE为MDCT频带的平方根,且eMeans为常数向量(其为得到导致增强的编码增益的结果零均值所必要的)。
在OPUS中,如下在解码器侧上对背景噪声求对数[IET12,amp2Log2及log2Ampquant_bands.c]:
backgroundLogE[i]=min(backgroundLogE[i]+8·0.001,bandLogE[i])
其中i=0…21(19)
所追踪的最小能量基本上是由当前帧的频带的能量的平方根来判定的,但自一个帧至下一帧的增加限于0.05dB。
关于背景噪声水平及形状的应用,根据OPUS,若应用类似PLC的噪声,则使用如在最后良好帧中得到的backgroundLogE,且将其反向转换至线性域:
b a n d E &lsqb; i &rsqb; = e ( log e ( 2 ) &CenterDot; ( b a c k g r o u n d L o g E &lsqb; i &rsqb; + e M e a n s &lsqb; i &rsqb; ) ) 其中i=0...21(20)
其中e为欧拉数,且eMeans为与用于“线性至对数”变换的常数向量相同的常数向量。
当前隐藏程序将用由随机数产生器产生的白噪声填充MDCT帧,且以该白噪声逐频带地匹配bandE的能量的方式按比例调整此白噪声。随后,应用产生时域信号的反MDCT。在重迭相加及去加重(如在常规解码中)之后,放出时域信号。
在下文中,考虑MPEG-4HE-AAC(MPEG=动画专业团体;HE-AAC=高效率进阶音讯编码)。高效率进阶音讯编码由补充了参数带宽扩展(SBR)的基于变换的音频编码解码器(AAC)构成。
关于AAC(AAC=进阶音讯编码),DAB联盟针对DAB+中的AAC指定了在频域中至零的衰落[EBU10,章节A1.2](DAB=数位音频传输)。例如衰减斜坡的衰落行为可能为固定的或可由使用者调整。来自最后AU(AU=存取单元)的频谱系数按对应于衰落特性的因子衰减,且接着被传递至频率至时间映像。取决于衰减斜坡,隐藏在数个连续无效AU之后切换至静音,其意味完整频谱将被设定为0。
DRM(DRM=数字版权管理)联盟针对DRM中的AAC指定了在频域中的衰落[EBU12,章节5.3.3]。隐藏刚好在最终的频率至时间转换之前对频谱数据起作用。若多个帧被损毁,隐藏首先基于来自最后有效帧的略作修改的频谱值实施衰落。此外,类似于DAB+,例如衰减斜坡的衰落行为可能为固定的或可由使用者调整。来自最后帧的频谱系数按对应于衰落特性的因子衰减,且接着被传递至频率至时间映像。取决于衰减斜坡,隐藏在数个连续无效帧之后切换至静音,其意味完整频谱将被设定为0。
3GPP为增强型aacPlus中的AAC引入了类似于DRM的在频域中的衰落[3GP12e,章节5.1]。隐藏刚好在最终的频率至时间转换之前对频谱数据起作用。若多个帧被损毁,隐藏首先基于来自最后良好帧的略作修改的频谱值实施衰落。完整衰落历时5个帧。复制来自最后良好帧的频谱系数,且其按如下因子衰减:
衰落因子=2-(nFadeOutFrame/2)
其中nFadeOutFrame作为自最后良好帧以来的帧计数器。在历时五个帧的衰落之后,隐藏切换至静音,此意味完整频谱将被设定为0。
Lauber及Sperschneider为AAC引入了基于能量外插的MDCT频谱的逐帧衰落[LS01,章节4.4]。前一频谱的能量形状可能被用以外插所估计频谱的形状。可独立于隐藏技术,作为一种后隐藏来执行能量外插。
关于AAC,在比例因子频带的基础上执行能量计算以便接近人类听觉系统的关键频带。个别能量值被逐帧地减小以便平滑地降低音量,例如使信号衰落。由于所估计值表示当前信号随时间流逝而快速降低,所以此情形变得有必要。
为了产生待馈出的频谱,Lauber及Sperschneider提议帧重复或噪声替换[LS01,章节3.2及3.3]。
Quackenbusch及Driesen针对AAC提议至零的指数逐帧衰落[QD03]。提出了时间/频率系数的邻近集合的重复,其中每一重复具有指数地增加的衰减,因此在延长的中断的状况下逐渐衰落至静音。
关于MPEG-4HE-AAC中的SBR(SBR=频谱带复制),3GPP针对增强型aacPlus中的SBR提议了对解码包络数据进行缓冲,且在帧丢失的状况下,再次使用所传输的包络数据的缓冲能量,且针对每一隐藏的帧使能量按3dB的恒定比率减少。将结果反馈至正常解码程序中,其中包络调整器用其计算增益,这些增益用于调整由HF产生器产生的修补高频带。SBR解码接着照常发生。此外,增量(δ)编码的噪声底限及正弦水平值被删除。因为与先前信息的差别不再可用,所以解码噪声底限及正弦水平保持与HF产生的信号的能量成正比[3GP12e,章节5.2]。
DRM联盟针对结合AAC的SBR指定与3GPP相同的技术[EBU12,章节5.6.3.1]。此外,DAB联盟针对DAB+中的SBR指定与3GPP相同的技术[EBU10,章节A2]。
在下文中,考虑MPEG-4CELP及MPEG-4HVXC(HVXC=谐波向量激发编码)。DRM联盟针对结合CELP及HVXC的SBR[EBU12,章节5.6.3.2]指定不管何时检测到损毁的SBR帧,用于语音编码解码器的SBR的最低要求隐藏应用于数据值的预定集合。那些值产生在低相对播放水平处的静态高频带频谱包络,从而展现出朝向较高频率的滚降。目标仅为借助于插入“舒缓噪声”(与严格的静音相对照)而确保没有不良的、潜在大声的音讯突发到达听者的耳朵。此实际上并非真正的衰落,而是跳转至某一能量水平以便插入某一种类的舒缓噪声。
随后,提到替代例[EBU12,章节5.6.3.2],其再次使用最后正确地解码数据且使水平(L)朝向0缓慢地衰落,这类似于AAC+SBR状况。
现在,考虑MPEG-4HILN(HILN=谐波及个别线加噪声)。Meine等人引入了在参数域中用于参数MPEG-4HILN编码解码器[ISO09]的衰落[MEP01]。对于持续谐波分量,用于代替损毁的差分编码参数的良好默认行为是保持频率恒定,使振幅按衰减因子(例如,-6dB)减少,及令频谱包络朝向具有平均化的低通特性的频谱包络收敛。用于频谱包络的替代例将为使其保持不变。关于振幅及频谱包络,可以与对待谐波分量相同的方式来对待噪声分量。
在下文中,考虑现有技术中的背景噪声水平的追踪。Rangachari及Loizou[RL06]提供对若干方法的良好概述且论述其中一些的限制。用于追踪背景噪声水平的方法为(例如)最小值跟踪程序[RL06][Coh03][SFB00][Dob95],基于VAD(VAD=语音活动检测);卡尔曼滤波[Gan05][BJH06],子空间分解[BP06][HJH08];软决策[SS98][MPC89][HE95]及最小值统计。
最小值统计方法被选择用于USAC-2(USAC=统一语音及音讯编码)的范畴内,且随后更详细概述。
基于最佳平滑及最小值统计的噪声功率谱密度估计[Mar01]引入噪声估计式,该噪声估计式能够独立于信号为作用中语音或背景噪声的情况而工作。与其他方法相对比,最小值统计算法并不使用任何显式临限值在语音活动与语音暂停之间进行区分,且因此相较于与传统的语音活动检测方法相关的程度,与软决策方法相关的程度更高。类似于软决策方法,其亦可在语音活动的过程中更新所估计噪声PSD(功率谱密度)。
最小值统计方法根据两个观测,亦即语音及噪声通常在统计上独立且有噪声语音信号的功率频繁衰减至噪声的功率水平。因此有可能通过跟踪有噪声信号PSD的最小值而得到准确的噪声PSD(PSD=功率谱密度)估计。因为最小值小于(或在其他状况下等于)平均值,所以最小值跟踪方法需要偏差补偿。
偏差为平滑化信号PSD的方差的函数,且因而取决于PSD估计式的平滑参数。与对最小值跟踪的较早期研究(其利用恒定平滑参数及恒定最小偏差校正)相对比,使用基于时间及频率的PSD平滑,其亦需要基于时间及频率的偏差补偿。
使用最小值跟踪提供对噪声功率的粗略估计。然而,存在一些缺点。具有固定平滑参数的平滑化加宽了平滑化PSD估计的语音活动的峰值。此将产生不准确的噪声估计,因为用于最小值搜寻的滑动窗可能滑到宽峰值中。因此,无法使用接近于一的平滑参数,且因此,噪声估计将具有相对较大的方差。此外,使噪声估计偏向较低值。此外,在增加噪声功率的状况下,最小值跟踪落在后面。
具有低复杂性的基于MMSE的噪声PSD跟踪[HHJ10]引入了背景噪声PSD方法,该方法利用了用于DFT(离散傅立叶变换)频谱上的MMSE搜寻。该算法由这些处理步骤构成:
-基于先前帧的噪声PSD计算最大可能性估计式。
-计算最小均方估计式。
-使用决策导向方法[EM84]来估计最大可能性估计式。
-在假定语音及噪声DFT系数为高斯分布的情况下计算反偏差因子。
-所估计噪声功率谱密度为平滑的。
亦应用安全网方法以便避免算法的完全死锁。
基于数据驱动的递归噪声功率估计来跟踪非稳定噪声[EH08]引入了用于根据由极不稳定噪声源污染的语音信号估计噪声频谱方差的方法。此方法亦使用在时间/频率方向上的平滑。
基于噪声功率估计的平滑及估计偏差校正的低复杂性噪声估计算法[Yu09]增强了[EH08]中所引入的方法。主要的差别在于,用于噪声功率估计的频谱增益函数是由迭代数据驱动方法发现的。
用于噪声语音增强的统计方法[Mar03]组合[Mar01]中给出的最小值统计方法、软决策增益修改[MCA99]、先验SNR的估计[MCA99]、适应性增益限制[MC99]以及MMSE对数频谱振幅估计式[EM85]。
对于多个语音及音频编码解码器而言,衰落是备受关注的,这些编码解码器特别地为AMR(参见[3GP12b])(包括ACELP及CNG)、AMR-WB(参见[3GP09c])(包括ACELP及CNG)、AMR-WB+(参见[3GP09a])(包括ACELP、TCX及CNG)、G.718(参见[ITU08a])、G.719(参见[ITU08b])、G.722(参见[ITU07])、G.722.1(参见[ITU05])、G.729(参见[ITU12、CPK08、PKJ+11])、MPEG-4HE-AAC/增强型aacPlus(参见[EBU10、EBU12、3GP12e、LS01、QD03])(包括AAC及SBR)、MPEG-4HILN(参见[ISO09、MEP01])及OPUS(参见[IET12])(包括SILK及CELT)。
取决于编码解码器,在不同域中执行衰落:
对于利用LPC的编码解码器,在线性预测性域(亦称为激发域)中执行衰落。对于基于ACELP的编码解码器(例如,AMR、AMR-WB、AMR-WB+的ACELP核心、G.718、G.729、G.729.1、OPUS中的SILK核心);使用时间-频率变换进一步处理激发信号的编码解码器(例如AMR-WB+的TCX核心、OPUS中的CELT核心)及在线性预测性域中操作的舒缓噪声产生(CNG)方案(例如,AMR中的CNG、AMR-WB中的CNG、AMR-WB+中的CNG)而言,此情形同样适用。
对于将时间信号直接变换至频域的编码解码器,在频谱/子频带域中执行衰落。对于基于MDCT或类似变换的编码解码器(诸如,MPEG-4HE-AAC中的AAC、G.719、G.722(子频带域)及G.722.1)而言,此情形同样适用。
对于参数编码解码器,在参数域中应用衰落。对于MPEG-4HILN而言,此情形同样适用。
关于衰落速度及衰落曲线,衰落通常是通过应用衰减因子而实现,该衰减因子被应用于适当域中的信号表示。衰减因子的大小控制着衰落速度及衰落曲线。在大多数状况下,逐帧地应用衰减因子,但亦利用逐样本应用,参见例如G.718及G.722。
可能以两个方式(绝对及相对)提供用于某一信号分段的衰减因子。
在绝对地提供衰减因子的状况下,参考水平总是为最后接收的帧的水平。绝对衰减因子通常以用于紧接在最后良好帧之后的信号分段的接近1的值开始,且接着朝向0较快地或较慢地降级。衰落曲线直接取决于这些因子。此为例如G.722的附录IV中所描述的隐藏的状况(特别地参见[ITU07,图IV.7]),其中可能的衰落曲线为线性或逐渐线性的。考虑增益因子g(n)(而g(0)表示最后良好帧的增益因子)、绝对衰减因子αabs(n),任何后续丢失帧的增益因子可得到为:
g(n)=αabs(n)·g(0)(21)
在相对地提供衰减因子的状况下,参考水平为来自先前帧的水平。此情形在递归隐藏程序的状况下(例如,在已经衰减的信号被进一步处理及再次衰减的情况下)具有优点。
若递归地应用衰减因子,则此因子可能为独立于连续丢失帧的数目的固定值,例如针对G.719的0.5(参见上文);与连续丢失帧的数目有关的固定值,例如,如在[CPK08]中针对G.729所提出的:针对前两个帧的1.0、针对接下来两个帧的0.9、针对帧5及6的0.8及针对所有后续帧的0(参见上文);或与连续丢失帧的数目有关且取决于信号特性的值,例如用于不稳定的信号的较快衰落及用于稳定信号的较慢衰落,例如G.718(参见上文的章节及[ITU08a,表44]);
假设相对衰落因子0≤αrel(n)≤1,而n为丢失帧的数目(n≥1);任何后续帧的增益因子可被得到为:
g(n)=αrel(n)·g(n-1)(22)
g ( n ) = ( &Pi; m = 1 n &alpha; ( m ) ) &CenterDot; g ( 0 ) - - - ( 23 )
g ( n ) = &alpha; r e l n &CenterDot; g ( 0 ) - - - ( 24 )
从而导致指数衰落。
关于衰落程序,通常指定衰减因子,但在一些应用标准(DRM、DAB+)中,衰减因子的指定被留给制造者完成。
若不同信号部分被单独地衰落,则可能应用不同衰减因子例如以用某一速度衰减音调分量及用另一速度衰减类似噪声的分量(例如,AMR、SILK)。
通常,将某一增益应用于整个帧。当在频谱域中执行衰落时,此情形是仅有的可能方式。然而,若在时域或线性预测性域中进行衰落,则可能进行更细致化的衰落。此更细致化的衰落应用于G.718中,其中通过最后帧的增益因子与当前帧的增益因子之间的线性内插针对每一样本得到个体增益因子。
对于具有可变帧持续时间的编码解码器,恒定的相对衰减因子导致取决于帧持续时间的不同衰落速度。例如对于AAC就是此状况,其中帧持续时间取决于采样率。
为了对最后接收的信号的时间形状采用所应用的衰落曲线,可能进一步调整(静态)衰落因子。例如针对AMR应用此进一步动态调整,其中考虑先前五个增益因子的中值(参见[3GP12b]及章节1.8.1)。在执行任何衰减之前,若中值小于最后增益,则将当前增益设定为中值,否则使用最后增益。此外,例如针对G729应用此进一步动态调整,其中使用先前增益因子的线性回归来预测振幅(参见[CPK08、PKJ+11]及章节1.6)。在此状况下,用于第一隐藏帧的所得增益因子可能超出最后接收的帧的增益因子。
关于衰落的目标水平,对于所有所分析的编码解码器(包括那些编码解码器的舒缓噪声产生(CNG)),目标水平为0(G.718及CELT例外)。
在G.718中,单独地执行音高激发(表示音调分量)的衰落及随机激发(表示类似噪声的分量)的衰落。在音高增益因子衰落至零的同时,创新增益因子衰落至CNG激发能量。
假设给出相对衰减因子,此基于公式(23)而导致以下绝对衰减因子:
g(n)=αrel(n)·g(n-1)+(1-αrel(n))·gn(25)
其中gn为在舒缓噪声产生的过程中使用的激发的增益。当gn=0时,此公式对应于公式(23)。
G.718在DTX/CNG的状况下不执行衰落。
在CELT中,不存在朝向目标水平的衰落,但在历时5个帧的音调隐藏(包括衰落)之后,水平在第6个连续丢失帧处即刻切换至目标水平。使用公式(19)逐频带地得到水平。
关于衰落的目标频谱形状,所有所分析的纯粹基于变换的编码解码器(AAC、G.719、G.722、G.722.1)以及SBR仅仅在衰落的过程中延长最后良好帧的频谱形状。
各种语音编码解码器使用LPC合成将频谱形状衰落至均值。均值可能为静态(AMR)或适应性的(AMR-WB、AMR-WB+、G.718),而适应性均值系自静态均值及短期均值得到(通过求最后n个LP系数集合的平均值来得到)(LP=线性预测)。
所论述的编码解码器AMR、AMR-WB、AMR-WB+、G.718中的所有CNG模块皆在衰落的过程中延长最后良好帧的频谱形状。
关于背景噪声水平追踪,自文献中已知五个不同方法:
-基于语音活动检测器:基于SNR/VAD,但极难以调谐,且难以用于低SNR语音。
-软决策方案:软决策方法考虑到语音存在的机率[SS98][MPC89][HE95]。
-最小值统计:跟踪PSD的最小值,在缓冲器中随时间的流逝保持一定量的值,因此使得能够从过去样本中找到最小噪声[Mar01][HHJ10][EH08][Yu09]。
-卡尔曼滤波:算法使用随时间的流逝观测到的含有噪声(随机变化)的一系列量测,且产生倾向于比单独基于单一量测的估计更精确的噪声PSD的估计。卡尔曼滤波器对有噪声输入数据的串流进行递归操作,以产生系统状态的统计学上的最佳估计[Gan05][BJH06]。
-子空间分解:此方法试图利用例如KLT(卡忽南-拉维(Karhunen-Loève)变换,其亦称为主分量分析)及/或DFT(离散时间傅立叶变换)将类似噪声的信号分解成干净的语音信号及噪声部分。接着可使用任意平滑算法追踪本征向量/本征值[BP06][HJH08]。
发明内容
本发明的目的在于提供用于音频编码系统的改良概念。本发明的目的是由如权利要求1的装置、由如权利要求12的方法及由如权利要求13的计算机程序实现。
提供用于对编码音频信号进行解码以获得重建音频信号的装置。该装置包括用于接收一个或多个帧的接收接口,接收接口和信号重建器。系数产生器用于在一个或多个帧的当前帧由接收接口接收的情况下及在由接收接口接收的当前帧未被损毁的情况下,判定由当前帧包含的一个或多个第一音频信号系数,其中一个或多个第一音频信号系数指示编码音频信号的特性,且判定指示编码音频信号的背景噪声的一个或多个噪声系数。此外,系数产生器用于在当前帧不由接收接口接收的情况下或在由接收接口接收的当前帧被损毁的情况下,取决于一个或多个第一音频信号系数及取决于一个或多个噪声系数而产生一个或多个第二音频信号系数。音频信号重建器用于在当前帧由接收接口接收的情况下及在由接收接口接收的当前帧未被损毁的情况下,取决于一个或多个第一音频信号系数而重建重建音频信号的第一部分。此外,音频信号重建器用于在当前帧不由接收接口接收的情况下或在由接收接口接收的当前帧被损毁的情况下,取决于一个或多个第二音频信号系数而重建重建音频信号的第二部分。
在一些实施例中,一个或多个第一音频信号系数可以例如为编码音频信号的一个或多个线性预测性滤波器系数。在一些实施例中,一个或多个第一音频信号系数可以例如为编码音频信号的一个或多个线性预测性滤波器系数。
根据实施例,一个或多个噪声系数可例如为指示编码音频信号的背景噪声的一个或多个线性预测性滤波器系数。在实施例中,一个或多个线性预测性滤波器系数可例如表示背景噪声的频谱形状。
在实施例中,系数产生器可例如用于判定一个或多个第二音频信号部分以使得一个或多个第二音频信号部分为重建音频信号的一个或多个线性预测性滤波器系数,或使得一个或多个第一音频信号系数为重建音频信号的一个或多个导抗频谱对。
根据实施例,系数产生器可例如用于通过应用如下公式而产生一个或多个第二音频信号系数:
fcurrent[i]=α·flast[i]+(1-α)·ptmean[i]
其中fcurrent[i]指示一个或多个第二音频信号系数中的一个,其中flast[i]指示一个或多个第一音频信号系数中的一个,其中ptmean[i]为一个或多个噪声系数中的一个,其中α为实数,其中0≤α≤1,且其中i为索引。在实施例中,0<α<1。
根据实施例,flast[i]指示编码音频信号的线性预测性滤波器系数,且其中fcurrent[i]指示重建音频信号的线性预测性滤波器系数。
在实施例中,ptmean[i]可例如指示编码音频信号的背景噪声。
在实施例中,系数产生器可例如用于在一个或多个帧中的当前帧由接收接口接收的情况下及在由接收接口接收的当前帧未被损毁的情况下,通过判定编码音频信号的噪声频谱来判定一个或多个噪声系数。
根据实施例,系数产生器可例如用于通过对信号频谱使用最小值统计方法来判定背景噪声频谱及通过自背景噪声频谱计算表示背景噪声形状的LPC系数来判定表示背景噪声的LPC系数。
此外,提供用于对编码音频信号进行解码以获得重建音频信号的方法。该方法包括:
接收一个或多个帧。
在一个或多个帧中的当前帧被接收的情况下及在所接收的当前帧未被损毁的情况下,判定由当前帧所包含的一个或多个第一音频信号系数,其中所述一个或多个第一音频信号系数指示编码音频信号的特性,及判定指示编码音频信号的背景噪声的一个或多个噪声系数。
在当前帧未被接收的情况下或在所接收的当前帧被损毁的情况下,取决于一个或多个第一音频信号系数及取决于一个或多个噪声系数而产生一个或多个第二音频信号系数。
在当前帧被接收的情况下及在所接收的当前帧未被损毁的情况下,取决于一个或多个第一音频信号系数而重建重建音频信号的第一部分。
以及
在当前帧未被接收的情况下或在所接收的当前帧被损毁的情况下,取决于一个或多个第二音频信号系数重建重建音频信号的第二部分。
此外,提供计算机程序,该计算机程序用于在执行于计算机或信号处理器上时实施如上所述的方法。
具有在衰落的过程中追踪及应用舒缓噪声的频谱形状的共同手段具有若干优点。通过追踪及应用频谱形状以使得频谱形状对于两个核心编码解码器而言可类似地实现,允许了简单的共同方法。CELT仅教示频谱域中的能量的逐频带追踪及频谱域中的频谱形状的逐频带形成,此对于CELP核心而言系不可能的。
相比之下,在现有技术中,在突发丢失的过程中引入的舒缓噪声的频谱形状是完全静态的抑或部分静态的且部分适应于频谱形状的短期均值(如G.718中所实现[ITU08a]),且通常将与在封包丢失之前在信号中的背景噪声不匹配。舒缓噪声特性的此错配可能造成麻烦。根据现有技术,可使用经脱机训练的(静态)背景噪声形状,其针对特定信号而言可听起来系合意的,但针对其他信号而言不太合意,例如,汽车噪声听起来与办公室噪声完全不同。
此外,在现有技术中,可使用对先前接收的帧的频谱形状的短期均值的调适,其可能使信号特性更接近于之前接收的信号,但不一定更接近于背景噪声特性。在现有技术中,在频谱域中逐频带地追踪频谱形状(如CELT[IET12]中所实现)并不适用于不仅使用基于MDCT域之核心(TCX)而且使用基于ACELP的核心的切换式编码解码器。上文所提及的实施例因此相比于现有技术是有利的。
此外,提供用于解码音频信号的装置。
装置包含接收接口。接收接口用于接收多个帧,其中该接收接口用于接收多个帧中的第一帧,该第一帧包含音频信号的第一音频信号部分,该第一音频信号部分被表示于第一域中,且其中接收接口用于接收多个帧中的第二帧,该第二帧包含音频信号的第二音频信号部分。
此外,装置包含变换单元,该变换单元用于将第二音频信号部分或自第二音频信号部分得到的值或信号自第二域变换至追踪域,以获得第二信号部分信息,其中第二域不同于第一域,其中追踪域不同于第二域,且其中追踪域等于或不同于第一域。
此外,装置包含噪声水平追踪单元,其中噪声水平追踪单元用于接收在追踪域中表示的第一信号部分信息,其中第一信号部分信息取决于第一音频信号部分。噪声水平追踪单元用于接收在追踪域中表示的第二信号部分,且其中噪声水平追踪单元用于取决于在追踪域中表示的第一信号部分信息及取决于在追踪域中表示的第二信号部分信息而判定噪声水平信息。
此外,装置包含重建单元,该重建单元用于在多个帧中的第三帧不由接收接口接收而是被损毁的情况下,取决于噪声水平信息而重建音频信号的第三音频信号部分。
音频信号可例如为语音信号或音乐信号,或包含语音及音乐的信号等。
第一信号部分信息取决于第一音频信号部分的陈述意味:第一信号部分信息为第一音频信号部分或已取决于第一音频信号部分而获得/产生第一信号部分信息抑或第一信号部分信息以某一其他方式取决于第一音频信号部分。举例而言,第一音频信号部分可能已自一个域变换至另一域以获得第一信号部分信息。
同样,第二信号部分信息取决于第二音频信号部分的陈述意味:第二信号部分信息为第二音频信号部分抑或已取决于第二音频信号部分而获得/产生第二信号部分信息抑或第二信号部分信息以某一其他方式取决于第二音频信号部分。举例而言,第二音频信号部分可能已自一个域变换至另一域以获得第二信号部分信息。
在实施例中,第一音频信号部分可例如表示于作为第一域的时域中。此外,变换单元可例如用于将第二音频信号部分或自第二音频信号部分得到的值自为第二域的激发域变换至为追踪域的时域。此外,噪声水平追踪单元可例如用于接收在作为追踪域的时域中表示的第一信号部分信息。此外,噪声水平追踪单元可例如用于接收在作为追踪域的时域中表示的第二信号部分。
根据实施例,第一音频信号部分可例如表示于作为第一域的激发域中。此外,变换单元可例如用于将第二音频信号部分或自第二音频信号部分得到的值自为第二域的时域变换至为追踪域的激发域。此外,噪声水平追踪单元可例如用于接收在作为追踪域的激发域中表示的第一信号部分信息。此外,噪声水平追踪单元可例如用于接收在作为追踪域的激发域中表示的第二信号部分。
在实施例中,第一音频信号部分可例如表示于作为第一域的激发域中,其中噪声水平追踪单元可例如用于接收第一信号部分信息,其中该第一信号部分信息被表示于为追踪域的FFT域中,且其中该第一信号部分信息取决于在激发域中表示的该第一音频信号部分,其中变换单元可例如用于将第二音频信号部分或自第二音频信号部分得到的值自为第二域的时域变换至为追踪域的FFT域,且其中噪声水平追踪单元可例如用于接收在FFT域中表示的第二音频信号部分。
在实施例中,装置可例如进一步包含用于取决于第一音频信号部分而判定第一聚集值的第一聚集单元。此外,装置可例如进一步包含用于取决于第二音频信号部分而将第二聚集值判定为自第二音频信号部分得到的值的第二聚集单元。此外,噪声水平追踪单元可例如用于接收第一聚集值作为在追踪域中表示的第一信号部分信息,其中噪声水平追踪单元可例如用于接收第二聚集值作为在追踪域中表示的第二信号部分信息,且其中噪声水平追踪单元可例如用于取决于在追踪域中表示的第一聚集值及取决于在追踪域中表示的第二聚集值而判定噪声水平信息。
根据实施例,第一聚集单元可例如用于判定第一聚集值以使得第一聚集值指示第一音频信号部分或自第一音频信号部分得到的信号的均方根。此外,第二聚集单元可例如用于判定第二聚集值以使得第二聚集值指示第二音频信号部分或自第二音频信号部分得到的信号的均方根。
在实施例中,变换单元可例如用于通过对自第二音频信号部分得到的值应用增益值而将自第二音频信号部分得到的值自第二域变换至追踪域。
根据实施例,增益值可例如指示由线性预测性编码合成引入的增益,或增益值可例如指示由线性预测性编码合成及去加重引入的增益。
在实施例中,噪声水平追踪单元可例如用于通过应用最小值统计方法判定噪声水平信息。
根据实施例,噪声水平追踪单元可例如用于将舒缓噪声水平判定为噪声水平信息。重建单元可例如用于在多个帧中的该第三帧不由接收接口接收的情况下或在该第三帧由接收接口接收但被损毁的情况下,取决于噪声水平信息而重建第三音频信号部分。
在实施例中,噪声水平追踪单元可例如用于将舒缓噪声水平判定为自噪声水平频谱得到的噪声水平信息,其中该噪声水平频谱是通过应用最小值统计方法而获得。重建单元可例如用于在多个帧中的该第三帧不由接收接口接收的情况下或在该第三帧由接收接口接收但被损毁的情况下,取决于多个线性预测性系数而重建第三音频信号部分。
根据另一实施例,噪声水平追踪单元可例如用于将指示舒缓噪声水平的多个线性预测性系数判定作为噪声水平信息,且重建单元可例如用于取决于多个线性预测性系数而重建第三音频信号部分。
在实施例中,噪声水平追踪单元用于将指示舒缓噪声水平的多个FFT系数判定作为噪声水平信息,且第一重建单元用于在多个帧中的该第三帧不由接收接口接收的情况下或在该第三帧由接收接口接收但被损毁的情况下,取决于自这些FFT系数得到的舒缓噪声水平而重建第三音频信号部分。
在实施例中,重建单元可例如用于在多个帧中的该第三帧不由接收接口接收的情况下或在该第三帧由接收接口接收但被损毁的情况下,取决于噪声水平信息及取决于第一音频信号部分而重建第三音频信号部分。
根据实施例,重建单元可例如用于通过减小或放大自第一或第二音频信号部分得到的信号来重建第三音频信号部分。
在实施例中,装置可例如进一步包含长期预测单元,该长期预测单元包含延迟缓冲器。此外,长期预测单元可例如用于取决于第一或第二音频信号部分、取决于储存于延迟缓冲器中的延迟缓冲器输入及取决于长期预测增益而产生被处理信号。此外,长期预测单元可例如用于在多个帧中的该第三帧不由接收接口接收的情况下或在该第三帧由接收接口接收但被损毁的情况下,使长期预测增益朝向零衰落。
根据实施例,长期预测单元可例如用于使长期预测增益朝向零衰落,其中长期预测增益衰落至零的速度取决于衰落因子。
在实施例中,长期预测单元可例如用于在多个帧中的该第三帧不由接收接口接收的情况下或在该第三帧由接收接口接收但被损毁的情况下,通过将产生的被处理信号储存于延迟缓冲器中来更新延迟缓冲器输入。
根据实施例,变换单元可例如为第一变换单元,及重建单元为第一重建单元。装置进一步包含第二变换单元及第二重建单元。第二变换单元可例如用于在多个帧中的第四帧不由接收接口接收的情况下或在该第四帧由接收接口接收但被损毁的情况下,将噪声水平信息自追踪域变换至第二域。此外,第二重建单元可例如用于在多个帧中的该第四帧不由接收接口接收的情况下或在该第四帧由接收接口接收但被损毁的情况下,取决于在第二域中表示的噪声水平信息而重建音频信号的第四音频信号部分。
在实施例中,第二重建单元可例如用于取决于噪声水平信息及取决于第二音频信号部分重建第四音频信号部分。
根据实施例,第二重建单元可例如用于通过减小或放大自第一或第二音频信号部分得到的信号来重建第四音频信号部分。
此外,提供用于解码音频信号的方法。
该方法包括:
-接收多个帧中的第一帧,该第一帧包含音频信号的第一音频信号部分,该第一音频信号部分被表示于第一域中。
-接收多个帧中的第二帧,该第二帧包含音频信号的第二音频信号部分。
-将第二音频信号部分或自第二音频信号部分得到的值或信号自第二域变换至追踪域以获得第二信号部分信息,其中第二域不同于第一域,其中追踪域不同于第二域,且其中追踪域等于或不同于第一域。
-取决于在追踪域中表示的第一信号部分信息及取决于在追踪域中表示的第二信号部分信息而判定噪声水平信息,其中第一信号部分信息取决于第一音频信号部分。及:
-在多个帧中的第三帧不被接收的情况下或在该第三帧被接收但被损毁的情况下,取决于在追踪域中表示的噪声水平信息而重建音频信号的第三音频信号部分。
此外,提供用于在执行于计算机或信号处理器上时实施上文所描述的方法的计算机程序。
本发明的实施例中的一些提供时间变化平滑参数,以使得经平滑化周期图的跟踪能力及其方差受到较好地平衡,以开发用于偏差补偿的算法及大体上加速噪声跟踪。
本发明的实施例是基于如下发现,关于衰落,关注以下参数:衰落域;衰落速度,或更一般地,衰落曲线;衰落的目标水平;衰落的目标频谱形状;及/或背景噪声水平追踪。在此上下文中,实施例是基于现有技术具有显著缺点的发现。
提供针对切换式音频编码系统的在错误隐藏过程中的改良信号衰落的装置及方法。
此外,提供用于在执行于计算机或信号处理器上时实施上文所描述的方法的计算机程序。
实施例实现衰落至舒缓噪声水平。根据实施例,实现在激发域中的共同舒缓噪声水平追踪。不管所使用的核心编码器(ACELP/TCX)如何,在突发封包丢失的过程中被设定为目标的舒缓噪声水平将是相同的,且该舒缓噪声水平将总是最新的。共同噪声水平追踪是必要的,还不存在该现有技术。实施例提供切换式编码解码器在突发封包丢失的过程中至类似舒缓噪声的信号的衰落。
此外,实施例实现了总复杂性与具有两个独立噪声水平追踪模块的情况相比将较低,因为可共享功能(PROM)及内存。
在实施例中,在语音起作用的过程中,激发域中的水平得到(与时域中的水平得到相比较)提供更多的最小值,因为语音信息的部分由LP系数涵盖。
在ACELP的状况下,根据实施例,水平得到发生于激发域中。在TCX的状况下,在实施例中,在时域中得到水平,且作为校正因子应用LPC合成及去加重的增益,以便模型化激发域中的能量水平。追踪激发域中的水平(例如在FDNS之前)理论上亦将为可能的,但TCX激发域与ACELP激发域之间的水平补偿被认为是相当复杂的。
现有技术并未并有在不同域中的这种共同背景水平追踪。现有技术并不具有在切换式编码解码器系统中的例如在激发域中的这种共同舒缓噪声水平追踪。因此,实施例相比于现有技术是有利的,因为对于现有技术,在突发封包丢失的过程中被设定为目标的舒缓噪声水平可取决于水平受到追踪的先前编码模式(ACELP/TCX)而不同;因为在现有技术中,针对每一编码模式为单独的追踪将导致不必要的附加项及额外计算复杂性;及因为在现有技术中,最新舒缓噪声水平在任一核心中归因于最近切换至此核心可能并不可用。
根据一些实施例,在激发域中进行水平追踪,但在时域中进行TCX衰落。通过时域中的衰落,避免TDAC的失效,这些失效将导致频迭。当隐藏音调信号分量时,此情形变得备受关注。此外,避免ACELP激发域与MDCT频谱域之间的水平转换,且因此例如节省了计算资源。由于激发域与时域之间的切换,在激发域与时域之间需要水平调整。通过得到将由LPC合成及预强调引入的增益及使用此增益作为校正因子来使水平在两个域之间转换来解决此情形。
相比之下,现有技术并不进行在激发域中的水平追踪及在时域中的TCX衰落。关于目前先进技术的基于变换的编码解码器,在激发域(针对时域/类似ACELP隐藏方法,参见[3GP09a])中抑或在频域(针对如帧重复或噪声替换的频域方法,参见[LS01])中应用衰减因子。在频域中应用衰减因子的现有技术的方法的缺点为在时域中的重迭相加区中将导致频迭。对于被应用不同衰减因子的邻近帧将出现此状况,因为衰落程序使TDAC(时域频迭消除)失效。此在隐藏音调信号分量时尤其相关。上文所提及的实施例因此相比于现有技术是有利的。
实施例补偿高通滤波器对LPC合成增益的影响。根据实施例,为了补偿由经高通滤波无声激发引起的LPC分析及强调的非吾人所乐见的增益改变,得到校正因子。此校正因子考虑此非吾人所乐见的增益改变,且修改激发域中的目标舒缓噪声水平以使得在时域中达到正确目标水平。
相比之下,若未将最后良好帧的信号分类为无声,则例如G.718[ITU08a]的现有技术将高通滤波器引入至无声激发的信号路径中,如图2中所描绘。由此,现有技术导致非吾人所乐见的副效应,因为后续LPC合成的增益取决于由该高通滤波器更改的信号特性。因为在激发域中追踪及应用背景水平,所以算法依赖于LPC合成增益,LPC合成增益又再次取决于激发信号的特性。换言之,如由现有技术所进行的,归因于高通滤波的激发的信号特性的修改可产生LPC合成的修改(通常减少的)增益。此情形导致错误的输出水平,即使激发水平是正确的。
实施例克服现有技术的这些缺点。
特别地,实施例实现舒缓噪声的适应性频谱形状。与G.718相对比,通过追踪背景噪声的频谱形状及通过在突发封包丢失的过程中应用(衰落至)此形状,先前背景噪声的噪声特性将为匹配的,导致舒缓噪声的合意的噪声特性。此情形避免可通过使用频谱包络引入的频谱形状的突兀的错配,该频谱包络是由脱机训练及/或最后接收的帧的频谱形状得到。
此外,提供用于解码音频信号的装置。装置包含接收接口,其中接收接口用于接收包含音频信号的第一音频信号部分的第一帧,且其中接收接口用于接收包含音频信号的第二音频信号部分的第二帧。
此外,装置包含噪声水平追踪单元,其中噪声水平追踪单元用于取决于第一音频信号部分及第二音频信号部分中的至少一个(此意味:取决于第一音频信号部分及/或第二音频信号部分)判定噪声水平信息,其中噪声水平信息被表示于追踪域中。
此外,装置包含第一重建单元,该第一重建单元用于在多个帧中的第三帧不由接收接口接收的情况下,或在该第三帧由接收接口接收但被损毁的情况下,取决于噪声水平信息而在第一重建域中重建音频信号的第三音频信号部分,其中第一重建域不同于或等于追踪域。
此外,装置包含变换单元,该变换单元用于在多个帧中的第四帧不由接收接口接收的情况下,或在该第四帧由接收接口接收但被损毁的情况下,将噪声水平信息自追踪域变换至第二重建域,其中第二重建域不同于追踪域,且其中第二重建域不同于第一重建域,及
此外,装置包含第二重建单元,该第二重建单元用于在多个帧中的该第四帧不由接收接口接收的情况下,或在该第四帧由接收接口接收但被损毁的情况下,取决于在第二重建域中表示的噪声水平信息而在第二重建域中重建音频信号的第四音频信号部分。
根据一些实施例,追踪域可例如其中追踪域为时域、频谱域、FFT域、MDCT域或激发域。第一重建域可例如为时域、频谱域、FFT域、MDCT域或激发域。第二重建域可例如为时域、频谱域、FFT域、MDCT域或激发域。
在实施例中,追踪域可例如为FFT域,第一重建域可例如为时域,及第二重建域可例如为激发域。
在另一实施例中,追踪域可例如为时域,第一重建域可例如为时域,及第二重建域可例如为激发域。
根据实施例,该第一音频信号部分可例如被表示于第一输入域中,及该第二音频信号部分可例如被表示于第二输入域中。变换单元可例如为第二变换单元。装置可例如进一步包含用于将第二音频信号部分或自第二音频信号部分得到的值或信号自第二输入域变换至追踪域以获得第二信号部分信息的第一变换单元。噪声水平追踪单元可例如用于接收在追踪域中表示的第一信号部分信息,其中第一信号部分信息取决于第一音频信号部分,其中噪声水平追踪单元用于接收在追踪域中表示的第二信号部分,且其中噪声水平追踪单元用于取决于在追踪域中表示的第一信号部分信息及取决于在追踪域中表示的第二信号部分信息判定噪声水平信息。
根据实施例,第一输入域可例如为激发域,及第二输入域可例如为MDCT域。
在另一实施例中,第一输入域可例如为MDCT域,且其中第二输入域可例如为MDCT域。
根据实施例,第一重建单元可例如用于通过进行至类似噪声的频谱的第一衰落而重建第三音频信号部分。第二重建单元可例如用于通过进行至类似噪声的频谱的第二衰落及/或LTP增益的第二衰落来重建第四音频信号部分。此外,第一重建单元及第二重建单元可例如用于在相同衰落速度的情况下进行至类似噪声的频谱的第一衰落及第二衰落及/或LTP增益的第二衰落。
在实施例中,装置可例如进一步包含用于取决于第一音频信号部分而判定第一聚集值的第一聚集单元。此外,装置可例如进一步包含用于取决于第二音频信号部分而将第二聚集值判定为自第二音频信号部分得到的值的第二聚集单元。噪声水平追踪单元可例如用于接收第一聚集值作为在追踪域中表示的第一信号部分信息,其中噪声水平追踪单元可例如用于接收第二聚集值作为在追踪域中表示的第二信号部分信息,且其中噪声水平追踪单元用于取决于在追踪域中表示的第一聚集值及取决于在追踪域中表示的第二聚集值而判定噪声水平信息。
根据实施例,第一聚集单元可例如用于判定第一聚集值以使得第一聚集值指示第一音频信号部分或自第一音频信号部分得到的信号的均方根。第二聚集单元用于判定第二聚集值以使得第二聚集值指示第二音频信号部分或自第二音频信号部分得到的信号的均方根。
在实施例中,第一变换单元可例如用于通过对自第二音频信号部分得到的值应用增益值,而将自第二音频信号部分得到的值自第二输入域变换至追踪域。
根据实施例,增益值可例如指示由线性预测性编码合成引入的增益,或其中增益值指示由线性预测性编码合成及去加重引入的增益。
在实施例中,噪声水平追踪单元可例如用于通过应用最小值统计方法判定噪声水平信息。
根据实施例,噪声水平追踪单元可例如用于将舒缓噪声水平判定为噪声水平信息。重建单元可例如用于在多个帧中的该第三帧不由接收接口接收的情况下,或在该第三帧由接收接口接收但被损毁的情况下,取决于噪声水平信息而重建第三音频信号部分。
在实施例中,噪声水平追踪单元可例如用于将舒缓噪声水平判定为自噪声水平频谱得到的噪声水平信息,其中该噪声水平频谱系通过应用最小值统计方法而获得。重建单元可例如用于在多个帧中的该第三帧不由接收接口接收的情况下,或在该第三帧由接收接口接收但被损毁的情况下,取决于多个线性预测性系数而重建第三音频信号部分。
根据实施例,第一重建单元可例如用于在多个帧中的该第三帧不由接收接口接收的情况下,或在该第三帧由接收接口接收但被损毁的情况下,取决于噪声水平信息及取决于第一音频信号部分而重建第三音频信号部分。
在实施例中,第一重建单元可例如用于通过减小或放大第一音频信号部分来重建第三音频信号部分。
根据实施例,第二重建单元可例如用于取决于噪声水平信息及取决于第二音频信号部分重建第四音频信号部分。
在实施例中,第二重建单元可例如用于通过减小或放大第二音频信号部分来重建第四音频信号部分。
根据实施例,装置可例如进一步包含长期预测单元,该长期预测单元包含延迟缓冲器,其中长期预测单元可例如用于取决于第一音频信号部分或第二音频信号部分、取决于储存于延迟缓冲器中的延迟缓冲器输入及取决于长期预测增益而产生处理信号,且其中长期预测单元用于在多个帧中的该第三帧不由接收接口接收的情况下,或在该第三帧由接收接口接收但被损毁的情况下,使长期预测增益朝向零衰落。
在实施例中,长期预测单元可例如用于使长期预测增益朝向零衰落,其中长期预测增益衰落至零的速度取决于衰落因子。
在实施例中,长期预测单元可例如用于在多个帧中的该第三帧不由接收接口接收的情况下,或在该第三帧由接收接口接收但被损毁的情况下,通过将产生的处理信号储存于延迟缓冲器中来更新延迟缓冲器输入。
此外,提供用于解码音频信号的方法。该方法包括:
-接收包含音频信号的第一音频信号部分的第一帧,及接收包含音频信号的第二音频信号部分的第二帧。
-取决于第一音频信号部分及第二音频信号部分中的至少一个判定噪声水平信息,其中噪声水平信息被表示于追踪域中。
-在多个帧中的第三帧未被接收的情况下,或在该第三帧被接收但被损毁的情况下,取决于噪声水平信息而在第一重建域中重建音频信号的第三音频信号部分,其中第一重建域不同于或等于追踪域。
-在多个帧中的第四帧未被接收的情况下,或在该第四帧被接收但被损毁的情况下,将噪声水平信息自追踪域变换至第二重建域,其中第二重建域不同于追踪域,且其中第二重建域不同于第一重建域。及:
-在多个帧中的该第四帧未被接收的情况下,或在该第四帧被接收但被损毁的情况下,取决于在第二重建域中表示的噪声水平信息而在第二重建域中重建音频信号的第四音频信号部分。
此外,提供用于在执行于计算机或信号处理器上时实施上文所描述的方法的计算机程序。
此外,提供用于对编码音频信号进行解码以获得重建音频信号的装置。装置包含用于接收包含关于编码音频信号的音频信号频谱的多个音频信号样本的信息的一个或多个帧的接收接口,及用于产生重建音频信号的处理器。处理器用于在当前帧不由接收接口接收的情况下或在当前帧由接收接口接收但被损毁的情况下,通过将修改的频谱衰落至目标频谱来产生重建音频信号,其中修改的频谱包含多个个修改的信号样本,其中针对修改的频谱的每个修改的信号样本,该修改的信号样本的绝对值等于音频信号频谱的音频信号样本中的一个的绝对值。此外,处理器用于在一或多个帧中的当前帧由接收接口接收的情况下及在由接收接口接收的当前帧未被损毁的情况下,不将修改的频谱衰落至目标频谱。
根据实施例,目标频谱可例如为类似噪声的频谱。
在实施例中,类似噪声的频谱可例如表示白噪声。
根据实施例,类似噪声的频谱可例如被成形。
在实施例中,类似噪声的频谱的形状可例如取决于先前接收的信号的音频信号频谱。
根据实施例,类似噪声的频谱可例如取决于音频信号频谱的形状而成形。
在实施例中,处理器可例如使用倾斜因子来使类似噪声的频谱成形。
根据实施例,处理器可例如使用如下公式:
shaped_noise[i]=noise*power(tilt_factor,i/N)
其中N指示样本的数目,其中i为索引,其中0<=i<N,其中tilt_factor>0,且其中power为功率函数。
power(x,y)指示xy
power(tilt_factor,i/N)指示
若tilt_factor小于1,则此情形意味在i增加的情况下的衰减。若tilt_factor大于1,则意味在i增加的情况下的放大。
根据另一实施例,处理器可例如使用如下公式:
shaped_noise[i]=noise*(1+i/(N-1)*(tilt_factor-1))
其中N指示样本的数目,其中i为索引,其中0<=i<N,其中tilt_factor>0。
若tilt_factor小于1,则此情形意味在i增加的情况下的衰减。若tilt_factor大于1,则意味在i增加的情况下的放大。
根据实施例,处理器可例如用于在当前帧不由接收接口接收的情况下或在由接收接口接收的当前帧被损毁的情况下,通过改变音频信号频谱的音频信号样本中的一个或多个的符号来产生修改频谱。
在实施例中,音频信号频谱的每个音频信号样本可例如由实数表示,但不由虚数表示。
根据实施例,音频信号频谱的音频信号样本可例如被表示于修改的离散余弦变换域中。
在另一实施例中,音频信号频谱的音频信号样本可例如被表示于修改的离散正弦变换域中。
根据实施例,处理器可例如用于通过使用随机或伪随机输出第一值抑或第二值的随机符号函数产生修改的频谱。
在实施例中,处理器可例如用于通过随后减少衰减因子而将修改的频谱衰落至目标频谱。
根据实施例,处理器可例如用于通过随后增加衰减因子而将修改的频谱衰落至目标频谱。
在实施例中,在当前帧不由接收接口接收的情况下或在由接收接口接收的当前帧被损毁的情况下,处理器可例如用于通过使用如下公式产生重建音频信号:
x[i]=(1-cum_damping)*noise[i]+cum_damping*random_sign()*x_old[i]
其中i为索引,其中x[i]指示重建音频信号的样本,其中cum_damping为衰减因子,其中x_old[i]指示编码音频信号的音频信号频谱的每个音频信号样本,其中random_sign()返回1或-1,且其中noise为指示目标频谱的随机向量。
在实施例中,该随机向量noise可例如被按比例调整以使得其二次均值类似于由接收接口最后所接收的帧中的一帧包含的编码音频信号的频谱的二次均值。
根据一般的实施例,处理器可例如用于通过使用随机向量产生重建音频信号,该随机向量被按比例调整以使得其二次均值类似于由接收接口最后所接收的帧中的一帧所包含的编码音频信号的频谱的二次均值。
此外,提供用于对编码音频信号进行解码以获得重建音频信号的方法。该方法包括:
-接收包含关于编码音频信号的音频信号频谱的多个音频信号样本的信息的一个或多个帧。及:
-产生重建音频信号。
在当前帧未被接收的情况下或在当前帧被接收但被损毁的情况下,通过将修改的频谱衰落至目标频谱进行产生重建音频信号,其中修改的频谱包含多个修改的信号样本,其中对于修改的频谱的每个修改的信号样本,该修改的信号样本的绝对值等于音频信号频谱的音频信号样本中的一个的绝对值。在一个或多个帧中的当前帧被接收的情况下及在所接收的当前帧未被损毁的情况下,不将修改的频谱衰落至白噪声频谱。
此外,提供用于在执行于计算机或信号处理器上时实施上文所描述的方法的计算机程序。
实施例实现在FDNS应用(FDNS=频域噪声替换)之前使MDCT频谱衰落至白噪声。
根据现有技术,在基于ACELP的编码解码器中,用随机向量(例如,用噪声)来代替创新码簿。在实施例中,对TCX解码器结构采用由用随机向量(例如,用噪声)代替创新码簿构成的ACELP方法。此处,创新码簿的等效物为通常在比特串流内被接收且被反馈至FDNS中的MDCT频谱。
经典MDCT隐藏方法将为简单地照原样重复此频谱或应用某一随机化程序,该随机化程序基本上延长最后接收的帧的频谱形状[LS01]。此情形的缺点为延长了短期的频谱形状,从而频繁地导致反复的金属声音,该声音并不类似背景噪声,且因此无法被用作舒缓噪声。
使用所提出的方法,通过FDNS及TCXLTP执行短期频谱成形,仅通过FDNS执行长期频谱成形。由FDNS进行的成形自短期频谱形状衰落至背景噪声的追踪的长期频谱形状,且将TCXLTP衰落至零。
将FDNS系数衰落至追踪的背景噪声系数导致在最后良好频谱包络与长远来看应被设定为目标的频谱背景包络之间具有平滑转变,以便在长突发帧丢失的状况下达成合意的背景噪声。
相比之下,根据现有技术的状态,对于基于变换的编码解码器,通过频域中的帧重复或噪声替换来进行类似噪声的隐藏[LS01]。在现有技术中,噪声替换通常由频谱仓的符号加扰来执行。若在隐藏的过程中使用现有技术TCX(频域)符号加扰,则再次使用最后接收的MDCT系数,且在频谱被反向变换至时域之前使每一符号随机化。现有技术的此程序的缺点为对于连续丢失的帧,一次又一次地使用相同频谱,其仅仅是具有不同的符号随机化及全局衰减。当在粗时间网格上查看随时间的流逝的频谱包络时,可以看见包络在连续帧丢失的过程中大约为恒定的,因为频带能量在帧内相对于彼此保持恒定,且仅全局地衰减。在所使用的编码系统中,根据现有技术,使用FDNS来处理频谱值,以便恢复原始频谱。此意味在想要将MDCT频谱衰落至某一频谱包络(使用例如描述当前背景噪声的FDNS系数)的情况下,结果不仅取决于FDNS系数,而且取决于被符号加扰的先前经解码的频谱。上文所提及的实施例克服现有技术的这些缺点。
实施例是基于有必要在将频谱反馈至FDNS处理中之前将用于符号加扰的频谱衰落至白噪声的发现。否则,输出的频谱将决不匹配用于FDNS处理的目标包络。
在实施例中,对于LTP增益衰落使用与白噪声衰落相同的衰落速度。
此外,提供用于对编码音频信号进行解码以获得重建音频信号的装置。装置包括用于接收多个帧的接收接口、用于储存解码音频信号的音频信号样本的延迟缓冲器、用于自储存于延迟缓冲器中的音频信号样本选择多个选定音频信号样本的样本选择器,及用于处理选定音频信号样本以获得重建音频信号的重建音频信号样本的样本处理器。样本选择器用于在当前帧由接收接口接收的情况下及在由接收接口接收的当前帧未被损毁的情况下,取决于由当前帧所包含的音高滞后信息自储存于延迟缓冲器中的音频信号样本选择多个选定音频信号样本。此外,样本选择器用于在当前帧不由接收接口接收的情况下或在由接收接口接收的当前帧被损毁的情况下,取决于由先前由接收接口所接收的另一帧所包含的音高滞后信息自储存于延迟缓冲器中的音频信号样本选择多个选定音频信号样本。
根据实施例,样本处理器可例如用于在当前帧由接收接口接收的情况下及在由接收接口接收的当前帧未被损毁的情况下,通过取决于由当前帧所包含的增益信息重新按比例调整选定音频信号样本而获得重建音频信号样本。此外,样本选择器可例如用于在当前帧不由接收接口接收的情况下或在由接收接口接收的当前帧被损毁的情况下,通过取决于由先前由接收接口所接收的该另一帧所包含的增益信息重新按比例调整选定音频信号样本而获得重建音频信号样本。
在实施例中,样本处理器可例如用于在当前帧由接收接口接收的情况下及在由接收接口接收的当前帧未被损毁的情况下,通过将选定音频信号样本与取决于由当前帧所包含的增益信息的值相乘而获得重建音频信号样本。此外,样本选择器用于在当前帧不由接收接口接收的情况下或在由接收接口接收的当前帧被损毁的情况下,通过将选定音频信号样本与取决于由先前由接收接口所接收的该另一帧所包含的增益信息的值相乘而获得重建音频信号样本。
根据实施例,样本处理器可例如用于将重建音频信号样本储存于延迟缓冲器中。
在实施例中,样本处理器可例如用于在由接收接口接收另一帧之前将重建音频信号样本储存于延迟缓冲器中。
根据实施例,样本处理器可例如用于在由接收接口接收另一帧之后将重建音频信号样本储存于延迟缓冲器中。
在实施例中,样本处理器可例如用于取决于增益信息重新按比例调整选定音频信号样本以获得重新按比例调整的音频信号样本及通过组合重新按比例调整的音频信号样本与输入音频信号样本以获得处理音频信号样本。
根据实施例,样本处理器可例如用于在当前帧由接收接口接收的情况下及在由接收接口接收的当前帧未被损毁的情况下,将指示重新按比例调整的音频信号样本与输入音频信号样本的组合的处理音频信号样本储存于延迟缓冲器中,且不将重新按比例调整的音频信号样本储存于延迟缓冲器中。此外,样本处理器用于在当前帧不由接收接口接收的情况下或在由接收接口接收的当前帧被损毁的情况下,将重新按比例调整的音频信号样本储存于延迟缓冲器中且不将处理音频信号样本储存于延迟缓冲器中。
根据另一实施例,样本处理器可例如用于在当前帧不由接收接口接收的情况下或在由接收接口接收的当前帧被损毁的情况下,将处理音频信号样本储存于延迟缓冲器中。
在实施例中,样本选择器可例如用于通过取决于修改的增益重新按比例调整选定音频信号样本而获得重建音频信号样本,其中修改的增益系根据如下公式来定义的:
gain=gain_past*damping;
其中gain为修改的增益,其中样本选择器可例如用于在gain已被计算之后将gain_past设定为gain,且其中damping为实值。
根据实施例,样本选择器可例如用于计算修改的增益。
在实施例中,damping可例如根据下式来定义:0≤damping≤1。
根据实施例,在自上一次帧由接收接口接收以来至少预定义数目的帧尚未由接收接口接收的情况下,修改的增益gain可例如被设定为零。
此外,提供用于对编码音频信号进行解码以获得重建音频信号的方法。该方法包括:
-接收多个帧。
-储存解码音频信号的音频信号样本。
-自储存于延迟缓冲器中的音频信号样本选择多个选定音频信号样本。及:
-处理选定音频信号样本以获得重建音频信号的重建音频信号样本。
在当前帧被接收的情况下及在所接收的当前帧未被损毁的情况下,取决于由当前帧所包含的音高滞后信息而进行自储存于延迟缓冲器中的音频信号样本选择多个选定音频信号样本的步骤。此外,在当前帧未被接收的情况下或在所接收的当前帧被损毁的情况下,取决于由先前由接收接口所接收的另一帧所包含的音高滞后信息而进行自储存于延迟缓冲器中的音频信号样本选择多个选定音频信号样本的步骤。
此外,提供用于在执行于计算机或信号处理器上时实施上文所描述的方法的计算机程序。
实施例使用TCXLTP(TXCLTP=经变换编码激发长期预测)。在正常操作的过程中,用合成的信号更新TCXLTP内存,该合成的信号含有噪声及重建音调分量。
代替在隐藏的过程中停用TCXLTP,可在隐藏的过程中以在最后良好帧中接收的参数继续其正常操作。此保留信号的频谱形状,特别地,由LTP滤波器模型化的那些音调分量。
此外,实施例解耦TCXLTP反馈回路。正常TCXLTP操作的简单继续会引入额外噪声,因为随着每一更新步骤都会引入来自LTP激发的其他随机产生的噪声。音调分量因此随时间的流逝因添加的噪声而愈来愈失真。
为了克服此情形,可仅反馈更新的TCXLTP缓冲器(在不添加噪声的情况下),以便不会以不合需要的随机噪声污染音调信息。
此外,根据实施例,将TCXLTP增益衰落至零。
这些实施例是基于如下发现:继续TCXLTP有助于短期地保留信号特性,但就长期而言具有以下缺点:在隐藏的过程中播出的信号将包括在丢失之前存在的发声/音调信息。尤其对于干净的语音或有背景噪声的语音,音调或谐波极不可能在极长的时间内极慢地衰减。通过在隐藏的过程中继续TCXLTP操作,特别地在解耦LTP内存更新(仅反馈音调分量而不反馈符号加扰部分)的情况下,发声/音调信息将在整个丢失之内保持存在于隐藏的信号中,仅通过整体衰落至舒缓噪声水平而衰减。此外,在突发丢失的过程中应用TCXLTP而不随时间的流逝衰减的情况下,不可能在突发封包丢失的过程中达到舒缓噪声包络,因为信号将接着总是并有LTP的发声信息。
因此,使TCXLTP增益朝向零衰落,以使得由LTP表示的音调分量将衰落至零,同时信号衰落至背景信号水平及形状,且使得衰落达到所要的频谱背景包络(舒缓噪声)而不并有不合需要的音调分量。
在实施例中,对于LTP增益衰落使用与白噪声衰落相同的衰落速度。
相比之下,在现有技术中,不存在在隐藏的过程中使用LTP的已知的变换编码解码器。对于MPEG-4LTP[ISO09],现有技术中并不存在隐藏方法。利用LTP的现有技术的另一基于MDCT的编码解码器为CELT,但此编码解码器针对前五个帧使用类似ACELP的隐藏,且针对所有后续帧产生背景噪声,此举并不利用LTP。不使用TCXLTP的现有技术的缺点为用LTP模型化的所有音调分量会突然消失。此外,在现有技术的基于ACELP的编码解码器中,在隐藏的过程中延长LTP操作,且使适应性码簿的增益朝向零衰落。关于反馈回路操作,现有技术使用两个方法:反馈整个激发,例如创新及适应性激发的总和(AMR-WB);抑或仅反馈经更新的适应性激发,例如音调信号部分(G.718)。上文所提及的实施例克服现有技术的缺点。
附图说明
在下文中,参考附图更详细地描述本发明的实施例,其中:
图1a说明根据实施例的用于对音频信号进行解码的装置;
图1b说明根据另一实施例的用于对音频信号进行解码的装置;
图1c说明根据另一实施例的用于对音频信号进行解码的装置,其中装置进一步包含第一聚集单元及第二聚集单元;
图1d说明根据另一实施例的用于对音频信号进行解码的装置,其中装置更包含长期预测单元,该长期预测单元包含延迟缓冲器;
图2说明G.718的解码器结构;
图3描绘G.722的衰落因子取决于类别信息的情境;
图4展示用于使用线性回归进行振幅预测的方法;
图5说明受约束的能量重迭变换(CELT)的突发丢失行为;
图6展示在无错误操作模式的过程中在解码器中的根据实施例的背景噪声水平追踪;
图7说明根据实施例的LPC合成及去加重的增益推导;
图8描绘根据实施例的在封包丢失的过程中的舒缓噪声水平应用;
图9说明根据实施例的在ACELP隐藏的过程中的进阶高通增益补偿;
图10描绘根据实施例的在隐藏的过程中的LTP反馈回路的解耦;
图11说明根据实施例的于对编码音频信号进行解码以获得重建音频信号的装置;
图12展示根据另一实施例的用于对编码音频信号进行解码以获得重建音频信号的装置;及
图13说明另一实施例的用于对编码音频信号进行解码以获得重建音频信号的装置;及
图14说明另一实施例的用于对编码音频信号进行解码以获得重建音频信号的装置。
具体实施方式
图1a说明根据实施例的用于对音频信号进行解码的装置。
装置包含接收接口110。接收接口用于接收多个帧,其中接收接口110用于接收多个帧中的第一帧,该第一帧包含音频信号的第一音频信号部分,该第一音频信号部分被表示于第一域中。此外,接收接口110用于接收多个帧中的第二帧,该第二帧包含音频信号的第二音频信号部分。
此外,装置包含变换单元120,该变换单元用于将第二音频信号部分或自第二音频信号部分得到的值或信号自第二域变换至追踪域,以获得第二信号部分信息,其中第二域不同于第一域,其中追踪域不同于第二域,且其中追踪域等于或不同于第一域。
此外,装置包含噪声水平追踪单元130,其中噪声水平追踪单元用于接收在追踪域中表示的第一信号部分信息,其中第一信号部分信息取决于第一音频信号部分,其中噪声水平追踪单元用于接收在追踪域中表示的第二信号部分,且其中噪声水平追踪单元用于取决于在追踪域中表示的第一信号部分信息及取决于在追踪域中表示的第二信号部分信息而判定噪声水平信息。
此外,装置包含重建单元,该重建单元用于在多个帧中的第三帧不由接收接口接收而是被损毁的情况下,取决于噪声水平信息而重建音频信号的第三音频信号部分。
关于第一及/或第二音频信号部分,例如第一及/或第二音频信号部分可例如被反馈至一个或多个处理单元(未示出)中以用于产生用于一个或多个扬声器的一个或多个扬声器信号,使得可重新播放由第一及/或第二音频信号部分包含的所接收的声音信息。
然而,此外,第一及第二音频信号部分亦用于隐藏,例如在后续帧并未到达接收器的状况下或在彼后续帧不正确的状况下。
尤其,本发明是基于噪声水平追踪应在共同域(本文中被称作“追踪域”)中进行的发现。追踪域可例如为激发域,例如由LPC(LPC=线性预测性系数)或由ISP(ISP=导抗频谱对)表示信号的域,如AMR-WB及AMR-WB+中所描述(参见[3GP12a]、[3GP12b]、[3GP09a]、[3GP09b]、[3GP09c])。在单一域中追踪噪声水平尤其具有如下优点:当信号在第一域中的第一表示与第二域中的第二表示之间切换时(例如,当信号表示自ACELP切换至TCX或自TCX切换至ACELP时),避免了频迭效应。
关于变换单元120,所变换的是第二音频信号部分自身,或自第二音频信号部分得到的信号(例如,已被处理第二音频信号部分以获得得到的信号),或自第二音频信号部分得到的值(例如,已处理第二音频信号部分以获得得到的值)。
关于第一音频信号部分,在一些实施例中,第一音频信号部分可经处理及/或变换至追踪域。
然而,在其他实施例中,第一音频信号部分可已经被表示于追踪域中。
在一些实施例中,第一信号部分信息等同于第一音频信号部分。在其他实施例中,第一信号部分信息为例如取决于第一音频信号部分的聚集值。
现在,首先更详细地考虑至舒缓噪声水平的衰落。
所描述的衰落方法可例如实施于xHE-AAC[NMR+12]的低延迟版本(xHE-AAC=扩展高效率AAC)中,该版本能够在逐帧的基础上在ACELP(语音)与MDCT(音乐/噪声)编码之间顺畅地切换。
关于在追踪域(例如激发域)中的共同水平追踪,为了在封包丢失的过程中应用至适当舒缓噪声水平的平滑衰落,需要在正常解码程序的过程中识别此舒缓噪声水平。可例如假设类似于背景噪声的噪声水平大部分为舒缓的。因此,可在正常解码的过程中得到及连续更新背景噪声水平。
本发明是基于以下发现:当具有切换式核心编码解码器(例如,ACELP及TCX)时,考虑独立于所选择核心编码器的共同背景噪声水平为特别合适的。
图6描绘在无错误操作模式的过程中(例如在正常解码的过程中)在解码器中的根据较佳实施例的背景噪声水平追踪。
追踪自身可例如使用最小值统计方法来执行(参见[Mar01])。
此被追踪的背景噪声水平可例如被认为是上文所提及的噪声水平信息。
举例而言,文献“RainerMartin的Noisepowerspectraldensityestimationbasedonoptimalsmoothingandminimumstatistics(基于优化光滑和最小值统计的噪声功率谱密度估计)(IEEETransactionsonSpeechandAudioProcessing(语音处理及音频处理)9(2001),第5期,第504至512页)”中呈现的最小值统计噪声估计[Mar01]可用于背景噪声水平追踪。
相应地,在一些实施例中,噪声水平追踪单元130用于通过应用最小值统计方法(例如通过使用[Mar01]的最小值统计噪声估计)来判定噪声水平信息。
随后,描述此追踪方法的一些考虑因素及细节。
关于水平追踪,背景应该为类似噪声的。因此较佳地执行在激发域中的水平追踪以避免追踪由LPC取出的前景音调分量。举例而言,ACELP噪声填充亦可使用激发域中的背景噪声水平。在激发域中进行追踪的情况下,对背景噪声水平的仅一个单次追踪可起到两个用途,从而减小计算复杂性。在较佳实施例中,在ACELP激发域中执行追踪。
图7说明根据实施例的LPC合成及去加重的增益推导。
关于水平得到,水平得到可例如在时域中抑或在激发域中抑或在任何其他合适的域中进行。在用于水平得到及水平追踪的域不同的情况下,可例如需要增益补偿。
在较佳实施例中,在激发域中执行用于ACELP的水平得到。因此,并不需要增益补偿。
对于TCX,可例如需要增益补偿以将得到的水平调整至ACELP激发域。
在较佳实施例中,用于TCX的水平得到在时域中发生。发现了用于此方法的易管理的增益补偿:如图7中所示得到由LPC合成及去加重引入的增益,且将得到的水平除以此增益。
或者,可在TCX激发域中执行用于TCX的水平得到。然而,TCX激发域与ACELP激发域之间的增益补偿被认为太复杂。
因此返回到图1a,在一些实施例中,第一音频信号部分被表示于作为第一域的时域中。变换单元120用于将第二音频信号部分或自第二音频信号部分得到的值自为第二域的激发域变换至为追踪域的时域。在这些实施例中,噪声水平追踪单元130用于接收在作为追踪域的时域中表示的第一信号部分信息。此外,噪声水平追踪单元130用于接收在作为追踪域的时域中表示的第二信号部分。
在其他实施例中,第一音频信号部分被表示于作为第一域的激发域中。变换单元120用于将第二音频信号部分或自第二音频信号部分得到的值自为第二域的时域变换至为追踪域的激发域。在这些实施例中,噪声水平追踪单元130用于接收在作为追踪域的激发域中表示的第一信号部分信息。此外,噪声水平追踪单元130用于接收在作为追踪域的激发域中表示的第二信号部分。
在实施例中,第一音频信号部分可例如被表示于作为第一域的激发域中,其中噪声水平追踪单元130可例如用于接收第一信号部分信息,其中该第一信号部分信息被表示于为追踪域的FFT域中,且其中该第一信号部分信息取决于在激发域中表示的该第一音频信号部分,其中变换单元120可例如用于将第二音频信号部分或自第二音频信号部分得到的值自为第二域的时域变换至为追踪域的FFT域,且其中噪声水平追踪单元130可例如用于接收在FFT域中表示的第二音频信号部分。
图1b说明根据另一实施例的装置。在图1b中,图1a的变换单元120为第一变换单元120,及图1a的重建单元140为第一重建单元140。装置进一步包含第二变换单元121及第二重建单元141。
第二变换单元121用于在多个帧中的第四帧不由接收接口接收的情况下或在该第四帧由接收接口接收但被损毁的情况下,将噪声水平信息自追踪域变换至第二域。
此外,第二重建单元141用于在多个帧中的该第四帧不由接收接口接收的情况下或在该第四帧由接收接口接收但被损毁的情况下,取决于在第二域中表示的噪声水平信息而重建音频信号的第四音频信号部分。
图1c说明根据另一实施例的用于对音频信号进行解码的装置。装置进一步包含用于取决于第一音频信号部分而判定第一聚集值的第一聚集单元150。此外,图1c的装置进一步包含用于取决于第二音频信号部分而将第二聚集值判定为自第二音频信号部分得到的值的第二聚集单元160。在图1c的实施例中,噪声水平追踪单元130用于接收第一聚集值作为在追踪域中表示的第一信号部分信息,其中噪声水平追踪单元130用于接收第二聚集值作为在追踪域中表示的第二信号部分信息。噪声水平追踪单元130用于取决于在追踪域中表示的第一聚集值及取决于在追踪域中表示的第二聚集值而判定噪声水平信息。
在实施例中,第一聚集单元150用于判定第一聚集值以使得第一聚集值指示第一音频信号部分或自第一音频信号部分得到的信号的均方根。此外,第二聚集单元160用于判定第二聚集值以使得第二聚集值指示第二音频信号部分或自第二音频信号部分得到的信号的均方根。
图6说明根据另一实施例的用于对音频信号进行解码的装置。
在图6中,背景水平追踪单元630实施根据图1a的噪声水平追踪单元130。
此外,在图6中,RMS单元650(RMS=均方根)为第一聚集单元,且RMS单元660为第二聚集单元。
根据一些实施例,图1a、图1b及图1c的(第一)变换单元120用于通过对自第二音频信号部分得到的值应用增益值(x)(例如,通过将自第二音频信号部分得到的值除以增益值(x))将自第二音频信号部分得到的值自第二域变换至追踪域。在其他实施例中,可例如乘以增益值。
在一些实施例中,增益值(x)可例如指示由线性预测性编码合成引入的增益,或增益值(x)可例如指示由线性预测性编码合成及去加重引入的增益。
在图6中,单元622提供指示由线性预测性编码合成及去加重引入的增益的值(x)。单元622接着将由第二聚集单元660提供的值(其为自第二音频信号部分得到的值)除以所提供的增益值(x)(例如,通过除以x,抑或通过乘以值1/x)。因此,图6的包含单元621及622的单元620实施图1a、图1b或图1c的第一变换单元。
图6的装置接收具有第一音频信号部分的第一帧,该第一音频信号部分为有声激发及/或无声激发且被表示于追踪域中(在图6中,(ACELP)LPC域)。将第一音频信号部分反馈至LPC合成及去加重单元671中以进行处理,从而获得时域第一音频信号部分输出。此外,将第一音频信号部分反馈至RMS模块650中以获得指示第一音频信号部分的均方根的第一值。此第一值(第一RMS值)被表示于追踪域中。接着将在追踪域中表示的第一RMS值反馈至噪声水平追踪单元630中。
此外,图6的装置接收具有第二音频信号部分的第二帧,该第二音频信号部分包含MDCT频谱且被表示于MDCT域中。噪声填充由噪声填充模块681进行,频域噪声成形由频域噪声成形模块682进行,至时域的变换由iMDCT/OLA模块683(OLA=重迭相加)进行,且长期预测由长期预测单元684进行。长期预测单元可例如包含延迟缓冲器(图6中未图示)。
接着将自第二音频信号部分得到的信号反馈至RMS模块660中以获得第二值,该第二值指示获得自第二音频信号部分得到的那个信号的均方根。此第二值(第二RMS值)仍被表示于时域中。单元620接着将第二RMS值自时域变换至追踪域,此处追踪域为(ACELP)LPC域。接着将在追踪域中表示的第二RMS值反馈至噪声水平追踪单元630中。
在实施例中,在激发域中进行水平追踪,但在时域中进行TCX衰落。
尽管在正常解码的过程中追踪背景噪声水平,但背景噪声水平可例如在封包丢失的过程中用作最后接收的信号平滑地逐水平衰落至的适当舒缓噪声水平的指示符。
得到用于追踪的水平及应用水平衰落大体而言为彼此独立的,且可在不同域中执行。在较佳实施例中,在与水平得到相同的域中执行水平应用,从而导致相同的益处:对于ACELP而言,不需要增益补偿,且对于TCX而言,需要关于水平得到的反增益补偿(参见图6)且因此可使用相同增益得到,如由图7所说明。
在下文中,描述根据实施例的高通滤波器对LPC合成增益的影响的补偿。
图8概述此方法。特别地,图8说明在封包丢失的过程中的舒缓噪声水平应用。
在图8中,高通增益滤波器单元643、乘法单元644、衰落单元645、高通滤波器单元646、衰落单元647及组合单元648一起形成第一重建单元。
此外,在图8中,背景水平供应单元631提供噪声水平信息。举例而言,背景水平供应单元631可同样实施为图6的背景水平追踪单元630。
此外,在图8中,LPC合成及去加重增益单元649及乘法单元641一起用于第二变换单元640。
此外,在图8中,衰落单元642表示第二重建单元。
在图8的实施例中,有声及无声激发被单独地衰落:有声激发衰落至零,但无声激发朝向舒缓噪声水平衰落。图8此外描绘高通滤波器,其在除了当信号被分类为无声时之外的所有状况下被引入至无声激发的信号链中以抑制低频分量。
为了将高通滤波器的影响模型化,将在LPC合成及去加重之后的水平在有高通滤波器的情况下计算一次,且在无高通滤波器的情况下计算一次。随后,得到那些两个水平之比且将其用以更改所应用的背景水平。
此情形由图9说明。特别地,图9描绘根据实施例的在ACELP隐藏的过程中的进阶高通增益补偿。
代替当前激发信号,仅将简单脉冲用作此计算的输入。这允许复杂性减少,因为脉冲响应快速衰减,且因此可在较短时间范围内执行RMS得到。实际上,使用仅一个子帧而非整个帧。
根据实施例,噪声水平追踪单元130用于将舒缓噪声水平判定为噪声水平信息。重建单元140用于在多个帧中的该第三帧不由接收接口110接收的情况下或在该第三帧由接收接口110接收但被损毁的情况下,取决于噪声水平信息而重建第三音频信号部分。
根据实施例,噪声水平追踪单元130用于将舒缓噪声水平判定为噪声水平信息。重建单元140用于在多个帧中的该第三帧不由接收接口110接收的情况下或在该第三帧由接收接口110接收但被损毁的情况下,取决于噪声水平信息而重建第三音频信号部分。
在实施例中,噪声水平追踪单元130用于将舒缓噪声水平判定为自噪声水平频谱得到的噪声水平信息,其中该噪声水平频谱系通过应用最小值统计方法而获得的。重建单元140用于在多个帧中的该第三帧不由接收接口110接收的情况下或在该第三帧由接收接口110接收但被损毁的情况下,取决于多个线性预测性系数而重建第三音频信号部分。
在实施例中,(第一及/或第二)重建单元140、141可例如用于在多个帧中的该第三(第四)帧不由接收接口110接收的情况下或在该第三(第四)帧由接收接口110接收但被损毁的情况下,取决于噪声水平信息及取决于第一音频信号部分而重建第三音频信号部分。
根据实施例,(第一及/或第二)重建单元140、141可例如用于通过减小或放大第一音频信号部分来重建第三(或第四)音频信号部分。
图14说明用于对音频信号进行解码的装置。装置包含接收接口110,其中接收接口110用于接收包含音频信号的第一音频信号部分的第一帧,且其中接收接口110用于接收包含音频信号的第二音频信号部分的第二帧。
此外,装置包含噪声水平追踪单元130,其中噪声水平追踪单元130用于取决于第一音频信号部分及第二音频信号部分中的至少一个(此意味:取决于第一音频信号部分及/或第二音频信号部分)判定噪声水平信息,其中噪声水平信息被表示于追踪域中。
此外,装置包含第一重建单元140,该第一重建单元用于在多个帧中的第三帧不由接收接口110接收的情况下或在该第三帧由接收接口110接收但被损毁的情况下,取决于噪声水平信息而在第一重建域中重建音频信号的第三音频信号部分,其中第一重建域不同于或等于追踪域。
此外,装置包含变换单元121,该变换单元用于在多个帧中的第四帧不由接收接口110接收的情况下或在该第四帧由接收接口110接收但被损毁的情况下,将噪声水平信息自追踪域变换至第二重建域,其中第二重建域不同于追踪域,且其中第二重建域不同于第一重建域,及
此外,装置包含第二重建单元141,该第二重建单元用于在多个帧中的该第四帧不由接收接口110接收的情况下或在该第四帧由接收接口110接收但被损毁的情况下,取决于在第二重建域中表示的噪声水平信息而在第二重建域中重建音频信号的第四音频信号部分。
根据一些实施例,追踪域可例如其中追踪域为时域、频谱域、FFT域、MDCT域或激发域。第一重建域可例如为时域、频谱域、FFT域、MDCT域或激发域。第二重建域可例如为时域、频谱域、FFT域、MDCT域或激发域。
在实施例中,追踪域可例如为FFT域,第一重建域可例如为时域,及第二重建域可例如为激发域。
在另一实施例中,追踪域可例如为时域,第一重建域可例如为时域,及第二重建域可例如为激发域。
根据实施例,该第一音频信号部分可例如被表示于第一输入域中,及该第二音频信号部分可例如被表示于第二输入域中。变换单元可例如为第二变换单元。装置可例如进一步包含用于将第二音频信号部分或自第二音频信号部分得到的值或信号自第二输入域变换至追踪域以获得第二信号部分信息的第一变换单元。噪声水平追踪单元可例如用于接收在追踪域中表示的第一信号部分信息,其中第一信号部分信息取决于第一音频信号部分,其中噪声水平追踪单元用于接收在追踪域中表示的第二信号部分,且其中噪声水平追踪单元用于取决于在追踪域中表示的第一信号部分信息及取决于在追踪域中表示的第二信号部分信息判定噪声水平信息。
根据实施例,第一输入域可例如为激发域,及第二输入域可例如为MDCT域。
在另一实施例中,第一输入域可例如为MDCT域,且其中第二输入域可例如为MDCT域。
在例如在时域中表示信号的情况下,信号可例如由信号的时域样本表示。或例如,在频谱域中表示信号的情况下,信号可例如由信号的频谱的频谱样本表示。
在实施例中,追踪域可例如为FFT域,第一重建域可例如为时域,及第二重建域可例如为激发域。
在另一实施例中,追踪域可例如为时域,第一重建域可例如为时域,及第二重建域可例如为激发域。
在一些实施例中,图14中所说明的单元可例如按针对图1a、图1b、图1c及图1d所描述的配置。
关于特别的实施例,在例如低速率模式中,根据实施例的装置可例如接收ACELP帧作为输入,这些ACELP帧被表示于激发域中且接着经由LPC合成变换至时域。此外,在低速率模式中,根据实施例的装置可例如接收TCX帧作为输入,这些TCX帧被表示于MDCT域中,且接着经由反MDCT而变换至时域。
接着在FFT域中进行追踪,其中通过进行FFT(快速傅立叶变换)自时域信号得到FFT信号。可例如通过对于所有频谱线分开进行最小值统计方法来进行追踪以获得舒缓噪声频谱。
接着通过基于舒缓噪声频谱进行水平得到来进行隐藏。基于舒缓噪声频谱进行水平得到。对于FDTCXPLC进行至时域中的水平转换。进行在时域中的衰落。针对ACELPPLC及针对TDTCXPLC(类似ACELP)进行至激发域中的水平得到。接着进行在激发域中的衰落。
以下清单概述此情形:
低速率:
●输入:
○acelp(激发域->时域,经由lpc合成)
○tcx(mdct域->时域,经由反MDCT)
●追踪:
○fft域,经由FFT自时域得到
○最小值统计,对于所有频谱线分开进行->舒缓噪声频谱
●隐藏:
○基于舒缓噪声频谱的水平得到
○对于以下PLC水平转换至时域中
■FDTCXPLC->在时域中衰落
○对于以下PLC水平转换至激发域中
■ACELPPLC
■TDTCXPLC(类似ACELP)->在激发域中衰落
在例如高速率模式中,其可例如接收TCX帧作为输入,这些TCX帧被表示于MDCT域中,且接着经由反MDCT而变换至时域。
接着可在时域中进行追踪。可例如通过基于能量水平进行最小值统计方法来进行追踪以获得舒缓噪声水平。
对于隐藏,对于FDTCXPLC而言,水平可被照原样使用,且可仅进行时域中的衰落。对于TDTCXPLC(类似ACELP),进行至激发域的水平转换及在激发域中的衰落。
以下清单概述此情形:
高速率:
●输入:
○tcx(mdct域->时域,经由反MDCT)
●追踪:
○时域
○基于能量水平的最小值统计->舒缓噪声水平
●隐藏:
○「照原样」使用水平
■FDTCXPLC->在时域中衰落
○对于以下PLC水平转换至激发域中
■TDTCXPLC(类似ACELP)->在激发域中衰落
FFT域及MDCT域皆为频谱域,而激发域为某种时域。
根据实施例,第一重建单元140可例如用于通过进行至类似噪声的频谱的第一衰落而重建第三音频信号部分。第二重建单元141可例如用于通过进行至类似噪声的频谱的第二衰落及/或LTP增益的第二衰落来重建第四音频信号部分。此外,第一重建单元140及第二重建单元141可例如用于按相同衰落速度进行至类似噪声的频谱的第一衰落及至类似噪声的频谱的第二衰落及/或LTP增益的第二衰落。
现在考虑舒缓噪声的适应性频谱成形。
为了达成在突发封包丢失的过程中至舒缓噪声的适应性成形,作为第一步骤,可进行对表示背景噪声的适当LPC系数的发现。可在起作用语音的过程中使用用于发现背景噪声频谱的最小值统计方法及接着通过使用文献中已知的用于LPC得到的任意算法而自背景噪声频谱计算LPC系数来得到这些LPC系数。例如,一些实施例可直接将背景噪声频谱转换成可直接用于MDCT域中的FDNS的表示。
至舒缓噪声的衰落可在ISF域中进行(在LSF域中亦可适用;LSF线频谱频率):
fcurrent[i]=α·flast[i]+(1-α)·ptmean[i]i=0...16(26)
通过将ptmean设定为描述舒缓噪声的适当LP系数。
关于舒缓噪声的上文所描述的适应性频谱成形,由图11说明更一般实施例。
图11说明根据实施例的用于对编码音频信号进行解码以获得重建音频信号的装置。
装置包含用于接收一个或多个帧的接收接口1110、系数产生器1120及信号重建器1130。
系数产生器1120用于在一个或多个帧中的当前帧由接收接口1110接收的情况下及在由接收接口1110接收的当前帧并非被损毁/不正确的情况下,判定由当前帧包含一个或多个第一音频信号系数,其中该一个或多个第一音频信号系数指示编码音频信号的特性,且判定指示编码音频信号的背景噪声的一个或多个噪声系数。此外,系数产生器1120用于在当前帧不由接收接口1110接收的情况下或在由接收接口1110接收的当前帧被损毁/不正确的情况下,取决于一个或多个第一音频信号系数及取决于一个或多个噪声系数而产生一个或多个第二音频信号系数。
音频信号重建器1130用于在当前帧由接收接口1110接收的情况下及在由接收接口1110接收的当前帧未被损毁的情况下,取决于一个或多个第一音频信号系数而重建重建音频信号的第一部分。此外,音频信号重建器1130用于在当前帧不由接收接口1110接收的情况下或在由接收接口1110接收的当前帧被损毁的情况下,取决于一个或多个第二音频信号系数而重建重建音频信号的第二部分。
判定背景噪声在现有技术中是熟知的(参见例如[Mar01]:RainerMartin的“Noisepowerspectraldensityestimationbasedonoptimalsmoothingandminimumstatistics(基于优化光滑和最小值统计的噪声功率谱密度估计)”,IEEETransactionsonSpeechandAudioProcessing(语音处理及音频处理)9(2001)第5期,第504至512页),且在实施例中,装置相应地继续进行。
在一些实施例中,一个或多个第一音频信号系数可例如为编码音频信号的一个或多个线性预测性滤波器系数。在一些实施例中,一个或多个第一音频信号系数可例如为编码音频信号的一个或多个线性预测性滤波器系数。
现有技术中已知如何自线性预测性滤波器系数或自导抗频谱对重建音频信号(例如,语音信号)(参见例如,[3GP09c]:Speechcodecspeechprocessingfunctions(语音编码解码器的语音处理功能);adaptivemulti-rate-wideband(AMRWB)speechcodec(自适应多速率宽带语音编码解码器);transcodingfunctions(编码变换功能),3GPPTS26.190,第三代合作伙伴计划,2009),且在实施例中,信号重建器相应地继续进行。
根据实施例,一个或多个噪声系数可例如为指示编码音频信号的背景噪声的一个或多个线性预测性滤波器系数。在实施例中,一个或多个线性预测性滤波器系数可例如表示背景噪声的频谱形状。
在实施例中,系数产生器1120可例如用于判定一个或多个第二音频信号部分以使得一个或多个第二音频信号部分为重建音频信号的一个或多个线性预测性滤波器系数,或使得一个或多个第一音频信号系数为重建音频信号的一个或多个导抗频谱对。
根据实施例,系数产生器1120可例如用于通过应用如下公式而产生一个或多个第二音频信号系数:
fcurrent[i]=α·flast[i]+(1-α)·ptmean[i]
其中fcurrent[i]指示一个或多个第二音频信号系数中的一个,其中flast[i]指示一个或多个第一音频信号系数中的一个,其中ptmean[i]为一个或多个噪声系数中的一个,其中α为实数,其中0≤α≤1,且其中i为索引。
根据实施例,flast[i]指示编码音频信号的线性预测性滤波器系数,且其中fcurrent[i]指示重建音频信号的线性预测性滤波器系数。
在实施例中,ptmean[i]可例如为线性预测性滤波器系数,其指示编码音频信号的背景噪声。
根据实施例,系数产生器1120可例如用于产生至少10个第二音频信号系数作为一个或多个第二音频信号系数。
在实施例中,系数产生器1120可例如用于在一个或多个帧中的当前帧由接收接口1110接收的情况下及在由接收接口1110接收的当前帧未被损毁的情况下,通过判定编码音频信号的噪声频谱来判定一个或多个噪声系数。
在下文中,考虑在FDNS应用之前将MDCT频谱衰落至白噪声。
代替随机修改MDCT频率仓的符号(符号加扰),用使用FDNS成形的白噪声来填充完整频谱。为了避免频谱特性中的实时改变,应用符号加扰与噪声填充之间的交叉衰落。可如下实现交叉衰落:
其中:
cum_damping为(绝对)衰减因子,其在帧之间减少,自1开始且朝向0减少
x_old为最后接收的帧的频谱
random_sign返回1或-1
noise含有随机向量(白噪声),其被按比例调整以使得其二次均值(RMS)类似于最后良好频谱。
术语random_sign()*old_x[i]表征用以使相位随机化且如此避免谐波重复的符号加扰程序。
随后,可在交叉衰落之后执行能量水平的另一归一化以确保总能量不会归因于两个向量的相关而发生偏离。
根据实施例,第一重建单元140可例如用于取决于噪声水平信息及取决于第一音频信号部分重建第三音频信号部分。在特定实施例中,第一重建单元140可例如用于通过减小或放大第一音频信号部分来重建第三音频信号部分。
在一些实施例中,第二重建单元141可例如用于取决于噪声水平信息及取决于第二音频信号部分重建第四音频信号部分。在特别的实施例中,第二重建单元141可例如用于通过减小或放大第二音频信号部分来重建第四音频信号部分。
关于上文所描述的在FDNS应用之前MDCT频谱至白噪声的衰落,由图12说明更一般的实施例。
图12说明根据实施例的用于对编码音频信号进行解码以获得重建音频信号的装置。
装置包含用于接收包含关于编码音频信号的音频信号频谱的多个音频信号样本的信息的一个或多个帧的接收接口1210,及用于产生重建音频信号的处理器1220。
处理器1220用于在当前帧不由接收接口1210接收的情况下或在当前帧由接收接口1210接收但被损毁的情况下,通过将修改的频谱衰落至目标频谱来产生重建音频信号,其中修改的频谱包含多个修改的信号样本,其中针对修改的频谱的每个修改的信号样本,该修改的信号样本的绝对值等于音频信号频谱的音频信号样本中的一个的绝对值。
此外,处理器1220用于在一个或多个帧中的当前帧由接收接口1210接收的情况下及在由接收接口1210接收的当前帧未被损毁的情况下,不将修改的频谱衰落至目标频谱。
根据实施例,目标频谱为类似噪声的频谱。
在实施例中,类似噪声的频谱表示白噪声。
根据实施例,类似噪声的频谱被成形。
在实施例中,类似噪声的频谱的形状取决于先前接收的信号的音频信号频谱。
根据实施例,取决于音频信号频谱的形状而成形类似噪声的频谱。
在实施例中,处理器1220使用倾斜因子来使类似噪声的频谱成形。
根据实施例,处理器1220使用如下公式:
shaped_noise[i]=noise*power(tilt_factor,i/N)
其中N指示样本的数目,
其中i为索引,
其中0<=i<N,其中tilt_factor>0,
其中power为功率函数。
若tilt_factor小于1,则此情形意味在i增加的情况下的衰减。若tilt_factor大于1,则意味在i增加的情况下的放大。
根据另一实施例,处理器1220可使用如下公式:
shaped_noise[i]=noise*(1+i/(N-1)*(tilt_factor-1))
其中N指示样本的数目,
其中i为索引,其中0<=i<N,
其中tilt_factor>0。
根据实施例,处理器1220用于在当前帧不由接收接口1210接收的情况下或在由接收接口1210接收的当前帧被损毁的情况下,通过改变音频信号频谱的音频信号样本中的一个或多个的符号来产生修改的频谱。
在实施例中,音频信号频谱的音频信号样本中的每一个由实数表示,但不由虚数表示。
根据实施例,音频信号频谱的音频信号样本被表示在修改离散余弦变换域中。
在另一实施例中,音频信号频谱的音频信号样本被表示在经修改离散正弦变换域中。
根据实施例,处理器1220用于通过使用随机或伪随机输出第一值抑或第二值的随机符号函数产生修改的频谱。
在实施例中,处理器1220用于通过随后减小衰减因子而将修改的频谱衰落至目标频谱。
根据实施例,处理器1220用于通过随后增加衰减因子而将修改的频谱衰落至目标频谱。
在实施例中,在当前帧不由接收接口1210接收的情况下或在由接收接口1210接收的当前帧被损毁的情况下,处理器1220用于通过使用如下公式产生重建音频信号:
x[i]=(1-cum_damping)*noise[i]+cum_damping*random_sign()*x_old[i]
其中i为索引,其中x[i]指示重建音频信号的样本,其中cum_damping为衰减因子,其中x_old[i]指示编码音频信号的音频信号频谱的音频信号样本中的一个,其中random_sign()返回1或-1,且其中noise为指示目标频谱的随机向量。
一些实施例继续TCXLTP操作。在那些实施例中,在隐藏的过程中用自最后良好帧得到的LTP参数(LTP滞后及LTP增益)继续TCXLTP操作。
LTP操作可概述如下:
-基于先前得到的输出对LTP延迟缓冲器进行反馈。
-基于LTP滞后:从LTP延迟缓冲器当中选择被用作LTP贡献以使当前信号成形的适当信号部分。
-使用LTP增益重新按比例调整此LTP贡献。
-将此重新按比例调整的LTP贡献与LTP输入信号相加以产生LTP输出信号。
关于执行LTP延迟缓冲器更新的时间,可考虑不同方法:
作为使用来自最后帧n-1的输出的在帧n中的第一LTP操作。这对在帧n中的LTP处理的过程中待使用的在帧n中的LTP延迟缓冲器进行更新。
作为使用来自当前帧n的输出的在帧n中的最后LTP操作。这对在帧n+1中的LTP处理的过程中待使用的在帧n中的LTP延迟缓冲器进行更新。
在下文中,考虑TCXLTP反馈回路的解耦。
解耦TCXLTP反馈回路避免了在处于隐藏模式中时在LTP解码器的每一反馈回路的过程中额外噪声的引入(由应用于LPT输入信号的噪声替换产生)。
图10说明此解耦。特别地,图10描绘在隐藏的过程中的LTP反馈回路的解耦(bfi=1)。
图10说明延迟缓冲器1020、样本选择器1030及样本处理器1040(样本处理器1040由虚线指示)。
到执行LTP延迟缓冲器1020更新的时间,一些实施例如下继续进行:
-对于正常操作:按第一LTP操作更新LTP延迟缓冲器1020可能为较佳的,因为通常持续地储存经求和的输出信号。通过此方法,可省略专用缓冲器。
-对于解耦操作:按最后LTP操作更新LTP延迟缓冲器1020可能为较佳的,因为通常仅暂时地储存对信号的LTP贡献。通过此方法,保留了暂时性LTP贡献信号。就实施而言,完全可使此LTP贡献缓冲器为持续性的。
假设在任何状况下使用后一方法(正常操作及隐藏),实施例可例如实施以下情形:
-在正常操作的过程中:在添加至LTP输入信号之后的LTP解码器的时域信号输出被用以对LTP延迟缓冲器进行反馈。
-在隐藏的过程中:在添加至LTP输入信号之前的LTP解码器的时域信号输出被用以对LTP延迟缓冲器进行反馈。
一些实施例使TCXLTP增益朝向零衰落。在此实施例中,TCXLTP增益可例如按某一信号适应性衰落因子朝向零衰落。例如,此情形可例如根据以下伪码迭代地进行:
gain=gain_past*damping;
[...]
gain_past=gain;
其中:
gain为在当前帧中应用的TCXLTP解码器增益;
gain_past为在先前帧中应用的TCXLTP解码器增益;
damping为(相对)衰落因子。
图1d说明根据另一实施例的装置,其中装置进一步包含长期预测单元170,该长期预测单元170包含延迟缓冲器180。长期预测单元170用于取决于第二音频信号部分、取决于储存于延迟缓冲器180中的延迟缓冲器输入及取决于长期预测增益而产生处理信号。此外,长期预测单元用于在多个帧中的该第三帧不由接收接口110接收的情况下或在该第三帧由接收接口110接收但被损毁的情况下,使长期预测增益朝向零衰落。
在其他实施例中(未示出),长期预测单元可例如用于取决于第一音频信号部分、取决于储存于延迟缓冲器中的延迟缓冲器输入及取决于长期预测增益而产生处理信号。
在图1d中,此外,第一重建单元140可例如取决于处理信号产生第三音频信号部分。
在实施例中,长期预测单元170可例如用于使长期预测增益朝向零衰落,其中长期预测增益衰落至零的速度取决于衰落因子。
可选地或另外,长期预测单元170可例如用于在多个帧中的该第三帧不由接收接口110接收的情况下或在该第三帧由接收接口110接收但被损毁的情况下,通过将所产生的处理信号储存于延迟缓冲器180中来更新延迟缓冲器180输入。
关于TCXLTP的上文所描述的使用,由图13说明更一般的实施例。
图13说明用于对编码音频信号进行解码以获得重建音频信号的装置。
装置包含用于接收多个帧的接收接口1310、用于储存解码音频信号的音频信号样本的延迟缓冲器1320、用于自储存于延迟缓冲器1320中的音频信号样本选择多个选定音频信号样本的样本选择器1330及用于处理选定音频信号样本以获得重建音频信号的重建音频信号样本的样本处理器1340。
样本选择器1330用于在当前帧由接收接口1310接收的情况下及在由接收接口1310接收的当前帧未被损毁的情况下,取决于由当前帧包含的音高滞后信息自储存于延迟缓冲器1320中的音频信号样本选择多个选定音频信号样本。此外,样本选择器1330用于在当前帧不由接收接口1310接收的情况下或在由接收接口1310接收的当前帧被损毁的情况下,取决于由先前由接收接口1310所接收的另一帧所包含的音高滞后信息自储存于延迟缓冲器1320中的音频信号样本选择多个选定音频信号样本。
根据实施例,样本处理器1340可例如用于在当前帧由接收接口1310接收的情况下及在由接收接口1310接收的当前帧未被损毁的情况下,通过取决于由当前帧所包含的增益信息重新按比例调整选定音频信号样本而获得重建音频信号样本。此外,样本选择器1330可例如用于在当前帧不由接收接口1310接收的情况下或在由接收接口1310接收的当前帧被损毁的情况下,通过取决于由先前由接收接口1310所接收的该另一帧所包含的增益信息重新按比例调整选定音频信号样本而获得重建音频信号样本。
在实施例中,样本处理器1340可例如用于在当前帧由接收接口1310接收的情况下及在由接收接口1310接收的当前帧未被损毁的情况下,通过将选定音频信号样本与取决于由当前帧所包含的增益信息的值相乘而获得重建音频信号样本。此外,样本选择器1330用于在当前帧不由接收接口1310接收的情况下或在由接收接口1310接收的当前帧被损毁的情况下,通过将选定音频信号样本与取决于由先前由接收接口1310所接收的该另一帧所包含的增益信息的值相乘而获得重建音频信号样本。
根据实施例,样本处理器1340可例如用于将重建音频信号样本储存于延迟缓冲器1320中。
在实施例中,样本处理器1340可例如用于在由接收接口1310接收另一帧之前将重建音频信号样本储存于延迟缓冲器1320中。
根据实施例,样本处理器1340可例如用于在由接收接口1310接收另一帧之后将重建音频信号样本储存于延迟缓冲器1320中。
在实施例中,样本处理器1340可例如用于取决于增益信息来重新按比例调整选定音频信号样本以获得重新按比例调整的音频信号样本,及通过组合重新按比例调整的音频信号样本与输入音频信号样本以获得处理音频信号样本。
根据实施例,样本处理器1340可例如用于在当前帧由接收接口1310接收的情况下及在由接收接口1310接收的当前帧未被损毁的情况下,将指示重新按比例调整的音频信号样本与输入音频信号样本的组合的处理音频信号样本储存于延迟缓冲器1320中,且不将重新按比例调整的音频信号样本储存于延迟缓冲器1320中。此外,样本处理器1340用于在当前帧不由接收接口1310接收的情况下或在由接收接口1310接收的当前帧被损毁的情况下,将重新按比例调整的音频信号样本储存于延迟缓冲器1320中,且不将处理音频信号样本储存于延迟缓冲器1320中。
根据另一实施例,样本处理器1340可例如用于在当前帧不由接收接口1310接收的情况下或在由接收接口1310接收的当前帧被损毁的情况下,将处理音频信号样本储存于延迟缓冲器1320中。
在实施例中,样本选择器1330可例如用于通过取决于修改的增益重新按比例调整选定音频信号样本而获得重建音频信号样本,其中修改的增益是根据如下公式来定义的:
gain=gain_past*damping;
其中gain为修改的增益,其中样本选择器1330可例如用于在gain已被计算之后将gain_past设定为gain,且其中damping为实数。
根据实施例,样本选择器1330可例如用于计算修改的增益。
在实施例中,damping可例如根据下式来定义:0<damping<1。
根据实施例,在自上一次帧由接收接口1310接收以来至少预定义数目的帧尚未由接收接口1310接收的情况下,修改的增益gain可例如被设定为零。
在下文中,考虑衰落速度。存在应用某种衰落的若干隐藏模块。虽然此衰落的速度可能在那些模块中被不同地进行选择,但对于一个核心(ACELP或TCX)的所有隐藏模块使用相同衰落速度系有益的。举例而言:
对于ACELP,特别地,针对适应性码簿(通过更改增益)及/或针对创新码簿信号(通过更改增益),应使用相同衰落速度。
又,对于TCX,特别地,针对时域信号及/或针对LTP增益(衰落至零)及/或针对LPC加权(衰落至一)及/或针对LP系数(衰落至背景频谱形状)及/或针对至白噪声的交叉衰落,应使用相同衰落速度。
针对ACELP及TCX亦使用相同衰落速度可能进一步为较佳的,但归因于核心的不同性质,亦可能选择使用不同衰落速度。
此衰落速度可能为静态的,但较佳地适应于信号特性。举例而言,衰落速度可例如取决于LPC稳定性因子(TCX)及/或分类及/或连续丢失帧的数目。
衰落速度可例如取决于衰减因子来判定,该衰减因子可能被绝对地或相对地给出,且亦可能在某一衰落的过程中随时间的流逝而改变。
在实施例中,对于LTP增益衰落使用与白噪声衰落相同的衰落速度。
已提供用于产生如上文所描述的舒缓噪声信号的装置、方法及计算机程序。
尽管已在装置的上下文中描述一些方面,但显然,这些方面亦表示对应方法的描述,其中区块或器件对应于方法步骤或方法步骤的特征。类似地,在方法步骤的上下文中所描述的方面亦表示对应装置的对应区块或项目或特征的描述。
本发明的分解的信号可储存于数字储存媒体上或可在诸如无线传输媒体的传输媒体或诸如因特网的有线传输媒体上传输。
取决于某些实施要求,本发明的实施例可以硬件或软件实施。实施可使用数字储存媒体来执行,该媒体例如软性磁盘、DVD、CD、ROM、PROM、EPROM、EEPROM或闪存,该媒体上储存有电子可读控制信号,这些电子可读控制信号与可编程计算机系统协作(或能够协作)以使得执行各个方法。
根据本发明的一些实施例包含具有电子可读控制信号的非暂时性数据载体,这些电子可读控制信号能够与可编程计算机系统协作,使得执行本文中所描述的方法中的一个。
大体而言,本发明的实施例可实施为具有程序代码的计算机程序产品,当计算机程序产品执行于计算机上时,程序代码操作性地用于执行这些方法中的一个。程序代码可(例如)储存于机器可读载体上。
其他实施例包含储存于机器可读载体上的用于执行本文中所描述的方法中的一个的计算机程序。
换言之,因此,本发明方法的实施例为具有程序代码的计算机程序,当计算机程序执行于计算机上时,该程序代码用于执行本文中所描述的方法中的一个。
因此,本发明方法的另一实施例为包含记录于其上的,用于执行本文中所描述的方法中的一个的计算机程序的数据载体(或数字储存媒体,或计算机可读媒体)。
因此,本发明方法的另一实施例为表示用于执行本文中所描述的方法中的一个的计算机程序的数据串流或信号序列。数据串流或信号序列可例如用于经由数据通信连接(例如,经由因特网)而传送。
另一实施例包含用于或经调适以执行本文中所描述的方法中的一个的处理构件,例如,计算机或可编程逻辑器件。
另一实施例包含安装有用于执行本文中所描述的方法中的一个的计算机程序的计算机。
在一些实施例中,可编程逻辑器件(例如,场可编程门阵列)可用于执行本文中所描述的方法的功能性中的一些或所有。在一些实施例中,场可编程门阵列可与微处理器协作,以便执行本文中所描述的方法中的一个。大体而言,较佳地由任何硬件装置执行这些方法。
上文所描述的实施例仅仅说明本发明的原理。应理解,对本文中所描述的配置及细节的修改及变型对本领域技术人员而言将是显而易见。因此,仅意欲由待决专利的权利要求的范围限制,而不由通过本文的实施例的描述及解释而提出的特定细节限制。
参考文献
[3GP09a]3GPP;TechnicalSpecificationGroupServicesandSystemAspects,Extendedadaptivemulti-rate-wideband(AMR-WB+)codec,3GPPTS26.290,3rdGenerationPartnershipProject,2009.
[3GP09b]Extendedadaptivemulti-rate-wideband(AMR-WB+)codec;floating-pointANSI-Ccode,3GPPTS26.304,3rdGenerationPartnershipProject,2009.
[3GP09c]Speechcodecspeechprocessingfunctions;adaptivemulti-rate-wideband(AMRWB)speechcodec;transcodingfunctions,3GPPTS26.190,3rdGenerationPartnershipProject,2009.
[3GP12a]Adaptivemulti-rate(AMR)speechcodec;errorconcealmentoflostframes(release11),3GPPTS26.091,3rdGenerationPartnershipProject,Sep2012.
[3GP12b]Adaptivemulti-rate(AMR)speechcodec;transcodingfunctions(release11),3GPPTS26.090,3rdGenerationPartnershipProject,Sep2012.[3GP12c],ANSI-Ccodefortheadaptivemulti-rate-wideband(AMR-WB)speechcodec,3GPPTS26.173,3rdGenerationPartnershipProject,Sep2012.
[3GP12d]ANSI-Ccodeforthefloating-pointadaptivemulti-rate(AMR)speechcodec(release11),3GPPTS26.104,3rdGenerationPartnershipProject,Sep2012.
[3GP12e]Generalaudiocodecaudioprocessingfunctions;EnhancedaacPlusgeneralaudiocodec;additionaldecodertools(release11),3GPPTS26.402,3rdGenerationPartnershipProject,Sep2012.
[3GP12f]Speechcodecspeechprocessingfunctions;adaptivemulti-rate-wideband(amr-wb)speechcodec;ansi-ccode,3GPPTS26.204,3rdGenerationPartnershipProject,2012.
[3GP12g]Speechcodecspeechprocessingfunctions;adaptivemulti-rate-wideband(AMR-WB)speechcodec;errorconcealmentoferroneousorlostframes,3GPPTS26.191,3rdGenerationPartnershipProject,Sep2012.
[BJH06]I.Batina,J.Jensen,andR.Heusdens,Noisepowerspectrumestimationforspeechenhancementusinganautoregressivemodelforspeechpowerspectrumdynamics,inProc.IEEEInt.Conf.Acoust.,Speech,SignalProcess.3(2006),1064–1067.
[BP06]A.BorowiczandA.Petrovsky,Minimacontrollednoiseestimationforklt-basedspeechenhancement,CD-ROM,2006,Italy,Florence.
[Coh03]I.Cohen,Noisespectrumestimationinadverseenvironments:Improvedminimacontrolledrecursiveaveraging,IEEETrans.SpeechAudioProcess.11(2003),no.5,466–475.
[CPK08]ChoongSangCho,NamInPark,andHongKookKim,Apacketlossconcealmentalgorithmrobusttoburstpacketlossforcelp-typespeechcoders,Tech.report,KoreaEnectronicsTechnologyInstitute,GwangInstituteofScienceandTechnology,2008,The23rdInternationalTechnicalConferenceonCircuits/Systems,ComputersandCommunications(ITC-CSCC2008).
[Dob95]G.Doblinger,Computationallyefficientspeechenhancementbyspectralminimatrackinginsubbands,inProc.Eurospeech(1995),1513–1516.
[EBU10]EBU/ETSIJTCBroadcast,Digitalaudiobroadcasting(DAB);transportofadvancedaudiocoding(AAC)audio,ETSITS102563,EuropeanBroadcastingUnion,May2010.
[EBU12]Digitalradiomondiale(DRM);systemspecification,ETSIES201980,ETSI,Jun2012.
[EH08]JanS.ErkelensandRichardsHeusdens,TrackingofNonstationaryNoiseBasedonData-DrivenRecursiveNoisePowerEstimation,Audio,Speech,andLanguageProcessing,IEEETransactionson16(2008),no.6,1112–1123.
[EM84]Y.EphraimandD.Malah,Speechenhancementusingaminimummean-squareerrorshort-timespectralamplitudeestimator,IEEETrans.Acoustics,SpeechandSignalProcessing32(1984),no.6,1109–1121.
[EM85]Speechenhancementusingaminimummean-squareerrorlog-spectralamplitudeestimator,IEEETrans.Acoustics,SpeechandSignalProcessing33(1985),443–445.
[Gan05]S.Gannot,Speechenhancement:Applicationofthekalmanfilterintheestimate-maximize(emframework),Springer,2005.
[HE95]H.G.HirschandC.Ehrlicher,Noiseestimationtechniquesforrobustspeechrecognition,Proc.IEEEInt.Conf.Acoustics,Speech,SignalProcessing,no.pp.153-156,IEEE,1995.
[HHJ10]RichardC.Hendriks,RichardHeusdens,andJesperJensen,MMSEbasednoisePSDtrackingwithlowcomplexity,AcousticsSpeechandSignalProcessing(ICASSP),2010IEEEInternationalConferenceon,Mar2010,pp.4266–4269.
[HJH08]RichardC.Hendriks,JesperJensen,andRichardHeusdens,Noisetrackingusingdftdomainsubspacedecompositions,IEEETrans.Audio,Speech,Lang.Process.16(2008),no.3,541–553.
[IET12]IETF,DefinitionoftheOpusAudioCodec,Tech.ReportRFC6716,InternetEngineeringTaskForce,Sep2012.
[ISO09]ISO/IECJTC1/SC29/WG11,Informationtechnology–codingofaudio-visualobjects–part3:Audio,ISO/IECIS14496-3,InternationalOrganizationforStandardization,2009.
[ITU03]ITU-T,Widebandcodingofspeechataround16kbit/susingadaptivemulti-ratewideband(amr-wb),RecommendationITU-TG.722.2,TelecommunicationStandardizationSectorofITU,Jul2003.
[ITU05]Low-complexitycodingat24and32kbit/sforhands-freeoperationinsystemswithlowframeloss,RecommendationITU-TG.722.1,TelecommunicationStandardizationSectorofITU,May2005.
[ITU06a]G.722AppendixIII:Ahigh-complexityalgorithmforpacketlossconcealmentforG.722,ITU-TRecommendation,ITU-T,Nov2006.
[ITU06b]G.729.1:G.729-basedembeddedvariablebit-ratecoder:An8-32kbit/sscalablewidebandcoderbitstreaminteroperablewithg.729,RecommendationITU-TG.729.1,TelecommunicationStandardizationSectorofITU,May2006.
[ITU07]G.722AppendixIV:Alow-complexityalgorithmforpacketlossconcealmentwithG.722,ITU-TRecommendation,ITU-T,Aug2007.
[ITU08a]G.718:Frameerrorrobustnarrow-bandandwidebandembeddedvariablebit-ratecodingofspeechandaudiofrom8-32kbit/s,RecommendationITU-TG.718,TelecommunicationStandardizationSectorofITU,Jun2008.
[ITU08b]G.719:Low-complexity,full-bandaudiocodingforhigh-quality,conversationalapplications,RecommendationITU-TG.719,TelecommunicationStandardizationSectorofITU,Jun2008.
[ITU12]G.729:Codingofspeechat8kbit/susingconjugate-structurealgebraic-code-excitedlinearprediction(cs-acelp),RecommendationITU-TG.729,TelecommunicationStandardizationSectorofITU,June2012.
[LS01]PierreLauberandRalphSperschneider,Errorconcealmentforcompresseddigitalaudio,AudioEngineeringSocietyConvention111,no.5460,Sep2001.
[Mar01]RainerMartin,Noisepowerspectraldensityestimationbasedonoptimalsmoothingandminimumstatistics,IEEETransactionsonSpeechandAudioProcessing9(2001),no.5,504–512.
[Mar03]Statisticalmethodsfortheenhancementofnoisyspeech,InternationalWorkshoponAcousticEchoandNoiseControl(IWAENC2003),TechnicalUniversityofBraunschweig,Sep2003.
[MC99]R.MartinandR.Cox,Newspeechenhancementtechniquesforlowbitratespeechcoding,inProc.IEEEWorkshoponSpeechCoding(1999),165–167.
[MCA99]D.Malah,R.V.Cox,andA.J.Accardi,Trackingspeech-presenceuncertaintytoimprovespeechenhancementinnonstationarynoiseenvironments,Proc.IEEEInt.Conf.onAcousticsSpeechandSignalProcessing(1999),789–792.
[MEP01]NikolausMeine,BerndEdler,andHeikoPurnhagen,ErrorprotectionandconcealmentforHILNMPEG-4parametricaudiocoding,AudioEngineeringSocietyConvention110,no.5300,May2001.
[MPC89]Y.Mahieux,J.-P.Petit,andA.Charbonnier,Transformcodingofaudiosignalsusingcorrelationbetweensuccessivetransformblocks,Acoustics,Speech,andSignalProcessing,1989.ICASSP-89.,1989InternationalConferenceon,1989,pp.2021–2024vol.3.
[NMR+12]MaxNeuendorf,MarkusMultrus,NikolausRettelbach,GuillaumeFuchs,JulienRobilliard,JérémieLecomte,StephanWilde,StefanBayer,SaschaDisch,ChristianHelmrich,RochLefebvre,PhilippeGournay,BrunoBessette,JimmyLapierre,KristopferHeikoPurnhagen,LarsVillemoes,WernerOomen,ErikSchuijers,KeiKikuiri,ToruChinen,TakeshiNorimatsu,ChongKokSeng,EunmiOh,MiyoungKim,SchuylerQuackenbush,andBerndhardGrill,MPEGUnifiedSpeechandAudioCoding-TheISO/MPEGStandardforHigh-EfficiencyAudioCodingofallContentTypes,ConventionPaper8654,AES,April2012,Presentedatthe132ndConventionBudapest,Hungary.
[PKJ+11]NamInPark,HongKookKim,MinAJung,SeongRoLee,andSeungHoChoi,Burstpacketlossconcealmentusingmultiplecodebooksandcomfortnoiseforcelp-typespeechcodersinwirelesssensornetworks,Sensors11(2011),5323–5336.
[QD03]SchuylerQuackenbushandPeterF.Driessen,ErrormitigationinMPEG-4audiopacketcommunicationsystems,AudioEngineeringSocietyConvention115,no.5981,Oct2003.
[RL06]S.RangachariandP.C.Loizou,Anoise-estimationalgorithmforhighlynon-stationaryenvironments,SpeechCommun.48(2006),220–231.
[SFB00]V.Stahl,A.Fischer,andR.Bippus,Quantilebasednoiseestimationforspectralsubtractionandwienerfiltering,inProc.IEEEInt.Conf.Acoust.,SpeechandSignalProcess.(2000),1875–1878.
[SS98]J.SohnandW.Sung,Avoiceactivitydetectoremployingsoftdecisionbasednoisespectrumadaptation,Proc.IEEEInt.Conf.Acoustics,Speech,SignalProcessing,no.pp.365-368,IEEE,1998.
[Yu09]RongshanYu,Alow-complexitynoiseestimationalgorithmbasedonsmoothingofnoisepowerestimationandestimationbiascorrection,Acoustics,SpeechandSignalProcessing,2009.ICASSP2009.IEEEInternationalConferenceon,Apr2009,pp.4421–4424.

Claims (13)

1.一种用于对编码音频信号进行解码以获得重建音频信号的装置,其中所述装置包括:
接收接口(1110),用于接收一个或多个帧,
系数产生器(1120),以及
信号重建器(1130),
其中所述系数产生器(1120)用于在所述一个或多个帧的当前帧由所述接收接口(1110)接收的情况下及在由所述接收接口(1110)接收的所述当前帧未被损毁的情况下,判定由所述当前帧包含的一个或多个第一音频信号系数,其中所述一个或多个第一音频信号系数指示所述编码音频信号的特性,且判定指示所述编码音频信号的背景噪声的一个或多个噪声系数,
其中所述系数产生器(1120)用于在所述当前帧不由所述接收接口(1110)接收的情况下或在由所述接收接口(1110)接收的所述当前帧被损毁的情况下,根据所述一个或多个第一音频信号系数及根据所述一个或多个噪声系数而产生一个或多个第二音频信号系数,
其中所述音频信号重建器(1130)用于在所述当前帧由所述接收接口(1110)接收的情况下及在由所述接收接口(1110)接收的所述当前帧未被损毁的情况下,根据所述一个或多个第一音频信号系数而重建所述重建音频信号的第一部分,且
其中所述音频信号重建器(1130)用于在所述当前帧不由所述接收接口(1110)接收的情况下或在由所述接收接口(1110)接收的所述当前帧被损毁的情况下,根据所述一个或多个第二音频信号系数而重建所述重建音频信号的第二部分。
2.如权利要求1所述的装置,其中所述一个或多个第一音频信号系数为所述编码音频信号的一个或多个线性预测性滤波器系数。
3.如权利要求2所述的装置,其中所述一个或多个线性预测性滤波器系数由所述编码音频信号的一个或多个导抗频谱对或一个或多个线频谱对或一个或多个导抗频谱频率或一个或多个线频谱频率表示。
4.如前述任一项权利要求所述的装置,其中所述一个或多个噪声系数为指示所述编码音频信号的所述背景噪声的一个或多个线性预测性滤波器系数。
5.如前述任一项权利要求所述的装置,其中所述一个或多个线性预测性滤波器系数表示所述背景噪声的频谱形状。
6.如前述任一项权利要求所述的装置,其中所述系数产生器(1120)用于判定所述一个或多个第二音频信号部分以使得所述一个或多个第二音频信号部分为所述重建音频信号的一个或多个线性预测性滤波器系数。
7.如权利要求1所述的装置,
其中所述系数产生器(1120)用于通过应用如下公式产生所述一个或多个第二音频信号系数:
fcurrent[i]=α·flast[i]+(1-α)·ptmean[i]
其中fcurrent[i]指示所述一个或多个第二音频信号系数中的一个,
其中flast[i]指示所述一个或多个第一音频信号系数中的一个,
其中ptmean[i]为所述一个或多个噪声系数中的一个,
其中α为实数,0≤α≤1,且
其中i为索引。
8.如权利要求7所述的装置,
其中flast[i]指示所述编码音频信号的线性预测性滤波器系数,且
其中fcurrent[i]指示所述重建音频信号的线性预测性滤波器系数。
9.如权利要求8所述的装置,其中ptmean[i]指示所述编码音频信号的所述背景噪声。
10.如前述任一项权利要求所述的装置,其中所述系数产生器(1120)用于在所述一个或多个帧中的所述当前帧由所述接收接口(1110)接收的情况下及在由所述接收接口(1110)接收的所述当前帧未被损毁的情况下,通过判定所述编码音频信号的噪声频谱来判定所述一个或多个噪声系数。
11.如前述任一项权利要求所述的装置,其中所述系数产生器(1120)用于通过对所述信号频谱使用最小值统计方法以判定背景噪声频谱及通过自所述背景噪声频谱计算表示背景噪声形状的LPC系数来判定表示背景噪声的所述LPC系数。
12.一种用于对编码音频信号进行解码以获得重建音频信号的方法,其中所述方法包括:
接收一个或多个帧,
在所述一个或多个帧中的当前帧被接收的情况下及在所接收的所述当前帧未被损毁的情况下,判定由所述当前帧所包含的一个或多个第一音频信号系数,其中所述一个或多个第一音频信号系数指示所述编码音频信号的特性,及判定指示所述编码音频信号的背景噪声的一个或多个噪声系数,
在所述当前帧未被接收的情况下或在所接收的所述当前帧被损毁的情况下,根据所述一个或多个第一音频信号系数及根据所述一个或多个噪声系数而产生一个或多个第二音频信号系数,
在所述当前帧被接收的情况下及在所接收的所述当前帧未被损毁的情况下,根据所述一个或多个第一音频信号系数而重建所述重建音频信号的第一部分,以及
在所述当前帧未被接收的情况下或在所接收的所述当前帧被损毁的情况下,根据所述一个或多个第二音频信号系数重建所述重建音频信号的第二部分。
13.一种计算机程序,用于在执行于计算机或信号处理器上时实施如权利要求12所述的方法。
CN201480035498.3A 2013-06-21 2014-06-23 用于产生舒缓噪声的自适应频谱形状的装置及方法 Active CN105340007B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910375722.8A CN110289005B (zh) 2013-06-21 2014-06-23 用于产生舒缓噪声的自适应频谱形状的装置及方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP13173154 2013-06-21
EP13173154.9 2013-06-21
EP14166998.6 2014-05-05
EP14166998 2014-05-05
PCT/EP2014/063173 WO2014202786A1 (en) 2013-06-21 2014-06-23 Apparatus and method for generating an adaptive spectral shape of comfort noise

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201910375722.8A Division CN110289005B (zh) 2013-06-21 2014-06-23 用于产生舒缓噪声的自适应频谱形状的装置及方法

Publications (2)

Publication Number Publication Date
CN105340007A true CN105340007A (zh) 2016-02-17
CN105340007B CN105340007B (zh) 2019-05-31

Family

ID=50981527

Family Applications (9)

Application Number Title Priority Date Filing Date
CN201910375737.4A Active CN110299147B (zh) 2013-06-21 2014-06-23 针对切换式音频编码系统在错误隐藏过程中的改善信号衰落的装置及方法
CN201480035498.3A Active CN105340007B (zh) 2013-06-21 2014-06-23 用于产生舒缓噪声的自适应频谱形状的装置及方法
CN201910418827.7A Active CN110265044B (zh) 2013-06-21 2014-06-23 在错误隐藏过程中在不同域中改善信号衰落的装置及方法
CN201480035521.9A Active CN105431903B (zh) 2013-06-21 2014-06-23 实现用于转换编码激发长期预测的改进概念的装置及方法
CN201480035495.XA Active CN105359209B (zh) 2013-06-21 2014-06-23 在错误隐藏过程中在不同域中改善信号衰落的装置及方法
CN201910375722.8A Active CN110289005B (zh) 2013-06-21 2014-06-23 用于产生舒缓噪声的自适应频谱形状的装置及方法
CN201910419318.6A Active CN110164459B (zh) 2013-06-21 2014-06-23 Fdns应用前实现将mdct频谱衰落到白噪声的装置及方法
CN201480035497.9A Active CN105359210B (zh) 2013-06-21 2014-06-23 Fdns应用前实现将mdct频谱衰落到白噪声的装置及方法
CN201480035499.8A Active CN105378831B (zh) 2013-06-21 2014-06-23 针对切换式音频编码系统在错误隐藏过程中的改善信号衰落的装置及方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201910375737.4A Active CN110299147B (zh) 2013-06-21 2014-06-23 针对切换式音频编码系统在错误隐藏过程中的改善信号衰落的装置及方法

Family Applications After (7)

Application Number Title Priority Date Filing Date
CN201910418827.7A Active CN110265044B (zh) 2013-06-21 2014-06-23 在错误隐藏过程中在不同域中改善信号衰落的装置及方法
CN201480035521.9A Active CN105431903B (zh) 2013-06-21 2014-06-23 实现用于转换编码激发长期预测的改进概念的装置及方法
CN201480035495.XA Active CN105359209B (zh) 2013-06-21 2014-06-23 在错误隐藏过程中在不同域中改善信号衰落的装置及方法
CN201910375722.8A Active CN110289005B (zh) 2013-06-21 2014-06-23 用于产生舒缓噪声的自适应频谱形状的装置及方法
CN201910419318.6A Active CN110164459B (zh) 2013-06-21 2014-06-23 Fdns应用前实现将mdct频谱衰落到白噪声的装置及方法
CN201480035497.9A Active CN105359210B (zh) 2013-06-21 2014-06-23 Fdns应用前实现将mdct频谱衰落到白噪声的装置及方法
CN201480035499.8A Active CN105378831B (zh) 2013-06-21 2014-06-23 针对切换式音频编码系统在错误隐藏过程中的改善信号衰落的装置及方法

Country Status (19)

Country Link
US (15) US9916833B2 (zh)
EP (5) EP3011557B1 (zh)
JP (5) JP6201043B2 (zh)
KR (5) KR101790902B1 (zh)
CN (9) CN110299147B (zh)
AU (5) AU2014283124B2 (zh)
BR (5) BR112015031177B1 (zh)
CA (5) CA2914869C (zh)
ES (5) ES2780696T3 (zh)
HK (5) HK1224076A1 (zh)
MX (5) MX351363B (zh)
MY (5) MY182209A (zh)
PL (5) PL3011558T3 (zh)
PT (5) PT3011561T (zh)
RU (5) RU2676453C2 (zh)
SG (5) SG11201510352YA (zh)
TW (5) TWI575513B (zh)
WO (5) WO2014202789A1 (zh)
ZA (1) ZA201600310B (zh)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110299147B (zh) 2013-06-21 2023-09-19 弗朗霍夫应用科学研究促进协会 针对切换式音频编码系统在错误隐藏过程中的改善信号衰落的装置及方法
FR3024582A1 (fr) * 2014-07-29 2016-02-05 Orange Gestion de la perte de trame dans un contexte de transition fd/lpd
US10008214B2 (en) * 2015-09-11 2018-06-26 Electronics And Telecommunications Research Institute USAC audio signal encoding/decoding apparatus and method for digital radio services
KR102152004B1 (ko) 2015-09-25 2020-10-27 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 선형 예측 코딩을 사용하여 감소된 배경 잡음을 갖는 오디오 신호를 인코딩하기 위한 인코더 및 방법
CA3016949C (en) * 2016-03-07 2021-08-31 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Error concealment unit, audio decoder, and related method and computer program fading out a concealed audio frame out according to different damping factors for different frequency bands
WO2017153300A1 (en) 2016-03-07 2017-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Error concealment unit, audio decoder, and related method and computer program using characteristics of a decoded representation of a properly decoded audio frame
KR102158743B1 (ko) * 2016-03-15 2020-09-22 한국전자통신연구원 자연어 음성인식의 성능향상을 위한 데이터 증강장치 및 방법
TWI602173B (zh) * 2016-10-21 2017-10-11 盛微先進科技股份有限公司 音訊處理方法與非暫時性電腦可讀媒體
CN108074586B (zh) * 2016-11-15 2021-02-12 电信科学技术研究院 一种语音问题的定位方法和装置
US10354669B2 (en) * 2017-03-22 2019-07-16 Immersion Networks, Inc. System and method for processing audio data
CN107123419A (zh) * 2017-05-18 2017-09-01 北京大生在线科技有限公司 Sphinx语速识别中背景降噪的优化方法
CN109427337B (zh) 2017-08-23 2021-03-30 华为技术有限公司 立体声信号编码时重建信号的方法和装置
EP3483884A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483886A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
US10650834B2 (en) 2018-01-10 2020-05-12 Savitech Corp. Audio processing method and non-transitory computer readable medium
EP3553777B1 (en) * 2018-04-09 2022-07-20 Dolby Laboratories Licensing Corporation Low-complexity packet loss concealment for transcoded audio signals
TWI657437B (zh) * 2018-05-25 2019-04-21 英屬開曼群島商睿能創意公司 電動載具以及播放、產生與其相關音頻訊號之方法
US11430463B2 (en) * 2018-07-12 2022-08-30 Dolby Laboratories Licensing Corporation Dynamic EQ
CN109117807B (zh) * 2018-08-24 2020-07-21 广东石油化工学院 一种plc通信信号自适应时频峰值滤波方法及系统
US10763885B2 (en) 2018-11-06 2020-09-01 Stmicroelectronics S.R.L. Method of error concealment, and associated device
CN111402905B (zh) * 2018-12-28 2023-05-26 南京中感微电子有限公司 音频数据恢复方法、装置及蓝牙设备
KR102603621B1 (ko) * 2019-01-08 2023-11-16 엘지전자 주식회사 신호 처리 장치 및 이를 구비하는 영상표시장치
WO2020164751A1 (en) 2019-02-13 2020-08-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Decoder and decoding method for lc3 concealment including full frame loss concealment and partial frame loss concealment
WO2020165260A1 (en) 2019-02-13 2020-08-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-mode channel coding with mode specific coloration sequences
CN110265046B (zh) * 2019-07-25 2024-05-17 腾讯科技(深圳)有限公司 一种编码参数调控方法、装置、设备及存储介质
KR102653938B1 (ko) 2019-12-02 2024-04-03 구글 엘엘씨 끊김없는 오디오 혼합을 위한 방법들, 시스템들 및 매체들
TWI789577B (zh) * 2020-04-01 2023-01-11 同響科技股份有限公司 音訊資料重建方法及系統
CN113747304B (zh) * 2021-08-25 2024-04-26 深圳市爱特康科技有限公司 一种新型的低音回放方法和装置
CN114582361B (zh) * 2022-04-29 2022-07-08 北京百瑞互联技术有限公司 基于生成对抗网络的高解析度音频编解码方法及系统

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060184861A1 (en) * 2005-01-20 2006-08-17 Stmicroelectronics Asia Pacific Pte. Ltd. (Sg) Method and system for lost packet concealment in high quality audio streaming applications
KR20060124371A (ko) * 2005-05-31 2006-12-05 엘지전자 주식회사 오디오 에러 은닉 방법
CN1930607A (zh) * 2004-03-05 2007-03-14 松下电器产业株式会社 差错隐藏装置以及差错隐藏方法
EP1775717A1 (en) * 2004-07-20 2007-04-18 Matsushita Electric Industrial Co., Ltd. Audio decoding device and compensation frame generation method
WO2007051124A1 (en) * 2005-10-26 2007-05-03 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
US20070239462A1 (en) * 2000-10-23 2007-10-11 Jari Makinen Spectral parameter substitution for the frame error concealment in a speech decoder
US20070271480A1 (en) * 2006-05-16 2007-11-22 Samsung Electronics Co., Ltd. Method and apparatus to conceal error in decoded audio signal
WO2008062959A1 (en) * 2006-11-24 2008-05-29 Samsung Electronics Co., Ltd. Error concealment method and apparatus for audio signal and decoding method and apparatus for audio signal using the same
US20080195910A1 (en) * 2007-02-10 2008-08-14 Samsung Electronics Co., Ltd Method and apparatus to update parameter of error frame
EP2026330A1 (en) * 2006-06-08 2009-02-18 Huawei Technologies Co Ltd Device and method for lost frame concealment
US20100274565A1 (en) * 1999-04-19 2010-10-28 Kapilow David A Method and Apparatus for Performing Packet Loss or Frame Erasure Concealment
US20110099008A1 (en) * 2009-10-23 2011-04-28 Broadcom Corporation Bit error management and mitigation for sub-band coding

Family Cites Families (161)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4933973A (en) * 1988-02-29 1990-06-12 Itt Corporation Apparatus and methods for the selective addition of noise to templates employed in automatic speech recognition systems
US5097507A (en) 1989-12-22 1992-03-17 General Electric Company Fading bit error protection for digital cellular multi-pulse speech coder
CA2010830C (en) 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
US5148487A (en) * 1990-02-26 1992-09-15 Matsushita Electric Industrial Co., Ltd. Audio subband encoded signal decoder
TW224191B (zh) 1992-01-28 1994-05-21 Qualcomm Inc
US5271011A (en) 1992-03-16 1993-12-14 Scientific-Atlanta, Inc. Digital audio data muting system and method
SE501340C2 (sv) * 1993-06-11 1995-01-23 Ericsson Telefon Ab L M Döljande av transmissionsfel i en talavkodare
US5615298A (en) 1994-03-14 1997-03-25 Lucent Technologies Inc. Excitation signal synthesis during frame erasure or packet loss
JP3328080B2 (ja) 1994-11-22 2002-09-24 沖電気工業株式会社 コード励振線形予測復号器
KR970011728B1 (ko) * 1994-12-21 1997-07-14 김광호 음향신호의 에러은닉방법 및 그 장치
FR2729246A1 (fr) * 1995-01-06 1996-07-12 Matra Communication Procede de codage de parole a analyse par synthese
SE9500858L (sv) * 1995-03-10 1996-09-11 Ericsson Telefon Ab L M Anordning och förfarande vid talöverföring och ett telekommunikationssystem omfattande dylik anordning
US5699485A (en) * 1995-06-07 1997-12-16 Lucent Technologies Inc. Pitch delay modification during frame erasures
JP3522012B2 (ja) * 1995-08-23 2004-04-26 沖電気工業株式会社 コード励振線形予測符号化装置
JP3157116B2 (ja) 1996-03-29 2001-04-16 三菱電機株式会社 音声符号化伝送システム
US6075974A (en) * 1996-11-20 2000-06-13 Qualcomm Inc. Method and apparatus for adjusting thresholds and measurements of received signals by anticipating power control commands yet to be executed
JP3649854B2 (ja) * 1997-05-09 2005-05-18 松下電器産業株式会社 音声符号化装置
WO1999014866A2 (en) 1997-09-12 1999-03-25 Koninklijke Philips Electronics N.V. Transmission system with improved reconstruction of missing parts
KR100335611B1 (ko) * 1997-11-20 2002-10-09 삼성전자 주식회사 비트율 조절이 가능한 스테레오 오디오 부호화/복호화 방법 및 장치
DE69926821T2 (de) 1998-01-22 2007-12-06 Deutsche Telekom Ag Verfahren zur signalgesteuerten Schaltung zwischen verschiedenen Audiokodierungssystemen
AU3372199A (en) * 1998-03-30 1999-10-18 Voxware, Inc. Low-complexity, low-delay, scalable and embedded speech and audio coding with adaptive frame loss concealment
US20010014857A1 (en) * 1998-08-14 2001-08-16 Zifei Peter Wang A voice activity detector for packet voice network
US6480822B2 (en) * 1998-08-24 2002-11-12 Conexant Systems, Inc. Low complexity random codebook structure
FR2784218B1 (fr) * 1998-10-06 2000-12-08 Thomson Csf Procede de codage de la parole a bas debit
US6424938B1 (en) * 1998-11-23 2002-07-23 Telefonaktiebolaget L M Ericsson Complex signal activity detection for improved speech/noise classification of an audio signal
US6289309B1 (en) 1998-12-16 2001-09-11 Sarnoff Corporation Noise spectrum tracking for speech enhancement
US6661793B1 (en) * 1999-01-19 2003-12-09 Vocaltec Communications Ltd. Method and apparatus for reconstructing media
US6640209B1 (en) * 1999-02-26 2003-10-28 Qualcomm Incorporated Closed-loop multimode mixed-domain linear prediction (MDLP) speech coder
US6377915B1 (en) 1999-03-17 2002-04-23 Yrp Advanced Mobile Communication Systems Research Laboratories Co., Ltd. Speech decoding using mix ratio table
EP1087377B1 (en) 1999-03-19 2007-04-25 Sony Corporation Additional information embedding method and its device, and additional information decoding method and its decoding device
JP4966452B2 (ja) * 1999-04-19 2012-07-04 エイ・ティ・アンド・ティ・コーポレーション フレーム消去隠蔽処理装置
DE19921122C1 (de) 1999-05-07 2001-01-25 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Verschleiern eines Fehlers in einem codierten Audiosignal und Verfahren und Vorrichtung zum Decodieren eines codierten Audiosignals
US6284551B1 (en) * 1999-06-14 2001-09-04 Hyundai Electronics Industries Co., Ltd. Capacitor and method for fabricating the same
US6604070B1 (en) 1999-09-22 2003-08-05 Conexant Systems, Inc. System of encoding and decoding speech signals
US6636829B1 (en) 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
FI116643B (fi) 1999-11-15 2006-01-13 Nokia Corp Kohinan vaimennus
US6826527B1 (en) * 1999-11-23 2004-11-30 Texas Instruments Incorporated Concealment of frame erasures and method
AU2094201A (en) * 1999-12-13 2001-06-18 Broadcom Corporation Voice gateway with downstream voice synchronization
GB2358558B (en) * 2000-01-18 2003-10-15 Mitel Corp Packet loss compensation method using injection of spectrally shaped noise
US6584438B1 (en) 2000-04-24 2003-06-24 Qualcomm Incorporated Frame erasure compensation method in a variable rate speech coder
FI115329B (fi) * 2000-05-08 2005-04-15 Nokia Corp Menetelmä ja järjestely lähdesignaalin kaistanleveyden vaihtamiseksi tietoliikenneyhteydessä, jossa on valmiudet useisiin kaistanleveyksiin
US6757654B1 (en) * 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
EP1199709A1 (en) * 2000-10-20 2002-04-24 Telefonaktiebolaget Lm Ericsson Error Concealment in relation to decoding of encoded acoustic signals
US7171355B1 (en) 2000-10-25 2007-01-30 Broadcom Corporation Method and apparatus for one-stage and two-stage noise feedback coding of speech and audio signals
US7113522B2 (en) * 2001-01-24 2006-09-26 Qualcomm, Incorporated Enhanced conversion of wideband signals to narrowband signals
US7069208B2 (en) * 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
FR2820227B1 (fr) * 2001-01-30 2003-04-18 France Telecom Procede et dispositif de reduction de bruit
US20040204935A1 (en) 2001-02-21 2004-10-14 Krishnasamy Anandakumar Adaptive voice playout in VOP
US6520762B2 (en) 2001-02-23 2003-02-18 Husky Injection Molding Systems, Ltd Injection unit
DE60233283D1 (de) * 2001-02-27 2009-09-24 Texas Instruments Inc Verschleierungsverfahren bei Verlust von Sprachrahmen und Dekoder dafer
US7590525B2 (en) * 2001-08-17 2009-09-15 Broadcom Corporation Frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
US7379865B2 (en) * 2001-10-26 2008-05-27 At&T Corp. System and methods for concealing errors in data transmission
KR100935961B1 (ko) * 2001-11-14 2010-01-08 파나소닉 주식회사 부호화 장치 및 복호화 장치
CA2365203A1 (en) 2001-12-14 2003-06-14 Voiceage Corporation A signal modification method for efficient coding of speech signals
EP1464047A4 (en) * 2002-01-08 2005-12-07 Dilithium Networks Pty Ltd TRANSCODE SCHEME BETWEEN CELP-BASED LANGUAGE CODES
US20030162518A1 (en) 2002-02-22 2003-08-28 Baldwin Keith R. Rapid acquisition and tracking system for a wireless packet-based communication device
US7492703B2 (en) 2002-02-28 2009-02-17 Texas Instruments Incorporated Noise analysis in a communication system
AU2003214182A1 (en) * 2002-03-12 2003-09-29 Dilithium Networks Pty Limited Method for adaptive codebook pitch-lag computation in audio transcoders
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7174292B2 (en) 2002-05-20 2007-02-06 Microsoft Corporation Method of determining uncertainty associated with acoustic distortion-based noise reduction
CA2388439A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
JP2004120619A (ja) * 2002-09-27 2004-04-15 Kddi Corp オーディオ情報復号装置
KR100486732B1 (ko) * 2003-02-19 2005-05-03 삼성전자주식회사 블럭제한된 트렐리스 부호화 양자화방법과 음성부호화시스템에있어서 이를 채용한 라인스펙트럼주파수 계수양자화방법 및 장치
US20040202935A1 (en) * 2003-04-08 2004-10-14 Jeremy Barker Cathode active material with increased alkali/metal content and method of making same
AU2003222397A1 (en) * 2003-04-30 2004-11-23 Nokia Corporation Support of a multichannel audio extension
US7433815B2 (en) 2003-09-10 2008-10-07 Dilithium Networks Pty Ltd. Method and apparatus for voice transcoding between variable rate coders
US7224810B2 (en) 2003-09-12 2007-05-29 Spatializer Audio Laboratories, Inc. Noise reduction system
JP4497911B2 (ja) 2003-12-16 2010-07-07 キヤノン株式会社 信号検出装置および方法、ならびにプログラム
CA2457988A1 (en) 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
US7620546B2 (en) 2004-03-23 2009-11-17 Qnx Software Systems (Wavemakers), Inc. Isolating speech signals utilizing neural networks
US7454332B2 (en) * 2004-06-15 2008-11-18 Microsoft Corporation Gain constrained noise suppression
WO2006032760A1 (fr) 2004-09-16 2006-03-30 France Telecom Procede de traitement d'un signal sonore bruite et dispositif pour la mise en œuvre du procede
KR100612889B1 (ko) 2005-02-05 2006-08-14 삼성전자주식회사 선스펙트럼 쌍 파라미터 복원 방법 및 장치와 그 음성복호화 장치
US7930176B2 (en) * 2005-05-20 2011-04-19 Broadcom Corporation Packet loss concealment for block-independent speech codecs
JP2008546012A (ja) 2005-05-27 2008-12-18 オーディエンス,インコーポレイテッド オーディオ信号の分解および修正のためのシステムおよび方法
US7831421B2 (en) * 2005-05-31 2010-11-09 Microsoft Corporation Robust decoder
JP4536621B2 (ja) * 2005-08-10 2010-09-01 株式会社エヌ・ティ・ティ・ドコモ 復号装置、および復号方法
US7610197B2 (en) 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
DE602005018274D1 (de) 2005-09-01 2010-01-21 Ericsson Telefon Ab L M Verarbeitung von codierten echtzeitdaten
KR100717058B1 (ko) * 2005-11-28 2007-05-14 삼성전자주식회사 고주파 성분 복원 방법 및 그 장치
US8255207B2 (en) * 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
US7457746B2 (en) 2006-03-20 2008-11-25 Mindspeed Technologies, Inc. Pitch prediction for packet loss concealment
US7610195B2 (en) * 2006-06-01 2009-10-27 Nokia Corporation Decoding of predictively coded data using buffer adaptation
JP5190363B2 (ja) * 2006-07-12 2013-04-24 パナソニック株式会社 音声復号装置、音声符号化装置、および消失フレーム補償方法
US7987089B2 (en) * 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
US8015000B2 (en) * 2006-08-03 2011-09-06 Broadcom Corporation Classification-based frame loss concealment for audio signals
DE602007014059D1 (de) * 2006-08-15 2011-06-01 Broadcom Corp Zeitverschiebung eines dekodierten audiosignals nach einem paketverlust
CN101361112B (zh) * 2006-08-15 2012-02-15 美国博通公司 隐藏丢包后解码器状态的更新
CN101155140A (zh) 2006-10-01 2008-04-02 华为技术有限公司 音频流错误隐藏的方法、装置和系统
US7877253B2 (en) * 2006-10-06 2011-01-25 Qualcomm Incorporated Systems, methods, and apparatus for frame erasure recovery
ES2378972T3 (es) * 2006-10-20 2012-04-19 France Telecom Atenuación de la sobresonorización, en particular para la generación de una excitación en un decodificador, en ausencia de información
CN100578618C (zh) * 2006-12-04 2010-01-06 华为技术有限公司 一种解码方法及装置
KR100964402B1 (ko) * 2006-12-14 2010-06-17 삼성전자주식회사 오디오 신호의 부호화 모드 결정 방법 및 장치와 이를 이용한 오디오 신호의 부호화/복호화 방법 및 장치
US8688437B2 (en) * 2006-12-26 2014-04-01 Huawei Technologies Co., Ltd. Packet loss concealment for speech coding
US8275611B2 (en) 2007-01-18 2012-09-25 Stmicroelectronics Asia Pacific Pte., Ltd. Adaptive noise suppression for digital speech signals
GB0703275D0 (en) * 2007-02-20 2007-03-28 Skype Ltd Method of estimating noise levels in a communication system
JP4708446B2 (ja) * 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
CN101627426B (zh) * 2007-03-05 2013-03-13 艾利森电话股份有限公司 用于控制稳态背景噪声的平滑的方法和设备
DE102007018484B4 (de) 2007-03-20 2009-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Senden einer Folge von Datenpaketen und Decodierer und Vorrichtung zum Decodieren einer Folge von Datenpaketen
EP1973254B1 (en) * 2007-03-22 2009-07-15 Research In Motion Limited Device and method for improved lost frame concealment
US8014519B2 (en) 2007-04-02 2011-09-06 Microsoft Corporation Cross-correlation based echo canceller controllers
JP5023780B2 (ja) * 2007-04-13 2012-09-12 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
EP2381580A1 (en) * 2007-04-13 2011-10-26 Global IP Solutions (GIPS) AB Adaptive, scalable packet loss recovery
US8005023B2 (en) 2007-06-14 2011-08-23 Microsoft Corporation Client-side echo cancellation for multi-party audio conferencing
CN101325537B (zh) * 2007-06-15 2012-04-04 华为技术有限公司 一种丢帧隐藏的方法和设备
US8489396B2 (en) 2007-07-25 2013-07-16 Qnx Software Systems Limited Noise reduction with integrated tonal noise reduction
US20090055171A1 (en) * 2007-08-20 2009-02-26 Broadcom Corporation Buzz reduction for low-complexity frame erasure concealment
US20090154726A1 (en) * 2007-08-22 2009-06-18 Step Labs Inc. System and Method for Noise Activity Detection
CN100524462C (zh) * 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
CN101141644B (zh) * 2007-10-17 2010-12-08 清华大学 编码集成系统和方法与解码集成系统和方法
CN100585699C (zh) * 2007-11-02 2010-01-27 华为技术有限公司 一种音频解码的方法和装置
KR101290622B1 (ko) * 2007-11-02 2013-07-29 후아웨이 테크놀러지 컴퍼니 리미티드 오디오 복호화 방법 및 장치
CN101430880A (zh) * 2007-11-07 2009-05-13 华为技术有限公司 一种背景噪声的编解码方法和装置
DE102008009719A1 (de) 2008-02-19 2009-08-20 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen
CN101965612B (zh) * 2008-03-03 2012-08-29 Lg电子株式会社 用于处理音频信号的方法和装置
FR2929466A1 (fr) 2008-03-28 2009-10-02 France Telecom Dissimulation d'erreur de transmission dans un signal numerique dans une structure de decodage hierarchique
EP2120412A1 (en) 2008-05-14 2009-11-18 SIDSA (Semiconductores Investigación) Y Diseño SA System and transceiver for DSL communications based on single carrier modulation, with efficient vectoring, capacity approaching channel coding structure and preamble insertion for agile channel adaption
US20090312043A1 (en) 2008-06-13 2009-12-17 Silvus Technologies, Inc. Interference mitigation for devices with multiple receivers
EP2144231A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
ES2654433T3 (es) * 2008-07-11 2018-02-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador de señal de audio, método para codificar una señal de audio y programa informático
ES2657393T3 (es) 2008-07-11 2018-03-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y descodificador de audio para codificar y descodificar muestras de audio
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
KR101227729B1 (ko) 2008-07-11 2013-01-29 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 샘플 오디오 신호의 프레임을 인코딩하기 위한 오디오 인코더 및 디코더
ES2683077T3 (es) 2008-07-11 2018-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
PT2146344T (pt) * 2008-07-17 2016-10-13 Fraunhofer Ges Forschung Esquema de codificação/descodificação de áudio com uma derivação comutável
US9773505B2 (en) 2008-09-18 2017-09-26 Electronics And Telecommunications Research Institute Encoding apparatus and decoding apparatus for transforming between modified discrete cosine transform-based coder and different coder
KR101622950B1 (ko) * 2009-01-28 2016-05-23 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 그 장치
US8676573B2 (en) 2009-03-30 2014-03-18 Cambridge Silicon Radio Limited Error concealment
US8718804B2 (en) * 2009-05-05 2014-05-06 Huawei Technologies Co., Ltd. System and method for correcting for lost data in a digital audio signal
US8908882B2 (en) * 2009-06-29 2014-12-09 Audience, Inc. Reparation of corrupted audio signals
US8892427B2 (en) * 2009-07-27 2014-11-18 Industry-Academic Cooperation Foundation, Yonsei University Method and an apparatus for processing an audio signal
PL2471061T3 (pl) 2009-10-08 2014-03-31 Fraunhofer Ges Forschung Działający w wielu trybach dekoder sygnału audio, działający w wielu trybach koder sygnału audio, sposoby i program komputerowy stosujące kształtowanie szumu oparte o kodowanie z wykorzystaniem predykcji liniowej
CN102044241B (zh) * 2009-10-15 2012-04-04 华为技术有限公司 一种实现通信系统中背景噪声的跟踪的方法和装置
ES2884133T3 (es) 2009-10-15 2021-12-10 Voiceage Corp Conformación simultánea de ruido en el dominio del tiempo y el dominio de la frecuencia para transformaciones TDAC
CN102648493B (zh) * 2009-11-24 2016-01-20 Lg电子株式会社 音频信号处理方法和设备
CN102081926B (zh) * 2009-11-27 2013-06-05 中兴通讯股份有限公司 格型矢量量化音频编解码方法和系统
CN101763859A (zh) * 2009-12-16 2010-06-30 深圳华为通信技术有限公司 音频数据处理方法、装置和多点控制单元
US9008329B1 (en) 2010-01-26 2015-04-14 Audience, Inc. Noise reduction using multi-feature cluster tracker
US8428959B2 (en) * 2010-01-29 2013-04-23 Polycom, Inc. Audio packet loss concealment by transform interpolation
US8000968B1 (en) * 2011-04-26 2011-08-16 Huawei Technologies Co., Ltd. Method and apparatus for switching speech or audio signals
CN101937679B (zh) * 2010-07-05 2012-01-11 展讯通信(上海)有限公司 音频数据帧的错误掩盖方法及音频解码装置
CN101894558A (zh) * 2010-08-04 2010-11-24 华为技术有限公司 丢帧恢复方法、设备以及语音增强方法、设备和系统
EP2458585B1 (en) * 2010-11-29 2013-07-17 Nxp B.V. Error concealment for sub-band coded audio signals
KR20120080409A (ko) 2011-01-07 2012-07-17 삼성전자주식회사 잡음 구간 판별에 의한 잡음 추정 장치 및 방법
US8983833B2 (en) 2011-01-24 2015-03-17 Continental Automotive Systems, Inc. Method and apparatus for masking wind noise
SG192734A1 (en) * 2011-02-14 2013-09-30 Fraunhofer Ges Forschung Apparatus and method for error concealment in low-delay unified speech and audio coding (usac)
US8706509B2 (en) * 2011-04-15 2014-04-22 Telefonaktiebolaget L M Ericsson (Publ) Method and a decoder for attenuation of signal regions reconstructed with low accuracy
TWI435138B (zh) 2011-06-20 2014-04-21 Largan Precision Co 影像拾取光學系統
JP5817366B2 (ja) 2011-09-12 2015-11-18 沖電気工業株式会社 音声信号処理装置、方法及びプログラム
KR102070430B1 (ko) * 2011-10-21 2020-01-28 삼성전자주식회사 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치
CN102750955B (zh) * 2012-07-20 2014-06-18 中国科学院自动化研究所 基于残差信号频谱重构的声码器
US9532139B1 (en) * 2012-09-14 2016-12-27 Cirrus Logic, Inc. Dual-microphone frequency amplitude response self-calibration
JP6434411B2 (ja) 2012-09-24 2018-12-05 サムスン エレクトロニクス カンパニー リミテッド フレームエラー隠匿方法及びその装置、並びにオーディオ復号化方法及びその装置
CN103714821A (zh) * 2012-09-28 2014-04-09 杜比实验室特许公司 基于位置的混合域数据包丢失隐藏
EP2757559A1 (en) 2013-01-22 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for spatial audio object coding employing hidden objects for signal mixture manipulation
BR112015018020B1 (pt) 2013-01-29 2022-03-15 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V Preenchimento de ruído sem informação adicional para codificadores do tipo celp
FR3004876A1 (fr) 2013-04-18 2014-10-24 France Telecom Correction de perte de trame par injection de bruit pondere.
CN110299147B (zh) 2013-06-21 2023-09-19 弗朗霍夫应用科学研究促进协会 针对切换式音频编码系统在错误隐藏过程中的改善信号衰落的装置及方法
US20150024355A1 (en) 2013-07-18 2015-01-22 Quitbit, Inc. Lighter and method for monitoring smoking behavior
US10210871B2 (en) * 2016-03-18 2019-02-19 Qualcomm Incorporated Audio processing for temporally mismatched signals
CN110556116B (zh) * 2018-05-31 2021-10-22 华为技术有限公司 计算下混信号和残差信号的方法和装置

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100274565A1 (en) * 1999-04-19 2010-10-28 Kapilow David A Method and Apparatus for Performing Packet Loss or Frame Erasure Concealment
US20070239462A1 (en) * 2000-10-23 2007-10-11 Jari Makinen Spectral parameter substitution for the frame error concealment in a speech decoder
CN1930607A (zh) * 2004-03-05 2007-03-14 松下电器产业株式会社 差错隐藏装置以及差错隐藏方法
EP1775717A1 (en) * 2004-07-20 2007-04-18 Matsushita Electric Industrial Co., Ltd. Audio decoding device and compensation frame generation method
CN1989548A (zh) * 2004-07-20 2007-06-27 松下电器产业株式会社 语音解码装置及补偿帧生成方法
US20060184861A1 (en) * 2005-01-20 2006-08-17 Stmicroelectronics Asia Pacific Pte. Ltd. (Sg) Method and system for lost packet concealment in high quality audio streaming applications
KR20060124371A (ko) * 2005-05-31 2006-12-05 엘지전자 주식회사 오디오 에러 은닉 방법
WO2007051124A1 (en) * 2005-10-26 2007-05-03 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
US20070271480A1 (en) * 2006-05-16 2007-11-22 Samsung Electronics Co., Ltd. Method and apparatus to conceal error in decoded audio signal
EP2026330A1 (en) * 2006-06-08 2009-02-18 Huawei Technologies Co Ltd Device and method for lost frame concealment
WO2008062959A1 (en) * 2006-11-24 2008-05-29 Samsung Electronics Co., Ltd. Error concealment method and apparatus for audio signal and decoding method and apparatus for audio signal using the same
US20080195910A1 (en) * 2007-02-10 2008-08-14 Samsung Electronics Co., Ltd Method and apparatus to update parameter of error frame
US20110099008A1 (en) * 2009-10-23 2011-04-28 Broadcom Corporation Bit error management and mitigation for sub-band coding

Also Published As

Publication number Publication date
SG11201510508QA (en) 2016-01-28
ES2635555T3 (es) 2017-10-04
TW201508740A (zh) 2015-03-01
ZA201600310B (en) 2018-05-30
US20180151184A1 (en) 2018-05-31
PL3011557T3 (pl) 2017-10-31
MX351577B (es) 2017-10-18
TWI569262B (zh) 2017-02-01
MX2015016892A (es) 2016-04-07
CN105359210A (zh) 2016-02-24
MX355257B (es) 2018-04-11
CN105340007B (zh) 2019-05-31
MY181026A (en) 2020-12-16
SG11201510353RA (en) 2016-01-28
EP3011561B1 (en) 2017-05-03
KR101787296B1 (ko) 2017-10-18
CN105378831B (zh) 2019-05-31
PL3011561T3 (pl) 2017-10-31
EP3011557A1 (en) 2016-04-27
US20200258529A1 (en) 2020-08-13
US20200312338A1 (en) 2020-10-01
AU2014283123A1 (en) 2016-02-04
AU2014283194B2 (en) 2016-10-20
CN105431903A (zh) 2016-03-23
KR20160021295A (ko) 2016-02-24
ES2639127T3 (es) 2017-10-25
JP2016522453A (ja) 2016-07-28
US9978376B2 (en) 2018-05-22
CA2914895C (en) 2018-06-12
MX2015017261A (es) 2016-09-22
US20210098003A1 (en) 2021-04-01
RU2658128C2 (ru) 2018-06-19
RU2675777C2 (ru) 2018-12-24
MY190900A (en) 2022-05-18
TWI575513B (zh) 2017-03-21
US9997163B2 (en) 2018-06-12
MY187034A (en) 2021-08-27
WO2014202786A1 (en) 2014-12-24
AU2014283196A1 (en) 2016-02-11
BR112015031606A2 (pt) 2017-07-25
KR101785227B1 (ko) 2017-10-12
CN110289005B (zh) 2024-02-09
ES2635027T3 (es) 2017-10-02
US20200258530A1 (en) 2020-08-13
PT3011561T (pt) 2017-07-25
RU2665279C2 (ru) 2018-08-28
CA2914869A1 (en) 2014-12-24
PT3011563T (pt) 2020-03-31
AU2014283196B2 (en) 2016-10-20
RU2016101600A (ru) 2017-07-26
HK1224424A1 (zh) 2017-08-18
US11869514B2 (en) 2024-01-09
CA2916150A1 (en) 2014-12-24
CN110265044B (zh) 2023-09-12
TWI587290B (zh) 2017-06-11
EP3011559A1 (en) 2016-04-27
ES2780696T3 (es) 2020-08-26
EP3011559B1 (en) 2017-07-26
KR101788484B1 (ko) 2017-10-19
KR20160022364A (ko) 2016-02-29
RU2016101521A (ru) 2017-07-26
MX351576B (es) 2017-10-18
JP2016527541A (ja) 2016-09-08
AU2014283198B2 (en) 2016-10-20
TWI564884B (zh) 2017-01-01
US20160104497A1 (en) 2016-04-14
CA2914895A1 (en) 2014-12-24
CN110164459A (zh) 2019-08-23
CN110265044A (zh) 2019-09-20
US10867613B2 (en) 2020-12-15
BR112015031180B1 (pt) 2022-04-05
SG11201510510PA (en) 2016-01-28
US12125491B2 (en) 2024-10-22
EP3011557B1 (en) 2017-05-03
CA2913578C (en) 2018-05-22
CN105359210B (zh) 2019-06-14
BR112015031343B1 (pt) 2021-12-14
KR20160022886A (ko) 2016-03-02
US9916833B2 (en) 2018-03-13
US10607614B2 (en) 2020-03-31
AU2014283194A1 (en) 2016-02-04
PT3011557T (pt) 2017-07-25
CN105359209B (zh) 2019-06-14
SG11201510519RA (en) 2016-01-28
HK1224423A1 (zh) 2017-08-18
TW201508737A (zh) 2015-03-01
US11501783B2 (en) 2022-11-15
MX2015018024A (es) 2016-06-24
BR112015031178B1 (pt) 2022-03-22
AU2014283198A1 (en) 2016-02-11
CA2913578A1 (en) 2014-12-24
EP3011563A1 (en) 2016-04-27
MY182209A (en) 2021-01-18
US10672404B2 (en) 2020-06-02
US20160111095A1 (en) 2016-04-21
PT3011558T (pt) 2017-10-05
US9978378B2 (en) 2018-05-22
CN105431903B (zh) 2019-08-23
CN110289005A (zh) 2019-09-27
WO2014202790A1 (en) 2014-12-24
CA2914869C (en) 2018-06-05
US11776551B2 (en) 2023-10-03
RU2676453C2 (ru) 2018-12-28
RU2016101469A (ru) 2017-07-24
CN105378831A (zh) 2016-03-02
TW201508736A (zh) 2015-03-01
MX2015017126A (es) 2016-04-11
AU2014283124B2 (en) 2016-10-20
US20180308495A1 (en) 2018-10-25
EP3011558B1 (en) 2017-07-26
TWI553631B (zh) 2016-10-11
BR112015031177A2 (pt) 2017-07-25
BR112015031606B1 (pt) 2021-12-14
ES2644693T3 (es) 2017-11-30
US9978377B2 (en) 2018-05-22
HK1224076A1 (zh) 2017-08-11
AU2014283124A1 (en) 2016-02-11
EP3011563B1 (en) 2019-12-25
US20180268825A1 (en) 2018-09-20
US10854208B2 (en) 2020-12-01
KR20160022363A (ko) 2016-02-29
JP6360165B2 (ja) 2018-07-18
CA2916150C (en) 2019-06-18
KR20160022365A (ko) 2016-02-29
CA2915014C (en) 2020-03-31
BR112015031180A2 (pt) 2017-07-25
BR112015031178A2 (pt) 2017-07-25
JP6201043B2 (ja) 2017-09-20
RU2666250C2 (ru) 2018-09-06
JP2016526704A (ja) 2016-09-05
CA2915014A1 (en) 2014-12-24
PT3011559T (pt) 2017-10-30
KR101790901B1 (ko) 2017-10-26
CN110299147A (zh) 2019-10-01
WO2014202784A1 (en) 2014-12-24
JP6190052B2 (ja) 2017-08-30
MX351363B (es) 2017-10-11
US20210142809A1 (en) 2021-05-13
JP2016532143A (ja) 2016-10-13
EP3011561A1 (en) 2016-04-27
JP6196375B2 (ja) 2017-09-13
MY170023A (en) 2019-06-25
JP6214071B2 (ja) 2017-10-18
PL3011563T3 (pl) 2020-06-29
US20180233153A1 (en) 2018-08-16
RU2016101604A (ru) 2017-07-26
RU2016101605A (ru) 2017-07-26
WO2014202789A1 (en) 2014-12-24
EP3011558A1 (en) 2016-04-27
HK1224009A1 (zh) 2017-08-11
TW201508738A (zh) 2015-03-01
WO2014202788A1 (en) 2014-12-24
CN110299147B (zh) 2023-09-19
US11462221B2 (en) 2022-10-04
CN105359209A (zh) 2016-02-24
US20180261230A1 (en) 2018-09-13
TW201508739A (zh) 2015-03-01
PL3011558T3 (pl) 2017-12-29
JP2016523381A (ja) 2016-08-08
US20160104489A1 (en) 2016-04-14
HK1224425A1 (zh) 2017-08-18
MX347233B (es) 2017-04-19
BR112015031343A2 (pt) 2017-07-25
AU2014283123B2 (en) 2016-10-20
US20160104488A1 (en) 2016-04-14
US20160104487A1 (en) 2016-04-14
PL3011559T3 (pl) 2017-12-29
KR101790902B1 (ko) 2017-10-26
BR112015031177B1 (pt) 2021-12-14
SG11201510352YA (en) 2016-01-28
US10679632B2 (en) 2020-06-09
CN110164459B (zh) 2024-03-26

Similar Documents

Publication Publication Date Title
CN105340007A (zh) 用于产生舒缓噪声的自适应频谱形状的装置及方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant