KR101108955B1 - A method and an apparatus for processing an audio signal - Google Patents
A method and an apparatus for processing an audio signal Download PDFInfo
- Publication number
- KR101108955B1 KR101108955B1 KR1020090090705A KR20090090705A KR101108955B1 KR 101108955 B1 KR101108955 B1 KR 101108955B1 KR 1020090090705 A KR1020090090705 A KR 1020090090705A KR 20090090705 A KR20090090705 A KR 20090090705A KR 101108955 B1 KR101108955 B1 KR 101108955B1
- Authority
- KR
- South Korea
- Prior art keywords
- band
- spectral data
- band extension
- frequency band
- low frequency
- Prior art date
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 150
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000012545 processing Methods 0.000 title claims abstract description 46
- 230000003595 spectral effect Effects 0.000 claims abstract description 116
- 230000001052 transient effect Effects 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 10
- 238000003672 processing method Methods 0.000 claims description 8
- 238000001914 filtration Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 14
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000005284 excitation Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000036961 partial effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 208000006930 Pseudomyxoma Peritonei Diseases 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 229920000306 polymethylpentene Polymers 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000010076 replication Effects 0.000 description 2
- 238000007493 shaping process Methods 0.000 description 2
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
- G10L19/025—Detection of transients or attacks for time/frequency resolution switching
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
본 발명은 오디오 처리 장치에 의해서, 제1 밴드 확장 방식 및 제2 밴드 확장 방식을 포함하는 복수의 밴드 확장 방식 중에서, 오디오 신호의 현재 프레임에 대한 특정 밴드 확장 방식을 지시하는 타입 정보, 및 저주파 대역의 스펙트럴 데이터를 수신하는 단계; 상기 타입 정보가 상기 현재 프레임에 대해 상기 제1 밴드 확장 방식을 지시하는 경우, 제1 밴드 확장 방식을 수행함으로써 상기 저주파 대역의 스펙트럴 데이터를 이용하여 현재 프레임의 고주파 대역의 스펙트럴 데이터를 생성하는 단계; 및, 상기 타입 정보가 상기 현재 프레임에 대해 상기 제2 밴드 확장 방식을 지시하는 경우, 제2 밴드 확장 방식을 수행함으로써 상기 저주파 대역의 스펙트럴 데이터를 이용하여 현재 프레임의 고주파 대역의 스펙트럴 데이터를 생성하는 단계를 포함하고, 상기 제1 밴드 확장 방식은 상기 저주파 대역의 스펙트럴 데이터의 제1 데이터 영역을 기초로 하고, 상기 제2 밴드 확장 방식은 상기 저주파 대역의 스펙트럴 데이터의 제2 데이터 영역을 기초로 한다.
오디오, 음성, 밴드 확장
The present invention provides, by an audio processing apparatus, type information indicating a specific band extension scheme for a current frame of an audio signal among a plurality of band extension schemes including a first band extension scheme and a second band extension scheme, and a low frequency band. Receiving spectral data of; When the type information indicates the first band extension scheme with respect to the current frame, generating spectral data of the high frequency band of the current frame by using the spectral data of the low frequency band by performing the first band extension scheme. step; And when the type information indicates the second band extension scheme with respect to the current frame, performs spectral data of the high frequency band of the current frame by using the spectral data of the low frequency band by performing a second band extension scheme. Generating a first data area of the spectral data in the low frequency band, and the second band extension method in the second data area of the spectral data in the low frequency band. Based on
Audio, voice, band extension
Description
본 발명은 오디오 신호를 인코딩 하거나 디코딩 할 수 있는 신호 처리 방법 및 장치에 관한 것이다. The present invention relates to a signal processing method and apparatus capable of encoding or decoding an audio signal.
일반적으로, 오디오 신호는 하나의 프레임 내에서 저주파 대역의 신호와 고주파 대역의 신호간의 유사성(correlation)이 있는 데, 이러한 유사성을 원리로 하여, 저주파 대역의 스펙트럴 데이터를 이용하여 고주파 대역의 스펙트럴 데이터를 인코딩하는 대역 확장 기술을 이용하여 오디오 신호를 압축한다.In general, an audio signal has a correlation between a signal of a low frequency band and a signal of a high frequency band within a frame. Based on this similarity, the spectral data of a high frequency band is used by using spectral data of a low frequency band. The audio signal is compressed using a band extension technique for encoding data.
종래에는 저주파 대역의 신호와 고주파 대역의 신호간의 유사성이 낮을 경우, 대역 확장 방식을 적용하여 오디오 신호를 압축하면, 오디오 신호의 음질이 나빠지는 문제점이 있다.Conventionally, when the similarity between the signal of the low frequency band and the signal of the high frequency band is low, if the audio signal is compressed by applying the band extension method, there is a problem that the sound quality of the audio signal is deteriorated.
특히, 치찰음(sibilant) 등과 같은 경우, 상기 연관성(correlation)이 높지 않기 때문에, 오디오 신호의 대역 확장 방식은 부적절한 문제점이 있다.In particular, in case of sibilant or the like, since the correlation is not high, the band extension method of the audio signal has an inappropriate problem.
한편, 대역 확장 방식에는 여러 타입이 있을 수 있는데, 시간에 따라서 오디오 신호에 적용되는 대역 확장 방식의 타입이 다를 수 있다. 이때, 다른 타입이 변하는 구간에서 순간적으로 음질이 나빠질 수 있다.Meanwhile, there may be various types of band extension schemes, and the type of band extension schemes applied to the audio signal may vary according to time. In this case, sound quality may deteriorate instantaneously in a section in which other types change.
본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 오디오 신호의 특성에 따라서 대역 확장 방식을 선택적으로 적용할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다. The present invention has been made to solve the above problems, and to provide an audio signal processing method and apparatus that can selectively apply a band extension method according to the characteristics of the audio signal.
본 발명의 또 다른 목적은, 프레임 별 오디오 신호의 특성에 따라서, 대역 확장 방식 대신, 적절한 방식을 적응적으로 적용할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.It is still another object of the present invention to provide an audio signal processing method and apparatus which can adaptively apply an appropriate method instead of a band extension method according to the characteristics of an audio signal for each frame.
본 발명의 또 다른 목적은, 오디오 신호 특성을 분석한 결과, 오디오 신호의 특성이 치찰음에 가까운 경우, 대역 확장 방식의 적용을 회피함으로써, 음질을 유지할 수 있는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.It is still another object of the present invention to provide an audio signal processing method and apparatus which can maintain sound quality by avoiding application of a band extension method when the characteristics of an audio signal are close to hissing sound after analyzing the characteristics of the audio signal. have.
본 발명의 또 다른 목적은, 오디오 신호의 특성에 따라 여러 타입의 대역 확장 방식을 시간별로 적용하기 위한 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.It is still another object of the present invention to provide an audio signal processing method and apparatus for applying various types of band extension schemes according to characteristics of an audio signal.
본 발명의 또 다른 목적은, 여러 타입의 대역 확장 방식을 적용하는 데 있어서, 대역 확장 방식의 타입이 변하는 구간에서 아티팩트(artifact)를 감소시키기 위한 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.Another object of the present invention is to provide an audio signal processing method and apparatus for reducing artifacts in a section in which a type of band extension scheme is changed in applying various types of band extension schemes.
본 발명은 다음과 같은 효과와 이점을 제공한다.The present invention provides the following effects and advantages.
첫째, 프레임 별 신호의 특성에 따라서, 프레임 별로 대역 확장 방식을 선별적으로 적용하기 때문에, 비트 수를 크게 증가시키지 않으면서 음질을 향상시킬 수 있는 효과가 있다.First, since the band extension scheme is selectively applied for each frame according to the characteristics of the signals for each frame, the sound quality can be improved without significantly increasing the number of bits.
둘째, 치찰음 등의 고주파 대역의 에너지가 높은 음이 포함되어 있다고 판단되는 프레임에 대해서, 대역 확장 방식 대신에, 음성 신호(speech 신호)에 적합한 LPC(linear Predictive coding) 방식이나, HBE(High band extension) 방식, 본원에서 새롭게 제안한 방식(PSDD)을 이용함으로써, 음질의 손실을 최소화할 수 있다.Second, for frames deemed to contain high-energy sounds such as sibilant sounds, a linear predictive coding (LPC) method suitable for a speech signal or a high band extension instead of a band extension method is used. ), The loss of the sound quality can be minimized by using the newly proposed method (PSDD).
셋째, 오디오 신호의 특성에 따라 여러 타입의 대역 확장 방식을 시간별로 적용할 수 있고, 나아가 여러 타입의 대역 확장 방식을 적용하는 데 있어서, 대역 확장 방식의 타입이 변하는 구간에서 아티팩트(artifact)를 감소시킬 수 있기 때문에, 대역 확장 방식을 적용하면서도 음질이 향상될 수 있다.Third, according to the characteristics of the audio signal, it is possible to apply various types of band extension schemes by time, and furthermore, in applying various types of band extension schemes, artifacts are reduced in a section in which the type of band extension schemes is changed. Because of this, the sound quality can be improved while applying the band extension method.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the specification and claims should not be construed as having a conventional or dictionary meaning, and the inventors should properly explain the concept of terms in order to best explain their own invention. Based on the principle that can be defined, it should be interpreted as meaning and concept corresponding to the technical idea of the present invention. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, various modifications that can be replaced at the time of the present application It should be understood that there may be equivalents and variations.
본 발명에서 다음 용어는 다음과 같은 기준으로 해석될 수 있고, 기재되지 않은 용어라도 하기 취지에 따라 해석될 수 있다. 코딩은 경우에 따라 인코딩 또는 디코딩으로 해석될 수 있고, 정보(information)는 값(values), 파라미터(parameter), 계수(coefficients), 성분(elements) 등을 모두 아우르는 용어로서, 경우에 따라 의미는 달리 해석될 수 있는 바, 그러나 본 발명은 이에 한정되지 아니한다.In the present invention, the following terms may be interpreted based on the following criteria, and terms not described may be interpreted according to the following meanings. Coding can be interpreted as encoding or decoding in some cases, and information is a term that encompasses values, parameters, coefficients, elements, and so on. It may be interpreted otherwise, but the present invention is not limited thereto.
여기서 오디오 신호(audio signal)란, 광의로는, 비디오 신호와 구분되는 개념으로서, 재생 시 청각으로 식별할 수 있는 신호를 지칭하고, 협의로는, 음성(speech) 신호와 구분되는 개념으로서, 음성 특성이 없거나 적은 신호를 의미한다. 본 발명에서의 오디오 신호는 광의로 해석되어야 하며 음성 신호와 구분되어 사용될 때 협의의 오디오 신호로 이해될 수 있다.Here, the audio signal is a concept that is broadly distinguished from the video signal, and refers to a signal that can be visually identified during reproduction. The narrow signal is a concept that is distinguished from a speech signal. Means a signal with little or no characteristics. The audio signal in the present invention should be interpreted broadly and can be understood as a narrow audio signal when used separately from a voice signal.
우선, 도 1은 본 발명의 일 실시예에 따른 오디오 신호 처리 장치의 구성을 보여주는 도면이다. 도 1을 참조하면, 오디오 신호 처리 장치의 인코더 측(100)은 치찰음 검출 유닛(sibilant detecting unit)(110), 제1 인코딩 유닛(first encoding unit)(122), 제2 인코딩 유닛(second encoding unit)(124), 멀티플렉싱 유닛(multiplexing unit)(130)을 포함할 수 있다. 오디오 신호 처리 장치의 디코더 측(200)는 디멀티플렉서(de-multiplexer)(210), 제1 디코딩 유닛(first decoding unit)(222), 제2 디코딩 유닛(second decoding unit)(224)를 포함할 수 있다.First, FIG. 1 is a diagram illustrating a configuration of an audio signal processing apparatus according to an embodiment of the present invention. Referring to FIG. 1, the encoder side 100 of the audio signal processing apparatus includes a
오디오 신호 처리 장치의 인코더 측(100)은 오디오 신호의 특성에 따라서, 밴드 확장 방식(band extension scheme)을 적용할 지 여부를 결정하고 그 결정에 따라 코딩 방식 정보(coding scheme information)를 생성하고, 디코더 측(200)은 코딩 방식 정보(coding scheme information)에 따라서 프레임 별로 밴드 확장 방식(band extension scheme)을 적용할 지 여부를 선택한다.The encoder side 100 of the audio signal processing apparatus determines whether to apply a band extension scheme according to the characteristics of the audio signal, and generates coding scheme information according to the determination, The decoder side 200 selects whether to apply a band extension scheme for each frame according to coding scheme information.
치찰음 검출 유닛(sibilant detecting unit)(110)은 오디오 신호의 현재 프레임에 대하여 치찰음 정도(sibilant proportion)을 검출하고, 치찰음 정도를 근거로 하여, 현재 프레임에 밴드 확장 방식 이 적용될지 여부를 지시하는 코딩 방식 정보 을 생성한다. 여기서 치찰음 정도(sibilant proportion)란, 현재 프레임에 치찰음(sibilant)인지 여부에 대한 정도를 나타내는 것이다. 치찰음(sibilant)이란, 일반적으로 닿소리를 발음할 때 공기가 좁은 틈을 이빨 쪽으로 통과되면서 발생하는 마찰을 이용해서 내는 소리로서, 한국어 중 ㅅ, ㅆ이 그 예이고, 영어 중 s가 그 예이다. 한편 파찰음 (affricate)는 닿소리를 발음할 때 폐쇄를 형성해서 공기 의 흐름을 막았다가 완전히 파열하지 않고 조금씩 개방해서 좁은 틈 사이로 공기를 통과시키면서 내는 소리로서, 한국어 중 'ㅈ', 'ㅉ', 'ㅊ' 등이 그 예이다. 본원에서의 치찰음(sibilant)란, 특정 음소에 국한되지 않고, 최대 에너지를 갖는 피크 밴드(peak band)가 다른 음소들 보다 고주파 대역에 속하는 음소를 일컫는다. 치찰음 검출 유닛(110)의 세부적인 구성은 추후 도 2와 함께 설명하고자 한다.The
치찰음 정도가 검출된 결과, 치찰음 정도가 낮다 판단되는 프레임은, 제1 인코딩 유닛(first encoding unit)(122)에 의해 오디오 신호가 인코딩되고, 치찰음 정도가 높다고 판단되는 프레임은, 제2 인코딩 유닛(second encoding unit)(124)에 의해 오디오 신호가 인코딩된다. As a result of the detection of the hissing sound level, the audio signal is encoded by the first encoding unit 122 in the frame determined to be low in the hissing sound, and the frame determined to be the high hissing sound in the second encoding unit ( The audio signal is encoded by a second encoding unit (124).
제1 인코딩 유닛(first encoding unit)(122)이란, 주파수 도메인 기반의 밴드 확장 방식에서 따라서, 오디오 신호를 인코딩하는 구성요소이다. 여기서 주파수 도메인 기반의 밴드 확장 방식(band extension scheme)이란, 광 대역(wide band)의 스펙트럴 데이터 중 고주파 대역(higher band)에 해당하는 스펙트럴 데이터를 협대역(narrow band)의 전부 또는 일부(all or portion)를 이용하여 인코딩하는 것이다. 이 방식은 고주파 대역과 저주파 대역간의 유사성을 원리로 비트 수를 절감할 수 있다. 이때, 상기 밴드 확장 방식은 주파수 도메인 기반이고, 상기 스펙트럴 데이터는 QMF (Quadrature mirror filter) 필터 뱅크(filterbank)등에 의해 주파수 변환된 데이터이다. 디코더에서는, 밴드 확장 정보를 이용하여 협대역 스펙트럴 데이터로부터 고주파 대역(higher band)의 스펙트럴 데이터를 복원한다. 여기서 고주파 대역(higher band)는 경계 주파수(boundary frequency)보다 같거나 높은 밴드이 고, 저주파 대역(narrow band)는 경계 주파수(boundary frequency) 보다 같거나 낮은 밴드로서, 연속된 밴드들로 구성된다. 이러한 주파수 도메인 기반의 대역 확장 방식은, SBR(Spectral Band Replication) 또는 eSBR(enhanced Spectral Band Replication) 표준에 따를 수 있지만, 본 발명은 이에 한정되지 아니한다.The first encoding unit 122 is a component for encoding an audio signal according to a frequency domain based band extension scheme. In this case, the band extension scheme based on the frequency domain means that the spectral data corresponding to the higher band of the spectral data of the wide band includes all or part of the narrow band ( encoding using all or portion). This method can reduce the number of bits based on the similarity between the high frequency band and the low frequency band. In this case, the band extension scheme is based on the frequency domain, and the spectral data is frequency-converted by a quadrature mirror filter (QMF) filter bank. The decoder recovers spectral data of a higher band from narrowband spectral data using the band extension information. Here, the high band is a band equal to or higher than the boundary frequency, and the narrow band is a band equal to or lower than the boundary frequency and is composed of consecutive bands. Such a frequency domain based band extension scheme may be based on Spectral Band Replication (SBR) or Enhanced Spectral Band Replication (eSBR) standards, but the present invention is not limited thereto.
한편, 이러한 주파수 도메인 기반의 밴드 확장 방식(band extension scheme)은 고주파 대역과 저주파 대역간의 유사성을 기반으로 하는데, 이 유사성은 오디오 신호의 특성에 따라서 강할 수도 있고 약할 수도 있다. 특히 앞서 설명한 치찰음(sibilant)의 경우, 상기 유사성이 약하기 때문에, 치찰음(sibilant)에 해당하는 프레임에 밴드 확장 방식(band extension scheme)을 적용하는 경우, 음질이 저하될 수 있다. 추후 도 3 및 도 4와 함께 치찰음(sibilant)의 에너지 특성과 주파수 도메인 기반의 밴드 확장 방식의 적용간의 관계를 상세히 설명하고자 한다. 제1 인코딩 유닛(122)은 도 8와 함께 추후에 설명될 오디오 신호 인코더까지 포함하는 개념일 수 있으나, 본 발명은 이에 한정되지 아니한다. Meanwhile, the frequency domain based band extension scheme is based on the similarity between the high frequency band and the low frequency band, which may be strong or weak depending on the characteristics of the audio signal. In particular, in the case of the sibilant described above, since the similarity is weak, when the band extension scheme is applied to a frame corresponding to the sibilant, sound quality may be degraded. The relationship between the energy characteristics of sibilant and the application of the band extension scheme based on the frequency domain will be described in detail later with reference to FIGS. 3 and 4. The first encoding unit 122 may be a concept including an audio signal encoder to be described later together with FIG. 8, but the present invention is not limited thereto.
제2 인코딩 유닛(124)은 상기 주파수 도메인 기반의 밴드 확장 방식을 사용하지 않고, 오디오 신호를 인코딩하는 유닛이다. 여기서 모든 유형의 밴드 확장 방식이 사용되지 않는 것이 아니라, 제1 인코딩 유닛(first encoding unit)(122)에서 적용되는 특정한 주파수 도메인 기반의 밴드 확장 방식이 사용되지 않는 것이다. 제2 인코딩 유닛(124)은 첫째, LPC(linear predictive coding) 방식을 적용하는 음성 신호 인코더에 해당하거나, 둘째, 음성 인코더를 뿐만 아니라 시간 도메인 기반의 밴드 확장 방식에 따른 모듈을 더 포함하거나, 셋째, 본원에서 새로 제시한 PSDD(Partial Spectral Data Duplication) 방식에 따른 모듈을 더 포함할 수 있는데, 이에 대한 설명은 도 5 내지 도 8와 함께 후술하고자 한다. 한편, 상기 둘째의 시간 도메인 기반의 밴드 확장 방식에는 AMR-WB(Adaptive Multi Rate WideBand) 표준에 적용된 HBE(High Band Extension) 방식을 따른 것일 수 있지만 본 발명은 이에 한정되지 아니한다.The second encoding unit 124 is a unit for encoding an audio signal without using the frequency domain based band extension scheme. Here, not all types of band extension schemes are used, but a specific frequency domain based band extension scheme applied in the first encoding unit 122 is not used. The second encoding unit 124 firstly corresponds to a speech signal encoder applying a linear predictive coding (LPC) scheme, or secondly, further includes a module according to a time domain based band extension scheme as well as the speech encoder. In addition, the present invention may further include a module according to the PSDD (Partial Spectral Data Duplication) scheme, which will be described later with reference to FIGS. 5 to 8. On the other hand, the second time domain based band extension scheme may be based on the High Band Extension (HBE) scheme applied to the Adaptive Multi Rate WideBand (AMR-WB) standard, but the present invention is not limited thereto.
멀티 플렉서(130)는 제1 인코딩 유닛(122)과 넌 밴드 확장 인코딩 유닛(124)에서 인코딩된 오디오 신호 및, 치찰음 검출 유닛(sibilant detecting unit)(110)에서 생성된 코딩 방식 정보를 멀티플렉싱하여 하나 이상의 비트스트림을 생성한다.The multiplexer 130 multiplexes the audio signal encoded by the first encoding unit 122 and the non-band extension encoding unit 124 and the coding scheme information generated by the
디코더 측의 디멀티플렉서(210)는 비트스트림으로부터 코딩 방식 정보 을 추출하고, 코딩 방식 정보 를 근거로, 현재 프레임의 오디오 신호를 제1 디코딩 유닛(first decoding unit)(222) 또는 제2 디코딩 유닛(second decoding unit)(224)으로 전달한다. 제1 디코딩 유닛(first decoding unit)(222)은 앞서 설명한 밴드 확장 방식(band extension scheme)에 따라서 오디오 신호를 디코딩하고, 제2 디코딩 유닛(second decoding unit)(224)는 앞서 설명한 LPC 방식 (및 HBE/PSDD 방식)에 따라서 오디오 신호를 디코딩한다.The demultiplexer 210 on the decoder side extracts the coding scheme information from the bitstream, and based on the coding scheme information, decodes the audio signal of the current frame in a first decoding unit 222 or a second decoding unit (second). the decoding unit 224). The first decoding unit 222 decodes the audio signal according to the band extension scheme described above, and the second decoding unit 224 uses the LPC scheme (and HBE / PSDD scheme) to decode the audio signal.
도 2는 도 1에서의 치찰음 검출 유닛(sibilant detecting unit)의 세부 구성을 보여주는 도면이고, 도 3의 치찰음 검출의 원리를 설명하기 위한 도면이고, 도 4는 비 치찰음(non-sibilant)의 경우와 치찰음(sibilant)의 경우의 에너지 스펙트럼의 일 예이다. 우선, 도 2를 참조하면, 치찰음 검출 유닛(110)은 변환 파 트(transforming part)(112), 에너지 추정 파트(energy estimating part)(114), 치찰음 결정 파트(sibilant deciding part)(116)을 포함한다.FIG. 2 is a diagram illustrating a detailed configuration of a sibilant detecting unit in FIG. 1, a view for explaining the principle of the sibilant detection of FIG. 3, and FIG. 4 is a non-sibilant case. It is an example of the energy spectrum in the case of sibilant. First, referring to FIG. 2, the
변환 파트(Transforming part)(112)는 시간 도메인의 오디오 신호를 주파수 변환을 수행하여 주파수 도메인의 신호로 변환한다. 이때 주파수 변환에는 FFT(fast Fourier transform) 또는 MDCT(Modified Discrete Cosine Transform) 등이 사용될 수 있지만, 본 발명은 이에 한정되지 아니한다.The
에너지 추정 파트(Energy Estimating Part)(114)는 주파수 도메인의 오디오 신호를 몇 개의 밴드 별로 묶어서, 현재 프레임에 대해서 밴드 별 에너지를 산출한다. 그런 다음, 전체 밴드 중에서 가장 큰 에너지(Emax)를 갖는 피크 밴드(Bmax)가 무엇인지 판단한다. 치찰음 결정 파트(Sibilant deciding part)(116)는 가장 큰 에너지를 갖는 밴드(Bmax)가 임계 밴드(threshold band)(Bth)보다 높은지 낮은지 여부를 판단하여, 현재 프레임의 치찰음 정도를 검출한다. 이는 유성음은 저주파에서 최대 에너지를 갖는 반면에 치찰음는 고주파에서 최대 에너지를 갖는 특성을 기반한 것이다. 여기서 임계 밴드(threshold band)(Bth)는 디폴트 값으로 미리 정해진 값일 수 있고, 입력된 오디오의 특성에 따라서 산출된 값일 수 있다.The
도 3을 참조하면, 저주파 대역(narrow band) 및 고주파 대역(higher band)을 포함하는 광 대역(wide band)이 존재함을 알 수 있다. 가장 높은 에너지(Emax)를 갖는 피크 밴드(Bmax)가 임계 밴드(threshold band)(Bth)보다 높을 수도 있고 낮을 수 도 있다. 한편, 도 4를 참조하면, 비 치찰음(non-sibilant)의 신호의 에너지 피크가 저주파 대역에 존재하고, 치찰음(sibilant) 신호의 에너지 피크(peak)는 상대적으로 고주파 대역에 존재함을 알 수 있다. 다시 도 3을 참조하면, (A)의 경우, 에너지 피크(peak)가 상대적으로 저주파에 존재하기 때문에, 비 치찰음(non-sibilant)으로 판단되고, (B)의 경우 에너지 피크(peak)가 상대적으로 고주파에 존재하기 때문에 치찰음(sibilant)라고 판단할 수 있다. Referring to FIG. 3, it can be seen that there is a wide band including a narrow band and a high band. The peak band B max with the highest energy E max may be higher or lower than the threshold band B th . Meanwhile, referring to FIG. 4, it can be seen that an energy peak of a non-sibilant signal exists in a low frequency band, and an energy peak of a sibilant signal exists in a relatively high frequency band. . Referring back to FIG. 3, in case of (A), since the energy peak is relatively low, it is determined to be non-sibilant, and in case of (B), the energy peak is relative. Because it exists at a high frequency can be determined as sibilant (sibilant).
한편, 앞서 언급한 주파수 도메인 기반의 밴드 확장 방식 은 경계 주파수 보다 낮은 협 대역(narrow band)을 이용하여, 경계 주파수 보다 높은 고주파 대역(higher band)를 인코딩한다. 이 방식은 협대역(narrow band)의 스펙트럴 데이터와 고주파 대역 (higher band)의 스펙트럴 데이터간의 유사성을 기반으로 한다. 그러나 에너지 피크가 고주파에 존재하는 신호의 경우, 상기 유사성(correlation)이 상대적으로 떨어진다. 따라서, 상기 협대역(narrow band)의 스펙트럴 데이터로 고주파 대역(higher band)의 스펙트럴 데이터를 예측하는 주파수 도메인 기반의 밴드 확장 방식을 적용하는 것은 음질을 저하시킬 수 있다. 따라서, 치찰음로 판단되는 현재 프레임에 대해서는, 상기 주파수 도메인 기반의 밴드 확장 방식 대신 다른 방식을 적용하는 것이 바람직한 것이다.On the other hand, the aforementioned frequency domain based band extension scheme encodes a higher band higher than the boundary frequency by using a narrow band lower than the boundary frequency. This method is based on the similarity between narrow band spectral data and high band spectral data. However, for signals with energy peaks at high frequencies, the correlation is relatively low. Therefore, applying a frequency domain-based band extension method that predicts spectral data of a higher band as narrow band spectral data may degrade sound quality. Therefore, for the current frame determined to be hissing sound, it is preferable to apply another method instead of the frequency domain based band extension method.
다시 도 2를 참조하면, 치찰음 검출 파트(sibilant deciding part)(116)는 에너지 피크에 피크 밴드(Bmax)가 임계 밴드(threshold band)(Bth)보다 낮은 경우 현재 프레임이 비 치찰음(non-sibilant)으로 판단하여, 오디오 신호를 제1 인코딩 유 닛 에서 주파수 도메인의 밴드 확장 방식에 따라 인코딩 되도록 하고, 반대의 경우, 치찰음(sibilant)으로 판단하여 오디오 신호를 제2 인코딩 유닛(second encoding unit)에서 대안적인 방식에 따라 인코딩 되도록 한다.Referring back to FIG. 2, the
도 5는 도 1에서의 제2 인코딩 유닛(second encoding unit) 및 제2 디코딩 유닛(second decoding unit)의 세부 구성도의 예들이다. 도 5의 (A)를 참조하면, 제1 실시예에 따른 제2 인코딩 유닛(second encoding unit)(124a)은 LPC 인코딩 파트(LPC encoding part)(124a-1)를 포함하고, 제1 실시예에 따른 제2 디코딩 유닛(second decoding unit)(224a)은 LPC 디코딩 파트(LPC decoding part)(224a-1)를 포함한다. LPC인코딩 파트(LPC encoding part) 및 LPC 디코딩 파트(LPC decoding part)는 선형 예측 코딩(linear prediction coding)(LPC) 방식으로 전체 대역에 대한 오디오 신호를 인코딩하거나 디코딩하는 구성요소이다. LPC(linear prediction coding)이란 과거의 일정 개수의 샘플 값에 계수를 곱해서 이를 총 합한 값으로 현재의 샘플 값을 예측하는 것으로, 시간 도메인을 기반으로 음성 신호를 처리하기 위한 단구간 예측(short term prediction)(STP)의 대표적인 예에 해당된다. 이와 같이 LPC 방식으로 인코딩된 LPC 계수(미도시)를 LPC 인코딩 파트(124a-1)에서 생성하면, LPC 디코딩 파트(LPC decoding part)(224a-1)는 LPC 계수를 이용하여 오디오 신호를 복원한다.FIG. 5 is an example of a detailed configuration diagram of a second encoding unit and a second decoding unit in FIG. 1. Referring to FIG. 5A, the
한편, 제2 실시예에 따른 제2 인코딩 유닛(second encoding unit)(124b)은 HBE 인코딩 파트(HBE encoding part)(124b-1) 및 LPC 인코딩 파트(LPC encoding part)(124b-2)를 포함하고, 제2 실시예에 따른 제2 디코딩 파트(second decoding unit)(224b)은 LPC 디코딩 파트(LPC decoding part)(224b-1) 및 HBE 디코딩 파트(HBE decoding part)(224b-2)를 포함한다. HBE 인코딩 파트(HBE encoding part)(124b-1) 및 HBE 디코딩 파트(HBE decoding part)(224b-2)는 HBE 방식에 따라서 오디오 신호를 인코딩/디코딩 하는 구성요소이다. HBE(High Bnad Extension) 방식이란, 시간 도메인 기반의 밴드 확장 방식의 일종이다. 인코더에서는 고주파 신호에 대해 HBE 정보 즉, 스펙트럴 인벨롭 모델링 정보 및 프레임 에너지 정보를 생성하고, 저주파 신호에 대해서 여기 신호(excitation signal)를 생성한다. 여기서 스펙트럴 인벨롭 모델링 정보는 시간 도메인 기반인LP(linear prediction) 분석을 통해 생성된 LP 계수를 ISP (Immittance Spectral Pair)로 변환된 것에 해당할 수 있다. 상기 프레임 에너지 정보는 64 sub-frame 마다 원래의 에너지와 합성된 에너지를 비교하여 결정된 정보에 해당할 수 있다. 디코더에서는 상기 스펙트럴 인벨롭 모델링 정보와 프레임 에너지 정보를 이용하여 저주파 신호의 여기 신호를 쉐이핑(shaping)하여 고주파 신호를 생성한다. 이러한 HBE 방식은, 시간 도메인을 기반으로 한다는 점에서 앞서 설명한 주파수 도메인 기반의 밴드 확장 방식과 구별된다. 치찰음(Sibilant)은 시간축 파형으로 보면 매우 복잡하고 랜덤(random)한 노이즈 라이크(noise-like)한 신호인데, 이를 주파수 도메인 기반으로 밴드 확장 방식(band extension)을 할 경우 매우 부정확할 수 있는 반면에, HBE는 시간 도메인을 기반으로 하기 때문에 치찰음(sibilant)을 적절히 처리할 수 있다. 한편 상기 HBE 방식이 고주파 여기(excitation) 신호의 버즈니스(buzzness)를 줄이기 위한 후처리를 더 포함할 경우, 치찰음 프레임에 대해서 더욱 성능이 높아질 수 있다.Meanwhile, the
한편, LPC 인코딩 파트(LPC encoding part)(124b-2) 및 LPC 디코딩 파트(LPC decoding part)(224b-1)는 제1 실시예에서의 동일한 명칭의 구성요소(124a-1, 224a-1)와 동일한 기능을 수행한다. 단, 제1 실시예에서는 현재 프레임의 전체 대역에 대해서 선형 예측 인코딩/디코딩을 수행하는 데 비해, 제2 실시예에서는 전체 대역이 아니라 HBE가 수행된 이후의 협대역(narrow band)(또는 저주파 대역(lower band))에 대해서 선형 예측 인코딩을 수행하고, 협대역(narrow band)에 대해서 선형 예측 디코딩을 수행한 이후, HBE 디코딩을 수행한다.On the other hand, the
한편 제3 실시예에 따른 제2 인코딩 유닛(second encoding unit)(124c)는 PSDD 인코딩 파트(PSDD encoding part)(124c-1) 및 LPC 인코딩 파트(LPC encoding part)(124c-2)를 포함하고, 제3 실시예에 따른 제2 인코딩 유닛(second encoding unit)(224c)은 LPC 디코딩 파트(LPC decoding part)(224c-1) 및 PSDD 디코딩 파트(PSDD decoding part)(224c-2)를 포함한다. 도 1의 제2 인코딩 유닛(first encoding unit)(122)에서 수행되는 주파수 도메인 기반의 밴드 확장 방식(band extension scheme)은 저주파 대역으로 구성된 협대역(narrow band)의 일부 또는 전체를 이용하는 것이다. 반면에, PSDD(Partial Spectral Data Duplication)는 저주파 및 고주파 대역에 이산적으로 분포된 카피 밴드(copy band)를 이용하여, 그 카피 밴드(copy band)와 인접한 타깃 밴드(target band)를 인코딩하는 것이다. 그 구체적인 내용은 추후 도 6 내지 도 9와 함께 후술하고자 한다.Meanwhile, the
한편, 앞서 도 5의 (A) 내지 (C)와 함께 설명된 LPC 인코딩 파트(LPC encoding part) 및 LPC 디코딩 파트(LPC decoding part)는 도 9 내지 도 12와 함께 설명될 음성 신호 인코더(speech signal encoder)440) 및 음성 신호 디코더(speech signal decoder)(630)에 각각 속할 수 있다.Meanwhile, the LPC encoding part and the LPC decoding part described above with reference to FIGS. 5A to 5C are speech signal encoders to be described with reference to FIGS. 9 to 12. encoder 440) and
도 6은 제2 인코딩/디코딩(second encoding/decoding) 방식의 일 예인 PSDD(Partial Spectral Data Duplication) 방식의 제1 실시예 내지 제2 실시예를 설명하기 위한 도면이다. FIG. 6 is a diagram for describing first to second embodiments of a partial spectral data duplication (PSDD) scheme, which is an example of a second encoding / decoding scheme.
우선 도 6의 (A)를 참조하면, 저주파부터 고주파까지 즉, 0번째부터 n-1번째까지 총 n개의 스케일 팩터 밴드(sfb0~sfbn -1)가 존재하고, 각 스케일 팩터 밴드(sfb0, ,sfbn-1)에 대응하는 스펙트럴 데이터가 존재한다. 특정 밴드에 속하는 스펙트럴 데이터(sdi)는 다수의 스펙트럴 데이터의 집합(sdi _0부터 sdi _m-1)을 의미할 수 있는데, 스펙트럴 데이터의 개수(mi)는 스펙트럴 데이터 단위, 밴드 단위 또는 그 이상의 단위에 대응하여 생성할 수 있다.First, referring to FIG. 6A, there are n scale factor bands sfb 0 to sfb n −1 from low to high frequencies, that is, from 0th to n−1th, and each scale factor band sfb. Spectral data corresponding to 0 ,, sfb n-1 ). The spectral data (sd i ) belonging to a specific band may mean a set of spectral data (sd i _0 to sd i _m-1 ), and the number of spectral data (m i ) is a spectral data unit. Can be generated corresponding to a band unit or more units.
여기서 디코더에 데이터가 전송되는 밴드는 전체 대역(sfb0, ,sfbn -1) 중에서 저주파 대역(sfb0, ,sfbs -1) 및 카피밴드(copy band)(cb)(sfbs, sfbn -4, sfbn -2)들 이다. 카피밴드는 시작 밴드(start band)(sb) 또는 시작 주파수(start frequency)부터 시작하는 밴드들로서 타깃 밴드(target band)(tb) (sfbs +1, sfbn -3, sfbn -1)의 예측에 사용되는 밴드이고, 타깃 밴드(target band)는 카피 밴드(copy band)를 이용하여 예측되는 밴드로서 스펙트럴 데이터가 디코더에 전송되지 않는다. In this case, the band through which data is transmitted to the decoder includes a low frequency band (sfb 0 ,, sfb s -1 ) and a copy band (cb) (sfb s , sfb n ) among the entire bands (sfb 0 ,, sfb n -1 ). -4 , sfb n -2 ). The copy bands are bands starting from the start band (sb) or the start frequency (start frequency), and of the target band (tb) (sfb s +1 , sfb n -3 , sfb n -1 ) A band used for prediction, and a target band is a band predicted using a copy band, and no spectral data is transmitted to the decoder.
도 6의 (A)에 도시된 바와 같이, 카피 밴드(copy band)는 저주파 대역에 집 중되어 있지 않고 고주파 대역에도 존재하며 타깃 밴드(target band)와 인접하여 있기 때문에 타깃 밴드(target band)와의 유사성을 유지할 수 있다. 한편, 카피 밴드의 스펙트럴 데이터와 타깃 밴드의 스펙트럴 데이터간의 차이인 게인 정보(g)가 생성될 수 있다. 카피 밴드(copy band)를 이용하여 타깃 밴드(target band)를 예측하더라도, 밴드 확장 방식에 비해 bitrate가 증가되지 않으면서, 음질이 저하되는 것을 최소화시킬 수 있다.As shown in FIG. 6A, the copy band is not concentrated in the low frequency band, but also exists in the high frequency band and is adjacent to the target band. Similarity can be maintained. Meanwhile, gain information g, which is a difference between the spectral data of the copy band and the spectral data of the target band, may be generated. Even when a target band is predicted using a copy band, it is possible to minimize the degradation of sound quality without increasing the bitrate as compared with the band extension method.
도 6의 (A)는 카피 밴드의 대역폭 및 타깃 밴드의 대역폭이 동일한 예이고, 도 6의 (B)는 카피 밴드의 대역폭 및 타깃 밴드의 대역폭이 상이한 예이다. 도 6의 (B)를 참조하면, 타깃 밴드의 대역폭은 카피 밴드의 대역폭의 두 배 이상 (tb, tb'이며, 여기서, 타깃 밴드(target band)를 이루는 연속된 대역들 중 왼쪽 대역(tb) 및 오른쪽 대역(tb')에 각각 서로 다른 게인(gs, gs+1)을 적용할 수 있다.6A illustrates an example in which the bandwidth of the copy band and the bandwidth of the target band are the same, and FIG. 6B illustrates an example in which the bandwidth of the copy band and the bandwidth of the target band are different. Referring to FIG. 6B, the bandwidth of the target band is more than twice the bandwidth of the copy band (tb, tb '), where the left band (tb) of consecutive bands forming the target band is included. Different gains g s and g s + 1 may be applied to the right band tb '.
도 7 및 도 8는 PSDD 방식에서 프레임의 길이가 서로 다른 경우의 방식을 설명하기 위한 도면이다. 도 7은 타깃 밴드의 스펙트럴 데이터의 개수(Nt)가 카피 밴드의 스펙트럴 데이터의 개수(Nc)가 보다 큰 경우, 도 8은 작은 경우를 설명하기 위한 도면이다. 7 and 8 are diagrams for describing a method in which frames have different lengths in the PSDD scheme. 7 is a case where the number (N t) of the spectral data of the target band, the large copy number of band spectral data of (N c) than, Figure 8 is a view for explaining a small case.
우선 도 7의 (A)를 살펴보면, 타깃 밴드(sfbi)의 스펙트럴 데이터의 개수(Nt)가 36개이고, 카피 밴드(sfbs)의 스펙트럴 데이터의 개수(Nc)가 24임을 알 수 있다. 데이터의 개수가 클수록 밴드의 수평 길이가 길게 표시되어 있다. 타깃 밴드의 데 이터 개수가 더 크기 때문에 카피 밴드의 데이터를 두번 이상 이용할 수 있다. 예를 들어, 도 7의 (B1)에 도시된 바와 같이, 우선 카피 밴드의 24개의 데이터를 타깃 밴드의 저주파부터 채워넣고, 도 7의 (B2)에 도시된 바와 같이, 카피 밴드의 앞 부분 12개 또는 뒷 부분 12개를 타깃 밴드의 나머지 부분에 채워넣을 수 있다. 물론 여기서도 전송된 게인 정보를 적용할 수 있다.First, referring to FIG. 7A, it can be seen that the number of spectral data N t of the target band sfb i is 36, and the number of spectral data N c of the copy band sfb s is 24. Can be. The larger the number of data, the longer the horizontal length of the band. Since the data of the target band is larger, the data of the copy band can be used more than once. For example, as shown in (B1) of FIG. 7, first, 24 data of the copy band are filled from the low frequency of the target band, and as shown in (B2) of FIG. 7, the
한편 도 8의 (A)를 참조하면, 타깃 밴드(sfbi)의 스펙트럴 데이터의 개수(Nt)가 24개이고, 카피 밴드(sfbs)의 스펙트럴 데이터의 개수(Nc)가 36임을 알 수 있다. 타깃 밴드의 데이터 수가 더 작기 때문에, 카피 밴드의 데이터 중 일부만을 이용할 수 있다. 예를 들어 도 8의 (B)에 표시된 바와 같이 카피 밴드(sfbs)의 앞 부분의 스펙트럴 데이터 24개만을 이용하거나, 도 8의 (C)에 표시된 바와 같이 카피 밴드(sfbs)의 뒷 영역의 스펙트럴 데이터 24개만 이용하여, 타깃 밴드(sfbi)의 스펙트럴 데이터를 생성할 수 있다.Meanwhile, referring to FIG. 8A, the number of spectral data N t of the target band sfb i is 24, and the number of spectral data N c of the copy band sfb s is 36. Able to know. Since the number of data in the target band is smaller, only some of the data in the copy band can be used. For example, as shown in FIG. 8B, only 24 spectral data of the front portion of the copy band sfb s are used, or as shown in FIG. 8C, the back of the copy band sfb s . Using only 24 spectral data in the region, the spectral data of the target band sfb i can be generated.
도 9은 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 인코딩 장치의 제1 예이고, 도 10은 제2 예이다. 제1 예는, 도 5의 (A)와 함께 설명된 제2 인코딩 유닛(second encoding unit)의 제1 실시예(124a)가 적용된 인코딩 장치이고, 제2 예는, 도 5의 (B) 및 (C)와 함께 설명된 제2 인코딩 유닛(second encoding unit)의 제2 실시예(124b) 또는 제3 실시예(124c)가 적용된 인코딩 장치이다.9 is a first example of an audio signal encoding apparatus to which an audio signal processing apparatus according to an embodiment of the present invention is applied, and FIG. 10 is a second example. The first example is an encoding apparatus to which the
우선 도 9을 참조하면, 도 9을 참조하면, 오디오 신호 인코딩 장치(300)는 복수채널 인코더(305), 치찰음 검출 유닛(310), 제1 인코딩 유닛(first encoding unit)(322), 및 오디오 신호 인코더(330), 음성 신호 인코더(340), 및 멀티 플렉서(350)을 포함할 수 있다. 여기서 치찰음 검출 유닛(sibilant detecting unit)(310) 및 제1 인코딩 유닛(first encoding unit)(320)은 도 1과 함께 설명된 동일 명칭의 구성요소(110, 122)의 기능과 동일할 수 있다.Referring first to FIG. 9, referring to FIG. 9, an audio
복수채널 인코더(305)는 복수의 채널 신호(둘 이상의 채널 신호)(이하, 멀티채널 신호)를 입력받아서, 다운믹스를 수행함으로써 모노 또는 스테레오의 다운믹스 신호를 생성하고, 다운믹스 신호를 멀티채널 신호로 업믹스하기 위해 필요한 공간 정보를 생성한다. 여기서 공간 정보(spatial information)는, 채널 레벨 차이 정보, 채널간 상관정보, 채널 예측 계수, 및 다운믹스 게인 정보 등을 포함할 수 있다. 만약, 오디오 신호 인코딩 장치(300)가 모노 신호를 수신할 경우, 복수 채널 인코더(305)는 모노 신호에 대해서 다운믹스하지 않고 바이패스할 수도 있음은 물론이다.The
치찰음 검출 유닛(Sibilant detecting unit)(310)은 현재 프레임의 치찰음 정도을 검출하여 비-치찰음인 경우 오디오 신호를 제1 인코딩 유닛(first encoding unit)(322)에 전달하고, 치찰음인 경우, 오디오 신호를 제1 인코딩 유닛(first encoding unit)(322)을 바이패스하고 음성 신호 인코더(340)에 전달한다. 그리고 현재 프레임에 밴드 확장 방식 이 적용되는 지 여부를 지시하는 그 결과 밴드 확장 정보를 생성하여 멀티플렉서(350)에 전달한다.The sibilant detecting
제1 인코딩 유닛(first encoding unit)(322)는 광대역의 오디오 신호에 대 해, 앞서 도 1에서 설명한 바와 같은 주파수 도메인 기반의 밴드 확장 방식을 적용하여 협 대역의 스펙트럴 데이터 및 밴드 확장 정보를 생성한다.The
오디오 신호 인코더(audio signal encoder)(330)는 다운믹스 신호의 특정 프레임 또는 특정 세그먼트가 큰 오디오 특성을 갖는 경우, 오디오 코딩 방식(audio coding scheme)에 따라 다운믹스 신호를 인코딩한다. 여기서 오디오 코딩 방식은 AAC (Advanced Audio Coding) 표준 또는 HE-AAC (High Efficiency Advanced Audio Coding) 표준에 따른 것일 수 있으나, 본 발명은 이에 한정되지 아니한다. 한편, 오디오 신호 인코더(340)는, MDCT(Modified Discrete Transform) 인코더에 해당할 수 있다. The
음성 신호 인코더(speech signal encoder)(340)는 다운믹스 신호의 특정 프레임 또는 특정 세그먼트가 큰 음성 특성을 갖는 경우, 음성 코딩 방식(speech coding scheme)에 따라서 다운믹스 신호를 인코딩한다. 여기서 음성 코딩 방식은 AMR-WB(Adaptive multi-rate Wide-Band) 표준에 따른 것일 수 있으나, 본 발명은 이에 한정되지 아니한다. 한편, 음성 신호 인코더(350)는 앞서 도 5와 함께 설명한 바와 같이 선형 예측 부호화(LPC: Linear Prediction Coding) 인코딩 파트(124a-1, 124b-1, 124c-1)를 더 포함할 수 있다. 하모닉 신호가 시간축 상에서 높은 중복성을 가지는 경우, 과거 신호로부터 현재 신호를 예측하는 선형 예측에 의해 모델링될 수 있는데, 이 경우 선형 예측 부호화 방식을 채택하면 부호화 효율을 높을 수 있다. 한편, 음성 신호 인코더(340)는 타임 도메인 인코더에 해당할 수 있다.A
멀티플렉서(350)는 공간정보, 코딩 스킴 정보, 대역확장 정보 및 스펙트럴 데이터 등을 다중화하여 오디오 신호 비트스트림을 생성한다.The
도 10은 앞서 언급한 바와 같이 도 5의 (B) 및 (C)와 함께 설명된 제2 인코딩 유닛(second encoding unit)의 제2 실시예(124b) 또는 제3 실시예(124c)가 적용된 인코딩 장치로서, 도 9과 함께 설명된 제1 예와 거의 동일하나, 전체 대역에 해당하는 오디오 신호가 음성 신호 인코더(440)에서 인코딩되기 이전에 HBE 인코딩 파트(HBE Encoding Part)(424)(또는 PSDD 인코딩 파트(PSDD encoding part))에서 HBE 방식 또는 PSDD 방식에 의해 인코딩된다는 점에서 차이가 있다. HBE 인코딩 파트(HBE encoding part)(424)는 앞서 도 5와 설명한 바와 같이 시간 도메인 기반의 밴드 확장 방식에 따라 오디오 신호를 인코딩하여 HBE 정보를 생성한다. HBE 인코딩 파트(HBE encoding part)(424)는 PSDD 인코딩 파트(PSDD encoding part)(424)로 대체될 수 있는데, PSDD 인코딩 파트(PSDD encoding part)(424)는 앞서 도 6 내지 도 8과 함께 설명한 바와 같이 카피 밴드(copy band)의 정보를 이용하여 타깃 밴드(target band)를 인코딩하고, 그 결과 타깃 밴드(target band)를 복원하기 위한 PSDD 정보를 생성한다. 음성 신호 인코더(440)는 HBE 방식 또는 PSDD 방식에 의해 인코딩된 결과를 음성 신호 방식으로 인코딩한다. 물론 음성 신호 인코더(440)는 제1 예와 마찬가지로 LPC 인코딩 파트를 더 포함할 수 있다.10 is an encoding to which the
도 11는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 디코딩 장치의 제1 예이고, 도 12은 제2 예이다. 제1 예는, 도 5의 (A)와 함께 설명된 제2 디코딩 유닛(second decoding unit)의 제1 실시예(224a)가 적용된 인코딩 장치이고, 제2 예는, 도 5의 (B) 및 (C)와 함께 설명된 제2 디코딩 유 닛(second decoding unit)의 제2 실시예(224b) 또는 제3 실시예(224c)가 적용된 인코딩 장치이다.11 is a first example of an audio signal decoding apparatus to which an audio signal processing apparatus according to an embodiment of the present invention is applied, and FIG. 12 is a second example. The first example is an encoding apparatus to which the
도 11를 참조하면, 오디오 신호 디코딩 장치(500)는 디멀티플렉서(510), 오디오 신호 디코더(520), 음성 신호 디코더(530), 제1 디코딩 유닛(540), 복수채널 디코더(plural-channel decoder)(550)를 포함한다. Referring to FIG. 11, the audio
디멀티플렉서(demultiplexer)(510)는 오디오신호 비트스트림으로부터 스펙트럴 데이터, 코딩 스킴 정보, 대역확장 정보, 공간정보 등을 추출한다. 코딩 스킴 정보에 따라서 현재 프레임에 해당하는 오디오 신호를 오디오 신호 디코더(520) 또는 음성 신호 디코더(530)로 전달한다. 구체적으로, 코딩 스킴 정보가 밴드 확장 스킴이 현재 프레임에 적용되었음을 지시하는 경우, 오디오 신호를 오디오 신호 디코더(520)로 전달하고, 코딩 스킴 정보가 밴드 확장 스킴이 현재 프레임에 적용되지 않았음을 지시하는 경우, 오디오 신호를 음성 신호 디코더(530)으로 전달한다.The
오디오 신호 디코더(audio signal decoder)(520)는, 다운믹스 신호에 해당하는 스펙트럴 데이터가 오디오 특성이 큰 경우, 오디오 코딩 방식으로 스펙트럴 데이터를 디코딩한다. 여기서 오디오 코딩 방식은 앞서 설명한 바와 같이, AAC 표준, HE-AAC 표준에 따를 수 있다. 한편 오디오 신호 디코더(520)는 역양자화부(미도시), 역변환부(미도시)를 포함할 수 있다. 따라서 오디오 신호 디코더(520)는 비트스트림을 통해 전송된 스펙트럴 데이터 및 스케일 팩터에 대해 역양자화 및 역변환을 수행할 수 있다.The
음성 신호 디코더(speech signal decoder)(530)는 상기 스펙트럴 데이터가 음성 특성이 큰 경우, 음성 코딩 방식으로 다운믹스 신호를 디코딩한다. 음성 코딩 방식은, 앞서 설명한 바와 같이, AMR-WB(Adaptive multi-rate Wide-Band) 표준에 따를 수 있지만, 본 발명은 이에 한정되지 아니한다. 앞서 언급한 바와 같이 음성 신호 디코더(530)는 도 5와 함께 설명한 바와 같이, LPC 디코딩 파트(LPC decoding part)(224a-1, 224b-1, 224c-1)를 포함할 수 있다.A
제1 디코딩 유닛(540)는 대역확장정보 비트스트림을 디코딩하고, 이 정보를 이용하여 오디오 신호에 앞서 설명한 주파수 도메인 기반의 대역 확장 스킴을 적용하여 고주파 대역의 오디오 신호를 생성한다. The
복수채널 디코더(550)은 디코딩된 오디오 신호가 다운믹스인 경우, 공간정보를 이용하여 멀티채널 신호(스테레오 신호 포함)의 출력 채널 신호를 생성한다.When the decoded audio signal is downmixed, the
도 12는 앞서 언급한 바와 같이 도 5의 (B) 및 (C)와 함께 설명된 제2 디코딩 유닛(second decoding unit)의 제2 실시예(224b) 또는 제3 실시예(224c)가 적용된 디코딩 장치로서, 도 11과 함께 설명된 제1 예와 거의 동일하다. 그러나, 전체 대역에 해당하는 오디오 신호가 음성 신호 인코더(630)에서 디코딩된 이후에HBE 디코딩 파트(HBE decoding Part)(635)(또는 PSDD 디코딩 파트(PSDD decoding part))에서 HBE 방식 또는 PSDD 방식에 의해 디코딩된다는 점에서 차이가 있다. HBE 디코딩 파트(HBE decoding part)(635)는 앞서 설명한 바와 같이 HBE 정보를 이용하여 저주파의 여기 신호를 쉐이핑함으로써 고주파 신호를 생성한다. 한편 PSDD 디코딩 파트(PSDD decoding part)(635)는 카피 밴드(copy band)의 정보 및 PSDD 정보를 이용하여 타깃 밴드(target band)를 복원한다. 음성 신호 디코더(635)는 HBE 방식 또 는 PSDD 방식에 의해 인코딩된 결과를 음성 신호 방식으로 디코딩한다. 물론 음성 신호 인코더(635)는 제1 예와 마찬가지로 LPC 디코딩 파트(224a-1, 224b-1, 224c-1)를 더 포함할 수 있다.12 is a decoding to which the
본 발명에 따른 오디오 신호 처리 장치는 다양한 제품에 포함되어 이용될 수 있다. 이러한 제품은 크게 스탠드 얼론(stand alone) 군과 포터블(portable) 군으로 나뉠 수 있는데, 스탠드 얼론군은 티비, 모니터, 셋탑 박스 등을 포함할 수 있고, 포터블군은 PMP, 휴대폰, 네비게이션 등을 포함할 수 있다.The audio signal processing apparatus according to the present invention can be included and used in various products. These products can be broadly divided into stand alone and portable groups, which can include TVs, monitors and set-top boxes, and portable groups include PMPs, mobile phones, and navigation. can do.
도 13은 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계를 보여주는 도면이다. 우선 도 13를 참조하면, 유무선 통신부(710)는 유무선 통신 방식을 통해서 비트스트림을 수신한다. 구체적으로 유무선 통신부(710)는 유선통신부(710A), 적외선통신부(710B), 블루투스부(710C), 무선랜통신부(710D) 중 하나 이상을 포함할 수 있다.FIG. 13 is a diagram illustrating a relationship between products in which an audio signal processing device according to an embodiment of the present invention is implemented. First, referring to FIG. 13, the wired /
사용자 인증부는(720)는 사용자 정보를 입력 받아서 사용자 인증을 수행하는 것으로서 지문인식부(720A), 홍채인식부(720B), 얼굴인식부(720C), 및 음성인식부(720D) 중 하나 이상을 포함할 수 있는데, 각각 지문, 홍채정보, 얼굴 윤곽 정보, 음성 정보를 입력받아서, 사용자 정보로 변환하고, 사용자 정보 및 기존 등록되어 있는 사용자 데이터와의 일치여부를 판단하여 사용자 인증을 수행할 수 있다. The user authentication unit 720 receives user information and performs user authentication, and includes one or more of a fingerprint recognition unit 720A, an iris recognition unit 720B, a face recognition unit 720C, and a voice recognition unit 720D. The fingerprint, iris information, facial contour information, and voice information may be input, converted into user information, and the user authentication may be performed by determining whether the user information matches the existing registered user data. .
입력부(730)는 사용자가 여러 종류의 명령을 입력하기 위한 입력장치로서, 키패드부(730A), 터치패드부(730B), 리모컨부(730C) 중 하나 이상을 포함할 수 있지만, 본 발명은 이에 한정되지 아니한다. The
신호 코딩 유닛(740)는 유무선 통신부(710)를 통해 수신된 오디오 신호 및/또는 비디오 신호에 대해서 인코딩 또는 디코딩을 수행하고, 시간 도메인의 오디오 신호를 출력한다. 오디오 신호 처리 장치(745)를 포함하는데, 이는 앞서 설명한 본 발명의 일 실시예에 해당하는 것으로서, 이와 같이 오디오 처리 장치(745) 및 이를 포함한 신호 코딩 유닛은 하나 이상의 프로세서에 의해 구현될 수 있다.The signal coding unit 740 encodes or decodes an audio signal and / or a video signal received through the wired /
제어부(750)는 입력장치들로부터 입력 신호를 수신하고, 신호 디코딩부(740)와 출력부(760)의 모든 프로세스를 제어한다. 출력부(760)는 신호 디코딩부(740)에 의해 생성된 출력 신호 등이 출력되는 구성요소로서, 스피커부(760A) 및 디스플레이부(760B)를 포함할 수 있다. 출력 신호가 오디오 신호일 때 출력 신호는 스피커로 출력되고, 비디오 신호일 때 출력 신호는 디스플레이를 통해 출력된다.The
도 14는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계도이다. 도 14는 도 13에서 도시된 제품에 해당하는 단말 및 서버와의 관계를 도시한 것으로서, 도 14의 (A)를 참조하면, 제1 단말(700.1) 및 제2 단말(700.2)이 각 단말들은 유무선 통신부를 통해서 데이터 내지 비트스트림을 양방향으로 통신할 수 있음을 알 수 있다. 도 14의 (B)를 참조하면, 서버(800) 및 제1 단말(700.1) 또한 서로 유무선 통신을 수행할 수 있음을 알 수 있다.14 is a relationship diagram of products in which an audio signal processing apparatus according to an embodiment of the present invention is implemented. FIG. 14 illustrates a relationship between a terminal and a server corresponding to the product illustrated in FIG. 13. Referring to FIG. 14A, the
도 15는 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치의 구성을 보여주는 도면이다. 도 15를 참조하면, 오디오 신호 처리 장치의 인코더 측(1100)은 타입 결정 유닛(1110), 제1 밴드 확장 인코딩 유닛(1120), 제2 밴드 확장 인코딩 유닛(1122), 및 멀티플렉서(1130)을 포함한다. 오디오 신호 처리 장치의 디코더 측 은(1200)은, 디멀티플렉서(1210), 제1 밴드 확장 디코딩 유닛(1220), 제2 밴드 확장 디코딩 유닛(1222)을 포함한다.15 is a block diagram of an audio signal processing apparatus according to another embodiment of the present invention. Referring to FIG. 15, the
타입 결정 유닛(1110)은 입력되는 오디오 신호를 분석하여 트랜지언트 정도(transient proportion)를 검출한다. 타입 결정 유닛(1110)은 스테이셔너리(stationary) 구간과 트랜지언트(transient) 구간을 구분하고, 그 결과를 근거로 하여, 둘 이상의 밴드 확장 방식들 중에서 현재 프레임을 위한 특정 타입의 밴드 확장 방식을 결정하고, 그 결정된 방식을 식별하기 위한 타입 정보를 생성한다. 타입 결정 유닛의 구체적인 구성은 추후 도 16과 함께 후술하고자 한다.The
제1 밴드 확장 인코딩 유닛(1120)은 제1 타입의 밴드 확장 방식에 따라서, 해당 프레임을 인코딩하고, 제2 밴드 확장 인코딩 유닛(1122)은 제2 타입의 밴드 확장 방식에 따라서, 해당 프레임을 인코딩한다. 제1 밴드 확장 인코딩 유닛(1122)은 밴드 패스 필터링(bandpass filtering), 타임 신축 처리(time stretching processing), 및 데시메이션 처리(decimation processing) 등을 수행할 수 있다. 제1 타입의 밴드 확장 방식 및 제2 타입의 밴드 확장 방식 등에 대해서도 도 16 등과 함께 구체적으로 설명하고자 한다.The first band
멀티 플렉서(1130)은 제1 및 제2 밴드 확장 인코딩 유닛(1120, 1122)에 의해 생성된 저주파 대역(lower band)의 스펙트럴 데이터, 타입 결정 유닛(1110)에 의해 생성된 타입 정보 등을 멀티플렉싱하여, 오디오 신호 비트스트림을 생성한다.디코더 측(1200)의 디멀티플렉서(1210)는 오디오 신호 비트스트림으로부터 저주파 대역의 스펙트럴 데이터 및 타입 정보 등을 추출한다. 그런 다음 디멀티플렉서(1210)는 타입 정보가 어떤 밴드 확장 방식의 타입을 나타내는지에 따라서, 현재 프레임을 제1 밴드 확장 디코딩 유닛(1220) 또는 제2 밴드 확장 디코딩 유닛(1222)로 전달한다. 제1 밴드 확장 디코딩 유닛(1220)는 제1 밴드 확장 인코딩 유닛(1120)에서 인코딩된 제1 타입의 밴드 확장 방식에 따라서 역으로 현재 프레임을 디코딩한다. 나아가 제1 밴드 확장 디코딩 유닛(1222)은 밴드 패스 필터링(bandpass filtering), 타임 신축 처리(time stretching processing), 및 데시메이션 처리(decimation processing) 등을 수행할 수 있다. 마찬가지로, 제2 밴드 확장 디코딩 유닛(1222)은 제2 타입의 밴드 확장 방식에 따라서 현재 프레임을 디코딩함으로써, 저주파 대역의 스펙트럴 데이터를 이용하여 고주파 대역의 스펙트럴 데이터를 생성한다.The
도 16은 도 15에서의 타입 결정 유닛(1110)의 세부 구성을 보여주는 도면이다. 타입 결정 유닛(1110)은 트랜지언트 검출 파트(1112) 및 타입 정보 생성 파트(1114)를 포함하고, 코딩 스킴 결정 파트(1140)와 연계되어 있다.FIG. 16 is a diagram illustrating a detailed configuration of the
트랜지언트 검출 파트(1112)는 입력된 오디오 신호의 에너지를 분석하여, 스테이셔너리 구간과 트랜지언트 구간을 구분한다. 스테이셔너리 구간은 오디오 신호의 에너지가 평탄한 구간이고, 트랜지언트 구간은 오디오 신호의 에너지가 급격히 변화하는 구간일 수 있다. 트랜지언트 구간은 에너지가 급격하게 변화하는 구간이기 때문에, 청자는 밴드 확장 방식의 타입이 변화함에 따라 발생하는 아티팩트(artifact)를 인식하기가 쉽지 않다. 반면에 스테이셔너리 구간은 사운드가 잔잔하게 흐르는 구간이기 때문에, 이러한 구간에서 밴드 확장 방식의 타입이 바뀌게 되면 갑자기 아주 순간적으로 사운드가 중단되는 듯한 느낌이 들 수 있다. 따라서, 밴드 확장 방식의 타입을 제1 타입에서 제2 타입으로 변화시킬 필요가 있을 때, 이러한 스테이셔너리한 구간이 아닌 트랜지언트 구간에서 그 타입을 바꾸면, 마치 심리 음향 모델에 따른 마스킹 효과와 같이 타입 변화에 따른 artifact를 숨길 수 있다.The
이와 같이 타입 정보 생성 파트(1114)는 현재 프레임에 대해, 둘 이상의 밴드 확장 방식 중 특정 타입의 밴드 확장 방식을 결정하고, 그 결정된 밴드 확장 방식을 나타내는 타입 정보를 생성한다. 둘 이상의 밴드 확장 방식에 대해서는 추후 도 18과 함께 후술하고자 한다.As described above, the type
특정의 밴드 확장 방식을 결정하기 위해서, 우선 코딩 스킴 결정 파트(1140)로부터 수신한 코딩 스킴을 참조하여 임시로 밴드 확장 방식의 타입을 결정하고, 트랜지언트 검출 파트(1112)로부터 수신한 정보를 참조하여, 밴드 확장 방식의 타입을 확정적으로 결정한다. 이하 도 17과 함께 이에 대해 구체적으로 설명하고자 한다.In order to determine a specific band extension scheme, first, the type of the band extension scheme is temporarily determined with reference to the coding scheme received from the coding
도 17은 밴드 확장 방식의 타입을 결정하는 과정을 설명하기 위한 도면이다. 도 17을 참조하면, 우선 시간축에 따라서 여러 개의 프레임(fi, fn, ft)이 존재한다. 각 프레임별로 주파수 도메인 기반의 오디오 코딩 방식(coding scheme 1)과 시간 도메인 기반의 스피치 코딩 방식(coding scheme 2)이 정해질 수 있다. 즉, 이 코딩 스킴에 따라서 그 코딩 스킴에 적합한 밴드 확장 방식의 타입이 임시적으로 정해질 수 있다. 예를 들어, 오디오 코딩 방식(coding scheme 1)에 해당하는 프레 임(fi ~ fn -2)에 대해서는 제1 타입의 밴드 확장 방식이, 스피치 코딩 방식(coding scheme 2)에 해당하는 프레임(fn -1 ~ ft)에 대해서는 제1 타입의 밴드 확장 방식이 임시로 정해질 수 있는 것이다. 그런 다음, 오디오 신호가 스테이셔너리한 구간인지 아니면 트랜지언트한 구간인지를 참조하여, 임시로 결정된 타입을 보정함으로써 최종적으로 밴드 확장 방식의 타입을 확정한다. 예를 들어, 도 17에 나타난 바와 같이 임시로 결정된 밴드 확장 방식의 타입이 fn -2 프레임에서 fn -1 프레임 경계에서 변하도록 할 경우 fn -2 프레임 및 fn -1 프레임은 스테이셔너리한 구간이기 때문에 밴드 확장 방식의 타입의 변화에 따른 아티팩트(artifact)가 감춰지지 않는다. 따라서, 밴드 확장 방식의 변화가 트랜지언트한 구간(fn, fn +1)에서 이루어지도록 임시로 결정된 밴드 확장 방식의 타입을 보정하는 것이다. 다시 말해서, fn -1 프레임 및 fn 프레임에서는 스테이셔너리한 구간이므로 밴드 확장 방식의 타입은 기존대로 제1 타입으로 유지하다가, fn +1 프레임부터 제2 타입의 밴드 확장 방식을 적용하는 것이다. 요컨대 임시로 결정된 타입은 fn -1 프레임 및 fn 프레임 이외에서는 유지되고, 상기 프레임에 대해서만 최종 단계에서 수정되었다.17 is a diagram for describing a process of determining a type of a band extension method. Referring to FIG. 17, there are several frames f i , f n , and f t along the time axis. A frequency domain based audio coding scheme (coding scheme 1) and a time domain based speech coding scheme (coding scheme 2) may be determined for each frame. That is, according to this coding scheme, a type of band extension scheme suitable for the coding scheme can be temporarily determined. For example, with respect to the frames f i to f n -2 corresponding to the
도 18은 여러 가지 타입의 밴드 확장 방식을 설명하기 위한 도면이다. 여기서 설명될 제1 타입의 밴드 확장 방식은 앞서 도 15와 함께 설명된, 제1 밴드 확장 방식에 해당되고, 여기서 설명될 제2 타입에 밴드 확장 방식은 도 15와 함께 설명된 제2 밴드 확장 방식에 해당될 수 있다. 이와는 반대로, 여기서 설명될 제1 타입 의 밴드 확장 방식은 앞서 도 15와 함께 설명된 제2 밴드 확장 방식에 해당되고, 여기서 설명된 제2 타입의 밴드 확장 방식은 앞서 도 15와 함께 설명된 제1 밴드 확장 방식에 해당할 수도 있다.18 is a diagram for describing various types of band extension methods. The band extension scheme of the first type to be described herein corresponds to the first band extension scheme described with reference to FIG. 15, and the band extension scheme to the second type to be described herein is the second band extension scheme described with reference to FIG. 15. It may correspond to. On the contrary, the first type of band extension scheme to be described herein corresponds to the second band extension scheme described above with reference to FIG. 15, and the second type of band extension scheme described above is described with reference to FIG. 15. It may correspond to a band extension method.
앞서 설명한 바와 같이 밴드 확장 방식은 협대역의 스펙트럴 데이터를 이용하여 광대역의 스펙트럴 데이터를 생성하는데, 이때 협대역은 저주파 대역(lower band)에 해당할 수 있고, 새로 생성되는 밴드는 고주파 대역(higher band)에 해당할 수 있다. 우선 도 18의 (A)을 참조하면, 제1 타입의 밴드 확장 방식의 일 예가 도시되어 있다. 제1 밴드 확장 방식은 협대역(또는 저주파 대역)의 제1 데이터 영역을 카피 밴드(copy band)로 하여 고주파 대역을 복원한다. 여기서 제1 데이터 영역은, 수신된 협대역의 전부일수도 있고, 복수 개의 포션일 수 있는데, 여기서 하나의 포션은 아래 설명될 제2 데이터 영역에 해당할 수 있고, 제1 데이터 영역은 제2 데이터 영역보다 클 수 있다.As described above, the band extension method generates wide-spectrum spectral data using narrow-band spectral data, where the narrow-band may correspond to a low frequency band, and the newly generated band may be a high frequency band ( higher band). First, referring to FIG. 18A, an example of the first type of band extension method is illustrated. The first band extension scheme restores a high frequency band by using a narrow band (or low frequency band) first data area as a copy band. Here, the first data region may be all of the received narrowband or may be a plurality of portions, where one portion may correspond to the second data region to be described below, and the first data region is the second data region. Can be greater than
반면, 도 18의 (B)-1 및 (B)-2를 참조하면, 제2 대역 확장 방식의 제1 예(type 2-1) 및 제2 예(type 2-2)가 도시되어 있다. 제2 타입의 대역 확장 방식은 제2 데이터 영역을 카피 밴드(copy band)로 이용하여 고주파 대역의 복원에 사용한다. 여기서 제2 데이터 영역은, 수신된 협대역의 포션(portion)일 수 있고, 상기 제1 데이터 영역보다 작은 대역일 수 있다. 한편,제2 타입 중 제1 예의 경우 고주파 대역을 생성하는 데 사용되는 카피 밴드(cb)들이 연속되어 있고, 제2 타입 중 제2 예의 경우, 카피 밴드들이 연속되어 있지 않고 이산적으로(discrete) 분포되어 있다.18 (B) -1 and (B) -2, a first example (type 2-1) and a second example (type 2-2) of the second band extension scheme are shown. In the second type of band extension, a second data area is used as a copy band to restore the high frequency band. Here, the second data area may be a portion of the received narrow band and may be a smaller band than the first data area. Meanwhile, in the case of the first example of the second type, the copy bands cb used to generate the high frequency band are continuous, and in the case of the second example of the second type, the copy bands are not continuous and discrete. It is distributed.
도 19는 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 인코딩 장치의 구성을 보여주는 도면이다. 도 19를 참조하면, 오디오 신호 인코딩 장치(1300)는 복수채널 인코더(1305), 타입 결정 유닛 (1310), 제1 밴드 확장 인코딩 유닛(1320), 제2 밴드 확장 디코딩 유닛(1322), 오디오 신호 인코더(1330), 음성 신호 인코더(1340) 및 멀티플렉서(1350)을 포함한다. 여기서 타입 결정 유닛(1310), 제1 밴드 확장 인코딩 유닛(1320), 및 제2 밴드 확장 인코딩 유닛(1322)은 도 15와 함께 설명된 동일 명칭의 구성요소(1110, 1120, 1122)의 기능과 동일할 수 있다.19 is a diagram illustrating a configuration of an audio signal encoding apparatus to which an audio signal processing apparatus according to another embodiment of the present invention is applied. Referring to FIG. 19, an audio
복수채널 인코더(1305)는 복수의 채널 신호(둘 이상의 채널 신호)(이하, 멀티채널 신호)를 입력받아서, 다운믹스를 수행함으로써 모노 또는 스테레오의 다운믹스 신호를 생성하고, 다운믹스 신호를 멀티채널 신호로 업믹스하기 위해 필요한 공간 정보를 생성한다. 여기서 공간 정보(spatial information)는, 채널 레벨 차이 정보, 채널간 상관정보, 채널 예측 계수, 및 다운믹스 게인 정보 등을 포함할 수 있다. 만약, 오디오 신호 인코딩 장치(1300)가 모노 신호를 수신할 경우, 복수 채널 인코더(1305)는 모노 신호에 대해서 다운믹스하지 않고 바이패스할 수도 있음은 물론이다.The
타입 결정 유닛(1310)은 현재 프레임에 적용할 밴드 확장 방식의 타입을 결정하여 그 타입을 지시하는 타입 정보를 생성한다. 타입 결정 유닛(1310)은 현재 프레임에 제1 밴드 확장 방식을 적용할 경우, 제1 밴드 확장 인코딩 유닛(1320)으로 오디오 신호를 전달하고, 제2 밴드 확장 방식을 적용할 경우, 제2 밴드 확장 인 코딩 유닛(1322)으로 오디오 신호를 전달한다. 제1 밴드 확장 인코딩 유닛(1320) 및 제2 밴드 확장 인코딩 유닛(1322)은 각각의 타입에 따른 밴드 확장 방식을 적용함으로써, 저주파 대역을 이용하여 고주파 대역을 복원하기 위한 밴드 확장 정보를 생성한다. 그런 다음, 밴드 확장 방식으로 인코딩된 신호는 밴드 확장 방식의 타입과 무관하게, 신호의 특성에 따라 오디오 신호 인코더(1330) 또는 음성 신호 인코더(134)에 의해 인코딩된다. 신호의 특성에 따른 코딩 스킴 정보는 도 16과 함께 앞서 설명한 코딩 스킴 결정 파트(1140)에 의해 생성된 정보일 수 있는데, 이 정보 또한 다른 정보와 마찬가지로 멀티플렉서(1350)에 전달될 수 있다.The
오디오 신호 인코더(1330)는 다운믹스 신호의 특정 프레임 또는 특정 세그먼트가 큰 오디오 특성을 갖는 경우, 오디오 코딩 방식(audio coding scheme)에 따라 다운믹스 신호를 인코딩한다. 여기서 오디오 코딩 방식은 AAC (Advanced Audio Coding) 표준 또는 HE-AAC (High Efficiency Advanced Audio Coding) 표준에 따른 것일 수 있으나, 본 발명은 이에 한정되지 아니한다. 한편, 오디오 신호 인코더(1340)는, MDCT(Modified Discrete Transform) 인코더에 해당할 수 있다. The
음성 신호 인코더(1340)는 다운믹스 신호의 특정 프레임 또는 특정 세그먼트가 큰 음성 특성을 갖는 경우, 음성 코딩 방식(speech coding scheme)에 따라서 다운믹스 신호를 인코딩한다. 여기서 음성 코딩 방식은 AMR-WB(Adaptive multi-rate Wide-Band) 표준에 따른 것일 수 있으나, 본 발명은 이에 한정되지 아니한다. 한편, 음성 신호 인코더(1350)는 선형 예측 부호화(LPC: Linear Prediction Coding) 인코딩 파트를 더 포함할 수 있다. 하모닉 신호가 시간축 상에서 높은 중복성을 가 지는 경우, 과거 신호로부터 현재 신호를 예측하는 선형 예측에 의해 모델링될 수 있는데, 이 경우 선형 예측 부호화 방식을 채택하면 부호화 효율을 높을 수 있다. 한편, 음성 신호 인코더(1340)는 타임 도메인 인코더에 해당할 수 있다.The
멀티플렉서(1350)는 공간정보, 코딩 스킴 정보, 대역확장 정보 및 스펙트럴 데이터 등을 다중화하여 오디오 신호 비트스트림을 생성한다.The
도 20은 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 디코딩 장치의 구성을 보여주는 도면이다. 도 20을 참조하면, 오디오 신호 디코딩 장치(1400)는 디멀티플렉서(1410), 오디오 신호 디코더(1420), 음성 신호 디코더(1430), 제1 밴드 확장 디코딩 유닛(1440), 제2 밴드 확장 디코딩 유닛(1442), 및 복수채널 디코더(1450)를 포함한다. 20 is a diagram illustrating a configuration of an audio signal decoding apparatus to which an audio signal processing apparatus according to another embodiment of the present invention is applied. Referring to FIG. 20, the audio
디멀티플렉서(1410)는 오디오신호 비트스트림으로부터 스펙트럴 데이터, 코딩 스킴 정보, 타입 정보, 대역확장 정보, 공간정보 등을 추출한다. 코딩 스킴 정보에 따라서 현재 프레임에 해당하는 오디오 신호를 오디오 신호 디코더(1420) 또는 음성 신호 디코더(1430)로 전달한다. The
오디오 신호 디코더(1420)는, 다운믹스 신호에 해당하는 스펙트럴 데이터가 오디오 특성이 큰 경우, 오디오 코딩 방식으로 스펙트럴 데이터를 디코딩한다. 여기서 오디오 코딩 방식은 앞서 설명한 바와 같이, AAC 표준, HE-AAC 표준에 따를 수 있다. 한편 오디오 신호 디코더(1420)는 역양자화부(미도시), 역변환부(미도시)를 포함할 수 있다. 따라서 오디오 신호 디코더(1420)는 비트스트림을 통해 전송된 스펙트럴 데이터 및 스케일 팩터에 대해 역양자화 및 역변환을 수행할 수 있다.When the spectral data corresponding to the downmix signal has a large audio characteristic, the
음성 신호 디코더(1430)는 상기 스펙트럴 데이터가 음성 특성이 큰 경우, 음성 코딩 방식으로 다운믹스 신호를 디코딩한다. 음성 코딩 방식은, 앞서 설명한 바와 같이, AMR-WB(Adaptive multi-rate Wide-Band) 표준에 따를 수 있지만, 본 발명은 이에 한정되지 아니한다. 음성 신호 디코더(1430)는 LPC 디코딩 파트를 포함할 수 있다.The
그리고 앞서 설명한 바와 같이, 둘 이상의 밴드 확장 방식들 중 특정한 확장 정보를 지시하는 타입 정보에 따라서, 오디오 신호는 제1 밴드 확장 디코딩 유닛(1440) 또는 제2 밴드 확장 디코딩 유닛(1442)로 전달된다. 제1 / 제2 밴드 확장 디코딩 유닛(1440, 1442)은 해당 타입의 대역 확장 방식에 따라서, 협대역의 스펙트럴 데이터 중 일부 또는 전부를 이용하여 광대역의 스펙트럴 데이터를 복원한다.As described above, the audio signal is transmitted to the first band
복수채널 디코더(1450)은 디코딩된 오디오 신호가 다운믹스인 경우, 공간정보를 이용하여 멀티채널 신호(스테레오 신호 포함)의 출력 채널 신호를 생성한다.When the decoded audio signal is downmixed, the
본 발명에 따른 오디오 신호 처리 장치는 다양한 제품에 포함되어 이용될 수 있다. 이러한 제품은 크게 스탠드 얼론(stand alone) 군과 포터블(portable) 군으로 나뉠 수 있는데, 스탠드 얼론군은 티비, 모니터, 셋탑 박스 등을 포함할 수 있고, 포터블군은 PMP, 휴대폰, 네비게이션 등을 포함할 수 있다.The audio signal processing apparatus according to the present invention can be included and used in various products. These products can be broadly divided into stand alone and portable groups, which can include TVs, monitors and set-top boxes, and portable groups include PMPs, mobile phones, and navigation. can do.
도 21은 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치가 구현된 제품의 개략적인 구성을 보여주는 도면이고, 도 22는 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계도이다. 우선, 도 21을 참조하면, 통신부(1510), 사용자 인증부(1520), 입력부(1530), 신호 코딩 유닛(1540), 제어 부(1550), 및 출력부(1560)을 포함하는데, 신호 코딩 유닛(1540)을 제외한 각 구성요소는, 앞서 도 12와 함께 설명된 동일 명칭의 구성요소와 동일한 기능을 수행한다. 한편 신호 코딩 유닛(1540)는 유무선 통신부(1510)를 통해 수신된 오디오 신호 및/또는 비디오 신호에 대해서 인코딩 또는 디코딩을 수행하고, 시간 도메인의 오디오 신호를 출력한다. 신호 코딩 유닛은 오디오 신호 처리 장치(1545)를 포함하는데, 이는 앞서 도 15 내지 도 20과 함께 설명한 본 발명의 다른 실시예에 해당하는 것으로서, 이와 같이 오디오 처리 장치(1545) 및 이를 포함한 신호 코딩 유닛은 하나 이상의 프로세서에 의해 구현될 수 있다.FIG. 21 is a view illustrating a schematic configuration of a product in which an audio signal processing device is implemented according to another embodiment of the present invention, and FIG. 22 is a relation diagram of products in which the audio signal processing device according to another embodiment of the present invention is implemented. to be. First, referring to FIG. 21, a
도 22는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계도이다. 도 22는 도 21에서 도시된 제품에 해당하는 단말 및 서버와의 관계를 도시한 것으로서, 도 22의 (A)를 참조하면, 제1 단말(1500.1) 및 제2 단말(1500.2)이 각 단말들은 유무선 통신부를 통해서 데이터 내지 비트스트림을 양방향으로 통신할 수 있음을 알 수 있다. 도 22의 (B)를 참조하면, 서버(1600) 및 제1 단말(1500.1) 또한 서로 유무선 통신을 수행할 수 있음을 알 수 있다.22 is a relationship diagram of products in which an audio signal processing device according to an embodiment of the present invention is implemented. FIG. 22 illustrates a relationship between a terminal and a server corresponding to the product illustrated in FIG. 21. Referring to FIG. 22A, the first terminal 1500.1 and the second terminal 1500.2 may be referred to as the respective terminals. It can be seen that the data to the bitstream can be bidirectionally communicated through the wired / wireless communication unit. Referring to FIG. 22B, it can be seen that the server 1600 and the first terminal 1500.1 may also perform wired or wireless communication with each other.
본 발명에 따른 오디오 신호 처리 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디 스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무선 통신망을 이용해 전송될 수 있다.The audio signal processing method according to the present invention can be stored in a computer-readable recording medium which is produced as a program for execution in a computer, and multimedia data having a data structure according to the present invention can also be stored in a computer-readable recording medium. Can be stored. The computer readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, which are also implemented in the form of a carrier wave (for example, transmission over the Internet). It also includes. In addition, the bit stream generated by the encoding method may be stored in a computer-readable recording medium or transmitted using a wired / wireless communication network.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다. As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is intended by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.
본 발명은 오디오 신호를 인코딩하고 디코딩하는 데 적용될 수 있다.The present invention can be applied to encoding and decoding audio signals.
도 1은 본 발명의 일 실시예에 따른 오디오 신호 처리 장치의 구성도.1 is a block diagram of an audio signal processing apparatus according to an embodiment of the present invention.
도 2는 도 1에서의 치찰음 검출 유닛(sibilant detecting unit)의 세부 구성도.FIG. 2 is a detailed configuration diagram of the sibilant detecting unit in FIG. 1. FIG.
도 3의 치찰음 검출의 원리를 설명하기 위한 도면.A diagram for explaining the principle of hissing sound detection in FIG. 3.
도 4는 비 치찰음(non-sibilant)의 경우와 치찰음(sibilant)의 경우의 에너지 스펙트럼의 일 예.4 is an example of energy spectra in the case of non-sibilant and in case of sibilant.
도 5는 도 1에서의 제2 인코딩 유닛(second encoding unit) 및 제2 디코딩 유닛(second decoding unit)의 세부 구성도의 예들.5 is an example of a detailed configuration diagram of a second encoding unit and a second decoding unit in FIG. 1.
도 6은 비 치찰음 인코딩/디코딩 방식의 일 예인 PSDD(Partial Spectral Data Duplication) 방식의 제1 실시예 내지 제2 실시예를 설명하기 위한 도면.FIG. 6 is a diagram for explaining first to second embodiments of a partial spectral data duplication (PSDD) scheme, which is an example of a non-sibilant encoding / decoding scheme; FIG.
도 7 및 도 8는 PSDD 방식에서 프레임의 길이가 서로 다른 경우의 방식을 설명하기 위한 도면.7 and 8 are diagrams for explaining the method when the length of the frame is different from each other in the PSDD method.
도 9은 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 인코딩 장치의 제1 예.9 is a first example of an audio signal encoding apparatus to which an audio signal processing apparatus according to an embodiment of the present invention is applied.
도 10은 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 인코딩 장치의 제2 예.10 is a second example of an audio signal encoding apparatus to which an audio signal processing apparatus according to an embodiment of the present invention is applied.
도 11는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 디코딩 장치의 제1 예.11 is a first example of an audio signal decoding apparatus to which an audio signal processing apparatus according to an embodiment of the present invention is applied.
도 12은 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 적용된 오디 오 신호 디코딩 장치의 제2 예.12 is a second example of an audio signal decoding apparatus to which an audio signal processing apparatus according to an embodiment of the present invention is applied.
도 13는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품의 개략적인 구성도. FIG. 13 is a schematic structural diagram of a product implemented with an audio signal processing device according to an embodiment of the present invention; FIG.
도 14는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계도. 14 is a relationship diagram of products in which an audio signal processing apparatus according to an embodiment of the present invention is implemented.
도 15는 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치의 구성도.15 is a block diagram of an audio signal processing apparatus according to another embodiment of the present invention.
도 16은 도 15에서의 타입 결정 유닛(1110)의 세부 구성도.16 is a detailed configuration diagram of a
도 17은 밴드 확장 방식의 타입을 결정하는 과정을 설명하기 위한 도면.17 is a diagram for explaining a process of determining a type of a band extension method.
도 18은 여러 가지 타입의 밴드 확장 방식을 설명하기 위한 도면이다.18 is a diagram for describing various types of band extension methods.
도 19는 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 인코딩 장치의 구성도.19 is a block diagram of an audio signal encoding apparatus to which an audio signal processing apparatus according to another embodiment of the present invention is applied.
도 20은 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치가 적용된 오디오 신호 디코딩 장치의 구성도.20 is a block diagram of an audio signal decoding apparatus to which an audio signal processing apparatus according to another embodiment of the present invention is applied.
도 21은 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치가 구현된 제품의 개략적인 구성도. 21 is a schematic structural diagram of a product implemented with an audio signal processing device according to another embodiment of the present invention;
도 22는 본 발명의 다른 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계도.FIG. 22 is a relational view of products in which an audio signal processing device according to another embodiment of the present invention is implemented. FIG.
Claims (19)
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2009/005499 WO2010036061A2 (en) | 2008-09-25 | 2009-09-25 | An apparatus for processing an audio signal and method thereof |
EP09012221.9A EP2169670B1 (en) | 2008-09-25 | 2009-09-25 | An apparatus for processing an audio signal and method thereof |
EP10005705.8A EP2224433B1 (en) | 2008-09-25 | 2009-09-25 | An apparatus for processing an audio signal and method thereof |
US12/567,559 US8831958B2 (en) | 2008-09-25 | 2009-09-25 | Method and an apparatus for a bandwidth extension using different schemes |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10026308P | 2008-09-25 | 2008-09-25 | |
US61/100,263 | 2008-09-25 | ||
US11864708P | 2008-11-30 | 2008-11-30 | |
US61/118,647 | 2008-11-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100035128A KR20100035128A (en) | 2010-04-02 |
KR101108955B1 true KR101108955B1 (en) | 2012-02-06 |
Family
ID=42213077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090090705A KR101108955B1 (en) | 2008-09-25 | 2009-09-24 | A method and an apparatus for processing an audio signal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101108955B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107112979B (en) * | 2014-12-03 | 2020-11-06 | 瑞内特有限公司 | Non-linear filter with group delay at the front response frequency of high-resolution audio |
US11579838B2 (en) | 2020-11-26 | 2023-02-14 | Verses, Inc. | Method for playing audio source using user interaction and a music application using the same |
KR102331274B1 (en) * | 2020-11-26 | 2021-12-01 | 주식회사 버시스 | A method for playing audio source using user interaction and a music application using the same |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100566630B1 (en) * | 2000-12-22 | 2006-03-31 | 코딩 테크놀러지스 에이비 | Enhancing source coding systems by adaptive transposition |
-
2009
- 2009-09-24 KR KR1020090090705A patent/KR101108955B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100566630B1 (en) * | 2000-12-22 | 2006-03-31 | 코딩 테크놀러지스 에이비 | Enhancing source coding systems by adaptive transposition |
Also Published As
Publication number | Publication date |
---|---|
KR20100035128A (en) | 2010-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2169670B1 (en) | An apparatus for processing an audio signal and method thereof | |
US20240347067A1 (en) | Post-processor, pre-processor, audio encoder, audio decoder and related methods for enhancing transient processing | |
JP6517723B2 (en) | Compression and decompression apparatus and method for reducing quantization noise using advanced spectrum extension | |
JP5485909B2 (en) | Audio signal processing method and apparatus | |
JP5108960B2 (en) | Audio signal processing method and apparatus | |
US8504377B2 (en) | Method and an apparatus for processing a signal using length-adjusted window | |
CN112786063B (en) | Audio encoder and decoder | |
CN107077858B (en) | Audio encoder and decoder using frequency domain processor with full bandgap padding and time domain processor | |
KR101792712B1 (en) | Low-frequency emphasis for lpc-based coding in frequency domain | |
RU2656681C1 (en) | Method and device for determining the coding mode, the method and device for coding of audio signals and the method and device for decoding of audio signals | |
EP3069337B1 (en) | Method and apparatus for encoding an audio signal | |
KR101108955B1 (en) | A method and an apparatus for processing an audio signal | |
WO2010035972A2 (en) | An apparatus for processing an audio signal and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141224 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151224 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161214 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20171214 Year of fee payment: 7 |