JP4973287B2 - Sound processing apparatus and program - Google Patents
Sound processing apparatus and program Download PDFInfo
- Publication number
- JP4973287B2 JP4973287B2 JP2007100756A JP2007100756A JP4973287B2 JP 4973287 B2 JP4973287 B2 JP 4973287B2 JP 2007100756 A JP2007100756 A JP 2007100756A JP 2007100756 A JP2007100756 A JP 2007100756A JP 4973287 B2 JP4973287 B2 JP 4973287B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- frame
- frequency
- frequencies
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、所期の音源から到来した音響(以下「目的音」という)と目的音以外の音響(以下「妨害音」という)との混合音から時間軸上における目的音の区間を検出する技術に関する。 The present invention detects a section of a target sound on the time axis from a mixed sound of sound coming from an intended sound source (hereinafter referred to as “target sound”) and sound other than the target sound (hereinafter referred to as “interfering sound”). Regarding technology.
音声と雑音との混合音から時間軸上における音声の区間を検出する技術が従来から提案されている。例えば特許文献1には、入力音声の周波数スペクトルの形状(平坦性)に基づいて音声と雑音とを区別する技術が開示されている。また、特許文献2には、入力音声のピッチ(零交差数)に応じて音声と雑音とを区別する技術が開示されている。
特許文献1や特許文献2の技術においては音声と雑音との音響的な特徴の相違に基づいて両者が区別される。したがって、目的音として検出すべき音声に他の音声が混合されている場合には、目的音の区間に加えて目的音以外の音声の区間も検出される。すなわち、目的音の区間のみを高精度に検出することができないという問題がある。以上の事情に鑑みて、本発明は、目的音以外の音声が存在する場合であっても目的音の区間を高精度に検出するという課題の解決をひとつの目的としている。
In the techniques of
以上の課題を解決するために、本発明のひとつの態様に係る音処理装置は、第1収音器が生成した音信号の各フレームと第1収音器から離間した第2収音器が生成した音信号の各フレームとで複数の周波数の各々における成分値を対比することで、各フレームの複数の周波数を、目的音が優勢な優勢周波数と目的音が劣勢な劣勢周波数とに選別する選別手段と、複数のフレームの各々について、選別手段が当該フレームについて選別した優勢周波数の個数(例えば図3や図7の個数Ns)と劣勢周波数の個数(例えば図3や図7の個数Ni)とに基づいて、当該フレームが目的音区間内のフレームか目的音区間外のフレームかを判定する区間検出手段とを具備する。 In order to solve the above-described problems, a sound processing apparatus according to one aspect of the present invention includes each frame of a sound signal generated by a first sound collector and a second sound collector spaced from the first sound collector. By comparing the component values at each of a plurality of frequencies with each frame of the generated sound signal, the plurality of frequencies of each frame are sorted into a dominant frequency where the target sound is dominant and an inferior frequency where the target sound is inferior. and selection means, for each of a plurality of frames, the number of dominant frequency selection means has selected for that frame (e.g., FIG. 3 and the number Ns of FIG. 7) and inferior number of frequencies (e.g., the number Ni of FIG. 3 and FIG. 7) based on the bets, the frame is provided with a section detecting means for determining whether the frame outer frame or target sound period in the target sound section.
以上の構成においては、第1収音器が生成した音信号と第2収音器が生成した音信号とをフレームごとに対比することで選別された優勢周波数の個数と劣勢周波数の個数とに基づいて目的音の区間が検出されるから、妨害音が環境音などの雑音である場合はもちろん人間の音声である場合にも、目的音区間を高精度に検出することが可能である。なお、目的音は人間の音声に限定されない。また、第1収音器および第2収音器の特性(指向性)は本発明において不問であるが、無指向性または略無指向性のマイクロホンが特に好適である。 In the above configuration, the number of dominant frequencies and the number of inferior frequencies selected by comparing the sound signal generated by the first sound collector and the sound signal generated by the second sound collector for each frame are obtained. Since the target sound section is detected based on the target sound section, it is possible to detect the target sound section with high accuracy even when the interfering sound is a noise such as an environmental sound or a human voice. The target sound is not limited to human voice. Further, the characteristics (directivity) of the first sound collector and the second sound collector are not required in the present invention, but an omnidirectional or substantially omnidirectional microphone is particularly suitable.
本発明の好適な態様において、区間検出手段は、優勢周波数の個数から劣勢周波数の個数を減算した数値が閾値を上回るフレームを目的音の区間内のフレームと判定する。本態様によれば、優勢周波数の個数と劣勢周波数の個数との差分値に基づいて目的音の区間が検出されるから、目的音の区間を検出するための処理量を軽減することが可能である。 In a preferred aspect of the present invention, the section detection means determines that a frame in which a numerical value obtained by subtracting the number of inferior frequencies from the number of dominant frequencies exceeds a threshold is a frame in the section of the target sound. According to this aspect, since the target sound section is detected based on the difference value between the number of dominant frequencies and the number of inferior frequencies, it is possible to reduce the amount of processing for detecting the target sound section. is there.
本発明の好適な態様に係る音処理装置は、複数の周波数の各々における優勢周波数および劣勢周波数の一方から他方への時間軸上における変化を平滑化する平滑化手段(例えば図7のステップSB4)と、平滑化手段による平滑化で優勢周波数から劣勢周波数に変化した周波数の個数に応じた第1変化数(例えば図7の変化数Ms_i)と、平滑化で劣勢周波数から優勢周波数に変化した周波数の個数に応じた第2変化数(例えば図7の変化数Mi_s)とを計数する計数手段(例えば図7のステップSB5〜SB8)とを具備し、区間検出手段は、劣勢周波数の個数に対する第2変化数の比である第1相対比(例えば図7の相対比R1)と優勢周波数の個数に対する第1変化数の比である第2相対比(例えば図7の相対比R2)とに基づいて目的音の区間を検出する。本態様によれば、平滑化手段による平滑化によって優勢周波数および劣勢周波数の一方から他方に変化した周波数の個数に基づいて目的音の区間が検出されるから、選別手段による誤選別を補償して高精度に目的音の区間を検出することができる。 The sound processing apparatus according to a preferred aspect of the present invention is a smoothing means for smoothing a change on the time axis from one of the dominant frequency and the inferior frequency in each of the plurality of frequencies (for example, step SB4 in FIG. 7). And a first change number (for example, change number Ms_i in FIG. 7) corresponding to the number of frequencies changed from the dominant frequency to the inferior frequency by smoothing by the smoothing means, and a frequency changed from the inferior frequency to the dominant frequency by smoothing. Counting means (for example, steps SB5 to SB8 in FIG. 7) for counting a second change number (for example, the change number Mi_s in FIG. 7) corresponding to the number of the first and second intervals, Based on a first relative ratio (for example, relative ratio R1 in FIG. 7) that is a ratio of two changes and a second relative ratio (for example, relative ratio R2 in FIG. 7) that is the ratio of the first number of changes to the number of dominant frequencies. To check the target sound section. To. According to this aspect, since the section of the target sound is detected based on the number of frequencies changed from one of the dominant frequency and the inferior frequency by the smoothing by the smoothing means, the erroneous selection by the selection means is compensated. The target sound section can be detected with high accuracy.
さらに好適な態様において、区間検出手段は、第1相対比から第2相対比を減算した数値が閾値を上回るフレームを目的音の区間内のフレームと判定する。本態様によれば、第1相対比と第2相対比との差分値に基づいて目的音の区間が検出されるから、目的音の区間を検出するための処理量を軽減することが可能である。 In a further preferred aspect, the section detecting means determines that a frame in which a numerical value obtained by subtracting the second relative ratio from the first relative ratio exceeds a threshold is a frame in the target sound section. According to this aspect, since the target sound section is detected based on the difference value between the first relative ratio and the second relative ratio, it is possible to reduce the amount of processing for detecting the target sound section. is there.
本発明に係る音処理装置は、各処理に専用されるDSP(Digital Signal Processor)などのハードウェア(電子回路)によって実現されるほか、CPU(Central Processing Unit)などの汎用の演算処理装置とプログラムとの協働によっても実現される。本発明に係るプログラムは、第1収音器が生成した音信号の各フレームと第1収音器から離間した第2収音器が生成した音信号の各フレームとで複数の周波数の各々における成分値を対比することで、各フレームの複数の周波数を、目的音が優勢な優勢周波数と目的音が劣勢な劣勢周波数とに選別する選別処理と、複数のフレームの各々について、選別処理で当該フレームについて選別した優勢周波数の個数と劣勢周波数の個数とに基づいて、当該フレームが目的音区間内のフレームか目的音区間外のフレームかを判定する区間検出処理とをコンピュータに実行される。以上のプログラムによっても、本発明に係る音処理装置と同様の作用および効果が奏される。なお、本発明のプログラムは、CD−ROMなど可搬型の記録媒体に格納された形態で利用者に提供されてコンピュータにインストールされるほか、ネットワークを介した配信の形態でサーバ装置から提供されてコンピュータにインストールされる。 The sound processing apparatus according to the present invention is realized by hardware (electronic circuit) such as a DSP (Digital Signal Processor) dedicated to each processing, and a general-purpose arithmetic processing apparatus such as a CPU (Central Processing Unit) and a program. It is also realized through collaboration with. The program according to the present invention is provided for each of a plurality of frequencies in each frame of the sound signal generated by the first sound collector and each frame of the sound signal generated by the second sound collector separated from the first sound collector. by comparing the component values, a plurality of frequencies of each frame, a distinguishing processing target sound dominant dominant frequency and the target sound is sorted into the inferior recessive frequency, for each of a plurality of frames, the at sorting process based on the number of number and recessive frequency of dominant frequencies were selected for a frame, the frame is performed and the segment detection process to determine whether the frame outer frame or target sound period in the target sound section in the computer. With the above program, the same operations and effects as the sound processing apparatus according to the present invention are exhibited. The program of the present invention is provided to a user in a form stored in a portable recording medium such as a CD-ROM and installed in a computer, or provided from a server device in a form of distribution via a network. Installed on the computer.
また、目的音の区間を検出する方法としても本発明は特定される。本発明のひとつの態様に係る音処理方法においては、第1収音器が生成した音信号の各フレームと第1収音器から離間した第2収音器が生成した音信号の各フレームとで複数の周波数の各々における成分値を対比することで、各フレームの複数の周波数を、目的音が優勢な優勢周波数と目的音が劣勢な劣勢周波数とに選別し、複数のフレームの各々について、当該フレームについて選別した優勢周波数の個数と劣勢周波数の個数とに基づいて、当該フレームが目的音区間内のフレームか目的音区間外のフレームかを判定する。以上の方法によっても、本発明に係る音処理装置と同様の作用および効果が奏される。
The present invention is also specified as a method for detecting the target sound section. In the sound processing method according to one aspect of the present invention, each frame of the sound signal generated by the first sound collector and each frame of the sound signal generated by the second sound collector separated from the first sound collector; By comparing the component values in each of the plurality of frequencies, the plurality of frequencies of each frame are sorted into the dominant frequency where the target sound is dominant and the inferior frequency where the target sound is inferior, and for each of the plurality of frames, based on the number of number and recessive frequency of dominant frequencies were selected for the target frame, the frame is to determine whether the frame outer frame or target sound period in the target sound section. Also by the above method, the effect | action and effect similar to the sound processing apparatus concerning this invention are show | played.
<A:音処理装置の構成および動作>
図1は、本発明の第1実施形態に係る音処理装置の構成を示すブロック図である。音処理装置10は、目的音と妨害音とを分離するとともに時間軸上における目的音の区間を検出する装置である。図1に示すように、音処理装置10には第1収音器31と第2収音器32とが接続される。第1収音器31および第2収音器32の各々は、目的音と妨害音とが混合した周囲の音響を収音する無指向性または略無指向性のマイクロホンである。第1収音器31は音信号SAを生成し、第2収音器32は音信号SBを生成する。
<A: Configuration and operation of sound processing device>
FIG. 1 is a block diagram showing the configuration of the sound processing apparatus according to the first embodiment of the present invention. The sound processing device 10 is a device that separates a target sound and an interfering sound and detects a section of the target sound on the time axis. As shown in FIG. 1, a
第1収音器31と第2収音器32とは相互に間隔をあけて配置される。第1収音器31は、第2収音器32と比較して目的音の音源51(例えば音処理装置10を利用中の話者)に近い。第2収音器32は、第1収音器31と比較して妨害音の音源52に近い。
The
図1に示すように、音処理装置10は、周波数分析部11と選別部13と音源分離部15と区間検出部17と処理部19とを具備する。音処理装置10の各要素は、例えばCPUなどの演算処理装置がプログラムを実行することで実現されてもよいし、音声処理に専用されるDSP(Digital Signal Processor)などの電子回路によって実現されてもよい。また、以上の各要素が部分的に別個の電子回路に搭載された構成も採用される。
As shown in FIG. 1, the sound processing apparatus 10 includes a frequency analysis unit 11, a
周波数分析部11は、音信号SAのパワースペクトルPAと音信号SBのパワースペクトルPBとを特定する。さらに詳述すると、周波数分析部11は、音信号SAを区分した複数のフレームの各々について離散フーリエ変換などの周波数分析を実行することでパワースペクトルPAを特定する。周波数分析部11は、同様の方法で音信号SBについても各フレームのパワースペクトルPBを特定する。相前後する各フレームは時間軸上で部分的に重複する。 The frequency analysis unit 11 specifies the power spectrum PA of the sound signal SA and the power spectrum PB of the sound signal SB. More specifically, the frequency analysis unit 11 specifies the power spectrum PA by performing frequency analysis such as discrete Fourier transform on each of a plurality of frames into which the sound signal SA is divided. The frequency analysis unit 11 specifies the power spectrum PB of each frame for the sound signal SB in the same manner. Each successive frame partially overlaps on the time axis.
図2は、パワースペクトルPAおよびPBの模式図である。同図に示すように、パワースペクトルPAおよびPBは、各々が別個の周波数F(F1〜FK)に対応したK個の周波数ビンで表現される(Kは2以上の自然数)。パワースペクトルPAに対応したひとつの周波数ビンは、パワースペクトルPAのうち当該周波数ビンに対応した周波数(以下「対象周波数」という)Fでのパワーを含むデータである。 FIG. 2 is a schematic diagram of the power spectra PA and PB. As shown in the figure, the power spectrums PA and PB are expressed by K frequency bins corresponding to different frequencies F (F1 to FK) (K is a natural number of 2 or more). One frequency bin corresponding to the power spectrum PA is data including power at a frequency F (hereinafter referred to as “target frequency”) F corresponding to the frequency bin in the power spectrum PA.
図1の選別部13は、周波数分析部11が特定したパワースペクトルPAとPBとを対比することで、各周波数ビンに対応した総ての対象周波数Fを、目的音が優勢な周波数(以下「優勢周波数」という)fsと目的音が劣勢な周波数(以下「劣勢周波数」という)fiとに区別する。すなわち、選別部13は、図2に示すように、パワースペクトルPAおよびPBについて同じ周波数におけるパワーを総ての対象周波数F1〜FKについて比較し、パワースペクトルPAのパワーが大きい対象周波数Fを優勢周波数fsに選別するとともに、パワースペクトルPBのパワーが大きい対象周波数Fを劣勢周波数fiに選別する。そして、選別部13は、ひとつのフレームの対象周波数F1〜FKの各々が優勢周波数fsおよび劣勢周波数fiの何れに選別されたかを指定する選別データ(フラグ)Dを設定する。すなわち、選別部13は、優勢周波数fsに選別した対象周波数Fについては選別データDを「1」に設定し、劣勢周波数fiに選別した対象周波数Fについては選別データDを「0」に設定する。
1 compares the power spectra PA and PB specified by the frequency analysis unit 11 to select all target frequencies F corresponding to the respective frequency bins at frequencies (hereinafter, “the target sound is dominant). A distinction is made between f s (referred to as “dominant frequency”) and f i where the target sound is inferior (hereinafter referred to as “dominant frequency”) fi. That is, as shown in FIG. 2, the
音源分離部15は、選別部13による選別の結果に基づいて目的音と妨害音とを分離する手段である。本形態の音源分離部15は、目的音が強調されたパワースペクトルQAと妨害音が強調された(すなわち目的音が抑制された)パワースペクトルQBとをパワースペクトルPAおよびPBから生成する。さらに詳述すると、音源分離部15は、パワースペクトルPAのうち選別部13が優勢周波数fsに選別した対象周波数F(D=1)の周波数ビンを周波数軸に沿って配列することで目的音のパワースペクトルQAを生成し、パワースペクトルPBのうち選別部13が劣勢周波数fiに選別した対象周波数F(D=0)の周波数ビンを配列することで妨害音のパワースペクトルQBを生成する。パワースペクトルPAのうち劣勢周波数fiに選別された対象周波数Fの周波数ビンとパワースペクトルPBのうち優勢周波数fsに選別された対象周波数Fの周波数ビンとは破棄される。なお、音源分離部15がパワースペクトルQAおよびQBの一方のみを生成および出力する構成も採用される。
The sound
図1の区間検出部17は、時間軸上において目的音が存在する区間(以下「目的音区間」という)を選別部13による選別の結果に基づいて検出する手段である。さらに詳述すると、区間検出部17は、優勢周波数fsの個数Ns(パワースペクトルQAの周波数ビンの個数)が劣勢周波数fiの個数Ni(パワースペクトルQBの周波数ビンの個数)に対して相対的に多いフレームを目的音区間内のフレームと判定し、優勢周波数fsの個数Nsが劣勢周波数fiの個数Niに対して相対的に少ないフレームを目的音区間外のフレームと判定する。すなわち、目的音区間はフレームを単位として画定される。
The
図3は、区間検出部17による処理の内容を示すフローチャートである。選別部13がひとつのフレームについてK個の対象周波数F(F1〜FK)を優勢周波数fsと劣勢周波数fiとに区分するたびに図3の処理が実行される。図3に示すように、区間検出部17は、K個の対象周波数Fのうち選別部13が優勢周波数fsに選別した対象周波数Fの総個数(「1」に設定された選別データDの総数)Nsを計数する(ステップSA1)。また、区間検出部17は、K個の対象周波数Fのうち劣勢周波数fiに選別された対象周波数Fの総個数(「0」に設定された選別データDの総数)Niを計数する(ステップSA2)。優勢周波数fsの個数Nsと劣勢周波数fiの個数Niとの加算値は対象周波数Fの総数Kとなる(K=Ns+Ni)。
FIG. 3 is a flowchart showing the contents of processing by the
区間検出部17は、ステップSA1にて算定した個数NsからステップSA2にて算定した個数Niを減算することで指標値A(A=Ns−Ni)を算定する(ステップSA3)。次いで、区間検出部17は、ステップSA3にて算定した指標値Aが所定の閾値THを上回るか否かを判定する(ステップSA4)。閾値THは例えばゼロに設定される。
The
ステップSA4の結果が肯定である場合(A>TH)、区間検出部17は、現段階で処理の対象となっているフレームを目的音区間内のフレームと判定する(ステップSA5)。一方、ステップSA4の結果が否定である場合(A≦TH)、区間検出部17は、現段階のフレームを目的音区間外のフレームと判定する(ステップSA6)。そして、区間検出部17は、ステップSA5またはSA6の判定の結果を処理部19に通知する(ステップSA7)。
If the result of step SA4 is affirmative (A> TH), the
図4は、区間検出部17による処理の結果を示す模式図である。同図の横軸は時間(フレーム数)を示し、縦軸は優勢周波数fsの個数Nsおよび劣勢周波数fiの個数Niを示す。図4においては、区間検出部17が検出した目的音区間(斜線が付された区間)が横軸に沿って図示されている。同図に示すように、優勢周波数fsの個数Nsが劣勢周波数fiの個数Niを上回る区間が目的音区間として検出される。
FIG. 4 is a schematic diagram showing a result of processing by the
図1の処理部19は、音源分離部15が生成したパワースペクトルQAおよびQBと区間検出部17が検出した目的音区間とに基づいて所定の処理を実行する手段である。本形態の処理部19は音声認識処理を実行する。すなわち、処理部19は、パワースペクトルQAに逆離散フーリエ変換を実行することで時間軸領域の音信号(すなわち目的音の波形を示す信号)を生成し、区間検出部17が検出した目的音区間内の成分を対象として音声認識処理を実行する。
The
以上のように本形態においては、第1収音器31が生成した音信号SAと第2収音器32が生成した音信号SBとの対比によって選別された優勢周波数fsの個数Nsと劣勢周波数fiの個数Niとに基づいて目的音区間が検出されるから、妨害音が環境音などの雑音である場合はもちろん人間の音声である場合にも、目的音区間が高精度に検出される。したがって、処理部19による音声認識処理の精度を高めることが可能となる。目的音区間の高精度な検出に加えて音源分離部15による目的音の強調(目的音と妨害音との分離)が実行されるから、目的音を対象とした音声認識処理の精度の向上は特に顕著である。
As described above, in the present embodiment, the number Ns of dominant frequencies fs selected based on the comparison between the sound signal SA generated by the
また、選別部13による処理の結果が音源分離15における目的音の強調と区間検出部17における目的音区間の検出とに共用されるから、目的音の強調と目的音区間の検出とが別個の基準で実行される構成と比較して音処理装置10における処理量が削減されるという利点もある。
Further, since the result of the processing by the
<B:第2実施形態>
次に、本発明の第2実施形態に係る音処理装置10について説明する。なお、本形態に係る音処理装置10の構成や動作は、区間検出部17を除いて第1実施形態と共通する。したがって、以下では区間検出部17の作用を重点的に説明し、区間検出部17以外の要素の説明は適宜に省略する。
<B: Second Embodiment>
Next, the sound processing apparatus 10 according to the second embodiment of the present invention will be described. The configuration and operation of the sound processing apparatus 10 according to this embodiment are the same as those in the first embodiment except for the
選別部13が対象周波数Fを優勢周波数fsと劣勢周波数fiとに選別した結果が、音信号SAやSBに突発的に発生するノイズに起因して、現実の目的音と妨害音との優劣から瞬間的に逆転する場合がある。例えば、第j番目のフレームにおける音信号SAまたはSBのノイズに起因してパワースペクトルPAのひとつの対象周波数FにおけるパワーがパワースペクトルPBを上回ると、図5に示すように、第(j-1)番目までのフレームと第(j+1)番目以後のフレームにて対象周波数Fが劣勢周波数fiであるにも拘わらず、第j番目のフレームにて瞬間的に対象周波数Fが優勢周波数fsに選別される。すなわち、本来ならば第j番目のフレームについても劣勢周波数fiに選別されるべき対象周波数Fがノイズに起因して優勢周波数fsと誤選別される。同様に、第j番目のフレームでのノイズに起因してパワースペクトルPBのひとつの対象周波数Fにおけるパワーが瞬間的にパワースペクトルPAを上回ると、図6に示すように、本来ならば第j番目のフレームでも優勢周波数fsに選別されるべき対象周波数Fが劣勢周波数fiと誤選別される。本形態の区間検出部17は、以上のような誤選別を補償して目的音区間を検出する。
The result of the
図7は、本形態に係る区間検出部17の動作の内容を示すフローチャートである。第(j-W)番目から第(j+W)番目までの「2W+1」個のフレームの各々について選別部13がK個の対象周波数F1〜FKを優勢周波数fsと劣勢周波数fiとに選別するたびに、時間軸上の中央に位置する第j番目のフレームを対象として図7の処理が実行される(Wは自然数)。
FIG. 7 is a flowchart showing the contents of the operation of the
区間検出部17は、第j番目のフレームについて、図3のステップSA1およびSA2と同様に、K個の対象周波数Fのなかの優勢周波数fsの個数Ns(ステップSB1)と劣勢周波数fiの総個数Ni(ステップSB2)とを計数する。また、区間検出部17は、K個の対象周波数F1〜FKの何れかを識別するための変数kを「1」に初期化するとともに、変化数Ms_iおよびMi_sを「0」に初期化する(ステップSB3)。
For the j-th frame, the
区間検出部17は、対象周波数FkについてステップSB4からステップSB8までの処理を順次に実行したうえで変数kに「1」を加算する(ステップSB9)。さらに、区間検出部17は、ステップSB9における加算後の変数kが対象周波数Fの総数Kを上回るか否かを判定する(ステップSB10)。区間検出部17は、ステップSB10の結果が否定である場合には更新後の変数kに対応した対象周波数FkについてステップSB4からステップSB8までの処理を実行し、ステップSB10の結果が肯定である場合にはステップSB11に処理を移行する。すなわち、K個の対象周波数F1〜FKの各々についてステップSB4からステップSB8の処理が順次に反復される。
The
ステップSB4において、区間検出部17は、対象周波数Fkについて、優勢周波数fsおよび劣勢周波数fiの一方から他方への時間軸上における変化を第(j-W)番目から第(j+W)番目までの「2W+1」個のフレームにわたって平滑化する。さらに詳述すると、区間検出部17は、第(j-W)番目から第(j+W)番目までの各フレームの対象周波数Fkについて設定された選別データD(D(j-W)〜D(j+W))の配列に対してメジアンフィルタによる平滑化を実行する。すなわち、選別データD(j-W)〜D(j+W)を大小の順番に配列したときの中央(第(k+1)番目)に位置する選別データDが第j番目のフレームのうち優勢周波数Fkにおける更新後の選別データD(j)として算定される。
In step SB4, the
メジアンフィルタを利用した平滑化によれば、「2W+1」個のフレームの範囲内でW個までのフレームにわたって連続する選別データDの変動が除去される。例えば、図5における第j番目のフレームの選別データD(j)は、同図に矢印で示すように平滑化によって「1(優勢周波数fs)」から「0(劣勢周波数fi)」に変化する。また、図6における第j番目のフレームの選別データD(j)は平滑化によって「0(劣勢周波数fi)」から「1(優勢周波数fs)」に変化する。 According to the smoothing using the median filter, fluctuations in the selection data D continuous over up to W frames within the range of “2W + 1” frames are removed. For example, the selection data D (j) of the j-th frame in FIG. 5 is changed from “1 (dominant frequency fs)” to “0 (inferior frequency fi)” by smoothing as shown by an arrow in FIG. . Further, the selection data D (j) of the jth frame in FIG. 6 changes from “0 (inferior frequency fi)” to “1 (dominant frequency fs)” by smoothing.
ステップSB4を実行すると、区間検出部17は、選別データD(j)が平滑化によって「1」から「0」に変化したか否かを判定する(ステップSB5)。ステップSB5の結果が肯定である場合、区間検出部17は変化数Ms_iに「1」を加算する(ステップSB6)。一方、ステップSB5の結果が否定である場合、区間検出部17は、ステップSB6を経ずにステップSB7に処理を移行する。
When step SB4 is executed, the
実際は劣勢周波数fiに選別されるべきであったにも拘わらず瞬間的なノイズに起因して優勢周波数fsと誤選別された対象周波数Fkの選別データD(j)は、図5に矢印で示したようにステップSB4の平滑化で「1」から「0」に変化する。したがって、ステップSB4からステップSB8までの処理がK回にわたって反復された段階における変化数Ms_iは、ひとつのフレームにおいて優勢周波数fsと誤選別された対象周波数Fkの個数(誤選別の回数)に相当する。 The selection data D (j) of the target frequency Fk, which was erroneously selected as the dominant frequency fs due to the instantaneous noise, although it should actually be selected as the inferior frequency fi, is indicated by an arrow in FIG. As described above, the smoothing in step SB4 changes from “1” to “0”. Therefore, the number of changes Ms_i at the stage where the processing from step SB4 to step SB8 is repeated K times corresponds to the number of target frequencies Fk misselected (the number of misselections) as the dominant frequency fs in one frame. .
次いで、区間検出部17は、選別データD(j)が平滑化によって「0」から「1」に変化したか否かを判定し(ステップSB7)、ステップSB7の結果が肯定である場合に限って変化数Mi_sに「1」を加算する(ステップSB8)。実際には優勢周波数fsであるにも拘わらず劣勢周波数fiと誤選別された対象周波数Fkの選別データD(j)は、図6に示したように平滑化で「0」から「1」に変化する。したがって、ステップSB4からステップSB8までの処理がK回にわたって反復された段階における変化数Mi_sは、劣勢周波数fiと誤選別された対象周波数Fkの個数(誤選別の回数)に相当する。
Next, the
ステップSB4からSB8までの処理をK回にわたって反復すると(ステップSB10:YES)、区間検出部17は、相対比R1およびR2を算定する(ステップSB11)。相対比R1は、ステップSB8にて計数した変化数Mi_sとステップSB2にて計数した劣勢周波数fiの個数Niとの比(R1=Mi_s/Ni)である。相対比R2は、ステップSB6にて計数した変化数Ms_iとステップSB1にて計数した優勢周波数fsの個数Nsとの比(R2=Ms_i/Ns)である。そして、区間検出部17は、相対比R1から相対比R2を減算することで指標値B(B=R1−R2)を算定する(ステップSB12)。
When the processes from step SB4 to SB8 are repeated K times (step SB10: YES), the
次に、区間検出部17は、ステップSB12にて算定した指標値Bが所定の閾値THを上回るか否かを判定する(ステップSB13)。閾値THは例えばゼロに設定される。ステップSB13の結果が肯定である場合(B>TH)、区間検出部17は、現段階で処理の対象となっているフレームを目的音区間内のフレームと判定する(ステップSB14)。一方、ステップSB13の結果が否定である場合(B≦TH)、区間検出部17は、現段階のフレームを目的音区間外のフレームと判定する(ステップSB15)。そして、区間検出部17は、ステップSB14またはステップSB15における判定の結果を処理部19に通知して図7の処理を終了する(ステップSB16)。
Next, the
図8は、本形態の区間検出部17による処理の結果を示す模式図である。同図の縦軸は相対比R1およびR2の数値を示し、横軸は時間(フレーム数)である。相対比R1が相対比R2を上回る目的音区間が横軸に沿って図示されている。図8で想定されている音信号SAおよびSBは図4の例示と同波形である。図8に示すように、本形態によれば、第1実施形態と同様に、妨害音が人間の音声である場合であっても目的音区間を高精度に検出することが可能である。しかも、本形態においては誤選別の影響を踏まえて目的音区間が検出されるから、第1実施形態よりも高精度に目的音区間を検出できるという利点がある。
FIG. 8 is a schematic diagram showing a result of processing by the
<C:変形例>
以上の形態には様々な変形を加えることができる。具体的な変形の態様を例示すれば以下の通りである。なお、以下の各態様を適宜に組み合わせてもよい。
<C: Modification>
Various modifications can be made to the above embodiment. An example of a specific modification is as follows. In addition, you may combine each following aspect suitably.
(1)変形例1
選別部13による選別の結果に基づいて目的音区間を決定する(各フレームが目的音区間内か否かを判定する)方法は適宜に変更される。例えば、第1実施形態においては、優勢周波数fsの個数Nsと劣勢周波数fiの個数Niとの比に基づいて目的音区間を検出する構成が採用される。すなわち、区間検出部17は、図3のステップSA3において個数Niに対する個数Nsの比を指標値A(A=Ns/Ni)として算定する。図3のステップSA4の閾値THは例えば「1」に設定される。以上の構成によっても第1実施形態と同様の効果が奏される。
(1)
The method of determining the target sound section (determining whether each frame is within the target sound section) based on the result of selection by the
同様に、第2実施形態においては、相対比R1とR2との比に基づいて目的音区間を検出する構成が採用される。例えば、区間検出部17は、図7のステップSB12において相対比R2に対する相対比R1の比を指標値B(B=R1/R2)として算定する。図7のステップSB13における閾値THは例えば「1」に設定される。以上の構成によっても第2実施形態と同様の効果が奏される。以上の例示から理解されるように、本発明の好適な態様における区間検出部17は、優勢周波数fsの個数Nsと劣勢周波数fiの個数Niとに基づいて目的音区間を検出する手段であれば足りる。
Similarly, in the second embodiment, a configuration is adopted in which the target sound section is detected based on the ratio between the relative ratios R1 and R2. For example, the
(2)変形例2
以上の構成においては、周波数分析部11が特定したパワースペクトルPAおよびPBの全帯域を対象として個数NsおよびNiを計数する構成を例示したが、パワースペクトルPAおよびPBの各々のうち特定の帯域(例えば人間の音声が主として属する300Hzから4000Hzまでの帯域)内の対象周波数Fのみについて個数NsおよびNiを計数してもよい。
(2)
In the above configuration, the configuration in which the number Ns and Ni are counted for all the bands of the power spectrums PA and PB specified by the frequency analysis unit 11 is illustrated, but a specific band ( For example, the numbers Ns and Ni may be counted only for the target frequency F within the band from 300 Hz to 4000 Hz to which human voice mainly belongs.
また、対象周波数Fが属する帯域ごとに個別に重み付けして個数NsやNiを計数する構成も採用される。例えば、ひとつのフレームにおいてn1個の優勢周波数fsが帯域B1に属するとともにn2個の優勢周波数fsが帯域B1とは相違する帯域B2に属する場合に、帯域B1に対応する重み値α1と帯域B2に対応する重み値α2とを別個に設定したうえで、個数Nsを以下の式(a)で算定する。
Ns=n1×α1+n2×α2 ……(a)
以上の構成によれば、特定の帯域に属する目的音の区間を特に高精度に検出することが可能である。
A configuration is also employed in which the number Ns or Ni is counted by weighting each band to which the target frequency F belongs. For example, when n1 dominant frequencies fs belong to the band B1 and n2 dominant frequencies fs belong to the band B2 different from the band B1 in one frame, the weight value α1 and the band B2 corresponding to the band B1 are set. The corresponding weight value α2 is set separately, and the number Ns is calculated by the following equation (a).
Ns = n1 × α1 + n2 × α2 (a)
According to the above configuration, it is possible to detect a target sound section belonging to a specific band with particularly high accuracy.
(3)変形例3
以上の各形態においては閾値THが固定値である構成を例示したが、閾値THが可変に制御される構成も採用される。例えば、第1収音器31や第2収音器32の周囲の音量が大きいほど閾値THを増加させる構成や、音処理装置10に接続される収音器の個数が多いほど閾値THを増加させる構成が採用される。
(3)
In each of the above embodiments, the configuration in which the threshold value TH is a fixed value is exemplified, but a configuration in which the threshold value TH is variably controlled is also employed. For example, the threshold TH is increased as the volume around the
(4)変形例4
第1実施形態の指標値Aや第2実施形態の指標値Bが閾値THを上回るフレームを目的音区間として検出する構成を例示したが、指標値Aや指標値Bが閾値THを上回るフレームの区間よりも広い区間を目的音区間として検出する構成も採用される。例えば、指標値B(または指標値A)が閾値THを上回り始めるフレームよりも所定個だけ手前のフレームを目的音区間の始点とする構成や、指標値B(または指標値A)が閾値THを下回り始めるフレームから所定個だけ後のフレームを目的音区間の終点とする構成が採用される。
(4)
The configuration in which the frame in which the index value A of the first embodiment and the index value B of the second embodiment exceed the threshold value TH is exemplified as the target sound section, but the frame of which the index value A or the index value B exceeds the threshold value TH A configuration is also employed in which a section wider than the section is detected as the target sound section. For example, a configuration in which a predetermined number of frames before the frame in which the index value B (or index value A) starts to exceed the threshold value TH is used as the starting point of the target sound interval, or the index value B (or index value A) exceeds the threshold value TH. A configuration is adopted in which a predetermined number of frames after the frame that starts to fall below the end point of the target sound section.
(5)変形例5
第2実施形態において複数のフレームにわたる選別データDの変動を平滑化するための手段はメジアンフィルタに限定されない。例えばメジアンフィルタに代えてカルマンフィルタを使用してもよい。また、複数のフレームにおける選別データDの移動平均を第j番目のフレームの選別データD(j)とする構成も採用される。
(5) Modification 5
In the second embodiment, the means for smoothing the variation of the selected data D over a plurality of frames is not limited to the median filter. For example, a Kalman filter may be used instead of the median filter. A configuration is also employed in which the moving average of the selection data D in a plurality of frames is the selection data D (j) of the jth frame.
(6)変形例6
複数の対象周波数Fを優勢周波数fsと劣勢周波数fiとに区別する方法としては、以上の各形態に例示した方法に代えて、公知の技術を任意に採用することが可能である。例えば、特開2006−197552号公報に開示された技術を優勢周波数fsと劣勢周波数fiとの選別に採用してもよい。さらに詳述すると、目的音が到来する方向に対して垂直な方向に第1収音器31と第2収音器32とを配置する。選別部13は、第1収音器31が生成した音信号SAと第2収音器32が生成した音信号SBとの差分を周波数分析したパワースペクトルPAと、音信号SAを遅延した信号と音信号SBとの差分を周波数分析したパワースペクトルPBとを対比する。選別部13は、パワースペクトルPAのパワーがパワースペクトルPBと比較して小さい対象周波数Fを優勢周波数fsに選別するとともにパワースペクトルPBのパワーがパワースペクトルPAと比較して小さい対象周波数Fを劣勢周波数fiに選別する。以上の方法によっても同様の効果が奏される。
(6) Modification 6
As a method of distinguishing the plurality of target frequencies F into the dominant frequency fs and the inferior frequency fi, a known technique can be arbitrarily adopted instead of the method exemplified in each of the above embodiments. For example, the technique disclosed in Japanese Patent Application Laid-Open No. 2006-197552 may be adopted for selecting the dominant frequency fs and the inferior frequency fi. More specifically, the
また、以上の各形態においては音信号SAおよびSBの各々における各対象周波数Fのパワーを対比する構成を例示したが、優勢周波数fsと劣勢周波数fiとの選別のために対比される成分値(音響的な特徴量)はパワーに限定されない。例えば、音信号SAの各フレームと音信号SBの各フレームとについて各対象周波数Fにおける位相を対比することで当該対象周波数Fを優勢周波数fsと劣勢周波数fiとに選別する構成も採用される。 Further, in each of the above embodiments, the configuration in which the power of each target frequency F in each of the sound signals SA and SB is compared is exemplified, but the component value (for comparison between the dominant frequency fs and the inferior frequency fi) ( The acoustic feature amount is not limited to power. For example, a configuration in which the target frequency F is selected as the dominant frequency fs and the inferior frequency fi by comparing the phases at the target frequencies F for each frame of the sound signal SA and each frame of the sound signal SB is also employed.
(7)変形例7
区間検出部17による検出の結果を利用して処理部19が実行する処理は音声認識処理に限定されない。例えば、パワースペクトルQAが示す音響のうち目的音区間以外の区間(主として妨害音)の音量を低減する処理を処理部19が実行してもよい。
(7) Modification 7
The process executed by the
また、目的音と妨害音とが混在した音響から妨害音を抑圧する処理(例えばスペクトルサブトラクション法)を処理部19が実行してもよい。スペクトルサブトラクション法においては、妨害音が優勢であるパワースペクトルQBと所定の係数(以下「抑圧係数」という)との乗算値を目的音のパワースペクトルQA(またはPA)から減算することで目的音のパワースペクトルが生成される。処理部19は、区間検出部17が検出した目的音区間の内側と外側とで抑圧係数を変化させる。例えば、目的音区間の内側では目的音区間の外側よりも抑圧係数を増加させるといった具合である。目的音区間の外側の妨害音が過度に抑制された場合には不自然な音響となる場合がある。以上のように目的音の内側と外側とで抑圧係数を変化させる構成によれば、目的音区間内では妨害音を有効に除去するとともに目的音区間外では妨害音が適度に抑圧された自然な音響を生成できるという利点がある。
Further, the
(8)変形例8
音声の存在する区間を検出するための公知の方法を以上の各形態に組合わせてもよい。例えば、音信号SAのピッチを検出するピッチ検出部が図1の音処理装置10に追加される。区間検出部17は、図3や図7の処理で検出した目的音区間のうちピッチ検出部がピッチを検出した区間を新たな目的音区間として処理部19に通知する。人間の音声や楽器の演奏音などについては明確なピッチが特定されるのに対し、雑音については明確なピッチが検出されない。したがって、以上の構成によれば、人間の音声や楽器の演奏音を含む目的音区間を高精度に検出することが可能となる。
(8) Modification 8
You may combine the well-known method for detecting the area where an audio | voice exists in each of the above forms. For example, a pitch detector for detecting the pitch of the sound signal SA is added to the sound processing apparatus 10 of FIG. The
10……音処理装置、11……周波数分析部、13……選別部、15……音源分離部、17……区間検出部、19……処理部。 DESCRIPTION OF SYMBOLS 10 ... Sound processing apparatus, 11 ... Frequency analysis part, 13 ... Sorting part, 15 ... Sound source separation part, 17 ... Section detection part, 19 ... Processing part.
Claims (6)
複数のフレームの各々について、前記選別手段が当該フレームについて選別した優勢周波数の個数と劣勢周波数の個数とに基づいて、当該フレームが目的音区間内のフレームか目的音区間外のフレームかを判定する区間検出手段と
を具備する音処理装置。 Comparing component values at each of a plurality of frequencies between each frame of the sound signal generated by the first sound collector and each frame of the sound signal generated by the second sound collector separated from the first sound collector. And a selection means for selecting the plurality of frequencies of each frame into a dominant frequency in which the target sound is dominant and an inferior frequency in which the target sound is inferior,
For each of a plurality of frames, said sorting means based on the number of number and recessive frequency of dominant frequencies were selected for the target frame, the frame is to determine whether the frame outer frame or target sound period in the target sound section A sound processing device comprising section detection means.
請求項1の音処理装置。 The sound processing apparatus according to claim 1, wherein the section detection unit determines that a frame in which a value obtained by subtracting the number of inferior frequencies from the number of dominant frequencies exceeds a threshold is a frame in a section of the target sound.
前記平滑化手段による平滑化で優勢周波数から劣勢周波数に変化した周波数の個数に応じた第1変化数と、前記平滑化で劣勢周波数から優勢周波数に変化した周波数の個数に応じた第2変化数とを計数する計数手段とを具備し、
前記区間検出手段は、
前記劣勢周波数の個数に対する前記第2変化数の比である第1相対比と前記優勢周波数の個数に対する前記第1変化数の比である第2相対比とに基づいて目的音の区間を検出する
請求項1の音処理装置。 Smoothing means for smoothing a change on the time axis from one of the dominant frequency and the inferior frequency in each of the plurality of frequencies;
A first change number corresponding to the number of frequencies changed from the dominant frequency to the inferior frequency by smoothing by the smoothing means, and a second change number corresponding to the number of frequencies changed from the inferior frequency to the dominant frequency by the smoothing. And counting means for counting
The section detecting means includes
A target sound section is detected based on a first relative ratio, which is a ratio of the second change number to the number of inferior frequencies, and a second relative ratio, which is a ratio of the first change number to the number of dominant frequencies. The sound processing apparatus according to claim 1.
請求項3の音処理装置。 The sound processing apparatus according to claim 3, wherein the section detection unit determines that a frame in which a numerical value obtained by subtracting the second relative ratio from the first relative ratio exceeds a threshold value is a frame in the target sound section.
請求項1から請求項4の何れかの音処理装置。 The sound processing apparatus according to any one of claims 1 to 4.
第1収音器が生成した音信号の各フレームと前記第1収音器から離間した第2収音器が生成した音信号の各フレームとで複数の周波数の各々における成分値を対比することで、前記各フレームの前記複数の周波数を、目的音が優勢な優勢周波数と目的音が劣勢な劣勢周波数とに選別する選別処理と、
複数のフレームの各々について、前記選別処理で当該フレームについて選別した優勢周波数の個数と劣勢周波数の個数とに基づいて、当該フレームが目的音区間内のフレームか目的音区間外のフレームかを判定する区間検出処理と
を実行させるプログラム。 On the computer,
Comparing component values at each of a plurality of frequencies between each frame of the sound signal generated by the first sound collector and each frame of the sound signal generated by the second sound collector separated from the first sound collector. And a sorting process for sorting the plurality of frequencies of each frame into a dominant frequency where the target sound is dominant and an inferior frequency where the target sound is inferior,
For each of a plurality of frames, the sorting processing based on the number of number and recessive frequency of dominant frequencies were selected for that frame, the frame to determine the frame outer frame or target sound period in the target sound section A program that executes section detection processing and.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007100756A JP4973287B2 (en) | 2007-04-06 | 2007-04-06 | Sound processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007100756A JP4973287B2 (en) | 2007-04-06 | 2007-04-06 | Sound processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008257048A JP2008257048A (en) | 2008-10-23 |
JP4973287B2 true JP4973287B2 (en) | 2012-07-11 |
Family
ID=39980672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007100756A Expired - Fee Related JP4973287B2 (en) | 2007-04-06 | 2007-04-06 | Sound processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4973287B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5633145B2 (en) * | 2009-12-22 | 2014-12-03 | ヤマハ株式会社 | Sound signal processing device |
JP5633144B2 (en) * | 2009-12-22 | 2014-12-03 | ヤマハ株式会社 | Sound signal processing device |
KR101670313B1 (en) | 2010-01-28 | 2016-10-28 | 삼성전자주식회사 | Signal separation system and method for selecting threshold to separate sound source |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04369695A (en) * | 1991-06-19 | 1992-12-22 | Matsushita Electric Ind Co Ltd | Voice decision device |
JP3588030B2 (en) * | 2000-03-16 | 2004-11-10 | 三菱電機株式会社 | Voice section determination device and voice section determination method |
JP4462617B2 (en) * | 2004-11-29 | 2010-05-12 | 株式会社神戸製鋼所 | Sound source separation device, sound source separation program, and sound source separation method |
JP4873913B2 (en) * | 2004-12-17 | 2012-02-08 | 学校法人早稲田大学 | Sound source separation system, sound source separation method, and acoustic signal acquisition apparatus |
-
2007
- 2007-04-06 JP JP2007100756A patent/JP4973287B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008257048A (en) | 2008-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bittner et al. | Deep Salience Representations for F0 Estimation in Polyphonic Music. | |
Seneff | Real-time harmonic pitch detector | |
KR101122838B1 (en) | Method and apparatus for separating sound-source signal and method and device for detecting pitch | |
US8989403B2 (en) | Noise suppression device | |
US9959886B2 (en) | Spectral comb voice activity detection | |
KR101831078B1 (en) | Voice Activation Detection Method and Device | |
JP5018193B2 (en) | Noise suppression device and program | |
JP6174856B2 (en) | Noise suppression device, control method thereof, and program | |
JP5088050B2 (en) | Voice processing apparatus and program | |
US20150106087A1 (en) | Efficient Discrimination of Voiced and Unvoiced Sounds | |
KR960007842B1 (en) | Voice Noise Separator | |
JP4973287B2 (en) | Sound processing apparatus and program | |
EP2962299A1 (en) | Audio signal analysis | |
JP2015155975A (en) | Sound signal processor, sound signal processing method, and program | |
CN105336344B (en) | Noise detection method and device | |
US8108164B2 (en) | Determination of a common fundamental frequency of harmonic signals | |
US10229686B2 (en) | Methods and apparatus for speech segmentation using multiple metadata | |
JP4735398B2 (en) | Acoustic signal analysis apparatus, acoustic signal analysis method, and acoustic signal analysis program | |
JP2009020472A (en) | Sound processing apparatus and program | |
JP2005266797A (en) | Method and apparatus for separating sound-source signal and method and device for detecting pitch | |
JP2018031897A (en) | Gain adjusting device, gain adjusting method, and gain adjusting program | |
JP4552533B2 (en) | Acoustic signal processing apparatus and voice level calculation method | |
JP6090371B2 (en) | Audio signal identification device and program | |
Fitria et al. | Music transcription of javanese gamelan using short time fourier transform (stft) | |
JP2012203351A (en) | Consonant identification apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110902 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120313 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120326 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150420 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |