JP2757356B2 - Word speech recognition method and apparatus - Google Patents
Word speech recognition method and apparatusInfo
- Publication number
- JP2757356B2 JP2757356B2 JP61297032A JP29703286A JP2757356B2 JP 2757356 B2 JP2757356 B2 JP 2757356B2 JP 61297032 A JP61297032 A JP 61297032A JP 29703286 A JP29703286 A JP 29703286A JP 2757356 B2 JP2757356 B2 JP 2757356B2
- Authority
- JP
- Japan
- Prior art keywords
- syllable
- word
- pair determination
- pair
- candidates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は単語音声認識方法および装置に関し、特に言
語処理部から得られる情報を音響処理部へフィードバッ
クすることにより、より信頼性の高い認識結果を得るの
に好適な単語音声認識方法および装置に関する。
〔従来の技術〕
従来の一般的な単語音声認識装置は、例えば、特開昭
61−175858号公報に開示されているように、入力された
音声をディジタル信号に変換し、音と音との区切りを検
出して特徴抽出された音声パターンに変換する。この音
声パターンを辞書の標準パターンと比較して、音を特定
するものである。上記装置は、音響処理結果の情報を言
語処理に反映させた装置ということができる。
これとは逆に、言語的な情報を音響処理部に反映させ
るような音声認識装置も知られている。例えば、電子通
信学会論文誌'84/6vol.J67−D.No.6第693〜700頁「Top
Down的音韻認識に基づく単語音声認識」において論じら
れている装置を挙げることができる。
この装置では、まず、予め可能な限りの単語仮説が立
てられ、これを分割して得られる音響仮説に対しての
み、音韻的な認識処理が実行される。この装置によれ
ば、単語仮説に含まれない音韻、すなわちもともと可能
性のない音韻については音響的認識処理を行わないわけ
であり、処理量の点からも認識精度の点からもある程度
有利である。
〔発明が解決しようとする問題点〕
しかし、この装置においても、予め設定された単語仮
説に関してはすべての可能な候補を考え、これに対して
精密な音響的認識処理を行うので、処理量はまだまだ多
く、また、誤認識を生ずる可能性も大きいという問題が
あった。これは、上記装置が、言語情報を利用すること
で音韻としての可能性の範囲を限定してはいるが、音響
情報を利用する点について配慮されていない点にその原
因があった。
本発明は上記事情に鑑みてなされたもので、その目的
とするところは、従来の単語音声認識装置における上述
の如き問題を解消し、音響情報を有効に利用して単語候
補の範囲を絞り、この範囲についてのみ精密な音響的認
識処理を行うようにして、認識精度の向上と処理量の削
減を可能とした単語音声認識方法および装置を提供する
ことにある。
〔問題点を解決するための手段〕
本発明の上記目的は、音声で入力された単語に対して
複数個の候補単語を出力する単語音声認識装置におい
て、前記複数個の候補単語の各組合せ毎に、該候補単語
を構成する単音節のうち種類の一致しない単音節の対を
求め、該一致しない単音節の対毎に、予め用意された対
判定ルールに従って対判定を行い、この結果に基づいて
前記複数の候補単語からの選択を行う手段を有する単語
音声認識装置であって、前記対判定ルールは、単音節対
について音声の特徴パラメータにより判定するものであ
ることを特徴とする単語音声認識装置によって達成され
る。
〔作用〕
本発明においては、単語辞書照合部において候補とし
て残された単語の組合せについて、これらの単語を識別
するために識別が必要となる音節対の最小限の組合せに
つてのみ音節対の対判定を実施し、この結果に基づいて
上述の残された候補単語からの選択を行うものである。
単語は単音節の系列として表現できるが、単音節の系
列の組合せの数が膨大なものになるのに対して、実際に
存在する単語の数はこれに比べてはるかに少ない。従っ
て、単語辞書との照合によって候補単語の範囲を限定す
ることにより、可能性を探索する範囲は大幅に削減され
る。また、単音節単位のパターンマッチングにより上位
の単音節認識候補の中に正解音節が含まれる限り、候補
単語の中に正解単語が確実に含まれる。すなわち、正解
単語が含有されているという保証の下に、探索範囲が狭
められる訳であり、探索の効果が上がるとともに、認識
精度が向上する。
〔実施例〕
以下、本発明の実施例を図面に基づいて詳細に説明す
る。
第1図は本発明の一実施例を示す単語音声認識装置の
ブロック図である。図において、1は単語音声の入力
部、2は入力単語音声の分析部、3は分析部2から出力
される特徴パラメータと単音節標準パターン格納部4に
格納されている単音節標準パターンとの照合を行い、単
音節候補を出力する単音節照合部、5は単音節照合部3
から出力される単音節候補の連結を生成し、これと単語
辞書6との照合を行う単語辞書照合部、7は単語辞書照
合部5から出力される単語候補と前記分析部2から出力
される特徴パラメータとから、対判定ルール格納部8に
格納されている対判定ルールに従って対判定を行う対判
定部、9は対判定部7から出力される対判定結果を集計
し、最終出力を決定する決定部を示している。また、10
は入力される単語音声、11は上記特徴パラメータ、12は
単音節候補系列、13は単語候補を示している。
本実施例の動作の概要は以下の通りである。
入力部1から入力された入力単語音声10は、分析部2
において音声の特徴を表わす特徴パラメータの系列に変
換された後、単音節照合部3において、単音節標準パタ
ーン格納部4に予め格納されているすべての単音節標準
パターンとの間で照合され、単音節単位に類似度が計算
される。
上記計算の結果として、単音節照合部3からは単音節
単位に上記類似度の大きい順に一定数の単音節候補が求
められ、入力単語音声に対して単音節候補系列12が第2
図(a)に示す如き形式で出力される。第2図に示す例
は、「ヨコハマ」という4音節の単語が入力された場合
の例であり、(a)は各単音節毎に出力する単音節候補
を上位3位までに限定して示したものである。
次に、単語辞書照合部5では、まず、上記第2図
(a)の形式で得られた単音節候補系列から、可能な単
音節候補の連結が生成される。上の例では34=81通りが
生成されることになる。このすべてについて単語辞書6
との照合が行われ、この中で単語辞書6中に存在する単
音節候補の連結のみが単語候補として対判定部7に送ら
れる。上の例では、第2図(b)に示す「ヨコハマ」と
「ヨコカワ」の2つである。
対判定部7では入力された単語候補の組合せ毎にその
単語を構成する単音節で種類の異なる対を求め、この単
音節対に関して対判定ルール格納部8に予め格納されて
いる対判定ルールに従って、特徴パラメータ系列11を調
査し、この部分が2つの単音節のうちいずれであるかと
いう判定結果を求め、これを決定部9に送る。上の例で
は、第2図(c)に示す「ハ」と「カ」,「マ」と
「ワ」の2つの対が得られ、それぞれの対について対判
定が行われることになる。
決定部9では対判定部7から得られた各単音節対毎の
対判定結果を集計し、この集計結果に基づいて単語辞書
照合部5から出力されたすべての単語候補に対して順位
付けを行い、上位から一定数の単語候補を最終出力とし
て出力する。
本実施例によれば、単語候補の限定効果により音響的
に確実に識別することを要求される単音節の範囲が、認
識対象となる全単音節の範囲に比べて大幅に限定され、
従って、処理量は削減され、また、単音節の認識精度が
向上するという効果がある。
なお、上記実施例に示した構成等は一例であって、本
発明はこれに限定されるべきものではないことは言うま
でもないことである。
〔発明の効果〕
以上述べた如く、本発明によれば、複数個の候補単語
を出力する単語音声認識装置において、前記複数個の候
補単語の各組合せ毎に、該候補単語を構成する単音節の
うち種類の一致しない単音節の対を求め、該単音節対毎
に、予め用意された対判定ルールに従って対判定を行
い、この結果に基づいて前記複数の候補単語からの選択
を行う手段を設けたので、音響情報を有効に利用して単
語候補の範囲を絞り、この範囲についてのみ精密な音響
的認識処理を行うようにして、認識精度を向上させると
ともに処理量を削減させることをも可能とした単語音声
認識装置を実現できるという顕著な効果を奏するもので
ある。Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for recognizing words and words, and more particularly to a method of feeding back information obtained from a language processing unit to a sound processing unit to obtain a more reliable recognition result. The present invention relates to a word speech recognition method and apparatus suitable for obtaining [Prior Art] A conventional general word speech recognition apparatus is disclosed in, for example,
As disclosed in Japanese Unexamined Patent Publication No. 61-175858, an input voice is converted into a digital signal, and a break between voices is detected and converted into a voice pattern in which features are extracted. This sound pattern is compared with a standard pattern of the dictionary to specify a sound. The above device can be said to be a device in which information of a sound processing result is reflected in language processing. On the contrary, there is also known a speech recognition device that reflects linguistic information in an acoustic processing unit. For example, IEICE Transactions '84 /6vol.J67-D.No.6, pp.693-700, “Top
Devices discussed in "Word speech recognition based on down-like phoneme recognition". In this device, first, as many word hypotheses as possible are established in advance, and phonological recognition processing is performed only on acoustic hypotheses obtained by dividing the word hypotheses. According to this device, acoustic recognition processing is not performed for phonemes not included in the word hypothesis, that is, phonemes that are not originally possible, which is somewhat advantageous in terms of both processing amount and recognition accuracy. . [Problems to be Solved by the Invention] However, even with this device, all possible candidates are considered for a preset word hypothesis, and precise acoustic recognition processing is performed on the candidates. There are still many problems, and there is a problem that the possibility of erroneous recognition is high. This is because the above device limits the range of possibilities as a phoneme by using linguistic information, but does not consider the use of acoustic information. The present invention has been made in view of the above circumstances, and its purpose is to solve the above-described problem in the conventional word speech recognition device, effectively use acoustic information to narrow down the range of word candidates, It is an object of the present invention to provide a word-speech recognition method and apparatus capable of improving the recognition accuracy and reducing the processing amount by performing precise acoustic recognition processing only in this range. [Means for Solving the Problems] An object of the present invention is to provide a word speech recognition apparatus for outputting a plurality of candidate words for a word input by voice, wherein each combination of the plurality of candidate words is A pair of single syllables of the same type among the single syllables constituting the candidate word is obtained, and pair determination is performed for each pair of the single syllables that do not match according to a pair determination rule prepared in advance. A word-speech recognition device having means for selecting from the plurality of candidate words, wherein the pair determination rule is to determine a single syllable pair by a voice feature parameter. Achieved by the device. [Operation] In the present invention, with respect to combinations of words left as candidates in the word dictionary matching unit, only pairs of syllable pairs that need to be identified in order to identify these words are paired. A determination is made, and a selection is made from the remaining candidate words based on the result. Words can be represented as a sequence of monosyllables, but the number of combinations of sequences of monosyllables is enormous, whereas the number of words that actually exist is much smaller. Therefore, by limiting the range of candidate words by collating with the word dictionary, the range of searching for possibilities is greatly reduced. In addition, as long as the correct syllable is included in the higher-order single syllable recognition candidate by the single-syllable unit pattern matching, the correct word is surely included in the candidate words. That is, the search range is narrowed under the guarantee that the correct word is contained, and the effect of the search is improved and the recognition accuracy is improved. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of a word speech recognition apparatus showing one embodiment of the present invention. In the figure, reference numeral 1 denotes an input unit of a word voice, 2 denotes an analysis unit of the input word voice, and 3 denotes a feature parameter outputted from the analysis unit 2 and a single syllable standard pattern stored in a single syllable standard pattern storage unit 4. A single syllable matching unit that performs matching and outputs a single syllable candidate;
The word dictionary matching unit 7 generates a concatenation of the monosyllable candidates output from the word dictionary 6 and checks it against the word dictionary 6, and the word candidate output from the word dictionary matching unit 5 and the word dictionary output from the analysis unit 2. Based on the characteristic parameters, the pair determination unit 9 performs pair determination according to the pair determination rule stored in the pair determination rule storage unit 8. The pair determination unit 9 aggregates the pair determination results output from the pair determination unit 7 and determines the final output. 4 shows a decision unit. Also, 10
Denotes an input word voice, 11 denotes the above-mentioned feature parameter, 12 denotes a monosyllable candidate sequence, and 13 denotes a word candidate. The outline of the operation of the present embodiment is as follows. The input word voice 10 input from the input unit 1 is
Is converted into a sequence of feature parameters representing the features of the speech, and is compared in the single-syllable matching unit 3 with all single-syllable standard patterns stored in the single-syllable standard pattern storage unit 4 in advance. The similarity is calculated for each syllable. As a result of the above calculation, a certain number of single syllable candidates are obtained from the single syllable matching unit 3 in the order of the similarity in units of single syllable, and the single syllable candidate sequence 12
It is output in a format as shown in FIG. The example shown in FIG. 2 is an example in which a word of four syllables “Yokohama” is input, and (a) shows single syllable candidates to be output for each single syllable limited to the top three places. It is a thing. Next, the word dictionary matching unit 5 first generates a connection of possible single syllable candidates from the single syllable candidate sequence obtained in the format shown in FIG. 2A. In the above example, 3 4 = 81 cases will be generated. Word Dictionary 6 for all of this
Is performed, and only the concatenation of the monosyllable candidates existing in the word dictionary 6 is sent to the pair determination unit 7 as a word candidate. In the above example, the two are "Yokohama" and "Yokokawa" shown in FIG. 2 (b). The pair determination unit 7 obtains a pair of different types of single syllables constituting the word for each combination of the input word candidates, and according to the pair determination rule stored in the pair determination rule storage unit 8 in advance for the single syllable pair. , The characteristic parameter sequence 11 is investigated, and a determination result as to which of the two monosyllables this part is is obtained, and this is sent to the determination unit 9. In the above example, two pairs of “C” and “F” and “M” and “W” shown in FIG. 2C are obtained, and a pair determination is performed for each pair. The deciding unit 9 sums up the paired judgment results for each single syllable pair obtained from the paired judgment unit 7 and ranks all the word candidates output from the word dictionary matching unit 5 based on the summed up results. Then, a fixed number of word candidates from the top are output as final output. According to the present embodiment, the range of monosyllables required to be acoustically reliably identified by the limiting effect of word candidates is significantly limited as compared with the range of all monosyllables to be recognized,
Therefore, the processing amount is reduced, and the recognition accuracy of a single syllable is improved. It is needless to say that the configurations and the like shown in the above embodiments are only examples, and the present invention should not be limited to these. [Effects of the Invention] As described above, according to the present invention, in a word speech recognition device that outputs a plurality of candidate words, for each combination of the plurality of candidate words, a monosyllable constituting the candidate word Means for determining a pair of single syllables whose types do not match, performing pair determination according to a pair determination rule prepared in advance for each single syllable pair, and selecting from the plurality of candidate words based on the result. Because of this, the range of word candidates can be narrowed by effectively using acoustic information, and precise acoustic recognition processing can be performed only in this range, thereby improving recognition accuracy and reducing the amount of processing. It has a remarkable effect that the word speech recognition device described above can be realized.
【図面の簡単な説明】
第1図は本発明の一実施例を示す単語音声認識装置のブ
ロック図、第2図(a)〜(c)は処理の過程で得られ
る中間結果を説明する図である。
1:入力部、2:分析部、3:単音節照合部、4:単音節標準パ
ターン格納部格、5:単語辞書照合部、6:単語辞書、7:対
判定部、8:対判定ルール格納部格、9:決定部、10:入力
される単語音声、11:特徴パラメータ、12:単音節候補系
列、13:単語候補。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a word speech recognition apparatus showing one embodiment of the present invention, and FIGS. 2 (a) to (c) are diagrams for explaining intermediate results obtained in the course of processing. It is. 1: input unit, 2: analysis unit, 3: single syllable matching unit, 4: single syllable standard pattern storage case, 5: word dictionary matching unit, 6: word dictionary, 7: pair judgment unit, 8: pair judgment rule Storage case, 9: decision unit, 10: input word voice, 11: feature parameter, 12: monosyllable candidate sequence, 13: word candidate.
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭57−128400(JP,A) 特開 昭57−102689(JP,A) 特開 昭60−121499(JP,A) 特開 昭54−148305(JP,A) 日本音響学会講演論文集 (昭和61年 10月) 2−3−16,P.83〜84 (58)調査した分野(Int.Cl.6,DB名) G10L 3/00 531──────────────────────────────────────────────────続 き Continuation of front page (56) References JP-A-57-128400 (JP, A) JP-A-57-102689 (JP, A) JP-A-60-121499 (JP, A) JP-A 54-128 148305 (JP, A) Proceedings of the Acoustical Society of Japan (October 1986) 2-3-16, p. 83-84 (58) Field surveyed (Int. Cl. 6 , DB name) G10L 3/00 531
Claims (1)
力し、該特徴パラメータに対して単語の認識照合処理を
行って複数個の上位の候補単語を出力する単語音声認識
方法であって、 先ず上記候補単語を音節に分解するステップと、 分解した単語同志で対応する音節部分について異なる種
類の音節の対を求めるステップと、 求められた音節の対に対して、予め用意された対判定ル
ールおよび前記特徴パラメータに従って音節の対判定を
行うステップと、 該対判定の結果を総合して、候補単語の中から最終候補
を決定するステップと を有することを特徴とする単語音声認識方法。 2.単語を単語音声として入力する入力手段と、 該入力手段から入力された単語音声を特徴パラメータの
系列に変換する分析手段と、 単音節標準パターンを記憶した単音節標準パターン格納
手段と、 前記分析手段からの単音節の特徴パラメータと前記単音
節標準パターン格納手段からの単音節標準パターンを照
合して単音節毎に単音節候補を抽出する単音節照合手段
と、 標準の単音節を格納する単語辞書と、 前記単音節照合手段から抽出された単音節候補の連結と
前記単語辞書とを照合して、前記単語辞書中に存在する
単音節候補の連結を単語候補として抽出する単語辞書照
合手段と、 音節の対判定ルールを格納する対判定ルール格納手段
と、 前記単音節候補について異なる種類の音節の対を求め、
上記対判定ルール格納手段に格納された単音節の対判定
ルールと前記分析手段からの単音節の特徴パラメータと
から対判定を行う対判定手段と、 該対判定手段から出力される対判定結果を集計し、最終
出力を決定する決定手段とを有することを特徴とする単
語音声認識装置。(57) [Claims] A word-speech recognition method for analyzing an input word-speech to output a feature parameter, performing a word recognition and matching process on the feature parameter, and outputting a plurality of top candidate words. Decomposing a word into syllables; obtaining pairs of syllables of different types for syllable parts corresponding to the decomposed words; and a pair determination rule prepared in advance for the obtained syllable pairs and the feature. A word speech recognition method, comprising: determining a syllable pair according to a parameter; and determining a final candidate from candidate words by combining results of the pair determination. 2. Input means for inputting a word as a word voice, analysis means for converting the word voice input from the input means into a sequence of feature parameters, single syllable standard pattern storage means for storing a single syllable standard pattern, and the analysis means A single-syllable matching means for comparing single-syllable feature patterns from the single-syllable standard pattern from the single-syllable standard pattern storage means to extract single-syllable candidates for each single syllable; and a word dictionary for storing standard single-syllable syllables Word dictionary matching means for comparing the connection of single syllable candidates extracted from the single syllable matching means and the word dictionary, and extracting the connection of single syllable candidates present in the word dictionary as word candidates, A pair determination rule storage means for storing a syllable pair determination rule, and a different type of syllable pair for the single syllable candidate,
A pair determination means for performing a pair determination from the single syllable pair determination rule stored in the pair determination rule storage means and the characteristic parameter of the single syllable from the analysis means; and a pair determination result output from the pair determination means. Determining means for counting and determining a final output.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61297032A JP2757356B2 (en) | 1986-12-12 | 1986-12-12 | Word speech recognition method and apparatus |
US07/409,991 US4998280A (en) | 1986-12-12 | 1989-09-19 | Speech recognition apparatus capable of discriminating between similar acoustic features of speech |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP61297032A JP2757356B2 (en) | 1986-12-12 | 1986-12-12 | Word speech recognition method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS63148299A JPS63148299A (en) | 1988-06-21 |
JP2757356B2 true JP2757356B2 (en) | 1998-05-25 |
Family
ID=17841340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP61297032A Expired - Fee Related JP2757356B2 (en) | 1986-12-12 | 1986-12-12 | Word speech recognition method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2757356B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7401018B2 (en) | 2000-01-14 | 2008-07-15 | Advanced Telecommunications Research Institute International | Foreign language learning apparatus, foreign language learning method, and medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2966002B2 (en) * | 1989-08-29 | 1999-10-25 | 三菱電機株式会社 | Voice recognition device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS54148305A (en) * | 1978-05-15 | 1979-11-20 | Toshiba Corp | Voice recognition device |
JPS57102689A (en) * | 1980-12-19 | 1982-06-25 | Oki Electric Ind Co Ltd | Single syllable voice input typewriter |
JPS57128400A (en) * | 1981-02-02 | 1982-08-09 | Nippon Electric Co | Word voice recognition apparatus |
JPS60121499A (en) * | 1983-12-05 | 1985-06-28 | 富士通株式会社 | Voice collation system |
-
1986
- 1986-12-12 JP JP61297032A patent/JP2757356B2/en not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
日本音響学会講演論文集 (昭和61年10月) 2−3−16,P.83〜84 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7401018B2 (en) | 2000-01-14 | 2008-07-15 | Advanced Telecommunications Research Institute International | Foreign language learning apparatus, foreign language learning method, and medium |
Also Published As
Publication number | Publication date |
---|---|
JPS63148299A (en) | 1988-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3162994B2 (en) | Method for recognizing speech words and system for recognizing speech words | |
EP0109190B1 (en) | Monosyllable recognition apparatus | |
JP2815579B2 (en) | Word candidate reduction device in speech recognition | |
CN113744722B (en) | Offline speech recognition matching device and method for limited sentence library | |
US4987596A (en) | Knowledge-guided automatic speech recognition apparatus and method | |
JP2757356B2 (en) | Word speech recognition method and apparatus | |
JP3428058B2 (en) | Voice recognition device | |
JPS6138479B2 (en) | ||
EP0177854B1 (en) | Keyword recognition system using template-concatenation model | |
JP2001312293A (en) | Method and device for voice recognition, and computer- readable storage medium | |
JP2813209B2 (en) | Large vocabulary speech recognition device | |
JP2753255B2 (en) | Voice-based interactive information retrieval device | |
JP2966002B2 (en) | Voice recognition device | |
JP3039453B2 (en) | Voice recognition device | |
JP2905686B2 (en) | Voice recognition device | |
JP3061292B2 (en) | Accent phrase boundary detection device | |
US20240144934A1 (en) | Voice Data Generation Method, Voice Data Generation Apparatus And Computer-Readable Recording Medium | |
JP2000099084A (en) | Voice recognition method and device therefor | |
JP3766111B2 (en) | Voice recognition device | |
JP3110025B2 (en) | Utterance deformation detection device | |
JP2008107641A (en) | Voice data retrieving apparatus | |
JP3009709B2 (en) | Japanese speech recognition method | |
JPH0554678B2 (en) | ||
JP2760096B2 (en) | Voice recognition method | |
JP2002341891A (en) | Speech recognition device and speech recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |