JP2002503002A - N-tuple or RAM based neural network classification system and method - Google Patents
N-tuple or RAM based neural network classification system and methodInfo
- Publication number
- JP2002503002A JP2002503002A JP2000530867A JP2000530867A JP2002503002A JP 2002503002 A JP2002503002 A JP 2002503002A JP 2000530867 A JP2000530867 A JP 2000530867A JP 2000530867 A JP2000530867 A JP 2000530867A JP 2002503002 A JP2002503002 A JP 2002503002A
- Authority
- JP
- Japan
- Prior art keywords
- cell
- value
- weight
- training
- values
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 99
- 238000013528 artificial neural network Methods 0.000 title description 10
- 239000013598 vector Substances 0.000 claims abstract description 228
- 238000012549 training Methods 0.000 claims abstract description 169
- 230000008569 process Effects 0.000 claims abstract description 37
- 238000012360 testing method Methods 0.000 claims description 20
- 230000001629 suppression Effects 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 5
- 238000012804 iterative process Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims 1
- 230000006870 function Effects 0.000 description 47
- 238000002790 cross-validation Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- 230000005764 inhibitory process Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 229930192671 brownin Natural products 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005194 fractionation Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
(57)【要約】 本発明は、各々が、考えられるクラスの少なくとも1つのサブセットに対応する一定数のロウを含み、値を伴うセルを有するベクトルによって各々定義され、サンプリングされた訓練用入力データ例の要素又は信号によってアドレス指定されるカラムを含んで成る、一定数のn−タプル又はルックアップテーブル(LUT)を含むネットワークによって構成されうるコンピュータ分類システムの訓練方法及びシステムに関し、該方法は、セルの少なくとも一部分が、訓練用入力例の単数又は複数のセットから対応するセルアドレスがサンプリングされる回数に基づく情報を含むか又はポイントするような形で異なるクラスのための訓練用入力データ例の単数又は複数の訓練用セットに基づいてカラムベクトルセル値を決定する段階、及び、訓練例によってアドレス指定又はサンプリングされつつある単数又は複数のカラムベクトルセルに対する重みセル値を決定し、かくして分類プロセス中に正の値の単数又は複数のカラムベクトルセルの重みづけも可能にする段階が含まれており、前記重みセル値は、決定されたカラムベクトルセル値を少なくとも一部分の情報に基づいて、かつ入力例の訓練用セットの少なくとも一部分を使用することによって決定される。本発明の第2の態様は、コンピュータ分類システムにおいて、訓練用例によってアドレス指定されている単数又は複数のカラムベクトルセルに対応する重みセル値を決定するための方法及びシステムにおいて、該決定が、決定されたベクトルセル値の少なくとも一部分の情報に基づくものであり、これにより正の値又は正でない値をもつカラムベクトルセルの重みづけが可能となるような方法及びシステムである。最後に、本発明はコンピュータ分類システムを使用して入力データ例を複数のクラスに分類するための方法及びシステムを提供する。 SUMMARY OF THE INVENTION The present invention provides a sampled training input data, each defined by a vector having cells with values, each containing a fixed number of rows corresponding to at least one subset of possible classes. A method and system for training a computer classification system, which may be constituted by a network comprising a fixed number of n-tuples or look-up tables (LUTs), comprising columns addressed by example elements or signals. Example training input data for different classes in a manner such that at least a portion of the cells include or point to information based on the number of times corresponding cell addresses are sampled from the set or sets of training input examples. Determining a column vector cell value based on the training set or sets; Determine the weight cell value for the column vector cell or cells being addressed or sampled by the training example, thus also allowing for weighting of the positive value column cell or cells during the classification process And determining the weighted cell value based on at least a portion of the determined column vector cell value and by using at least a portion of a training set of input examples. A second aspect of the invention is a method and system for determining a weight cell value corresponding to one or more column vector cells addressed by a training example in a computer classification system, the determination comprising: A method and system based on information of at least a portion of the calculated vector cell values, which allows for weighting of column vector cells having positive or non-positive values. Finally, the present invention provides a method and system for classifying example input data into a plurality of classes using a computer classification system.
Description
【0001】 発明の背景 1.発明の分野 本発明は一般に、n−タプル又はRAMベースのニューラルネットワーク分類
システムに関するものであり、より特定的には、要素値が訓練プロセス中に決定
され重みベクトルを有するn−タプル又はRAMベースの分類システムに関する
。BACKGROUND OF THE INVENTION FIELD OF THE INVENTION The present invention relates generally to n-tuple or RAM-based neural network classification systems, and more particularly to n-tuple or RAM-based neural network elements whose element values are determined during a training process and have weight vectors. Related to classification system.
【0002】 2.先行技術の説明 電気信号又は2進コードそして厳密に言うとニューラルネットワーク分類シス
テムの入力端に適用される信号ベクトルによって表わされるオブジェクト又はパ
ターンを分類する既知の方法は、いわゆる学習又は訓練段階の実施にある。この
段階は一般に、信号の分類が望まれている対象クラスのうちの1つの中にかかる
信号の各々が属していることがわかっている学習又は訓練用セットと呼ばれる単
数又は複数の信号を用いることによってできるかぎり効率良く、考慮対象の分類
を実行するという機能を果たす分類ネットワークの構成から成る。この方法は、
指導付き学習又は教師あり学習として知られている。[0002] 2. 2. Description of the Prior Art Known methods of classifying objects or patterns represented by electrical signals or binary codes and, more precisely, signal vectors applied to the inputs of a neural network classification system are known for performing so-called learning or training phases. is there. This step generally involves using one or more signals, referred to as a training or training set, in which each such signal is known to belong to one of the classes of interest for which signal classification is desired. And the configuration of a classification network that performs the function of performing the classification of the object under consideration as efficiently as possible. This method
Also known as supervised or supervised learning.
【0003】 指導付き学習を用いた分類ネットワークのサブクラスが、メモリーベースの学
習を用いたネットワークである。ここで、最も古いメモリーベースのネットワー
クは、Bledsoe 及び Browning によって提案され(Bledsoe, W.W. 及び Brownin
g,7.1959,「機械によるパターン認識及び読取り」東部合同コンピュータ
会議議事録p225−232),かつ Morciniec及び Rohwer によって最近記述
された(Morciniec, M. 及び Rohwer, R.,1996,「n−タプル分類装置の性
能についての理論的及び実験的報告」Neural Comp., p629−642),「n
−タプルネットワーク」である。A subclass of the classification network using supervised learning is a network using memory-based learning. Here, the oldest memory-based networks were proposed by Bledsoe and Browning (Bledsoe, WW and Brownin
g, 7.1959, "Pattern Recognition and Reading by Machine", Proceedings of the Eastern Computer Conference, p225-232, and recently described by Morciniec and Rohwer (Morciniec, M. and Rohwer, R., 1996, "n- Theoretical and experimental reports on the performance of tuple classifiers ”Neural Comp., P. 629-642),“ n
-Tuple network ".
【0004】 かかるメモリーベースのシステムのもつ利点の1つは、学習段階中及び分類中
の両方における非常に速い計算時間にある。「RAMネットワーク」又は「重み
無しニューラルネットワーク」としても知られている既知のタイプのn−タプル
ネットワークについては、学習は、システムに対するただ1回の提示のみを必要
とするランダムアクセスメモリ(RAM)内にパターンの特長を記憶することに
よって達成できる。[0004] One of the advantages of such a memory-based system is the very fast computation time, both during the learning phase and during classification. For known types of n-tuple networks, also known as "RAM networks" or "weightless neural networks", the learning is done in random access memory (RAM), which requires only one presentation to the system. This can be achieved by storing the features of the pattern.
【0005】 従来のRAMベースのニューラルネットワークのための訓練手順は、Jorgense
n(本発明の共同発明人)et al.(Jorgensen, T.M. Christensen, S.S. 及び Lii
sberg, C.,1995,「RAMベースのニューラルネットワークのための相互妥
当性検査及び情報測度」重み無しニューラルネットワークワークショップWNネ
ットワーク95(英国ケント州カンタベリ)議事録、D. Bisset 編、p76−8
1)によって記述されており、そこでは、RAMベースのニューラルネットワー
クをいかにして一定数のルックアップテーブル(LUT)を含むものとして考慮
することができるかが記述されている。各LUTは、2進入力データベクトルの
サブセットを精査することができる。従来のスキームにおいては、使用されるビ
ットは、無作為に選択される。サンプリングされたビットシステムは1つのアド
レスを構築するのに使用される。このアドレスはLUT内の特定のエントリ(カ
ラム)に対応する。LUT内のロウの数は、考えられるクラスの数に対応する。
各クラスについて、出力は、0又は1の値をとりうる。1という値は、その特定
のクラス上の1票に対応する。分類を実施するとき、入力ベクトルがサンプリン
グされ、全てのLUGからの出力ベクトルが加算され、その後、勝者が入力ベク
トルを分類するべく全ての決定を下す。ネットワークの単純な訓練を実施するた
めには、出力値は当初0に設定できる。訓練用セットの中の各々の例について、
次の以下の段階を実行しなければならない:すなわち 入力ベクトル及び標的クラスをネットワークに提示し、全てのLUTについて
その対応するカラムエントリを計算し、全ての「活動状態の」カラムの中で、標
的クラスの出力値を1に設定する。A training procedure for a conventional RAM-based neural network is described in Jorgense
n (co-inventor of the present invention) et al. (Jorgensen, TM Christensen, SS and Lii
sberg, C., 1995, "Cross-validation and information measures for RAM-based neural networks" Minutes of Neural Network Workshop WN Network 95 (Canterbury, Kent, UK) Minutes, edited by D. Bisset, pp. 76-8.
1), which describes how a RAM-based neural network can be considered as including a fixed number of look-up tables (LUTs). Each LUT can probe a subset of the binary input data vector. In conventional schemes, the bits used are chosen at random. The sampled bit system is used to construct one address. This address corresponds to a specific entry (column) in the LUT. The number of rows in the LUT corresponds to the number of possible classes.
For each class, the output can have a value of 0 or 1. A value of 1 corresponds to one vote on that particular class. When performing classification, the input vectors are sampled and the output vectors from all LUGs are added, after which the winner makes all decisions to classify the input vectors. To perform simple training of the network, the output value can be initially set to zero. For each example in the training set,
The following steps must be performed: present the input vector and the target class to the network, calculate its corresponding column entry for every LUT, and in every "active" column, Set the output value of the class to 1.
【0006】 かかる訓練戦略を使用することにより、各々の訓練用パターンがつねに最大数
の票を得るよう保証することができる。その結果として、かかるネットワークは
、訓練用セットについての分類ミスを全く起こさないが、あいまいな決定が発生
する可能性はある。ここで、ネットワークの般化能力は、各LUTについての入
力ビット数に直接関係する。LUTが全ての入力ビットをサンプリングする場合
には、それは純粋なメモリデバイスとして作用することになり、いかなる般化も
提供されなくなる。入力ビット数が減少するにつれて、般化はあいまいな決定の
数の増大という犠牲を払って増大する。さらに、LUTの分類及び般化性能は、
精査された入力ビットの実際のサブセットによって大きく左右される。かくして
「インテリジェント」訓練手順の目的は、入力データの最も適切なサブセットを
選択することにある。[0006] By using such a training strategy, it can be ensured that each training pattern always gets the maximum number of votes. As a result, such a network does not make any classification errors for the training set, but ambiguous decisions can occur. Here, the generalization capability of the network is directly related to the number of input bits for each LUT. If the LUT samples all input bits, it will act as a pure memory device and will not provide any generalization. As the number of input bits decreases, the generalization increases at the cost of increasing the number of ambiguous decisions. Furthermore, the classification and generalization performance of the LUT
It depends heavily on the actual subset of input bits examined. Thus, the purpose of the "intelligent" training procedure is to select the most appropriate subset of the input data.
【0007】 Jorgensen et al.はさらに、短かい全体的計算時間で低い分類誤り率を得るべ
く、LUT1つあたりに使用すべき入力接続の最適な数を選択するための方法を
示唆する「相互妥当性検査テスト」と名づけられたものについて記述している。
かかる相互妥当性検査テストを実施するためには、アドレス指定されたカラム及
びクラスに対応する要素又はセルを訪問し又はアドレス指定した実際の訓練例の
数について知ることが必要である。従って、これらの数をLUT内に記憶するこ
とが示唆されている。同様に、Jorgencen et al.によると、LUTの新しいセッ
トを連続的に訓練し各LUTについて相互妥当性検査テストを実施することによ
ってさらに最適な方法でいかにネットワーク内のLUTを選択できるかも示唆さ
れている。かくして、システムに対し数回訓練用セットを提示することによりL
UTが選択されるようなRAMネットワークが得られることがわかっている。[0007] Jorgensen et al. Further suggest a method for selecting the optimal number of input connections to use per LUT in order to obtain a low classification error rate with a short overall computation time, "Mutually valid. Sex Test ".
In order to perform such a cross-validation test, it is necessary to visit the elements or cells corresponding to the addressed columns and classes and to know about the number of actual training examples addressed. Therefore, it is suggested that these numbers be stored in the LUT. Similarly, Jorgencen et al. Suggests that by continuously training a new set of LUTs and performing a cross-validation test on each LUT, it is possible to select the LUTs in the network in a more optimal way. I have. Thus, by presenting the training set to the system several times, L
It has been found that a RAM network is obtained in which the UT is selected.
【0008】 Jorgensen(本発明の共同発明人) による1つの論文中(Jorgensen, I.M. 「R
AMニューラルネットアーキテクチャを用いた手書きの数字の分類」、1997
年2月、International Journal of neural Systems, 第8巻, No. 1 p17
〜25)、「抑止」と名づけられたものを含み入れるべく従来のRAMアーキテ
クチャを拡張することにより、RAMベースのネットワークのクラス認識をいか
にしてさらに改善できるかが示唆されている。この方法は、数多くの状況におい
て、2つの異なるクラスがそれらの特長のうちのいくつかについてのみ異なって
いる可能性があるという問題をとり扱っている。従って、この問題に対処するた
めには、一定の与えられたクラスについて異なる形で異なる特長を重みづけする
ことが必要となる。かくして、ネットワークが、アドレス指定されたカラムの一
部のクラスについての抑止因子を内含しているような方法が示唆されている。こ
こでは、信頼性の測度が導入され、抑止因子は、抑止後の信頼性が望ましいレベ
ルに対応するような形で計算される。In one paper by Jorgensen (co-inventor of the present invention) (Jorgensen, IM “R
Classification of Handwritten Numbers Using AM Neural Network Architecture ", 1997
February, International Journal of neural Systems, Vol. 8, No. 1 p17
-25), suggesting how class-recognition of RAM-based networks can be further improved by extending conventional RAM architectures to include what is termed "inhibition." This approach addresses the problem that, in many situations, two different classes may differ only in some of their features. Thus, to address this problem, it is necessary to weight different features differently for a given class. Thus, methods have been suggested in which the network includes inhibitory factors for some classes of addressed columns. Here, a measure of reliability is introduced, and the suppression factor is calculated in such a way that the reliability after suppression corresponds to the desired level.
【0009】 好ましい抑止スキームの結果は、単純なシステムにおいては1に設定されるこ
とになるような全てのアドレス指定されたLUTセル又は要素が修正パターンに
おいても1に設定されるが、修正されたバージョンでは、1に設定されているカ
ラムセルはセルが訓練用セットの訪問を受けた回数についての情報もさらに含む
ことができる、というものである。しかしながら、単純なシステムにおいて0を
含むセルの一部分は、修正されたネットワーク内でそのコンテンツを負の値に変
更させることになる。換言すると、従来のネットワークは、1つのクラスからも
う1つのクラスへの抑止が許容されるように拡張される。[0009] The result of the preferred suppression scheme is that all addressed LUT cells or elements are set to 1 in the correction pattern, as would be set to 1 in a simple system, but modified. In the version, the column cell set to 1 may further include information about the number of times the cell has been visited by the training set. However, in a simple system, the portion of the cell that contains a zero will cause its content to change to a negative value in the modified network. In other words, conventional networks are extended to allow deterrence from one class to another.
【0010】 LUTセル内の負の値を符号化するためには、従来のRAMネットワークの場
合のように、セル又は要素あたり1つのビットでは不充分である。従って、異な
る負の値を表わすには、128未満の値が使用され一方セルを訪問又はアドレス
指定した訓練用例の数に関する情報を記憶するためには128より大きい値が使
用される状態で、1つのセルにつき1つのバイトを用いることが好ましい。この
とき、1つのオブジェクトを分類する時点で、1以上の値をもつアドレス指定さ
れたセルを、1という値をもつものとして計数可能である。[0010] One bit per cell or element is not enough to encode negative values in LUT cells, as in conventional RAM networks. Thus, values less than 128 are used to represent different negative values while values greater than 128 are used to store information about the number of training examples that visited or addressed the cell. Preferably, one byte is used per cell. At this time, at the time of classifying one object, an addressed cell having a value of 1 or more can be counted as having a value of 1.
【0011】 抑止を用いることにより、LUTのセルには、一種の「重みづけ」とみなすこ
とのできる異なる値が与えられる。しかしながら、その値を0から負の値まで変
化させることにより抑止され得るのは、訓練用セットによる訪問を受けたことの
ないセルだけである。入力データの分類を実施するとき、正の値をもつセルのブ
ーストは全くない。かくして非常にすぐれた性能を発揮するLUT又はLUTの
カラムも、残りのネットワークが伴う場合、容易に圧倒されてしまう可能性があ
る。By using inhibition, the cells of the LUT are given different values that can be considered a kind of “weighting”. However, only cells that have never been visited by the training set can be suppressed by changing its value from 0 to a negative value. When performing input data classification, there is no boost of cells with positive values. LUTs or columns of LUTs that perform very well in this way can easily be overwhelmed with the rest of the network.
【0012】 従って、非常に高速な訓練又は学習段階を可能にするものの同時に、訓練用セ
ットのアクセス情報に基づいて、サンプリングされた数の入力ビットの適正な生
成能力を得るべく実際の重みがLUTカラムのセル値のブースト及び抑止の両方
を行なうことを可能にするようなRAM分類ネットワークに対するニーズが存在
する。Thus, while allowing a very fast training or learning phase, at the same time, based on the training set access information, the actual weights are LUTs to obtain the proper ability to generate a sampled number of input bits. There is a need for a RAM classification network that allows both boosting and suppression of column cell values.
【0013】 発明の要約 本発明の第1の態様に従うと、各々が、考えられるクラスの少なくとも1つの
サブセットに対応する一定数のロウを含み、さらに、値を伴うセルを有するベク
トルによって各々定義され、サンプリングされた訓練用入力データ例の要素又は
信号によってアドレス指定される一定数のカラムを含んで成る、一定数のn−タ
プル又はルックアップテーブル(LUT)を含むネットワークによって定義され
うるコンピュータ分類システムの訓練方法において、セルの少なくとも一部分が
、訓練用入力例の単数又は複数のセットから対応するセルアドレスがサンプリン
グされる回数に基づく情報を含むか又はポイントするような形で異なるクラスの
ための入力データ例の単数又は複数の訓練用セットに基づいてカラムベクトルセ
ル値を決定する段階、及び、訓練例によってアドレス指定又はサンプリングされ
つつある単数又は複数のカラムベクトルセルに対応する重みセル値を決定する段
階を含んで成る方法が提供されている。According to a first aspect of the present invention, each includes a fixed number of rows corresponding to at least one subset of possible classes, and is further defined by vectors each having a cell with a value. A computer classification system that can be defined by a network that includes a fixed number of n-tuples or look-up tables (LUTs), comprising a fixed number of columns addressed by elements or signals of sampled training input data Wherein at least a portion of the cells include or point to information based on the number of times corresponding cell addresses are sampled from the set or sets of training input examples, and input for different classes. Column vectors based on one or more training sets of example data Determining the cell values, and the method comprising the step of determining the weight cell values corresponding to one or more column vector cells are being trained examples addressed or sampled is provided.
【0014】 本発明の第2の態様に従うと、各々が、考えられるクラスの少なくとも1つの
サブセットに対応する一定数のロウを含み、さらに少なくとも一部分が対応する
重みベクトルを有ししかも各々がサンプリングされた訓練用入力データ例の要素
又は信号によってアドレス指定されている一定数のカラムベクトルを含み、かつ
各々のカラムベクトル及び重みベクトルが異なるクラスについての入力データ例
の単数又は複数の訓練用セットに基づいて決定されている値を伴うセルを有して
いる一定数のn−タプル又はルックアップテーブル(LUT)を含むネットワー
クによって定義されうるコンピュータ分類システム内の重みセル値を決定する方
法において、前記値の少なくとも一部分が、訓練用入力例セットから対応するセ
ルアドレスがサンプリングされる回数に基づく情報を含むか又はポイントするよ
うな形で入力例の訓練用セットに基づいてカラムベクトルセル値を決定する段階
、及び単数又は複数のカラムベクトルセルに対応する重みベクトルセル値を決定
する段階を含んで成る方法が提供されている。According to a second aspect of the invention, each includes a fixed number of rows corresponding to at least one subset of the possible classes, and at least a portion has a corresponding weight vector and each is sampled. Based on one or more training sets of example input data for a class comprising a fixed number of column vectors addressed by the elements or signals of the example training input data, each column vector and weight vector being different. A method for determining a weight cell value in a computer classification system that may be defined by a network including a fixed number of n-tuples or look-up tables (LUTs) having cells with a value that has been determined. At least a portion of the corresponding cell address from the training input example set. Determining column vector cell values based on the training set of input examples in such a way as to include or point to information based on the number of times the sample is sampled, and a weight vector corresponding to one or more column vector cells A method is provided that comprises determining a cell value.
【0015】 好ましくは、重みセル値は、決定されたカラムベクトルセル値の少なくとも一
部分の情報に基づきかつ入力例の訓練用セットの少なくとも一部分を使用するこ
とによって決定される。本発明に従うと、訓練用入力データ例は好ましくは、入
力信号ベクトルとしてネットワークに提示される。 重みセル値の決定は、正の値の単数又は複数のカラムベクトルセルの重みづけ
を可能にし、分類プロセス中に単数又は複数のカラムベクトルセルのブーストを
可能にするように実施されることが好ましい。さらに、又は代替的には、分類プ
ロセス中に単数又は複数のカラムベクトルセルの抑制を可能にするように重みセ
ル値を決定することもできる。Preferably, the weight cell values are determined based on information of at least a portion of the determined column vector cell values and by using at least a portion of the training set of input examples. According to the invention, the example training input data is preferably presented to the network as an input signal vector. The determination of the weight cell value is preferably implemented to allow weighting of the positive value of the column vector cell or cells and to allow boosting of the column vector cell or cells during the classification process. . Additionally or alternatively, the weight cell values may be determined to allow for suppression of one or more column vector cells during the classification process.
【0016】 本発明は同様に、重みセル値の決定により、正の値(ゼロより大きい)をもつ
単数又は複数のカラムベクトルセル及び正でない値(0以下)をもつ単数又は複
数のカラムベクトルセルの重みづけが可能となる方法をも提供する。好ましくは
、重みセルの決定により、任意のカラムベクトルセルの重みづけが可能となる。 重みセル値を決定又は計算するためには、これらの値の決定には、カラムセル
の少なくとも一部分に対応する重みセルの単数又は複数のセットを初期化する段
階及び決定されたセル値の少なくとも一部分の情報に基づきかつ入力例の訓練用
セットの少なくとも一部分を使用することによって重みセル値の少なくとも一部
分を調整する段階が含まれていてよい。重みセル値を決定する時点では、これら
が、カラムベクトルの少なくとも1部分に対応する重みベクトルの形に配置され
ることが好ましい。The present invention also provides for determining one or more column vector cells having a positive value (greater than zero) and one or more column vector cells having a non-positive value (less than or equal to 0) by determining a weight cell value. Is also provided. Preferably, the determination of the weight cell enables weighting of an arbitrary column vector cell. To determine or calculate the weight cell values, determining these values includes initializing one or more sets of weight cells corresponding to at least a portion of the column cells, and determining at least a portion of the determined cell value. Adjusting at least a portion of the weight cell values based on the information and by using at least a portion of the training set of input examples may be included. At the time of determining the weight cell values, they are preferably arranged in the form of a weight vector corresponding to at least one part of the column vector.
【0017】 本発明に従って重みセル値を決定又は調整するためには、カラムセル値が決定
されなくてはならない。ここで、カラムセル値の少なくとも一部分が、訓練用入
力例のセットから対応するセルアドレスがサンプリングされる回数の関数として
決定されることが好ましい。代替的には、カラムセルの情報は、最大カラムセル
値が1であるものの、セルの少なくとも一部分は、入力例の訓練用セットから対
応するセルアドレスがサンプリングされる回数の関数である付随する値を有して
いるような形で決定されてもよい。好ましくは、カラムベクトルセル値は、重み
ベクトルセル値の調整前に決定され、記憶手段内に記憶される。In order to determine or adjust a weight cell value according to the present invention, a column cell value must be determined. Here, it is preferred that at least a portion of the column cell values is determined as a function of the number of times the corresponding cell address is sampled from the set of training input examples. Alternatively, the column cell information has an associated value that is a function of the number of times the corresponding cell address is sampled from the training set of input examples, even though the maximum column cell value is one. It may be determined in such a way as to do. Preferably, the column vector cell value is determined before adjustment of the weight vector cell value and stored in the storage means.
【0018】 本発明に従うと、カラムベクトルセル値を決定する好ましい方法には、 a) 分類ネットワークに対し既知のクラスの訓練用入力データ例を適用し、か
くして単数又は複数のカラムベクトルをアドレス指定する段階、 b) 既知のクラスのロウに対応するアドレス指定されたカラムベクトルのセル
の値又は票を、好ましくは1だけ増分する段階、及び c) 全ての訓練例がネットワークに適用されてしまうまで、(a)〜(b)の
段階を反復する段階、 という訓練段階が含まれる。According to the present invention, a preferred method for determining column vector cell values includes: a) applying a known class of training input data examples to a classification network, thus addressing one or more column vectors. B) incrementing, preferably by one, the value or vote of a cell of an addressed column vector corresponding to a row of a known class; and c) until all training examples have been applied to the network. A training step of repeating the steps (a) and (b).
【0019】 しかしながら、本発明が、入力訓練用セットによってセルがアドレス指定され
た回数についての代替関数によってカラムセルの情報が決定されるような実施形
態をも同様に網羅することも理解すべきである。かくして、セル情報は、セルが
アドレス指定された全回数の計数を含む必要はなく、例えば、セルがゼロ回、一
回、複数回及び/又は2回及び2回以上等々の訪問を受けた時の表示を含むこと
ができる。However, it should also be understood that the invention equally covers embodiments in which the column cell information is determined by an alternative function on the number of times the cell has been addressed by the input training set. . Thus, the cell information need not include a count of the total number of times the cell has been addressed, for example, when the cell has received zero, one, multiple and / or two and more than two visits, etc. Can be included.
【0020】 これまで、重みセル値を単数又は複数のカラムセルについて決定できるという
ことを述べてきたが、好ましい実施形態においては、全てのカラムベクトルが対
応する重みベクトルを有している。 本発明の実施形態に従って重みセル値を初期化する場合、初期化には、所定の
特定のセル値に各々の重みセル値を設定することが含まれていてよい。これらの
値は、異なるセルについて異なるものであってよいが、全ての重みセル値を所定
の恒常値に設定することもできる。かかる値は、0又は1であり得るが、その他
の値が好ましい場合もある。Although it has been described above that the weight cell value can be determined for one or more column cells, in a preferred embodiment, every column vector has a corresponding weight vector. When initializing weight cell values according to embodiments of the present invention, the initialization may include setting each weight cell value to a predetermined specific cell value. These values may be different for different cells, but it is also possible to set all weight cell values to predetermined constant values. Such a value can be 0 or 1, but other values may be preferred.
【0021】 重みセル値を決定するためには、これらの値を調整することが好ましく、この
調整には単数又は複数の反復段階が含まれていてよい。重みセル値の調整には、
重み及びカラムベクトルセル値の少なくとも一部分に基づいて大域品質値を決定
する段階、大域品質値が必要な品質基準を満たしているか否かで決定する段階、
及び大域品質基準が満たされるまで重みセル値の少なくとも一部分を調整する段
階が含まれている。In order to determine the weight cell values, these values are preferably adjusted, which may include one or more iteration steps. To adjust the weight cell value,
Determining a global quality value based on at least a portion of the weights and column vector cell values; determining whether the global quality value meets a required quality criterion;
And adjusting at least a portion of the weight cell value until a global quality criterion is met.
【0022】 調整プロセスは同様に、サンプリングされた各訓練用入力例についての局所品
質値の決定も含まれており、局所品質値が選択された入力例についての規定され
た又は必要とされる局所品質基準を満たさない場合に単数又は複数の重みセル調
整が実施される。一例を挙げると、重みセル値の調整には、以下の段階が含まれ
ていてよい: a) 訓練用セットから入力データを選択する段階、 b) サンプリングされた訓練用入力例に対応する局所品質値を決定する段階で
あって、この局所品質値が、アドレス指定された重み及びカラムベクトルセル値
の少なくとも一部分の関数である段階、 c) 局所品質値が、必要とされる局所品質基準を満たすか否かを決定し、満た
さない場合は、局所品質基準が満たされていない場合のアドレス指定された重み
ベクトルセル値のうちの単数又は複数のものを調整する段階、 c) 訓練用セットの所定の数の例から新しい入力例を選択する段階、 e) 所定の訓練用入力例全てについて、局所品質テスト段階(b)−(d)を
反復する段階、 f) 局所品質テスト中にアドレス指定されつつある重み及びカラムベクトルの
少なくとも一部分に基づいて大域品質値を決定する段階、 g) 大域品質値が、必要な大域品質基準を満たしているか否かを決定する段階
、及び h) 大域品質基準が満たされるまで段階(a)−(g)を反復する段階。好ま
しくは、上述の調整プロセスのステップ(b)−(d)が訓練用セットの全例に
対して実行されてもよい。The adjustment process also includes determining a local quality value for each sampled training input, where the local quality value is defined or required for the selected input example. If the quality criteria are not met, one or more weight cell adjustments are performed. By way of example, adjusting the weight cell values may include the following steps: a) selecting input data from a training set; b) local quality corresponding to a sampled training input example. Determining a value, wherein the local quality value is a function of at least a portion of the addressed weights and column vector cell values; c) the local quality value meets required local quality criteria Determining whether or not, and if not, adjusting one or more of the addressed weight vector cell values if the local quality criterion is not met; c) defining a training set E) repeating the local quality test steps (b)-(d) for all given training input examples; f) during the local quality test Determining a global quality value based on at least a portion of the weights and column vectors being dressed; g) determining whether the global quality value meets required global quality criteria; and h) global. Repeating steps (a)-(g) until the quality criteria are met. Preferably, steps (b)-(d) of the adjustment process described above may be performed for all examples of the training set.
【0023】 局所及び/又は大域品質値は、重み及び/又はカラムセルの少なくとも一部分
の関数として定義され得る。これに対応して、大域及び/又は局所品質基準は同
様に、重み及び/又はカラムセルの関数でありうる。かくして単数又は複数の品
質基準は、所定の恒常な閾値である必要はなく、調整反復プロセスの間に変更す
ることができる。しかしながら、本発明は、同様に、単数又は複数の品質基準が
恒常な閾値によって与えられるような実施形態をも網羅している。The local and / or global quality values may be defined as a function of the weight and / or at least a portion of the column cell. Correspondingly, the global and / or local quality criterion can likewise be a function of the weight and / or the column cell. Thus, the quality criterion or criterion does not need to be a predetermined constant threshold and can be changed during the adjustment iteration process. However, the invention likewise covers embodiments in which the quality criterion or measures are given by a constant threshold.
【0024】 各々対応する品質基準をもつ単数又は複数の品質値を使用することによって重
みセル値を調整するときには、一定の与えられた数の反復の後品質基準が満たさ
れない場合、調整反復プロセスを停止することが好ましいかもしれないというこ
とを理解すべきである。 同様に、調整プロセス中、調整済みの重みセル値は好ましくは各々の調整後に
記憶され、調整プロセスが大域品質値の決定を含む場合、大域品質値の決定段階
の後には、さらに、決定された大域品質値が、以前に別々に記憶された重みセル
値又は構成値に対応する大域品質値よりも大域品質基準を満たすのに近い場合に
、こうして得られた重みセル値又は分類システム構成値を別々に記憶する段階が
続いていてよいということも理解すべきである。When adjusting the weight cell values by using one or more quality values, each with a corresponding quality criterion, if the quality criterion is not met after a given number of iterations, the adjustment iterative process is performed. It should be understood that stopping may be preferable. Similarly, during the adjustment process, the adjusted weight cell values are preferably stored after each adjustment, and if the adjustment process includes a determination of the global quality value, after the step of determining the global quality value, If the global quality value is closer to meeting the global quality criteria than the global quality value corresponding to the previously separately stored weight cell value or configuration value, the weight cell value or classification system configuration value thus obtained is It should also be understood that a separate storage step may follow.
【0025】 本発明の一実施形態に従った分類システムを訓練することの主たる理由は、未
知のクラスの入力例のその後の分類プロセスにおいて高い信頼性を得ることにあ
る。 かくして、本発明のさらなる態様に従うと、本発明の上述の方法のいずれかに
従って構成されたコンピュータ分類システムを用いて複数のクラスのうちの少な
くとも1つへと入力データ例を分類する方法において、かくして、入力データ例
の単数又は複数の訓練用セットに基づいて各々のn−タプル又はLUTについて
カラムセル値及び対応する重みセル値が決定される方法であって、 a) 分類すべき入力データ例を、構成された分類ネットワークに適用し、かく
して、n−タプル又はLUT内でカラムベクトル及び対応する重みベクトルをア
ドレス指定する段階 b) 1つのクラスを選択し、かくしてn−タプル又はLUTのセット内で特定
のロウをアドレス指定する段階、 b) アドレス指定された重みセルの値の一関数として出力値を決定する段階、 d) 全てのクラスについて出力が決定されてしまうまで、段階(b)−(c)
を反復する段階、 d) 計算された出力値を比較する段階、及び f) 最大出力値をもつ単数又は複数のクラスを選択する段階、 を含んで成る方法も同様に提供されている。The main reason for training a classification system according to one embodiment of the present invention is to obtain high reliability in the subsequent classification process of input examples of unknown classes. Thus, according to a further aspect of the present invention, there is provided a method of classifying an example input data into at least one of a plurality of classes using a computer classification system configured according to any of the above-described methods of the present invention, thus comprising: The column cell values and the corresponding weight cell values for each n-tuple or LUT based on one or more training sets of example input data, wherein: a) determining the input data to classify; Applying to the constructed classification network and thus addressing the column vectors and the corresponding weight vectors in the n-tuple or LUT b) selecting one class and thus identifying in the set of n-tuples or LUTs Addressing the rows of b) the output value as a function of the value of the addressed weight cell Constant stages, d) until the output of all of the classes has been determined, steps (b) - (c)
And d) comparing the calculated output values; and f) selecting the class or classes having the largest output value.
【0026】 未知の入力例を分類する場合、アドレス指定された重みセルから出力値を決定
するために複数の関数を使用することができる。しかしながら出力値を決定する
のに使用されるパラメータが、アドレス指定された重みセルと、アドレス指定さ
れたカラムセルの両方の値を内含していることが好ましい。かくして一例を挙げ
ると、出力値は、所定の値以上のカラムセル値に対応する全てのアドレス指定さ
れた重みセル値の第1の合計として決定される。もう1つの好ましい実施形態に
おいては、出力値を決定する段階には、所定の値以上のカラムベクトルセル値に
対応する全てのアドレス指定された重みセル値の第1の合計を決定する段階、全
てのアドレス指定された重みセル値の第2の合計を決定する段階及び第2の合計
によって第1の合計を除することにより出力値を決定する段階が含まれている。
所定の値は、好ましくは1に設定される。When classifying unknown input examples, multiple functions can be used to determine the output value from the addressed weight cell. However, it is preferred that the parameters used to determine the output value include the values of both the addressed weight cell and the addressed column cell. Thus, by way of example, the output value is determined as a first sum of all addressed weight cell values corresponding to column cell values greater than or equal to a predetermined value. In another preferred embodiment, determining the output value comprises determining a first sum of all addressed weight cell values corresponding to column vector cell values greater than or equal to a predetermined value. Determining a second sum of the addressed weighted cell values and determining an output value by dividing the first sum by the second sum.
The predetermined value is preferably set to one.
【0027】 本発明は同様に、上述の訓練及び分類方法に従った訓練及び分類システムをも
提供している。 かくして、本発明に従うと、各々が、考えられるクラスの少なくとも1つのサ
ブセットに対応する一定数のロウを含み、さらに、値を伴うセルを有するベクト
ルによって各々定義され、サンプリングされた訓練用入力データ例の要素又は信
号によってアドレス指定される一定数のカラムを含んで成る、一定数のn−タプ
ル又はルックアップテーブル(LUT)を含むネットワークによって定義されう
るコンピュータ分類システムの訓練用システムにおいて、既知のクラスの訓練用
入力データ例を受信するための入力手段、受信した入力データ例をサンプリング
し、n−タプル又はLUTの記憶されたセット内でカラムベクトルをアドレス指
定するための手段、 n−タプル又はLUTのセット内で、既知のクラスに対応する特定のロウをア
ドレス指定するための手段、決定されたn−タプル又はLUTを記憶するための
記憶手段、 訓練用入力例セットから対応するセルアドレスがサンプリングされる回数に基
づいた情報を含み入れるかポイントするべくカラムベクトルセル値を決定するた
めの手段及び、訓練用例によりアドレス指定されサンプリングされつつある単数
又は複数のカラムベクトルセルに対応する重みセル値に決定するための手段、 を含んで成るシステムが提供されている。The present invention also provides a training and classification system according to the training and classification method described above. Thus, in accordance with the present invention, sampled training input data each including a fixed number of rows corresponding to at least one subset of possible classes, and further defined by vectors having cells with values, respectively. In a training system of a computer classification system, which can be defined by a network comprising a fixed number of n-tuples or look-up tables (LUTs) comprising a fixed number of columns addressed by elements or signals of Means for receiving an example training input data, means for sampling the received example input data and addressing a column vector within a stored set of n-tuples or LUTs, n-tuples or LUTs Address a specific row corresponding to a known class within a set of Storage means for storing the determined n-tuple or LUT, a column for including or pointing to information based on the number of times the corresponding cell address is sampled from the training input example set. A system comprising: means for determining a vector cell value; and means for determining a weight cell value corresponding to one or more column vector cells being addressed and sampled by the training example. I have.
【0028】 本発明は同様に、各々が、考えられるクラスの数の少なくとも1つのサブセッ
トに対応する一定数のロウを含み、さらに少なくとも一部分が対応する重みベク
トルを有ししかも各々がサンプリングされた訓練用入力データ例の要素又は信号
によってアドレス指定されている一定数のカラムベクトルを含み、かつ各々のカ
ラムベクトル及び重みベクトルが、訓練用入力データ例の単数又は複数のセット
に基づいて訓練プロセス中に決定されつつあるセル値を有している、n−タプル
又はルックアップテーブル(LUTs)の記憶された数によって定義されうる分
類ネットワークの重みセル値を決定するためのシステムにおいて、既知のクラス
の訓練用入力データ例を受信するための入力手段、受信した入力データ例をサン
プリングし、n−タプル又はLUTの記憶されたセット内でカラムベクトル及び
対応する重みベクトルをアドレス指定するための手段、n−タプル又はLUTの
セット内で、既知のクラスに対応する特定のロウをアドレス指定するための手段
、決定されたn−タプル又はLUTを記憶するための記憶手段、訓練用入力例セ
ットから対応するセルアドレスがサンプリングされる回数に基づいた情報を含み
入れるかポイントするべくカラムベクトルセル値を決定するための手段及び単数
又は複数のカラムベクトルセルに対応する重みベクトルセル値を決定するための
手段を含んで成るシステムをも提供する。[0028] The present invention likewise comprises a fixed number of rows, each corresponding to at least one subset of the number of possible classes, and at least a portion having a corresponding weight vector, each of which is sampled. A number of column vectors addressed by the elements or signals of the example input data for training, and each column vector and weight vector is determined during the training process based on the set or sets of training input data examples. Training a known class in a system for determining weight cell values of a classification network that can be defined by stored numbers of n-tuples or look-up tables (LUTs) having cell values being determined Means for receiving input data examples for use, sampling the received input data examples Means for addressing a column vector and a corresponding weight vector within a stored set of n-tuples or LUTs, addressing a particular row corresponding to a known class within a set of n-tuples or LUTs Means for designating, storage means for storing the determined n-tuple or LUT, a column vector to contain or point to information based on the number of times the corresponding cell address is sampled from the training input example set. There is also provided a system comprising means for determining a cell value and means for determining a weight vector cell value corresponding to one or more column vector cells.
【0029】 ここでは、重みセル値を決定するための手段が、決定されたカラムベクトルセ
ル値の少なくとも一部分の情報に基づいて、かつ入力例の訓練用セットの少なく
とも一部分を使用することによってこれらの値を決定するように適合されている
ことが好ましい。 好ましくは、重みセル値を決定するための手段は、正の値の単数又は複数のカ
ラムセルの重みづけを可能にしかつ/又は分類プロセス中に単数又は複数のカラ
ムセルのブーストを可能にするようにこれらの値を決定するべく適合されている
。決定用手段はさらに又は代替的に、分類プロセス中に単数又は複数のカラムベ
クトルセルの抑制を可能にするように重みセル値を決定するように適合されてい
てもよい。Here, the means for determining the weight cell values are based on information of at least a portion of the determined column vector cell values and by using at least a portion of the training set of the input examples. Preferably, it is adapted to determine a value. Preferably, the means for determining the weight cell value is such that one or more column cells having a positive value can be weighted and / or the column cell or cells can be boosted during the classification process. Is adapted to determine the value of The means for determining may additionally or alternatively be adapted to determine the weight cell value to enable suppression of one or more column vector cells during the classification process.
【0030】 本発明の一実施形態に従うと、重み決定手段は、正の値(ゼロより大きい)を
もつ単数又は複数のカラムベクトルセル及び正でない値(0以下)をもつ単数又
は複数のカラムベクトルセルの重みづけを可能にするように重みセル値を決定す
るように適合させることができる。好ましくは、この手段はさらに、任意のカラ
ムセルの重みづけを可能にするため重みセル値を決定するようにさらに適合され
得る。同様に、重みセル値を決定するための手段が、カラムベクトルの少なくと
も一部分に対応する重みベクトルの形に、重みセル値が配置されるようにこれら
の値を決定するべく適合されることも好ましい。According to one embodiment of the invention, the weight determining means comprises one or more column vector cells having a positive value (greater than zero) and one or more column vector cells having a non-positive value (0 or less). It can be adapted to determine weight cell values to allow for weighting of cells. Preferably, the means may be further adapted to determine a weight cell value to allow for weighting of any column cell. Similarly, it is also preferred that the means for determining the weight cell values are adapted to determine these values such that the weight cell values are arranged in the form of a weight vector corresponding to at least a part of the column vector. .
【0031】 本発明の好ましい実施形態に従って重みセル値を決定するためには、重みセル
値を決定するための手段には、カラムベクトルの少なくとも一部分に対応する単
数又は複数の重みベクトルセットを初期化するための手段及び、決定されたカラ
ムベクトルセル値の少なくとも一部分の情報に基づき、かつ訓練用入力例セット
の少なくとも一部分を使用することによって重みベクトルの少なくとも一部分の
重みベクトルセル値を調整するための手段が含まれていてよい。To determine the weight cell value according to a preferred embodiment of the present invention, the means for determining the weight cell value includes initializing one or more sets of weight vectors corresponding to at least a portion of the column vector. Means for adjusting a weight vector cell value of at least a portion of the weight vector based on information of at least a portion of the determined column vector cell value and by using at least a portion of the training input example set. Means may be included.
【0032】 すでに上述したように、重みセル値を決定するためには、カラムセル値を決定
しなければならない。ここで、カラムベクトルセル値を決定するための手段が、
訓練用入力例セットから対応するセルアドレスがサンプリングされる回数の関数
としてこれらの値を決定するように適合されていることが好ましい。代替的には
、カラムベクトルセル値を決定するための手段は、最大値が1であるもののセル
のうちの少なくとも一部分が、訓練用入力例セットから対応するセルアドレスが
サンプリングされる回数の関数である付随する値を有するような形で、これらの
値を決定するように適合されていてよい。As described above, in order to determine a weight cell value, a column cell value must be determined. Here, the means for determining the column vector cell value is
Preferably, it is adapted to determine these values as a function of the number of times the corresponding cell address is sampled from the training input example set. Alternatively, the means for determining the column vector cell value may be such that at least a portion of the cells having a maximum value of 1 is a function of the number of times the corresponding cell address is sampled from the training input example set. It may be adapted to determine these values in such a way as to have certain associated values.
【0033】 本発明の一実施形態に従うと、既知のクラスに属する訓練用入力データ例が分
類ネットワークに適用され、かくして単数又は複数のカラムベクトルをアドレス
指定した時点で、カラムベクトルセル値を決定するための手段が、既知のクラス
のロウに対応するアドレス指定されたカラムベクトルのセルの値又は票を増分さ
せるように適合され、この値が好ましくは1で増分されることが好まれる。According to one embodiment of the present invention, the example training input data belonging to a known class is applied to a classification network, thus determining a column vector cell value when one or more column vectors are addressed. The means for adapting is preferably adapted to increment the value or vote of the cell of the addressed column vector corresponding to a known class of rows, this value being preferably incremented by one.
【0034】 本発明の1実施形態に従って重みセルを初期化するためには、重みベクトルを
初期化するための手段が、単数又は複数の所定の値に重みセル値を設定するよう
に適合されていることが好ましい。 重みセルの調整プロセスのためには、重みベクトルセル値を調整するための手
段が、重み及びカラムベクトルセル値の少なくとも一部分に基づいて大域品質値
を決定し、大域品質値が必要とされる大域品質基準を満たすか否かを決定し、大
域品質基準が満たされるまで重みベクトルセルの少なくとも一部分を調整するよ
うに適合されていることが好ましい。To initialize a weight cell according to an embodiment of the present invention, the means for initializing the weight vector is adapted to set the weight cell value to one or more predetermined values. Is preferred. For the weight cell adjustment process, the means for adjusting the weight vector cell value determines a global quality value based on the weight and at least a portion of the column vector cell value, wherein the global quality value is needed. Preferably, it is adapted to determine whether a quality criterion is met and to adjust at least a portion of the weight vector cells until the global quality criterion is met.
【0035】 本発明に従った好ましい実施形態の一例としては、重みベクトルセル値を調整
するための手段は、 a) サンプリングされた訓練用入力例に対応しアドレス指定された重み及びカ
ラムベクトルセル値の少なくとも一部分の関数である局所品質値を決定し、 b) 局所品質値が、必要とされる局所品質基準を満たすか否かを決定し、 b) 局所品質基準が満たされていない場合にアドレス指定された重みベクトル
セル値のうちの単数又は複数のものを調整し、 c) 所定の数の訓練用入力例について、局所品質テストを反復し、 d) 局所品質テスト中にアドレス指定されつつある重み及びカラムベクトルの
少なくとも一部分に基づいて大域品質値を決定し、 e) 大域品質値が、必要な大域品質基準を満たしているか否かを決定し、 f) 大域品質基準が満たされるまで局所及び大域品質テストを反復するように
適合されていてよい。As an example of a preferred embodiment according to the present invention, the means for adjusting the weight vector cell value comprises: a) weight and column vector cell values addressed corresponding to the sampled training input. B) determining whether the local quality value satisfies a required local quality criterion; b) determining an address if the local quality criterion is not satisfied. Adjusting one or more of the specified weight vector cell values; c) repeating the local quality test for a predetermined number of training input examples; d) being addressed during the local quality test. Determining a global quality value based on at least a portion of the weights and the column vector; e) determining whether the global quality value meets required global quality criteria; f) It may be adapted to repeat the local and global quality tests until the global quality criteria are met.
【0036】 重みベクトルセル値を調整するための手段は一定の与えられた反復回数の後に
、大域品質基準が満たされなかった場合に反復プロセスを停止させるように適合
されていてよい。好ましい実施形態においては、n−タプル又はLUTを記憶す
るための手段には、調整された重みセル値を記憶するための手段及びそれまで最
高の重みセル値又はそれまで最高のシステム構成値を記憶するための別々の手段
が含まれている。ここで重みベクトルセル値を調整するための前記手段はさらに
、決定された大域品質値が、以前に別途記憶されたそれまで最高の重み値に対応
する大域品質値よりも大域品質基準を満たすのに近い場合に、以前に別途記憶さ
れたそれまで最高の重みセル値を得られた調整済み重みセル値と置換するように
適合されている。かくして、たとえ一定の与えられた反復回数のうちにシステム
が大域品質基準を満たすことができない場合でも、システムはつねに「それまで
最高の」システム構成を含むことができる。The means for adjusting the weight vector cell value may be adapted to stop the iterative process after a given number of iterations if the global quality criterion is not met. In a preferred embodiment, the means for storing the n-tuple or LUT comprises means for storing the adjusted weight cell values and storing the highest weight cell value or the highest system configuration value so far. Separate means for doing so are included. Wherein the means for adjusting the weight vector cell value further comprises: determining that the determined global quality value satisfies a global quality criterion higher than the global quality value corresponding to the highest weight value previously stored separately. , Is adapted to replace the previously weighted cell value previously stored separately with the adjusted cell value obtained. Thus, even if the system cannot meet the global quality criteria within a given number of iterations, the system can always include the “best ever” system configuration.
【0037】 本発明のさらなる態様に従うと、複数のクラスのうちの少なくとも1つに未知
のクラスの入力データ例を分類するためのシステムにおいて、各々が一定数の考
えられるクラスの少なくとも1つのサブセットに対応する一定数のロウを含み、
さらに対応する重みベクトルを伴う一定数のカラムベクトルを含む一定数のn−
タプル又はルックアップテーブル(LUTS)又はセットを記憶するための記憶
手段を含んで成り、各カラムベクトルが、サンプリングされた入力データ例の要
素又は信号によってアドレス指定され、各々のカラムベクトル及び重みベクトル
が、単数又は複数の訓練用入力データ例セットに基づいて訓練用プロセス中に決
定される値をもつセルを有しているシステムであって、分類すべき入力データ例
を受信するための入力手段、受信した入力データ例をサンプリングし、記憶され
たn−タプル又はLUTセットの中でカラム及び対応する重みベクトルをアドレ
ス指定するための手段、特定のクラスに対応する特定のロウを、n−タプル又は
LUTセット内でアドレス指定するための手段、アドレス指定された重みセルの
一関数として出力値を決定するための手段及び、全てのクラスに対応する計算さ
れた出力値を比較し、最大出力をもつ単数又は複数のクラスを選択するための手
段をさらに含んで成るシステムも同様に提供されている。According to a further aspect of the present invention, a system for classifying an example of input data of an unknown class into at least one of a plurality of classes, wherein each system includes at least one subset of a certain number of possible classes. Contains a corresponding number of rows,
Further, a fixed number of n-
Comprising storage means for storing tuples or look-up tables (LUTS) or sets, wherein each column vector is addressed by an element or signal of the sampled input data example, and each column vector and weight vector is A system having cells with values determined during a training process based on one or more training input data set sets, the input means for receiving the training input data examples to be classified; Means for sampling the received input data example and addressing the columns and corresponding weight vectors in the stored n-tuple or LUT set, a particular row corresponding to a particular class, an n-tuple or Means for addressing in the LUT set, the output value as a function of the addressed weight cell There is also provided a system further comprising means for determining and comparing the calculated output values corresponding to all classes and selecting one or more classes having a maximum output. .
【0038】 本発明の分類システムの好ましい実施形態に従うと、出力決定手段には、所定
の値以上のカラムベクトルセル値に対応しかつ特定のクラスに対応するアドレス
指定された重みベクトルセル値全ての第1の合計を生成するための手段が含まれ
ている。同様に、出力決定手段には、特定のクラスに対応する全てのアドレス指
定された重みベクトルセル値の第2の合計を生成するための手段及び、第1の合
計を第2の合計で除することによって出力値を決定するための手段がさらに含ま
れることも好ましい。According to a preferred embodiment of the classification system of the present invention, the output determining means includes all of the addressed weight vector cell values corresponding to a column vector cell value equal to or greater than a predetermined value and corresponding to a specific class. Means for generating a first sum are included. Similarly, the output determining means includes means for generating a second sum of all addressed weight vector cell values corresponding to the particular class, and dividing the first sum by the second sum. Preferably, means for determining the output value is further included.
【0039】 本発明に従った分類システムのカラム及び重みベクトルのセル値が上述のシス
テムのうちのいずれかに従った訓練システムを使用することによって決定される
ことが好ましい、ということが理解されるはずである。従って、これらのセル値
は、上述の方法のうちのいずれかに従って訓練プロセス中に決定され得る。 本発明をより良く理解するため、及び本発明をいかに実施できるかを示すため
、ここで一例として、添付図面を参照されたい。It is understood that the cell values of the columns and weight vectors of the classification system according to the invention are preferably determined by using a training system according to any of the systems described above. Should be. Thus, these cell values may be determined during the training process according to any of the methods described above. For a better understanding of the present invention and to show how it may be carried into effect, reference is now made by way of example to the accompanying drawings.
【0040】 発明の詳細な説明 以下では、アーキテクチャのカラムセルに関する訓練プロセスの例及び分類プ
ロセスの例を内含する、本発明に従った分類システムのアーキテクチャ及び概念
についてのさらに詳細な説明が提供される。さらに、本発明の実施形態に従った
重みセルについての学習プロセスの異なる例についても記述される。DETAILED DESCRIPTION OF THE INVENTION In the following, a more detailed description of the architecture and concepts of a classification system according to the present invention is provided, including an example of a training process and an example of a classification process for the column cells of the architecture. . Further, different examples of the learning process for weight cells according to embodiments of the present invention are described.
【0041】 表記法 以下の記述及び例で使用される表記法は、次の通りである。 X: 訓練用セット Notation The notation used in the following description and examples is as follows. X: Training set
【0042】[0042]
【数1】 (Equation 1)
【0043】 NX : 訓練用セットX内の例の数N X : number of examples in training set X
【0044】[0044]
【数2】 (Equation 2)
【0045】 C: クラスラベルC: Class label
【0046】[0046]
【数3】 (Equation 3)
【0047】 CW : 分類により得られる勝者クラス CR : 分類により得られた次点クラスC W : winner class obtained by classification C R : runner-up class obtained by classification
【0048】[0048]
【数4】 (Equation 4)
【0049】 NC : LUT内の最大ロウ数に対応する訓練用クラス数 Ω: LUTセット(各LUTは、考えられる全てのアドレスカラムのサブセッ
トのみを含むことができる、又異なるカラムは既存のクラスのサブセットのみを
記録できる); NLUT : LUTの数 NCOL : 特定のLUT内でアドレス指定され得る(LUT依存性)異なるカラ
ムの数 SC : クラスCとラベル付けされた訓練用例のセット WiC: i番目のカラム及びC番目のクラスによってアドレス指定されたセルに
ついての重み ViC: i番目のカラム及びC番目のクラスによってアドレス指定されたセルに
ついてのエントリカウンタN C : number of training classes corresponding to the maximum number of rows in the LUT Ω: LUT set (each LUT can contain only a subset of all possible address columns, and different columns can be existing classes N LUT : number of LUTs N COL : number of different columns that can be addressed within a particular LUT (LUT-dependent) S C : set of training examples labeled class C W iC : weight for cell addressed by i-th column and C-th class V iC : entry counter for cell addressed by i-th column and C-th class
【0050】[0050]
【数5】 (Equation 5)
【0051】 アーキテクチャ及び概念の説明 以下では、ルックアップテーブル(LUTS)を伴うRAM分類ネットワーク
のブロック図を示す図1と、本発明に従った単一のルックアップテーブル(LU
T)の詳細なブロック図を示す図2を参照する。 RAM−net 又はLUT−net は、一定数のルックアップテーブル(LUTs
)(1. 3)で構成されている。LUTの数をNLUT と記すものとする。分類す
べき入力データベクトル−yの一例がLUTネットワークの入力モジュール(1
. 1)に提示され得る。各LUTは、入力データの一部分をサンプリングするこ
とができ、ここで異なるLUT(1. 2)について異なる数の入力信号をサンプ
リングすることができる(原則として、入力スペース全体をサンプリングする1
つのLUTを有することも可能である)。LUTの出力はRAM分類ネットワー
クの出力モジュール(1. 4)に供給され得る。DESCRIPTION OF ARCHITECTURE AND CONCEPT In the following, FIG. 1 shows a block diagram of a RAM classification network with a look-up table (LUTS) and a single look-up table (LU) according to the invention.
Please refer to FIG. 2 showing a detailed block diagram of T). The RAM-net or LUT-net has a fixed number of lookup tables (LUTs).
) (1.3). Let the number of LUTs be denoted as N LUT . An example of the input data vector -y to be classified is the input module (1) of the LUT network.
. 1). Each LUT can sample a portion of the input data, where a different number of input signals can be sampled for different LUTs (1.2) (in principle, one that samples the entire input space).
It is also possible to have two LUTs). The output of the LUT can be provided to the output module (1.4) of the RAM classification network.
【0052】 図2では、各々のLUTについて、LUT−net に提示された例のサンプリン
グされた入力データ(2. 1)を、アドレス選択モジュール(2. 2)に供給す
ることができる、ということが示されている。アドレス選択モジュール(2. 2
)は入力データから、LUT内の単数又は複数の特定のカラム(2. 3)のアド
レスを計算することができる。一例を挙げると、入力例In FIG. 2, for each LUT, the sampled input data (2.1) presented on the LUT-net can be supplied to the address selection module (2.2). It is shown. Address selection module (2.2
) Can calculate the address of one or more specific columns (2.3) in the LUT from the input data. One example is input example
【0053】[0053]
【数6】 (Equation 6)
【0054】 によりアドレス指定されているi番目のLUT内のカラムの指標が、The index of the column in the i-th LUT addressed by
【0055】[0055]
【数7】 (Equation 7)
【0056】 として計算されるものとする。特定のLUT内のアドレス指定可能なカラムの数
はNCOL と表わすことができ、これは一般にLUT間で変化する。LUTの特定
のロウ内に記憶された情報は特定のクラスC(2. 4)に対応する可能性がある
。このとき最大ロウ数は、クラス数NC に対応する可能性がある。好ましい実施
形態においては、LUT内の全てのカラムが2つのセルセットを含む。各セット
内のセル数は、LUT内のロウの数に対応する。第1のセルセットは、カラムベ
クトルセルと表わすことができ、セル値は、問題のカラムのクラス特定的エント
リカウンタに対応しうる。もう1つのセルセットは、各々1つのエントリカウン
タ値又はカラムベクトルセル値と結びつけることのできる重み因子に対応しうる
セル値を伴う重みセル又は重みベクトルセルと表示することができる。i番目の
カラム及びクラスCによりアドレス指定されるセルについてのエントリカウンタ
値はViC(2. 5)と表示される。i番目のカラム及びクラスCによりアドレス
指定されるセルについての重み値はWiC(2. 6)と表示されている。It is assumed to be calculated as The number of addressable columns in a particular LUT can be represented as N COL , which generally varies between LUTs. The information stored in a particular row of the LUT may correspond to a particular class C (2.4). At this time, the maximum number of rows may correspond to the number of classes N C. In a preferred embodiment, every column in the LUT contains two sets of cells. The number of cells in each set corresponds to the number of rows in the LUT. The first set of cells may be represented as column vector cells, and the cell value may correspond to a class specific entry counter for the column in question. Another set of cells can be denoted as weight cells or weight vector cells with cell values that can correspond to weight factors that can be associated with one entry counter value or column vector cell value, respectively. The entry counter value for the cell addressed by the i-th column and class C is denoted as V iC ( 2.5 ). The weight value for the cell addressed by the i-th column and class C is labeled W iC ( 2.6 ).
【0057】 活動化されたLUTカラム(2. 7)のViC及びWiC値は、出力モジュール(
1. 5)に供給され(1. 4),ここで、各クラスについて票番号が計算され得
、又ここで最終的に、winner-takes-all( WTA)決定が実行され得る。The V iC and W iC values of the activated LUT column ( 2.7 ) are stored in the output module (
1.5) is provided (1.4), where a vote number can be calculated for each class, and finally a winner-takes-all (WTA) decision can be performed.
【0058】[0058]
【数8】 (Equation 8)
【0059】 が、訓練のために使用される入力データを表わし、Represents the input data used for training,
【0060】[0060]
【数9】 (Equation 9)
【0061】 が訓練用セットに属さない入力データ例を表わすものとする。又Represents an example of input data that does not belong to the training set. or
【0062】[0062]
【数10】 (Equation 10)
【0063】 は、Is
【0064】[0064]
【数11】 [Equation 11]
【0065】 が属するクラスを表わすものとする。例Represents the class to which belongs. An example
【0066】[0066]
【数12】 (Equation 12)
【0067】 に与えられるクラス割当ては次に、各クラスについての票数を計算することによ
って得られる。クラスCについて得られた票数は、例The class assignment given to is then obtained by calculating the number of votes for each class. The number of votes obtained for class C is an example
【0068】[0068]
【数13】 (Equation 13)
【0069】 によってアドレス指定されたViC及びWiCの関数として計算される:Calculated as a function of V iC and W iC addressed by:
【0070】[0070]
【数14】 [Equation 14]
【0071】 計算された票数から、勝者クラスCw を以下のように得ることができる:From the calculated number of votes, the winner class C w can be obtained as follows:
【0072】[0072]
【数15】 (Equation 15)
【0073】[0073]
【数16】 (Equation 16)
【0074】 の感応性ある選択の一例としては以下の式がある:An example of a sensitive choice for is:
【0075】[0075]
【数17】 [Equation 17]
【0076】 なお式中、δi,j は、クロネッカーの記号であり(i=jであれば、δi,j =
1であり、その他の場合には0である)、In the equation, δ i, j is a Kronecker symbol (if i = j, δ i, j =
1 and 0 otherwise),
【0077】[0077]
【数18】 (Equation 18)
【0078】 Ωは、LUTネットワーク全体を構成するLUTのセットを記述し、Sc は、
クラスCとラベル付けされた訓練用例のセットを表わす。全てのWiC値1に設定
された特殊なケースでは、従来のLUTネットワークが得られる。Ω describes the set of LUTs that make up the entire LUT network, and Sc
4 represents a set of training examples labeled class C. In the special case where all WiC values are set to 1, a conventional LUT network is obtained.
【0079】[0079]
【数19】 [Equation 19]
【0080】 図3は、本発明に従ったコンピュータ分類システムのブロック図の例を示す。
ここでは、ビデオカメラ又はデータベースといったような供給源が、分類すべき
例を記述する単数又は複数の入力データ信号(3. 0)を提供する。これらのデ
ータは、所定の要領で特長を抽出し、入力データを縮小及び変換することのでき
るタイプの予備処理モジュール(3. 1)に供給される。かかる予備処理モジュ
ールの例としてはFFT(高速フーリエ変換)ボードがある。変換済みデータは
次に、本発明に従ったRAMネットワークを含む分類ユニット(3. 2)に供給
される。分類ユニット(3. 2)は、付随する信頼性を含み得るランキングされ
た分類リストを出力する。分類ユニットは、標準型パーソナルコンピュータをプ
ログラムするべくソフトウェアを使用することによってか又はハードウェアデバ
イスをプログラムすることによって、例えばRAM回路及びデジタル信号プロセ
ッサと組合せられたプログラム可能なゲートアレイを用いることによって実施さ
れ得る。これらのデータは、その他の関連情報と得られた分類を組合わせるコン
ピュータモジュールであってよい後処理デバイス(3. 3)の中で解釈され得る
。最終的に、この解釈の結果は、アクチュエータといったような出力デバイス(
3. 4)に供給される。FIG. 3 shows an example of a block diagram of a computer classification system according to the present invention.
Here, a source, such as a video camera or a database, provides one or more input data signals (3.0) describing the examples to be classified. These data are supplied to a preprocessing module (3.1) of a type capable of extracting features in a predetermined manner and reducing and converting the input data. An example of such a pre-processing module is an FFT (Fast Fourier Transform) board. The transformed data is then provided to a classification unit (3.2) comprising a RAM network according to the invention. The classification unit (3.2) outputs a ranked classification list that may include associated reliability. The classification unit is implemented by using software to program a standard personal computer or by programming a hardware device, for example, by using a programmable gate array combined with a RAM circuit and a digital signal processor. Can be done. These data can be interpreted in a post-processing device (3.3), which can be a computer module that combines the obtained classification with other relevant information. Ultimately, the result of this interpretation is an output device such as an actuator (
3.4).
【0081】 アーキテクチャの初期訓練 図4の流れ図は、以下のように記述できる本発明の一実施形態に従ったViC分
布(4. 0)であるカラムベクトルエントリカウンタ又はセルの分布の決定のた
めのワンパス学習スキーム又はプロセスを例示している: 1.セル値 Initial Training of the Architecture The flow diagram of FIG. 4 is for determining a column vector entry counter or cell distribution that is a V iC distribution (4.0) according to one embodiment of the present invention, which can be described as follows. Illustrates a one-pass learning scheme or process for: Cell value
【0082】[0082]
【数20】 (Equation 20)
【0083】 をゼロに設定することによって全てのエントリカウンタ又はカラムベクトルを初
期化し、重み値Initialize all entry counters or column vectors by setting
【0084】[0084]
【数21】 (Equation 21)
【0085】 を初期化する。これは、全ての重み値を恒常な因子に設定すること又は特定の範
囲内からランダム値を選択することによって実行可能である(4. 1)。 2.訓練用セットXからの第1の訓練用入力例、Is initialized. This can be done by setting all weight values to constant factors or by choosing random values from within a certain range (4.1). 2. A first training input example from training set X;
【0086】[0086]
【数22】 (Equation 22)
【0087】 をネットワークに提示する(4. 2,4. 3)。 3.第1のLUTについてアドレス指定されたカラムを計算する(4. 4,4.
5)。 4.Is presented to the network (4.2, 4.3). 3. Compute the addressed column for the first LUT (4.4, 4.
5). 4.
【0088】[0088]
【数23】 (Equation 23)
【0089】 のクラスラベルに対応するアドレス指定されたカラムのロウ内のエントリカウン
タに1を付加する(全てのLUT内でAdd 1 to the entry counter in the row of the addressed column corresponding to the class label (in all LUTs)
【0090】[0090]
【数24】 (Equation 24)
【0091】 を増分する)(4. 6)。 5.残りのLUTについてステップ4を反復する(4. 7,4. 8)。 6.残りの訓練用入力例についてステップ3−5を反復する(4. 9,4. 10
)。訓練用例の数は、NX と表わされる。 未知の入力例の分類 本発明のRAMネットワークが訓練されかくして、LUTを定義できるカラム
セル及び重みセルについての値が決定された時点で、未知の入力データ例を分類
するためにネットワークを使用することができる。Is incremented) (4.6). 5. Repeat step 4 for the remaining LUTs (4.7, 4.8). 6. Repeat steps 3-5 for the remaining training input examples (4.9, 4.10
). The number of training examples is represented as N X. Classification of Unknown Input Examples Once the RAM network of the present invention has been trained, and once the values for the column cells and weight cells that can define the LUT have been determined, the network can be used to classify the unknown input data examples. it can.
【0092】 本発明に従った好ましい例においては、分類は、最大の票数つまり以下の式に
より得られるVote No をもつクラスを決定することによって実行される:In a preferred example according to the invention, the classification is performed by determining the class with the largest number of votes, ie, Vote No, obtained by the following equation:
【0093】[0093]
【数25】 (Equation 25)
【0094】 分母がゼロである場合、Vote No は0であるものと定義することができる。 かくして、分類の例は、図1及び2を参考にして以下のように記述することが
できる: ・ 未知の入力例If the denominator is zero, Vote No can be defined as being zero. Thus, an example of a classification can be described as follows with reference to FIGS. 1 and 2: An unknown input example
【0095】[0095]
【数26】 (Equation 26)
【0096】 をネットワークに提示する(1. 1)。 ・ 全てのLUTについて、Is presented to the network (1.1).・ For all LUTs,
【0097】[0097]
【数27】 [Equation 27]
【0098】 によりアドレス指定されたカラムThe column addressed by
【0099】[0099]
【数28】 [Equation 28]
【0100】 を計算する(2,3)。 ・ (アドレス指定されたカラムの各々の中の特定のロウに対応する)各クラ
スについて、Is calculated (2, 3). For each class (corresponding to a particular row in each of the addressed columns)
【0101】[0101]
【数29】 (Equation 29)
【0102】 の和(sum _1)を生成する。The sum (sum — 1) is generated.
【0103】[0103]
【数30】 [Equation 30]
【0104】 という項は、The term is
【0105】[0105]
【数31】 (Equation 31)
【0106】 である場合にIn the case where
【0107】[0107]
【数32】 (Equation 32)
【0108】 成分のみが含まれることを意味している(1. 5)。 ・ (アドレス指定されたカラムの各々の中の特定のロウに対応する)各クラ
スについて、It means that only the component is contained (1.5). For each class (corresponding to a particular row in each of the addressed columns)
【0109】[0109]
【数33】 [Equation 33]
【0110】 の和(sum _2)を生成する(1. 5)。 ・ Out〔C〕=sum _1/sum _2としてクラスCに対応する出力値を計
算する(1. 5)。 ・ Out〔C〕を最大にするクラス(単複)を選ぶ(1. 5)。 図7は、分類プロセス(7. 0)が実行されるコンピュータ分類システムの動
作のブロック図を示す。システムは、例えば光センサー系などを用いて単数又は
複数の入力信号を獲得する(7. 1)。得られた入力データは、例えば低域フィ
ルタといった予備処理モジュール内で予め処理され(7. 2),発明の一実施形
態によるとLUTネットワークでありうる分類モジュール(7. 3)に提示され
る。分類モジュールからの出力データは次に、後処理モジュール(7. 4)例え
ば巡回冗長検査合計を計算するCRCアルゴリズムの中で後処理され、結果は、
モニタースクリーンでありうる出力デバイスまで転送される(7. 5)。The sum (sum — 2) is generated (1.5). Calculate the output value corresponding to class C as Out [C] = sum_1 / sum_2 (1.5). Select the class (s) that maximizes Out [C] (1.5). FIG. 7 shows a block diagram of the operation of the computer classification system in which the classification process (7.0) is performed. The system acquires one or more input signals using, for example, an optical sensor system (7.1). The obtained input data is pre-processed in a pre-processing module, for example a low-pass filter (7.2) and presented to a classification module (7.3), which may be a LUT network according to one embodiment of the invention. The output data from the classification module is then post-processed in a post-processing module (7.4), for example a CRC algorithm that calculates a cyclic redundancy check sum, and the result is:
It is forwarded to an output device that can be a monitor screen (7.5).
【0111】 重み調整 通常、最初に決定された重みセル値は、最適な値の選択を提示しない。かくし
て、本発明の好ましい実施形態に従うと、重み値の最適化又は調整が実行されな
くてはならない。 分類システムの性能を改善する目的で重み値を選択し調整するためには、本発
明の実施形態に従うと、重み値の性能を測定するための適正な品質関数を定義す
ることが示唆されている。かくして、局所品質関数 Weight Adjustment Normally, the initially determined weight cell value does not suggest an optimal value selection. Thus, according to a preferred embodiment of the present invention, optimization or adjustment of the weight value must be performed. In order to select and adjust the weight values for the purpose of improving the performance of the classification system, it is suggested according to an embodiment of the present invention to define an appropriate quality function for measuring the performance of the weight values. . Thus, the local quality function
【0112】[0112]
【数34】 (Equation 34)
【0113】 を定義することができ、ここでCan be defined, where
【0114】[0114]
【数35】 (Equation 35)
【0115】 は、LUTネットワークの全てのViC要素を含むベクトルを表わし、 Represents a vector containing all V iC elements of the LUT network,
【0116】[0116]
【数36】 [Equation 36]
【0117】 は、LUTネットワークの全てのWiC要素を含むベクトルを表わしている。局所
品質関数は、特定の例 Represents a vector including all W iC elements of the LUT network. The local quality function is a specific example
【0118】[0118]
【数37】 (37)
【0119】 の出力分類の信頼性測度を提供することができる。品質値が一定の与えられた基
準(反復の間に動的に変更されている可能性あり)を満たさない場合、重みA confidence measure for the output classification of can be provided. If the quality value does not meet certain given criteria (which may have changed dynamically between iterations), the weight
【0120】[0120]
【数38】 (38)
【0121】 は、品質値が基準を満たすか又は満たすのにより近いものとなる(可能な場合)
ようにするべく調整される。 さらに、大域品質関数:Is that the quality value meets or is closer to meeting the criteria (if possible)
It is adjusted to make it so. In addition, the global quality function:
【0122】[0122]
【数39】 [Equation 39]
【0123】 も定義できる。大域品質関数は入力訓練用セットの性能を全体として測定するこ
とができる。 図5は、本発明に従った重みセルの調整又は学習のための流れ図を示す。図5
の流れ図は、特定の実施形態のために単純化可能である、より一般的な調整又は
学習プロセスを例示している。Can also be defined. The global quality function can measure the performance of the input training set as a whole. FIG. 5 shows a flow chart for adjusting or learning the weight cells according to the present invention. FIG.
Flowchart illustrates a more general tuning or learning process that can be simplified for a particular embodiment.
【0124】 例1 入力例Example 1 Input example
【0125】[0125]
【数40】 (Equation 40)
【0126】 についての票数関数は以下の式から得られる。The vote number function for is obtained from the following equation.
【0127】[0127]
【数41】 [Equation 41]
【0128】 VotoNo( )関数のこの定義によると、訓練用セットの入力例According to this definition of the VotoNo () function, an input example of the training set
【0129】[0129]
【数42】 (Equation 42)
【0130】 についてのリーブ・ワン・アウト相互妥当性検査を次のように計算することがで
きる:A leave-one-out cross-validation for can be calculated as follows:
【0131】[0131]
【数43】 [Equation 43]
【0132】 この式は、This equation is:
【0133】[0133]
【数44】 [Equation 44]
【0134】 である場合にWhen is
【0135】[0135]
【数45】 [Equation 45]
【0136】 に等しくEqual to
【0137】[0137]
【数46】 [Equation 46]
【0138】 の場合In the case of
【0139】[0139]
【数47】 [Equation 47]
【0140】 に等しい因子A factor equal to
【0141】[0141]
【数48】 [Equation 48]
【0142】 を除いて、以上で実際に説明されている。Except for, it is actually described above.
【0143】[0143]
【数49】 [Equation 49]
【0144】 は、Is
【0145】[0145]
【数50】 [Equation 50]
【0146】 である場合にのみ1であり、その他の場合には0である。これは単に、1つの例
が、リーブ・ワン・アウト相互妥当性検査を計算するときそれ自体からの寄与を
得ることができないということを確実にしているだけである。 例It is 1 only when, and 0 in other cases. This merely ensures that one example cannot obtain a contribution from itself when calculating the leave-one-out cross-validation. An example
【0147】[0147]
【数51】 (Equation 51)
【0148】 について計算された局所品質関数を以下のように定義するものとする:Let the local quality function calculated for is defined as follows:
【0149】[0149]
【数52】 (Equation 52)
【0150】 ここでQL は、Here, Q L is
【0151】[0151]
【数53】 (Equation 53)
【0152】 が相互妥当性検査の誤りを生成する場合0であり、その他の場合には1である。
従って、QL =0である場合には、重み変更が行なわれる。 大域品質関数を以下のように定義するものとする:Is 0 if generates a cross-validation error, and 1 otherwise.
Therefore, when Q L = 0, weight change is performed. Let the global quality function be defined as:
【0153】[0153]
【数54】 (Equation 54)
【0154】 この大域品質関数は、The global quality function is:
【0155】[0155]
【数55】 [Equation 55]
【0156】 である場合訓練用セット全体にわたる和の中の各項が1であり、そうでなければ
0であることから、訓練用セントの外に残された場合に適正に分類されることに
なる訓練用セットXからの例の数を測定する。大域品質基準は、リーブ・ワン・
アウト相互妥当性検査テスト内で適正に分類されるべく要求されている訓練用例
の分画を決定するパラメータをεとして、QG >εNX を満たすべきものであり
うる。Since each term in the sum over the training set is 1 if and 0 otherwise, it is properly classified if left outside the training cent. The number of examples from training set X is determined. Global quality standards are Leave One
The parameters that determine the fraction of the training example required to be properly classified in the out-cross-validation test may be those that satisfy Q G > εN X , with ε as the parameter.
【0157】 QG を改善するための更新スキームを、以下の規則により実施することができ
る。 誤った相互妥当性検査を伴う訓練用セットの全ての入力例An updating scheme to improve Q G can be implemented according to the following rules. All training set input examples with incorrect cross-validation
【0158】[0158]
【数56】 [Equation 56]
【0159】 について、以下の式により重みを調整する:For, adjust the weights according to the following equation:
【0160】[0160]
【数57】 [Equation 57]
【0161】 なお式中kは小さい定数である。kの実現可能な選択は、WiC値の絶対値の平
均の10分の1であり得る。 この更新規則は、[0161] Note that k is a small constant in the expression. A feasible choice of k may be one tenth of the average of the absolute values of the WiC values. This update rule:
【0162】[0162]
【数58】 [Equation 58]
【0163】 である場合にIn the case where
【0164】[0164]
【数59】 [Equation 59]
【0165】 であること、及び、That is, and
【0166】[0166]
【数60】 [Equation 60]
【0167】 である場合にWhen is
【0168】[0168]
【数61】 [Equation 61]
【0169】 であることを暗に意味している。max( )関数は、重みが負になり得ないことを確
実にしている。 ここで、図5を参照すると、例1の重み更新又は調整ステップは、以下のよう
に記述することができる。: ・ 全てのWiC値をゼロに初期化する(5. 1)。Implies that The max () function ensures that the weight cannot be negative. Referring now to FIG. 5, the weight update or adjustment step of Example 1 can be described as follows. : Initialize all WiC values to zero (5.1).
【0170】 ・ 訓練用セット内の全ての例をループする(5. 2,5. 10,5. 3)。 ・ 各々の例について局所品質値を計算する(例は、訓練セットから除外され
た場合に適正に分類され得るか?)(5. 4,5. 5)。 ・ 答えが「はい」の場合には、次の例に進む(5. 10)。答えが「いいえ
」の場合は、対応するカラムセルが正の寄与をVoteNo( )関数に付加する場合(
すなわち• Loop through all examples in the training set (5.2, 5.10, 5.3). Calculate the local quality value for each example (can the examples be properly classified if excluded from the training set?) (5.4, 5.5). • If the answer is yes, proceed to the next example (5.10). If the answer is no, then the corresponding column cell adds a positive contribution to the VoteNo () function (
Ie
【0171】[0171]
【数62】 (Equation 62)
【0172】 である場合)「真の」クラスのアドレス指定された重みを増大させ、そうでなけ
れば(すなわちIncrease the addressed weight of the “true” class, otherwise (ie,
【0173】[0173]
【数63】 [Equation 63]
【0174】 である場合)「真の」クラスの重みを減少させる(5. 6−5. 9) ・ 大域品質値を計算する。品質がそれまで得られた最高のものである場合、
LUT ネットワークを記憶する(5. 11)。 ・ 大域品質値が満足のいくものとなるまで又はその他の出口条件が満たされ
るまで繰返す(5. 12,5. 13)。If), reduce the weight of the "true" class (5.6-5.9). Calculate the global quality value. If the quality is the best you have ever obtained,
Store the LUT network (5.11). • Repeat until the global quality value is satisfactory or other exit conditions are satisfied (5.12, 5.13).
【0175】 例2 入力例Example 2 Input example
【0176】[0176]
【数64】 [Equation 64]
【0177】 についての票数関数が以下のように得られたものとする:Assume that the vote function for has been obtained as follows:
【0178】[0178]
【数65】 [Equation 65]
【0179】 真のクラスThe true class
【0180】[0180]
【数66】 [Equation 66]
【0181】 について、以下の関数を用いて、一定の与えられたV値についてのWith respect to a given V value, using the following function:
【0182】[0182]
【数67】 [Equation 67]
【0183】 の値を合計する:Sum the values of:
【0184】[0184]
【数68】 [Equation 68]
【0185】 パラメータIは、ViC 0<Vi.c ≦Nx の可能な値全体にわたりランする。
勝ちクラスCW と次点クラスCR の間の信頼性Confを、このとき以下のとおりに
定義することができる:The parameter I runs over all possible values of V iC 0 <V ic ≦ N x .
The confidence Conf between the winning class C W and the runner-up class C R can then be defined as:
【0186】[0186]
【数69】 [Equation 69]
【0187】 以下の関数により値mを決定することができる:The value m can be determined by the following function:
【0188】[0188]
【数70】 [Equation 70]
【0189】 合計指標nの上限は、The upper limit of the total index n is
【0190】[0190]
【数71】 [Equation 71]
【0191】 ベクトル内で1から最大ViC値まで変動しうる。この式は、It can vary from 1 to the maximum V iC value in the vector. This expression is
【0192】[0192]
【数72】 [Equation 72]
【0193】 であるnの最大値としてmが選ばれていることを語っている。 局所品質関数を、ここで以下のように定義することができる:It states that m is selected as the maximum value of n. The local quality function can now be defined as:
【0194】[0194]
【数73】 [Equation 73]
【0195】 なお式中、mthreshは、閾値定数である。QL <0である場合には、重みWij は、次点クラスCR 上で重みを調整することによりQL を増大させるべく更新さ
れる:In the equation, m thresh is a threshold constant. If a Q L <0, the weight W ij is updated to increase the Q L by adjusting the weights on the runner-up class C R:
【0196】[0196]
【数74】 [Equation 74]
【0197】 この更新規則は、The update rule is:
【0198】[0198]
【数75】 [Equation 75]
【0199】 である場合When is
【0200】[0200]
【数76】 [Equation 76]
【0201】 であり、[0201]
【0202】[0202]
【数77】 [Equation 77]
【0203】 である場合When is
【0204】[0204]
【数78】 [Equation 78]
【0205】 であることを暗に意味する。 大域品質基準は次の2つの関数に基づいていてよい:Implies that Global quality criteria may be based on two functions:
【0206】[0206]
【数79】 [Expression 79]
【0207】 ここでΘO (QL )は、QL ≧0である場合1であり、OL <0である場合0
である。OG1は、リーブ・ワン・アウト相互妥当性検査テストに合格し得る訓練
用セットから例の数を測定し、QG2は、局所品質基準に合格し得る例の数を測定
する。 これら2つの品質関数はこのとき、以下の論理式に基づいて1つの品質関数へ
と組合わせることができる(真の式には値1が与えられ、偽の式には値0が与え
られる):Here, Θ O (Q L ) is 1 when Q L ≧ 0, and 0 when O L <0.
It is. O G1 measures the number of examples from the training set that can pass the leave-one-out cross-validation test, and Q G2 measures the number of examples that can pass the local quality criteria. These two quality functions can then be combined into one quality function based on the following logical expression (true expressions are given a value of 1 and false expressions are given a value of 0): :
【0208】[0208]
【数80】 [Equation 80]
【0209】 ここで、ε1 及びΕ2 は、それぞれリーブ・ワン・アウト相互妥当性検査テス
ト及び局所品質基準を合格することが要求される訓練用例の分画を決定する2つ
のパラメータである。これらの基準のうちの両方に合格した場合、大域品質基準
に合格し、その場合Here, ε 1 and Ε 2 are the two parameters that determine the fraction of the training example required to pass the leave-one-out cross-validation test and local quality criteria, respectively. If you pass both of these criteria, you have passed the global quality criteria,
【0210】[0210]
【数81】 (Equation 81)
【0211】 は1であり、そうでなければそれは0である。 図5を参照すると、例2の重み更新又は調整ステップは、以下のように記述す
ることができる: ・ 全てのWiC値をゼロに初期化する(5. 1)。 ・ 訓練用セット内の全ての例を通しループする(5. 2,5. 10,5. 3)
。 ・ 各々の例について局所品質値を計算する(5. 4)。(例は、充分な「裏づ
け」をもつか?(5. 5)。 ・ 答えが「はい」の場合には、次の例に進み(5. 10)、「いいえ」の場合
、ラニングアップクラスに対する投票に結びつけられた重みを減少させ、Is 1; otherwise it is 0. Referring to FIG. 5, the weight update or adjustment step of Example 2 can be described as follows: Initialize all WiC values to zero (5.1). • Loop through all examples in the training set (5.2, 5.10, 5.3)
. Calculate the local quality value for each example (5.4). (Does the example have sufficient "support"? (5.5).-If the answer is "yes," proceed to the next example (5.10). If the answer is "no," run-up class. Reduce the weight associated with voting for,
【0212】[0212]
【数82】 (Equation 82)
【0213】 をもつセルと結びつけられている重みを増大させる。 ・ 大域品質値を計算する。品質がそれまで得られた最高のものである場合には
、ネットワークを記憶する(5. 11)。 ・ 大域品質値が満足のいくものとなるまで又はその他の出口条件が満たされる
まで反復する(5, 12,5, 13)。Increase the weight associated with the cell with • Calculate global quality values. If the quality is the best obtained so far, remember the network (5.11). • Iterate until the global quality value is satisfactory or other exit conditions are met (5, 12, 5, 13).
【0214】 例3 この場合も、入力例Example 3 Also in this case, an input example
【0215】[0215]
【数83】 [Equation 83]
【0216】 についての票数関数は以下のようにして得られる。The number of votes function for is obtained as follows.
【0217】[0219]
【数84】 [Equation 84]
【0218】 局所品質関数Local Quality Function
【0219】[0219]
【数85】 [Equation 85]
【0220】 は、入力訓練用例Are examples of input training
【0221】[0221]
【数86】 [Equation 86]
【0222】 についての票信頼性の測度として定義される。例Is defined as a measure of vote reliability. An example
【0223】[0223]
【数87】 [Equation 87]
【0224】 については、真のクラスFor the true class
【0225】[0225]
【数88】 [Equation 88]
【0226】 と次点クラスCR の間の信頼性 Confは、以下のように決定されうる:The confidence Conf between the runner class C R and the runner class C R can be determined as follows:
【0227】[0227]
【数89】 [Equation 89]
【0228】 信頼性は、次点クラスが真のクラスのものに等しい票レベルをもつことを示す
ゼロである可能性がある(単数又は複数のクラスが真のクラスのものに等しい票
レベルを有する場合、我々は、真のクラスとは異なるクラスのうちの1つの次点
クラスと定義することになる)。局所品質関数はこのとき次のように定義され得
る。The confidence may be zero indicating that the next class has a vote level equal to that of the true class (the class or classes have a vote level equal to that of the true class) In that case, we would define one of the classes different from the true class as the next class). The local quality function can then be defined as:
【0229】[0229]
【数90】 [Equation 90]
【0230】 計算された局所品質値について閾値を決定することができ、QL <Qthreshol d である場合には、重みはQL を増大させるべく更新される。Qthreshold の考
えられる値は、真のクラスの票レベルと次点クラスの票レベルの間の差が少なく
とも最大票レベルの10%となるべきであることを示す0. 1であると思われる
。重みは、次点クラスについての重みCR を調整すること、A threshold can be determined for the calculated local quality value, and QL<Qthreshol d , The weight is QLIs updated to increase. QthresholdConsideration of
The value obtained is that the difference between the vote level of the true class and the vote level of the next class is small.
Both seem to be 0.1 indicating that they should be 10% of the maximum vote level
. The weight is the weight C for the next class.RAdjusting the
【0231】[0231]
【数91】 [Equation 91]
【0232】 (なお式中kは小さい定数である)、及び真のクラスについての重みを調整す
ること、(Where k is a small constant) and adjusting the weight for the true class;
【0233】[0233]
【数92】 (Equation 92)
【0234】 によって更新され得る。 小さい定数kは、調整されるべき重みの相対的変化を決定する。考えられる1
つの選択肢はk=0. 05であろう。 ここでも又、相互妥当性検査の誤りの数は考えられる大域品質測度である。Can be updated by The small constant k determines the relative change in weight to be adjusted. Possible 1
One option would be k = 0.05. Again, the number of cross-validation errors is a possible global quality measure.
【0235】[0235]
【数93】 [Equation 93]
【0236】 大域品質基準は、QG >εNX を満たすべきものであり得、この式中εは、リ
ーブ・ワン・アウト相互妥当性検査テスト内で適正に分類されることが求められ
る訓練用例の分画を決定するパラメータである。 図5を参照すると、例3の重み更新又は調整ステップは、以下のように記述さ
れ得る: ・ 全てのWiC値をゼロに初期化する(5. 1)。The global quality criterion may be one that satisfies Q G > εN X , where ε is a training example that is required to be properly classified within the leave-one-out cross-validation test Is a parameter for determining the fractionation. Referring to FIG. 5, the weight update or adjustment step of Example 3 can be described as follows: Initialize all WiC values to zero (5.1).
【0237】 ・ 訓練用セット内の全ての例を通しループする(5, 2,5, 10,5, 3
)。 ・ 各々の例について局所品質値を計算する(5, 4)。(訓練用セットから
除外された場合に例は適正に分類され得かつ同時に充分な「裏づけ」をもち得る
か?」(5, 5))。Loop through all examples in the training set (5, 2, 5, 10, 5, 3)
). Calculate the local quality value for each example (5, 4). (Can the example be properly classified and at the same time have sufficient "support" when excluded from the training set? "(5, 5)).
【0238】 ・ 「はい」という答えの場合には、次の例に進み、「いいえ」の場合には、
次点クラスに対し投票するセルに結びつけられた重みを更新し、真のクラスに投
票するセルに結びつけられた重みを更新して真のクラス上の票レベルを増大させ
次点クラスに対する票レベルを減少させる。 ・ 大域品質値を計算する。品質がそれまでに得られた最高のものである場合
には、ネットワークを記憶する(5. 11)。If the answer is “yes”, proceed to the next example, if the answer is “no”,
Update the weight associated with the cell voting for the next class, update the weight associated with the cell voting for the true class, increase the vote level on the true class, and change the vote level for the next class. Decrease. • Calculate global quality values. If the quality is the best obtained so far, remember the network (5.11).
【0239】 ・ 大域品質値が満足のいくものとなるまで又はその他の出口条件が満たされ
るまで反復する(5, 12,5, 13)。 例4 ここでも、入力例• Iterate (5, 12, 5, 13) until the global quality value is satisfactory or other exit conditions are satisfied. Example 4 Input example
【0240】[0240]
【数94】 [Equation 94]
【0241】 についての票数関数は以下のように定義される。The vote number function for is defined as follows.
【0242】[0242]
【数95】 [Equation 95]
【0243】 相互妥当性検査テストを実行するときに訓練用例について得られる票レベルは
、このとき次のようになる:The vote levels obtained for the training example when performing a cross-validation test are then as follows:
【0244】[0244]
【数96】 [Equation 96]
【0245】 ここでもAlso here
【0246】[0246]
【数97】 (97)
【0247】 を用いて得られた次点クラスは、CR と表わすことができる(単数又は複数のク
ラスが真のクラスのものと等しい票レベルを有する場合、我々は真のクラスとは
異なるクラスのうちの1つを次点クラスと定義することになる)。 このとき、局所品質関数The next class obtained using can be denoted as C R (if the class or classes have a vote level equal to that of the true class, we will use a different class than the true class Are defined as runner-up classes). Then the local quality function
【0248】[0248]
【数98】 [Equation 98]
【0249】 を、次の論理式で定義することができる:Can be defined by the following logical formula:
【0250】[0250]
【数99】 [Equation 99]
【0251】 なお式中k1 及びk2 は、0と1の間の2つの定数であり、k1 >k2 である
。全ての3つの基準In the formula, k 1 and k 2 are two constants between 0 and 1, and k 1 > k 2 . All three criteria
【0252】[0252]
【数100】 [Equation 100]
【0253】 が満たされている場合、If is satisfied,
【0254】[0254]
【数101】 [Equation 101]
【0255】 は1でありそうでなければそれは0である。2つの基準は、リーブ・ワン・アウ
ト相互妥当性検査テストにおける真のクラスの票レベルがk1 よりも大きくなる
こと及び次点クラスの票レベルがk2 より低くなることそしてレベルk1 がレベ
ルk2 よりも大きくなることを求めることに対応する。この例において用いられ
るVote No( )関数は、重みが正の値をもつように制限するならば、0と1の間
の値を有することになり、その場合考えられるkの値の選択肢は、0. 9に等し
いk1 と0.6に等しいk2 である。Is 1 and otherwise it is 0. Two criteria, leave-one-out cross-validation that vote level and that the runner-up class vote level of the true class is larger than k 1 is lower than the k 2 in the test and the level k 1 level corresponding to seek to become greater than k 2. The Vote No () function used in this example would have a value between 0 and 1 if the weights were restricted to have positive values, in which case the possible choices for k are: it is equal k 2 to k 1 and 0.6 equivalent to 0.9.
【0256】[0256]
【数102】 [Equation 102]
【0257】 によって与えられた局所品質値について与えられた基準が満たされない場合、重
みWiCR は、可能であればQL についての基準を満たすよう、次点クラスCR に
対する重みを調整すること、[0257] If the criteria given for the local quality value given is not satisfied by the weight W iCR is to meet the criteria for possible Q L, by adjusting the weights for the runner-up class C R,
【0258】[0258]
【数103】 [Equation 103]
【0259】 (なお式中k3 は小さい定数である)及び真のクラスに対する重みWiCR を調整
することによって更新される。( Where k 3 is a small constant) and is updated by adjusting the weight W iCR for the true class.
【0260】[0260]
【数104】 [Equation 104]
【0261】 k3 は、次点クラスについて調整されるべき重みの相対的変化を決定する。考
えられる1つの選択肢は、k3 が0. 1であるというものである。k4 の実現可
能な選択肢は、WiCの値の絶対値の平均の10分の1であり得る。 適切な大域品質関数は、全ての訓練用入力例についての局所品質値の合計によ
って定義され得る:K 3 determines the relative change in weight to be adjusted for the next class. One possible option is that k 3 is 0.1. A possible choice of k 4 may be one-tenth of the average of the absolute values of the values of W iC . A suitable global quality function may be defined by the sum of the local quality values for all training input examples:
【0262】[0262]
【数105】 [Equation 105]
【0263】 大域品質基準は、QG >εNX を満たすべきものであり得、この式中εは、局
所品質テストに合格することが求められる訓練用例の分画を決定するパラメータ
である。 図5を参照すると、例4の重み更新又は調整ステップは、以下のように記述さ
れ得る: ・ 全てのWiC値をゼロに初期化する(5. 1)。The global quality criterion may be one that satisfies Q G > εN X , where ε is a parameter that determines the fraction of the training example required to pass the local quality test. Referring to FIG. 5, the weight update or adjustment step of Example 4 can be described as follows: Initialize all WiC values to zero (5.1).
【0264】 ・ 訓練用セット内の全ての例を通しループする(5. 2,5. 10,5. 3
)。 ・ 各々の例について局所品質を計算する(5. 4)。(訓練用セットから除
外された場合に例は適正に分類され得、かつ同時に充分な票の「裏づけ」をもち
得るか?」(5. 5))。Loop through all examples in the training set (5.2, 5.10, 5.3)
). • Calculate the local quality for each example (5.4). (Can the example be properly classified if excluded from the training set, and at the same time have sufficient “voting” of votes? ”(5.5)).
【0265】 ・ 答えが「はい」の場合には、次の例に進み、「いいえ」の場合には、次点
クラスに対し投票するセルに結びつけられた重みを更新し、真のクラスに投票す
るセルに結びつけられた重みを更新して真のクラス上の票レベルを増大させ次点
クラスに対する票レベルを減少させる。 ・ 大域品質関数を計算する。品質がそれまでに得られた最高のものである場
合には、ネットワークを記憶する(5. 11)。If the answer is “yes”, proceed to the next example; if the answer is “no”, update the weight associated with the cell voting for the next class and vote for the true class The weight associated with the cell being updated is updated to increase the vote level on the true class and decrease the vote level for the next class. • Calculate the global quality function. If the quality is the best obtained so far, remember the network (5.11).
【0266】 ・ 大域品質値が満足のいくものとなるまで又はその他の出口条件が満たされ
るまで反復する(5. 12,5. 13)。 例5 この例では、入力例• Iterate (5.12, 5.13) until the global quality value is satisfactory or other exit conditions are satisfied. Example 5 In this example, input example
【0267】[0267]
【数106】 [Equation 106]
【0268】 についての票数関数は以下のように定義される。The function of the number of votes for is defined as follows.
【0269】[0269]
【数107】 [Equation 107]
【0270】 局所品質関数及び閾値基準は、このとき「isQlocal OK」という問いに対する
答えがつねに「いいえ」となるように定義される。かくして、局所品質関数は以
下のように定義することができる。 QL =FALSE これらの定義づけでは、(5. 5)に対する答えはつねに「いいえ」であるこ
とから、The local quality function and the threshold criterion are defined such that the answer to the question “isQlocal OK” is always “No”. Thus, the local quality function can be defined as: In the Q L = FALSE of these definitions pickled, since the answer is always "no" to (5.5),
【0271】[0271]
【数108】 [Equation 108]
【0272】 を調整するために、全ての訓練用例が用いられることになる。 重み更新規則は、次のとおりである:To adjust, all training examples will be used. The weight update rules are as follows:
【0273】[0273]
【数109】 (Equation 109)
【0274】 なお式中、In the formula,
【0275】[0275]
【数110】 [Equation 110]
【0276】 は、Is
【0277】[0277]
【数111】 (Equation 111)
【0278】 として定義され、αは反復回数である。 α回目の反復についての大域品質関数は、以下のように定義することができる
。Where α is the number of iterations. The global quality function for the αth iteration can be defined as:
【0279】[0279]
【数112】 [Equation 112]
【0280】 なお式中、In the formula,
【0281】[0281]
【数113】 [Equation 113]
【0282】 図5を参照すると、例5の重み更新又は調整ステップは、以下のように記述す
ることができる: ・ 全てのWiC値をゼロに初期化する(5. 1)。 ・ 訓練用セット内の全ての例を通しループする(5. 2,5. 10,5. 3
)。Referring to FIG. 5, the weight update or adjustment step of Example 5 can be described as follows: Initialize all WiC values to zero (5.1). Loop through all examples in the training set (5.2, 5.10, 5.3
).
【0283】 ・ 各々の例について局所品質値を計算する(5. 4)。(この例ではそれは
つねに偽となる。つまりそれは品質基準を満たさない)。 ・ QL =TRUE(5. 5)である場合には、次の例に進み(この例では真
となることは決してない)、そうでなければ、実際の反復により左右される• Calculate the local quality value for each example (5.4). (In this example it is always false, ie it does not meet the quality standards). If QL = TRUE (5.5), proceed to the next example (which will never be true in this example), otherwise depend on the actual iteration
【0284】[0284]
【数114】 [Equation 114]
【0285】 を用いてアドレス指定された重みを設定する(5. 6−5. 9)。 ・大域品質値を計算する。品質がそれまでに得られた最高のものである場合に
は、ネットワークを記憶する(5. 11)。 ・最後の反復までくり返す(5. 12,5. 13)。 かくして、上述の例5は、図5に示された流れ図構造に適合する。しかしなが
ら、(5. 5)に対する答えはつねに「いいえ」であることから、重み割当て手
順は、このケースにおいては、本発明に従ったより単純化された重みセル調整の
流れ図を示す図6を参考にして以下で記述したとおりに単純化することができる
。The weight designated by using is set (5.6-5.9). Calculate global quality values. If the quality is the best obtained so far, remember the network (5.11). • Repeat until the last iteration (5.12, 5.13). Thus, Example 5 above is compatible with the flow diagram structure shown in FIG. However, since the answer to (5.5) is always "No", the weight assignment procedure will in this case refer to FIG. 6, which shows a flow chart of a more simplified weight cell adjustment according to the invention. And can be simplified as described below.
【0286】 WiC値を設定するためのスキームの数αMAX は以下のように定義され得る(6
. 1,6. 6,6. 7): スキームα: (6. 2) 全てのLUTについて、以下のものを行なう: 全てのiについて以下のものを行なう: 全てのCについて以下のものを行なう:The number α MAX of schemes for setting the W iC value can be defined as (6
1,6.6,6.7): Scheme α: (6.2) For all LUTs, do the following: For all i, do the following: For all C, do the following :
【0287】[0287]
【外1】 [Outside 1]
【0288】 各αスキームについて、分類性能についての大域品質関数を計算することがで
きる(6. 3)。大域品質関数についての1つの可能性は、相互妥当性検査の誤
りを計算することにある。For each α scheme, a global quality function for classification performance can be calculated (6.3). One possibility for the global quality function consists in calculating the cross-validation errors.
【0289】[0289]
【数115】 [Equation 115]
【0290】 なお式中In the formula,
【0291】[0291]
【数116】 [Equation 116]
【0292】 このとき、最高の品質値At this time, the highest quality value
【0293】[0293]
【数117】 [Formula 117]
【0294】 をもつネットワークを記憶することができる(6. 4,6. 5)。 ここで、もう1つの反復回数を選択することもできるし、その他の適切な品質
関数を定義することもできるということを理解すべきである。 本発明の好ましい実施例についての以上の説明は、例示及び記述を目的として
提示されたのである。これは網羅的であること又は本発明を開示されている明確
な形態に制限することを意図されたものではなく、明らかに当業者にとっては、
本発明に照らして数多くの変更及び変形形態が可能である。本書に開示され請求
されている基本的な原理を保持するこのような変更のすべてが、本発明の範囲内
に入るものである。(6.4, 6.5). Here, it should be understood that another number of iterations can be selected, and other suitable quality functions can be defined. The foregoing description of a preferred embodiment of the invention has been presented for purposes of illustration and description. It is not intended to be exhaustive or to limit the invention to the precise forms disclosed, and obviously to those skilled in the art
Many modifications and variations are possible in light of the present invention. All such modifications that retain the basic principles disclosed and claimed herein are within the scope of the invention.
【図1】 図1は、ルックアップテーブル(LUT)を伴うRAM分類ネットワークのブ
ロック図である。FIG. 1 is a block diagram of a RAM classification network with a look-up table (LUT).
【図2】 図2は、本発明の一実施形態に従った単一のルックアップテーブル(LUT)
の詳細なブロック図を示す。FIG. 2 illustrates a single look-up table (LUT) according to one embodiment of the present invention.
FIG. 2 shows a detailed block diagram of FIG.
【図3】 図3は、本発明に従ったコンピュータ分類システムのブロック図を示す。FIG. 3 shows a block diagram of a computer classification system according to the present invention.
【図4】 図4は、本発明の実施形態に従ったLUTカラムセルについての学習プロセス
の流れ図を示す。FIG. 4 shows a flowchart of a learning process for an LUT column cell according to an embodiment of the present invention.
【図5】 図5は、本発明の第1の実施形態に従った重みセルについての学習プロセスの
流れ図である。FIG. 5 is a flowchart of a learning process for a weight cell according to the first embodiment of the present invention.
【図6】 図6は、本発明の第2の実施形態に従った重みセルについての学習プロセスの
流れ図である。FIG. 6 is a flowchart of a learning process for a weight cell according to the second embodiment of the present invention;
【図7】 図7は、本発明に従った分類プロセスの流れ図を示す。FIG. 7 shows a flowchart of a classification process according to the present invention.
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE),OA(BF,BJ ,CF,CG,CI,CM,GA,GN,GW,ML, MR,NE,SN,TD,TG),AP(GH,GM,K E,LS,MW,SD,SZ,UG,ZW),EA(AM ,AZ,BY,KG,KZ,MD,RU,TJ,TM) ,AL,AM,AT,AU,AZ,BA,BB,BG, BR,BY,CA,CH,CN,CU,CZ,DE,D K,EE,ES,FI,GB,GD,GE,GH,GM ,HR,HU,ID,IL,IN,IS,JP,KE, KG,KP,KR,KZ,LC,LK,LR,LS,L T,LU,LV,MD,MG,MK,MN,MW,MX ,NO,NZ,PL,PT,RO,RU,SD,SE, SG,SI,SK,SL,TJ,TM,TR,TT,U A,UG,UZ,VN,YU,ZW 【要約の続き】 分の情報に基づいて、かつ入力例の訓練用セットの少な くとも一部分を使用することによって決定される。本発 明の第2の態様は、コンピュータ分類システムにおい て、訓練用例によってアドレス指定されている単数又は 複数のカラムベクトルセルに対応する重みセル値を決定 するための方法及びシステムにおいて、該決定が、決定 されたベクトルセル値の少なくとも一部分の情報に基づ くものであり、これにより正の値又は正でない値をもつ カラムベクトルセルの重みづけが可能となるような方法 及びシステムである。最後に、本発明はコンピュータ分 類システムを使用して入力データ例を複数のクラスに分 類するための方法及びシステムを提供する。──────────────────────────────────────────────────続 き Continuation of front page (81) Designated country EP (AT, BE, CH, CY, DE, DK, ES, FI, FR, GB, GR, IE, IT, LU, MC, NL, PT, SE ), OA (BF, BJ, CF, CG, CI, CM, GA, GN, GW, ML, MR, NE, SN, TD, TG), AP (GH, GM, KE, LS, MW, SD, SZ, UG, ZW), EA (AM, AZ, BY, KG, KZ, MD, RU, TJ, TM), AL, AM, AT, AU, AZ, BA, BB, BG, BR, BY, CA, CH, CN, CU, CZ, DE, DK, EE, ES, FI, GB, GD, GE, GH, GM, HR, HU, ID, IL, IN, IS, JP, KE , KG, KP, KR, KZ, LC, LK, LR, LS, LT, LU, LV, MD, MG, MK, MN, MW, MX, NO, NZ, PL, PT, RO, RU, SD, SE, SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, UZ, VN, YU, ZW It is determined by using at least a portion. A second aspect of the invention is a method and system for determining a weight cell value corresponding to one or more column vector cells addressed by a training example in a computer classification system. The method and system are based on information of at least a portion of the determined vector cell values, thereby enabling weighting of column vector cells having positive or non-positive values. Finally, the present invention provides a method and system for classifying example input data into a plurality of classes using a computer classification system.
Claims (49)
対応する一定数のロウを含み、さらに、値を伴うセルを有するベクトルによって
各々定義され、サンプリングされた訓練用入力データ例の要素又は信号によって
アドレス指定される一定数のカラムを含んで成る、一定数のn−タプル又はルッ
クアップテーブル(LUT)を含むネットワークによって定義されうるコンピュ
ータ分類システムの訓練方法において、セルの少なくとも一部分が、訓練用入力
例の単数又は複数のセットから対応するセルアドレスがサンプリングされる回数
に基づく情報を含むか又はポイントするような形で異なるクラスのための入力デ
ータ例の単数又は複数の訓練用セットに基づいてカラムベクトルセル値を決定す
る段階、及び、訓練例によってアドレス指定又はサンプリングされつつある単数
又は複数のカラムベクトルセルに対する重みセル値を決定し、かくして分類プロ
セス中に正の値の単数又は複数のカラムベクトルセルの重みづけも可能にする段
階を含んで成り、前記重みセル値が、決定されたカラムベクトルセル値を少なく
とも一部分の情報に基づいて、かつ入力例の訓練用セットの少なくとも一部分を
使用することによって決定される、訓練方法。1. An element of the sampled training input data, each comprising a fixed number of rows corresponding to at least one subset of the possible classes and further defined by a vector having cells with values, respectively. Alternatively, in a method of training a computer classification system, which may be defined by a network comprising a fixed number of n-tuples or look-up tables (LUTs) comprising a fixed number of columns addressed by signals, at least a portion of the cells comprises: One or more training sets of example input data for different classes in such a way as to include or point to information based on the number of times corresponding cell addresses are sampled from one or more sets of training input examples. Determining column vector cell values based on the Determining the weight cell value for the column vector cell or cells being addressed or sampled, thus also allowing the weighting of the positive value column cell or cells during the classification process. Wherein the weighted cell value is determined based on at least a portion of the determined column vector cell value and by using at least a portion of a training set of input examples.
対応する一定数のロウを含み、さらに、値を伴うセルを有するベクトルによって
各々定義され、サンプリングされた訓練用入力データ例の要素又は信号によって
アドレス指定される一定数のカラムを含んで成る、一定数のn−タプル又はルッ
クアップテーブル(LUT)を含むネットワークによって定義されうるコンピュ
ータ分類システムの訓練方法において、セルの少なくとも一部分が、訓練用入力
例の単数又は複数のセットから対応するセルアドレスがサンプリングされる回数
に基づく情報を含むか又はポイントするような形で異なるクラスのための入力デ
ータ例の単数又は複数の訓練用セットに基づいてカラムベクトルセル値を決定す
る段階、及び、少なくともベクトルセルのサブセットに対応する重みセル値を決
定し、かくして、分類プロセス中に単数又は複数のカラムベクトルセルのブース
トを可能にする段階を含んで成り、前記重みセル値が、決定されたカラムベクト
ルセル値の少なくとも一部分の情報に基づいて、かつ入力例の訓練用セットの少
なくとも一部分を使用することによって決定される、訓練方法。2. Elements of the sampled training input data each defined by a vector having a number of rows each corresponding to at least one subset of possible classes and each having a cell with a value. Alternatively, in a method of training a computer classification system, which may be defined by a network comprising a fixed number of n-tuples or look-up tables (LUTs) comprising a fixed number of columns addressed by signals, at least a portion of the cells comprises: One or more training sets of example input data for different classes in such a way as to include or point to information based on the number of times corresponding cell addresses are sampled from one or more sets of training input examples. Determining a column vector cell value based on the at least Determining a weight cell value corresponding to a subset of the vector cells, thus enabling the boosting of one or more column vector cells during the classification process, wherein the weight cell value is determined by the determined column vector A training method determined based on information of at least a portion of the cell values and by using at least a portion of a training set of input examples.
を可能にするべく重みセル値が決定される、請求項2に記載の方法。3. The method of claim 2, wherein a weight cell value is determined during the classification process to enable suppression of one or more column vector cells.
単数又は複数のカラムベクトルセル及び正でない値(0以下)をもつ単数又は複
数のカラムベクトルの重みづけが可能となる、請求項1〜3のいずれか1項に記
載の方法。4. The weight cell value determination allows weighting of one or more column vector cells having a positive value (greater than zero) and one or more column vectors having a non-positive value (0 or less). The method according to claim 1, wherein
重みベクトルの形に配置されている、請求項1〜4のいずれか1項に記載の方法
。5. The method according to claim 1, wherein the weight cells are arranged in a weight vector corresponding to at least a part of the column vector.
対応する一定数のロウを含み、さらに少なくとも一部分が対応する重みベクトル
を有ししかも各々がサンプリングされた訓練用入力データ例の要素又は信号によ
ってアドレス指定されている一定数のカラムベクトルを含み、かつ各々のカラム
ベクトル及び重みベクトルが異なるクラスについての入力データ例の単数又は複
数の訓練用セットに基づいて決定されている値を伴うセルを有している一定数の
n−タプル又はルックアップテーブル(LUT)を含むネットワークによって定
義されうるコンピュータ分類システム内の重みセル値を決定する方法において、
前記値の少なくとも一部分が、訓練用入力例セットから対応するセットアドレス
がサンプリングされる回数に基づく情報を含むか又はポイントするような形で入
力例の訓練用セットに基づいてカラムベクトルセル値を決定する段階、及び決定
されたカラムベクトルセル値の少なくとも一部分の情報に基づきかつ入力例の訓
練用セットの少なくとも一部分を使用することによって単数又は複数のカラムベ
クトルセルに対応する重みづけベクトルセル値を決定する段階を含んで成り、前
記決定により、正の値(ゼロより大きい)をもつカラムベクトルセル及び正でな
い値(0以下)をもつカラムベクトルセルの重みづけが可能となる方法。6. Elements of the example training input data each comprising a fixed number of rows corresponding to at least one subset of the possible classes, at least in part having corresponding weight vectors, and each being sampled. Or includes a fixed number of column vectors addressed by the signal, each column vector and weight vector with a value determined based on one or more training sets of example input data for different classes. A method for determining a weight cell value in a computer classification system that may be defined by a network including a fixed number of n-tuples or look-up tables (LUTs) having cells,
Determine column vector cell values based on the training set of input examples such that at least a portion of the values include or point to information based on the number of times the corresponding set address is sampled from the training input example set. Determining a weighted vector cell value corresponding to one or more column vector cells based on information of at least a portion of the determined column vector cell values and using at least a portion of the training set of input examples. A method wherein the determination allows weighting of column vector cells having positive values (greater than zero) and column vector cells having non-positive values (less than or equal to zero).
づけが可能となる、請求項1〜6のいずれか1項に記載の方法。7. The method according to claim 1, wherein the determination of the weight cells allows weighting of any column vector cells.
、カラムベクトルの少なくとも一部分に対応する重みベクトルの単数又は複数の
セットを初期化する段階及び決定されたカラムベクトルの値の少なくとも一部分
の情報に基づきかつ入力例の訓練用セットの少なくとも一部分を使用することに
よって重みベクトルの少なくとも一部分の重みベクトルセル値を調整する段階が
含まれる、請求項1〜7のいずれか1項に記載の方法。8. The method for determining weight cell values, wherein the weight cells are arranged in the form of weight vectors and initializing one or more sets of weight vectors corresponding to at least a portion of the column vectors, and 8. A method as claimed in any preceding claim, comprising adjusting a weight vector cell value of at least a portion of the weight vector based on information of at least a portion of the value and by using at least a portion of the training set of the input example. The method described in the section.
から対応するセルアドレスがサンプリングされる回数の関数として決定される、
請求項1〜8のいずれか1項に記載の方法。9. The method of claim 9, wherein at least a portion of the column cell values is determined as a function of the number of times a corresponding cell address is sampled from the set of training input examples.
A method according to any one of the preceding claims.
一部分は、入力例の訓練用セットから対応するセルアドレスがサンプリングされ
る回数の関数である付随する値を有している、請求項1〜9のいずれか1項に記
載の方法。10. The maximum column vector value is one, but at least a portion of the values have an associated value that is a function of the number of times the corresponding cell address is sampled from the training set of the input example. The method according to any one of claims 1 to 9.
決定され、記憶手段内に記憶される、請求項8〜10のいずれか1項に記載の方
法。11. The method according to claim 8, wherein the column vector cell value is determined before adjusting the weight vector cell value and stored in the storage means.
かくして単数又は複数のカラムベクトルをアドレス指定する段階、 b) 既知のクラスのロウに対応するアドレス指定されたカラムベクトルのセ
ルの値又は票を、好ましくは1だけ増分する段階、及び c) 全ての訓練例がネットワークに適用されてしまうまで、(a)〜(b)
の段階を反復する段階、 という訓練段階が含まれる、請求項1〜11のいずれか1項に記載の方法。12. Determine column vector cell values by: a) applying a known class of training input data examples to a classification network;
Thus addressing one or more column vectors; b) incrementing, preferably by one, the value or vote of the cell of the addressed column vector corresponding to a known class of rows; and c) Until the training example is applied to the network, (a) to (b)
12. The method according to any one of the preceding claims, comprising a training step of repeating the steps of.
請求項5〜12のいずれか1項に記載の方法。13. All column vectors have corresponding weight vectors.
A method according to any one of claims 5 to 12.
クトルセル値を設定する段階が含まれ、この所定の値が好ましくは1である、請
求項8〜13のいずれか1項に記載の方法。14. The method of claim 8, wherein initializing the weight vector includes setting all weight vector cell values to a predetermined constant value, wherein the predetermined value is preferably one. Or the method of claim 1.
重みベクトルセルを設定する段階が含まれている、請求項8〜13のいずれか1
項に記載の方法。15. The method of claim 8, wherein initializing the weight vector includes setting each weight vector cell to a predetermined specific cell value.
The method described in the section.
セル値の少なくとも一部分に基づいて大域品質値を決定する段階、大域品質値が
必要な品質基準を満たしているか否かを決定する段階、及び大域品質基準が満た
されるまで重みセル値の少なくとも一部分を調整する段階が含まれている、請求
項8〜15のいずれか1項に記載の方法。16. Adjusting the weight vector cell value includes determining a global quality value based on at least a portion of the weight and the column vector cell value, determining whether the global quality value meets a required quality criterion. The method of any of claims 8 to 15, comprising the steps of: adjusting at least a portion of the weight cell value until a global quality criterion is met.
であって、この局所品質値が、アドレス指定された重み及びカラムベクトルセル
値の少なくとも一部分の関数である段階、 c) 局所品質値が、必要とされる局所品質基準を満たすか否かを決定し、満
たさない場合は、局所品質基準が満たされていない場合のアドレス指定された重
みベクトルセル値のうちの単数又は複数のものを調整する段階、 c) 訓練用セットの所定の数の例から新しい入力例を選択する段階、 d) 所定の訓練用入力例全てについて、局所品質テスト段階(b)−(d)
を反復する段階、 e) 局所品質テスト中にアドレス指定されつつある重み及びカラムベクトル
の少なくとも一部分に基づいて大域品質値を決定する段階、 f) 大域品質値が、必要な大域品質基準を満たしているか否かを決定する段
階、及び h) 大域品質基準が満たされるまで段階(a)−(g)を反復する段階、 が含まれる、請求項8〜15のいずれか1項に記載の方法。17. Adjusting the weight cell values: a) selecting input data from a training set; b) determining a local quality value corresponding to the sampled training input. The local quality value is a function of at least a portion of the addressed weights and column vector cell values; c) determining if the local quality value meets the required local quality criteria, and if not Adjusting one or more of the addressed weight vector cell values if the local quality criterion is not met; c) selecting a new input example from a predetermined number of examples of the training set D) Local quality test steps (b)-(d) for all given training input examples
E) determining a global quality value based on at least a portion of the column vector and the weight being addressed during the local quality test; f) if the global quality value meets the required global quality criteria 16. The method according to any one of claims 8 to 15, comprising determining whether or not there is, and h) repeating steps (a)-(g) until a global quality criterion is met.
行される、請求項17に記載の方法。18. The method of claim 17, wherein steps (b)-(d) are performed for all examples of the training set.
される、請求項16〜18のいずれか1項に記載の方法。19. The method according to claim 16, wherein global and / or local quality criteria are changed during the adjustment iteration process.
品質基準が満たされない場合、停止させられる、請求項16〜19のいずれか1
項に記載の方法。20. The method according to claim 16, wherein the adjusted iteration process is stopped if the global quality criterion is not met after a given number of iterations.
The method described in the section.
質値の決定の後にはさらに、決定された大域品質値が、以前に別々に記憶された
重みセル値又は構成値に対応する大域品質値よりも大域品質基準を満たすのに近
い場合に、こうして得られた重みセル値又は分類システム構成値を別々に記憶す
る段階が続いている、請求項16〜20のいずれか1項に記載の方法。21. The adjusted weight cell value is stored after each adjustment, and after the determination of the global quality value, the determined global quality value is further stored in a weight cell value or configuration previously stored separately. 21. The method according to any of claims 16 to 20, wherein the step of separately storing the weight cell values or the classification system configuration values thus obtained is closer to meeting the global quality criteria than the global quality values corresponding to the values. Or the method of claim 1.
されたコンピュータ分類システムを用いて複数のクラスのうちの少なくとも1つ
へと入力データ例を分類する方法において、かくして、入力データ例の単数又は
複数の訓練用セットに基づいて各々のn−タプル又はLUTについてカラムベク
トルセル値及び対応する重みベクトルセル値が決定される方法であって、 a) 分類すべき入力データ例を、構成された分類ネットワークに適用し、か
くして、n−タプル又はLUT内でカラムベクトル及び対応する重みベクトルを
アドレス指定する段階、 b) 1つのクラスを選択しかくしてn−タプル又はLUTのセット内で特定
の所をアドレス指定する段階、 c) アドレス指定された重みセルの値の一関数として出力値を決定する段階
、 d) 全てのクラスについて出力が決定されてしまうまで、段階(b)−(c
)を反復する段階、 e) 計算された出力値を比較する段階、及び f) 最大出力値をもつ単数又は複数のクラスを選択する段階、 を含んで成る方法。22. A method for classifying an example of input data into at least one of a plurality of classes using a computer classification system configured according to the method of any one of claims 1 to 21. The column vector cell values and corresponding weight vector cell values are determined for each n-tuple or LUT based on one or more training sets of example input data, comprising: a) input data to be classified; Applying the example to the constructed classification network, thus addressing the column vectors and the corresponding weight vectors in the n-tuple or LUT, b) selecting one class and thus the set of n-tuples or LUTs Addressing a particular location in c) the output value as a function of the value of the addressed weight cell Determining step d) steps (b)-(c) until the output has been determined for all classes
E) comparing the calculated output values; and f) selecting the class or classes with the highest output values.
関数として決定される、請求項22に記載の方法。23. The method of claim 22, wherein the output value is further determined as a function of the value of the addressed column cell.
応する全てのアドレス指定された重みベクトルセル値の第1の合計として決定さ
れ、前記所定の値が好ましくは1である、請求項23に記載の方法。24. The output value is determined as a first sum of all addressed weight vector cell values corresponding to column vector cell values greater than or equal to a predetermined value, wherein the predetermined value is preferably one. 24. The method of claim 23, wherein:
クトルセル値に対応する全てのアドレス指定された重みベクトルセル値の第1の
合計を決定する段階、全てのアドレス指定された重みベクトルセル値の第2の合
計を決定する段階及び第2の合計によって第1の合計を除することにより出力値
を決定する段階が含まれている、請求項23に記載の方法。25. The step of determining an output value comprises: determining a first sum of all addressed weight vector cell values corresponding to column vector cell values greater than or equal to a predetermined value. 24. The method of claim 23, comprising determining a second sum of designated weight vector cell values and determining an output value by dividing the first sum by the second sum. .
に対応する一定数のロウを含み、さらに、値を伴うセルを有するベクトルによっ
て各々定義され、サンプリングされた訓練用入力データ例の要素又は信号によっ
てアドレス指定される一定数のカラムを含んで成る、一定数のn−タプル又はル
ックアップテーブル(LUT)を含むネットワークによって定義されうるコンピ
ュータ分類システムの訓練用システムにおいて、既知のクラスの訓練用入力デー
タ例を受信するための入力手段、受信した入力データ例をサンプリングし、n−
タプル又はLUTの記憶されたセット内でカラムベクトルをアドレス指定するた
めの手段、n−タプル又はLUTのセット内で、既知のクラスに対応する特定の
ロウをアドレス指定するための手段、決定されたn−タプル又はLUTを記憶す
るための記憶手段、訓練用入力例セットから対応するセルアドレスがサンプリン
グされる回数に基づいた情報を含み入れるかポイントするべくカラムベクトルセ
ル値を決定するための手段及び、訓練用例によりアドレス指定されサンプリング
されつつある単数又は複数のカラムベクトルセルに対応する重みセル値を決定し
かくして分類プロセス中に正の値の単数又は複数のカラムベクトルセルの重みづ
けを可能にするための手段を含んで成り、前記重みセル値が、決定されたカラム
ベクトルセク値の少なくとも一部分の情報に基づいて、かつ入力例の訓練用セッ
トの少なくとも一部分を使用することによって決定される、訓練システム。26. Elements of the sampled training input data each defined by a vector having a number of rows corresponding to at least one subset of the possible classes and each having a cell with a value. Or training a known class in a training system of a computer classification system, which can be defined by a network comprising a fixed number of n-tuples or look-up tables (LUTs), comprising a fixed number of columns addressed by signals. Means for receiving an example of input data for use, sample the received example of input data, and
Means for addressing a column vector within a stored set of tuples or LUTs, means for addressing a particular row corresponding to a known class within a set of n-tuples or LUTs, storage means for storing an n-tuple or LUT, means for determining a column vector cell value to include or point to information based on the number of times a corresponding cell address is sampled from a training input example set; Determining the weight cell value corresponding to the column vector cell or cells being addressed and sampled by the training example, thus allowing the weighting of the positive value of the column vector cell or cells during the classification process Means for determining the weighted cell value of the column vector section value. Kutomo it based on a portion of the information, and is determined by using at least a portion of the training set of input examples, the training system.
に対応する一定数のロウを含み、さらに、値を伴うセルを有するベクトルによっ
て各々定義され、サンプリングされた訓練用入力データ例の要素又は信号によっ
てアドレス指定される一定数のカラを含んで成る、一定数のn−タプル又はルッ
クアップテーブル(LUT)を含むネットワークによって定義されうるコンピュ
ータ分類システムの訓練用システムにおいて、既知のクラスの訓練用入力データ
例を受信するための入力手段、受信した入力データ例をサンプリングし、n−タ
プル又はLUTの記憶されたセット内でカラムベクトルをアドレス指定するため
の手段、n−タプル又はLUTのセット内で、既知のクラスに対応する特定のロ
ウをアドレス指定するための手段、決定されたn−タプル又はLUTを記憶する
ための記憶手段、訓練用入力例セットから対応するセルアドレスがサンプリング
される回数に基づいた情報を含み入れるかポイントするべくカラムベクトルセル
値を決定するための手段及び、少なくともカラムベクトルセルのサブセットに対
応する重みセル値を決定しかくして分類プロセス中に単数又は複数のカラムベク
トルセルのブーストを可能にするための手段を含んで成り、前記重みセル値が決
定されたカラムベクトル値の少なくとも一部分の情報に基づいて、かつ入力例の
訓練用セットの少なくとも一部分を使用することによって決定される、訓練シス
テム。27. Elements of the sample training input data each defined and defined by a vector having cells with values, each comprising a fixed number of rows corresponding to at least one subset of possible classes. Or training a known class in a computer classification system training system, which can be defined by a network comprising a fixed number of n-tuples or look-up tables (LUTs), comprising a fixed number of colors addressed by signals. Means for receiving an example input data, means for sampling the received example input data and addressing a column vector within a stored set of n-tuples or LUTs, a set of n-tuples or LUTs To address a specific row within a class that corresponds to a known class Means for storing the determined n-tuple or LUT, column column cell values to include or point to information based on the number of times corresponding cell addresses are sampled from the training input example set. And means for determining a weight cell value corresponding to at least a subset of the column vector cells and thus enabling boosting of one or more column vector cells during the classification process. A training system wherein cell values are determined based on information of at least a portion of the determined column vector values and by using at least a portion of a training set of input examples.
又は複数のカラムベクトルセルの抑制を可能にするべくこれらの値を決定するよ
うに適合されている、請求項27に記載のシステム。28. The method according to claim 27, wherein the means for determining weight cell values is adapted to determine these values to allow suppression of one or more column vector cells during the classification process. The described system.
きい)をもつ単数又は複数のカラムベクトルセル及び正でない値(0以下)をも
つ単数又は複数のカラムベクトルセルの重みづけを可能にするべくこれらの値を
決定するように適合されている、請求項26〜28のいずれか1項に記載のシス
テム。29. The means for determining a weight cell value comprises: one or more column vector cells having a positive value (greater than zero) and one or more column vector cells having a non-positive value (less than or equal to 0) 29. The system according to any one of claims 26 to 28, adapted to determine these values in order to allow a weighting of.
ベクトルの少なくとも一部分に対応する重みベクトルの形で配置されるように、
これらの値を決定するよう適合されている、請求項26〜29のいずれか1項に
記載のシステム。30. The means for determining a weight cell value, wherein the weight cell value is arranged in the form of a weight vector corresponding to at least a portion of the column vector.
30. The system according to any one of claims 26 to 29, adapted to determine these values.
ットに対応する一定数のロウを含み、さらに少なくとも一部分が対応する重みベ
クトルを有ししかも各々がサンプリングされた訓練用入力データ例の要素又は信
号によってアドレス指定されている一定数のカラムベクトルを含み、かつ各々の
カラムベクトル及び重みベクトルが、訓練用入力データ例の単数又は複数のセッ
トに基づいて訓練プロセス中に決定されつつあるセル値を有している、n−タプ
ル又はルックアップテーブル(LUTs)の記憶された数によって定義される分
類ネットワークの重みセル値を決定するためのシステムにおいて、既知のクラス
の訓練用入力データ例を受信するための入力手段、受信した入力データ例をサン
プリングし、n−タプル又はLUTの記憶されたセット内でカラムベクトル及び
対応する重みベクトルを、アドレス指定するための手段、n−タプル又はLUT
のセット内で、既知のクラスに対応する特定のロウをアドレス指定するための手
段、決定されたn−タプル又はLUTを記憶するための記憶手段、訓練用入力例
セットから対応するセルアドレスがサンプリングされる回数に基づいた情報を含
み入れるかポイントするべくカラムベクトルセル値を決定するための手段及び、
決定されたカラムベクトルセル値を少なくとも一部分の情報に基づいて、かつ入
力例の訓練用セットの少なくとも一部分を使用することによって単数又は複数の
カラムベクトルセルに対応する重みベクトルセル値を決定するための手段を含ん
で成り、前記決定が、正の値(ゼロより大きい)をもつ単数又は複数のカラムベ
クトルセル及び正でない値(0以下)をもつ単数又は複数のカラムベクトルセル
の重みづけを可能にする、システム。31. Example training input data each including a fixed number of rows corresponding to at least one subset of the number of possible classes, at least in part having corresponding weight vectors, and each being sampled. And a respective column vector and weight vector are being determined during the training process based on one or more sets of example training input data. Example training input data of a known class in a system for determining a weighted cell value of a classification network defined by a stored number of n-tuples or look-up tables (LUTs) having cell values Input means for receiving the input data, sample the received input data, and perform n-tuple or Means for addressing column vectors and corresponding weight vectors in a stored set of LUTs, n-tuples or LUTs.
Means for addressing a particular row corresponding to a known class, storage means for storing the determined n-tuple or LUT, and corresponding cell addresses sampled from the training input example set. Means for determining a column vector cell value to include or point to information based on the number of times
Determining a weight vector cell value corresponding to one or more column vector cells based on at least a portion of the determined column vector cell values and using at least a portion of a training set of input examples. Means, wherein said determination allows weighting of one or more column vector cells having a positive value (greater than zero) and one or more column vector cells having a non-positive value (less than or equal to zero). You, the system.
セルの重みづけを可能にするように適合されている、請求項26〜31のいずれ
か1項に記載のシステム。32. The system according to any one of claims 26 to 31, wherein the means for determining a weight cell is adapted to allow weighting of any column vector cell.
少なくとも一部分に対応する単数又は複数の重みベクトルセットを初期化するた
めの手段及び、決定されたカラムベクトルセル値の少なくとも一部分の情報に基
づきかつ訓練用入力例セットの少なくとも一部分を使用することによって重みベ
クトルの少なくとも一部分の重みベクトルセル値を調整するための手段が含まれ
ている、請求項26〜32のいずれか1項に記載のシステム。33. The means for determining a weight cell value includes means for initializing one or more weight vector sets corresponding to at least a portion of a column vector, and at least one of the determined column vector cell values. 33. A method according to any one of claims 26 to 32, comprising means for adjusting a weight vector cell value of at least a portion of the weight vector based on the portion of information and by using at least a portion of the training input example set. The system according to paragraph.
力例セットから対応するセルアドレスがサンプリングされる回数の関数としてこ
れらの値を決定するように適合されている、請求項26〜33のいずれか1項に
記載のシステム。34. The means for determining column vector cell values is adapted to determine these values as a function of the number of times corresponding cell addresses are sampled from the training input example set. The system according to any one of claims 26 to 33.
1であるものの値のうちの少なくとも一部分が、訓練用入力例セットから対応す
るセルアドレスがサンプリングされる回数の関数である付随する値を有するよう
な形で、これらの値を決定するように適合されている、請求項26〜33のいず
れか1項に記載のシステム。35. The means for determining a column vector cell value is such that at least a portion of the maximum one values are a function of the number of times the corresponding cell address is sampled from the training input example set. 34. A system according to any one of claims 26 to 33, adapted to determine these values in such a way as to have certain associated values.
ークに適用され、かくして単数又は複数のカラムベクトルをアドレス指定した時
点で、カラムベクトルセル値を決定するための手段が、既知のクラスのロウに対
応するアドレスを指定されたカラムベクトルのセルの値又は票を増分させるよう
に適合されており、この値が好ましくは1で増分される、請求項26〜35のい
ずれか1項に記載のシステム。36. An example of training input data belonging to a known class is applied to a classification network, such that at the point of addressing one or more column vectors, the means for determining a column vector cell value comprises a known 36. A method as claimed in any one of claims 26 to 35, wherein the address corresponding to a row of a class is adapted to increment a value or vote of a cell of a specified column vector, the value preferably being incremented by one. System.
請求項26〜36のいずれか1項に記載のシステム。37. All column vectors have a corresponding weight vector.
The system according to any one of claims 26 to 36.
全ての重みベクトルセル値を設定することに適合されており、前記所定の値が好
ましくは1である、請求項33〜37のいずれか1項に記載のシステム。38. The means for initializing a weight vector is adapted to set all weight vector cell values to a predetermined constant value, wherein said predetermined value is preferably one. The system according to any one of claims 33 to 37.
に各々の重みベクトルセルを設定することに適合されている、請求項33〜38
のいずれか1項に記載のシステム。39. The means for initializing a weight vector is adapted to set each weight vector cell to a predetermined particular value.
The system according to claim 1.
ラムベクトルセル値の少なくとも一部分に基づいて大域品質値を決定し、大域品
質値が必要とされる大域品質基準を満たすか否かを決定し、大域品質基準が満た
されるまで重みセル値の少なくとも一部分を調整するように適合されている、請
求項33〜39のいずれか1項に記載のシステム。40. The means for adjusting a weight vector cell value determines a global quality value based on at least a portion of the weight and the column vector cell value, and determines whether the global quality value meets a required global quality criterion. 40. The system of any one of claims 33-39, wherein the system is adapted to determine whether or not and adjust at least a portion of the weight cell value until a global quality criterion is met.
びカラムベクトルセル値の少なくとも一部分の関数である局所品質値を決定し、 b) 局所品質値が、必要とされる局所品質基準を満たすか否かを決定し、 c) 局所品質基準が満たされていない場合にアドレス指定された、重みベク
トルセル値のうちの単数又は複数のものを調整し、 d) 所定の数の訓練用入力例について局所品質テストを反復し、 d) 局所品質テスト中にアドレス指定されつつある重み及びカラムベクトル
の少なくとも一部分に基づいて大域品質値を決定し、 e) 大域品質値が、必要な大域品質基準を満たしているか否かを決定し g) 大域品質基準が満たされるまで局所及び大域品質テスト並びに付随する
重み調整を反復するように適合されている、請求項33〜39のいずれか1項に
記載のシステム。41. The means for adjusting the weight vector cell value comprises: a) a local quality value corresponding to the sampled training input and being a function of at least a portion of the addressed weight and column vector cell values. B) determining whether the local quality value satisfies the required local quality criterion; and c) determining which of the weight vector cell values was addressed if the local quality criterion was not met. D) iterating the local quality test for a predetermined number of training input examples, d) based on at least a portion of the weights and column vectors being addressed during the local quality test. Determining global quality values; e) determining whether the global quality values meet the required global quality criteria; and g) determining local and large values until the global quality criteria are met. Quality test and associated is adapted to repeat the weight adjustment system according to any one of claims 33 to 39.
られた反復回数の後に大域品質基準が満たされなかった場合に反復プロセスを停
止させるように適合されている、請求項40又は41に記載のシステム。42. The means for adjusting the weight vector cell value is adapted to stop the iterative process if the global quality criterion is not met after a given number of iterations. 42. The system according to 40 or 41.
れた重みセル値を記憶するための手段及びそれまで最高の重みセル値を記憶する
ための別々の手段が含まれており、重みベクトルセル値を調整するための前記手
段はさらに、決定された大域品質値が、以前に別途記憶されたそれまで最高の重
み値に対応する大域品質値よりも大域品質基準を満たすのに近い場合に、以前に
別途記憶されたそれまで最高の重みセル値を得られた調整済み重みセル値を置換
するように適合されている、請求項40又は41に記載のシステム。43. The means for storing an n-tuple or LUT includes means for storing an adjusted weight cell value and separate means for storing a highest weight cell value so far. And the means for adjusting the weight vector cell value further comprises the determined global quality value satisfies a global quality criterion that is higher than the global quality value corresponding to the highest weight value previously stored separately. 42. The system of claim 40 or 41, wherein the system is adapted to replace an adjusted weight cell value that previously obtained the highest weight cell value previously stored separately when it is near.
類するためのシステムにおいて、各々が一定数の考えられるクラスの少なくとも
1つのサブセットに対応する一定数のロウを含み、さらに対応する重みベクトル
を伴う一定数のカラムベクトルを含む一定数のn−タプル又はルックアップテー
ブル(LUTS)又はセットを記憶するための記憶手段を含んで成り、各カラム
ベクトルが、サンプリングされた入力データ例の要素又は信号によってアドレス
指定され、各々のカラムベクトル及び重みベクトルが、単数又は複数の訓練用入
力データ例セットに基づいて訓練用プロセス中に決定される値をもつセルを有し
ているシステムであって、分類すべき入力データ例を受信するための入力手段、
受信した入力データ例をサンプリングし、記憶されたn−タプル又はLUTセッ
ト中でカラ及び対応する重みベクトルをアドレス指定するための手段、特定のク
ラスに対応する特定のロウを、n−タプル又はLUTセット内でアドレス指定す
るための手段、アドレス指定された重みセルの一関数として出力値を決定するた
めの手段及び、全てのクラスに対応する計算された出力値を比較し、最大出力を
もつ単数又は複数のクラスを選択するための手段をさらに含んで成るシステム。44. A system for classifying an example input data into at least one of a plurality of classes, each comprising a number of rows corresponding to at least one subset of a number of possible classes, A storage means for storing a fixed number of n-tuples or look-up tables (LUTS) or sets comprising a fixed number of column vectors with corresponding weight vectors, wherein each column vector is sampled input data. A system addressed by an example element or signal, wherein each column vector and weight vector has a cell having a value determined during a training process based on one or more example training input data sets. Input means for receiving an example of input data to be classified,
Means for sampling the received example input data and addressing the empty and corresponding weight vectors in a stored n-tuple or LUT set, n-tuple or LUT for a particular row corresponding to a particular class Means for addressing in the set, means for determining the output value as a function of the addressed weight cell, and a singular with maximum output, comparing the calculated output values corresponding to all classes Or a system further comprising means for selecting a plurality of classes.
数として決定される、請求項44に記載のシステム。45. The system of claim 44, wherein the output value is further determined as a function of the value of the addressed column cell.
に対応しかつ特定のクラスに対応するアドレス指定された重みベクトルセル値全
ての第1の合計を生成するための手段が含まれている、請求項44又は45に記
載のシステム。46. The output determining means includes means for generating a first sum of all addressed weight vector cell values corresponding to column vector cell values greater than or equal to a predetermined value and corresponding to a particular class. 46. The system according to claim 44 or claim 45, comprising:
ス指定された重みベクトルセル値の第2の合計を生成するための手段及び、第1
の合計を第2の合計で除することによって出力値を決定するための手段がさらに
含まれる請求項46に記載のシステム。47. An output determining means comprising: means for generating a second sum of all addressed weight vector cell values corresponding to a particular class; and
47. The system of claim 46, further comprising means for determining an output value by dividing the sum of the second by the second sum.
〜43のいずれか1項に記載の訓練システムを使用することによって決定されて
いる、請求項44〜47のいずれか1項に記載のシステム。48. The cell value of the column vector and the weight vector, wherein
48. The system of any one of claims 44-47, wherein the system has been determined by using a training system of any one of -43.
21のいずれか1項に記載の訓練プロセス中に決定されている、請求項44〜4
7のいずれか1項に記載のシステム。49. The cell value of the column vector and the weight vector,
21. The method according to any one of claims 21 to 24, wherein the determination has been made during the training process.
8. The system according to claim 7.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DK16298 | 1998-02-05 | ||
EP98201910.1 | 1998-06-09 | ||
EP0162/98 | 1998-06-09 | ||
EP98201910A EP0935212B9 (en) | 1998-02-05 | 1998-06-09 | N-Tuple or ram based neural network classification system and method |
PCT/DK1999/000052 WO1999040521A1 (en) | 1998-02-05 | 1999-02-02 | N-tuple or ram based neural network classification system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2002503002A true JP2002503002A (en) | 2002-01-29 |
Family
ID=26063433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000530867A Pending JP2002503002A (en) | 1998-02-05 | 1999-02-02 | N-tuple or RAM based neural network classification system and method |
Country Status (8)
Country | Link |
---|---|
JP (1) | JP2002503002A (en) |
CN (1) | CN1227608C (en) |
AU (1) | AU756987B2 (en) |
CA (1) | CA2318502C (en) |
IL (1) | IL137337A0 (en) |
NZ (1) | NZ506053A (en) |
PL (1) | PL343114A1 (en) |
WO (1) | WO1999040521A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6995629B2 (en) * | 2018-01-05 | 2022-01-14 | 日本電信電話株式会社 | Arithmetic circuit |
CN110163334B (en) * | 2018-02-11 | 2020-10-09 | 上海寒武纪信息科技有限公司 | Integrated circuit chip device and related product |
CN110197264B (en) * | 2018-02-27 | 2020-08-04 | 上海寒武纪信息科技有限公司 | Neural network processor board card and related product |
CN110197274B (en) * | 2018-02-27 | 2020-08-25 | 上海寒武纪信息科技有限公司 | Integrated circuit chip device and related product |
CN110197275B (en) * | 2018-02-27 | 2020-08-04 | 上海寒武纪信息科技有限公司 | Integrated circuit chip device and related product |
CN110197267B (en) * | 2018-02-27 | 2020-08-04 | 上海寒武纪信息科技有限公司 | Neural network processor board card and related product |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9014569D0 (en) * | 1990-06-29 | 1990-08-22 | Univ London | Devices for use in neural processing |
-
1999
- 1999-02-02 AU AU22656/99A patent/AU756987B2/en not_active Ceased
- 1999-02-02 PL PL99343114A patent/PL343114A1/en unknown
- 1999-02-02 CA CA002318502A patent/CA2318502C/en not_active Expired - Lifetime
- 1999-02-02 IL IL13733799A patent/IL137337A0/en unknown
- 1999-02-02 NZ NZ506053A patent/NZ506053A/en unknown
- 1999-02-02 WO PCT/DK1999/000052 patent/WO1999040521A1/en active IP Right Grant
- 1999-02-02 JP JP2000530867A patent/JP2002503002A/en active Pending
- 1999-02-02 CN CNB998027618A patent/CN1227608C/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
PL343114A1 (en) | 2001-07-30 |
WO1999040521A1 (en) | 1999-08-12 |
CN1227608C (en) | 2005-11-16 |
AU756987B2 (en) | 2003-01-30 |
IL137337A0 (en) | 2001-07-24 |
AU2265699A (en) | 1999-08-23 |
CN1290367A (en) | 2001-04-04 |
CA2318502A1 (en) | 1999-08-12 |
CA2318502C (en) | 2008-10-07 |
NZ506053A (en) | 2003-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210232925A1 (en) | Stochastic Gradient Boosting For Deep Neural Networks | |
Gu et al. | Stack-captioning: Coarse-to-fine learning for image captioning | |
US11914448B2 (en) | Clustering device and clustering method | |
JPH04229384A (en) | Nural network apparatus and method for recognizing pattern | |
KR20210032140A (en) | Method and apparatus for performing pruning of neural network | |
CN111950656A (en) | Image recognition model generation method and device, computer equipment and storage medium | |
CN107240087B (en) | Object detection system and method | |
CN110033089B (en) | Method and system for optimizing parameters of handwritten digital image recognition deep neural network based on distributed estimation algorithm | |
US5469530A (en) | Unsupervised training method for a neural net and a neural net classifier device | |
Chen et al. | An effective feature selection scheme for healthcare data classification using binary particle swarm optimization | |
Adamczak et al. | New developments in the feature space mapping model | |
JP2002519747A (en) | N-ary or RAM-based neural network classification system and method | |
US6393413B1 (en) | N-tuple or RAM based neural network classification system and method | |
JP2002503002A (en) | N-tuple or RAM based neural network classification system and method | |
Zhu et al. | Calibration for non-exemplar based class-incremental learning | |
CN116415658A (en) | Searching method, searching device and computer storage medium of neural network architecture | |
CN116453209A (en) | Model training method, behavior classification method, electronic device, and storage medium | |
Junco et al. | Using the Adaboost algorithm to induce fuzzy rules in classification problems | |
CN113177627B (en) | Optimization system, retraining system, method thereof, processor and readable medium | |
CN115148292A (en) | Artificial intelligence-based DNA (deoxyribonucleic acid) motif prediction method, device, equipment and medium | |
CN113688655A (en) | Method and device for identifying interference signal, computer equipment and storage medium | |
Yang et al. | PolSAR Image Classification Based on Resblock Combined with Attention Model | |
JP7511496B2 (en) | Incremental reinforcement learning apparatus and method | |
CN118657145A (en) | Data processing method, apparatus, computer device, readable storage medium, and program product | |
Wang | Feature screening rules and algorithms for efficient optimization of sparse regression models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090303 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090728 |