Nothing Special   »   [go: up one dir, main page]

JP6521440B2 - Neural network and computer program therefor - Google Patents

Neural network and computer program therefor Download PDF

Info

Publication number
JP6521440B2
JP6521440B2 JP2015099137A JP2015099137A JP6521440B2 JP 6521440 B2 JP6521440 B2 JP 6521440B2 JP 2015099137 A JP2015099137 A JP 2015099137A JP 2015099137 A JP2015099137 A JP 2015099137A JP 6521440 B2 JP6521440 B2 JP 6521440B2
Authority
JP
Japan
Prior art keywords
function
output
input
layer
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015099137A
Other languages
Japanese (ja)
Other versions
JP2016218513A (en
Inventor
駿平 窪澤
駿平 窪澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2015099137A priority Critical patent/JP6521440B2/en
Publication of JP2016218513A publication Critical patent/JP2016218513A/en
Application granted granted Critical
Publication of JP6521440B2 publication Critical patent/JP6521440B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

この発明は機械学習に関し、特に、計算資源の小さな計算機でも精度よく推論を行うことができるニューラルネットワークに関する。   The present invention relates to machine learning, and more particularly to a neural network capable of performing inference with high accuracy even with a computer having a small computing resource.

機械学習とは、限られた量の事例から、一般的な法則あるいは傾向を獲得することを目的とした、帰納的な推論に基づく学習方法である。数理的には、事例(訓練)データが真のデータ分布から標本として抽出されたことを仮定し、抽出元のデータ分布を大域的に推定することとして定式化される。データ分布は、データ空間を定義域とし、確率等のデータらしさを表現する空間を値域とする連続関数として捉えることができる。この連続関数を訓練データから近似する方法の一つとしてニューラルネットワークがある。ニューラルネットワークは、多層パーセプトロン(multi-layered perceptron:MLP)すなわちフィードフォワードニューラルネットワーク(feed forward neural network:FFNN)として、言語モデル、音声認識、及び画像認識等様々な識別タスクにおいて広く利用されている。   Machine learning is a learning method based on inductive reasoning that aims to acquire general rules or trends from a limited amount of cases. Mathematically, it is formulated as assuming that the case (training) data is sampled as a sample from the true data distribution, and estimating the data distribution of the extraction source globally. Data distribution can be regarded as a continuous function with a data space as a domain and a space expressing data likeness such as probability as a range. A neural network is one of the methods for approximating this continuous function from training data. Neural networks are widely used as multi-layered perceptrons (MLPs) or feed forward neural networks (FFNNs) in various identification tasks such as language models, speech recognition, and image recognition.

任意の連続関数すなわちデータ分布は、ロジスティックシグモイド関数を活性化関数として使用する2層ニューラルネットワークにおいて表現可能である。しかし、2層程度の少ない層数のネットワークでは、個々の訓練データ点等の局所的な分布のみを学習し、大域的な分布を獲得できない過適合が発生する傾向がある。この様子を図1に示す。図1は2次元のデータ空間において、2種類のデータが存在し、それらの訓練データ(×及び○で示す)が得られた場合を想定したものである。ニューラルネットワークのタスクとして、これら2種類のデータを識別する場合、元のデータ空間においてこれら2種類のデータを識別するための識別曲線を求めることが必要である。しかし、想定するパラメータの数が多すぎたりすると、識別曲線が訓練データに対して過適合することが多い。過適合により得られた識別曲線を例えば図1の識別曲線とすると、この識別曲線30は、訓練データに対する識別性能は極めて高く、ときには完全な識別結果を与えるが、訓練データ以外のデータに対する識別性能(汎化性能)は逆に悪化する。それに対して適正な訓練により得られた識別曲線32は、全てのテストデータに対して完全な識別結果を与えるとは限らないが、訓練データ以外のデータが与えられたときも比較的精度よくデータの識別を行うことができる。   Any continuous function or data distribution can be represented in a two-layer neural network using a logistic sigmoid function as an activation function. However, in networks with as few as two layers, only local distributions such as individual training data points are learned, and there is a tendency for overfitting to occur where global distribution can not be obtained. This situation is shown in FIG. FIG. 1 assumes that there are two types of data in a two-dimensional data space, and their training data (indicated by x and ○) are obtained. When identifying these two types of data as a task of a neural network, it is necessary to find a discrimination curve for identifying these two types of data in the original data space. However, if the number of parameters assumed is too large, the discrimination curve often overfits the training data. If the discrimination curve obtained by overfitting is, for example, the discrimination curve of FIG. 1, this discrimination curve 30 has very high discrimination performance for training data, sometimes giving complete discrimination results, but discrimination performance for data other than training data. On the contrary, the (generalization performance) deteriorates. On the other hand, the discrimination curve 32 obtained by proper training does not necessarily give complete discrimination results for all test data, but data with relatively high accuracy is obtained even when data other than training data is given. Can be identified.

過適合を抑制するため、機械学習全般において正則化(非特許文献1、非特許文献2)と呼ばれる手法が広く用いられている。正則化とは、識別モデルが訓練データを近似する様に学習する際に、近似に影響するパラメータ数を削減したり、パラメータの値を小さくしたりする手法である。この手法は、訓練データが抽出される元の分布は、滑らかな形状であるという仮定に基づいている。すなわち、正則化は、元の分布が少数かつ小さな値のパラメータによって構成される関数であるという仮定に基づいている。一般には、最小化する目的関数にパラメータのL2ノルム又はL1ノルムを加えることで、多くのパラメータの値を0または0近傍とする目的で用いられる。すなわち、正則化により推論に使用されるパラメータの数を実質的に制限するという制約を課すことで、汎化性能が向上する。   In order to suppress overfitting, a method called regularization (Non-Patent Document 1, Non-Patent Document 2) is widely used in machine learning in general. The regularization is a method of reducing the number of parameters affecting the approximation or reducing the value of the parameters when the discriminative model learns to approximate training data. This approach is based on the assumption that the original distribution from which training data is extracted has a smooth shape. That is, regularization is based on the assumption that the original distribution is a function composed of few and small valued parameters. Generally, it is used for the purpose of setting the values of many parameters to 0 or near 0 by adding L2 norm or L1 norm of parameters to the objective function to be minimized. That is, the generalization performance is improved by imposing the restriction that the number of parameters used for inference is substantially limited by regularization.

正則化と共に、モデルの計算構造(関数定義)という観点から汎化性能を向上するという考え方がある。その手法の1つとして、深層学習(deep learning)と呼ばれる、多層化したニューラルネットワークがある。多数の層からなるニューラルネットワークでは、入力に近い層においては局所的なデータ分布を捉え、出力層へと進むにつれて、局所的なデータ分布の組み合わせにより大域的な分布を捉える性質があると言われている(非特許文献3)。画像認識等一部の識別タスクにおいては、深層学習により従来手法を大幅に凌駕する汎化性能が達成されている(非特許文献4)。   Along with regularization, there is a concept of improving generalization performance from the viewpoint of calculation structure (function definition) of a model. One of the methods is a multilayered neural network called deep learning. A neural network consisting of many layers is said to have the property of capturing local data distribution in the layer close to the input, and capturing global distribution by combining local data distribution as it goes to the output layer. (Non-Patent Document 3). In some identification tasks such as image recognition, deep learning has achieved generalization performance that greatly surpasses conventional methods (Non-Patent Document 4).

図2に、多層化したニューラルネットワーク(ディープニューラルネットワーク:DNN)50の構成例を示す。図2を参照して、DNN50は、入力層52と、複数個の隠れ層からなる中間層54と、出力層56とを含む。この例では、中間層54は5個の隠れ層を含んでいる。DNN50の学習には誤差逆伝搬法が用いられる。すなわち、訓練データが入力層52に与えられ、中間層54を経て出力層56から訓練データに対する予測出力が得られる。その出力と正解データとの誤差が逆に出力側から与えられ、各ノード間の結合の重みとバイアスとが、所定の誤差関数を最小にするように更新される。   FIG. 2 shows a configuration example of a multilayered neural network (deep neural network: DNN) 50. Referring to FIG. 2, DNN 50 includes an input layer 52, an intermediate layer 54 composed of a plurality of hidden layers, and an output layer 56. In this example, the middle layer 54 includes five hidden layers. An error back propagation method is used for learning of DNN50. That is, training data is given to the input layer 52, and the predicted output for the training data is obtained from the output layer 56 through the intermediate layer 54. The error between the output and the correct data is reversely given from the output side, and the weight and bias of coupling between each node are updated so as to minimize a predetermined error function.

従来は、各層の活性化関数としては、ロジスティックシグモイド関数及びハイパーボリックタンジェント等が広く用いられてきた。しかし最近では、多層化を前提として、各層の活性化関数についても、様々な関数(非特許文献5、非特許文献6)が提案され、これらにより汎化性能が向上することが示されている。   Conventionally, logistic sigmoid functions, hyperbolic tangents, etc. have been widely used as activation functions for each layer. Recently, however, various functions (5 and 6) have been proposed for activation functions of each layer, assuming multi-layering, and it is shown that generalization performance is improved by these functions. .

Evgeniou, T., Pontil, M., & Poggio, T. (2000). Regularization networks and support vector machines. Advances in computational mathematics, 13(1), 1-50.Evgeniou, T., Pontil, M., & Poggio, T. (2000). Regularization networks and support vector machines. Advances in computational mathematics, 13 (1), 1-50. Girosi, F., Jones, M., & Poggio, T. (1995). Regularization theory and neural networks architectures. Neural computation, 7(2), 219-269.Girosi, F., Jones, M., & Poggio, T. (1995). Regularization theory and neural networks architectures. Neural computation, 7 (2), 219-269. Montufar, G., Pascanu, R., Cho, K. and Bengio, Y. (2014). On the Number of Linear Regions of Deep Neural Networks. http://arxiv.org/abs/1402.1869Montufar, G., Pascanu, R., Cho, K. and Bengio, Y. (2014). On the Number of Linear Regions of Deep Neural Networks. Http://arxiv.org/abs/1402.1869 Schmidhuber, J. (2015). Deep Learning in Neural Networks: An Overview. Neural Networks, Vol 61, pp 85-117. (http://arxiv.org/abs/1404.7828)Schmidhuber, J. (2015). Deep Learning in Neural Networks: An Overview. Neural Networks, Vol 61, pp 85-117. (Http://arxiv.org/abs/1404.7828) Glorot, X., Bordes, A., and Bengio, Y. (2011). Deep sparse rectifier networks. Proceedings of the 14th International Conference on Artificial Intelligence and Statistics. JMLR W&CP Volume. Vol. 15.Glorot, X., Bordes, A., and Bengio, Y. (2011). Deep sparse rectifier networks. Proceedings of the 14th International Conference on Artificial Intelligence and Statistics. JMLR W & CP Volume. Vol. Goodfellow, I., Warde-farley, D., Mirza, M., Courville, A., and Bengio, Y. (2013). Maxout Networks. In Proceedings of the 30th International Conference on Machine Learning (ICML-13), pages 1319-1327.Goodfellow, I., Warde-farley, D., Mirza, M., Courville, A., and Bengio, Y. (2013). Maxout Networks. In Proceedings of the 30th International Conference on Machine Learning (ICML-13), pages 1319-1327.

以上のように、従来技術により、多層化による汎化性能の向上が示されている。しかし、同時に計算量が増大したという問題がある。したがって、性能向上のためには、依然として大規模な計算装置が必要である。また、汎用GPU計算機の普及等、計算機ハードウェアの大規模並列化の進展により各層の計算効率は向上しているが、多層モデルでは入力側の層における計算を終えるまで次の層の計算が不可能であるという制約がある。したがって、多層化による層数の増加に比例して必然的に待ち時間が増大し、訓練時のみならず予測時の計算効率も低下しているという問題がある。   As described above, the prior art shows improvement in generalization performance by multi-layering. However, there is a problem that the amount of calculation increases at the same time. Therefore, large-scale computing devices are still required to improve performance. In addition, although the computational efficiency of each layer is improved due to the progress of large-scale parallelization of computer hardware such as the spread of general-purpose GPU computers, in the multi-layer model, the calculation of the next layer is not completed until the calculation on the input side is completed. There is a restriction that it is possible. Therefore, there is a problem that the waiting time inevitably increases in proportion to the increase in the number of layers due to the multi-layering, and the calculation efficiency at the time of training as well as at the time of prediction decreases.

したがって本発明の目的は、短時間で予測可能な、汎化性能の高いニューラルネットワークを提供することである。   Therefore, an object of the present invention is to provide a high generalization performance neural network that can be predicted in a short time.

本発明の第1の局面に係るニューラルネットワークは、複数個の入力ノードを持つ入力層と、入力層からの出力を受けるように接続された入力を持つ非線形関数層とを含む。非線形関数層は、各々が入力層の複数個の入力ノードからの出力を受けるように接続された、各々が任意の独立成分を近似可能な複数個の隠れ層を含む。複数個の隠れ層の各々は、各々が複数個の入力ノードに重み付きで接続された入力を持ち、活性化関数として、劣微分可能な周期関数を用いる複数個の神経細胞素子と、同一の隠れ層内の複数個の神経細胞素子の出力を重み付きで受けるように接続され、活性化関数として、劣微分可能な関数を用いる出力集約素子とを含む。   A neural network according to a first aspect of the present invention includes an input layer having a plurality of input nodes, and a non-linear function layer having an input connected to receive an output from the input layer. The non-linear function layer includes a plurality of hidden layers each capable of approximating any independent component, each connected to receive an output from a plurality of input nodes of the input layer. Each of the plurality of hidden layers has an input connected to each of the plurality of input nodes in a weighted manner, and is identical to a plurality of neural cell elements using a periodically differentiable function as an activation function. And an output aggregation element connected so as to receive the outputs of the plurality of neural cell elements in the hidden layer in a weighted manner and using a function that is differentiable as an activation function.

好ましくは、周期関数は、コサイン関数若しくはサイン関数又はこれらの組み合わせ、又は区分線形近似したコサイン関数若しくはサイン関数である。   Preferably, the periodic function is a cosine function or a sine function or a combination thereof, or a piecewise linear approximated cosine function or a sine function.

より好ましくは、ニューラルネットワークは、複数個の隠れ層の各々の入力側の重みパラメータにL2正則化を用いて訓練されたものである。   More preferably, the neural network is trained using L2 regularization on the input side weight parameters of each of the plurality of hidden layers.

ニューラルネットワークは、準ニュートン法を用いて訓練されたものでもよい。   The neural network may be trained using the quasi-Newton method.

より好ましくは、出力集約素子の活性化関数は恒等関数、すなわち与えられた入力と同じ値を出力する関数でもよい。   More preferably, the activation function of the output aggregation element may be an identity function, ie a function that outputs the same value as the given input.

ニューラルネットワークはさらに、複数個の隠れ層の出力集約素子の出力を受けるように接続された出力層を含んでもよい。出力層は、各々が複数個の隠れ層の出力集約素子の出力を重み付きで受けるように接続された複数個の出力神経細胞素子を含む。   The neural network may further include an output layer connected to receive the outputs of the plurality of hidden layer output aggregation elements. The output layer includes a plurality of output neural cell elements each connected to receive the outputs of the plurality of hidden layer output aggregation elements in a weighted manner.

出力集約素子の活性化関数はsoftmax関数であってもよい。   The activation function of the output aggregation element may be a softmax function.

本発明の第2の局面に係るコンピュータプログラムは、コンピュータを、上記したいずれかのニューラルネットワークとして機能させる。   A computer program according to a second aspect of the present invention causes a computer to function as any of the neural networks described above.

機械学習における過適合の問題を説明するための、2次元空間におけるデータ分布と識別関数との関係を示す図である。It is a figure which shows the relationship of the data distribution and identification function in two-dimensional space for demonstrating the problem of the overfitting in machine learning. 従来のディープニューラルネットワークの問題点を説明するためのニューラルネットワークの模式図である。It is a schematic diagram of the neural network for demonstrating the problem of the conventional deep neural network. 本発明の1実施の形態に係るニューラルネットワークの概略構成を模式的に示す図である。FIG. 1 schematically shows a schematic configuration of a neural network according to an embodiment of the present invention. 誤差に正則項を加えないときの目的関数の一例を示すグラフである。It is a graph which shows an example of the objective function when not adding a regular term to an error. 誤差に正則項を加えたときの目的関数の一例を示すグラフである。It is a graph which shows an example of an objective function when a regular term is added to error. 本発明の1実施の形態に係るニューラルネットワークによる音響モデルを用いた音声認識装置のブロック図である。It is a block diagram of the speech recognition device using the acoustic model by the neural network concerning one embodiment of the present invention. 本発明の1実施の形態において、正則化をしたときの手書き文字認識における汎化性能の向上を示すグラフである。In one embodiment of this invention, it is a graph which shows the improvement of the generalization performance in handwritten character recognition when regularization is carried out. 本発明の1実施の形態において、正則化をしないときの手書き文字認識における汎化性能を示すグラフである。In one embodiment of the present invention, it is a graph which shows generalization performance in handwriting character recognition when not regularizing. 本発明の1実施の形態に係る文字認識装置を実現するコンピュータシステムの外観図である。FIG. 1 is an external view of a computer system for realizing a character recognition device according to an embodiment of the present invention. 図9に示すコンピュータのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a computer shown in FIG.

以下の説明及び図面では、同一の部品には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。なお、以下の実施の形態の説明では、ニューラルネットワークを「NN」と呼ぶ。   In the following description and the drawings, the same parts are given the same reference numerals. Therefore, detailed description about them will not be repeated. In the following description of the embodiment, the neural network is referred to as "NN".

[基本的考え方]
機械学習において、訓練データを近似する連続関数を得る枠組みとして、以下に述べる本発明の1実施の形態では、連続関数の離散フーリエ変換における周波数領域を表現するネットワーク構造を用いる。
[Basic way of thinking]
In machine learning, as a framework for obtaining a continuous function approximating training data, one embodiment of the present invention described below uses a network structure representing a frequency domain in discrete Fourier transform of the continuous function.

図3は、2個のラベル分布を近似する関数を例に、本実施の形態で用いるNNの構造を示す。図3を参照して、このNN80は、入力層90、入力層90の出力を受けるように接続された隠れ層92、及び隠れ層92の出力を受けるように接続された出力層94を含む。   FIG. 3 shows the structure of the NN used in the present embodiment, taking a function that approximates two label distributions as an example. Referring to FIG. 3, this NN 80 includes an input layer 90, a hidden layer 92 connected to receive an output of the input layer 90, and an output layer 94 connected to receive an output of the hidden layer 92.

この例では、入力層90は3つのノードを含む。各ノードは神経細胞素子(ニューロン)と呼ばれる。各ニューロンは、その入力の重み付きの総和を入力とする所定の活性化関数の値を出力する。活性化関数は、単調増加関数であればよいが、本実施の形態で使用する活性化関数については後述する。   In this example, the input layer 90 includes three nodes. Each node is called a neural cell element (neuron). Each neuron outputs a value of a predetermined activation function whose input is the weighted sum of its inputs. The activation function may be a monotonically increasing function, but the activation function used in the present embodiment will be described later.

隠れ層92は、2つの隠れ層ユニット100及び102を含む。隠れ層ユニット100及び102はいずれも同じ構造を持つ。したがって以下では隠れ層ユニット100のみを例に説明する。また隠れ層92は、階層数でいえば1層のみである。図3では、説明のため隠れ層ユニットを2つとしているが、本実施の形態では10個程度である。   Hidden layer 92 includes two hidden layer units 100 and 102. The hidden layer units 100 and 102 both have the same structure. Therefore, only the hidden layer unit 100 will be described below as an example. In addition, the number of hidden layers 92 is only one. Although two hidden layer units are shown in FIG. 3 for the purpose of explanation, the number of hidden layer units is about 10 in the present embodiment.

隠れ層ユニット100は、いずれも入力層90の3つの入力素子の出力に結合された入力を持ち、コサイン関数を活性化関数として用いるCOS素子120、122、124、126及び128と、COS素子120、122、124、126及び128の出力を受けるようにこれらに結合され、恒等写像を活性化関数として用いるΣ素子140とを含む。これら素子はいずれも神経細胞素子の一種である。   The hidden layer unit 100 has COS elements 120, 122, 124, 126 and 128 each having an input coupled to the outputs of three input elements of the input layer 90 and using a cosine function as an activation function, and a COS element 120. , 、 Element 140 coupled thereto to receive the outputs of 122, 124, 126 and 128 and using an identity map as an activation function. Each of these elements is a type of neural cell element.

出力層94は、本実施の形態では、いずれも隠れ層ユニット100及び102の出力を受けるようにこれらに結合されたノードを含む。   Output layer 94 includes nodes coupled thereto to receive the outputs of hidden layer units 100 and 102, both in this embodiment.

各素子の間の結合には重み及びバイアスが設定される。各Σ素子の出力は以下の式により表される。   Weights and biases are set for the coupling between each element. The output of each Σ element is expressed by the following equation.

Figure 0006521440
上式のベクトルxは入力ベクトルを表し、行列aは入力層90及び隠れ層ユニット100、102の間の素子間の結合の重み行列を表し、ベクトルbは隠れ層ユニット100及び102の各素子の出力に加算されるバイアスベクトルを表し、ベクトルcは隠れ層ユニット100、102の各COS素子120、122、124、126及び128とΣ素子140との間の結合の重みベクトルを表す。これら重み及びバイアスを訓練データに基づいて決定する過程が学習である。学習の結果、各Σ素子は、入力層90に対する入力について任意の連続関数を近似可能である。各Σ素子が近似する連続関数の周波数領域において、COS素子の入力側の重みは周波数成分に対応し、同入力側のバイアスは位相成分に対応し、同出力側の重みは振幅成分に対応する。各Σ素子は、互いにCOS素子の出力を共有しないことにより、入力空間上の任意の連続関数を独立に近似可能である。
Figure 0006521440
The vector x in the above equation represents the input vector, the matrix a d represents the weight matrix of the coupling between elements between the input layer 90 and the hidden layer units 100, 102, and the vector b d represents each of the hidden layer units 100 and 102. represents a bias vector being added to the output of the device, the vector c d represents the weight vector of the bond between each COS elements 120, 122, 124, 126 and 128 and Σ element 140 of the hidden layer units 100 and 102. The process of determining these weights and biases based on training data is learning. As a result of learning, each Σ element can approximate any continuous function for the input to the input layer 90. In the frequency domain of the continuous function approximated by each Σ element, the weight on the input side of the COS element corresponds to the frequency component, the bias on the input side corresponds to the phase component, and the weight on the output side corresponds to the amplitude component . Each Σ element can independently approximate any continuous function on the input space by not sharing the outputs of the COS elements with each other.

なお、出力層94は、ラベル数と同数の隠れ層ユニット100及び102等を用意することで省略可能である。また、各隠れ層ユニットのΣ素子の活性化関数をsoftmax関数とすることで、その出力を確率値として用いることができる。softmax関数は以下の式で表される関数(i=1、…、n)である。   The output layer 94 can be omitted by preparing the hidden layer units 100 and 102 as many as the number of labels. Further, by setting the activation function of the Σ element of each hidden layer unit as a softmax function, the output can be used as a probability value. The softmax function is a function (i = 1,..., n) expressed by the following equation.

Figure 0006521440
Figure 0006521440

図3に示す様に出力層94を用意することで、ラベル数より多いまたは少ないΣ素子を組み込むことも可能である。なお、COS素子においてコサイン関数の代わりにサイン関数を用いた場合も、ネットワークの近似性能は等価である。また、これら以外の微分可能な周期関数若しくはそれらの組み合わせを用いても良い。   By preparing the output layer 94 as shown in FIG. 3, it is also possible to incorporate more or less Σ elements than the number of labels. The approximation performance of the network is equivalent even when a sine function is used instead of the cosine function in the COS element. Also, other differentiable periodic functions or combinations thereof may be used.

本実施の形態でも、従来のFFNN等と同様、誤差逆伝搬法を用いた学習を行う。しかし、本実施の形態では、隠れ層ユニットのCOS素子において、コサイン関数を活性化関数に用いている。そのため、以下に述べるように従来と同様の手法を用いると訓練データに対して隠れ層ユニット100及び102の最適化学習を行うことがむずかしい。そこで本実施の形態では、学習時に以下の様な2つの手法を用いる。第1は正則化、第2は準ニュートン法の採用である。   Also in this embodiment, as in the conventional FFNN and the like, learning is performed using the error back propagation method. However, in the present embodiment, the cosine function is used as the activation function in the COS element of the hidden layer unit. Therefore, it is difficult to perform optimization learning of the hidden layer units 100 and 102 on the training data using the same method as the conventional method as described below. Therefore, in the present embodiment, the following two methods are used at the time of learning. The first is regularization, and the second is adoption of the quasi-Newton method.

本実施の形態で用いるネットワーク構造は、データ分布の周波数領域表現を用いている。したがって、NN80において、近似する関数の周波数領域における性質として解釈可能である周波数成分、位相成分、振幅成分の各要素を個別に制御可能である。一般に、関数の大域的な傾向は低周波成分によって表現される。したがって、大域的なデータ分布を得ることにより汎化性能の向上を図ることができる。そのため、本実施の形態では、周波数成分への正則化を行うことで、低周波領域によってデータ分布を近似する。正則化項は、周波数成分を表すパラメータについて、原点を頂点とする下に凸な関数(凸関数)である。学習における目的関数を、近似関数と訓練データとの誤差とすると、誤差に正則化を加えることで、目的関数は原点付近において最小値となり、大域的には凸関数となる。図4及び図5は、本実施の形態で用いるネットワークにおける周波数パラメータの値に関する目的関数の形状例を示したものである。正則化をしない場合の目的関数の形状例を図4に示す。また、最小化する目的関数に周波数成分を表すパラメータのL2ノルムを加えた(L2正則化した)場合の目的関数の形状例を図5に示す。   The network structure used in the present embodiment uses frequency domain representation of data distribution. Therefore, in the NN 80, it is possible to individually control each component of the frequency component, the phase component, and the amplitude component that can be interpreted as the property in the frequency domain of the approximating function. In general, the global tendency of a function is represented by low frequency components. Therefore, generalization performance can be improved by obtaining a global data distribution. Therefore, in the present embodiment, the data distribution is approximated by the low frequency region by performing regularization to frequency components. The regularization term is a downwardly convex function (convex function) with the origin at the top for parameters representing frequency components. Assuming that the objective function in learning is the error between the approximation function and the training data, adding the regularization to the error makes the objective function a minimum value near the origin and a convex function globally. FIGS. 4 and 5 show examples of the shape of the objective function regarding the value of the frequency parameter in the network used in the present embodiment. An example of the shape of the objective function without regularization is shown in FIG. Further, FIG. 5 shows an example of the shape of the objective function in the case where the L2 norm of the parameter representing the frequency component is added (L2 regularization) to the objective function to be minimized.

図4及び図5を対比すると、図4では最小値が複数個存在するのに対し、図5では原点付近に1個のみ大域的な最小値が存在することが分かる。したがって、誤差関数がこの大域的な最小値に収束するように各パラメータの学習を行う。しかし、図5から明らかなように、このグラフには局所的な最小値(極小値)が複数個存在する。通常の学習の過程では、パラメータがこれら極小値の1つに収束してしまう危険性がある。そのような事態は避けなければならない。そこで本実施の形態ではさらに、周波数パラメータに関してはL―BFGS法を含む準ニュートン法等の大域的最適化手法を用いる。準ニュートン法は局所な最適解に収束しにくいという特徴がある。中でもL−BGFS法は使用するメモリが少なくて済むことが知られている。したがって、計算資源の少ない装置でも利用できる。   When FIG. 4 and FIG. 5 are compared, it turns out that only one global minimum exists near the origin in FIG. 5 while FIG. 4 has a plurality of minimums. Therefore, each parameter is trained so that the error function converges to this global minimum. However, as is apparent from FIG. 5, there are a plurality of local minima (local minima) in this graph. In the normal learning process, there is a risk that the parameters may converge to one of these local minima. Such a situation must be avoided. Therefore, in the present embodiment, a global optimization method such as the quasi-Newton method including the L-BFGS method is further used for the frequency parameter. The quasi-Newton method is characterized in that it is difficult to converge to a local optimum solution. Among them, the L-BGFS method is known to use less memory. Therefore, it is possible to use an apparatus with few computational resources.

[構成]
図6に、上記した様な構成を持つNNを採用した例として文字認識装置180と、文字認識装置180のNNの学習を行う文字認識NN学習装置186とをブロック図形式で示す。
[Constitution]
FIG. 6 is a block diagram showing the character recognition device 180 and the character recognition NN learning device 186 for learning the NN of the character recognition device 180 as an example in which the NN having the above-described configuration is adopted.

図6を参照して、文字認識装置180は、手書き文字を含む入力画像182を受け、手書き文字認識を行って文字認識テキスト184を出力するためのものである。この例では文字認識装置180は、図示しない別のスキャナ又は記憶装置等から入力画像182を受信するものとする。文字認識装置180は、入力画像182を受信して一時記憶する入力画像記憶装置200と、入力画像記憶装置200に記憶された入力画像に対して傾きの補正等を行った後、個別の文字画像に分離し、個々の文字画像に対する正規化等をする画像補正部202と、この文字画像を文字ごとに記憶する画像記憶部204と、上記本実施の形態に係るNNからなる学習済の文字認識NN208と、画像記憶部204から各文字ごとに文字画像を読出し、文字認識NN208に入力してその結果を得ることにより文字認識テキスト184を出力するデコーダ210とを含む。   Referring to FIG. 6, character recognition device 180 receives input image 182 including handwritten characters, performs handwriting recognition, and outputs character recognition text 184. In this example, the character recognition device 180 receives an input image 182 from another scanner or storage device or the like (not shown). The character recognition device 180 receives the input image 182 and temporarily stores the input image storage device 200, and after correcting the inclination of the input image stored in the input image storage device 200, the individual character images Image recognition unit 202 for separating characters into character images and normalizing each character image, an image storage unit 204 for storing the character images for each character, and learned character recognition consisting of NN according to the present embodiment. It includes a NN 208 and a decoder 210 for reading out a character image for each character from the image storage unit 204, inputting the character image to the character recognition NN 208 and obtaining the result thereof to output a character recognition text 184.

文字認識NN208には、文字認識NN学習装置186による学習が予め行われているものとする。文字認識NN学習装置186は、手書き文字からなる画像をその文字の文字ラベルとともに記憶する手書き文字データベース(DB)240と、手書き文字DB240に記憶された手書き文字から画像補正部202と同様の手法により文字画像を補正し、文字ラベルと組にした学習データを生成する学習データ生成部242と、学習データ生成部242により生成された学習データを記憶する学習データ記憶装置244と、学習データ記憶装置244に記憶された学習データを用い、上記した手法により文字認識NN208の学習を行うための学習処理部246とを含む。文字認識NN208の入力層のノード数は、学習データのうち、文字ラベルを除いた要素数と等しい。文字ラベルは学習時の教師データとして文字認識NN208の出力層側からの誤差逆伝搬に用いられる正解ベクトルの生成に使用される。   In the character recognition NN 208, learning by the character recognition NN learning device 186 is performed in advance. The character recognition NN learning device 186 uses a method similar to the image correction unit 202 based on a handwritten character database (DB) 240 that stores an image consisting of handwritten characters together with character labels of the characters, and handwritten characters stored in the handwritten character DB 240 A learning data generation unit 242 that corrects a character image and generates learning data in combination with character labels, a learning data storage unit 244 that stores learning data generated by the learning data generation unit 242, and a learning data storage unit 244 And a learning processing unit 246 for learning the character recognition NN 208 according to the above-described method using the learning data stored in the above. The number of nodes in the input layer of the character recognition NN 208 is equal to the number of elements in the learning data excluding the character label. The character label is used as teacher data at the time of learning to generate a correct vector used for error back propagation from the output layer side of the character recognition NN 208.

[動作]
上記した文字認識NN学習装置186及び文字認識装置180は以下のように動作する。まず文字認識NN学習装置186による文字認識NN208の学習が行われ、その後に文字認識装置180による入力画像182の文字認識が行われる。
[Operation]
The character recognition NN learning device 186 and the character recognition device 180 described above operate as follows. First, learning of the character recognition NN 208 is performed by the character recognition NN learning device 186, and thereafter character recognition of the input image 182 by the character recognition device 180 is performed.

学習では、学習データ生成部242が手書き文字DB240に記憶された手書き文字画像を読出し、画像補正部202と同様に画像を補正・正規化し、文字ラベルと組み合わせて学習データを生成する。生成された学習データは学習データ記憶装置244に蓄積される。学習処理部246は、学習データ記憶装置244に蓄積された学習データを用い、上記した手法によって文字認識NN208の学習を行う。学習処理部246による文字認識NN208の学習が終われば、文字認識装置180による入力画像182の文字認識が可能になる。   In learning, the learning data generation unit 242 reads the handwritten character image stored in the handwritten character DB 240, corrects and normalizes the image as in the image correction unit 202, and combines with the character label to generate learning data. The generated learning data is accumulated in the learning data storage unit 244. The learning processing unit 246 uses the learning data stored in the learning data storage device 244 to learn the character recognition NN 208 by the method described above. When learning of the character recognition NN 208 by the learning processing unit 246 is finished, character recognition of the input image 182 by the character recognition device 180 becomes possible.

文字認識では、図示しないスキャナ等により入力画像182が生成され、入力画像記憶装置200に記憶される。画像補正部202は、画像の傾き補正、文字領域の抽出、文字領域の正規化等を行って画像を補正し、画像記憶部204に記憶させる。デコーダ210は、この画像を画像記憶部204から読出し、文字認識NN208に入力として与える。文字認識NN208は、学習の結果、入力された文字画像に対応する文字ラベルを特定する出力をデコーダ210に返す。デコーダ210はこの文字ラベルから文字認識テキスト184を生成して出力する。   In character recognition, an input image 182 is generated by a scanner (not shown) or the like and stored in the input image storage device 200. The image correction unit 202 corrects the image by performing inclination correction of the image, extraction of the character area, normalization of the character area, and the like, and causes the image storage unit 204 to store the corrected image. The decoder 210 reads this image from the image storage unit 204 and provides it to the character recognition NN 208 as an input. As a result of learning, the character recognition NN 208 returns to the decoder 210 an output that specifies a character label corresponding to the input character image. The decoder 210 generates and outputs the character recognition text 184 from the character label.

[実験結果]
上記文字認識NN208の性能を調べるため、手書き文字認識に関する実験を行った。実験には、MNIST手書き文字データセットを用いた。本実施の形態による性能と、NNの識別モデルとして非特許文献6で示されたmaxoutモデル、及び非特許文献5で示されたrectifierによる性能を、併せて次のテーブル1に示す。
[Experimental result]
In order to investigate the performance of the above character recognition NN 208, experiments on handwriting character recognition were conducted. The experiments used the MNIST handwritten character data set. The performance according to the present embodiment and the maxout model shown in Non-Patent Document 6 as a discrimination model of NN and the performance based on rectifier shown in Non-Patent Document 5 are collectively shown in Table 1 below.

Figure 0006521440
なお、表1において例えば「実施の形態(30/10)」の「30」は隠れ層ユニット数を、「10」は隠れ層ユニットのCOS素子数を、それぞれ表す。他も同様である。
Figure 0006521440
In Table 1, for example, “30” in “Embodiment (30/10)” indicates the number of hidden layer units, and “10” indicates the number of COS elements in the hidden layer unit. Others are similar.

表1に示すように、本実施の形態に係るNNの識別性能は、最新の手法によるものには及ばない。しかし、性能としてはそれほど悪いわけでもない。特筆すべきは、パラメータ数の少なさである。実施の形態(30/10)ではパラメータ数が472Kである。一方、maxoutではパラメータ数は1233K、rectifierに至っては3、798Kである。このように、本実施の形態によれば、少ないパラメータ数で比較的高い精度を出すことができる。更に、実施の形態(20/10)ではパラメータ数は157K、実施の形態(10/15)では118Kと、パラメータ数はさらに大幅に削減される。にもかかわらず、識別誤り率はわずかしか上昇せず、識別性能の低下はごくわずかである。   As shown in Table 1, the identification performance of the NN according to the present embodiment does not reach that by the latest method. However, the performance is not too bad. Of particular note is the small number of parameters. In the embodiment (30/10), the number of parameters is 472K. On the other hand, at maxout, the number of parameters is 1233 K, and for rectifier, it is 3,798 K. As described above, according to the present embodiment, relatively high accuracy can be obtained with a small number of parameters. Furthermore, in the embodiment (20/10), the number of parameters is 157K, and in the embodiment (10/15), the number of parameters is further reduced to 118K. Nevertheless, the identification error rate increases only slightly, and the degradation in identification performance is negligible.

さらに、正則化が汎化性能の向上にどの程度寄与しているかを確認するために、正則化を行って文字認識NN208の学習を行った場合と、正則化せずに学習を行った場合との結果を比較した。正則化を行った場合を図7に、行わなかった場合を図8に、それぞれ示す。双方の図において、実線260及び280で示したのがそれぞれ訓練データに対する識別誤り率、破線264及び284で示したのがテストデータに対する識別誤り率である。グラフは、横軸に学習の繰返し数を示し、縦軸にそのときの識別誤り率を示す。   Furthermore, in order to confirm how much regularization contributes to the improvement of the generalization performance, the case where the regularization is performed to learn the character recognition NN 208 and the case where the regularization is performed without the regularization are performed. The results of were compared. The case where regularization is performed is shown in FIG. 7, and the case where it is not performed is shown in FIG. In both figures, solid lines 260 and 280 indicate the identification error rate for the training data, and dashed lines 264 and 284 indicate the identification error rate for the test data. In the graph, the horizontal axis shows the number of repetitions of learning, and the vertical axis shows the discrimination error rate at that time.

図8の実線280により示されるように、正則化を行わない場合には、テストデータに対する識別誤りは学習とともに大きく低下する。しかし、破線284により示されるように、テストデータについての精度はほとんど高くならなかった。それに対し、図7に示すように、正則化を行った場合には、学習データに対する誤り率の低下は実線260により示されるように正則化を行わなかった場合には及ばなかったが、破線264により示されるように、テストデータに対する識別誤り率は学習とともに低下した。すなわち、識別誤りが少なくなり、識別精度は高くなった。この結果、汎化性能は正則化を行わない場合と比較して高くなっているといえる。   As shown by the solid line 280 in FIG. 8, in the case where regularization is not performed, identification errors for test data significantly decrease with learning. However, as indicated by the dashed line 284, the accuracy for the test data was barely high. On the other hand, as shown in FIG. 7, when regularization is performed, the decrease in error rate with respect to the learning data does not extend to the case where regularization is not performed as indicated by solid line 260. As shown by, the discrimination error rate for test data decreased with learning. That is, the identification error decreased and the identification accuracy increased. As a result, it can be said that the generalization performance is higher than in the case where regularization is not performed.

[実施の形態の効果]
以上のように、上記実施の形態によれば、多層化を必要とせずに汎化性能の向上が可能である。したがって、計算全体における並列計算が占める比率が増大し、並列計算機を用いた場合の計算効率が向上する。また、層数が低減されることによって各層における待ち時間が削減され、予測時における計算時間と計算に必要な計算機資源が削減される。
[Effect of the embodiment]
As described above, according to the above embodiment, generalization performance can be improved without the need for multi-layering. Therefore, the proportion of parallel calculation in the whole calculation increases, and the calculation efficiency when using a parallel computer is improved. In addition, the reduction in the number of layers reduces the latency in each layer, and reduces the calculation time at the time of prediction and the computer resources required for calculation.

中間層の計算単位であるΣ素子は、その入力であるCOS素子の出力を互いに共有しないため、訓練時の誤差逆伝搬における経路数が削減される。つまり、信用割り当て問題が緩和される。そのため、全結合の構造と比較して上記実施の形態のNNは効率的な最適化が可能であり、訓練時間の低減という効果がある。   Since the Σ element, which is the calculation unit of the intermediate layer, does not share the outputs of the COS element as its input, the number of paths in error back propagation during training is reduced. In other words, the credit allocation problem is alleviated. Therefore, the NN according to the above-described embodiment can be optimized efficiently compared to the structure of full bonding, and has an effect of reducing training time.

従来の正則化は、分布を表現するパラメータ数を削減することが目的であったため、識別に関与するパラメータはネットワークの一部に留まっていた。一方で上記実施の形態では、コサインまたはサインという大域的に変化が続く周期関数を活性化関数として用いている。そのため、全ての素子が識別結果に影響を与える。これにより、予め用意するパラメータ数の削減が見込まれることから、全体の計算規模が縮小され、小規模な計算機上での高性能な識別が可能となる。なお、周期関数として上記実施の形態ではコサイン関数を用いている。しかし、上記したようにサイン関数を用いても良い。コサイン関数とサイン関数との組み合わせを用いても良い。さらに、コサイン関数又はサイン関数を区分線形近似した関数(区分線形近似したコサイン関数又はサイン関数)も同様に周期関数となり、コサイン関数又はサイン関数に代えて使用できる。区分線形近似した関数を用いる場合、線分の連結部分において微分可能でないため、通常の方法では準ニュートン法を適用した訓練を行えない。しかしそうした場合でも、区分線形近似のように微分ができない部分で劣微分が定義可能(劣微分可能)であれば準ニュートン法を適用した訓練を行うことができる。すなわち、COS素子のように隠れユニットの神経細胞素子で用いる活性化関数は劣微分可能であればよい。   Since the conventional regularization aimed at reducing the number of parameters representing the distribution, the parameters involved in the identification remained part of the network. On the other hand, in the above embodiment, a periodically changing periodic function such as cosine or sine is used as the activation function. Therefore, all elements affect the identification result. As a result, it is possible to reduce the number of parameters to be prepared in advance, thereby reducing the overall calculation scale and enabling high-performance identification on a small-scale computer. In the above embodiment, a cosine function is used as the periodic function. However, as described above, a sine function may be used. A combination of a cosine function and a sine function may be used. Furthermore, a function obtained by piecewise linear approximation of a cosine function or a sine function (cosine function or sine function of piecewise linear approximation) is similarly a periodic function, and can be used instead of the cosine function or the sine function. When using a function that is piecewise linear approximated, training that applies the quasi-Newton method can not be performed by the usual method because differentiation is not possible in the connected part of line segments. However, even in such a case, if an inferior derivative can be defined (subdifferentiable) in a portion where differentiation can not be performed as in piecewise linear approximation, training can be performed by applying the quasi-Newton method. That is, the activation function used in the neural cell element of the hidden unit, such as the COS element, may be underdifferentiated.

上記実施の形態によれば、従来よりも小規模な計算によって汎化性能が得られる。そのため、計算性能が限定的なモバイル機器において識別モデルを利用する際に、モバイル機器内で完結したアプリケーション及びサービスの提供が可能となる。   According to the above-mentioned embodiment, generalization performance can be obtained by smaller scale calculation than before. Therefore, when using the identification model in a mobile device with limited computing performance, it becomes possible to provide complete applications and services in the mobile device.

[コンピュータによる実現]
本発明の実施の形態に係る文字認識装置180及び文字認識NN学習装置186は、いずれもコンピュータハードウェアと、そのコンピュータハードウェア上で実行されるコンピュータプログラムとにより実現できる。図9はこのコンピュータシステム330の外観を示し、図10はコンピュータシステム330の内部構成を示す。
[Realization by computer]
Both the character recognition device 180 and the character recognition NN learning device 186 according to the embodiment of the present invention can be realized by computer hardware and a computer program executed on the computer hardware. FIG. 9 shows the appearance of the computer system 330, and FIG. 10 shows the internal configuration of the computer system 330.

図9を参照して、このコンピュータシステム330は、メモリポート352及びDVD(Digital Versatile Disc)ドライブ350を有するコンピュータ340と、キーボード346と、マウス348と、モニタ342とを含む。   Referring to FIG. 9, computer system 330 includes a computer 340 having a memory port 352 and a DVD (Digital Versatile Disc) drive 350, a keyboard 346, a mouse 348 and a monitor 342.

図10を参照して、コンピュータ340は、メモリポート352及びDVDドライブ350に加えて、CPU(中央処理装置)356と、CPU356、メモリポート352及びDVDドライブ350に接続されたバス366と、ブートプログラム等を記憶する読出専用メモリ(ROM)358と、バス366に接続され、プログラム命令、システムプログラム及び作業データ等を記憶するランダムアクセスメモリ(RAM)360と、ハードディスク354を含む。コンピュータシステム330はさらに、他端末との通信を可能とするネットワーク368への接続を提供するネットワークインターフェイス(I/F)344を含む。   10, in addition to the memory port 352 and the DVD drive 350, the computer 340 includes a CPU (central processing unit) 356, a bus 366 connected to the CPU 356, the memory port 352 and the DVD drive 350, and a boot program. And a random access memory (RAM) 360 connected to the bus 366 for storing program instructions, system programs, work data and the like, and a hard disk 354. Computer system 330 further includes a network interface (I / F) 344 that provides a connection to network 368 that enables communication with other terminals.

コンピュータシステム330を上記した実施の形態に係る文字認識装置180及び文字認識NN学習装置186の各機能部として機能させるためのコンピュータプログラムは、DVDドライブ350又はメモリポート352に装着されるDVD362又はリムーバブルメモリ364に記憶され、さらにハードディスク354に転送される。又は、プログラムはネットワーク368を通じてコンピュータ340に送信されハードディスク354に記憶されてもよい。プログラムは実行の際にRAM360にロードされる。DVD362から、リムーバブルメモリ364から又はネットワーク368を介して、直接にRAM360にプログラムをロードしてもよい。   A computer program for causing the computer system 330 to function as the functional units of the character recognition device 180 and the character recognition NN learning device 186 according to the above-described embodiment is the DVD 362 or removable memory attached to the DVD drive 350 or the memory port 352 364 and further transferred to the hard disk 354. Alternatively, the program may be transmitted to the computer 340 via the network 368 and stored on the hard disk 354. The program is loaded into the RAM 360 upon execution. The program may be loaded from the DVD 362 into the RAM 360 directly from the removable memory 364 or via the network 368.

このプログラムは、コンピュータ340を、上記実施の形態に係る文字認識装置180及び文字認識NN学習装置186の各機能部として機能させるための複数の命令からなる命令列を含む。コンピュータ340にこの動作を行わせるのに必要な基本的機能のいくつかはコンピュータ340上で動作するオペレーティングシステム若しくはサードパーティのプログラム又はコンピュータ340にインストールされる、ダイナミックリンク可能な各種プログラミングツールキット又はプログラムライブラリにより提供される。たとえば、誤差逆伝搬法、及びL−BFGS法については市販の統計処理ライブラリにより提供されるソフトウェアツールを利用できる。したがって、このプログラム自体はこの実施の形態のシステム及び方法を実現するのに必要な機能全てを必ずしも含まなくてよい。このプログラムは、命令のうち、所望の結果が得られるように制御されたやり方で適切な機能又はプログラミングツールキット又はプログラムライブラリ内の適切なプログラムを実行時に動的に呼出すことにより、上記したシステム又は装置としての機能を実現する命令のみを含んでいればよい。もちろん、プログラムのみで必要な機能を全て提供してもよい。   This program includes an instruction sequence consisting of a plurality of instructions for causing the computer 340 to function as the functional units of the character recognition device 180 and the character recognition NN learning device 186 according to the above embodiment. Some of the basic functions necessary for causing the computer 340 to perform this operation are various operating tools or third party programs operating on the computer 340 or various dynamically linked programming toolkits or programs installed on the computer 340 Provided by the library. For example, software tools provided by commercially available statistical processing libraries can be used for the error back propagation method and the L-BFGS method. Therefore, the program itself does not necessarily include all the functions necessary to implement the system and method of this embodiment. This program dynamically calls at runtime the appropriate program in the appropriate function or programming toolkit or program library in a controlled manner in order to obtain the desired result of the instructions, the system or It only needs to include instructions that implement the function of the device. Of course, only the program may provide all the necessary functions.

[応用例]
上記実施の形態は、手書き文字認識装置に関するものである。しかし、本発明はそのような実施の形態には限定されない。例えば、音声認識装置に用いられる音響モデル、統計的言語モデルに使用することもできる。自動翻訳装置に用いられる翻訳モデル、手書き文字以外の画像パターン認識に適用することもできる。
[Application example]
The above embodiment relates to a handwritten character recognition apparatus. However, the present invention is not limited to such an embodiment. For example, it can also be used for acoustic models and statistical language models used in speech recognition devices. The present invention can also be applied to a translation model used in an automatic translation device and image pattern recognition other than handwritten characters.

音響モデルの場合には、音声そのものではなく、特徴量として例えば音声信号から得られるMFCC系の特徴量、LPC系の特徴量、及びメルフィルタバンクの出力、それらの一次差分及び二次差分等、通常使用される特徴量を入力としてそのまま利用できる。入力層のノード数は特徴量ベクトルの要素数と一致させる。出力層のノード数は、想定される音素数と一致させる。   In the case of an acoustic model, not the speech itself but the feature quantities, for example, MFCC feature quantities obtained from speech signals, LPC feature quantities, mel filter bank outputs, their primary differences and their secondary differences, etc. The feature quantities that are usually used can be used as they are as input. The number of nodes in the input layer is made to coincide with the number of elements of the feature quantity vector. The number of nodes in the output layer is made to match the expected number of phonemes.

言語モデルの場合には例えば以下のようにする。トライグラム言語モデルであれば、想定される語彙全てからなるベクトルを考える。2語前の単語に対応する要素が1、それ以外の要素が0となる第1のベクトルと、1語前の単語に対応する要素が1、それ以外の要素が0となる第2のベクトルとを生成し、これらをつなぎあわせて1つの特徴ベクトルとする。入力層のノード数はしたがって、想定される語彙数の2倍となる。出力ノードのノード数は、想定される語彙数と一致する。   In the case of the language model, for example, the following is performed. If it is a trigram language model, consider a vector consisting of all possible vocabulary. The first vector in which the element corresponding to the word two words earlier is 1 and the other element is 0, and the second vector in which the element corresponding to the word one word is 1 and the other elements are 0 And are connected together to form one feature vector. The number of nodes in the input layer is therefore twice the number of vocabulary expected. The number of nodes of the output node matches the expected number of vocabulary.

その他、本発明は、NNを用いたあらゆる機械学習と予測装置とに適用できる。   Besides, the present invention is applicable to all machine learning and prediction devices using NN.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。   The embodiment disclosed this time is merely an example, and the present invention is not limited to the above embodiment. The scope of the present invention is defined by each claim of the claims in consideration of the description of the detailed description of the invention, and all the changes within the meaning and range equivalent to the words and phrases described therein Including.

180 文字認識装置
182 入力画像
184 文字認識テキスト
186 文字認識NN学習装置
208 文字認識NN
210 デコーダ
180 character recognition unit 182 input image 184 character recognition text 186 character recognition NN learning device 208 character recognition NN
210 decoder

Claims (5)

複数個の入力ノードを持つ入力層と、
前記入力層からの出力を受けるように接続された入力を持つ非線形関数層とを含み、連続関数の離散フーリエ変換における周波数領域を表現するニューラルネットワークであって、
前記非線形関数層は、各々が前記入力層の前記複数個の入力ノードからの出力を受けるように接続された、各々が任意の独立成分を近似可能な複数個の隠れ層を含み、
前記複数個の隠れ層の各々は、
各々が前記複数個の入力ノードに前記連続関数の周波数領域における周波数をあらわす重み付きで接続された入力を持ち、さらに前記連続関数の周波数領域における位相を表すバイアスを受け、活性化関数として、劣微分可能な周期関数を用いる複数個の神経細胞素子と、
同一の隠れ層内の前記複数個の神経細胞素子の出力を、前記連続関数の周波数領域における振幅を表す重み付きで受けるように接続され、活性化関数として、劣微分可能な関数を用いる出力集約素子とを含む、ニューラルネットワークであって、
さらに、前記複数個の隠れ層の前記出力集約素子の出力を受けるように接続された出力層を含み、
前記出力層は、各々が前記複数個の隠れ層の前記出力集約素子の出力を重み付きで受けるように接続された複数個の出力神経細胞素子を含む、ニューラルネットワーク
An input layer with multiple input nodes,
And a non-linear function layer having an input connected to receive an output from the input layer, the neural network representing a frequency domain in discrete Fourier transform of a continuous function,
The non-linear function layer includes a plurality of hidden layers each capable of approximating any independent component, each connected to receive an output from the plurality of input nodes of the input layer,
Each of the plurality of hidden layers is
Each of the plurality of input nodes has a weighted input representing a frequency in the frequency domain of the continuous function, and a bias representing a phase in the frequency domain of the continuous function as an activation function. A plurality of neural cell elements using a differentiable periodic function;
It is connected to receive the outputs of the plurality of neural cell elements in the same hidden layer with a weight representing the amplitude in the frequency domain of the continuous function, and the output aggregation using the underdifferentiable function as the activation function and a device, a neural network,
Further, an output layer connected to receive an output of the output aggregation element of the plurality of hidden layers,
The neural network, wherein the output layer comprises a plurality of output neural cell elements each connected to receive an output of the output aggregation element of the plurality of hidden layers in a weighted manner .
前記周期関数は、コサイン関数若しくはサイン関数又はこれらの組み合わせ、又は区分線形近似したコサイン関数若しくはサイン関数である、請求項1に記載のニューラルネットワーク。 The neural network according to claim 1, wherein the periodic function is a cosine function or a sine function or a combination thereof, or a piecewise linear approximated cosine function or a sine function. 前記複数個の隠れ層の各々の入力側の重みパラメータを用いた、目的関数に対するL2正則化を用いて訓練された、請求項1又は請求項2に記載のニューラルネットワーク。 The neural network according to claim 1 or 2 trained using L2 regularization to an objective function using a weight parameter on the input side of each of the plurality of hidden layers. 準ニュートン法を用いて訓練された、請求項1〜請求項3のいずれかに記載のニューラルネットワーク。 The neural network according to any one of claims 1 to 3, which is trained using a quasi-Newton method. コンピュータを、請求項1〜請求項のいずれかに記載のニューラルネットワークとして機能させる、コンピュータプログラム。 A computer program that causes a computer to function as the neural network according to any one of claims 1 to 4 .
JP2015099137A 2015-05-14 2015-05-14 Neural network and computer program therefor Expired - Fee Related JP6521440B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015099137A JP6521440B2 (en) 2015-05-14 2015-05-14 Neural network and computer program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015099137A JP6521440B2 (en) 2015-05-14 2015-05-14 Neural network and computer program therefor

Publications (2)

Publication Number Publication Date
JP2016218513A JP2016218513A (en) 2016-12-22
JP6521440B2 true JP6521440B2 (en) 2019-05-29

Family

ID=57578455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015099137A Expired - Fee Related JP6521440B2 (en) 2015-05-14 2015-05-14 Neural network and computer program therefor

Country Status (1)

Country Link
JP (1) JP6521440B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7073090B2 (en) 2016-12-28 2022-05-23 株式会社半導体エネルギー研究所 Data processing equipment, electronic components, and electronic devices that utilize neural networks
CN109272106A (en) * 2017-07-18 2019-01-25 上海寒武纪信息科技有限公司 Network system is passed before multinomial
JP6814480B2 (en) 2017-11-08 2021-01-20 株式会社アクセル Processing device, inference device, learning device, processing system, processing method, and processing program
WO2019102624A1 (en) 2017-11-27 2019-05-31 三菱電機株式会社 Homomorphic inference device, homomorphic inference method, homomorphic inference program, and anonymized information processing system
JP7169210B2 (en) * 2019-01-28 2022-11-10 株式会社荏原製作所 Polishing method and polishing apparatus
EP3921781A1 (en) * 2020-04-14 2021-12-15 Google LLC Efficient binary representations from neural networks
CN112069905A (en) * 2020-08-07 2020-12-11 北京迈格威科技有限公司 Image processing method, apparatus, device and medium
WO2023101472A1 (en) * 2021-12-01 2023-06-08 주식회사 딥엑스 Neural processing unit comprising programmed activation function execution unit
KR102651560B1 (en) * 2021-12-01 2024-03-26 주식회사 딥엑스 Neural processing unit including a programmed activation functrion execution unit

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0215718A (en) * 1988-07-01 1990-01-19 A T R Jido Honyaku Denwa Kenkyusho:Kk Noise removing device using nerve circuit network model
US5517667A (en) * 1993-06-14 1996-05-14 Motorola, Inc. Neural network that does not require repetitive training
JP4989421B2 (en) * 2007-10-30 2012-08-01 株式会社日立製作所 Plant control device and thermal power plant control device
US9092425B2 (en) * 2010-12-08 2015-07-28 At&T Intellectual Property I, L.P. System and method for feature-rich continuous space language models
CN103262118B (en) * 2010-12-08 2015-11-25 日本电气方案创新株式会社 Attribute value estimation device and property value method of estimation
US9524730B2 (en) * 2012-03-30 2016-12-20 Ohio State Innovation Foundation Monaural speech filter
CN104239897B (en) * 2014-09-04 2017-05-17 天津大学 Visual feature representing method based on autoencoder word bag
CN104408469A (en) * 2014-11-28 2015-03-11 武汉大学 Firework identification method and firework identification system based on deep learning of image
CN104462066B (en) * 2014-12-24 2017-10-03 北京百度网讯科技有限公司 Semantic character labeling method and device

Also Published As

Publication number Publication date
JP2016218513A (en) 2016-12-22

Similar Documents

Publication Publication Date Title
JP6521440B2 (en) Neural network and computer program therefor
WO2020019236A1 (en) Loss-error-aware quantization of a low-bit neural network
Patel et al. A hybrid CNN-LSTM model for predicting server load in cloud computing
CN109948149B (en) Text classification method and device
KR20180073118A (en) Convolutional neural network processing method and apparatus
Passricha et al. PSO-based optimized CNN for Hindi ASR
Bagherzadeh et al. A review of various semi-supervised learning models with a deep learning and memory approach
US11694301B2 (en) Learning model architecture for image data semantic segmentation
KR20190136578A (en) Method and apparatus for speech recognition
US20230394781A1 (en) Global context vision transformer
JP2022507189A (en) Hidden state generation method and device in recurrent neural network for language processing
CN113011531A (en) Classification model training method and device, terminal equipment and storage medium
EP3803580B1 (en) Efficient incident management in large scale computer systems
JP7150651B2 (en) Neural network model reducer
CN111832699A (en) Computationally efficient expressive output layer for neural networks
Park et al. Videomamba: Spatio-temporal selective state space model
KR20210035702A (en) Method of artificial neural network quantization and method of computation using artificial neural network
WO2024112887A1 (en) Forward-forward training for machine learning
Zhou et al. Lite-YOLOv3: a real-time object detector based on multi-scale slice depthwise convolution and lightweight attention mechanism
US20210089898A1 (en) Quantization method of artificial neural network and operation method using artificial neural network
JP2022075620A (en) Methods and systems for training convolutional neural networks
WO2020054402A1 (en) Neural network processing device, computer program, neural network manufacturing method, neural network data manufacturing method, neural network use device, and neural network downscaling method
Zhang et al. Online bionic visual siamese tracking based on mixed time-event triggering mechanism
US20230124177A1 (en) System and method for training a sparse neural network whilst maintaining sparsity
JP7000586B2 (en) Data processing system and data processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190419

R150 Certificate of patent or registration of utility model

Ref document number: 6521440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees