Nothing Special   »   [go: up one dir, main page]

JP3323894B2 - ニューラルネットワーク学習方法及び装置 - Google Patents

ニューラルネットワーク学習方法及び装置

Info

Publication number
JP3323894B2
JP3323894B2 JP18298991A JP18298991A JP3323894B2 JP 3323894 B2 JP3323894 B2 JP 3323894B2 JP 18298991 A JP18298991 A JP 18298991A JP 18298991 A JP18298991 A JP 18298991A JP 3323894 B2 JP3323894 B2 JP 3323894B2
Authority
JP
Japan
Prior art keywords
weight
learning
search
norm
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18298991A
Other languages
English (en)
Other versions
JPH056355A (ja
Inventor
日佐男 緒方
裕 酒匂
正博 阿部
純一 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP18298991A priority Critical patent/JP3323894B2/ja
Priority to US07/903,243 priority patent/US5390284A/en
Publication of JPH056355A publication Critical patent/JPH056355A/ja
Application granted granted Critical
Publication of JP3323894B2 publication Critical patent/JP3323894B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、多層型ニューラルネッ
トワークを用いてパターン認識やデータ圧縮などを行な
う処理分野において、特に、教師信号を用いてネットワ
ークの重みの学習を行なうニューラルネットワーク学習
方法及び装置に関する。
【0002】
【従来の技術】ニューラルネットワークとは、人間の脳
における神経回路網を簡略化したモデルであり、それは
神経細胞ニューロンが、一方向にのみ信号が通過するシ
ナプスを介して結合されているネットワークである。ニ
ューロン間の信号の伝達は、このシナプスを通して行な
われ、シナプスの抵抗、すなわち重みを適当に調整する
ことにより、様々な情報処理が可能となる。各ニューロ
ンでは、他のニューロンからの出力をシナプスの重み付
けをして入力し、それらの総和を非線形応答関数の変形
を加えて再度他のニューロンへ出力する。ニューラルネ
ットワークの構造には、大きく分けて相互結合型と多層
型の二種類があり、前者は最適化問題に後者はパターン
認識などの認識問題に適している。本発明は、多層型ニ
ューラルネットワークに関わる。パターン認識やデータ
圧縮に、多層型ニューラルネットワークを用いる場合、
ネットワークが正しい出力を出すように、入力パターン
と出力パターンが対になった教師信号を用意し、それら
を用いてネットワークの重みを予め学習しておく必要が
ある。それには通常、バックプロパゲーションと呼ばれ
る最適化手法を用いて行なわれる。この手法に関して
は、例えばPDPモデル、産業図書(1989年)第3
25頁から第331頁において論じられている。この手
法の特徴は、ニューロンの非線形応答関数にシグモイド
関数のような非減少で連続関数を使うことと、次式で示
すように重みを更新することによって、ネットワークの
出力誤差を小さくすることにある。
【数1】 dw/dt = −∂E/∂w ‐‐‐‐‐‐‐‐‐‐(数1) w:重み E:ネットワークの出力誤差 t:時間 一方、このバックプロパゲーションの問題点として学習
に時間が掛かることが指摘されている。特にパラメータ
依存性が大きいため、最適なパラメータの設定を行なわ
ないと、その場合の10倍から10000倍の学習時間
が掛かることがあった。この様な問題を解決するための
方法の一つとして、非線形最適化手法を学習に取り入れ
ることがなされている。文献などで幅広く紹介されてい
るその内の方法として共役勾配法が挙げられるが、これ
は1次微分のみを使うため計算量が少なく高速な学習が
可能である。
【0003】共役勾配法を説明する前に、その基礎とな
るバックプロパゲーションの処理手順を、図4を用いて
示す。まず、図4内の学習データ10について説明す
る。学習データ10は、図5に示すように入力信号と教
師信号からなり、それぞれ(入力層ニューロン数×学習
パターン数)、(出力層ニューロン数×学習パターン数)
だけのデータ数を持つ。入力信号パターンと教師信号パ
ターンは対応しており、例えば入力信号パターン1を入
力層に入力して、出力層からでる出力と教師信号パター
ン1との誤差を計算し、それを学習に使用する。ステッ
プ35では、学習データ10の入力信号パターンを入力
層ニューロンに入力する。ステップ36では、(数2)
式に従い入力信号を出力層側のニューロンに次々と伝搬
させ、最終的に出力層ニューロンの出力を求める。
【数2】 これらの式から分かる様に、ニューロンの総入力を求め
る時、重みと出力の内積を取る。そこで、以下では1つ
のニューロンに対する重みの組を重みベクトル、及び重
みベクトルの大きさをノルムと呼ぶことにする。式によ
るノルムの定義は(数3)式により与える。
【数3】 ステップ37では、学習データ10の教師信号とステッ
プ36で計算した出力層ニューロンの出力により、(数
4)式を用いて出力誤差を計算する。
【数4】 ステップ38では、(数5)式に従い各ニューロンの重
みに対し入力信号pの最急降下の勾配を求める。
【数5】 ステップ39では、(数6)式を用いて最急降下の勾配
と前回の修正量より今回の修正量を求め、対応する各重
みに加える。
【数6】 但し、右辺第2項はモーメント項と呼ばれ、学習を加速
するために経験的に加える項である。ステップ40で
は、全ての入力パターンについてステップ35からステ
ップ39の処理を行なう。ステップ41では、ステップ
40を、出力誤差が学習終了の基準となる一定の誤差の
上限以内に収まるまで繰り返す。以上が、バックプロパ
ゲーションによる学習の原理である。
【0004】次に、共役勾配法を説明する。共役勾配法
は、重み空間における誤差の超曲線が局所的には2次曲
面で近似できると仮定して探索を行なう山登り法であ
る。最初に共役方向を説明する。例として2次元2次関
数の目的関数の等高線f(x)=xQx=dを表す楕円群を
書いた図6を考える。任意の直線lとある等高線f(x)=
1との接点をAとする。同様に別の点から引いた直線
lに平行な直線mと等高線f(x)=c2との接点をBとす
る。この時点Aと点Bを結ぶ直線n上には目的関数の最
小点が存在する。これは、2次関数の目的関数の等高線
を示す楕円群の持つ性質である。そして、直線lとnは
共役な方向であるという。共役方向が見つかれば、n次
元の2次関数の最小値探索の場合、初期点から共役方向
にn回直線探索を繰り返すと、最小点に達することが証
明されている。共役勾配法は、目的関数の勾配方向を利
用してこの共役方向を生成しながら、探索を行なう方法
である。前回の共役方向と目的関数の最急降下勾配方向
より次の共役方向を生成する式は(数7)式、(数8)
式により与えられる。
【数7】
【数8】 但し、探索の最初は最急降下方向から始める。この手法
に関しては、例えば、「システムの最適理論と最適化」
(1987年)第77頁から第85頁において論じられ
ている。上記探索方法は2次関数の探索のみならず、そ
れ以外の一般の関数の最小点探索に用いることができ
る。その場合には、もはやn回の探索で最小点への収束
は保証されないので、更に続けて探索を行なう必要があ
る。しかし、共役方向の生成は2次関数であることを仮
定しているので、n回以上探索を繰り返すと探索方向が
悪くなり、かえって収束を悪くする。従ってn回計算し
た後、もう一度最急降下方向から探索をやり直すことが
必要になる。この手法をニューラルネットワークの学習
に応用した場合の共役方向の生成を(数9)式、(数1
0)式により与える。
【数9】
【数10】 ここでEは、(数4)式と違い(数11)式に示すよう
に全ての学習パターンについて足し込んでいる。
【数11】
【0005】さらに図8を用いて、その学習アルゴリズ
ムを説明する。ステップ55では、学習を始めるために
乱数を用いて重みの初期値を与える。ステップ56で
は、(数12)式に従い重み(座標)に対する誤差の最急
降下勾配を求める。
【数12】 図9にステップ56の詳細処理を示す。ステップ70で
は、学習データ10の入力信号パターンを入力層ニュー
ロンに入力する。ステップ71では、(数2)式を用い
て入力信号を出力層側のニューロンに次々と伝搬させ、
最終的に出力層ニューロンの出力を求める。ステップ7
2では、学習データ10の教師信号とステップ71で計
算した出力層ニューロンの出力により、(数4)式を用
いて出力誤差を計算する。ステップ73では、(数5)
式に従い各ニューロンの重みに対し入力信号pの最急降
下の勾配を求める。ステップ74では、ステップ73で
求めた入力信号Pの最急降下勾配を各重みごとに足し込
んでいく。ステップ75では、全ての入力パターンにつ
いてステップ70からステップ74の処理を行なう。以
上のステップ56の結果、(数12)式で表される最急
降下勾配が求まる。ステップ57、58、59では、次
の共役方向を生成するために、最急降下方向に前回の共
役方向を足し込む割合β(i)を計算する。i mod n = 0
ならば、ステップ58でβ(i)を0にリセットする。i m
od n ≠ 0ならば、ステップ59でβ(i)を(数10)式
に従って計算する。ステップ58は、収束の悪化を防ぐ
ためn(ネットワークの全重みの個数)回ごとに最急降下
方向から始める必要があるので、n回毎にβ(i)を0に
リセットする。ステップ60では、最急降下勾配と前回
の共役方向より(数9)式を用いて次の共役方向を計算
する。ステップ61では、共役方向に直線探索を行なっ
て誤差を最小にするη(i)を求める。ステップ62で
は、ステップ61で求めたη(i)を用いて重みを更新す
る。以上のステップを、出力誤差が学習終了の基準とな
る一定の誤差の上限以内に収まるまで繰り返す。以上
が、従来の共役勾配法による学習の原理である。
【0006】共役勾配法とバックプロパゲーションの原
理の比較を図6と図7を用いて説明する。図7は2次元
2次関数の最小値探索をバックプロパゲーション(最大
傾斜法)を用いて行なった図である。この手法では、最
急降下の方向に固定ステップで探索を行なうので効率が
悪い。それに対し、図6の共役勾配法では、共役方向が
見つかるとその直線上に最小値が存在するので、直線探
索をうまく行なえば効率的に探索が可能になる。
【0007】
【発明が解決しようとする課題】この共役勾配法を用い
た学習の進行上の問題点として、『重みが過剰に増大す
ることによる学習の停滞』が挙げられる。この問題点に
ついて、図10〜図13を用いて詳細に説明する。まず
初めに、例として入力が1次元の時のニューロンの学習
を考える。ニューロンの出力の式は次で与えられる。
【数13】 f(net)=1/(1+exp(−net))‐‐(数13)
【数14】 net=w・o ‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐‐(数14) 図10、図11はそれぞれシグモイド関数f、シグモイ
ド関数の微分df/dnetのw依存性を表している。図10
で示すように同じ入力oが入っても重みwが大きい時
は、シグモイド関数が立上り、入力の正負両側で1また
は0に急速に近づきすぐに飽和してしまう。その場合、
図11で示す通りシグモイド関数の微分値もx=0から
離れると急速に0に近づく。図8のステップ56で説明
したように、重みの修正に関わる最急降下勾配にはシグ
モイド関数の微分が積の形で入っているので、wが大き
くなると誤差勾配は小さくなって学習が停滞する。図1
2、図13を用いてこの原理をさらに詳しく説明する。
これは、2次元の入力を持つニューロンに、信号aとb
の線形分離を行なう学習をさせる場合で、図13はその
学習完了状態を示したものである。つまり、信号aが入
力された時ニューロンは0.9を出力し、信号bが入力さ
れた時に0.1を出力するように学習させる。下の式はニ
ューロンの出力O3計算を示す。
【数15】 O3=f(net)=1/(1+exp(−net))‐‐(数15)
【数16】 net=w1・o1+w2・o2+θ‐‐‐‐‐‐‐‐‐‐‐‐(数16) 図12は学習をはじめる前の状態である。ここで、Uは
net=0を表す直線であり、以下、これを分離平面と呼
ぶ。この状態では信号aに対して0.6を出力し、信号b
に対して0.4を出力している。シグモイド関数はnet=0か
ら離れるほど0または1に近づく。そこで、学習によっ
て図13の状態にするためには、直線Uを回転させて
a、bからUをできるだけ離すと同時に、重みのノルム
を大きくしてシグモイド関数の立ち上がりを急にする必
要がある。そのようにすれば、aでは出力を0.9に、
bでは出力を0.1に近づけることができる。しかし、
そのためにUを十分に回転させる前にノルムが大きくな
ってしまうと、上述したように誤差勾配に掛け算で入る
df/dnetが小さくなるので、最急降下勾配も小さくな
り、結果として重みの修正量も減少するので、学習の進
行がほとんど停滞してしまうことになる。共役勾配法で
は、図8のステップ61の直線探索によってとにかく誤
差を減らそうとする。誤差を減少させる方法には、上で
述べたようにシグモイド関数の立上りを急にすることと
分離平面を回転させることの2通りの方法があるが、共
役勾配法はしばしば前者のみを使って誤差を減少させる
ことがある。前者の方法はすなわち重みのノルムを大き
くすることなので、結果として図11で示したようにdf
/dnetが小さくなる。それ故、df/dnetが積で入っている
誤差勾配も小さくなり、学習が停滞してしまうことがあ
った。
【0008】本発明の目的は、共役勾配法を用いた学習
において、分離平面の回転とシグモイド関数の立上りを
急にすることによるバランスの崩れから、学習が停滞す
ることを防ぎ、その結果、バックプロパゲーションより
も高速な学習を実現するためのニューラルネットワーク
学習方法及び装置を提供することである。
【0009】
【課題を解決するための手段】上記課題を解決するため
に、共役勾配法を用いた多層型ニューラルネットワーク
の学習において、ニューロンの重みの初期値を与えるス
テップと、ニューロンの重みに対する誤差の最急降下勾
配を求めるステップと、最急降下方向に前回の共役方向
を足し込む割合を計算し、最急降下勾配と前回の共役方
向より次の共役方向を求めるステップと、直線探索の探
索開始点におけるニューロンの重みのノルムの層平均と
探索点における重みのノルムの層平均の差がある一定の
値を越えない範囲で誤差最小点を求めるステップと、誤
差最小点に対応して重みを更新するステップを有する。
また、多層型ニューラルネットワークの学習において、
ニューロンの重みの初期値を生成する重み初期化部と、
ニューロンの重みに対する誤差の最急降下勾配を求める
最急降下勾配計算部と、最急降下方向に前回の共役方向
を足し込む割合を計算するβ計算部と、最急降下勾配と
前回の共役方向より次の共役方向を求める共役方向計算
部と、直線探索の探索開始点におけるニューロンの重み
のノルムの層平均と探索点における重みのノルムの層平
均の差がある一定の値を越えない範囲で誤差最小点を求
める直線探索部を有し、誤差最小点に対応して重みを更
新する。
【0010】
【作用】上記手段は、直線探索中に無制限に重みを増加
させるのではなく、それに一定の上限を設け、その範囲
内で探索を行なうことにある。すなわち、直線探索を始
める前に、(数17)式によって、重みのノルムを計算
し各層ごとにその平均を求める。直線探索中は、重みを
変更しながら誤差の値を見て探索を行なう。その時に各
層ごとに重みのノルムの層平均を計算し、探索を始める
前からの重みの増加が一定の上限を越えない範囲内で誤
差最小点の探索を行なう。これにより、直線探索におけ
る重みの増加が一定の上限内に収まるので、重みの急激
な増加が起こらずに、分離平面の回転とシグモイド関数
を立てることのバランスが保たれながら、誤差を小さく
できる。その結果、学習の停滞が非常に起こりにくくな
り、学習が高速になる。
【0011】
【実施例】以下、本発明の方法の実施例を、図1〜図
3、図5及び図9を用いて説明する。図1は、実施例の
処理全体の流れを示したものであり、本発明の特徴は波
線をつけて表している。図2は、重みの増加に上限を設
けた直線探索PADの詳細を示した図であり、本発明の
特徴である。図3は、直線探索における探索の制限を説
明する図である。図5は、重み学習を行なうための学習
データ10の詳細を示す図である。45は入力層ニュー
ロンに入力する入力信号であり、(入力層ニューロン数
×学習パターン数)のデータ数がある。46は出力層ニ
ューロンの出力と比較して誤差を求めるための教師信号
であり、(出力層ニューロン数×学習パターン数)のデー
タ数がある。入力信号45と教師信号46は対になって
おり、例えば、入力信号パターン1(47)、(48)
には教師信号パターン1(49)、(50)がそれぞれ
対応している。
【0012】次に、図1を用いて、本実施例の処理の流
れについて説明する。図においてステップ7が本発明の
特徴となっている。 〈ステップ1〉では、学習を始めるために、乱数を用い
て重みの初期値を与える。 〈ステップ2〉では、(数12)式で与えられる重み
(座標)に対する誤差の最急降下勾配を求める。
【0013】図9にステップ2の詳細処理を示す。ステ
ップ70では、学習データ10の入力信号パターンを入
力層ニューロンに入力する。ステップ71では、(数
2)式を用いて入力信号を出力層側のニューロンに次々
と伝搬させ、最終的に出力層ニューロンの出力を求め
る。ステップ72では、学習データ10の教師信号とス
テップ71で計算した出力層ニューロンの出力により、
(数4)式を用いて出力誤差を計算する。ステップ73
では、(数5)式に従い各ニューロンの重みに対し入力
信号pの最急降下の勾配を求める。ステップ74では、
ステップ73で求めた入力信号Pの最急降下勾配を各重
みごとに足し込んでいく。ステップ75では、全ての入
力パターンについてステップ70からステップ74の処
理を行なう。以上のステップ2の結果、(数12)式で
表される最急降下勾配が求まる。
【0014】 〈ステップ3、4、5〉では、次の共役方向を生成する
ために、最急降下方向に前回の共役方向を足し込む割合
β(i)を計算する。i mod n = 0ならば、ステップ4で
β(i)を0にリセットする。i mod n ≠ 0ならば、ステ
ップ5でβ(i)を(数10)式に従って計算する。ステ
ップ4は、収束の悪化を防ぐためn(ネットワークの全
重みの個数)回ごとに最急降下方向から始める必要があ
るので、n回毎にβ(i)を0にリセットする。 〈ステップ6〉では、最急降下勾配と前回の共役方向よ
り(数9)式を用いて次の共役方向を計算する。 〈ステップ7〉では、探索の開始点からの重みのノルム
の層平均の増加がある一定の閾値κを越えない範囲にお
いて、共役方向に直線探索を行なって誤差を最小にする
η(i)を求める。
【0015】図2にステップ7の詳細を示す。ステップ
15では、探索のための初期ステップ長さdh0の設定、
(数17)式で与えられる重みのノルムの層平均の計
算、探索開始点η0の誤差E(η0)を計算する。そこで、
E(η)は(数18)式により定義する。
【数17】
【数18】 ここで、w/、d|はそれぞれ全ての重み、全ての共役方
向をシンボリックに表している。ステップ16では、開
始点より初期ステップ長さdh0だけ離れたη1における重
みを生成する。そして、その重みに対するノルムの層平
均を計算する。この層平均とステップ15で求めた層平
均の差を各層ごとに求める。この定義は(数19)式に
より与える。
【数19】 また、新しく生成した重みに対して誤差E(η1)を計算
する。ステップ17では、ノルムの層平均の差が上限κ
未満で、且つ探索の開始点より誤差が減少していればス
テップ18へ進み、さもなくばステップ20へ進む。ス
テップ18からステップ24では、ノルムの層平均の探
索開始点との差が上限κより小さい範囲において、誤差
が最小になるηをステップ長さを大きくしながら求め
る。以下にその詳細を述べる。ステップ22では、ステ
ップ長さを2倍にしてηに足し込む。ステップ23で
は、新しい重みに対するノルムの層平均の探索開始点と
の差を計算する。ステップ24では、新しい重みに対す
る誤差を計算する。ステップ18では、ノルムの層平均
の差がκ未満で且つ前回よりも誤差が小さい間、ステッ
プ22からステップ24を繰り返す。さらに図3を用い
てこれを説明する。図はステップ長さdh0、2dh0、22d
h0、23dh0に対応したη0、η1、η2、η3、η4におけ
る誤差を示す。図で示すようにη3における誤差よりη4
の誤差の方が小さい。しかし、η4はノルムの層平均の
差が上限κより大きい領域(斜線)にあるので、η3
最小点と見做して探索を終了する。ステップ19では、
最小点と見做されたηqを重み修正のηに代入する。ス
テップ20からステップ27では、ノルムの層平均の探
索開始点との差が上限κより小さい範囲において、誤差
が最小になるηをステップ長さを小さくしながら求め
る。以下にその詳細を述べる。ステップ25では、ステ
ップ長さを1/3にしてηq+1に代入する。ステップ26
では、新しい重みに対するノルムの層平均の探索開始点
との差を計算する。ステップ27では、新しい重みに対
する誤差を計算する。ステップ20では、ノルムの層平
均の差が上限κ以上か又は前回よりも誤差が大きい間、
q≦qmaxの範囲でステップ25からステップ27を繰
り返す。q≦qmaxの制限を設けたのは、探索方向が間
違っていた場合、その方向には最小値が見つからないた
めに、無限にステップ長さを小さくして探索してしまう
ことを防ぐためである。ステップ21では、q=qmax
ならば、探索方向が間違っていたと見做して重み修正の
ηに0を代入し、さもなくば探索したηqを代入する。
η=0の時はもう一度最急降下から始める。以上のステ
ップ7の結果、重みのノルムの層平均の増加が上限κを
越えない範囲において、誤差を最小にするηが求められ
る。
【0016】 〈ステップ8〉では、ステップ41で求めたη(i)を用
いて重みを更新する。 〈ステップ9〉では、ステップ2からステップ8を、出
力誤差が学習終了の基準となる一定の誤差の上限以内に
収まるまで、繰り返す。
【0017】次に、本発明の装置の実施例を、図15を
用いて説明する。図15は、本実施例の装置の構成全体
を示したものであり、特に、破線は直線探索部を示す。
以下、この装置の動作を図1及び図2の処理フローに対
応させて詳述する。なお、ステップ1、2、3…はそれ
ぞれ図1及び図2のステップを指す。ステップ1では、
重み初期化部80が学習を始めるために乱数を用いて重
みの初期値を生成し、ネットワーク重み記憶部84に記
憶する。ステップ2では、最急降下勾配計算部81が、
学習データ記憶部10に記憶された学習データとネット
ワーク重み記憶部84に記憶された重みデータを読み出
し、方法の実施例で説明したことと同様な手続きで、重
みに対する誤差の最急降下勾配を計算する。そして、そ
の結果を最急降下勾配記憶部85に記憶する。ステップ
3、4、5では、β計算部82が、次の共役方向を生成
するために、最急降下方向に前回の共役方向を足し込む
割合β(i)を計算する。、i mod n = 0ならば、ステッ
プ4でβ計算部82がβ(i)を0にリセットする。imod
n ≠ 0ならば、ステップ5でβ計算部82が最急降下勾
配記憶部85から最急降下勾配データを読み出し、β
(i)を(数10)式に従って計算する。β計算部82が
β(i)を0にリセットするのは、収束の悪化を防ぐため
n(ネットワークの全重みの個数)回ごとに最急降下方向
から始める必要があるからである。ステップ6では、共
役方向計算部83が、最急降下勾配記憶部85から最急
降下勾配データを、共役方向記憶部86から前回の共役
方向データをそれぞれ読み出し、β計算部82で計算し
たβ(i)を用いて(数9)式に従い次の共役方向を計算
し、それを共役方向記憶部86に記憶する。ステップ7
では、探索の開始点からの重みのノルムの層平均の増加
がある一定の閾値κを越えない範囲で、共役方向に直線
探索を行なって誤差を最小にするη(i)を求める。図2
にステップ7の詳細を示す。ステップ15では、探索の
ための初期ステップ長さdh0の設定、及び、探索開始点
η0において、(数17)式で与えられる重みのノルム
の層平均の計算、誤差E(η0)の計算を行なう。まず、
重み計算部88が探索のための初期ステップ長さdh0
設定する。その後、ネットワーク重み記憶部84から重
みデータを読み出し、探索開始点η0における重みとし
て、直線探索用重み記憶部91に記憶する。さらに、重
みの大きさチェック部92が直線探索用重み記憶部91
から重みデータを読み出し、重みのノルムの層平均を計
算して、結果を重みの大きさ記憶部c89に記憶する。
一方、誤差計算部87は学習データ記憶部10に記憶さ
れた学習データと、ネットワーク重み記憶部84に記憶
された重みデータを読み出し、探索開始点η0の誤差E
0)を計算する。ステップ16では、開始点より初期
ステップ長さdh0だけ離れたη1における重みを生成す
る。そして、その重みに対するノルムの層平均を計算し
て、この層平均とステップ15で求めた層平均の差を各
層ごとに求める。また、新しく生成した重みに対して誤
差E(η1)を計算する。最初に、重み計算部88がネッ
トワーク重み記憶部84から重みデータを、共役方向記
憶部86から共役方向のデータをそれぞれ読み出し、η
1における重みを計算して直線探索用重み記憶部91に
記憶する。次に、重みの大きさチェック部92が直線探
索用重み記憶部91から重みデータを読み出し、その重
みに対するノルムの層平均を計算して重みの大きさ記憶
部d90に記憶する。その後、重みの大きさ記憶部c8
9からη0における重みのノルム層平均を、重みの大き
さ記憶部d90からη1における重みのノルム層平均を
それぞれ読み出し、重みの大きさの層平均の差を各層ご
とに計算する。誤差計算部87は、学習データ記憶部1
0に記憶された学習データと、直線探索用重み記憶部9
1に記憶された重みデータを読み出し、誤差E(η1)を
計算する。ステップ17では、ステップ16で重みの大
きさチェック部92が計算したノルムの層平均の差が上
限κ未満で、且つ探索の開始点より誤差が減少している
ことを重み計算部88が判定し、その条件を満たしてい
ればステップ18へ進み、さもなくばステップ20へ進
む。ステップ18からステップ24では、ノルムの層平
均の探索開始点との差が上限κより小さい範囲で、誤差
が最小になるηをステップ長さを大きくしながら求め
る。以下にその詳細を述べる。ステップ22では、重み
計算部88がステップ長さを2倍にしてηに足し込む。
その後、ネットワーク重み記憶部84から重みデータ
を、共役方向記憶部86から共役方向のデータをそれぞ
れ読み出し、新しいηにおける重みを計算して直線探索
用重み記憶部91に記憶する。ステップ23では、新し
い重みに対するノルムの層平均の探索開始点との差を計
算する。まず、重みの大きさチェック部92が直線探索
用重み記憶部91から重みデータを読み出し、その重み
に対するノルムの層平均を計算し、重みの大きさ記憶部
d90に記憶する。その後、重みの大きさ記憶部c89
からη0における重みのノルム層平均を、重みの大きさ
記憶部dから新しいηにおける重みノルム層平均をそれ
ぞれ読み出し、重みのノルムの層平均の差を各層ごとに
計算する。 ステップ24では、誤差計算部87が、学
習データ記憶部10bに記憶された学習データと、直線
探索用重み記憶部91に記憶された重みデータをそれぞ
れ読み出し、新しい重みに対する誤差を計算する。ステ
ップ18では、重み計算部88がノルムの層平均の差が
上限κ未満で且つ前回よりも誤差が小さいかどうか判定
し、その時はステップ22からステップ24を繰り返
す。ステップ19では、重み計算部88が最小点と見做
されたηqを重み修正のηに代入する。ステップ20か
らステップ27では、ノルムの層平均の探索開始点との
差が上限κより小さい範囲で、誤差が最小になるηをス
テップ長さを小さくしながら求める。以下にその詳細を
述べる。ステップ25では、重み計算部88がステップ
長さを1/3にしてηq+1に代入する。さらに、重み計算
部88がネットワーク重み記憶部84から重みデータ
を、共役方向記憶部86から共役方向のデータをそれぞ
れ読み出し、ηq+1における重みを計算し直線探索用重
み記憶部91に記憶する。ステップ26では、ステップ
23で説明したことと同様に、重みの大きさチェック部
92が新しい重みに対するノルムの層平均の探索開始点
との差を計算する。 ステップ27では、誤差計算部8
7が新しい重みに対する誤差を計算する。ステップ20
では、重み計算部88がノルムの層平均の差がκ以上か
又は前回よりも誤差が大きいかどうか判定し、その時は
q≦qimaxの範囲でステップ25からステップ27を
繰り返す。q≦qmaxの制限を設けたのは、探索方向が
間違っていた場合、その方向には最小値が見つからない
ために、無限にステップ長さを小さくして探索してしま
うことを防ぐためである。ステップ21では、q=q
maxならば、探索方向が間違っていたと見做して、ステ
ップ28で重み計算部88が重み修正のηに0を代入
し、さもなくばステップ29で探索したηqを代入す
る。η=0の時はもう一度最急降下から始める。以上の
ステップ7の結果、重みのノルムの層平均の増加が上限
κを越えない範囲で誤差を最小にするη(i)が求められ
る。ステップ8では、重み計算部88がネットワーク重
み記憶部84から重みデータを、共役方向記憶部86か
ら共役方向のデータをそれぞれ読み出し、ステップ21
で求めたη(i)を用いて重みを更新し、ネットワーク重
み記憶部84に記憶する。ステップ9では、ステップ2
からステップ8を、出力誤差が学習終了の基準となる一
定の誤差の上限以内に収まるまで繰り返す。
【0018】以上詳述したように、本発明の方法及び装
置では、共役勾配法における重みの増加に一定の上限を
設けたので、重みの急激な増加を防ぐことができ、これ
により、分離平面の回転とシグモイド関数を立てること
の両方のバランスを取りながら、重みを更新していくこ
とが可能になる。その結果、バックプロパゲーションよ
りも高速な学習が可能になる。
【0019】なお、重みのノルムの定義は、本実施例の
ものに限るものではなく、例えば、(数20)式、(数
21)式のものを採用してもよい。
【数20】
【数21】 また、重みの増加の定義も本実施例のものに限るもので
はなく、例えば、ノルムの層平均の増加ではなく、個々
のニューロンのノルムの増加の最大値を取ってもよい。
【0020】
【発明の効果】上記の実施例を用いた学習方法とバック
プロパゲーション学習方法との比較を、次のベンチマー
クテストにより、行なった結果を示し、効果を説明す
る。比較基準は計算機のcputimeと収束率である。そこ
で、収束率は『初期重みを複数用意し、学習を試行し、
その内学習終了条件を満たしたものの割合』である。学
習の終了条件は、全ての教師パターンに対して、個々の
出力層ニューロンの出力の誤差が0.1以下になった時
とした。比較に用いた学習問題を次に示す。 (1)16bit encoder (2)文字認識(0〜9,1377パターン) 16bit encoderは、1個のニューロンが1
でその他は全て0である16通りのパターンを用意し、
入力層と出力層にそれぞれ同じパターンを提示し、中間
層ニューロン数を少くして、そこで情報圧縮を行う問題
である。各層のユニット数、学習パターン数、及び、cp
utimeの平均や学習の収束率を測定するために初期重み
を変更して、学習を試みた回数を表1(図16)に示
す。バックプロパゲーションのパラメータは、モーメン
ト係数については0.9に固定し、学習係数については
最も学習時間が短いものを採用した。一方、本方法の重
みの増加の上限κは0.4に固定した。ベンチマークテ
スト結果を図14に示す。バックプロパゲーションのcp
utimeのグラフで上部が波上になっているのは、学習が
終了しなかったことを示す。各ベンチマークテストと
も、cputimeについては本方法がバックプロパゲーショ
ンの1.5倍〜10倍以上高速であり、また収束率につ
いても本方法の方が高いことが分かる。一方、従来の共
役勾配法の場合、16bit encoderは約30
回(2.8秒)、文字認識は3回(1756秒)で学習
が停滞した。このことは、直線探索において探索開始点
と探索点との重みのノルム平均の差の範囲を設けること
で、分離平面の回転とシグモイド関数の立上りを急にす
ることのバランスが良くなったことによる。このよう
に、本発明によれば、共役勾配法における重みの急激な
増加を防ぐことができるので、重みが急激に大きくなら
ず、分離平面の回転とシグモイド関数を立てることの両
方のバランスを取りながら、重みを更新していくことが
可能になる。その結果、バックプロパゲーションよりも
高速な学習が可能になる。さらに、別の効果として、直
線探索における誤差の計算回数の低減が図れる。すなわ
ち、図2のステップ18及びステップ20で、重みのノ
ルム平均の増加が上限κより小さいことの判定を誤差の
計算より先に行なえば、不必要な誤差の計算を防ぐこと
が可能となる。例えば、図3の場合ではη4の誤差計算
が不要になる。
【図面の簡単な説明】
【図1】本発明の方法の実施例の処理全体を示すPAD
である。
【図2】重みの増加に上限を設けた直線探索のPADで
ある。
【図3】重みの増加に上限を設けた直線探索を説明する
ための例を示す図である。
【図4】バックプロパゲーションの処理手順の詳細を示
す図である。
【図5】学習データの詳細を示す図である。
【図6】共役方向を説明する図である。
【図7】バックプロパゲーションによる最小値探索を示
す図である。
【図8】従来の共役勾配法の処理全体を示すPADであ
る。
【図9】最急降下勾配の計算手順の詳細を示すPADで
ある。
【図10】シグモイド関数のw依存性を示す図である。
【図11】シグモイド関数の微分値のw依存性を示す図
である。
【図12】ニューロンが信号a、b分離の学習を始める
前の状態を示す。
【図13】ニューロンが信号a、b分離の学習を終えた
後の状態を示す。
【図14】16bit encoder、文字認識のベ
ンチマークテスト結果を示す図である。
【図15】本発明の装置の実施例を示す。
【図16】学習データを示す表1である。
【符号の説明】
1 重みの初期設定 2 最急降下勾配の計算 6 共役方向の生成 7 重みの大きさの増加に上限を設けた直線探索 8 重みの更新 10 学習データ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 東野 純一 東京都国分寺市東恋ケ窪1丁目280番地 株式会社日立製作所 中央研究所内 (56)参考文献 特開 平2−222061(JP,A) 特開 平3−252857(JP,A) 金寺登・他,「ニューラルネットによ る連続音声の音韻セグメンテーショ ン」,電子情報通信学会論文誌,日本, 社団法人電子情報通信学会・発行,1990 年 1月25日,Vol.J−73−D−I I,No.1,pp.72−79,(特許庁 CSDB文献番号:CSNT 199800709009) 高木英行・他,「ニューラルネット学 習における非線形最適化手法の効果」, 電子情報通信学会論文誌,日本,社団法 人電子情報通信学会・発行,1991年 4 月25日,Vol.J74−D−II,N o.4,pp.528−535,(特許庁CS DB文献番号:CSNT200000735008) 立石、木下,「ニューラルネットワー クによる手書き文字認識」,沖電気研究 開発,日本,沖電気工業株式会社・発 行,1991年 4月 1日,Vol.58, No.2,pp.53−56,(JST資料 番号:F0243A) 西川、三宮、茨木,「岩波講座 情報 科学19 最適化」,日本,株式会社岩波 書店・発行,1982年 9月10日,初版, pp.41−55 甘利俊一・監訳,「PDPモデル − 認知科学とニューロン回路網の探索 −」,日本,産業図書株式会社・発行, 1989年 2月27日,初版,pp.325− 334 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 G06F 9/44 G06F 19/00 JSTファイル(JOIS) CSDB(日本国特許庁)

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 共役勾配法を用いた多層型ニューラルネ
    ットワークの学習において、ニューロンの重みの初期値
    を与えるステップと、ニューロンの重みに対する誤差の
    最急降下勾配を求めるステップと、最急降下方向に前回
    の共役方向を足し込む割合を計算し、最急降下勾配と前
    回の共役方向より次の共役方向を求めるステップと、直
    線探索の探索開始点におけるニューロンの重みのノルム
    の層平均と探索点における重みのノルムの層平均の差が
    ある一定の値を越えない範囲で誤差最小点を求めるステ
    ップと、誤差最小点に対応して重みを更新するステップ
    を有することを特徴とするニューラルネットワーク学習
    方法。
  2. 【請求項2】 請求項1において、ニューロンの重みの
    ノルムの層平均を次の式とすることを特徴とするニュー
    ラルネットワーク学習方法。 【数22】
  3. 【請求項3】 多層型ニューラルネットワークの学習に
    おいて、ニューロンの重みの初期値を生成する重み初期
    化部と、ニューロンの重みに対する誤差の最急降下勾配
    を求める最急降下勾配計算部と、最急降下方向に前回の
    共役方向を足し込む割合を計算するβ計算部と、最急降
    下勾配と前回の共役方向より次の共役方向を求める共役
    方向計算部と、直線探索の探索開始点におけるニューロ
    ンの重みのノルムの層平均と探索点における重みのノル
    ムの層平均の差がある一定の値を越えない範囲で誤差最
    小点を求める直線探索部を有し、誤差最小点に対応して
    重みを更新することを特徴とするニューラルネットワー
    ク学習装置。
JP18298991A 1991-06-27 1991-06-27 ニューラルネットワーク学習方法及び装置 Expired - Fee Related JP3323894B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP18298991A JP3323894B2 (ja) 1991-06-27 1991-06-27 ニューラルネットワーク学習方法及び装置
US07/903,243 US5390284A (en) 1991-06-27 1992-06-23 Learning method and apparatus for neural networks and simulator with neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18298991A JP3323894B2 (ja) 1991-06-27 1991-06-27 ニューラルネットワーク学習方法及び装置

Publications (2)

Publication Number Publication Date
JPH056355A JPH056355A (ja) 1993-01-14
JP3323894B2 true JP3323894B2 (ja) 2002-09-09

Family

ID=16127813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18298991A Expired - Fee Related JP3323894B2 (ja) 1991-06-27 1991-06-27 ニューラルネットワーク学習方法及び装置

Country Status (2)

Country Link
US (1) US5390284A (ja)
JP (1) JP3323894B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515546B2 (en) 2014-12-04 2019-12-24 Ricoh Company, Ltd. Driving determination device and detection device

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0636991A3 (en) * 1993-07-29 1997-01-08 Matsushita Electric Ind Co Ltd Information processing device for implementing a neural network.
CA2190619A1 (en) * 1994-06-06 1995-12-14 Shay-Ping Thomas Wang Speech-recognition system utilizing neural networks and method of using same
US5761626A (en) * 1995-12-26 1998-06-02 Ford Global Technologies, Inc. System and method for distinguishing and characterizing motor vehicles for control of automatic drivers
US6038338A (en) * 1997-02-03 2000-03-14 The United States Of America As Represented By The Secretary Of The Navy Hybrid neural network for pattern recognition
EP0935202A1 (en) * 1998-01-19 1999-08-11 Sony France S.A. Hardware or software architecture implementing self-biased conditioning
US7340441B1 (en) * 2004-12-17 2008-03-04 The Mathworks, Inc. Search directions in pattern search via rotation
JP4169038B2 (ja) * 2006-04-06 2008-10-22 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US10803102B1 (en) 2013-04-30 2020-10-13 Walmart Apollo, Llc Methods and systems for comparing customer records
JP6832783B2 (ja) * 2017-04-20 2021-02-24 株式会社日立製作所 データ分析装置、データ分析方法、およびデータ分析プログラム
JP6568175B2 (ja) * 2017-10-20 2019-08-28 ヤフー株式会社 学習装置、生成装置、分類装置、学習方法、学習プログラム、および動作プログラム
US11429642B2 (en) 2017-11-01 2022-08-30 Walmart Apollo, Llc Systems and methods for dynamic hierarchical metadata storage and retrieval
CN108334939B (zh) * 2018-02-28 2023-08-18 北京工商大学 基于多fpga环状通信的卷积神经网络加速装置及方法
CN109558900B (zh) * 2018-11-16 2023-11-03 佛山科学技术学院 一种基于神经网络的供水管爆裂时间预测方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5093899A (en) * 1988-09-17 1992-03-03 Sony Corporation Neural network with normalized learning constant for high-speed stable learning
JPH02222062A (ja) * 1989-02-23 1990-09-04 Matsushita Electric Ind Co Ltd 学習機械
JPH0736184B2 (ja) * 1989-02-23 1995-04-19 松下電器産業株式会社 学習機械
JPH0736185B2 (ja) * 1989-02-28 1995-04-19 松下電器産業株式会社 学習装置
US5168550A (en) * 1989-02-23 1992-12-01 Matsushita Electric Industrial Co., Ltd. Neutral network with plural weight calculation methods and variation of plural learning parameters
US5073867A (en) * 1989-06-12 1991-12-17 Westinghouse Electric Corp. Digital neural network processing elements
US5228113A (en) * 1991-06-17 1993-07-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Accelerated training apparatus for back propagation networks

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
甘利俊一・監訳,「PDPモデル −認知科学とニューロン回路網の探索−」,日本,産業図書株式会社・発行,1989年 2月27日,初版,pp.325−334
立石、木下,「ニューラルネットワークによる手書き文字認識」,沖電気研究開発,日本,沖電気工業株式会社・発行,1991年 4月 1日,Vol.58,No.2,pp.53−56,(JST資料番号:F0243A)
西川、三宮、茨木,「岩波講座 情報科学19 最適化」,日本,株式会社岩波書店・発行,1982年 9月10日,初版,pp.41−55
金寺登・他,「ニューラルネットによる連続音声の音韻セグメンテーション」,電子情報通信学会論文誌,日本,社団法人電子情報通信学会・発行,1990年 1月25日,Vol.J−73−D−II,No.1,pp.72−79,(特許庁CSDB文献番号:CSNT199800709009)
高木英行・他,「ニューラルネット学習における非線形最適化手法の効果」,電子情報通信学会論文誌,日本,社団法人電子情報通信学会・発行,1991年 4月25日,Vol.J74−D−II,No.4,pp.528−535,(特許庁CSDB文献番号:CSNT200000735008)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10515546B2 (en) 2014-12-04 2019-12-24 Ricoh Company, Ltd. Driving determination device and detection device

Also Published As

Publication number Publication date
JPH056355A (ja) 1993-01-14
US5390284A (en) 1995-02-14

Similar Documents

Publication Publication Date Title
JP3323894B2 (ja) ニューラルネットワーク学習方法及び装置
US11842284B2 (en) Data discriminator training method, data discriminator training apparatus, non-transitory computer readable medium, and training method
Zhang et al. Neuron-adaptive higher order neural-network models for automated financial data modeling
EP3791329A1 (en) Training neural networks using mixed precision computations
US20210312261A1 (en) Neural network search method and related apparatus
JP7076648B2 (ja) 画像処理方法及び装置、コンピュータ機器並びにコンピュータ記憶媒体
JP2021108039A (ja) モデル圧縮装置及びプログラム
JP2023024950A (ja) 共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法
CN113761934B (zh) 一种基于自注意力机制的词向量表示方法及自注意力模型
CN114490065A (zh) 一种负载预测方法、装置及设备
Thota et al. Optimum learning rate for classification problem with MLP in data mining
CN110929041A (zh) 基于分层注意力机制的实体对齐方法及系统
JPH07191950A (ja) 計算ネットワーク
CN118153645B (zh) 基于多头注意力冗余评估的大规模预训练模型迁移方法
CN110866403A (zh) 基于卷积循环实体网络的端对端对话状态跟踪方法及系统
US20250005356A1 (en) Object operating method and apparatus, computer device, and computer storage medium
US20200372363A1 (en) Method of Training Artificial Neural Network Using Sparse Connectivity Learning
CN113705801A (zh) 一种神经网络模型的训练装置、方法及相关设备
CN117809095A (zh) 一种图像分类方法、装置、设备和计算机可读存储介质
JP2907486B2 (ja) ニューラルネットワーク装置
CN116306942A (zh) 语言处理模型的推理处理方法、装置及电子设备
CN114511069A (zh) 一种提高低比特量化模型性能的方法和系统
CN114821173A (zh) 图像分类方法、装置、设备及存储介质
JP7204431B2 (ja) 単語ベクトルリスト生成装置
CN116630697B (zh) 一种基于有偏选择池化的图像分类方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees