JPH02193251A - エラー後方伝ぱん法と神経網システム - Google Patents
エラー後方伝ぱん法と神経網システムInfo
- Publication number
- JPH02193251A JPH02193251A JP1303435A JP30343589A JPH02193251A JP H02193251 A JPH02193251 A JP H02193251A JP 1303435 A JP1303435 A JP 1303435A JP 30343589 A JP30343589 A JP 30343589A JP H02193251 A JPH02193251 A JP H02193251A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- matrix
- synaptic
- neural network
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000005036 nerve Anatomy 0.000 title 1
- 239000011159 matrix material Substances 0.000 claims abstract description 34
- 239000013598 vector Substances 0.000 claims abstract description 31
- 210000004205 output neuron Anatomy 0.000 claims abstract description 29
- 238000013528 artificial neural network Methods 0.000 claims abstract description 22
- 210000000225 synapse Anatomy 0.000 claims abstract description 13
- 230000000946 synaptic effect Effects 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 11
- 230000001902 propagating effect Effects 0.000 claims description 2
- 230000009977 dual effect Effects 0.000 claims 1
- 210000004179 neuropil Anatomy 0.000 claims 1
- 230000004044 response Effects 0.000 claims 1
- 238000000354 decomposition reaction Methods 0.000 abstract description 15
- 210000002569 neuron Anatomy 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 15
- 210000002364 input neuron Anatomy 0.000 description 14
- 238000012549 training Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 241000713054 Agation Species 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000002945 steepest descent method Methods 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 235000008429 bread Nutrition 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Databases & Information Systems (AREA)
- Complex Calculations (AREA)
- Feedback Control In General (AREA)
- Multi Processors (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
(技術分野)
本発明は層状神経網システL (layered ne
uralnetwork system)に使用される
エラー後方伝ぱん法(error back−prop
agation method)に関連し、また網シス
テムそれ自身に関連している。
uralnetwork system)に使用される
エラー後方伝ぱん法(error back−prop
agation method)に関連し、また網シス
テムそれ自身に関連している。
本発明は分類、パターン認識、文字認識、会話信号処理
、影像処理、データ圧縮等に関連する問題を解決するた
めに使用されている。
、影像処理、データ圧縮等に関連する問題を解決するた
めに使用されている。
(背景技術)
ニューロンは非常に稠密な網(dense netwo
rk)で相互接続されている非線形基本能動要素(no
nlinear elementary active
element)である。2つのタイプの網が考慮さ
れている。すなわち、ホップフィールド網(Hopfi
eld netiyork)として規定されている完全
接続網、 ニューロンが連続層にグループ化されている層状網であ
って、各ニューロンは次の層のすべてのニューロンに接
続され、情報はそれが出力層に到達するまで入力層から
次の層(隠された層:hidden 1ayers)に
通過する。
rk)で相互接続されている非線形基本能動要素(no
nlinear elementary active
element)である。2つのタイプの網が考慮さ
れている。すなわち、ホップフィールド網(Hopfi
eld netiyork)として規定されている完全
接続網、 ニューロンが連続層にグループ化されている層状網であ
って、各ニューロンは次の層のすべてのニューロンに接
続され、情報はそれが出力層に到達するまで入力層から
次の層(隠された層:hidden 1ayers)に
通過する。
これらのシステムは実例によって訓練するか、あるいは
それら自身を組織化することにより訓練できる。逐次型
コンピュータの非常に長い計算時間はトレーニング相(
training phase)あるいは分解相(re
solving phase)に並列に含まれた動作を
実行することにより実質的に減少できる。
それら自身を組織化することにより訓練できる。逐次型
コンピュータの非常に長い計算時間はトレーニング相(
training phase)あるいは分解相(re
solving phase)に並列に含まれた動作を
実行することにより実質的に減少できる。
トレーニングアルゴリズムは次の2つのカテゴリに分割
できる。すなわち 入力ニューロンiを出力ニューロンjに結合するシナプ
ス係数(synaptic coefficient)
C+Jの修正がニューロンi(!:、iの情報のみに
依存している局所トレーニング(local trai
ning)、それが網の至るところに存在する情報に依
存する非局所トレーニング、 である。後者のトレーニングは例えば層状網のエラー後
方伝ぱんであり、これは本発明の主題である。
できる。すなわち 入力ニューロンiを出力ニューロンjに結合するシナプ
ス係数(synaptic coefficient)
C+Jの修正がニューロンi(!:、iの情報のみに
依存している局所トレーニング(local trai
ning)、それが網の至るところに存在する情報に依
存する非局所トレーニング、 である。後者のトレーニングは例えば層状網のエラー後
方伝ぱんであり、これは本発明の主題である。
この種の方法と網はジェー・ジェー・パラロス(J、
J、 Paulos)とピー・ダブリユウ・ポリス(P
、 W、 Ho1lis )の文献、rfc合後方伝ぱ
んによるフィードフォアワード回路網のVLS Iアー
キテクチュア−(A VLSI Architectu
re for feedforvardnetwork
s with integral back−prop
agation)J 。
J、 Paulos)とピー・ダブリユウ・ポリス(P
、 W、 Ho1lis )の文献、rfc合後方伝ぱ
んによるフィードフォアワード回路網のVLS Iアー
キテクチュア−(A VLSI Architectu
re for feedforvardnetwork
s with integral back−prop
agation)J 。
神経M4(Neural Network) 、No、
l、付録1、頁399.1988年から知られてい
る。これは2つの副回路網を具えるアナログ/ディジタ
ル回路であり、分解ステップは第1副回路網で実行され
、一方、後方伝ぱんステップは第2副回路網で起こる。
l、付録1、頁399.1988年から知られてい
る。これは2つの副回路網を具えるアナログ/ディジタ
ル回路であり、分解ステップは第1副回路網で実行され
、一方、後方伝ぱんステップは第2副回路網で起こる。
それはまた係数をアップデートする計算ユニット(AL
II)を具えている。係数のアンプデートは直列的に起
こる。
II)を具えている。係数のアンプデートは直列的に起
こる。
(発明の開示)
このように、本発明が対面する問題はデータ伝達を制限
しながらそのような回路網の処理速度を増大することで
ある。
しながらそのような回路網の処理速度を増大することで
ある。
分解相は前方伝ぱん(fortvard propag
ation)によりに個の連続層を通して延在する通路
に沿うj個の入力ニューロンに基づく1個の出力ニュー
ロン状態の決定からなっている。このように、層k(1
からKの間のk)のニューロンjは表現式%式%) に従ってシナプス係数Ci jによって加重された層k
−1−1のニューロンiにその状態vJを伝達し、こ
こでfは一般に非線形関数である。
ation)によりに個の連続層を通して延在する通路
に沿うj個の入力ニューロンに基づく1個の出力ニュー
ロン状態の決定からなっている。このように、層k(1
からKの間のk)のニューロンjは表現式%式%) に従ってシナプス係数Ci jによって加重された層k
−1−1のニューロンiにその状態vJを伝達し、こ
こでfは一般に非線形関数である。
トレーニング相は得られた縄出力状態と所望の出力状態
の間のエラーδ、の決定と、このエラー伝ぱんを先行通
路に逆方向に伝ぱんさせることからなっている。この目
的で、学習すべき一例は網の入力に伝えられ、その後で
分解ステップが実行される。最後のJiKにおいて、得
られた出力(Vi)iは以下のエラーを計算するために
所望の出力(Vi)iと比較される。
の間のエラーδ、の決定と、このエラー伝ぱんを先行通
路に逆方向に伝ぱんさせることからなっている。この目
的で、学習すべき一例は網の入力に伝えられ、その後で
分解ステップが実行される。最後のJiKにおいて、得
られた出力(Vi)iは以下のエラーを計算するために
所望の出力(Vi)iと比較される。
δi−f、[f−’(V工)]・(]V、−V、ここで
f−1はfの逆数であり、flは非線形関数の導関数で
ある。このエラーは次の表現式に従って先行層に一つの
層から引き続いて後方伝ぱんされる。ここでT” はシ
ナプス係数マトリクスCk−1に関連する転置マトリク
スを示しでいる。
f−1はfの逆数であり、flは非線形関数の導関数で
ある。このエラーは次の表現式に従って先行層に一つの
層から引き続いて後方伝ぱんされる。ここでT” はシ
ナプス係数マトリクスCk−1に関連する転置マトリク
スを示しでいる。
このエラー伝ぱん機構は分解ステップの間にニューロン
状態を決定する機構に似ている。
状態を決定する機構に似ている。
アップデート機構はエラーの後方伝ぱんの後で得られた
結果を考慮に入れ、かつこれらの3つの機構の完全に新
しいサイクルの新しいシナプス係数を再定義することか
ら構成されよう。
結果を考慮に入れ、かつこれらの3つの機構の完全に新
しいサイクルの新しいシナプス係数を再定義することか
ら構成されよう。
係数は次の学習規則に従ってアップデートされる。
および
ここでηは利得因数(スケールファクタ)である。
これらのステップは各処理手段で実行された局所ステッ
プであり、かつ情報を前方(分解)あるいは後方(後方
伝ぱん)に伝ぱんし、係数のアップデートは上流情報な
らびに下流情報で用いている(伝ぱん方向にかかわらず
)。このように、種々のステップは(層kから層に+1
あるいはその逆方向に)並列に実行できる。これは本発
明に従って転置マトリクスを第2グループに負荷するこ
とにより入力(インデクスj)ならびに出力(インデク
スi)で並列に実行可能な同一の処理手段を用いること
で起こる。この計算方法は2つの伝ぱん方向のアップデ
ートステップの−様な実行を可能にする。それは を取ることで十分である。
プであり、かつ情報を前方(分解)あるいは後方(後方
伝ぱん)に伝ぱんし、係数のアップデートは上流情報な
らびに下流情報で用いている(伝ぱん方向にかかわらず
)。このように、種々のステップは(層kから層に+1
あるいはその逆方向に)並列に実行できる。これは本発
明に従って転置マトリクスを第2グループに負荷するこ
とにより入力(インデクスj)ならびに出力(インデク
スi)で並列に実行可能な同一の処理手段を用いること
で起こる。この計算方法は2つの伝ぱん方向のアップデ
ートステップの−様な実行を可能にする。それは を取ることで十分である。
これらの種々の機構は例えば2つのグループと(例えば
ホストコンピュータである)自動処理装置の間に分布で
きる。ニューロンのに個の連続層に組織化された神経網
に対して、第1グループはに一1個の処理手段を具え、
そして第2グループは前の処理手段と同一ではあるがし
かし異なる情報で使用されているに一2個の処理手段を
具えている。
ホストコンピュータである)自動処理装置の間に分布で
きる。ニューロンのに個の連続層に組織化された神経網
に対して、第1グループはに一1個の処理手段を具え、
そして第2グループは前の処理手段と同一ではあるがし
かし異なる情報で使用されているに一2個の処理手段を
具えている。
種々のステップは次のように介在(interleav
e)できる。
e)できる。
第1グループで:
全グループのシナプス係数メモリのシナプス係数C3j
の初期化、 第2グループで: 全グループのシナプス係数メモリの7トリクスCijの
転置マトリクスT j iの初期化。
の初期化、 第2グループで: 全グループのシナプス係数メモリの7トリクスCijの
転置マトリクスT j iの初期化。
初期化ステップは神経網の使用の最初で一度だけ実行さ
れる。
れる。
第1グループで:
第1層の処理手段の状態メモリのj入力ニューロンの状
態の初期化、 第1グループで: 入力ニューロンjの状態に基づく各出力ニューロンiの
状態の各層の決定であって、処理手段の出力ニューロン
の状態は次の処理手段の入力ニューロンの状態となり、 中央処理装置で: 得られた状態と最後の層の各出力ニューロンiの所望の
状態の比較と、これら2つの状態の間のエラーδ、の決
定、 第2グループで: 最後の層の処理手段の状態メモリへのエラーδ工の導入
、 第2グループで: 最後の層の出力状態から第1層の入力状態に進み、一方
、各処理手段において入力ニューロンiの状態に基づく
各出力ニューロンjの状態の決定を実行するエラーの後
古仏ぱん、および点VJにおける非線形逆関数から導か
れた関数によりとられた値によりこの出力状態の中央処
理装置での乗算は第1グループの対応処理手段の入力ニ
ューロンjの状態であり、 中央処理装置で: 第1層の処理手段の状態メモリに含まれた新しいエラー
値に基づいて、シナプス係数Ci jとTlJに同時に
印加すべき増分Δ、゛ とDlの決定、第1グJレーフ
“で; C= ; (new) −Ct ; (old)+Δ、
、■。
態の初期化、 第1グループで: 入力ニューロンjの状態に基づく各出力ニューロンiの
状態の各層の決定であって、処理手段の出力ニューロン
の状態は次の処理手段の入力ニューロンの状態となり、 中央処理装置で: 得られた状態と最後の層の各出力ニューロンiの所望の
状態の比較と、これら2つの状態の間のエラーδ、の決
定、 第2グループで: 最後の層の処理手段の状態メモリへのエラーδ工の導入
、 第2グループで: 最後の層の出力状態から第1層の入力状態に進み、一方
、各処理手段において入力ニューロンiの状態に基づく
各出力ニューロンjの状態の決定を実行するエラーの後
古仏ぱん、および点VJにおける非線形逆関数から導か
れた関数によりとられた値によりこの出力状態の中央処
理装置での乗算は第1グループの対応処理手段の入力ニ
ューロンjの状態であり、 中央処理装置で: 第1層の処理手段の状態メモリに含まれた新しいエラー
値に基づいて、シナプス係数Ci jとTlJに同時に
印加すべき増分Δ、゛ とDlの決定、第1グJレーフ
“で; C= ; (new) −Ct ; (old)+Δ、
、■。
となるようにシナプス係数Ci jのアップデート、第
2グループで: T Ji (new) =T i= (old) +
D J・δ。
2グループで: T Ji (new) =T i= (old) +
D J・δ。
となるように先行アップデート操作と同時にシナプス係
数T j iをアップデートすること。
数T j iをアップデートすること。
アップデートステップが2つのグループのブロックで同
時に起こり、かつ初期化とCijおよびT i iの増
分が同一であると言う事実が与えられると、各分解ステ
ップあるいは後古仏ぱんステップにおいて2つのサブア
センブリは同じシナプス係数を用いることが保証される
。もしCi jとT j iのの値が制限されるなら、
この制限(飽和、モジュロ、反射のいずれか)における
規則が2つの網で同じであると仮定してこのことはまた
有効である。
時に起こり、かつ初期化とCijおよびT i iの増
分が同一であると言う事実が与えられると、各分解ステ
ップあるいは後古仏ぱんステップにおいて2つのサブア
センブリは同じシナプス係数を用いることが保証される
。もしCi jとT j iのの値が制限されるなら、
この制限(飽和、モジュロ、反射のいずれか)における
規則が2つの網で同じであると仮定してこのことはまた
有効である。
上の実例のシナプス係数のアップデートは最急降下法(
steepest descent method o
r gradientdecent method)を
使用している。当業者にとって明らかであろうが、モー
メンタム学習規則(momentum learnin
g rule )のような最急降下部分を含む関連学習
規則は本発明による方法と網に有効に使用できる。
steepest descent method o
r gradientdecent method)を
使用している。当業者にとって明らかであろうが、モー
メンタム学習規則(momentum learnin
g rule )のような最急降下部分を含む関連学習
規則は本発明による方法と網に有効に使用できる。
本発明を添付図面を参照して今後詳細に説明する。
(実施例)
第1図は2つの処理グループIL 12と中央処理装置
10を具える神経網システムを示している。処理グルー
プ11は分解ステップを実行し、処理グループ12はエ
ラー後古仏ぱんを実行する。グループ11は処理手段1
3.、13□、133を具え、これらはニューロン(k
=1.2,3.4)のに=47iに縦続接続されてい
る。これらの手段は各シナプス係数マトリクス を蓄積する。
10を具える神経網システムを示している。処理グルー
プ11は分解ステップを実行し、処理グループ12はエ
ラー後古仏ぱんを実行する。グループ11は処理手段1
3.、13□、133を具え、これらはニューロン(k
=1.2,3.4)のに=47iに縦続接続されてい
る。これらの手段は各シナプス係数マトリクス を蓄積する。
グループ12は処理手段134,13sを具え、これら
は縦続接続され、かつ層に=4.に=3およびに−2の
間で動作する。それらは各シナプス係数マその関連マト
リクスCの転置マトリクスである。
は縦続接続され、かつ層に=4.に=3およびに−2の
間で動作する。それらは各シナプス係数マその関連マト
リクスCの転置マトリクスである。
例えば中央処理装置からグループ11は第1処理手段1
31に導入される入力状態V、を受信し、第1処理手段
13□の出力状態は第2手段13□の入力に印加される
。分解ステップの間に、中央処理袋Wloに印加される
計算状態■、は3つの処理手段の出力に現れる。中央制
御装置10は最後の手段133の出力で得られた状態■
、と、入力に伝えられた状態に関連した所望の出力状態
を比較する。検出された差はエラーδ、として現れ、こ
れは層4の各出力ニューロンiに相応する。中央処理装
置10はこのエラーδ、を第2グループの処理手段13
4に導入する。層3上で得られた結果、 は中央処理装置に(接続線14を通して)印加され、こ
れはこれらの結果を f I [f−1(V、)] によって乗算する。
31に導入される入力状態V、を受信し、第1処理手段
13□の出力状態は第2手段13□の入力に印加される
。分解ステップの間に、中央処理袋Wloに印加される
計算状態■、は3つの処理手段の出力に現れる。中央制
御装置10は最後の手段133の出力で得られた状態■
、と、入力に伝えられた状態に関連した所望の出力状態
を比較する。検出された差はエラーδ、として現れ、こ
れは層4の各出力ニューロンiに相応する。中央処理装
置10はこのエラーδ、を第2グループの処理手段13
4に導入する。層3上で得られた結果、 は中央処理装置に(接続線14を通して)印加され、こ
れはこれらの結果を f I [f−1(V、)] によって乗算する。
これらの積はδ、を構成し、
入力に導入される。最後に、
それは手段13.の
この手段は
を計算し、その結果はδ8を決定する中央処理装置10
に印加される。
に印加される。
現在の限られた実例以上に多い層が存在する場合、動作
はすべての層に対してこのような態様で実行される。こ
のように中央処理装置10は増分Δ、−η・δ、゛とD
J−η・■、 を決定し、シナプス係数Ci jとT j iをアップ
デートするために、これらは第1グループ11の処理手
段に導入され、従って グループ131はΔ、を受信し、 グループ13□はΔ1を受信し、 グループ133はΔ、を受信し、 また第2グループ12の処理手段に導入され、従つて グループ134はDJを受信し、 グループ134はDJを受信する。
はすべての層に対してこのような態様で実行される。こ
のように中央処理装置10は増分Δ、−η・δ、゛とD
J−η・■、 を決定し、シナプス係数Ci jとT j iをアップ
デートするために、これらは第1グループ11の処理手
段に導入され、従って グループ131はΔ、を受信し、 グループ13□はΔ1を受信し、 グループ133はΔ、を受信し、 また第2グループ12の処理手段に導入され、従つて グループ134はDJを受信し、 グループ134はDJを受信する。
そのようなアップデートは分解ステップを実行する第1
グループでjで並列に実行され、かつ後古仏ぱんを実行
する第2グループでiで並列に起こる。この並列性は層
毎のニューロン状態Vjkおよび層毎のエラー状態δ、
の同時利用可能性に依存している。
グループでjで並列に実行され、かつ後古仏ぱんを実行
する第2グループでiで並列に起こる。この並列性は層
毎のニューロン状態Vjkおよび層毎のエラー状態δ、
の同時利用可能性に依存している。
第2A図は分解ステップの間の第1グループのデータの
処理を例示している。第2B図はエラー後古仏ぱんステ
ップの間の第2グループのデータ処理を例示している。
処理を例示している。第2B図はエラー後古仏ぱんステ
ップの間の第2グループのデータ処理を例示している。
第2A図は層に=3の出力ニューロンi=3の状態を決
定するために処理手段13゜の層2と層3の間で実行さ
れた計算の一部分を示している。層2のシナプス係数は
C311C3゜、 C33,C34であり、実行され
た計算は である。この計算は層に=1から層に=4に進むすべて
の層のすべてのニューロンに同様なやり方で実行される
。
定するために処理手段13゜の層2と層3の間で実行さ
れた計算の一部分を示している。層2のシナプス係数は
C311C3゜、 C33,C34であり、実行され
た計算は である。この計算は層に=1から層に=4に進むすべて
の層のすべてのニューロンに同様なやり方で実行される
。
同じ図面はまた増分Δ3−η・δ3を示し、これはシナ
プス係数03Jの同時アップデートに用いられる。
プス係数03Jの同時アップデートに用いられる。
第2B図は処理手段134で層に=4からに=3に進む
エラー後古仏ぱんの計算の一部分を示している。ニュー
ロンj=2に以下の結果 を供給するために、エラーδ1.δ2.δ3はそれる。
エラー後古仏ぱんの計算の一部分を示している。ニュー
ロンj=2に以下の結果 を供給するために、エラーδ1.δ2.δ3はそれる。
この計算はその結果が最終結果に対して不動作である層
に=1を除いて、すべての層のすべてのニューロンに同
様なやり方で実行される。同じ図面はシナプス係数T2
4の同時アップデートに用いられる増分D2−η・■2
をまた示している。
に=1を除いて、すべての層のすべてのニューロンに同
様なやり方で実行される。同じ図面はシナプス係数T2
4の同時アップデートに用いられる増分D2−η・■2
をまた示している。
第3図はシナプス係数の決定とアップデートを含んでい
る分解ステップならびにトレーニングステップを実行す
る処理手段を示している。メモリ30は現在のシナプス
係数を蓄積する。状態レジスタ31は中央処理装置10
かあるいは実例の環境からのいずれかから入力ニューロ
ンjの状態を受信する。計算ユニット32は(バス38
より)シナプス係数Ci jと状態■4を受信し、かつ
計算ΣC,,,・V4を実行する。計算ユニットはまた
以前の和に非線形関数を適用する手段を具えている。こ
の結果はニューロンiの新しい状態を構成し、かつレジ
スタ33に蓄積される。本発明によると、増分Δ1を乗
算する乗数34.−−−34N (ここでN=Nk)が
備えられ、それは外部処理装置から発生されるならレジ
スタ36に蓄積されるかあるいはレジスタ31からの状
態■、により形成されるかいずれかでベクトルSJによ
ってレジスタ35に蓄積される。各乗算の結果は双方向
バス38を介してメモリ30に接続されている加算器3
71−−−378を用いてシナプス係数Cjjをアップ
デートするために使用される。データS、がレジスタ3
1に蓄積されたベクトル■。
る分解ステップならびにトレーニングステップを実行す
る処理手段を示している。メモリ30は現在のシナプス
係数を蓄積する。状態レジスタ31は中央処理装置10
かあるいは実例の環境からのいずれかから入力ニューロ
ンjの状態を受信する。計算ユニット32は(バス38
より)シナプス係数Ci jと状態■4を受信し、かつ
計算ΣC,,,・V4を実行する。計算ユニットはまた
以前の和に非線形関数を適用する手段を具えている。こ
の結果はニューロンiの新しい状態を構成し、かつレジ
スタ33に蓄積される。本発明によると、増分Δ1を乗
算する乗数34.−−−34N (ここでN=Nk)が
備えられ、それは外部処理装置から発生されるならレジ
スタ36に蓄積されるかあるいはレジスタ31からの状
態■、により形成されるかいずれかでベクトルSJによ
ってレジスタ35に蓄積される。各乗算の結果は双方向
バス38を介してメモリ30に接続されている加算器3
71−−−378を用いてシナプス係数Cjjをアップ
デートするために使用される。データS、がレジスタ3
1に蓄積されたベクトル■。
によって形成される場合にレジスタ36は省略される。
データS1が例えば中央制御装置から発生する場合にレ
ジスタ36は機能する。第1図のグループ11と12は
上述の同じ制御手段13を使用するが、しかしそこで処
理されたデータは異なっている。
ジスタ36は機能する。第1図のグループ11と12は
上述の同じ制御手段13を使用するが、しかしそこで処
理されたデータは異なっている。
グループ11において、レジスタ36からかあるいはレ
ジスタ31から直接に発生するニューロン状態により乗
算される増分Δ8をレジスタ35は受信する。
ジスタ31から直接に発生するニューロン状態により乗
算される増分Δ8をレジスタ35は受信する。
グループ12において、各処理手段13のレジスタ36
に蓄積されたエニーδ、によって乗算される増分DJを
レジスタ35は受信する。
に蓄積されたエニーδ、によって乗算される増分DJを
レジスタ35は受信する。
このようにアップデート手段は、
積δ、・V、(あるいはDJ・δ、)を決定するN個の
計算演算子、 双方向バスを用いてメモリにアップデートされる新しい
シナプス係数を計算するN個の加算器、を具えている。
計算演算子、 双方向バスを用いてメモリにアップデートされる新しい
シナプス係数を計算するN個の加算器、を具えている。
分解ステップは異なる並列操作を用いてグループ11で
実行される。これらの場合、メモリ30は行ならびに列
に関してアドレス可能である。このように、入力ニュー
ロンjの状態に基づく各出力ニューロンiの状態の決定
は、そのシナプスが出力ニューロンiに向かって収斂す
るすべての入力ニューロンで並列に局所処理操作を実行
することにより実行できる。
実行される。これらの場合、メモリ30は行ならびに列
に関してアドレス可能である。このように、入力ニュー
ロンjの状態に基づく各出力ニューロンiの状態の決定
は、そのシナプスが出力ニューロンiに向かって収斂す
るすべての入力ニューロンで並列に局所処理操作を実行
することにより実行できる。
入力ニューロンjの状態に基づく各出力ニューロンiの
状態の決定はそのシナプスが入力ニューロンjから出発
するすべての出力ニューロンiに並列に処理操作を実行
することにより同様に実行できる。
状態の決定はそのシナプスが入力ニューロンjから出発
するすべての出力ニューロンiに並列に処理操作を実行
することにより同様に実行できる。
入力ニューロンjの状態に基づく各出力ニューロンiの
状態の決定はそのシナプスが出力ニューロンiに向かっ
て収斂するすべての入力ニューロンjで、そしてそのシ
ナプスが入力ニューロンjから出発するすべての出力ニ
ューロンiで並列に局所処理操作を実行することにより
同様に実行できる。
状態の決定はそのシナプスが出力ニューロンiに向かっ
て収斂するすべての入力ニューロンjで、そしてそのシ
ナプスが入力ニューロンjから出発するすべての出力ニ
ューロンiで並列に局所処理操作を実行することにより
同様に実行できる。
類似の並列性は第2グループで実現できる。
この目的で、入力エラー64に基づく各出力エラーδ、
の決定はそのシナプスが出力エラーδ。
の決定はそのシナプスが出力エラーδ。
を含むニューロンに向かって収斂する入力エラーδ、を
含むすべてのニューロンで並列に局所処理操作を実施す
ることにより実行できる。
含むすべてのニューロンで並列に局所処理操作を実施す
ることにより実行できる。
入力エラーδ、に基づく各出力エラーδ、の決定はその
シナプスが入力エラー61を含むニューロンから出発す
る出力エラー68を含むすべてのニューロンで並列に処
理操作を実施することにより同様に実行できる。
シナプスが入力エラー61を含むニューロンから出発す
る出力エラー68を含むすべてのニューロンで並列に処
理操作を実施することにより同様に実行できる。
入力エラー63に基づく各出力エラーδ、の決定ばその
シナプスが出力エラーδ、を含むニューロンに向かって
収斂する入力エラー64を含むすべてのニューロンで、
およびそのシナプスが入ノjエラー61を含むニューロ
ンから出発する出力エラー68を含むすべてのニューロ
ンで並列に局所処理操作を実施することにより実行でき
る。
シナプスが出力エラーδ、を含むニューロンに向かって
収斂する入力エラー64を含むすべてのニューロンで、
およびそのシナプスが入ノjエラー61を含むニューロ
ンから出発する出力エラー68を含むすべてのニューロ
ンで並列に局所処理操作を実施することにより実行でき
る。
乗算装置341.34□−−−348は分解ステップの
すべてのインデクスjに対する並列乗算Ci j・■4
、あるいはアップデートステップのすべてのインデクス
jに対する並列乗算Δ、・■4を選択的に実行する計算
ユニット32を組み込むことができる。制御手段は乗算
装置の正しい入力に所要のデータをルーチングするため
に備えられるべきである。このアーキテクチャ−は本発
明による神経網のICによる実施例で基板面積を節約す
ると言う利点を有している。
すべてのインデクスjに対する並列乗算Ci j・■4
、あるいはアップデートステップのすべてのインデクス
jに対する並列乗算Δ、・■4を選択的に実行する計算
ユニット32を組み込むことができる。制御手段は乗算
装置の正しい入力に所要のデータをルーチングするため
に備えられるべきである。このアーキテクチャ−は本発
明による神経網のICによる実施例で基板面積を節約す
ると言う利点を有している。
第1図は本発明による方法を用いる神経網システムの一
般線図を示し、 第2八図と第2B図は分解ステップとエラー後古仏ぱん
ステップ間の計算の実施を例示する2つの線図をそれぞ
れ示し、 第3図は本発明による神経網の処理手段の線図を示して
いる。 10・・・中央処理装置 11、12・・・処理グループ 13・・・処理手段 14・・・接続線30・・
・メモリ 31・・・状態レジスタ32・・・
計算ユニット 33・・・レジスタ34・・・乗算器
35.36・・・レジスタ37・・・加算器
38・・・バス 7一
般線図を示し、 第2八図と第2B図は分解ステップとエラー後古仏ぱん
ステップ間の計算の実施を例示する2つの線図をそれぞ
れ示し、 第3図は本発明による神経網の処理手段の線図を示して
いる。 10・・・中央処理装置 11、12・・・処理グループ 13・・・処理手段 14・・・接続線30・・
・メモリ 31・・・状態レジスタ32・・・
計算ユニット 33・・・レジスタ34・・・乗算器
35.36・・・レジスタ37・・・加算器
38・・・バス 7一
Claims (10)
- 1.エラー後方伝ぱんに応じて蓄積シナプス係数をアッ
プデートする方法であって、各シナプス係数は層状神経
網の一対の連続層間の相互接続の重みを表しており、該
方法は ―次の高い各層に対して、先行層の出力ニューロン状態
ベクトルと、その層と先行層の 間の相互接続に関連する各シナプス係数マ トリクスとを含むマトリクス乗算を用いて 出力ニューロン状態ベクトルを決定するこ と、 ―神経網の出力層の出力ニューロン状態ベクトルに対す
る出力エラーベクトルを計算す ること、 ―各関連先行層に対して、次の高い層のエラーベクトル
と、その層と次の高い層との間 の相互接続に関連したシナプス係数マトリ クスの転置型を含むマトリクス乗算を用い て、関連先行層に関する出力エラーベクト ルを後方伝ぱんすること、 ―シナプス係数の増分を含む特定層と先行層の間の相互
接続に関連した各シナプス係数 をアップデートし、ここでこの増分が先行 層の出力ニューロン状態ベクトルの各成分 と特定層のエラーベクトルの各成分の測ら れた少なくとも積項を含むもの、 の各ステップを具えるものにおいて、 ―現在の電流シナプス係数マトリクスが蓄積され、 ―現在の転置シナプス係数マトリクス、すなわち入力層
と次の層状神経網の層との間の 相互接続に関連するもの以外の少なくとも マトリクスが蓄積され、 ―各シナプス係数マトリクスのアップデートが各出力ニ
ューロン状態ベクトルあるいは 各エラーベクトルのいずれかの成分に対し て並行に実行され、 ―各関連転置シナプス係数マトリクスのアップデートが
関連エラーベクトルあるいは関 連出力ニューロン状態ベクトルのいずれか の成分に対して並行に実行されること、 を特徴とする方法。 - 2.特定シナプス係数マトリクスのアップデート、およ
びそれに関連した転置シナプス係数マトリクスのアップ
デートが同時に実行されることを特徴とする請求項1に
記載の方法。 - 3.請求項1あるいは2に記載の方法を実行する神経網
システムであって、 ―上記の各シナプス係数マトリクスに対して各第1メモ
リを具え、かつ上記の関連転置 シナプス係数マトリクスに対して各第2メ モリを具え、上記の第1および第2メモリ の各々は蓄積された各マトリクスの選択さ れた行のシナプス係数に基づいて並列読み 取りあるいは書き込み動作を可能とし、 ―上記のマトリクスの特定のものをアップデートするア
ップデート手段が、 ―アップデートステップにおいて各マトリクスの選択さ
れた行のシナプス係数に関連し た上記の積項を並列に発生する乗算手段、 ―アップデートステップで各マトリクスの選択された行
に対して並列に増大する乗算手 段の出力に結合されている加算手段、 を具えること、 を特徴とするアップデートステップを実行するアップデ
ート手段を含む神経網システム。 - 4.上記のアップデート手段が、 ―各積項の発生を要求して、関連出力ニューロン状態ベ
クトルあるいは関連エラーベク トルのいずれかをそれぞれ蓄積する第1レ ジスタであって、上記の第1レジスタが乗 算手段の第1入力に結合されているもの、 ―各積項の発生を要求して、関連エラーベクトルあるい
は関連出力ニューロン状態ベク トルのいずれかの各単一成分を表すスカラ ーを蓄積する第2レジスタであって、上記 のレジスタが上記の乗算手段の第2入力に 結合されているもの、 を含むことを特徴とする請求項3に記載の神経網システ
ム。 - 5.上記のマトリクスの各々に対して各アップデート手
段が備えられていることを特徴とする請求項3あるいは
4に記載の神経網システム。 - 6.請求項5に記載の神経網システムであって、―各層
の関連出力ニューロン状態ベクトルを連続的に決定する
フィードフォアワード部 分、 ―出力層に関連する出力エラーベクトルを計算する計算
手段、 ―先行層の各エラーベクトルを連続的に決定する後方伝
ぱん部分、 を含むものにおいて、 連続層の各対に対して、フイードフオアワ ード部分が、 ―関連第1メモリと、 ―関連アップデート手段、 を含むモジュールを具え、 ―出力エラーベクトルの後方伝ぱんに関連する連続層の
各対に対して、後方伝ぱん部分 は、 ―関連第2メモリと、 ―関連アップデート手段、 を含むべつのモジュールを具えること、 を特徴とする神経網システム。 - 7.各モジュールが、 層の各対の下側のものの出力ニューロン状 態と関連シナプス係数マトリクスを含むマトリクス乗算
を各マトリクス列に対して並列に行的に実行するマトリ
クス乗算手段、 を具え、 かつ別の各モジュールが、 連続層の上記の各対のより高いもののエラ ーベクトルと関連転置シナプス係数マトリクスを含むマ
トリクス乗算を各マトリクス列に対して並列に行的に実
行する別のマトリクス乗算手段、 を具えることを特徴とする請求項6に記載の神経網シス
テム。 - 8.各出力ニューロン状態ベクトルを決定するマトリク
ス乗算を実行するかかあるいは関連シナプス係数マトリ
クスをアップデートするために必要な積項を発生するか
どうかの選択に基づき、そして各エラーベクトルを決定
するマトリクス乗算を実行するかあるいはシナプスマト
リクスの関連転置型をアップデートするために必要な積
項を発生するかどうかの選択に基づいて、 マトリクス乗算手段が各モジュールに関連 する乗算手段を含むこと、かつ 別のマトリクス乗算手段が別の各モジュー ルに関連する乗算手段を含むこと、 を特徴とする請求項7に記載の神経網。 - 9.各モジュールが集積回路で実現されていることを特
徴とする請求項6あるいは7あるいは8に記載の神経網
。 - 10.アップデートステップで各乗算手段が各積項を発
生する複数の2重入力乗算器回路を含み、かつ 各加算手段が各メモリの各書き込み入力に 結合された複数の加算器を含むこと、 を特徴とする請求項6に記載の神経網。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR8815428A FR2639736B1 (fr) | 1988-11-25 | 1988-11-25 | Procede de retropropagation du gradient et structure de reseau de neurones |
FR8815428 | 1988-11-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH02193251A true JPH02193251A (ja) | 1990-07-30 |
Family
ID=9372259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1303435A Pending JPH02193251A (ja) | 1988-11-25 | 1989-11-24 | エラー後方伝ぱん法と神経網システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US5517598A (ja) |
EP (1) | EP0372613B1 (ja) |
JP (1) | JPH02193251A (ja) |
KR (1) | KR900008396A (ja) |
DE (1) | DE68925625T2 (ja) |
FR (1) | FR2639736B1 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2685109A1 (fr) * | 1991-12-11 | 1993-06-18 | Philips Electronique Lab | Processeur numerique neuronal operant avec une approximation d'une fonction d'activation non lineaire. |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
FR2687814A1 (fr) * | 1992-02-26 | 1993-08-27 | Philips Electronique Lab | Processeur neuronal a cellules synaptiques reparties. |
US5799134A (en) * | 1995-03-13 | 1998-08-25 | Industrial Technology Research Institute | One dimensional systolic array architecture for neural network |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
CN101596387B (zh) | 2004-08-06 | 2013-02-13 | 唐纳森公司 | 空气过滤器装置;组件和方法 |
ATE548102T1 (de) | 2005-01-13 | 2012-03-15 | Donaldson Co Inc | Luftfilteranordnung |
WO2006076479A1 (en) * | 2005-01-13 | 2006-07-20 | Donaldson Company, Inc. | Air filter cartridge and air cleaner assembly |
EP2190554B1 (en) | 2007-09-07 | 2013-01-09 | Donaldson Company, Inc. | Air filter assembly |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US11200483B2 (en) * | 2016-08-30 | 2021-12-14 | Lunit Inc. | Machine learning method and apparatus based on weakly supervised learning |
US10872290B2 (en) | 2017-09-21 | 2020-12-22 | Raytheon Company | Neural network processor with direct memory access and hardware acceleration circuits |
US11468332B2 (en) | 2017-11-13 | 2022-10-11 | Raytheon Company | Deep neural network processor with interleaved backpropagation |
US11836610B2 (en) | 2017-12-13 | 2023-12-05 | Advanced Micro Devices, Inc. | Concurrent training of functional subnetworks of a neural network |
EP3506173A1 (fr) * | 2017-12-29 | 2019-07-03 | Avantix | Système de démodulation aveugle de signaux de télécommunication numérique |
FR3076410B1 (fr) * | 2017-12-29 | 2020-09-11 | Avantix | Systeme de demodulation ou de recherche en aveugle des caracteristiques de signaux de telecommunication numerique |
FR3076413B1 (fr) * | 2017-12-29 | 2021-06-25 | Avantix | Retro-propagation d'erreur pour une chaine de demodulation en aveugle d'un signal de telecommunication |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4727505A (en) * | 1984-03-29 | 1988-02-23 | Kabushiki Kaisha Toshiba | Convolution arithmetic circuit for digital signal processing |
WO1988007234A1 (en) * | 1987-03-12 | 1988-09-22 | Analog Intelligence Corporation | Back propagation system |
FR2625347B1 (fr) * | 1987-12-23 | 1990-05-04 | Labo Electronique Physique | Structure de reseau de neurones et circuit et arrangement de reseaux de neurones |
US4941122A (en) * | 1989-01-12 | 1990-07-10 | Recognition Equipment Incorp. | Neural network image processing system |
-
1988
- 1988-11-25 FR FR8815428A patent/FR2639736B1/fr not_active Expired - Lifetime
-
1989
- 1989-11-23 DE DE68925625T patent/DE68925625T2/de not_active Expired - Fee Related
- 1989-11-23 EP EP89202979A patent/EP0372613B1/fr not_active Expired - Lifetime
- 1989-11-23 KR KR1019890017020A patent/KR900008396A/ko active IP Right Grant
- 1989-11-24 JP JP1303435A patent/JPH02193251A/ja active Pending
-
1993
- 1993-01-28 US US08/275,911 patent/US5517598A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
EP0372613B1 (fr) | 1996-02-07 |
KR900008396A (ko) | 1990-06-04 |
DE68925625D1 (de) | 1996-03-21 |
US5517598A (en) | 1996-05-14 |
FR2639736A1 (fr) | 1990-06-01 |
DE68925625T2 (de) | 1996-09-12 |
EP0372613A1 (fr) | 1990-06-13 |
FR2639736B1 (fr) | 1991-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH02193251A (ja) | エラー後方伝ぱん法と神経網システム | |
US5506998A (en) | Parallel data processing system using a plurality of processing elements to process data and a plurality of trays connected to some of the processing elements to store and transfer data | |
US5600843A (en) | Ring systolic array system for synchronously performing matrix/neuron computation using data transferred through cyclic shift register connected in cascade of trays | |
US5483620A (en) | Learning machine synapse processor system apparatus | |
JP2746350B2 (ja) | 学習機械シナプス・プロセッサ・システム装置 | |
US5479571A (en) | Neural node network and model, and method of teaching same | |
US5517596A (en) | Learning machine synapse processor system apparatus | |
JPH0713949A (ja) | ニューラルネットワークおよびその使用方法 | |
JP2679738B2 (ja) | ニューロコンピュータにおける学習処理方式 | |
JPH04290155A (ja) | 並列データ処理方式 | |
US5293459A (en) | Neural integrated circuit comprising learning means | |
US5167008A (en) | Digital circuitry for approximating sigmoidal response in a neural network layer | |
US5592589A (en) | Tree-like perceptron and a method for parallel distributed training of such perceptrons | |
JPH05282272A (ja) | ニューラルネットワーク並列分散処理装置 | |
JPH06259585A (ja) | ニューラルネットワーク装置 | |
JP2760170B2 (ja) | 学習機械 | |
US5857178A (en) | Neural network apparatus and learning method thereof | |
JPH05346914A (ja) | ニューロプロセッサ | |
JP2001117900A (ja) | ニューラルネットワーク演算装置 | |
Svensson et al. | Execution of neural network algorithms on an array of bit-serial processors | |
US5412754A (en) | Reverse time delay neural network for pattern generation | |
JPH076146A (ja) | 並列データ処理システム | |
JPH04182769A (ja) | デジタル・ニューロプロセッサ | |
JPH05159087A (ja) | ニューロプロセッサ | |
JPH04237388A (ja) | ニューロプロセッサ |