JPH05101028A - 複数特徴量の統合判定方法 - Google Patents
複数特徴量の統合判定方法Info
- Publication number
- JPH05101028A JPH05101028A JP3257919A JP25791991A JPH05101028A JP H05101028 A JPH05101028 A JP H05101028A JP 3257919 A JP3257919 A JP 3257919A JP 25791991 A JP25791991 A JP 25791991A JP H05101028 A JPH05101028 A JP H05101028A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- input
- integrated
- output
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Character Discrimination (AREA)
Abstract
(57)【要約】
【目的】 1つの認識対象に対する複数の特徴量の統合
判定を最適あるいは準最適化する。 【構成】 ある認識対象から抽出した2つの特徴ベクト
ルA、Bをそれぞれニューラルネットワーク11,12
に入力し、その各出力を統合用ニューラルネットワーク
13に入力し、その出力中の最大値となるニューロンに
対応するクラスを認識結果とする。統合用ニューラルネ
ットワーク13も他のニューラルネットワークと同様に
バックプロパゲーション学習によりニューラルネットワ
ーク11,12の各出力の要素間の結合が最適化される
ため高い認識率が得られる。
判定を最適あるいは準最適化する。 【構成】 ある認識対象から抽出した2つの特徴ベクト
ルA、Bをそれぞれニューラルネットワーク11,12
に入力し、その各出力を統合用ニューラルネットワーク
13に入力し、その出力中の最大値となるニューロンに
対応するクラスを認識結果とする。統合用ニューラルネ
ットワーク13も他のニューラルネットワークと同様に
バックプロパゲーション学習によりニューラルネットワ
ーク11,12の各出力の要素間の結合が最適化される
ため高い認識率が得られる。
Description
【0001】
【産業上の利用分野】この発明は、ある認識対象から抽
出した複数の特徴量をそれぞれ各別のニューラルネット
ワークに入力し、これらの出力を統合して認識対象を判
定する統合判定方法に関する。
出した複数の特徴量をそれぞれ各別のニューラルネット
ワークに入力し、これらの出力を統合して認識対象を判
定する統合判定方法に関する。
【0002】
【従来の技術】ある認識対象から抽出した複数の特徴量
を、複数のニューラルネットワークに個別に入力し、こ
れら複数のニューラルネットワークの出力値を統合して
認識対象を判定する統合判定方法に関する従来技術を説
明する。ここでは2つの特徴量を、2つの個別のニュー
ラルネットワークに入力する場合を例にとって説明す
る。
を、複数のニューラルネットワークに個別に入力し、こ
れら複数のニューラルネットワークの出力値を統合して
認識対象を判定する統合判定方法に関する従来技術を説
明する。ここでは2つの特徴量を、2つの個別のニュー
ラルネットワークに入力する場合を例にとって説明す
る。
【0003】また、ニューラルネットワークとして、入
力層、中間層、出力層からなる多層構造型ニューラルネ
ットワークを採用し、これをバックプロパゲーション・
アルゴリズム[参考文献 Rumelhart,D.
E.et al.:Parallel Distrib
uted Processing,Vol.1,MIT
Press(1986)]により学習する場合を例にと
って説明する。
力層、中間層、出力層からなる多層構造型ニューラルネ
ットワークを採用し、これをバックプロパゲーション・
アルゴリズム[参考文献 Rumelhart,D.
E.et al.:Parallel Distrib
uted Processing,Vol.1,MIT
Press(1986)]により学習する場合を例にと
って説明する。
【0004】図4Aは、多層構造型ニューラルネットワ
ークの構成例を示し、1は入力層のニューロンを、2は
中間層のニューロンを、3は出力層のニューロンをそれ
ぞれ示し、入力層と中間層のニューロンは接続線4で接
続され、中間層と出力層のニューロンは接続線5で接続
されている。図4Bは、従来技術で採用している統合判
定方法の構成例を示し、第一の特徴量は第一のニューラ
ルネットワーク6に入力され、第二の特徴量は第二のニ
ューラルネットワーク7に入力され、2つのニューラル
ネットワーク6,7の出力値をもとに、統合的に認識対
象が統合判定部8で判定される。
ークの構成例を示し、1は入力層のニューロンを、2は
中間層のニューロンを、3は出力層のニューロンをそれ
ぞれ示し、入力層と中間層のニューロンは接続線4で接
続され、中間層と出力層のニューロンは接続線5で接続
されている。図4Bは、従来技術で採用している統合判
定方法の構成例を示し、第一の特徴量は第一のニューラ
ルネットワーク6に入力され、第二の特徴量は第二のニ
ューラルネットワーク7に入力され、2つのニューラル
ネットワーク6,7の出力値をもとに、統合的に認識対
象が統合判定部8で判定される。
【0005】従来、複数のニューラルネットワークの出
力値を統合して認識対象を判定する場合、次の2つの方
法が採用されていた。第一は、複数のニューラルネット
ワークの出力値を加算あるいは乗算して、その結果が最
大値となるニューロンに対応するクラスを認識結果とす
る方法である。
力値を統合して認識対象を判定する場合、次の2つの方
法が採用されていた。第一は、複数のニューラルネット
ワークの出力値を加算あるいは乗算して、その結果が最
大値となるニューロンに対応するクラスを認識結果とす
る方法である。
【0006】第二は、個々のニューラルネットワークの
出力値をもとに基本確率を計算し、この基本確率を用い
て、Dempsterの結合アルゴリズムにより認識結
果を得る方法である[参考文献 Shafer,G.:
A Mathematical Theory of
Evidence,Princeton Univer
sity Press(1976)]。
出力値をもとに基本確率を計算し、この基本確率を用い
て、Dempsterの結合アルゴリズムにより認識結
果を得る方法である[参考文献 Shafer,G.:
A Mathematical Theory of
Evidence,Princeton Univer
sity Press(1976)]。
【0007】以下、手書き数字認識を例題として、上記
2つの方法について具体的に説明する。いま、手書き数
字より、横方向濃淡頻度分布と縦方向濃淡頻度分布(手
書き数字を横方向、あるいは縦方向に見たときの黒画素
の数の分布)という2つの特徴量(とくに32次元)を
抽出して、この2つの特徴量を2つの個別のニューラル
ネットワークに入力する。
2つの方法について具体的に説明する。いま、手書き数
字より、横方向濃淡頻度分布と縦方向濃淡頻度分布(手
書き数字を横方向、あるいは縦方向に見たときの黒画素
の数の分布)という2つの特徴量(とくに32次元)を
抽出して、この2つの特徴量を2つの個別のニューラル
ネットワークに入力する。
【0008】ニューラルネットワークの規模は、とも
に、32−10−10(入力層のニューロン数32個、
中間層のニューロン数10個、出力層のニューロン数1
0個)である。次に、各ニューラルネットワークをバッ
クプロパゲーション・アルゴリズムにより独立に学習さ
せた後、2つのニューラルネットワークの出力値を用い
て統合的に判定する。
に、32−10−10(入力層のニューロン数32個、
中間層のニューロン数10個、出力層のニューロン数1
0個)である。次に、各ニューラルネットワークをバッ
クプロパゲーション・アルゴリズムにより独立に学習さ
せた後、2つのニューラルネットワークの出力値を用い
て統合的に判定する。
【0009】例えば、教師信号として、正解クラスに対
応するニューロンには0.90を、その他のニューロン
には0.10を与えて学習させた。750パターンで学
習させた後、ほかの750パターンで未知テストを行わ
せた結果、横方向分布入力では83.20%、縦方向分
布入力では51.33%の認識率だった。2つのニュー
ラルネットワークの出力を用いて、統合的に判定する第
一の方法として、両者の出力値を加算した値が最大とな
るニューロンに対応するクラスを認識結果とする場合を
述べる。
応するニューロンには0.90を、その他のニューロン
には0.10を与えて学習させた。750パターンで学
習させた後、ほかの750パターンで未知テストを行わ
せた結果、横方向分布入力では83.20%、縦方向分
布入力では51.33%の認識率だった。2つのニュー
ラルネットワークの出力を用いて、統合的に判定する第
一の方法として、両者の出力値を加算した値が最大とな
るニューロンに対応するクラスを認識結果とする場合を
述べる。
【0010】ある未知の手書き数字「0」に対応する結
果を図5に示す。横方向分布を入力としたニューラルネ
ットワークの出力値をみると、「8」に対応するニュー
ロンの出力値が最大で、正解の「0」に対応するニュー
ロンの出力値は第2位だった。これに対し、縦方向分布
を入力としたニューラルネットワークの出力値をみる
と、正解の「0」に対応するニューロンの出力値が最大
だった。両方の出力値を加算した結果では、正解の
「0」に対応する値が最大となり正しい認識結果が得ら
れた。未知データ全体の認識率は86.00%と向上し
た。
果を図5に示す。横方向分布を入力としたニューラルネ
ットワークの出力値をみると、「8」に対応するニュー
ロンの出力値が最大で、正解の「0」に対応するニュー
ロンの出力値は第2位だった。これに対し、縦方向分布
を入力としたニューラルネットワークの出力値をみる
と、正解の「0」に対応するニューロンの出力値が最大
だった。両方の出力値を加算した結果では、正解の
「0」に対応する値が最大となり正しい認識結果が得ら
れた。未知データ全体の認識率は86.00%と向上し
た。
【0011】次に、統合的に判定する第二の方法とし
て、ニューラルネットワークの出力値から基本確率を計
算し、得られた2つの基本確率をDempsterの結
合アルゴリズムにより統合して認識結果を得る場合を述
べる。ある未知の手書き数字「0」に対応する結果を図
6に示す。横方向分布を入力としたニューラルネットワ
ークの出力値をもとに計算した基本確率は、「8」に対
応する値が最大の0.365であり、正解の「0」に対
応するニューロンの値は2番目に大きい0.305だっ
た。これに対し、縦方向分布を入力としたニューラルネ
ットワークの出力値をもとに計算した基本確率は、正解
の「0」に対応する値が最大で0.447だった。両方
の基本確率を用いてDempsterの結合アルゴリズ
ムにより求めた確率値は正解の「0」に対応する値が最
大となり正しい認識結果が得られた。未知データ全体の
認識率は86.53%と向上した。
て、ニューラルネットワークの出力値から基本確率を計
算し、得られた2つの基本確率をDempsterの結
合アルゴリズムにより統合して認識結果を得る場合を述
べる。ある未知の手書き数字「0」に対応する結果を図
6に示す。横方向分布を入力としたニューラルネットワ
ークの出力値をもとに計算した基本確率は、「8」に対
応する値が最大の0.365であり、正解の「0」に対
応するニューロンの値は2番目に大きい0.305だっ
た。これに対し、縦方向分布を入力としたニューラルネ
ットワークの出力値をもとに計算した基本確率は、正解
の「0」に対応する値が最大で0.447だった。両方
の基本確率を用いてDempsterの結合アルゴリズ
ムにより求めた確率値は正解の「0」に対応する値が最
大となり正しい認識結果が得られた。未知データ全体の
認識率は86.53%と向上した。
【0012】
【発明が解決しようとする課題】従来技術における統合
判定方法では、複数の特徴量を個別の直接入力とした複
数のニューラルネットワークの出力値を統合する場合、
各出力値を同等に扱うのが一般的である。つまり、例え
ば加算する方法では、どの特徴量を重要視して、大きな
重みを付けて加算したらよいかという工学的な指針を得
ることが難しいために、複数の出力値を同等の重みで加
算する方法が採用されている。
判定方法では、複数の特徴量を個別の直接入力とした複
数のニューラルネットワークの出力値を統合する場合、
各出力値を同等に扱うのが一般的である。つまり、例え
ば加算する方法では、どの特徴量を重要視して、大きな
重みを付けて加算したらよいかという工学的な指針を得
ることが難しいために、複数の出力値を同等の重みで加
算する方法が採用されている。
【0013】従来技術の項で説明した横方向分布や縦方
向分布のように、特徴空間で互いに直交するような特徴
量の場合には、2つの特徴量は、ほぼ同等に有効である
と考えられる。しかし、1つの認識対象が発生する複数
の異種の特徴量(例えば、音声と画像など)を入力とし
て判定する場合には、必ずしもすべての特徴量が認識過
程において、同等に貢献しているとはかぎらない。むし
ろ、認識対象あるいは認識問題の性質に応じて、特に重
要となる特徴量、補助的に必要な特徴量というように分
類されるものと考えられる。
向分布のように、特徴空間で互いに直交するような特徴
量の場合には、2つの特徴量は、ほぼ同等に有効である
と考えられる。しかし、1つの認識対象が発生する複数
の異種の特徴量(例えば、音声と画像など)を入力とし
て判定する場合には、必ずしもすべての特徴量が認識過
程において、同等に貢献しているとはかぎらない。むし
ろ、認識対象あるいは認識問題の性質に応じて、特に重
要となる特徴量、補助的に必要な特徴量というように分
類されるものと考えられる。
【0014】このような特徴量間の重み付けを実現しよ
うとした場合、従来技術では、人間が試行錯誤的に重み
パラメータを決定することになる。この場合、得られた
パラメータ値が最適であるという保証はない。以上説明
したように、従来の統合判定方法では、複数の特徴量を
複数のニューラルネットワークへ個別に入力して、複数
の出力値を合成して統合的にパターン認識をしようとし
たとき、どの特徴量を、より重視して重み付けしたらよ
いかという工学的な指針を得ることが困難なために、同
等に扱う方法が一般的である。このような従来技術で
は、複数の異種の特徴量をもとに統合的に判定するよう
なパターン認識問題では十分な性能を実現できないとい
う問題があった。
うとした場合、従来技術では、人間が試行錯誤的に重み
パラメータを決定することになる。この場合、得られた
パラメータ値が最適であるという保証はない。以上説明
したように、従来の統合判定方法では、複数の特徴量を
複数のニューラルネットワークへ個別に入力して、複数
の出力値を合成して統合的にパターン認識をしようとし
たとき、どの特徴量を、より重視して重み付けしたらよ
いかという工学的な指針を得ることが困難なために、同
等に扱う方法が一般的である。このような従来技術で
は、複数の異種の特徴量をもとに統合的に判定するよう
なパターン認識問題では十分な性能を実現できないとい
う問題があった。
【0015】この発明の目的は、ある認識対象が発生す
る複数の異種の特徴量を合成して統合的にパターン認識
を行う際に、それぞれの特徴量間の重み付けを、工学的
な方法により、最適あるいは準最適に決定することがで
きるような統合判定方法を確立することにある。
る複数の異種の特徴量を合成して統合的にパターン認識
を行う際に、それぞれの特徴量間の重み付けを、工学的
な方法により、最適あるいは準最適に決定することがで
きるような統合判定方法を確立することにある。
【0016】
【課題を解決するための手段】上記目的を達成するため
に、この発明の統合判定方法は、ある認識対象から抽出
した複数の特徴量を直接の入力するニューラルネットワ
ーク群のほかに、統合用ニューラルネットワークを設
け、上記ニューラルネットワーク群の出力を、上記統合
用ニューラルネットワークへの入力とし、その統合用ニ
ューラルネットワークの出力値により認識対象を判定す
る。
に、この発明の統合判定方法は、ある認識対象から抽出
した複数の特徴量を直接の入力するニューラルネットワ
ーク群のほかに、統合用ニューラルネットワークを設
け、上記ニューラルネットワーク群の出力を、上記統合
用ニューラルネットワークへの入力とし、その統合用ニ
ューラルネットワークの出力値により認識対象を判定す
る。
【0017】
【作用】この発明の統合判定方法においては、認識対象
から抽出した複数の特徴量を直接の入力するニューラル
ネットワーク群のほかに、統合用ニューラルネットワー
クを設け、上記ニューラルネットワーク群の出力を、上
記統合用ニューラルネットワークへの入力とし、バック
プロパゲーション・アルゴリズムにより判定メカニズム
を学習させる。この学習により、この発明の統合判定方
法では、ニューラルネットワークと、与えられた学習セ
ットを用いて、統合判定に関して最適あるいは準最適な
機能を有する統合判定部を工学的に実現でき、しかも、
従来技術の統合判定方法よりも優れた判定能力をもつよ
うな統合判定方法を実現できる。
から抽出した複数の特徴量を直接の入力するニューラル
ネットワーク群のほかに、統合用ニューラルネットワー
クを設け、上記ニューラルネットワーク群の出力を、上
記統合用ニューラルネットワークへの入力とし、バック
プロパゲーション・アルゴリズムにより判定メカニズム
を学習させる。この学習により、この発明の統合判定方
法では、ニューラルネットワークと、与えられた学習セ
ットを用いて、統合判定に関して最適あるいは準最適な
機能を有する統合判定部を工学的に実現でき、しかも、
従来技術の統合判定方法よりも優れた判定能力をもつよ
うな統合判定方法を実現できる。
【0018】
【実施例】この発明の実施例について、ある認識対象か
ら抽出した2つの特徴量(特徴ベクトルAと、特徴ベク
トルB)を、2つの個別のニューラルネットワークに入
力する場合を例にとって説明する。分類すべきクラスの
数は10とする。また、第一の特徴量である特徴ベクト
ルAは32次元、第2の特徴量である特徴ベクトルBは
16次元とする。
ら抽出した2つの特徴量(特徴ベクトルAと、特徴ベク
トルB)を、2つの個別のニューラルネットワークに入
力する場合を例にとって説明する。分類すべきクラスの
数は10とする。また、第一の特徴量である特徴ベクト
ルAは32次元、第2の特徴量である特徴ベクトルBは
16次元とする。
【0019】図1にこの発明の統合判定方法を適用した
認識装置の構成例を示す。第一の特徴量である特徴ベク
トルAは第一のニューラルネットワーク11に入力さ
れ、第二の特徴量である特徴ベクトルBは第二のニュー
ラルネットワーク12に入力され、第一、第二のニュー
ラルネットワーク11,12の出力は統合用ニューラル
ネットワーク13に入力される。ニューラルネットワー
クの規模は、特徴ベクトルAを入力するニューラルネッ
トワーク11は32−10−10とし、特徴ベクトルB
を入力するニューラルネットワーク12は16−10−
10とする。また統合用ニューラルネットワーク13は
20−10−10とする。
認識装置の構成例を示す。第一の特徴量である特徴ベク
トルAは第一のニューラルネットワーク11に入力さ
れ、第二の特徴量である特徴ベクトルBは第二のニュー
ラルネットワーク12に入力され、第一、第二のニュー
ラルネットワーク11,12の出力は統合用ニューラル
ネットワーク13に入力される。ニューラルネットワー
クの規模は、特徴ベクトルAを入力するニューラルネッ
トワーク11は32−10−10とし、特徴ベクトルB
を入力するニューラルネットワーク12は16−10−
10とする。また統合用ニューラルネットワーク13は
20−10−10とする。
【0020】図2に、この発明の統合判定方法におい
て、統合用ニューラルネットワーク13の学習方法の実
施例を示す。すなわち第一に、学習データから抽出した
第一の特徴量(特徴ベクトルA)を第一のニューラルネ
ットワーク11への入力とし、バックプロパゲーション
・アルゴリズムにより、分類メカニズムを学習させる
(ステップ110)。教師信号として、正解クラスに対
応するニューロンには0.90を、その他のニューロン
には0.10を与える。
て、統合用ニューラルネットワーク13の学習方法の実
施例を示す。すなわち第一に、学習データから抽出した
第一の特徴量(特徴ベクトルA)を第一のニューラルネ
ットワーク11への入力とし、バックプロパゲーション
・アルゴリズムにより、分類メカニズムを学習させる
(ステップ110)。教師信号として、正解クラスに対
応するニューロンには0.90を、その他のニューロン
には0.10を与える。
【0021】第二に、学習データから抽出した第二の特
徴量(特徴ベクトルB)を第二のニューラルネットワー
ク12への入力とし、バックプロパゲーション・アルゴ
リズムにより、分類メカニズムを学習させる(ステップ
120)。教師信号として、正解クラスに対応するニュ
ーロンには0.90を、その他のニューロンには0.1
0を与える。
徴量(特徴ベクトルB)を第二のニューラルネットワー
ク12への入力とし、バックプロパゲーション・アルゴ
リズムにより、分類メカニズムを学習させる(ステップ
120)。教師信号として、正解クラスに対応するニュ
ーロンには0.90を、その他のニューロンには0.1
0を与える。
【0022】第三に、学習後の、第一のニューラルネッ
トワーク11と、第二のニューラルネットワーク12と
の各出力を統合用ニューラルネットワークへの入力と
し、バックプロパゲーション・アルゴリズムにより、統
合判定メカニズムを学習させる(ステップ130)。教
師信号として、正解クラスに対応するニューロンには
0.90を、その他のニューロンには0.10を与え
る。
トワーク11と、第二のニューラルネットワーク12と
の各出力を統合用ニューラルネットワークへの入力と
し、バックプロパゲーション・アルゴリズムにより、統
合判定メカニズムを学習させる(ステップ130)。教
師信号として、正解クラスに対応するニューロンには
0.90を、その他のニューロンには0.10を与え
る。
【0023】以上の学習操作(ステップ110〜13
0)で、ニューラルネットワーク11,12の各出力の
ニューロン間の結合が統合用ニューラルネットワーク1
3で要素により最適化され、統合判定に関して最適ある
いは準最適な機能を有する統合判定部を、ニューラルネ
ットワークの学習により工学的に実現できることは明ら
かである。
0)で、ニューラルネットワーク11,12の各出力の
ニューロン間の結合が統合用ニューラルネットワーク1
3で要素により最適化され、統合判定に関して最適ある
いは準最適な機能を有する統合判定部を、ニューラルネ
ットワークの学習により工学的に実現できることは明ら
かである。
【0024】図3は、この発明の統合判定方法の実施例
を示す。第一に、入力データから抽出した第一の特徴量
(特徴ベクトルA)を第一のニューラルネットワーク1
1へ入力する(ステップ210)。第二に、入力データ
から抽出した第二の特徴量(特徴ベクトルB)を第二の
ニューラルネットワーク12へ入力する(ステップ22
0)。
を示す。第一に、入力データから抽出した第一の特徴量
(特徴ベクトルA)を第一のニューラルネットワーク1
1へ入力する(ステップ210)。第二に、入力データ
から抽出した第二の特徴量(特徴ベクトルB)を第二の
ニューラルネットワーク12へ入力する(ステップ22
0)。
【0025】第三に、第一のニューラルネットワーク1
1の出力と、第二のニューラルネットワーク12の出力
を、統合用ニューラルネットワーク13へ入力する(ス
テップ230)。第四に、統合用ニューラルネットワー
ク13の出力の中で最大の値となるニューロンに対応す
るクラスを認識結果とする(ステップ240)。
1の出力と、第二のニューラルネットワーク12の出力
を、統合用ニューラルネットワーク13へ入力する(ス
テップ230)。第四に、統合用ニューラルネットワー
ク13の出力の中で最大の値となるニューロンに対応す
るクラスを認識結果とする(ステップ240)。
【0026】以上の操作(ステップ210〜240)
で、複数の特徴量を入力としたときの複数のニューラル
ネットワークの出力を用いた統合判定処理を、最適ある
いは準最適に実現できることは明らかである。以上の説
明では、統合用ニューラルネットワーク13への教師信
号として、正解クラスに対応するニューロンには0.9
0、その他のニューロンには0.10というように、断
定的な値を与える場合を例にとって説明したが、所定の
範囲で最大と最小の実数値を決めたとき、正解クラスの
ニューロンには最大の実数値を、その他のニューロンに
は最小値以上、最大値未満の値を与える(ニューロンに
よって異なってもよい)場合にも適用できることは明ら
かである。つまり正解クラス以外のニューロンに最大値
と最小値との中間値を与えた方がよい場合がある。
で、複数の特徴量を入力としたときの複数のニューラル
ネットワークの出力を用いた統合判定処理を、最適ある
いは準最適に実現できることは明らかである。以上の説
明では、統合用ニューラルネットワーク13への教師信
号として、正解クラスに対応するニューロンには0.9
0、その他のニューロンには0.10というように、断
定的な値を与える場合を例にとって説明したが、所定の
範囲で最大と最小の実数値を決めたとき、正解クラスの
ニューロンには最大の実数値を、その他のニューロンに
は最小値以上、最大値未満の値を与える(ニューロンに
よって異なってもよい)場合にも適用できることは明ら
かである。つまり正解クラス以外のニューロンに最大値
と最小値との中間値を与えた方がよい場合がある。
【0027】
【発明の効果】以上説明したように、この発明では、複
数のニューラルネットワークを用いた統合判定方法にお
いて、ある認識対象から抽出した複数の特徴量を直接の
入力するニューラルネットワーク群のほかに、統合用ニ
ューラルネットワークを設け、ニューラルネットワーク
群の出力を、統合用ニューラルネットワークへの入力と
し、バックプロパゲーション・アルゴリズムにより判定
メカニズムを学習させる。従って、この発明の統合判定
方法では、ニューラルネットワークと、与えられた学習
セットを用いて、学習により統合判定に関して最適ある
いは準最適な機能を有する統合判定部を工学的に実現で
き、しかも、従来技術の統合判定方法よりも優れた判定
能力をもつような統合判定方法を実現できる。
数のニューラルネットワークを用いた統合判定方法にお
いて、ある認識対象から抽出した複数の特徴量を直接の
入力するニューラルネットワーク群のほかに、統合用ニ
ューラルネットワークを設け、ニューラルネットワーク
群の出力を、統合用ニューラルネットワークへの入力と
し、バックプロパゲーション・アルゴリズムにより判定
メカニズムを学習させる。従って、この発明の統合判定
方法では、ニューラルネットワークと、与えられた学習
セットを用いて、学習により統合判定に関して最適ある
いは準最適な機能を有する統合判定部を工学的に実現で
き、しかも、従来技術の統合判定方法よりも優れた判定
能力をもつような統合判定方法を実現できる。
【図1】この発明方法を適用した認識装置を示すブロッ
ク図。
ク図。
【図2】図1のニューラルネットワークの学習方法の実
施例を示す流れ図。
施例を示す流れ図。
【図3】図1の統合判定方法の実施例を示す流れ図。
【図4】Aは多層構造型ニューラルネットワークを示す
図、Bは従来の複数特徴量の統合判定方法を示すブロッ
ク図である。
図、Bは従来の複数特徴量の統合判定方法を示すブロッ
ク図である。
【図5】従来の統合判定処理の具体例を示す図。
【図6】従来の統合判定処理の他の具体例を示す図。
Claims (1)
- 【請求項1】 ある認識対象から抽出した複数の特徴量
を、複数のニューラルネットワークに個別に入力し、こ
れら複数のニューラルネットワークの出力値を統合して
認識対象を判定する統合判定方法において、 上記複数のニューラルネットワークの出力を、統合用ニ
ューラルネットワークへの入力とし、その統合用ニュー
ラルネットワークの出力値により認識対象を判定するこ
とを特徴とする複数特徴量の統合判定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3257919A JPH05101028A (ja) | 1991-10-04 | 1991-10-04 | 複数特徴量の統合判定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3257919A JPH05101028A (ja) | 1991-10-04 | 1991-10-04 | 複数特徴量の統合判定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH05101028A true JPH05101028A (ja) | 1993-04-23 |
Family
ID=17313018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3257919A Pending JPH05101028A (ja) | 1991-10-04 | 1991-10-04 | 複数特徴量の統合判定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH05101028A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003500766A (ja) * | 1999-05-25 | 2003-01-07 | スティーヴン ディー. バーンヒル、 | 複数支援ベクトルマシンを使用した複数データセットからの知識発見の増強 |
JP2004536367A (ja) * | 2001-01-23 | 2004-12-02 | バイオウルフ テクノロジーズ エルエルスィー | コンピュータ利用画像分析 |
WO2006078015A1 (ja) * | 2005-01-24 | 2006-07-27 | National University Corporation Yokohama National University | カテゴリカル色知覚システム |
US7383237B2 (en) | 1998-05-01 | 2008-06-03 | Health Discovery Corporation | Computer-aided image analysis |
JP2019079536A (ja) * | 2017-10-23 | 2019-05-23 | 大国創新智能科技(東莞)有限公司 | 連合クラスタリング深層学習ニューラルネットワークに基づくデータ識別方法 |
WO2019176478A1 (ja) * | 2018-03-15 | 2019-09-19 | オムロン株式会社 | ロボットの動作制御装置 |
WO2020218512A1 (ja) * | 2019-04-26 | 2020-10-29 | Arithmer株式会社 | 学習モデル生成装置、文字認識装置、学習モデル生成方法、文字認識方法、及びプログラム |
JP2021501414A (ja) * | 2017-11-01 | 2021-01-14 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 欺瞞勾配の使用を介した、勾配ベースの攻撃からの認知システムの保護 |
-
1991
- 1991-10-04 JP JP3257919A patent/JPH05101028A/ja active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7383237B2 (en) | 1998-05-01 | 2008-06-03 | Health Discovery Corporation | Computer-aided image analysis |
JP2003500766A (ja) * | 1999-05-25 | 2003-01-07 | スティーヴン ディー. バーンヒル、 | 複数支援ベクトルマシンを使用した複数データセットからの知識発見の増強 |
JP2004536367A (ja) * | 2001-01-23 | 2004-12-02 | バイオウルフ テクノロジーズ エルエルスィー | コンピュータ利用画像分析 |
WO2006078015A1 (ja) * | 2005-01-24 | 2006-07-27 | National University Corporation Yokohama National University | カテゴリカル色知覚システム |
JP2019079536A (ja) * | 2017-10-23 | 2019-05-23 | 大国創新智能科技(東莞)有限公司 | 連合クラスタリング深層学習ニューラルネットワークに基づくデータ識別方法 |
JP2021501414A (ja) * | 2017-11-01 | 2021-01-14 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 欺瞞勾配の使用を介した、勾配ベースの攻撃からの認知システムの保護 |
WO2019176478A1 (ja) * | 2018-03-15 | 2019-09-19 | オムロン株式会社 | ロボットの動作制御装置 |
JP2019155561A (ja) * | 2018-03-15 | 2019-09-19 | オムロン株式会社 | ロボットの動作制御装置 |
US11478926B2 (en) | 2018-03-15 | 2022-10-25 | Omron Corporation | Operation control device for robot, robot control system, operation control method, control device, processing device and recording medium |
WO2020218512A1 (ja) * | 2019-04-26 | 2020-10-29 | Arithmer株式会社 | 学習モデル生成装置、文字認識装置、学習モデル生成方法、文字認識方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang | On competitive learning | |
CN112784964A (zh) | 基于桥接知识蒸馏卷积神经网络的图像分类方法 | |
JPS6355106B2 (ja) | ||
JPH04229384A (ja) | パターン認識用ニューラルネットワーク装置及び方法 | |
JPH05101028A (ja) | 複数特徴量の統合判定方法 | |
EP0450522A2 (en) | A learning method for a data processing system | |
JPH07282168A (ja) | カオスリカレント神経回路網とその学習方法 | |
US5966701A (en) | Recognition and judgement apparatus having various learning functions | |
JPH07141313A (ja) | 神経回路素子 | |
US5490236A (en) | Method of assigning initial values of connection parameters to a multilayered neural network | |
JP3222699B2 (ja) | パターン認識装置 | |
EP0453939B1 (en) | Learning method for data processing system | |
Aguilar | Learning algorithm and retrieval process for the multiple classes random neural network model | |
EP0450521B1 (en) | A learning method for a data processing system | |
JP2000172662A (ja) | ニューラルネットワークの学習方法 | |
JP2863072B2 (ja) | 画像階調変換方法及び画像処理装置 | |
JP3262340B2 (ja) | 情報処理装置 | |
JP3337597B2 (ja) | 学習型認識判断装置 | |
JPH0535710A (ja) | ニユーラルネツトワークの学習方法および学習装置 | |
JP3303253B2 (ja) | パターンマッチング方法および装置 | |
JPH05314090A (ja) | ニューラルネットを用いたパターン認識方法およびその装置 | |
JPH0492955A (ja) | ニューラルネットワークの学習方式 | |
JP3027874B2 (ja) | 神経回路網及びそのパターン認識装置 | |
Nikravesh et al. | Process control of nonlinear time variant processes via artificial neural network | |
JP3344873B2 (ja) | 学習型認識判断装置 |