JP2012118668A - パターン分類装置の学習装置及びそのためのコンピュータプログラム - Google Patents
パターン分類装置の学習装置及びそのためのコンピュータプログラム Download PDFInfo
- Publication number
- JP2012118668A JP2012118668A JP2010266448A JP2010266448A JP2012118668A JP 2012118668 A JP2012118668 A JP 2012118668A JP 2010266448 A JP2010266448 A JP 2010266448A JP 2010266448 A JP2010266448 A JP 2010266448A JP 2012118668 A JP2012118668 A JP 2012118668A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- pattern
- coefficient vector
- prototype
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【解決手段】学習装置42は,学習パターン集合を記憶する記憶装置64と,各クラスに対し定義される判別関数を,学習パターンにより学習する学習装置66とを含む.判別関数は,入力パターンと,複数個のプロトタイプとの間のカーネル演算の線形和により表される.カーネルは,入力パターンの空間より高次元の空間に入力パターンを変換する特徴変換を定めたときに,変換後の入力パターンと,変換後のプロトタイプとの間の内積により定義され,プロトタイプ相互間でのカーネル演算により構成されるグラム行列が正定値行列となる.学習装置は,高次元空間において学習パターンと係数ベクトル集合との関数として定義される平均分類誤り数損失が最小となるよう係数ベクトルを調整する.
【選択図】図3
Description
[1 分類器構造]
図1を参照して,入力パターン(観測値)ベクトルx∈Χ(図1に示す全入力パターン空間20)をJ個のクラス(類)C1,C2,…,CJ(図1におけるクラス22,24,…,26及び28)のいずれか一つに割当てる分類問題を考える.以下の説明では,説明を簡略にするために,入力パターンベクトルを単に「入力パターン」と呼び,同様の考えで「学習パターンベクトル」を「学習パターン」と呼ぶ.
(2.1 特徴空間における大幾何マージン最小分類誤り学習の概略)
式(1)は,次式のようにM次ベクトルの内積形式で書き表すことができる.
そこで,各学習パターンxに対して,幾何マージンrの符号を反転させた
2.2.1 システム構成
図3を参照して,本実施の形態に係るシステム40は,入力音声46が,予め知られている複数の話者のうちの誰かを識別するためのものである.このシステム40は,話者識別のための判別関数を以下に説明する手順にしたがって学習する判別関数学習装置42と,判別関数学習装置42により学習された判別関数を何らかの形で話者判別装置48に伝達する判別関数伝達媒体44と,判別関数伝達媒体44により伝達された判別関数を用い,入力音声46の話者識別を行ない,話者判別結果50を出力する話者判別装置48とを含む.一般的に,判別関数学習装置42と話者判別装置48とは別々の装置である.すなわち,判別関数学習装置42で学習された判別関数は,ハードディスク,半導体メモリ等の記憶媒体,通信媒体を介して話者判別装置48に配布される.したがって話者判別装置48は判別関数学習装置42と同じ場所にあることは必ずしも想定されていない.
図4及び図5を参照して,本実施の形態に係る学習を実現するためのプログラムは,以下の各ステップを有する.
1.(ステップ110)
正定値カーネルK(・,・)を用意する.
2.(ステップ112)
プロトタイプ集合{pm}M m=1を用意する.プロトタイプ集合は予め準備しておくこともできるが,本実施の形態では,学習パターン集合{xn}N n=1をクラスタリングすることによりプロトタイプ集合を求める.
3.(ステップ114及び116)
各クラスCjに対して,M次係数ベクトルτ(0) jを初期化する(j=1,2,…,J).
4.(ステップ118)
係数ベクトルτの適応的学習を通じた繰返回数を示す繰返制御変数tをt=0に初期化する.同様に,全学習パターンを用いた繰返しの数を示すエポック回数を示す変数eの上限値Eを設定する.
5.(ステップ120)
係数ベクトルτについての適応的学習を行なう.この詳細については図5を参照して後述する.ステップ120の処理の結果,各クラスCj(j=1,2,…,J)の各々について,判別関数gj(x)を構成するために必要な係数ベクトルτj(j=1,2,…,J)を得ることができる.
6.(ステップ122及び124)
ステップ120の処理により最終的に得られた係数ベクトルτj(j=1,2,…,J)から,次式に従ってクラスCj(j=1,2,…,J)の判別関数を構成する.
ステップ122及び124の処理で得られた各クラスの判別関数gj(x)(j=1,2,…,J)を所定の記憶装置に記憶して処理を終了する.
図5を参照して,図4に示すステップ120の係数ベクトルτの適応的学習処理は以下のステップを含む.
すなわち,係数ベクトルτの適応的学習処理では,エポック変数e=0,1,…,Eに対して以下の処理152を繰返す(ステップ150).
処理152は,全学習パターンに対して以下の処理162を繰返すステップ160と,ステップ160の処理が終了したのち,学習パターン集合ΩNにおける学習パターンの並び順をシャッフルするステップ164とを含む.
処理162は以下のサブステップを含む.
(a)(サブステップ170)
学習パターン集合ΩNから,1個の学習パターン(xn,yn)を取り出す.
(b)(サブステップ172)
式(7)に従い,M次ベクトルk(xn)を構成する.
(c)(サブステップ174及び176)
各クラスCj(j=1,2,…,J)に対して,判別関数値gjを以下の式に従い計算する(j=1,2,…,J).
t=t+1と更新して,対象となっている学習パターンに対する処理を終了する.
以上のような制御構造を有するコンピュータプログラムをコンピュータで実行させることにより,第1の実施の形態に係る判別関数の学習が完了する.
本実施の形態では,上記コンピュータプログラムのステップ114及び116における初期化手法として,公知の多クラスサポートベクターマシーン(以下「MSVM」と略記)を採用する.他手法も可能であり,それらについては変形例として後述する.
2.3.1 サポートパターンのみをプロトタイプとする方法
前記したMSVMでは,式(20)の凸最適化問題を解いて得られる係数ベクトル集合{〜τn}N n=1に含まれる係数ベクトルが,いくつかの(しばしば多くの)nに対して零ベクトル(又は零ベクトルに近いベクトル)となる.これは対応する学習パターンxnが分類境界から遠く離れた正解クラスの領域に存在していることを意味しており,そのような学習パターンは分類境界の形成に対して貢献度が低いと考えられる.零ベクトルに近くない〜τnに対応する学習パターンxnはサポートパターン又はサポートベクターとよばれる.よって,すべてのサポートパターンの集合をプロトタイプ集合{pm}M m=1として,式(1)の判別関数を構成してもよい.この場合,Mはサポートパターンの総数となる.具体的には,係数ベクトルのノルムの絶対値があるしきい値以上となる学習パターンのみを用いればよい.
2.3.2 プロトタイプ集合を学習パターン集合としたMSVM法
この初期化手法の実装には,まず学習パターン集合{xn}N n=1を所属クラス毎にクラスタリングしてプロトタイプ集合{pm}M m=1を得て(クラス毎のクラスタリングであるため各pmにはその所属するクラス番号ymが付与されている.),そして式(19),(20),(22)及び(23)において,{xn}N n=1を{pm}M m=1に,{yn}N n=1を{ym}M m=1に,NをMに,それぞれ置き換えるだけで良い.こうして得られる判別関数である式(23)が本実施の形態で採用する式(1)と同型となる.クラスタリングの手法は問わないが,例えばK−means法を用いる場合の手法は非特許文献2で提案されている(ただし非特許文献2は2クラス分類を対象としたSVMを扱っている).
本実施の形態で採用する判別関数である式(1)は,前記MSVMの定式化と同じように,高次元空間Hへの特徴変換写像φ(・)を使って次式のような空間H上の線形判別関数の形式で書き表すこともできる.
(3.1 混合ガウスモデル及び動径基底関数ネットワークによる初期化)
カーネルとして式(3)のガウス関数を用いた場合,上記実施の形態における判別関数である式(1)は,パラメータの集合{τm,j}M m=1 J j=1とプロトタイプ集合{pm}M m=1とを適当に定めることにより,混合ガウスモデル(Gaussian Mixture Model:GMM)又は動径基底関数(Radial Basic Function:RBF)ネットワーク(C. M. Bishop(元田浩,栗田多喜夫,樋口知之,松本裕治,村田昇監訳),パターン認識と機械学習,シュプリンガー・ジャパン,東京,2007.)と同じ形をしていることがわかる.従来,GMMに関しては,最尤推定法又は初期のMCE学習法によりパラメータ推定が行なわれていた.RBFネットワークに関しては,最小2乗法又は初期のMCE学習法により学習がなされていた.
2.2.2において開示したアルゴリズムのステップ114及び116における初期化において,係数の集合{τ(0) m,j}M m=1 J j=1の中の係数ベクトルのいくつかが(しばしば多くが)0(又は0に近い値)となる.本実施の形態では,図4及び図5に示すコンピュータプログラムにおいて,そのようなパラメータを0に固定するような修正を施してもよい.
2.2.2において開示したアルゴリズムは,係数ベクトル集合{τj}J j=1の調整による式(13)の幾何マージンの増大化を行なう.しかし,本発明はそのような実施の形態には限定されない.例えば,係数ベクトル集合{αj}J j=1の調整による式(12)の増大化を行なってもよい.その際に大幾何マージンMCE学習で用いられる誤分類測度は
2.2.2において開示した制御構造を持つコンピュータプログラムは,式(1)の判別関数におけるパラメータの集合{τm,j}M m=1 J j=1のみを調整する.しかし,本発明はそのような実施の形態には限定されない.例えば,この係数のみならず,プロトタイプ集合{pm}M m=1をも大幾何マージンMCE学習法に基づいて調整しても良い.こうすることで,幾何マージン増大化及び分類誤り確率最小化の目的に対して最適なプロトタイプを自動的に学習することが可能となり,分類器の分類精度が更に向上する.
図6を参照して,この発明の第2の実施の形態を実現するためのコンピュータプログラムは以下のような制御構造を有する.
1.(ステップ110)
正定値カーネルK(・,・)を用意する.
2.(ステップ112)
プロトタイプ集合{pm}M m=1を用意する.必要ならば,学習パターン集合{xn}N n=1をクラスタリングすることによりプロトタイプ集合を求める.
3.(ステップ210)
式(2)に従ってグラム行列Kを構成し,更に式(8)のコレスキー分解を行ない,下三角行列Lを得る.
4.(ステップ114及び116)
各クラスCjに対して,M次係数ベクトルτ(0) jを初期化する(j=1,…,J).
5.(ステップ212及び214)
各クラスCjに対して,M次係数ベクトルα(0) jをα(0) j=LTτ(0) jにより計算する(j=1,…,J).
6.(ステップ118)
繰返番号を表す変数tを0に設定する.またエポック回数eの上限値Eを設定する.
7.(ステップ220)
e=0,1,…,Eに対して,係数ベクトルαの適応的学習処理を実行する.この処理の詳細については図7を参照して後述する.
8.(ステップ222及び224)
最終的に得られた係数ベクトルαjから,次式に従ってクラスCjの判別関数gj(x;Λ)を構成する(j=1,…,J).
このようにして各クラスCjに関する判別関数gj(x)が得られたら,それらを所定の記憶装置に記憶して処理を終了する.
図7を参照して.図6のステップ220で行なわれるαjに関する適応的学習処理を実現するプログラムは,以下のような制御構造を持つ.
この処理は,e=0,1,…,Eに対して以下の処理252を実行するステップ250を含む.
処理252は,学習パターン集合{xn}N n=1の全ての要素に対して以下の処理262を実行するステップ260と,ステップ260の処理が完了した後,学習パターン集合ΩN内の学習パターンの並び順をシャッフルするステップ264とを含む.
処理262は,以下のサブステップを含む.
(a)(サブステップ170)
学習パターン集合ΩNから,1個の学習パターン{xn,yn}を取り出す.
(b)(サブステップ172)
式(7)に従い,M次ベクトルk(xn)を構成する.
(c)(サブステップ270)
連立1次方程式:Lβ=k(xn)をβについて解き,解βnを得る.
(d)(サブステップ272及び274)
各クラスCjに対して,判別関数値gjをgj={α(t) j}Tβnにしたがい計算する(j=1,…,J).
(e)(サブステップ178)
学習パターンxnに対するbest-incorrectクラスCinをgin=maxJ j,j≠yngjに従って求める.
(f)(サブステップ180)
dyn=−gyn+ginを計算する.
(g)(サブステップ182)
幾何マージン型誤分類測度値を次式に従って計算する.
例えば式(3)のガウシアンカーネルを用いた場合の学習アルゴリズムは,ここに説明する第3の実施の形態のアルゴリズムとなる.以下,図8及び図9を参照してこのアルゴリズムを実現するコンピュータプログラムの制御構造について説明する.
1.(ステップ110)
式(3)のガウシアンカーネルK(・,・)を用意する.
2.(ステップ112)
プロトタイプ集合{p(0) m}M m=1を用意する.必要ならば,学習パターン集合{xn}N n=1をクラスタリングすることによりプロトタイプ集合を求める.
3.(ステップ114及び116)
各クラスCjに対して,M次係数ベクトルτ(0) jを初期化する(j=1,…,J).
4.(ステップ118)
繰返番号を表す変数tを0に設定する.またエポック回数eの上限値Eを設定する.
5.(ステップ300)
e=0,1,…,Eに対して,係数ベクトルτとpmの適応的学習処理を実行する.この処理の詳細については図9を参照して後述する.
6.(ステップ302及び304)
最終的に得られた係数ベクトル集合{τj}J j=1及びプロトタイプ集合{pm}M m=1から,次式に従ってクラスCjの判別関数gj(x)を構成する(j=1,…,J).
このようにして各クラスCjに関する判別関数gj(x)が得られたら,それらを所定の記憶装置に記憶して処理を終了する.
この処理は,e=0,1,…,Eに対して以下の処理312を実行するステップ310を含む.
処理312は,学習パターン集合{xn}N n=1の全ての要素に対して以下の処理322を実行するステップ320と,ステップ320の処理が完了した後,学習パターン集合ΩN内の学習パターンの並び順をシャッフルするステップ324とを含む.
処理322は,以下のサブステップを含む.
(a)(サブステップ170)
学習パターン集合ΩNから,1個の学習パターン{xn,yn}を取り出す.
(b)(サブステップ330)
式(7)に従い,M次ベクトルk(t)(xn)を構成する.
(c)(サブステップ332及び334)
各クラスCjに対して,判別関数値gjをgj={τ(t) j}Tk(t)(xn)にしたがい計算する(j=1,…,J).
(d)(サブステップ178)
学習パターンxnに対するbest-incorrectクラスCinをgin=maxJ j,j≠yngjにより求める.
(e)(サブステップ180)
dyn=−gyn+ginを計算する.
(f)(サブステップ336)
幾何マージン型誤分類測度値を次式に従って計算する.
上述の実施の形態は,コンピュータシステムと,コンピュータシステム上で動作するコンピュータプログラムとによって実現されうる.図10はこの実施の形態で用いられるコンピュータシステム530の外観を示し,図11はコンピュータシステム530のブロック図である.ここに示すコンピュータシステム530は単なる例示であって,他の構成も利用可能である.
22,24,26,28 クラス
32 写像先のM次元空間
34 非常に高い次元の空間
40 話者識別のためのシステム
42 判別関数学習装置
44 判別関数伝達媒体
46 入力音声
48 話者判別装置
50 話者判別結果
60 学習発話データを記憶する第1の記憶装置
62,82 特徴量抽出部
64 第2の記憶装置
66 学習装置
80 判別関数記憶部
84 話者判別部
Claims (11)
- 複数個のクラスのいずれかに入力パターンを分類するためのパターン分類装置の学習装置であって,
所定の物理量の観測データから得られるベクトルと,当該ベクトルが属するクラスのラベルとからなる学習パターンを要素とする学習パターン集合を記憶するための記憶手段と,
前記複数個のクラスに対しそれぞれ定義される,入力パターンが当該クラスに属する度合いを測る判別関数を,前記記憶手段に記憶された学習パターン集合に含まれる学習パターンを学習データとして学習するための学習手段とを含み,
前記判別関数は,入力パターンと,前記複数個のクラスにそれぞれ対応する,前記学習パターン集合から得られる複数個のプロトタイプとの間のカーネル演算の線形和により表される関数であり,
前記複数個のプロトタイプはプロトタイプ集合を形成し,
当該カーネル演算は,入力パターンの空間より高次元の空間に入力パターンを変換する特徴変換を定めたときに,当該特徴変換による変換後の入力パターンと,当該特徴変換による変換後のプロトタイプとの間の内積により定義され,かつ,当該カーネル演算は,前記プロトタイプ集合内に含まれるプロトタイプ相互間でのカーネル演算により構成されるグラム行列が,どんな個数のどんなプロトタイプに対しても常に正定値行列となるカーネル演算であり,
前記複数個のクラスの各々に対して,前記線形和の各プロトタイプに対応するカーネルの係数は係数ベクトルを形成し,
前記複数個のクラスの各々に対して形成される係数ベクトルは係数ベクトル集合を形成し,
前記学習手段は,前記高次元の空間において,前記学習パターンと前記係数ベクトル集合との関数として定義される平均分類誤り数損失が最小となるように前記係数ベクトル集合に含まれる係数ベクトルを調整する,パターン分類装置の学習装置. - 前記観測データであるベクトルをクラスタリングすることにより,前記複数個のプロトタイプを算出するためのクラスタリング手段をさらに含む,請求項1に記載のパターン分類装置の学習装置.
- 前記学習手段は,
前記係数ベクトル集合に含まれる係数ベクトルの各々を所定の初期化方法により初期化するための初期化手段と,
前記学習パターン集合に含まれる学習パターンから1個を抽出するための学習パターン抽出手段と,
前記学習パターン抽出手段により学習パターンが抽出されたことに応答して,前記係数ベクトル集合に含まれる係数ベクトルを,前記平均分類誤り数損失が最小となるように調整するための係数ベクトル調整手段と,
前記学習パターン抽出手段による学習パターンの抽出と,前記係数ベクトル調整手段による係数ベクトルの調整とを,前記学習パターン集合内の全学習パターンが前記学習パターン抽出手段により抽出されるまで,繰返し実行させるための第1の繰返し制御手段とを含む,請求項1に記載のパターン分類装置の学習装置. - 前記学習手段はさらに,
前記第1の繰返し制御手段による繰返しが終了するごとに,前記学習パターン集合内の学習パターンの並びをシャッフルするためのシャッフル手段と,
前記シャッフル手段によるシャッフルが完了したことに応答して,前記第1の繰返し制御手段による繰返しを再開させるための第2の繰返し制御手段と,
前記第2の繰返し制御手段による繰返しが所定の回数だけ完了したときに,前記第2の繰返し制御手段による繰返しを停止させるための停止手段とを含む,請求項3に記載のパターン分類装置の学習装置. - 前記学習装置はさらに,前記初期化手段により得られた係数ベクトルの成分のうち,絶対値が所定のしきい値より小さな成分をゼロに固定するための手段を含む,請求項3に記載のパターン分類装置の学習装置.
- 前記プロトタイプ集合は前記学習パターン集合であり,
前記初期化手段は,
前記学習パターン集合に含まれる学習パターンを前記複数個のクラスに分類するための,学習パターンに対する所定の変換後のベクトルの線形和の係数ベクトルを,多クラスサポートベクターマシーンの学習により最適化するためのSVM学習手段と,
前記SVM学習手段により前記学習パターン集合に対して最適化された係数ベクトルを,前記線形和の各プロトタイプに対応するカーネルの係数からなる係数ベクトルの初期値として設定するための初期値設定手段とを含む,請求項3に記載のパターン分類装置の学習装置. - 前記初期化手段はさらに,前記SVM学習手段により最適化された係数ベクトルに対応する学習パターンのうち,係数ベクトルが零ベクトルと所定の値以上異なるサポートベクトルのみをプロトタイプとして選択し,前記判別関数を構成するためのプロトタイプ選択手段を含む,請求項6に記載のパターン分類の学習装置.
- 前記初期化手段は,前記学習パターン集合及び前記プロトタイプ集合とに適合するように予め学習がされていた混合ガウスモデル又は動径基底関数の係数ベクトルを,前記係数ベクトル集合の初期値として設定するための手段を含む,請求項3に記載のパターン分類の学習装置.
- 前記学習手段は,
前記係数ベクトル集合に含まれる係数ベクトルの各々を所定の初期化方法により初期化するための初期化手段と,
前記学習パターン集合に含まれる学習パターンから1個を抽出するための学習パターン抽出手段と,
前記学習パターン抽出手段により学習パターンが抽出されたことに応答して,前記係数ベクトル集合に含まれる係数ベクトルと,前記プロトタイプ集合に含まれるプロトタイプとを,前記平均分類誤り数損失が最小となるように調整するためのパラメータ調整手段と,
前記学習パターン抽出手段による学習パターンの抽出と,前記パラメータ調整手段による係数ベクトル及びプロトタイプの調整とを,前記学習パターン集合内の全学習パターンが前記学習パターン抽出手段により抽出されるまで,繰返し実行させるための第1の繰返し制御手段とを含む,請求項1に記載のパターン分類装置の学習装置. - 前記学習手段はさらに,
前記第1の繰返し制御手段による繰返しが終了するごとに,前記学習パターン集合内の学習パターンの並びをシャッフルするためのシャッフル手段と,
前記シャッフル手段によるシャッフルが完了したことに応答して,前記第1の繰返し制御手段による繰返しを再開させるための第2の繰返し制御手段と,
前記第2の繰返し制御手段による繰返しが所定の回数だけ完了したときに,前記第2の繰返し制御手段による繰返しを停止させるための停止手段とを含む,請求項9に記載のパターン分類装置の学習装置. - コンピュータを,複数個のクラスのいずれかに入力パターンを分類するためのパターン分類装置の学習装置として機能させるコンピュータプログラムであって,当該コンピュータプログラムは,コンピュータを,
所定の物理量の観測データから得られるベクトルと,当該ベクトルが属するクラスのラベルとからなる学習パターンを要素とする学習パターン集合を記憶するための記憶手段と,
前記複数個のクラスに対しそれぞれ定義される,入力パターンが当該クラスに属する度合いを測る判別関数を,前記記憶手段に記憶された学習パターン集合に含まれる学習パターンを学習データとして学習するための学習手段として機能させ,
前記判別関数は,入力パターンと,前記複数個のクラスにそれぞれ対応する,前記学習パターン集合から得られる複数個のプロトタイプとの間のカーネル演算の線形和により表される関数であり,
前記複数個のプロトタイプはプロトタイプ集合を形成し,
当該カーネル演算は,入力パターンの空間より高次元の空間に入力パターンを変換する特徴変換を定めたときに,当該特徴変換による変換後の入力パターンと,当該特徴変換による変換後のプロトタイプとの間の内積により定義され,かつ,当該カーネル演算は,前記プロトタイプ集合内に含まれるプロトタイプ相互間でのカーネル演算により構成されるグラム行列が,どんな個数のどんなプロトタイプに対しても常に正定値行列となるカーネル演算であり,
前記複数個のクラスの各々に対して,前記線形和の各プロトタイプに対応するカーネルの係数は係数ベクトルを形成し,
前記複数個のクラスの各々に対して形成される係数ベクトルは係数ベクトル集合を形成し,
前記学習手段は,前記高次元の空間において,前記学習パターンと前記係数ベクトル集合との関数として定義される平均分類誤り数損失が最小となるように前記係数ベクトル集合に含まれる係数ベクトルを調整する,コンピュータプログラム.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010266448A JP5704692B2 (ja) | 2010-11-30 | 2010-11-30 | パターン分類装置の学習装置及びそのためのコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010266448A JP5704692B2 (ja) | 2010-11-30 | 2010-11-30 | パターン分類装置の学習装置及びそのためのコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012118668A true JP2012118668A (ja) | 2012-06-21 |
JP5704692B2 JP5704692B2 (ja) | 2015-04-22 |
Family
ID=46501438
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010266448A Active JP5704692B2 (ja) | 2010-11-30 | 2010-11-30 | パターン分類装置の学習装置及びそのためのコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5704692B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106104673A (zh) * | 2014-03-07 | 2016-11-09 | 微软技术许可有限责任公司 | 深度神经网络的低资源占用适配和个性化 |
CN106133826A (zh) * | 2014-03-27 | 2016-11-16 | 微软技术许可有限责任公司 | 用于语言模型自定义的灵活模式 |
CN109165474A (zh) * | 2018-10-13 | 2019-01-08 | 国网山东省电力公司电力科学研究院 | 一种基于神经网络的逆变器重复控制设计方法 |
US10304448B2 (en) | 2013-06-21 | 2019-05-28 | Microsoft Technology Licensing, Llc | Environmentally aware dialog policies and response generation |
KR20200015956A (ko) * | 2018-07-19 | 2020-02-14 | 한국생산기술연구원 | 머신러닝 기반 영상 내의 대상 카운팅 장치 및 방법 |
US10572602B2 (en) | 2013-06-21 | 2020-02-25 | Microsoft Technology Licensing, Llc | Building conversational understanding systems using a toolset |
WO2023281717A1 (ja) * | 2021-07-08 | 2023-01-12 | 日本電信電話株式会社 | 話者ダイアライゼーション方法、話者ダイアライゼーション装置および話者ダイアライゼーションプログラム |
-
2010
- 2010-11-30 JP JP2010266448A patent/JP5704692B2/ja active Active
Non-Patent Citations (6)
Title |
---|
CSNG199900178005; 浦田穣司,他2名: 'Kohonen mapによる音韻認識に及ぼす情報フィードバックの効果' 電子情報通信学会技術研究報告 第91巻,第287号, 19911024, pp.29-36, 社団法人電子情報通信学会 * |
CSNG200900279009; 笠井航,他3名: 'オンラインプロトタイプ生成による大規模データに対する高速SVM構築法' 電子情報通信学会論文誌 第J92-D巻, 第6号, 20090601, pp.784-792, 社団法人電子情報通信学会 * |
CSNG201000017001; 渡辺秀行,他6名: '判別関数の一般形に対する幾何マージンの導出とその制御を伴う最小分類誤り学習' 電子情報通信学会技術研究報告 第109巻,第182号, 20090824, pp.1-6, 社団法人電子情報通信学会 * |
JPN6014031468; 渡辺秀行,他6名: '判別関数の一般形に対する幾何マージンの導出とその制御を伴う最小分類誤り学習' 電子情報通信学会技術研究報告 第109巻,第182号, 20090824, pp.1-6, 社団法人電子情報通信学会 * |
JPN6014031469; 浦田穣司,他2名: 'Kohonen mapによる音韻認識に及ぼす情報フィードバックの効果' 電子情報通信学会技術研究報告 第91巻,第287号, 19911024, pp.29-36, 社団法人電子情報通信学会 * |
JPN6014031471; 笠井航,他3名: 'オンラインプロトタイプ生成による大規模データに対する高速SVM構築法' 電子情報通信学会論文誌 第J92-D巻, 第6号, 20090601, pp.784-792, 社団法人電子情報通信学会 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10304448B2 (en) | 2013-06-21 | 2019-05-28 | Microsoft Technology Licensing, Llc | Environmentally aware dialog policies and response generation |
US10572602B2 (en) | 2013-06-21 | 2020-02-25 | Microsoft Technology Licensing, Llc | Building conversational understanding systems using a toolset |
CN106104673A (zh) * | 2014-03-07 | 2016-11-09 | 微软技术许可有限责任公司 | 深度神经网络的低资源占用适配和个性化 |
CN106104673B (zh) * | 2014-03-07 | 2019-10-18 | 微软技术许可有限责任公司 | 深度神经网络的低资源占用适配和个性化 |
CN106133826A (zh) * | 2014-03-27 | 2016-11-16 | 微软技术许可有限责任公司 | 用于语言模型自定义的灵活模式 |
US10497367B2 (en) | 2014-03-27 | 2019-12-03 | Microsoft Technology Licensing, Llc | Flexible schema for language model customization |
KR20200015956A (ko) * | 2018-07-19 | 2020-02-14 | 한국생산기술연구원 | 머신러닝 기반 영상 내의 대상 카운팅 장치 및 방법 |
KR102129042B1 (ko) * | 2018-07-19 | 2020-07-01 | 한국생산기술연구원 | 머신러닝 기반 영상 내의 대상 카운팅 장치 및 방법 |
CN109165474A (zh) * | 2018-10-13 | 2019-01-08 | 国网山东省电力公司电力科学研究院 | 一种基于神经网络的逆变器重复控制设计方法 |
CN109165474B (zh) * | 2018-10-13 | 2023-03-24 | 国网山东省电力公司电力科学研究院 | 一种基于神经网络的逆变器重复控制设计方法 |
WO2023281717A1 (ja) * | 2021-07-08 | 2023-01-12 | 日本電信電話株式会社 | 話者ダイアライゼーション方法、話者ダイアライゼーション装置および話者ダイアライゼーションプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5704692B2 (ja) | 2015-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501192B2 (en) | Systems and methods for Bayesian optimization using non-linear mapping of input | |
US9311609B2 (en) | Techniques for evaluation, building and/or retraining of a classification model | |
JP5704692B2 (ja) | パターン分類装置の学習装置及びそのためのコンピュータプログラム | |
US20180349158A1 (en) | Bayesian optimization techniques and applications | |
US11049011B2 (en) | Neural network classifier | |
Wang et al. | Stochastic optimization for deep CCA via nonlinear orthogonal iterations | |
Xu et al. | Logistic regression and boosting for labeled bags of instances | |
US8266083B2 (en) | Large scale manifold transduction that predicts class labels with a neural network and uses a mean of the class labels | |
US8775345B2 (en) | Recovering the structure of sparse markov networks from high-dimensional data | |
JP2014026455A (ja) | メディアデータ解析装置、方法、及びプログラム | |
US8369611B2 (en) | Compact handwriting recognition | |
Kerenidis et al. | Quantum expectation-maximization for Gaussian mixture models | |
JP5017941B2 (ja) | モデル作成装置および識別装置 | |
JP2012181579A (ja) | パターン分類の学習装置 | |
JP4928193B2 (ja) | 顔画像認識装置及び顔画像認識プログラム | |
JP5288378B2 (ja) | 音響モデルの話者適応装置及びそのためのコンピュータプログラム | |
JP7103235B2 (ja) | パラメタ算出装置、パラメタ算出方法、及び、パラメタ算出プログラム | |
Montesinos López et al. | Reproducing Kernel Hilbert spaces regression and classification methods | |
CN111860556A (zh) | 一种模型的处理方法、装置及存储介质 | |
JP5255484B2 (ja) | クラスタリング距離学習装置およびそのプログラム、ならびに、クラスタリング装置 | |
JP7047665B2 (ja) | 学習装置、学習方法及び学習プログラム | |
Wang et al. | Importance sampling based discriminative learning for large scale offline handwritten Chinese character recognition | |
JP5834287B2 (ja) | パターン分類の学習装置 | |
JP5527728B2 (ja) | パターン分類の学習装置 | |
Bobrowski et al. | Linear classifiers with the L 1 margin from a small number of high-dimensional vectors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5704692 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |