JP4447671B2 - Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor - Google Patents
Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor Download PDFInfo
- Publication number
- JP4447671B2 JP4447671B2 JP14280397A JP14280397A JP4447671B2 JP 4447671 B2 JP4447671 B2 JP 4447671B2 JP 14280397 A JP14280397 A JP 14280397A JP 14280397 A JP14280397 A JP 14280397A JP 4447671 B2 JP4447671 B2 JP 4447671B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- pixel
- neural network
- image signal
- coupling coefficient
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Systems (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、例えばNTSC方式のビデオ信号をハイビジョンのビデオ信号に変換する画像信号の変換装置および変換方法、並びにそれに使用されるニューラルネットワークの結合係数の生成装置および生成方法に関する。詳しくは、画素信号を予測する際に、ニューラルネットワークを使用することによって、非線形な予測を行うことができ、常に最適な画素信号の予測を行い得るようにした画像信号変換装置に係るものである。
【0002】
【従来の技術】
近年、オーディオ・ビジュアル指向の高まりから、より高解像度の画像を得ることができるようなテレビ受信機の開発が望まれ、この要望に応えて、いわゆるハイビジョンが開発された。ハイビジョンの走査線数は、NTSC方式の走査線数が525本であるのに対して、2倍以上の1125本である。また、ハイビジョンの縦横比は、NTSC方式の縦横比が3:4であるのに対して、9:16となっている。このため、ハイビジョンでは、NTSC方式に比べて、高解像度で臨場感のある画像を表示することができる。
【0003】
ハイビジョンはこのように優れた特性を有するが、NTSC方式のビデオ信号をそのまま供給しても、ハイビジョン方式による画像表示を行うことはできない。これは、上述のようにNTSC方式とハイビジョンとでは規格が異なるからである。
【0004】
そこで、NTSC方式のビデオ信号に応じた画像をハイビジョン方式で表示するため、本出願人は、先に、NTSC方式のビデオ信号をハイビジョンのビデオ信号に変換するための変換装置を提案した(特願平6−205934号参照)。この変換装置では、ハイビジョンのビデオ信号を構成する各画素の信号を、NTSC方式の所定領域の画素の信号と係数データ(予測係数値)とから線形1次式を使用して予測するようになっている。
【0005】
【発明が解決しようとする課題】
上述した変換装置においては、ハイビジョンのビデオ信号を構成する各画素の信号を線形1次式によって予測するものであり、最適な画素信号を求めることができない場合がある。
【0006】
そこで、この発明では、常に最適な画素信号の予測を行い得る画像信号変換装置等を提供することを目的とする。
【0007】
【課題を解決するための手段】
この発明に係る画像信号変換装置は、第1の画像信号を、この第1の画像信号 と同じあるいはそれより多い画素数の第2の画像信号に変換するようにした画像信号変換装置において、上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第1の領域の画素の信号を切り出す第1の画素切り出し手段と、上記第1の画素切り出し手段により切り出された上記第1の領域の画素の信号のレベル分布パターンを検出し、このパターンに基づいて予測しようとする上記第2の画像信号を構成する所定画素の信号が属するクラスを決定してクラス情報を出力するクラス決定手段と、少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークにより、上記第2の画像信号を構成する所定画素の信号を予測するニューラルネット予測手段と、上記クラス情報で示される各クラスに対応した上記ニューラルネット予測手段の上記結合係数を記憶しておく結合係数記憶手段と、上記クラス決定手段より出力される上記クラス情報に対応して上記結合係数記憶手段より結合係数を読み出す結合係数読み出し手段と、上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第2の領域の画素の信号を切り出す第2の画素切り出し手段とを具備し、上記ニューラルネット予測手段は、上記結合係数記憶手段より読み出された結合係数を上記ニューラルネットワークの結合係数とし、上記第2の画素切り出し手段により切り出された上記第2の領域の画素の信号を上記ニューラルネットワークの上記入力層のユニットへの入力値として、上記ニューラルネットワークの演算を行なって得られた上記ニューラルネットワークの上記出力層のユニットの出力値を、画素信号値を表現するためのビット数に応じた画素信号値に変換し、上記第2の画像信号を構成する所定画素信号の予測値として出力するものである。
【0008】
ここで、第1および第2の画素切り出し手段が共通であってもよく、この場合第1および第2の領域は同じくなる。また、ニューラルネット予測手段は、例えばバックプロパゲーションネットワークを使用して構成される。さらに、ニューラルネット予測手段は、その出力部に、ニューラルネットワークの出力層のユニットより得られる結合の度合いを示す値を画素信号値に変換する正規化手段を有していてもよい。
【0009】
また、この発明に係る画像信号変換方法は、第1の画像信号を、この第1の画像信号 と同じあるいはそれより多い画素数の第2の画像信号に変換するようにした画像信号変換方法において、上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第1の領域の画素の信号を切り出す第1のステップと、上記第1のステップで切り出された上記第1の領域の画素の信号のレベル分布パターンを検出し、このパターンに基づいて予測しようとする上記第2の画像信号を構成する所定画素の信号が属するクラスを決定してクラス情報を出力する第2のステップと、少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークにより、上記第2の画像信号を構成する所定画素の信号を予測する第3のステップと、上記第2のステップで出力される上記クラス情報で示される各クラスに対応した上記結合係数を記憶手段により読み出す第4のステップと、上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第2の領域の画素の信号を切り出す第5のステップと、を具備し、上記第3のステップでは、上記記憶手段より読み出された結合係数を上記ニューラルネットワークの結合係数とし、上記第2の画素切り出し手段により切り出された上記第2の領域の画素の信号を上記ニューラルネットワークの上記入力層のユニットへの入力値として、上記ニューラルネットワークの演算を行なって得られた上記ニューラルネットワークの上記出力層のユニットの出力値を、画素信号値を表現するためのビット数に応じた画素信号値に変換し、上記第2の画像信号を構成する所定画素信号の予測値として出力するものである。
【0010】
予測しようとする第2の画像信号を構成する所定画素に対応して第1の画像信号から第1の領域の画素の信号が切り出され、そのレベル検出パターンに基づいて上述した第2の画像信号を構成する所定画素の信号が属するクラスが決定されてクラス情報が出力される。このクラス情報に対応して結合係数記憶手段より結合係数が読み出される。また、上述した第2の画像信号を構成する所定画素に対応して第1の画像信号から第2の領域の画素の信号が切り出される。そして、この第2の領域の画素の信号と結合係数記憶手段より読み出された結合係数とから、ニューラルネットワークを使用して、上述した第2の画像信号を構成する所定画素の信号が求められる。このように、画素信号をニューラルネットワークを使用して予測することで、非線形な予測が行われこととなり、線形1次式によって予測するものと比べて、常に最適な画素信号の予測を行うことが可能となる。
【0011】
また、この発明に係る結合係数生成装置は、第1の画像信号を、この第1の画像信号より多い画素数の第2の画像信号に変換する際に使用されるニューラルネットワークの結合係数を生成する装置において、上記第2の画像信号に対応する教師信号に対してその画素数を減らす処理して上記第1の画像信号に対応する入力信号を得る信号処理手段と、上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第1の領域の画素の信号を順次切り出す第1の画素切り出し手段と、上記第1の画素切り出し手段により順次切り出された上記第1の領域の画素の信号のレベル分布のパターンを検出し、このパターンに基づいて上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラスを決定してクラス情報を出力するクラス決定手段と、上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第2の領域の画素の信号を順次切り出す第2の画素切り出し手段と、少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークの上記入力層のユニットへの入力値として上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素値を入力し、上記教師信号を構成する上記複数の画素値を上記出力層のユニットの出力値に基づく値の真値とする学習によって、上記クラス決定手段より出力される上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラス毎に上記ニューラルネットワークの上記結合係数を得るニューラルネット学習手段とを備えるものである。
【0012】
ここで、第1および第2の画素切り出し手段は共通でもよく、この場合第1および第2の領域は同じくなる。また、例えば、ニューラルネット学習手段は、バックプロパゲーションネットワークを使用して構成される。
【0013】
また、ニューラルネット学習手段は、例えば入力層、隠れ層、出力層の各ユニットからなり、上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素の信号が上記入力層に供給されるニューラルネットワーク部と、上記ニューラルネットワーク部の出力層のユニットからの出力値を画素信号値を表現するためのビット数に応じた画素信号値に変換する正規化手段と、上記正規化手段より出力される画素信号値と、上記ニューラルネットワーク部の上記入力層に供給される上記第2の領域の画素の信号に対応した上記教師信号を構成する所定画素の信号とを比較して誤差を検出する誤差検出手段と、上記クラス情報で示される各クラス毎に、上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素の信号とそれに対応した上記教師信号を構成する所定画素の信号との組み合わせでなる学習データに対し、上記誤差検出手段で検出される誤差が充分小さな一定範囲内に入る方向に上記ニューラルネットワーク部の出力層および隠れ層のユニットにおける結合係数を変更する結合係数変更手段と、上記誤差が上記一定範囲内に入ったときの上記ニューラルネットワーク部の出力層および隠れ層のユニットにおける結合係数を学習結果とする結合係数決定手段とを有している。
【0014】
また、この発明に係る結合係数生成方法は、第1の画像信号を、この第1の画像信号より多い画素数の第2の画像信号に変換する際に使用されるニューラルネットワークの結合係数を生成する方法において、上記第2の画像信号に対応する教師信号に対してその画素数を減らす処理して上記第1の画像信号に対応する入力信号を得る第1のステップと、上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第1の領域の画素の信号を順次切り出す第2のステップと、上記第2のステップで順次切り出された上記第1の領域の画素の信号のレベル分布のパターンを検出し、このパターンに基づいて上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラスを決定してクラス情報を出力する第3のステップと、上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第2の領域の画素の信号を順次切り出す第4のステップと、少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークの上記入力層のユニットへの入力値として上記第4のステップで順次切り出された上記第2の領域の画素値を入力し、上記教師信号を構成する上記複数の画素値を上記出力層のユニットの出力値に基づく値の真値とする学習によって、上記第3のステップで出力される上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラス毎に上記ニューラルネットワークの上記結合係数を得る第5のステップとを備えるものである。
【0015】
第2の画像信号、例えばハイビジョンのビデオ信号に対応する教師信号が処理されて第1の画像信号、例えばNTSC方式のビデオ信号に対応する入力信号が得られる。教師信号を構成する複数の画素の信号にそれぞれ対応して、入力信号より第1の領域の画素の信号が順次切り出され、その第1の領域の画素の信号のレベル分布パターンに基づいて教師信号を構成する複数の画素の信号がそれぞれ属するクラスが決定されてクラス情報が出力される。
【0016】
また、教師信号を構成する複数の画素の信号にそれぞれ対応して、入力信号より第2の領域の画素の信号が順次切り出される。そして、この第2の領域の画素の信号と、教師信号を構成する複数の画素の信号がそれぞれ属するクラスを示すクラス情報と、教師信号を構成する複数の画素の信号とから、ニューラルネットワークによる学習によって、各クラス毎に結合係数が求められる。
【0017】
【発明の実施の形態】
以下、図面を参照しながら、この発明の実施の形態について説明する。図1は実施の形態としての画像信号変換装置100の構成を示している。この画像信号変換装置100は、NTSC方式のビデオ信号を構成する画素データ(以下、「SD画素データ」という)からハイビジョンのビデオ信号を構成する画素データ(以下、「HD画素データ」という)を得るためのものである。
【0018】
この画像信号変換装置100は、SD画素データが供給される入力端子101と、この入力端子101に供給されるSD画素データより、予測しようとする所定のHD画素データに対応した領域のSD画素データを切り出す画素切り出し手段としての領域切り出し回路102と、この領域切り出し回路102で切り出されたSD画素データに対してADRC(Adaptive Dynamic Range Coding)処理を適用して、主に空間内の波形を表すクラス(空間クラス)を決定してクラス情報を出力するADRC回路103とを有している。
【0019】
図4および図5は、SD画素とHD画素の位置関係を示している。領域切り出し回路102では、例えば図6に示すように、HD画素データyを予測しようとする場合、これらHD画素データyの近傍に位置するSD画素データk1〜k5が切り出される。
【0020】
ADRC回路103では、領域切り出し回路102で切り出されたSD画素データのレベル分布のパターン化を目的として、各SD画素データを、例えば8ビットデータから2ビットデータに圧縮するような演算が行われる。そして、ADRC回路103からは、各SD画素データに対応した圧縮データ(再量子化コード)qiが空間クラスのクラス情報として出力される。
【0021】
本来ADRCは、VTR(Video Tape Recorder)向け高性能符号化用に開発された適応的再量子化法であるが、信号レベルの局所的なパターンを短い語長で効率的に表現できるので、本実施の形態では、領域切り出し回路102で切り出されたSD画素データのレベル分布のパターン化に使用している。
【0022】
ADRC回路103では、領域内のSD画素データの最大値をMAX、その最小値をMIN、領域内のダイナミックレンジをDR(=MAX−MIN+1)、再量子化ビット数をpとすると、領域内の各SD画素データkiに対して、(1)式の演算により再量子化コードqiが得られる。ただし、(1)式において、〔 〕は切り捨て処理を意味している。領域切り出し回路102で、Na個のSD画素データが切り出されるとき、i=1〜Naである。
qi=〔(ki−MIN+0.5)・2p /DR〕 ・・・(1)
【0023】
また、画像信号変換装置100は、入力端子101に供給されるSD画素データより、予測しようとする所定のHD画素データに対応した領域のSD画素データを切り出す領域切り出し回路104と、この領域切り出し回路104で切り出されたSD画素データより、主に動きの程度を表すためのクラス(動きクラス)を決定してクラス情報を出力する動きクラス決定回路105とを有している。
【0024】
領域切り出し回路104では、例えば図7に示すように、HD画素データyを予測しようとする場合、これらHD画素データyの近傍に位置する10個のSD画素データm1〜m5,n1〜n5が切り出される。
【0025】
動きクラス決定回路105では、領域切り出し回路104で切り出されたSD画素データmi,niからフレーム間差分が算出され、さらにその差分の絶対値の平均値に対してしきい値処理が行われて動きの指標である動きクラスのクラス情報MVが出力される。
【0026】
すなわち、動きクラス決定回路105では、(2)式によって、差分の絶対値の平均値AVが算出される。領域切り出し回路104で、例えば上述したように10個のSD画素データm1〜m5,n1〜n5が切り出されるとき、(2)式におけるNbは5である。
【0027】
【数1】
【0028】
そして、動きクラス決定回路105では、上述したように算出された平均値AVが1個または複数個のしきい値と比較されてクラス情報MVが得られる。例えば、3個のしきい値th1,th2,th3(th1<th2<th3)が用意され、4つの動きクラスを決定する場合、AV≦th1のときはMV=0、th1<AV≦th2のときはMV=1、th2<AV≦th3のときはMV=2、th3<AVのときはMV=3とされる。
【0029】
また、画像信号変換装置100は、ADRC回路103より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス決定回路105より出力される動きクラスの情報MVに基づき、予測しようとするHD画素データが属するクラスを示すクラスコードCLを得るためのクラスコード発生回路106を有している。クラスコード発生回路106では、(3)式によって、クラスコードCLの演算が行われる。なお、(3)式において、Naは領域切り出し回路102で切り出されるSD画素データの個数、pはADRC回路103における再量子化ビット数を示している。
【0030】
【数2】
【0031】
また、画像信号変換装置100は、後述ニューラルネットワーク予測回路で使用されるニューラルネットワークの結合係数が各クラス毎に記憶されている記憶手段としてのROMテーブル107を有している。ROMテーブル107にはクラスコード発生回路106より出力されるクラスコードCLが読み出しアドレス情報として供給され、このROMテーブル107からはクラスコードCLに対応した結合係数Wiが読み出される。
【0032】
また、画像信号変換装置100は、入力端子101に供給されるSD画素データより、予測しようとする所定のHD画素データに対応した領域のSD画素データを切り出す領域切り出し回路108と、この領域切り出し回路108で切り出されたSD画素データと、上述したROMテーブル107より読み出される結合係数Wiとから、ニューラルネットワークを使用して、予測しようとするHD画素データを求めるニューラルネット予測回路109と、このニューラルネット予測回路109で求められたHD画素データを導出する出力端子110とを有している。
【0033】
領域切り出し回路108では、例えば図8に示すように、HD画素データyを予測しようとする場合、このHD画素データyの近傍に位置する25個のSD画素データx1〜x25が切り出される。ここで、領域切り出し回路108は、上記した領域切り出し回路102と共通であってもよい。
【0034】
図2は、ニューラルネット予測回路109の要部構成例を示しており、バックプロバゲーションニューラルネットワークを使用した例である。このニューラルネット予測回路109は、ニューラルネットワーク部121と、このニューラルネットワーク部121の出力層のユニットより得られる結合の度合いを示す値を画素信号値に変換して出力する正規化部122とを有して構成されている。
【0035】
ニューラルネットワーク部121は、3階層で構成され、入力層にn個のユニット、隠れ層に4個のユニット、出力層に1個のユニットが配されている。この場合、入力層の各ユニットには、上述した領域切り出し回路108で切り出されるn個のSD画素データx1〜xnがそれぞれ供給される。そして、この入力層の各ユニットは、それぞれ供給されたSD画素データx1〜xnを何等変更せずに、隠れ層の各ユニットに分配する。
【0036】
また、隠れ層の各ユニットは、入力層の各ユニットと結合係数で結合されている。そして、隠れ層の各ユニットより出力される結合の度合いを示す値は出力層のユニットに供給される。さらに、出力層のユニットは、隠れ層の各ユニットと結合係数で結合されている。そして、出力層のユニットより出力される結合の度合いを示す値はニューラルネットワーク部121の出力値として正規化部122に供給される。
【0037】
図3は、隠れ層および出力層のユニットの構成例を示している。前層のユニットの個数がm個であるとして、前層の各ユニットの出力値をA1〜Amとし、また前層の各ユニットとの結合における結合係数をW1〜Wmとするとき、ユニットの出力値Uは、(4)式で表される。そして、この(4)式において、f( )は非線形要素としての伝達関数であり、例えば(5)式のような関数がよく使用される。この(5)式で、aは適当な実数である。
【0038】
【数3】
【0039】
なお、上述したようにROMテーブル107よりクラスコードCLに対応して読み出される結合係数Wiが、隠れ層および出力層のユニットにおける結合係数W1〜Wmとして使用されることになる。
【0040】
また、ニューラルネットワーク部121の出力層のユニットより得られる結合の度合いを示す値は0より大きく、かつ1より小さな値となる。そのため、正規化部122では、例えば画素信号値が8ビットで表される場合には、結合の度合いを示す値に「256」をかけ算して、予測対象画素値としてのHD画素データyを得るようにされる。
【0041】
図2に示すニューラルネット予測回路109は一例であって、これに限定されるものではない。例えば、ニューラルネットワーク部121を、隠れ層を増やすことで4層以上の構成とすることもできる。また、隠れ層および出力層のユニットの個数も任意に設定できる。
【0042】
図1に示す画像信号変換装置100の動作を説明する。予測しようとする所定のHD画素データyに対応して、入力端子101に供給されるSD画素データより領域切り出し回路102で所定領域のSD画素データkiが切り出され、この切り出された各SD画素データkiに対してADRC回路103でADRC処理が施されて空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiが得られる。
【0043】
また、上述した予測しようとするHD画素データyに対応して、入力端子101に供給されるSD画素データより領域切り出し回路104で所定領域のSD画素データmi,niが切り出され、この切り出された各SD画素データmi,niより動きクラス決定回路105で動きクラス(主に動きの程度を表すためのクラス分類)を示すクラス情報MVが得られる。
【0044】
この動きクラス情報MVと上述したADRC回路103で得られる再量子化コードqiとから、クラスコード発生回路106で予測しようとするHD画素データyが属するクラスを示すクラス情報としてのクラスコードCLが得られる。そして、このクラスコードCLがROMテーブル107に読み出しアドレス情報として供給され、このROMテーブル107より予測しようとするHD画素データyが属するクラスに対応したニューラルネットワークの結合係数Wiが読み出される。
【0045】
また、上述した予測しようとするHD画素データyに対応して、入力端子101に供給されるSD画素データより領域切り出し回路108で所定領域のSD画素データxiが切り出される。そして、ニューラルネット予測回路109では、その切り出されたSD画素データxiと、上述したようにROMテーブル107より読み出された結合係数Wiとから、ニューラルネットワークを使用して、予測しようとするHD画素データyが求められる。そして、このニューラルネット予測回路109より順次出力されるHD画素データyが出力端子110に導出される。
【0046】
図1に示す画像信号変換装置100においては、HD画素データyをニューラルネットワークを使用して予測するものであり、非線形な予測(線形な予測を含む)が行われるため、従来の線形1次式によって予測するものと比べて、常に最適なHD画素データyの予測を行うことが可能となる。
【0047】
ところで、画像信号変換装置100のROMテーブル107には、上述したように各クラスに対応したニューラルネットワークの結合係数が記憶されている。この係数データは、予め学習によって生成されたものである。図9は、学習によって、各クラス毎にニューラルネットワークの結合係数を生成する結合係数生成装置200の構成例を示している。
【0048】
この結合係数生成装置200は、教師信号としてのハイビジョンのビデオ信号を構成するHD画素データが供給される入力端子201と、このHD画素データに対して水平および垂直の間引きフィルタ処理を行って、入力信号としてのNTSC方式のビデオ信号を構成するSD画素データを得る信号処理部202とを有している。信号処理部202では、HD画素データに対して、垂直間引きフィルタによってフィールド内の垂直方向のライン数が1/2となるように間引き処理されると共に、さらに水平間引きフィルタによって水平方向の画素数が1/2となるように間引き処理される。したがって、SD画素とHD画素の位置関係は、図4および図5に示すようになる。
【0049】
また、結合係数生成装置200は、入力端子201に供給されるHD画素データより得られる予測対象画素値としての複数個のHD画素データにそれぞれ対応して、信号処理部202より出力されるSD画素データより所定領域のSD画素データを順次切り出す領域切り出し回路203と、この領域切り出し回路203で順次切り出されたSD画素データに対してADRC処理を適用して、主に空間内の波形を表すクラス(空間クラス)を決定してクラス情報を出力するADRC回路204とを有している。
【0050】
領域切り出し回路203は、上述した画像信号変換装置100の領域切り出し回路102と同様に構成される。この領域切り出し回路203からは、例えば図6に示すように、予測対象画素値としてのHD画素データyに対応して、このHD画素データyの近傍に位置するSD画素データk1〜k5が切り出される。また、ADRC回路204も、上述した画像信号変換装置100のADRC回路103と同様に構成される。このADRC回路204からは、予測対象値としての各HD画素データにそれぞれ対応して切り出された所定領域のSD画素データ毎に再量子化コードqiが空間クラスを示すクラス情報として出力される。
【0051】
また、結合係数生成装置200は、上述した予測対象画素値としての各HD画素データにそれぞれ対応して、信号処理部202より出力されるSD画素データより所定領域のSD画素データを順次切り出す領域切り出し回路205と、この領域切り出し回路205で切り出されたSD画素データより、主に動きの程度を表すためのクラス(動きクラス)を決定してクラス情報を出力する動きクラス決定回路206とを有している。
【0052】
領域切り出し回路205は、上述した画像信号変換装置100の領域切り出し回路104と同様に構成される。この領域切り出し回路205からは、例えば図7に示すように、予測対象画素値としてのHD画素データyに対応して、このHD画素データyの近傍に位置する10個のSD画素データm1〜m5,n1〜n5が切り出される。また、動きクラス決定回路206も、上述した画像信号変換装置100の動きクラス決定回路105と同様に構成される。この動きクラス決定回路206からは、予測対象画素値としての各HD画素データにそれぞれ対応して切り出された所定領域のSD画素データ毎に動きの指標である動きクラスのクラス情報MVが出力される。
【0053】
また、結合係数生成装置200は、ADRC回路204より出力される空間クラスのクラス情報としての再量子化コードqiと、動きクラス決定回路206より出力される動きクラスのクラス情報MVに基づいてクラスコードCLを得るためのクラスコード発生回路207を有している。このクラスコード発生回路207は、上述した画像信号変換装置100のクラスコード発生回路106と同様に構成される。このクラスコード発生回路207からは、予測対象画素値としての各HD画素データにそれぞれ対応して、そのHD画素データが属するクラスを示すクラスコードCLが出力される。
【0054】
また、結合係数生成装置200は、上述した予測対象画素値としての各HD画素データにそれぞれ対応して、信号処理部202より出力されるSD画素データより所定領域のSD画素データを順次切り出す領域切り出し回路208を有している。領域切り出し回路208は、上述した画像信号変換装置100の領域切り出し回路108と同様に構成される。この領域切り出し回路208からは、例えば図8に示すように、予測対象画素値としてのHD画素データyに対応して、このHD画素データyの近傍に位置する25個のSD画素データx1〜x25が切り出される。
【0055】
また、結合係数生成装置200は、入力端子201に供給されるHD画素データより得られる予測対象画素値としての各HD画素データyと、予測対象画素値としての各HD画素データyにそれぞれ対応して領域切り出し回路208で順次切り出されたSD画素データxiと、予測対象画素値としての各HD画素データyにそれぞれ対応してクラスコード発生回路207より出力されるクラスコードCLとから、ニューラルネットワークによる学習によって、各クラス毎に結合係数を得るニューラルネット学習回路209と、このニューラルネット学習回路209で得られた各クラス毎の結合係数Wiを記憶するためのメモリ210とを有している。
【0056】
図10は、ニューラルネット学習回路209の要部構成例を示しており、図2示すニューラルネット予測回路109と同様に、バックプロバゲーションニューラルネットワークを使用した例である。このニューラルネット学習回路209は、ニューラルネットワーク部221と、このニューラルネットワーク部221の出力層のユニットより出力される結合の度合いを示す値を画素信号値に変換して出力する正規化部222と、この正規化部222より出力される画素信号値yoと予測対象画素値としてのHD画素データyとを比較して誤差εを検出する誤差検出部223とを有して構成されている。ニューラルネットワーク部221および正規化部222は、それぞれは図2に示すニューラルネット予測回路109のニューラルネットワーク部121および正規化部122と同様に構成されている。
【0057】
このニューラルネット学習回路209では、各クラス毎に、複数個の学習データを用いて結合係数が生成される。ここで、1個の学習データは、予測対象画素値としての1個のHD画素データyとそれに対応するn個のSD画素データx1〜xnとの組み合わせで構成されている。
【0058】
ここで、あるクラスにおける結合係数の生成は、以下のように行われる。まず、ニューラルネットワーク部221の隠れ層および出力層のユニットにおける結合係数が初期値の状態で、あるクラスの複数個の学習データのうち1番目の学習データを構成するn個のSD画素データx1〜xnをニューラルネットワーク部221の入力層のユニットに供給する。この状態で、出力層のユニットより得られる結合の度合いを示す値を正規化部222で画素信号値yoに変換する。そして、誤差検出部223で、この画素信号値yoと上述の1番目の学習データを構成する1個のHD画素データyとを比較して誤差εを検出する。この誤差εが充分小さな一定範囲内にあるときは、この状態での隠れ層および出力層のユニットにおける結合係数をあるクラスの結合係数Wiとしてメモリ210に供給して記憶させ、あるクラスにおける結合係数の生成動作を終了する。
【0059】
一方、誤差εが一定範囲内にないときは、この誤差εが一定範囲内に入る方向にニューラルネットワーク部221の出力層、さらには隠れ層のユニットにおける結合係数を変更する。つまり、ニューラルネットワーク部221の出力層での誤差を入力層に向かって伝搬させて学習を行うものである。そして、このように出力層および隠れ層のユニットにおける結合係数を変更した後に、あるクラスの複数個の学習データのうち2番目の学習データを構成するn個のSD画素データx1〜xnをニューラルネットワーク部221の入力層のユニットに供給する。
【0060】
この状態で、出力層のユニットより得られる結合の度合いを示す値を正規化部222で画素信号値yoに変換する。そして、誤差検出部223で、この画素信号値yoと上述の2番目の学習データを構成する1個のHD画素データyとを比較して誤差εを検出する。この誤差εが充分小さな一定範囲内にあるときは、この状態での隠れ層および出力層のユニットにおける結合係数をあるクラスの結合係数Wiとしてメモリ210に供給して記憶させ、あるクラスにおける結合係数の生成動作を終了する。一方、誤差εが一定範囲内にないときは、この誤差εが一定範囲内に入る方向にニューラルネットワーク部221の出力層、さらには隠れ層のユニットにおける結合係数を変更する。
【0061】
以下、同様にして、誤差εが一定範囲内に入るまで、順次次の学習データを使用し、ニューラルネットワーク部221の出力層、隠れ層のユニットにおける結合係数を変更していく。ただし、あるクラスの複数個の学習データを全て使用しても、誤差εが一定範囲内に入らないときは、最終的に出力層、隠れ層のユニットで使用された結合係数をあるクラスの結合係数Wiとしてメモリ210に供給して記憶させ、あるクラスにおける結合係数の生成動作を終了する。
【0062】
なお、あるクラスの複数個の学習データを全て使用しても、誤差εが一定範囲内に入らないときは、出力層、隠れ層のユニットにおける結合係数の初期値や(5)式の伝達関数における実数aを変更して、上述した生成動作を最初からやり直すようにしてもよい。
【0063】
図9に示す結合係数生成装置200の動作を説明する。入力端子201には教師信号としてのハイビジョンのビデオ信号を構成するHD画素データが供給され、そしてこのHD画素データに対して信号処理部202で水平および垂直の間引き処理等が行われて入力信号としてのNTSC方式のビデオ信号を構成するSD画素データが得られる。
【0064】
また、入力端子201に供給されるHD画素データより得られる予測対象画素値としての各HD画素データyにそれぞれ対応して、信号処理部202より出力されるSD画素データから領域切り出し回路203で所定領域のSD画素データkiが順次切り出され、この切り出された各SD画素データkiに対してADRC回路204でADRC処理が施されて空間クラス(主に空間内の波形表現のためのクラス分類)のクラス情報としての再量子化コードqiが得られる。
【0065】
また、予測対象画素値としての各HD画素データyにそれぞれ対応して、信号処理部202より出力されるSD画素データから領域切り出し回路205で所定領域のSD画素データmi,niが順次切り出され、この切り出された各SD画素データmi,niより動きクラス決定回路206で動きクラス(主に動きの程度を表すためのクラス分類)を示すクラス情報MVが得られる。そして、このクラス情報MVと上述したADRC回路204で得られる再量子化コードqiとからクラスコード発生回路207で、予測対象画素値としての各HD画素データyが属するクラスを示すクラス情報としてのクラスコードCLが得られる。
【0066】
また、予測対象画素値としての各HD画素データyにそれぞれ対応して、信号処理部202より出力されるSD画素データから領域切り出し回路208で所定領域のSD画素データxiが順次切り出される。そして、入力端子201に供給されるHD画素データより得られる予測対象画素値としての各HD画素データyと、予測対象画素値としての各HD画素データyにそれぞれ対応して領域切り出し回路208で順次切り出されたSD画素データxiと、予測対象画素値としての各HD画素データyにそれぞれ対応してクラスコード発生回路207より出力されるクラスコードCLとから、ニューラルネットワークによる学習によって、各クラス毎に結合係数Wiが生成される。そして、この結合係数Wiは、クラス別にアドレス分割されたメモリ210に記憶される。
【0067】
図11は、ニューラルネット学習回路209における結合係数の学習フローを示している。まず、ステップST1で、入力端子201に供給されるHD画素データより得られる予測対象画素値としての1個のHD画素データyと、それに対応して領域切り出し回路208で切り出されるn個のSD画素データx1〜xnとの組み合わせで、1個の学習データを生成する。次に、ステップST2で、クラスコード発生回路207より供給されるクラスコードCLによって、ステップST1で生成された学習データのクラス分類をする。
【0068】
次に、ステップST3で、入力端子201に供給されるHD画素データより得られる予測対象画素値としての各HD画素データyの全てに対応した学習データの生成が終了したか否かを判定し、学習データの生成が終了していないときは、ステップST1に戻って、学習データの生成を続ける。一方、学習データの生成が終了したときは、ステップST4で、N=1とし、ステップST5で、Nクラスに分類された複数個の学習データを使用して、このNクラスの結合係数Wiを生成する処理をする。
【0069】
次に、ステップST6で、全てのクラスの結合係数Wiの生成が終了したか否かを判定する。終了していないときは、ステップST7で、Nを1だけ増し、その後にステップST5に戻って、上述したようにNクラスの結合係数Wiを生成する処理をする。一方、終了したときは、結合係数の学習フローを終了する。
【0070】
また、図12は、Nクラスの結合係数生成処理フローを示している。まず、ステップST11で、M=1とする。次に、ステップST12で、NクラスのM番目の学習データを構成するn個のSD画素データをニューラルネットワーク部221の入力層のユニットに供給し、この状態で出力層のユニットより結合の度合いを示す値を得る。
【0071】
次に、ステップST13で、ニューラルネットワーク部221の出力層のユニットとより得られる結合の度合いを示す値を正規化部222に供給して正規化することで画素信号値yoを得る。そして、ステップST14で、NクラスのM番目の学習データを構成する1個のHD画素データyと、ステップST13で得られた画素信号値yoとを誤差検出部223で比較して誤差εを検出する。
【0072】
次に、ステップST15で、ステップST14で検出される誤差εが充分小さな一定範囲内に入っているか否かを判定する。誤差εが一定範囲内に入っているときは、ステップST16で、その状態での隠れ層および出力層のユニットにおける結合係数をNクラスの結合係数Wiとしてメモリ210に供給して記憶させ、その後にNクラスにおける結合係数の生成動作を終了する。
【0073】
一方、誤差εが一定範囲内にないときは、ステップST17で、この誤差εが一定範囲内に入る方向にニューラルネットワーク部221の出力層および隠れ層のユニットにおける結合係数を変更する。そして、ステップST18で、Mを1だけ増やし、その後にステップST19で、MがNクラスに分類された学習データの個数Mnより大きいか否かを判定する。
【0074】
M>Mnであるときは、Nクラスに分類された学習データの全てを使用したことになるので、ステップST16で、その状態での隠れ層および出力層のユニットにおける結合係数をNクラスの結合係数Wiとしてメモリ210に供給して記憶させ、その後にNクラスにおける結合係数の生成動作を終了する。一方、M>Mnでないときは、ステップST12に戻って、上述した動作を繰り返し行う。
【0075】
なお、図12には図示していないが、学習データを全て使用しても誤差εが一定範囲内に入らないとき、出力層、隠れ層のユニットにおける結合係数の初期値や(5)式の伝達関数における実数aを変更して、上述した生成動作を最初からやり直す場合には、ステップST19でM>Mnであるとき、結合係数の初期値や伝達関数の実数aを変更して、ステップST11に戻るようにすればよい。
【0076】
なお、上述実施の形態においては、空間波形を少ないビット数でパターン化する情報圧縮手段として、ADRC回路103(図1)、204(図9)を設けることにしたが、これはほんの一例であり、信号波形のパターンの少ないクラスで表現できるような情報圧縮手段であれば何を設けるかは自由であり、例えばDPCM(Differential Pulse Code Modulation)やVQ(Vector Quantization )等の圧縮手段を用いてもよい。
【0077】
また、上述実施の形態では、SD画素データよりHD画素データを得るものを示したが、例えばあるSD画素データより解像度を増した他のSD画素データを得る場合、あるいはあるHD画素データより解像度を増した他のHD画素データを得る場合にも同様に適用できる。この場合には、変換前と変換後の画素数は同じとなる。
【0078】
また、上述実施の形態においては、NTSC方式のビデオ信号をハイビジョンのビデオ信号に変換する例を示したが、この発明はそれに限定されるものでなく、第1の画像信号をこの第1の画像信号と同じあるいはそれより多い画素数の第2の画像信号に変換する場合に同様に適用できることは勿論である。
【0079】
【発明の効果】
この発明によれば、第1の画像信号をこの第1の画像信号と同じあるいはそれより多い画素数の第2の画像信号に変換する際、ニューラルネットワークを使用して第2の画像信号を構成する画素信号を予測するものであり、非線形な予測(線形な予測を含む)が行われるため、従来の線形1次式によって予測するものと比べて、常に最適な画素信号の予測を行うことができる。
【図面の簡単な説明】
【図1】実施の形態としての画像信号変換装置の構成を示すブロック図である。
【図2】画像信号変換装置のニューラルネット予測回路の要部構成例を示す図である。
【図3】ニューラルネットワークを構成する隠れ層、出力層のユニットの構成例を示す図である。
【図4】SD画素とHD画素の位置関係を説明するための略線図である。
【図5】SD画素とHD画素の位置関係を説明するための略線図である。
【図6】空間クラス分類に使用するSD画素データを説明するための略線図である。
【図7】動きクラス分類に使用するSD画素データを説明するための略線図である。
【図8】ニューラルネットワークを使用したHD画素データの予測に用いるSD画素データを説明するための略線図である。
【図9】ニューラルネット予測回路で使用される結合係数を学習によって生成する結合係数生成装置の構成例を示すブロック図である。
【図10】結合係数生成装置のニューラルネット学習回路の要部構成例を示す図である。
【図11】結合係数の学習フローを示すフローチャートである。
【図12】学習フローにおけるNクラスの結合係数生成処理を説明するためのフローチャートである。
【符号の説明】
100・・・画像信号変換装置、101,201・・・入力端子、102,104,108,203,205,208・・・領域切り出し回路、103,204・・・ADRC回路、105,206・・・動きクラス決定回路、106,207・・・クラスコード発生回路、107・・・ROMテーブル、109・・・ニューラルネット予測回路、110・・・出力端子、121,221・・・ニューラルネットワーク部、122,222・・・正規化部、209・・・ニューラルネット学習回路、210・・・メモリ、223・・・誤差検出部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image signal conversion apparatus and conversion method for converting, for example, an NTSC video signal into a high-definition video signal, and a generation apparatus and generation method for a coupling coefficient of a neural network used therefor. More specifically, the present invention relates to an image signal conversion apparatus that can perform non-linear prediction by using a neural network when predicting a pixel signal, and can always predict an optimal pixel signal. .
[0002]
[Prior art]
In recent years, the development of television receivers capable of obtaining higher-resolution images has been desired due to the increase in audio / visual orientation, and so-called high-vision has been developed in response to this demand. The number of high-definition scanning lines is 1125, which is more than twice that of 525 scanning lines in the NTSC system. The aspect ratio of the high-definition television is 9:16, whereas the aspect ratio of the NTSC system is 3: 4. For this reason, high-definition images can be displayed with a higher resolution and presence than in the NTSC system.
[0003]
Although HDTV has such excellent characteristics, even if an NTSC video signal is supplied as it is, image display using the HDTV system cannot be performed. This is because the standards differ between the NTSC system and the high vision as described above.
[0004]
Therefore, in order to display an image corresponding to the NTSC video signal in the high-definition system, the present applicant has previously proposed a conversion device for converting an NTSC video signal into a high-definition video signal (Japanese Patent Application). No. 6-205934). In this conversion device, the signal of each pixel constituting the high-definition video signal is predicted from the signal of the pixel in a predetermined area of the NTSC system and coefficient data (prediction coefficient value) using a linear linear expression. ing.
[0005]
[Problems to be solved by the invention]
In the above-described conversion device, the signal of each pixel constituting the high-definition video signal is predicted by a linear linear expression, and an optimal pixel signal may not be obtained.
[0006]
Therefore, an object of the present invention is to provide an image signal conversion device and the like that can always predict an optimal pixel signal.
[0007]
[Means for Solving the Problems]
The image signal conversion device according to the present invention is the image signal conversion device configured to convert the first image signal into a second image signal having the same or more number of pixels as the first image signal. A first pixel cutout unit that cuts out a signal of a pixel in a first region located in the vicinity of a predetermined pixel that constitutes the second image signal from the first image signal; and the first pixel cutout unit The level distribution pattern of the signal of the pixel in the first area is detected, and the class information is determined by determining the class to which the signal of the predetermined pixel constituting the second image signal to be predicted belongs based on this pattern. Classifying means for outputting, and at least an input layer and an output layer are provided. The units of each layer are combined with each other by a predetermined coupling coefficient, and the input values to the units of the combined layer are combined. Sum of products of output values of multiple units in the previous layer and the above coupling coefficient Including non-linear operations A neural network prediction means for predicting a signal of a predetermined pixel constituting the second image signal by a neural network, and the coupling coefficient of the neural network prediction means corresponding to each class indicated by the class information; Coupling coefficient storage means to be placed, coupling coefficient reading means for reading a coupling coefficient from the coupling coefficient storage means corresponding to the class information output from the class determining means, and the second image from the first image signal Second pixel clipping means for cutting out a signal of a pixel in a second region located in the vicinity of a predetermined pixel constituting the signal, and the neural network prediction means is a combination read out from the coupling coefficient storage means The second region cut out by the second pixel cut-out means is set as a coupling coefficient of the neural network. The pixel signal value is expressed as an input value to the input layer unit of the neural network, and the output value of the output unit of the neural network obtained by performing the operation of the neural network is expressed as a pixel signal value. Is converted into a pixel signal value corresponding to the number of bits to be output, and is output as a predicted value of a predetermined pixel signal constituting the second image signal.
[0008]
Here, the first and second pixel cutout means may be common, and in this case, the first and second regions are the same. Further, the neural network prediction means is configured using, for example, a back propagation network. Furthermore, the neural network predicting means may have a normalizing means for converting a value indicating the degree of coupling obtained from the unit of the output layer of the neural network into a pixel signal value at its output unit.
[0009]
The image signal conversion method according to the present invention is an image signal conversion method in which the first image signal is converted into a second image signal having the same or greater number of pixels as the first image signal. A first step of cutting out a signal of a pixel in a first region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal, and the above step cut out in the first step The level distribution pattern of the signal of the pixel in the first region is detected, and the class to which the signal of the predetermined pixel constituting the second image signal to be predicted belongs is determined based on this pattern, and class information is output. A second step, comprising at least an input layer and an output layer, wherein the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the combined layer is a plurality of layers before the combination; Product sum of the output value of the unit and the above coupling coefficient Including non-linear operations A third step of predicting a signal of a predetermined pixel constituting the second image signal by a neural network; and the coupling coefficient corresponding to each class indicated by the class information output in the second step. A fourth step of reading out by the storage means, and a fifth step of cutting out the signal of the pixel in the second region located in the vicinity of the predetermined pixel constituting the second image signal from the first image signal. And in the third step, the coupling coefficient read out from the storage means is used as the coupling coefficient of the neural network, and the signal of the pixel in the second region cut out by the second pixel cutting-out means is obtained. As the input value to the unit of the input layer of the neural network, the neural network obtained by performing the operation of the neural network The output value of the unit of the output layer of the network is converted into a pixel signal value corresponding to the number of bits for expressing the pixel signal value, and output as a predicted value of a predetermined pixel signal constituting the second image signal Is.
[0010]
A signal of a pixel in the first region is cut out from the first image signal corresponding to a predetermined pixel constituting the second image signal to be predicted, and the above-described second image signal is based on the level detection pattern. The class to which the signal of the predetermined pixel that constitutes belongs is determined and class information is output. Corresponding to this class information, the coupling coefficient is read from the coupling coefficient storage means. Further, the signal of the pixel in the second region is cut out from the first image signal corresponding to the predetermined pixel constituting the second image signal described above. Then, a signal of a predetermined pixel constituting the above-described second image signal is obtained from the signal of the pixel in the second area and the coupling coefficient read from the coupling coefficient storage means by using a neural network. . Thus, by predicting a pixel signal using a neural network, non-linear prediction is performed, and it is possible to always predict an optimal pixel signal as compared with that predicted by a linear linear expression. It becomes possible.
[0011]
The coupling coefficient generation device according to the present invention generates a coupling coefficient of a neural network used when converting the first image signal into a second image signal having a larger number of pixels than the first image signal. The signal processing means for obtaining the input signal corresponding to the first image signal by reducing the number of pixels of the teacher signal corresponding to the second image signal, A first pixel cutout unit that sequentially cuts out signals of pixels in a first region located in the vicinity of a plurality of pixels constituting the teacher signal; and a first pixel cutout unit that is cut out sequentially by the first pixel cutout unit. A class of detecting a level distribution pattern of pixel signals, determining a class to which each of the plurality of pixel signals constituting the teacher signal belongs based on the pattern, and outputting class information. A second pixel cutout means for sequentially cutting out signals of pixels in a second region located in the vicinity of a plurality of pixels constituting the teacher signal from the input signal, and at least an input layer and an output layer Each layer unit is combined with a predetermined coupling coefficient between the layers, and the input value to the combined layer unit is the product sum of the output values of the plurality of layer units before combining and the above coupling coefficient Including non-linear operations The pixel values of the second region sequentially cut out by the second pixel cut-out means are inputted as input values to the unit of the input layer of the neural network, and the plurality of pixel values constituting the teacher signal are inputted as the input values. The combination of the neural network for each class to which the signals of the plurality of pixels constituting the teacher signal output from the class determination means belong by learning to be a true value based on the output value of the unit of the output layer And a neural network learning means for obtaining a coefficient.
[0012]
Here, the first and second pixel cutout means may be common, and in this case, the first and second regions are the same. Further, for example, the neural network learning means is configured using a back propagation network.
[0013]
The neural network learning means is composed of units of an input layer, a hidden layer, and an output layer, for example, and the signals of the pixels in the second area sequentially cut out by the second pixel cut-out means are supplied to the input layer. Neural network unit and output layer unit of the above neural network unit The output value from the output signal according to the number of bits used to represent the pixel signal value Normalization means for converting to pixel signal values; pixel signal values output from the normalization means; - Error detection means for detecting an error by comparing a signal of a predetermined pixel constituting the teacher signal corresponding to a signal of a pixel in the second region supplied to the input layer of the network unit, and the class information Learning data consisting of a combination of a signal of the pixel in the second area sequentially cut out by the second pixel cut-out means and a signal of a predetermined pixel constituting the teacher signal corresponding to each class indicated by On the other hand, coupling coefficient changing means for changing the coupling coefficient in the output layer and hidden layer units of the neural network unit in a direction in which the error detected by the error detection means falls within a sufficiently small fixed range, Coupling coefficient determination using the coupling coefficient in the output layer and hidden layer units of the above neural network unit when it falls within a certain range as the learning result And a means.
[0014]
Further, the coupling coefficient generation method according to the present invention generates a coupling coefficient of a neural network used when converting the first image signal into a second image signal having a larger number of pixels than the first image signal. In the method, a first step of obtaining an input signal corresponding to the first image signal by reducing the number of pixels of the teacher signal corresponding to the second image signal, and from the input signal, A second step of sequentially cutting out signals of pixels in a first region located in the vicinity of a plurality of pixels constituting the teacher signal, and a signal of pixels in the first region sequentially cut out in the second step A third step of detecting a level distribution pattern, determining a class to which the signals of the plurality of pixels constituting the teacher signal belong based on the pattern, and outputting class information; A fourth step of sequentially cutting out signals of pixels in the second region located in the vicinity of the plurality of pixels constituting the teacher signal from the input signal; and at least an input layer and an output layer, each layer unit comprising: Combined with a predetermined coupling coefficient between layers, the input value to the unit of the layer after the combination is the product sum of the output value of the multiple units of the layer before the combination and the above coupling coefficient Including non-linear operations The pixel values of the second region sequentially extracted in the fourth step are input as input values to the input layer unit of the neural network, and the plurality of pixel values constituting the teacher signal are input to the output layer. The above-mentioned coupling coefficient of the neural network for each class to which the signals of the plurality of pixels constituting the teacher signal output in the third step belong by learning to be a true value based on the output value of the unit of And a fifth step of obtaining
[0015]
A teacher signal corresponding to the second image signal, for example, a high-definition video signal is processed to obtain an input signal corresponding to the first image signal, for example, the NTSC video signal. Corresponding to the signals of the plurality of pixels constituting the teacher signal, the signals of the pixels in the first region are sequentially cut out from the input signal, and the teacher signal is based on the level distribution pattern of the signals of the pixels in the first region. The class to which the signals of the plurality of pixels constituting each belong is determined and class information is output.
[0016]
Further, the signals of the pixels in the second region are sequentially cut out from the input signal corresponding to the signals of the plurality of pixels constituting the teacher signal. Then, learning by a neural network is performed from the signals of the pixels in the second region, the class information indicating the classes to which the signals of the plurality of pixels constituting the teacher signal respectively belong, and the signals of the plurality of pixels constituting the teacher signal. Thus, a coupling coefficient is obtained for each class.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of an image
[0018]
The
[0019]
4 and 5 show the positional relationship between the SD pixel and the HD pixel. For example, as shown in FIG. 6, in the
[0020]
In the
[0021]
ADRC is originally an adaptive requantization method developed for high-performance coding for VTR (Video Tape Recorder), but it can express local patterns of signal level efficiently with a short word length. In the embodiment, it is used for patterning the level distribution of the SD pixel data cut out by the
[0022]
In the
qi = [(ki-MIN + 0.5) .2 p / DR] (1)
[0023]
Further, the image
[0024]
For example, as shown in FIG. 7, in the
[0025]
In the motion
[0026]
That is, in the motion
[0027]
[Expression 1]
[0028]
In the motion
[0029]
Also, the image
[0030]
[Expression 2]
[0031]
Further, the image
[0032]
Further, the image
[0033]
For example, as shown in FIG. 8, in the
[0034]
FIG. 2 shows a configuration example of a main part of the neural
[0035]
The neural network unit 121 is configured in three layers, with n units in the input layer, four units in the hidden layer, and one unit in the output layer. In this case, each unit of the input layer includes n pieces of SD pixel data x cut out by the
[0036]
Each unit in the hidden layer is coupled to each unit in the input layer with a coupling coefficient. A value indicating the degree of coupling output from each unit in the hidden layer is supplied to the unit in the output layer. Furthermore, the unit of the output layer is coupled to each unit of the hidden layer with a coupling coefficient. A value indicating the degree of coupling output from the output layer unit is supplied to the normalization unit 122 as an output value of the neural network unit 121.
[0037]
FIG. 3 shows a configuration example of the units of the hidden layer and the output layer. Assuming that the number of units in the previous layer is m, the output value of each unit in the previous layer is A 1 ~ A m And the coupling coefficient for coupling with each unit in the previous layer is W 1 ~ W m , The output value U of the unit is expressed by equation (4). In the equation (4), f () is a transfer function as a nonlinear element, and for example, a function like the equation (5) is often used. In this equation (5), a is an appropriate real number.
[0038]
[Equation 3]
[0039]
As described above, the coupling coefficient Wi read from the ROM table 107 corresponding to the class code CL is the coupling coefficient W in the unit of the hidden layer and the output layer. 1 ~ W m Will be used as.
[0040]
The value indicating the degree of coupling obtained from the unit of the output layer of the neural network unit 121 is greater than 0 and smaller than 1. Therefore, in the normalization unit 122, for example, when the pixel signal value is represented by 8 bits, the value indicating the degree of combination is multiplied by “256” to obtain the HD pixel data y as the prediction target pixel value. To be done.
[0041]
The neural
[0042]
The operation of the image
[0043]
Corresponding to the HD pixel data y to be predicted, the SD pixel data mi, ni in a predetermined area is extracted from the SD pixel data supplied to the input terminal 101 by the
[0044]
From this motion class information MV and the requantized code qi obtained by the above-mentioned
[0045]
Corresponding to the HD pixel data y to be predicted, the SD pixel data xi in a predetermined area is cut out by the
[0046]
In the image
[0047]
By the way, the ROM table 107 of the image
[0048]
This coupling
[0049]
Further, the coupling
[0050]
The
[0051]
In addition, the coupling
[0052]
The
[0053]
In addition, the coupling
[0054]
In addition, the coupling
[0055]
Further, the coupling
[0056]
FIG. 10 shows a configuration example of a main part of the neural
[0057]
In this neural
[0058]
Here, the generation of the coupling coefficient in a certain class is performed as follows. First, n SD pixel data x constituting the first learning data among a plurality of learning data of a certain class in the state where the coupling coefficient in the unit of the hidden layer and the output layer of the neural network unit 221 is an initial value. 1 ~ X n Is supplied to the unit of the input layer of the neural network unit 221. In this state, the normalization unit 222 converts the value indicating the degree of coupling obtained from the output layer unit into the pixel signal value yo. Then, the
[0059]
On the other hand, when the error ε is not within a certain range, the coupling coefficient in the output layer of the neural network unit 221 and further the unit of the hidden layer is changed in a direction in which the error ε falls within the certain range. That is, learning is performed by propagating an error in the output layer of the neural network unit 221 toward the input layer. Then, after changing the coupling coefficient in the units of the output layer and the hidden layer in this way, the n pieces of SD pixel data x constituting the second learning data among the plurality of learning data of a certain class 1 ~ X n Is supplied to the unit of the input layer of the neural network unit 221.
[0060]
In this state, the normalization unit 222 converts the value indicating the degree of coupling obtained from the output layer unit into the pixel signal value yo. Then, the
[0061]
In the same manner, the next learning data is used sequentially until the error ε falls within a certain range, and the coupling coefficients in the output layer and hidden layer units of the neural network unit 221 are changed. However, if the error ε does not fall within a certain range even if all the learning data of a certain class is used, the coupling coefficient used in the unit of the output layer and the hidden layer is finally combined. The coefficient Wi is supplied to and stored in the
[0062]
If the error ε does not fall within a certain range even if all the learning data of a certain class is used, the initial value of the coupling coefficient in the unit of the output layer and the hidden layer, and the transfer function of equation (5) The real number a may be changed, and the above-described generation operation may be performed again from the beginning.
[0063]
The operation of the coupling
[0064]
In addition, in accordance with each HD pixel data y as a prediction target pixel value obtained from the HD pixel data supplied to the
[0065]
Corresponding to each HD pixel data y as a prediction target pixel value, SD pixel data mi, ni of a predetermined region are sequentially cut out from the SD pixel data output from the
[0066]
Corresponding to each HD pixel data y as a prediction target pixel value, SD pixel data x i of a predetermined region is sequentially cut out from the SD pixel data output from the
[0067]
FIG. 11 shows a learning flow of coupling coefficients in the neural
[0068]
Next, in step ST3, it is determined whether or not the generation of learning data corresponding to all of the HD pixel data y as prediction target pixel values obtained from the HD pixel data supplied to the
[0069]
Next, in step ST6, it is determined whether or not the generation of the coupling coefficient Wi for all classes has been completed. If not completed, N is incremented by 1 in step ST7, and then the process returns to step ST5 to generate the N-class coupling coefficient Wi as described above. On the other hand, when finished, the learning flow of the coupling coefficient is finished.
[0070]
FIG. 12 shows an N-class coupling coefficient generation processing flow. First, in step ST11, M = 1 is set. Next, in step ST12, n SD pixel data constituting the M-th learning data of the N class are supplied to the input layer unit of the neural network unit 221, and in this state, the degree of coupling is set by the output layer unit. Get the value shown.
[0071]
Next, in step ST13, a value indicating the degree of coupling obtained from the unit of the output layer of the neural network unit 221 is supplied to the normalizing unit 222 and normalized to obtain a pixel signal value yo. In step ST14, the
[0072]
Next, in step ST15, it is determined whether or not the error ε detected in step ST14 is within a sufficiently small fixed range. When the error ε is within a certain range, in step ST16, the coupling coefficient in the unit of the hidden layer and the output layer in that state is supplied to the
[0073]
On the other hand, when the error ε is not within the certain range, the coupling coefficient in the unit of the output layer and the hidden layer of the neural network unit 221 is changed in a direction in which the error ε falls within the certain range in step ST17. In step ST18, M is increased by 1, and then in step ST19, it is determined whether M is larger than the number Mn of learning data classified into the N class.
[0074]
When M> Mn, all of the learning data classified into the N class is used. Therefore, in step ST16, the coupling coefficient in the unit of the hidden layer and the output layer in the state is changed to the coupling coefficient of the N class. Wi is supplied to the
[0075]
Although not shown in FIG. 12, when the error ε does not fall within a certain range even when all of the learning data is used, the initial value of the coupling coefficient in the units of the output layer and the hidden layer and the equation (5) When the real number a in the transfer function is changed and the above-described generation operation is started again from the beginning, when M> Mn in step ST19, the initial value of the coupling coefficient and the real number a of the transfer function are changed, and step ST11 is performed. Return to.
[0076]
In the above embodiment, the ADRC circuits 103 (FIG. 1) and 204 (FIG. 9) are provided as information compression means for patterning the spatial waveform with a small number of bits, but this is only an example. Any information compression means that can be expressed in a class with few signal waveform patterns can be freely provided. For example, compression means such as DPCM (Differential Pulse Code Modulation) and VQ (Vector Quantization) can be used. Good.
[0077]
In the above-described embodiment, the HD pixel data is obtained from the SD pixel data. However, for example, when obtaining other SD pixel data whose resolution is higher than that of certain SD pixel data, or the resolution is higher than that of certain HD pixel data. The present invention can be applied in the same way to obtain other increased HD pixel data. In this case, the number of pixels before conversion and after conversion is the same.
[0078]
In the above-described embodiment, an example in which an NTSC video signal is converted into a high-definition video signal has been described. However, the present invention is not limited to this, and the first image signal is converted into the first image signal. Of course, the present invention can be similarly applied to the case of converting to a second image signal having the same or larger number of pixels as the signal.
[0079]
【The invention's effect】
According to the present invention, when the first image signal is converted into the second image signal having the same or larger number of pixels as the first image signal, the second image signal is configured using the neural network. Since the prediction of the pixel signal to be performed is performed and nonlinear prediction (including linear prediction) is performed, it is possible to always perform prediction of the optimal pixel signal as compared with the prediction based on the conventional linear linear expression. it can.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image signal conversion apparatus according to an embodiment.
FIG. 2 is a diagram illustrating a configuration example of a main part of a neural network prediction circuit of an image signal conversion apparatus.
FIG. 3 is a diagram illustrating a configuration example of a hidden layer and an output layer unit constituting a neural network.
FIG. 4 is a schematic diagram for explaining a positional relationship between SD pixels and HD pixels.
FIG. 5 is a schematic diagram for explaining the positional relationship between SD pixels and HD pixels.
FIG. 6 is a schematic diagram for explaining SD pixel data used for space class classification.
FIG. 7 is a schematic diagram for explaining SD pixel data used for motion class classification;
FIG. 8 is a schematic diagram for explaining SD pixel data used for prediction of HD pixel data using a neural network.
FIG. 9 is a block diagram illustrating a configuration example of a coupling coefficient generation device that generates a coupling coefficient used in a neural network prediction circuit by learning;
FIG. 10 is a diagram illustrating a configuration example of a main part of a neural network learning circuit of a coupling coefficient generation device.
FIG. 11 is a flowchart showing a learning flow of coupling coefficients.
FIG. 12 is a flowchart for explaining N-class coupling coefficient generation processing in a learning flow;
[Explanation of symbols]
DESCRIPTION OF
Claims (7)
上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第1の領域の画素の信号を切り出す第1の画素切り出し手段と、
上記第1の画素切り出し手段により切り出された上記第1の領域の画素の信号のレベル分布パターンを検出し、このパターンに基づいて予測しようとする上記第2の画像信号を構成する所定画素の信号が属するクラスを決定してクラス情報を出力するクラス決定手段と、
少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークにより、上記第2の画像信号を構成する所定画素の信号を予測するニューラルネット予測手段と、
上記クラス情報で示される各クラスに対応した上記ニューラルネット予測手段の上記結合係数を記憶しておく結合係数記憶手段と、
上記クラス決定手段より出力される上記クラス情報に対応して上記結合係数記憶手段より結合係数を読み出す結合係数読み出し手段と、
上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第2の領域の画素の信号を切り出す第2の画素切り出し手段と
を具備し、
上記ニューラルネット予測手段は、
上記結合係数記憶手段より読み出された結合係数を上記ニューラルネットワークの結合係数とし、上記第2の画素切り出し手段により切り出された上記第2の領域の画素の信号を上記ニューラルネットワークの上記入力層のユニットへの入力値として、上記ニューラルネットワークの演算を行なって得られた上記ニューラルネットワークの上記出力層のユニットの出力値を、画素信号値を表現するためのビット数に応じた画素信号値に変換し、上記第2の画像信号を構成する所定画素信号の予測値として出力する
ことを特徴とする画像信号変換装置。In the image signal conversion apparatus configured to convert the first image signal into a second image signal having the same or more pixels as the first image signal,
First pixel cutout means for cutting out a signal of a pixel in a first region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal;
A signal of a predetermined pixel constituting the second image signal to be detected based on the level distribution pattern of the signal of the pixel in the first region cut out by the first pixel cutout unit is detected. A class determining means for determining a class to which the class belongs and outputting class information;
At least an input layer and an output layer are provided, the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the layer after the combination is combined with the output value of the plurality of units of the layer before the combination A neural network prediction means for predicting a signal of a predetermined pixel constituting the second image signal by a neural network including a non-linear operation of a product sum with a coefficient;
Coupling coefficient storage means for storing the coupling coefficient of the neural network prediction means corresponding to each class indicated by the class information;
A coupling coefficient reading means for reading out a coupling coefficient from the coupling coefficient storage means corresponding to the class information output from the class determining means;
Second pixel clipping means for clipping a signal of a pixel in a second region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal,
The neural network prediction means is
The coupling coefficient read out from the coupling coefficient storage means is used as the coupling coefficient of the neural network, and the pixel signal of the second region cut out by the second pixel cutting-out means is input to the input layer of the neural network. As an input value to the unit, the output value of the unit of the output layer of the neural network obtained by performing the operation of the neural network is converted into a pixel signal value corresponding to the number of bits for expressing the pixel signal value. And outputting as a predicted value of a predetermined pixel signal constituting the second image signal.
上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第1の領域の画素の信号を切り出す第1のステップと、
上記第1のステップで切り出された上記第1の領域の画素の信号のレベル分布パターンを検出し、このパターンに基づいて予測しようとする上記第2の画像信号を構成する所定画素の信号が属するクラスを決定してクラス情報を出力する第2のステップと、
少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークにより、上記第2の画像信号を構成する所定画素の信号を予測する第3のステップと、
上記第2のステップで出力される上記クラス情報で示される各クラスに対応した上記結合係数を記憶手段により読み出す第4のステップと、
上記第1の画像信号から上記第2の画像信号を構成する所定画素の近傍に位置する第2の領域の画素の信号を切り出す第5のステップと、
を具備し、
上記第3のステップでは、
上記記憶手段より読み出された結合係数を上記ニューラルネットワークの結合係数とし、上記第2の画素切り出し手段により切り出された上記第2の領域の画素の信号を上記ニューラルネットワークの上記入力層のユニットへの入力値として、上記ニューラルネットワークの演算を行なって得られた上記ニューラルネットワークの上記出力層のユニットの出力値を、画素信号値を表現するためのビット数に応じた画素信号値に変換し、上記第2の画像信号を構成する所定画素信号の予測値として出力する
ことを特徴とする画像信号変換方法。In the image signal conversion method in which the first image signal is converted into a second image signal having the same or larger number of pixels as the first image signal,
A first step of cutting out a signal of a pixel in a first region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal;
The level distribution pattern of the signal of the pixel in the first region cut out in the first step is detected, and the signal of the predetermined pixel constituting the second image signal to be predicted based on this pattern belongs A second step of determining a class and outputting class information;
At least an input layer and an output layer are provided, the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the layer after the combination is combined with the output value of the plurality of units of the layer before the combination A third step of predicting a signal of a predetermined pixel constituting the second image signal by a neural network including a nonlinear operation of a product sum with a coefficient;
A fourth step of reading out the coupling coefficient corresponding to each class indicated by the class information output in the second step by a storage means;
A fifth step of cutting out a signal of a pixel in a second region located in the vicinity of a predetermined pixel constituting the second image signal from the first image signal;
Comprising
In the third step,
The coupling coefficient read from the storage means is used as the coupling coefficient of the neural network, and the pixel signal of the second area cut out by the second pixel cutting-out means is sent to the unit of the input layer of the neural network. As an input value, the output value of the output layer unit of the neural network obtained by performing the operation of the neural network is converted into a pixel signal value corresponding to the number of bits for expressing the pixel signal value, An image signal conversion method comprising: outputting as a predicted value of a predetermined pixel signal constituting the second image signal.
上記第2の画像信号に対応する教師信号に対してその画素数を減らす処理して上記第1の画像信号に対応する入力信号を得る信号処理手段と、
上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第1の領域の画素の信号を順次切り出す第1の画素切り出し手段と、
上記第1の画素切り出し手段により順次切り出された上記第1の領域の画素の信号のレベル分布のパターンを検出し、このパターンに基づいて上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラスを決定してクラス情報を出力するクラス決定手段と、
上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第2の領域の画素の信号を順次切り出す第2の画素切り出し手段と、
少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークの上記入力層のユニットへの入力値として上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素値を入力し、上記教師信号を構成する上記複数の画素値を上記出力層のユニットの出力値に基づく値の真値とする学習によって、上記クラス決定手段より出力される上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラス毎に上記ニューラルネットワークの上記結合係数を得るニューラルネット学習手段と
を備えることを特徴とする結合係数生成装置。In an apparatus for generating a coupling coefficient of a neural network used when converting a first image signal into a second image signal having a larger number of pixels than the first image signal,
Signal processing means for obtaining an input signal corresponding to the first image signal by reducing the number of pixels of the teacher signal corresponding to the second image signal;
First pixel clipping means for sequentially cutting out signals of pixels in a first region located in the vicinity of a plurality of pixels constituting the teacher signal from the input signal;
A level distribution pattern of the signals of the pixels in the first region sequentially cut out by the first pixel cut-out means is detected, and the signals of the plurality of pixels constituting the teacher signal belong to each of the patterns based on the pattern. A class determining means for determining a class and outputting class information;
A second pixel cutout means for sequentially cutting out signals of pixels in a second region located in the vicinity of a plurality of pixels constituting the teacher signal from the input signal;
At least an input layer and an output layer are provided, the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the layer after the combination is combined with the output value of the plurality of units of the layer before the combination Input the pixel values of the second region sequentially cut out by the second pixel cut-out means as input values to the unit of the input layer of the neural network including the non-linear calculation of the product sum with the coefficient, and the teacher signal The plurality of pixel values constituting the teacher signal output from the class determining means are learned by making the plurality of pixel values constituting the true value of the value based on the output value of the unit of the output layer, respectively. And a neural network learning means for obtaining the coupling coefficient of the neural network for each class to which the class belongs.
入力層、隠れ層、出力層の各ユニットからなり、上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素の信号が上記入力層に供給されるニューラルネットワーク部と、
上記ニューラルネットワーク部の出力層のユニットからの出力値を画素信号値を表現するためのビット数に応じた画素信号値に変換する正規化手段と、
上記正規化手段より出力される画素信号値と、上記ニューラルネットワーク部の上記入力層に供給される上記第2の領域の画素の信号に対応した上記教師信号を構成する所定画素の信号とを比較して誤差を検出する誤差検出手段と、
上記クラス情報で示される各クラス毎に、上記第2の画素切り出し手段により順次切り出された上記第2の領域の画素の信号とそれに対応した上記教師信号を構成する所定画素の信号との組み合わせでなる学習データに対し、上記誤差検出手段で検出される誤差が充分小さな一定範囲内に入る方向に上記ニューラルネットワーク部の出力層および隠れ層のユニットにおける結合係数を変更する結合係数変更手段と、
上記誤差が上記一定範囲内に入ったときの上記ニューラルネットワーク部の出力層および隠れ層のユニットにおける結合係数を学習結果とする結合係数決定手段と
を有することを特徴とする請求項5に記載の結合係数生成装置。The neural network learning means
A neural network unit composed of units of an input layer, a hidden layer, and an output layer, and a signal of a pixel in the second region sequentially cut out by the second pixel cutout unit is supplied to the input layer;
Normalization means for converting the output value from the unit of the output layer of the neural network unit into a pixel signal value corresponding to the number of bits for expressing the pixel signal value;
The pixel signal value output from the normalizing means is compared with the signal of a predetermined pixel constituting the teacher signal corresponding to the pixel signal of the second region supplied to the input layer of the neural network unit. And error detection means for detecting the error,
For each class indicated by the class information, a combination of a signal of the pixel in the second area sequentially cut out by the second pixel cut-out unit and a signal of a predetermined pixel constituting the teacher signal corresponding thereto. Coupling coefficient changing means for changing the coupling coefficient in the unit of the output layer and hidden layer of the neural network unit in a direction in which the error detected by the error detection means falls within a sufficiently small fixed range,
6. Coupling coefficient deciding means that uses a coupling coefficient in a unit of an output layer and a hidden layer of the neural network unit when the error falls within the certain range as a learning result. Coupling coefficient generator.
上記第2の画像信号に対応する教師信号に対してその画素数を減らす処理して上記第1の画像信号に対応する入力信号を得る第1のステップと、
上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第1の領域の画素の信号を順次切り出す第2のステップと、
上記第2のステップで順次切り出された上記第1の領域の画素の信号のレベル分布のパターンを検出し、このパターンに基づいて上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラスを決定してクラス情報を出力する第3のステップと、
上記入力信号より、上記教師信号を構成する複数の画素の近傍に位置する第2の領域の画素の信号を順次切り出す第4のステップと、
少なくとも入力層及び出力層を備え、それぞれの層のユニットが層間で所定の結合係数により結合され、結合後の層のユニットへの入力値が結合前の層の複数のユニットの出力値と上記結合係数との積和の非線形演算を含むニューラルネットワークの上記入力層のユニットへの入力値として上記第4のステップで順次切り出された上記第2の領域の画素値を入力し、上記教師信号を構成する上記複数の画素値を上記出力層のユニットの出力値に基づく値の真値とする学習によって、上記第3のステップで出力される上記教師信号を構成する上記複数の画素の信号がそれぞれ属するクラス毎に上記ニューラルネットワークの上記結合係数を得る第5のステップと
を備えることを特徴とする結合係数生成方法。In a method for generating a coupling coefficient of a neural network used when converting a first image signal into a second image signal having a larger number of pixels than the first image signal,
A first step of obtaining an input signal corresponding to the first image signal by processing the teacher signal corresponding to the second image signal to reduce the number of pixels;
A second step of sequentially cutting out signals of pixels in a first region located in the vicinity of a plurality of pixels constituting the teacher signal from the input signal;
The level distribution pattern of the signal of the pixels in the first region sequentially cut out in the second step is detected, and the class to which the signals of the plurality of pixels constituting the teacher signal belong respectively is detected based on the pattern. A third step of determining and outputting class information;
A fourth step of sequentially cutting out the signals of the pixels in the second region located in the vicinity of the plurality of pixels constituting the teacher signal from the input signal;
At least an input layer and an output layer are provided, the units of each layer are combined with each other by a predetermined coupling coefficient, and the input value to the unit of the layer after the combination is combined with the output value of the plurality of units of the layer before the combination A pixel value of the second region sequentially cut out in the fourth step is input as an input value to the unit of the input layer of the neural network including a nonlinear product-sum operation with a coefficient, and the teacher signal is configured The signals of the plurality of pixels constituting the teacher signal output in the third step belong to each of the plurality of pixel values to be learned by learning the true value of the value based on the output value of the output layer unit. And a fifth step of obtaining the coupling coefficient of the neural network for each class.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14280397A JP4447671B2 (en) | 1997-05-30 | 1997-05-30 | Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14280397A JP4447671B2 (en) | 1997-05-30 | 1997-05-30 | Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10336598A JPH10336598A (en) | 1998-12-18 |
JP4447671B2 true JP4447671B2 (en) | 2010-04-07 |
Family
ID=15324007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14280397A Expired - Fee Related JP4447671B2 (en) | 1997-05-30 | 1997-05-30 | Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4447671B2 (en) |
-
1997
- 1997-05-30 JP JP14280397A patent/JP4447671B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10336598A (en) | 1998-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6466269B1 (en) | Video signal converter, conversion method of video signal, image display unit using them and television receiver | |
JPH10112843A (en) | Image processor and image processing method | |
US6477278B1 (en) | Image coding apparatus, image coding method, image decoding method, image decoding apparatus, image data transmitting method and recording medium | |
JPH0795591A (en) | Digital picture signal processing unit | |
JP3946781B2 (en) | Image information conversion apparatus and method | |
JP4447671B2 (en) | Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor | |
US8228995B2 (en) | Image processing apparatus, image processing method, and program | |
JP3703034B2 (en) | Image signal processing method and image signal transmission apparatus | |
JP3743077B2 (en) | Image signal conversion apparatus and method | |
JP3723995B2 (en) | Image information conversion apparatus and method | |
JP4140091B2 (en) | Image information conversion apparatus and image information conversion method | |
JP3759538B2 (en) | Image signal processing method and image signal transmission apparatus | |
JP3243861B2 (en) | Image information conversion device | |
JP3334468B2 (en) | Quantization bit number conversion apparatus and method | |
JPH07193789A (en) | Picture information converter | |
JPH08307835A (en) | Classification adaptive processing unit and its method | |
JPH10112844A (en) | Image processor and image processing method | |
JP3326879B2 (en) | Image signal converter | |
JP4038881B2 (en) | Image signal conversion apparatus and conversion method, and coefficient data generation apparatus and generation method used therefor | |
JPH08317347A (en) | Image information converting device | |
JP3480011B2 (en) | Image information conversion device | |
JP3653287B2 (en) | Image information conversion apparatus and image information conversion method | |
JPH0785287A (en) | Predictive coding device and its decoding device | |
JP4649786B2 (en) | Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient seed data generating apparatus and generating method used therefor | |
JPH0970048A (en) | Vector quantization method, image information compression method, sound information compression method, compressed image information recording medium, compressed image information reproducing device and compressed image information communication equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070123 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070326 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070424 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20090916 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20091028 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091204 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100121 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130129 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140129 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |