Nothing Special   »   [go: up one dir, main page]

JP2010057001A - Image processor, method, and image display device - Google Patents

Image processor, method, and image display device Download PDF

Info

Publication number
JP2010057001A
JP2010057001A JP2008220946A JP2008220946A JP2010057001A JP 2010057001 A JP2010057001 A JP 2010057001A JP 2008220946 A JP2008220946 A JP 2008220946A JP 2008220946 A JP2008220946 A JP 2008220946A JP 2010057001 A JP2010057001 A JP 2010057001A
Authority
JP
Japan
Prior art keywords
video signal
difference
unit
blur
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008220946A
Other languages
Japanese (ja)
Inventor
Akihiro Nagase
章裕 長瀬
Jun Someya
潤 染谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2008220946A priority Critical patent/JP2010057001A/en
Publication of JP2010057001A publication Critical patent/JP2010057001A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that since movement blur included in a video signal is one-dimensional anisotropic blur where the generation direction of blur follows the moving direction, unnecessary sharpening may be performed even to an outline orthogonal to a moving direction in a method for performing frequency conversion uniformly on a screen by using a filtering technology. <P>SOLUTION: An image processor includes: a period decision means (14) for detecting a movement blur period based on the decision result about the continuity of tone change about a video signal; and a correction means (3) for correcting a video signal (d2) based on the detection result of the movement blur period detected by the blur period decision means (14). The correction means (3) corrects a video signal (d2) only in the movement blur period (bf) detected by the blur period decision means (14). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像処理装置及び方法、並びに画像表示装置に関する。   The present invention relates to an image processing apparatus and method, and an image display apparatus.

画像表示装置が受信する映像信号は、カメラの受光部がフレーム蓄積時間(例えば1/60秒)の間に被写体から受ける受光総量を量子化し、規格によって決められた画素順に並べて送られてくるものである。カメラの受光部と被写体が相対的に動く場合、被写体の輪郭部にはフレーム蓄積時間と、カメラと被写体の相対速度によって決まるぼやけ(以下では動きぼやけとする)が発生する。   The video signal received by the image display device is obtained by quantizing the total amount of light received from the subject during the frame accumulation time (for example, 1/60 seconds) by the light receiving unit of the camera, and arranging them in the pixel order determined by the standard. It is. When the light receiving unit of the camera and the subject move relative to each other, blurring (hereinafter referred to as motion blur) is generated in the contour portion of the subject depending on the frame accumulation time and the relative speed between the camera and the subject.

画像に含まれるぼやけを改善する方法として、例えば特許文献1に開示されているような、拡大縮小回路を用いる方法が開示されている。この方法によれば、オーバーシュートやアンダーシュートを付加することなく、フィルタリング技術を用いて映像の輪郭部の立ち上がり、立下りを急峻にすることができる。   As a method for improving blur included in an image, for example, a method using an enlargement / reduction circuit as disclosed in Patent Document 1 is disclosed. According to this method, the rising and falling of the contour portion of the video can be made steep by using a filtering technique without adding overshoot or undershoot.

また、特許文献2には、動きベクトル検出を用いた、ぼやけ関数のデコンボブル手法が開示されている。しかしこの手法は計算量が膨大になり、実際の回路に実装するのはコスト的に困難であった。   Further, Patent Document 2 discloses a blurring function decombination method using motion vector detection. However, this method has an enormous amount of calculation and is difficult to implement in an actual circuit.

特開2002−16820号公報JP 2002-16820 A 特許第3251127号公報Japanese Patent No. 3251127

画像のぼやけは、等方的ぼやけと非等方的ぼやけに分類することができる。
撮像時の焦点ずれ等により発生する等方的ぼやけは、概ねぼやけ幅が狭いこともあり、特許文献1に開示されているフィルタリング技術は、ぼやけを改善する方法として効果的である。
一方、動きぼやけは、ぼやけの発生する方向が、動き方向に沿った一次元の非等方的なぼやけであり、またカメラと被写体の相対速度によりぼやけの幅が大きく変動する。
非等方的ぼやけに特許文献1に開示されているような従来のフィルタリング技術を用いて画面一様に周波数変換する方法を適用すると、動き方向と直交した輪郭に対しても不要な先鋭化が行われてしまうという問題があった。
Image blur can be classified into isotropic blur and anisotropic blur.
The isotropic blur caused by defocusing at the time of imaging has a narrow blur width in general, and the filtering technique disclosed in Patent Document 1 is effective as a method for improving blur.
On the other hand, in motion blur, the direction in which blur occurs is one-dimensional anisotropic blur along the motion direction, and the blur width varies greatly depending on the relative speed between the camera and the subject.
Applying the method of uniformly converting the screen frequency using the conventional filtering technique disclosed in Patent Document 1 to anisotropic blur causes unnecessary sharpening even for the contour orthogonal to the motion direction. There was a problem of being done.

また、ぼやけ幅の広い動きぼやけを補正できるように、フィルタの最適化を行なった場合、グラデーションのような緩やかな輝度変化を有する画像に対してもフィルタリングを行なってしまい、本来表示したい画像と異なる画像に誤変換してしまう恐れがあった。   Also, when the filter is optimized so that motion blur with a wide blur width can be corrected, filtering is performed even on an image having a gradual change in luminance such as gradation, which is different from the image originally intended to be displayed. There was a risk of erroneous conversion to images.

さらに、特許文献2に開示されているような動きベクトル検出手法を用いて被写体の移動方向を特定し、適応的にフィルタリング処理を行う場合、検出回路規模が増大してしまうため、コスト的に難しいという問題があった。   Furthermore, when the moving direction of a subject is specified using a motion vector detection method as disclosed in Patent Document 2 and adaptive filtering is performed, the detection circuit scale increases, which is difficult in terms of cost. There was a problem.

本発明は上記の課題に鑑みてなされたものであり、回路規模を増大させることなく、映像信号に含まれる動きぼやけを検出し、また検出された動きぼやけを低減することが可能な画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and is an image processing apparatus capable of detecting motion blur included in a video signal and reducing the detected motion blur without increasing the circuit scale. The purpose is to provide.

本発明の画像処理装置は、
入力された映像信号に対してフレーム遅延していない第1の映像信号と、入力された映像信号に対して、所定のフレーム数遅延している第2の映像信号と、前記第2の映像信号に対して、前記所定のフレーム数遅延している第3の映像信号とを生成する遅延手段と、
前記第1の映像信号の高周波成分を除去して、第1のフィルタ後映像信号を出力する第1のローパスフィルタと、
前記第2の映像信号の高周波成分を除去して、第2のフィルタ後映像信号を出力する第2のローパスフィルタと、
前記第3の映像信号の高周波成分を除去して、第3のフィルタ後映像信号を出力する第3のローパスフィルタと、
前記第1のフィルタ後映像信号と前記第2のフィルタ後映像信号の階調差を検出する第1の差分検出手段と、
前記第2のフィルタ後映像信号と前記第3のフィルタ後映像信号の階調差を検出する第2の差分検出手段と、
前記第3のフィルタ後映像信号と前記第1のフィルタ後映像信号の階調差を検出する第3の差分検出手段と、
前記第3の差分検出手段が出力する映像信号の画素間変化を検出する微分手段と、
前記第2の映像信号において、階調変化の連続性を判定する輪郭形状判定手段と、
前記第1の差分検出手段で検出された前記階調差と、前記第2の差分検出手段で検出された前記階調差と、前記微分手段で検出された画素間変化の検出結果と、前記輪郭形状判定手段で検出された前記第2の映像信号の階調変化の連続性についての判定結果を元に、動きぼやけ期間を検出するぼやけ期間判定手段と、
前記ぼやけ期間判定手段による動きぼやけ期間の検出結果を元に、前記第2の映像信号を補正する補正手段とを有し、
前記ぼやけ補正手段は、前記ぼやけ期間判定手段で検出された前記動きぼやけ期間の間のみ前記第2の映像信号を補正する
ことを特徴とする。
The image processing apparatus of the present invention
A first video signal that is not frame-delayed with respect to the input video signal; a second video signal that is delayed by a predetermined number of frames with respect to the input video signal; and the second video signal A delay means for generating a third video signal delayed by the predetermined number of frames;
A first low-pass filter for removing a high-frequency component of the first video signal and outputting a first filtered video signal;
A second low-pass filter for removing a high-frequency component of the second video signal and outputting a second filtered video signal;
A third low-pass filter that removes high-frequency components of the third video signal and outputs a third filtered video signal;
First difference detection means for detecting a gradation difference between the first filtered video signal and the second filtered video signal;
Second difference detection means for detecting a gradation difference between the second filtered video signal and the third filtered video signal;
Third difference detection means for detecting a gradation difference between the third filtered video signal and the first filtered video signal;
Differentiating means for detecting an inter-pixel change in the video signal output by the third difference detecting means;
Contour shape determining means for determining continuity of gradation change in the second video signal;
The gradation difference detected by the first difference detection means, the gradation difference detected by the second difference detection means, the detection result of the inter-pixel change detected by the differentiation means, A blur period determination unit that detects a motion blur period based on a determination result about the continuity of gradation change of the second video signal detected by the contour shape determination unit;
Correction means for correcting the second video signal based on the detection result of the motion blur period by the blur period determination means;
The blur correction unit corrects the second video signal only during the motion blur period detected by the blur period determination unit.

本発明によれば、動き方向と直交した輪郭に対して不要な先鋭化処理が施されることなく、入力された映像信号に含まれる動きぼやけ幅を低減することが可能になる。   According to the present invention, it is possible to reduce the motion blur width included in the input video signal without performing unnecessary sharpening processing on the contour orthogonal to the motion direction.

実施の形態1.
図1は、本発明に係る画像表示装置の構成を示すブロック図である。図示の画像表示装置81は、遅延部1と、ぼやけ検出部2と、ぼやけ補正部3と、画像表示部4とを備えている。遅延部1と、ぼやけ検出部2と、ぼやけ補正部3とで、画像処理装置が構成される。
画像表示装置81に入力された映像信号は、遅延部1に供給される。遅延部1はフレームメモリを用いて、入力された信号のフレーム遅延を行い、複数のフレーム遅延された信号d1、d2、d3をぼやけ検出部2及びぼやけ補正部3に出力する。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of an image display apparatus according to the present invention. The illustrated image display device 81 includes a delay unit 1, a blur detection unit 2, a blur correction unit 3, and an image display unit 4. The delay unit 1, the blur detection unit 2, and the blur correction unit 3 constitute an image processing apparatus.
The video signal input to the image display device 81 is supplied to the delay unit 1. The delay unit 1 performs frame delay of the input signal using a frame memory, and outputs a plurality of frame-delayed signals d1, d2, and d3 to the blur detection unit 2 and the blur correction unit 3.

ぼやけ検出部2は、遅延部2から出力された複数の異なるフレームの映像信号d1、d2、d3から映像中に含まれる動きぼやけ領域を検出し、動きぼやけ検出フラグbfを出力する。   The blur detection unit 2 detects a motion blur region included in the video from the video signals d1, d2, and d3 of a plurality of different frames output from the delay unit 2, and outputs a motion blur detection flag bf.

ぼやけ補正部3は、ぼやけ検出部2にて検出された、動きぼやけ検出フラグbfを元に、遅延部1から出力された映像信号d2を変換し、画像表示部4に出力する。   The blur correction unit 3 converts the video signal d2 output from the delay unit 1 based on the motion blur detection flag bf detected by the blur detection unit 2, and outputs the video signal d2 to the image display unit 4.

図2は、遅延部1の一例を示すブロック図である。図示の遅延部1はフレームメモリ制御部5と、フレームメモリ6から構成されている。フレームメモリ6は入力される映像信号を少なくとも2フレーム記憶可能な容量を有している。   FIG. 2 is a block diagram illustrating an example of the delay unit 1. The illustrated delay unit 1 includes a frame memory control unit 5 and a frame memory 6. The frame memory 6 has a capacity capable of storing at least two frames of input video signals.

フレームメモリ制御部5は、入力された映像信号d0に含まれる同期信号を元に生成した、メモリアドレスに従い、入力映像信号の書込みと、蓄積された映像信号の読み出しとを行い、例えば連続する3フレームの映像信号d1、d2、d3を生成する。   The frame memory control unit 5 writes the input video signal and reads the stored video signal according to the memory address generated based on the synchronization signal included in the input video signal d0. Frame video signals d1, d2, and d3 are generated.

映像信号d1は、入力映像信号d0に対して遅延がないものであり、現フレーム映像信号とも呼ばれる。映像信号d2は、映像信号d1に対して1フレーム遅延したものであり、1フレーム遅延映像信号とも呼ばれる。映像信号d3は、映像信号d2に対して1フレーム遅延したもの、即ち映像信号d1に対して2フレーム遅延したものであり、2フレーム遅延映像信号とも呼ばれる。また、以下のように、映像信号d2を対象として処理を行うので、映像信号d2を注目フレーム映像信号と呼び、映像信号d1を前フレーム映像信号、映像信号d3を後フレーム映像信号と呼ぶこともある。   The video signal d1 has no delay with respect to the input video signal d0, and is also called a current frame video signal. The video signal d2 is delayed by one frame with respect to the video signal d1, and is also called a one-frame delayed video signal. The video signal d3 is delayed by one frame with respect to the video signal d2, that is, delayed by two frames with respect to the video signal d1, and is also called a two-frame delayed video signal. In addition, since the processing is performed on the video signal d2 as described below, the video signal d2 is also referred to as a target frame video signal, the video signal d1 is also referred to as a previous frame video signal, and the video signal d3 is also referred to as a rear frame video signal. is there.

図3はぼやけ検出部2の一例を示すブロック図である。図示のぼやけ検出部2は、ローパスフィルタ(以下LPF)7、8、9と、差分検出部11、12、27と、ぼやけ期間判定部14と、微分部28と、輪郭形状判定部35とを備える。   FIG. 3 is a block diagram illustrating an example of the blur detection unit 2. The illustrated blur detection unit 2 includes low-pass filters (hereinafter referred to as LPF) 7, 8 and 9, difference detection units 11, 12 and 27, a blur period determination unit 14, a differentiation unit 28, and a contour shape determination unit 35. Prepare.

遅延部1から出力された映像信号d1、d2、d3は、それぞれLPF7、8、9に供給される。LPF7は、遅延部1から出力された映像信号d1の高周波成分を除去し、映像信号e1を生成し、それぞれ差分検出部11、27に出力する。
LPF8は、遅延部1より1フレーム遅れで出力された映像信号d2の高周波成分を除去し、映像信号e2を生成して差分検出部11、12に出力する。
LPF9は、遅延部1から出力された映像信号d3の高周波成分を除去し、映像信号e3を生成し、差分検出部12、27に出力する。
The video signals d1, d2, and d3 output from the delay unit 1 are supplied to the LPFs 7, 8, and 9, respectively. The LPF 7 removes the high frequency component of the video signal d1 output from the delay unit 1, generates a video signal e1, and outputs the video signal e1 to the difference detection units 11 and 27, respectively.
The LPF 8 removes a high-frequency component of the video signal d2 output with a delay of one frame from the delay unit 1, generates a video signal e2, and outputs it to the difference detection units 11 and 12.
The LPF 9 removes the high frequency component of the video signal d3 output from the delay unit 1, generates the video signal e3, and outputs the video signal e3 to the difference detection units 12 and 27.

差分検出部11は、入力された映像信号e1と映像信号e2の差分、即ち画素ごとのフレーム間補正差分を検出し、差分補正信号g1をぼやけ期間判定部14に出力する。差分検出部11から出力されるフレーム間補正差分は、各画素についての、1フレーム間の差分を、後述のように補正した値である。
同様に、差分検出部12は、入力された映像信号e3と映像信号e2の差分、即ち画素ごとのフレーム間補正差分を検出し、差分補正信号g2をぼやけ期間判定部14に出力する。差分検出部12から出力されるフレーム間補正差分も、各画素についての、1フレーム間の差分を、後述のように補正した値である。
同様に、差分検出部27は、入力された映像信号e3と映像信号e1の差分、即ち画素ごとの(各画素についての)フレーム間補正差分を検出し、差分補正信号g3を微分部28に出力する。差分検出部27から出力されるフレーム間補正差分は、各画素についての、2フレーム間の差分を、後述のように補正した値である。
The difference detection unit 11 detects a difference between the input video signal e1 and the video signal e2, that is, an inter-frame correction difference for each pixel, and outputs a difference correction signal g1 to the blur period determination unit 14. The inter-frame correction difference output from the difference detection unit 11 is a value obtained by correcting the difference between one frame for each pixel as described later.
Similarly, the difference detection unit 12 detects a difference between the input video signal e3 and the video signal e2, that is, an inter-frame correction difference for each pixel, and outputs a difference correction signal g2 to the blur period determination unit 14. The inter-frame correction difference output from the difference detection unit 12 is also a value obtained by correcting the difference between one frame for each pixel as described later.
Similarly, the difference detection unit 27 detects the difference between the input video signal e3 and the video signal e1, that is, the inter-frame correction difference (for each pixel) for each pixel, and outputs the difference correction signal g3 to the differentiation unit 28. To do. The inter-frame correction difference output from the difference detection unit 27 is a value obtained by correcting the difference between two frames for each pixel as described later.

微分部28は、差分補正信号g3の各画素についての差分補正信号g3と、その直前に位置する画素についての差分補正信号g3との差を求め、隣接画素間変化量f3としてぼやけ期間判定部14に出力する。ここで「直前」というのは、画素の処理順における「直前」を意味し、通常のごとく各水平ライン内の画素が左から右へという順で処理される場合、左側に位置し、隣接する画素である。   The differentiating unit 28 obtains a difference between the difference correction signal g3 for each pixel of the difference correction signal g3 and the difference correction signal g3 for the pixel located immediately before the difference correction signal g3, and determines the difference between adjacent pixels f3 as the blur period determination unit 14. Output to. Here, “immediately before” means “immediately before” in the processing order of pixels, and when pixels in each horizontal line are processed in order from left to right as usual, they are located on the left side and adjacent to each other. Pixel.

遅延部1から出力された映像信号d2は、輪郭形状判定部35にも入力される。輪郭形状判定部35は、映像信号d2の階調変化の連続性を判定し、連続性を有する場合には、輪郭形状検出フラグefを第1の値、例えば「Hi」として、ぼやけ期間判定部14に出力する。
ここで、「階調変化が連続性を有する場合」とは、所定の条件を満たす階調変化が所定の画素期間以上継続する場合を言う。所定の条件とは、例えば1画素期間にわたる階調変化(隣接する画素間の差分)が所定の範囲内であることである。所定の範囲は、例えば現在の画素とその一つ前の画素との変化を基準にしてそれより第1の所定値だけ大きい値を上限値とし、それより第2の所定値だけ小さい値を下限値とする範囲である。「所定の画素期間以上継続する」とは現在の画素よりも前に連続して処理された所定数以上の画素について同じ結果が得られることを意味する。画素間距離が一定であることを考慮すれば、隣接画素間の差分で与えられる階調変化は、「階調変化率」と言うこともでき、「隣接画素間の差分で与えられる階調変化が所定の範囲内である」ということは、「階調変化率が所定の範囲内である」こと言い換えることもできる。
The video signal d2 output from the delay unit 1 is also input to the contour shape determination unit 35. The contour shape determination unit 35 determines the continuity of the gradation change of the video signal d2, and if it has continuity, the contour shape detection flag ef is set to a first value, for example, “Hi”, and the blur period determination unit. 14 for output.
Here, “when the gradation change has continuity” means a case where the gradation change satisfying a predetermined condition continues for a predetermined pixel period or longer. The predetermined condition is, for example, that the gradation change (difference between adjacent pixels) over one pixel period is within a predetermined range. The predetermined range is, for example, based on the change between the current pixel and the previous pixel as a reference, a value that is larger than the first predetermined value as an upper limit value, and a value that is smaller than the second predetermined value as a lower limit. The range of values. “Continue for a predetermined pixel period or more” means that the same result is obtained for a predetermined number or more of pixels that are continuously processed before the current pixel. Considering that the distance between pixels is constant, the gradation change given by the difference between adjacent pixels can also be called “gradation change rate”. "Is within a predetermined range" can be rephrased as "the gradation change rate is within a predetermined range".

ぼやけ期間判定部14では、輪郭形状判定部35から出力された輪郭形状検出フラグefと、差分検出部11及び12で求められた差分補正信号g1及びg2と、微分部28で求められたフレーム間差分微分結果f3とを元に、動きぼやけが発生したか否か、即ちぼやけ期間か否かを判定し、判定結果bfを出力する。   In the blur period determination unit 14, the contour shape detection flag ef output from the contour shape determination unit 35, the difference correction signals g 1 and g 2 obtained by the difference detection units 11 and 12, and the inter-frame obtained by the differentiation unit 28 Based on the differential result f3, it is determined whether or not motion blur has occurred, that is, whether or not it is a blur period, and a determination result bf is output.

図4は輪郭形状判定部35の構成の一例を示すブロック図である。図示の輪郭形状判定部35は、微分部36と、微分結果記憶部37と、連続性判定部38とを備える。
遅延部1から出力された映像信号d2は微分部36に入力される。微分部36は、各画素についての映像信号d2と、それよりも1画素前の映像信号との差分(隣接画素間輝度変化量)を求め、該差分を当該画素についての微分結果として出力する。
微分部36から出力される微分結果Pkは、微分結果記憶部37及び連続性判定部38に供給される。
FIG. 4 is a block diagram illustrating an example of the configuration of the contour shape determination unit 35. The illustrated contour shape determination unit 35 includes a differentiation unit 36, a differentiation result storage unit 37, and a continuity determination unit 38.
The video signal d2 output from the delay unit 1 is input to the differentiation unit 36. The differentiating unit 36 obtains a difference (brightness change amount between adjacent pixels) between the video signal d2 for each pixel and the video signal one pixel before that, and outputs the difference as a differentiation result for the pixel.
The differentiation result Pk output from the differentiation unit 36 is supplied to the differentiation result storage unit 37 and the continuity determination unit 38.

微分結果記憶部37は、微分部36から出力される微分結果(現在の微分結果)Pkを一時的に記憶し、記憶された微分結果Pkは、1画素期間、2画素期間、3画素期間、4画素期間遅延後に1画素遅延の微分結果、2画素遅延の微分結果、3画素遅延の微分結果、4画素遅延の微分結果として読み出される。
従って、各時点においては、現在の微分結果(注目画素についての微分結果)Pkに対して、1画素遅延、2画素遅延、3画素遅延、4画素遅延の微分結果DPk1、DPk2、DPk3、DPk4が記憶部37から読み出され、現在の微分結果Pkとともに連続性判定部38に入力される。
現在の微分結果は、注目画素についての微分結果であり、1画素遅延、2画素遅延、3画素遅延、4画素遅延の微分結果DPk1、DPk2、DPk3、DPk4は、注目画素よりも前に位置する画素についての微分結果であるとも言える。ここで「前」というのは、画素の処理順における「前」を意味し、通常のごとく、各水平ライン内の画素が左から右へという順で処理される場合、「左」の画素である。
The differentiation result storage unit 37 temporarily stores the differentiation result (current differentiation result) Pk output from the differentiation unit 36, and the stored differentiation result Pk includes one pixel period, two pixel periods, three pixel periods, After the 4-pixel period delay, the differential result of 1-pixel delay is read as the differential result of 2-pixel delay, the differential result of 3-pixel delay, and the differential result of 4-pixel delay.
Therefore, at each time point, the differential results DPk1, DPk2, DPk3, DPk4 of 1 pixel delay, 2 pixel delay, 3 pixel delay, and 4 pixel delay are obtained with respect to the current differential result (differential result for the target pixel) Pk. The data is read from the storage unit 37 and input to the continuity determination unit 38 together with the current differentiation result Pk.
The current differential result is a differential result for the target pixel, and the differential results DPk1, DPk2, DPk3, and DPk4 of 1 pixel delay, 2 pixel delay, 3 pixel delay, and 4 pixel delay are located before the target pixel. It can also be said that this is a differential result for a pixel. Here, “previous” means “previous” in the processing order of pixels. As usual, when pixels in each horizontal line are processed in order from left to right, is there.

連続性判定部38は、微分結果記憶部37から出力される遅延された微分結果(注目画素よりも前に位置する画素についての微分結果)DPk1〜DPk4が、現在の微分結果Pkを含む所定の範囲内のものかどうかの判定を行なうことで、階調変化の連続性の有無を判定する。具体的には、予め与えられる閾値S8と微分結果Pkを加算したもの(Pk+S8)、および微分結果Pkから予め与えられる閾値S9を減算したもの(Pk−S9)の値の間に、微分結果記憶部37から出力される連続する4つの微分結果が全て含まれるか否かを判定し、「含まれる」場合、すなわち
(Pk+S8)≧DPkx≧(Pk−S9) (x=1,2,3,4) …(102)
の場合、階調変化(傾き)に連続性があると判断し、連続性判定部38は輪郭形状検出フラグefの値を、第1の値、例えば「1」として、出力する。
The continuity determination unit 38 outputs a delayed differentiation result (differentiation result for a pixel located before the target pixel) DPk1 to DPk4 output from the differentiation result storage unit 37 and includes a predetermined differentiation result Pk. By determining whether it is within the range, it is determined whether there is continuity of gradation change. Specifically, the differential result storage is performed between the value obtained by adding the threshold value S8 given in advance and the differentiation result Pk (Pk + S8) and the value obtained by subtracting the threshold value S9 given in advance from the differentiation result Pk (Pk−S9). It is determined whether or not all four consecutive differential results output from the unit 37 are included, and if “included”, that is, (Pk + S8) ≧ DPkx ≧ (Pk−S9) (x = 1, 2, 3, 4) ... (102)
In this case, it is determined that the gradation change (gradient) has continuity, and the continuity determination unit 38 outputs the value of the contour shape detection flag ef as a first value, for example, “1”.

閾値S8と閾値S9とは同じ値であっても良く、互いに異なる値であっても良い。
以上の処理を行なうことで、連続性判定部38は、互いに隣接する画素間の、階調値の差分(階調変化率、微分値)が、連続して所定の画素数の区間にわたり、現在の階調変化率Pkを含む所定の範囲((Pk−S9)から(Pk+S8)までの範囲)内に入るかどうかの判定を行なう。
The threshold value S8 and the threshold value S9 may be the same value or different values.
By performing the above processing, the continuity determination unit 38 allows the difference in gradation values (gradation change rate, differential value) between adjacent pixels to be continuously present over a predetermined number of pixels. It is determined whether or not it falls within a predetermined range (range from (Pk−S9) to (Pk + S8)) including the gradation change rate Pk.

なお、上記の例では、「所定の画素数の区間」が「4画素の区間」であるが、4画素に限定されず、他の数の画素数であっても良い。「n画素の区間(nは自然数)」にするには、微分結果記憶部37にn個以上の画素についての微分結果を記憶させ、現在の微分結果Pkが微分部36から連続性判定部38に供給されるときに、微分結果記憶部37から、最近のn個の微分結果DPk1〜DPknを、連続性判定部38に供給すれば良い。   In the above example, the “section of the predetermined number of pixels” is the “section of four pixels”, but is not limited to four pixels, and may be another number of pixels. In order to make “n pixel interval (n is a natural number)”, the differential result storage unit 37 stores the differential results for n or more pixels, and the current differential result Pk is changed from the differential unit 36 to the continuity determination unit 38. The latest n differential results DPk1 to DPkn may be supplied from the differential result storage unit 37 to the continuity determination unit 38.

図5は、ぼやけ補正部3の一例を示した図である。図示のぼやけ補正部3は、輪郭形状計算部15と、画素変換部16とを備える。
輪郭形状計算部15は、入力される動きぼやけ判定結果bfを元に、輪郭形状を算出し、画素変換部16に対して、変換制御信号jを出力する。
画素変換部16は、変換制御信号jと、入力される映像信号d1及びd3を元に、映像信号d2を変換し、変換後の映像信号kを出力する。
FIG. 5 is a diagram illustrating an example of the blur correction unit 3. The illustrated blur correction unit 3 includes a contour shape calculation unit 15 and a pixel conversion unit 16.
The contour shape calculation unit 15 calculates a contour shape based on the input motion blur determination result bf, and outputs a conversion control signal j to the pixel conversion unit 16.
The pixel conversion unit 16 converts the video signal d2 based on the conversion control signal j and the input video signals d1 and d3, and outputs the converted video signal k.

以下、画像表示装置81の各構成要素の動作についてさらに詳しく説明する。
画像表示装置81に入力された映像信号d0は遅延部1に入力される。
図6(a)〜(f)は、遅延部1に入力される映像信号d0と、出力される映像信号d1、d2、d3の関係を説明する図である。図6(a)に示される入力垂直同期信号SYIに同期して、図6(b)に示すように、フレームF0、F1、F2、F3の入力映像信号d0が順次入力される。フレームメモリ制御部5は入力垂直同期信号SYIを元にフレームメモリ書込みアドレスを生成し、入力映像信号d0をフレームメモリ6に記憶させると共に、図6(c)に示す出力垂直同期信号SYO(入力垂直同期信号SYIに対して遅れがないものとして示してある)に同期して、図6(d)に示すように、入力映像信号d0に対してフレーム遅延のない映像信号d1(フレームF0、F1、F2、F3の映像信号)を出力する。フレームメモリ制御部5はまた、入力垂直同期信号を元にフレームメモリ読み出しアドレスを生成し、フレームメモリ6に蓄えられた、1フレーム遅延映像信号d2(図6(e))及び2フレーム遅延映像信号d3(図6(f))をそれぞれ読み出して出力する。この結果、遅延部1からは、連続する3フレームの映像信号d1、d2、d3が同時に出力される。即ち、フレームF2の映像信号が映像信号d0として入力されるタイミング(フレーム期間)に、フレームF2、F1、F0の映像信号が映像信号d1、d2、d3として出力され、フレームF3の映像信号が映像信号d0として入力されるタイミング(フレーム期間)に、フレームF3、F2、F1の映像信号が映像信号d1、d2、d3として出力される。
Hereinafter, the operation of each component of the image display device 81 will be described in more detail.
The video signal d0 input to the image display device 81 is input to the delay unit 1.
6A to 6F are diagrams for explaining the relationship between the video signal d0 input to the delay unit 1 and the output video signals d1, d2, and d3. In synchronization with the input vertical synchronization signal SYI shown in FIG. 6A, as shown in FIG. 6B, the input video signals d0 of the frames F0, F1, F2, and F3 are sequentially input. The frame memory control unit 5 generates a frame memory write address based on the input vertical synchronization signal SYI, stores the input video signal d0 in the frame memory 6, and outputs the output vertical synchronization signal SYO (input vertical) shown in FIG. In synchronization with the synchronization signal SYI), as shown in FIG. 6 (d), the video signal d1 (frames F0, F1,. F2 and F3 video signals) are output. The frame memory control unit 5 also generates a frame memory read address based on the input vertical synchronization signal, and stores the 1-frame delayed video signal d2 (FIG. 6 (e)) and the 2-frame delayed video signal stored in the frame memory 6. d3 (FIG. 6F) is read and output. As a result, the delay unit 1 outputs three consecutive frames of video signals d1, d2, and d3 simultaneously. That is, at the timing (frame period) when the video signal of the frame F2 is input as the video signal d0, the video signals of the frames F2, F1, and F0 are output as the video signals d1, d2, and d3, and the video signal of the frame F3 is the video. Video signals of frames F3, F2, and F1 are output as video signals d1, d2, and d3 at the timing (frame period) that is input as the signal d0.

遅延部1から出力された、連続する3フレームの映像信号d1、d2、d3は、ぼやけ検出部2及びぼやけ補正部3へ出力される。ぼやけ検出部2に入力された映像信号d1、d2、d3は、LPF7、8、9にそれぞれ入力される。   Three consecutive frames of video signals d1, d2, and d3 output from the delay unit 1 are output to the blur detection unit 2 and the blur correction unit 3. The video signals d1, d2, and d3 input to the blur detection unit 2 are input to the LPFs 7, 8, and 9, respectively.

図7は、映像信号d1、d2、d3の例を示す。水平方向は画素位置を、垂直方向は階調を示しており、階調が緩やかに変化している画像の輪郭部を示している。   FIG. 7 shows an example of the video signals d1, d2, and d3. The horizontal direction indicates the pixel position, and the vertical direction indicates the gradation, indicating the contour portion of the image where the gradation changes gently.

LPF7、8、9は、図7に示される映像信号の高周波成分を除去する。このように高周波成分を除去するのは、フレーム蓄積時間に起因するぼやけは比較的遷移幅の広い、言い換えれば比較的動きの速い映像で問題となり、このため、入力信号の高周波数成分は、フレーム蓄積時間に起因するぼやけの検出には不要な成分であるからである。   The LPFs 7, 8, and 9 remove high frequency components of the video signal shown in FIG. The removal of high-frequency components in this way causes blurring due to the frame accumulation time to be a problem with a relatively wide transition width, in other words, a relatively fast moving image. This is because it is an unnecessary component for detecting blur caused by the accumulation time.

図8に、図7に示す映像信号を、LPFを用いて高周波成分を除去した映像信号eの例を示す。LPF7、8、9から出力された信号e1、e2、e3は、差分検出部11、12、27に入力される。   FIG. 8 shows an example of a video signal e obtained by removing high frequency components from the video signal shown in FIG. 7 using LPF. The signals e1, e2, e3 output from the LPFs 7, 8, 9 are input to the difference detectors 11, 12, 27.

図9(a)及び(b)は、連続した3フレームの信号e1、e2、e3の関係を示す図である。
通常、60フレーム/秒で送信されてくる映像信号は、フレーム蓄積時間1/60秒での撮影で得られたものであるため、被写体が動いている場合、その輪郭部Ce3、Ce2、Ce1は図9(a)及び(b)に示すようにフレーム間で連続して観測される。具体的には、被写体が動いている場合、図9(a)に示すように、2フレーム遅延信号e3の階調変化が終わった画素位置で、1フレーム遅延信号e2の階調変化が始まる。同様に、図9(b)に示すように、1フレーム遅延信号e2の階調変化が終わった画素位置で、現フレーム信号e1の階調が変化し始める。
FIGS. 9A and 9B are diagrams illustrating the relationship between signals e1, e2, and e3 of three consecutive frames.
Normally, since the video signal transmitted at 60 frames / second is obtained by photographing with a frame accumulation time of 1/60 seconds, when the subject is moving, the contour portions Ce3, Ce2, Ce1 are As shown in FIGS. 9A and 9B, observation is continued between frames. Specifically, when the subject is moving, as shown in FIG. 9A, the gradation change of the 1-frame delay signal e2 starts at the pixel position where the gradation change of the 2-frame delay signal e3 ends. Similarly, as shown in FIG. 9B, the gradation of the current frame signal e1 starts to change at the pixel position where the gradation change of the one-frame delay signal e2 has ended.

図10は差分検出部11の一例を示した図である。図示の差分検出部11は差分計算部19と、差分補正部20とを備える。
差分計算部19は、入力信号e1、e2相互間の差分を計算し、計算結果deを出力する。
計算結果deは、差分補正部20に供給される。
差分補正部20は、予め与えられた閾値S3を用いて差分計算結果deを補正し、差分補正信号g1を生成し出力する。
FIG. 10 is a diagram illustrating an example of the difference detection unit 11. The illustrated difference detection unit 11 includes a difference calculation unit 19 and a difference correction unit 20.
The difference calculation unit 19 calculates a difference between the input signals e1 and e2 and outputs a calculation result de.
The calculation result de is supplied to the difference correction unit 20.
The difference correction unit 20 corrects the difference calculation result de using a threshold value S3 given in advance, and generates and outputs a difference correction signal g1.

図11(a)及び(b)は差分検出部11の動作を説明するための図である。
図11(a)は、入力される2フレーム分の信号e1、e2を示す。図11(b)は差分計算結果de(=e2−e1)を示す。図11(c)は生成された差分補正信号g1を示す。ここでそれぞれの図の横軸は画素位置を示している。
入力される連続する2フレームの信号e2、e1(図11(a))に、被写体が動いている箇所がある場合、差分計算部19にてフレーム間差分を取ると、図11(b)に示すように、フレーム間で輪郭が連続する画素位置Eeをピークとする、差分計算結果deが得られる。
FIGS. 11A and 11B are diagrams for explaining the operation of the difference detection unit 11.
FIG. 11A shows the signals e1 and e2 for two frames to be input. FIG. 11B shows the difference calculation result de (= e2-e1). FIG. 11C shows the generated difference correction signal g1. Here, the horizontal axis of each figure indicates the pixel position.
If there is a place where the subject is moving in the two consecutive frames of signals e2 and e1 (FIG. 11 (a)), the difference calculation unit 19 obtains the interframe difference as shown in FIG. 11 (b). As shown, a difference calculation result de having a peak at the pixel position Ee where the contours are continuous between frames is obtained.

差分計算部19より出力された差分計算結果deは差分量補正部20に入力される。映像信号にはノイズ成分が重畳されていることが多く、本来被写体が動いていない箇所でも、フレーム間で差分量を計算すると、若干の差が検出されることがある。そこで差分量補正部20では、差分計算結果deの大きさを閾値S3の大きさだけ減少させる処理を行う。即ち、差分計算結果deの絶対値から閾値S3を減算する。これにより、ノイズによる誤検出を低減した差分補正信号g1(図11(c))を生成し出力する。
なお、以下の説明から理解されるように、ぼやけ検出部2内における処理では、差分の絶対値のみが問題になるので、差分検出部27において差分を求める場合、2つの信号のどちらからどちらを減算するかは問題とならない。差分検出部11、12においても同じである。
The difference calculation result de output from the difference calculation unit 19 is input to the difference amount correction unit 20. In many cases, a noise component is superimposed on a video signal, and a slight difference may be detected when a difference amount is calculated between frames even in a place where the subject is not originally moving. Therefore, the difference amount correction unit 20 performs a process of reducing the magnitude of the difference calculation result de by the magnitude of the threshold value S3. That is, the threshold value S3 is subtracted from the absolute value of the difference calculation result de. As a result, a difference correction signal g1 (FIG. 11C) in which erroneous detection due to noise is reduced is generated and output.
As will be understood from the following description, only the absolute value of the difference becomes a problem in the processing in the blur detection unit 2. Therefore, when obtaining the difference in the difference detection unit 27, which of the two signals is used. It doesn't matter if you subtract. The same applies to the difference detection units 11 and 12.

差分計算部12の構成及び動作は差分計算部11と同じであるが、信号e1、e2の代わりに、信号e2、e3が入力され、信号g1の代わりに信号g2を出力する。   The configuration and operation of the difference calculation unit 12 are the same as those of the difference calculation unit 11, but signals e2 and e3 are input instead of the signals e1 and e2, and a signal g2 is output instead of the signal g1.

同様に、差分計算部27の構成及び動作は差分計算部11と同じであるが、信号e1、e2の代わりに、信号e1、e3が入力され、信号g1の代わりに信号g3を出力する。   Similarly, the configuration and operation of the difference calculation unit 27 are the same as those of the difference calculation unit 11, but signals e1 and e3 are input instead of the signals e1 and e2, and a signal g3 is output instead of the signal g1.

g1、g2、g3は以下の式で表される。
|e2−e1|>S3の場合には、g1=|e2−e1|−S3
そうでない場合には、g1=0
|e3−e2|>S3の場合には、g2=|e3−e2|−S3
そうでない場合には、g2=0
|e3−e1|>S3の場合には、g3=|e3−e1|−S3
そうでない場合には、g3=0
g1, g2, and g3 are represented by the following formulas.
When | e2-e1 |> S3, g1 = | e2-e1 | -S3
Otherwise, g1 = 0
If | e3-e2 |> S3, then g2 = | e3-e2 | -S3
Otherwise, g2 = 0
If | e3-e1 |> S3, then g3 = | e3-e1 | -S3
Otherwise, g3 = 0

図12(a)〜(d)は、差分計算部27に入力される信号e1、e2から差分補正信号g3を生成する過程と、差分補正信号g3から微分値f3を算出する過程を示した図である。
差分演算部27においては、信号e1、e3(図12(a))から、e1とe3の差de(図12(b))を求め、さらに差分補正信号g3(図12(c))を生成する。差分計算部27から出力された差分補正信号g3(図12(c))は、微分部28に入力される。
微分部28は、差分検出部27から出力される差分補正信号g3の隣接画素間変化量(隣接画素間差分)の絶対値を検出し、検出結果としての微分値f3をぼやけ判定部14に出力する。
12A to 12D are diagrams showing a process of generating the difference correction signal g3 from the signals e1 and e2 input to the difference calculation unit 27 and a process of calculating the differential value f3 from the difference correction signal g3. It is.
The difference calculation unit 27 obtains a difference de (FIG. 12B) between e1 and e3 from the signals e1 and e3 (FIG. 12A), and further generates a difference correction signal g3 (FIG. 12C). To do. The difference correction signal g3 (FIG. 12C) output from the difference calculation unit 27 is input to the differentiation unit 28.
The differentiating unit 28 detects the absolute value of the change amount between adjacent pixels (difference between adjacent pixels) of the difference correction signal g3 output from the difference detection unit 27, and outputs the differential value f3 as a detection result to the blur determination unit 14. To do.

被写体の動きが原因で輪郭部がぼやけている場合、注目フレームの信号(1フレーム遅延信号)の輪郭部Ce2では、前後のフレーム相互間の差分(2フレーム遅延信号e3と現フレーム信号e1の差)を微分した結果f3(図12(d))はほぼ0になる。   When the contour portion is blurred due to the movement of the subject, the contour portion Ce2 of the signal of the frame of interest (1-frame delay signal) has a difference between the previous and subsequent frames (difference between the two-frame delay signal e3 and the current frame signal e1). ) Is differentiated, and f3 (FIG. 12D) is almost zero.

次に輪郭形状判定部35の動作についてより詳しく説明する。
被写体が動いている場合、被写体の動きによって決まる輪郭部に非等方的ぼやけが発生する。
図13は輝度がステップ状に変化する輪郭を持つ被写体が等速で移動した場合の、フレーム蓄積時間により発生するぼやけを示した図である。
撮像光学系が有する収差や、焦点ずれ等に起因する、いわゆる等方的ぼやけが無い場合、静止している被写体の輪郭は破線PRsで示すように位置に対する階調値の変化は不連続(ステップ状)になる。仮に、撮像素子の電荷蓄積時間が十分に短かければ、波線PRsで示すのと略同じ輪郭を持つ映像信号が得られる。しかし、実際には電荷蓄積時間はある長さを有するので、輪郭の移動速度に応じて、階調値が次第に変化する区間が生じ、これがぼやけの原因となる。上記の輝度がステップ状に変化する輪郭が等速運動をした場合、階調値は実線PRmで示すように、運動の早さによって決まる一定の傾き有し、階調値遷移区間TTmを生じる。
Next, the operation of the contour shape determination unit 35 will be described in more detail.
When the subject is moving, anisotropic blur occurs in the contour determined by the motion of the subject.
FIG. 13 is a diagram showing blurring caused by the frame accumulation time when a subject having a contour whose luminance changes stepwise moves at a constant speed.
When there is no so-called isotropic blur caused by aberration or defocusing of the imaging optical system, the change in the gradation value with respect to the position is discontinuous as indicated by the broken line PRs in the contour of the stationary subject (step Shape). If the charge accumulation time of the image sensor is sufficiently short, a video signal having substantially the same contour as indicated by the wavy line PRs can be obtained. However, since the charge accumulation time has a certain length in practice, there is a section in which the gradation value gradually changes according to the moving speed of the contour, which causes blurring. When the contour in which the luminance changes stepwise moves at a constant speed, the gradation value has a constant slope determined by the speed of movement as shown by the solid line PRm, and a gradation value transition section TTm is generated.

図14は、輝度がステップ状に変化する輪郭を持つ被写体が加減速運動した場合の、フレーム蓄積時間により発生するぼやけを示した図である。
被写体が加減速運動をしている場合、厳密には図14に実線PRma、PRmbで示すように階調遷移期間中に階調値の傾きが変化する。
しかし、被写体の移動による輪郭部のぼやけは、フレームあたり数画素程度の移動速度しか持たず、従って、上記加減速運動に起因する階調遷移期間の傾きの変化は小さく、許容誤差の範囲内のものとして無視し、実線PRmcで示すように、階調が傾き一定で変化するものとして処理しても実際上問題はない。
FIG. 14 is a diagram showing blurring caused by the frame accumulation time when a subject having an outline whose luminance changes in a step shape is accelerated and decelerated.
When the subject is accelerating / decelerating, strictly speaking, as shown by solid lines PRma and PRmb in FIG. 14, the gradient of the gradation value changes during the gradation transition period.
However, the blurring of the contour due to the movement of the subject has only a moving speed of about several pixels per frame, and therefore the change in the gradient of the gradation transition period due to the acceleration / deceleration movement is small and within the allowable error range. Even if it is ignored and the gradation is changed with a constant slope as shown by the solid line PRmc, there is no practical problem.

図15は(a)〜(e)は、輪郭形状判定部35の動作を説明する図である。
図15(a)は入力される映像信号d2の例を示す。微分部36は入力される映像信号d2を微分し、図15(b)に示す微分結果Pkを出力する。
微分結果記憶部37は、微分部36から出力される微分結果Pkを一時的に記憶し、該記憶部37から、図15(c)に示すように、入力される微分結果Pkに対して、1画素遅延の微分結果DPk1、入力される微分結果Pkに対して、2画素遅延の微分結果DPk2、入力される微分結果Pkに対して、3画素遅延の微分結果DPk3、入力される微分結果Pkに対して、4画素遅延の微分結果DPk4が読み出される。
15A to 15E are diagrams for explaining the operation of the contour shape determination unit 35. FIG.
FIG. 15A shows an example of the input video signal d2. The differentiation unit 36 differentiates the input video signal d2 and outputs a differentiation result Pk shown in FIG.
The differentiation result storage unit 37 temporarily stores the differentiation result Pk output from the differentiation unit 36. From the storage unit 37, as shown in FIG. The differential result DPk1 of 1 pixel delay, the differential result DPk2 of 2 pixel delay with respect to the input differential result Pk, the differential result DPk3 of 3 pixel delay with respect to the input differential result Pk, and the input differential result Pk On the other hand, the differential result DPk4 of 4 pixel delay is read out.

図15(d)および(e)は連続性判定部38の動作を説明する図である。
連続性判定部38は予め与えられた閾値S8を微分結果Pkに加算した結果(Pk+S8)と、微分結果Pkから予め与えられた閾値S9を減算した結果(Pk−S9)を計算する。連続性判定部38はさらに、微分結果記憶部37から出力される微分結果DPk1〜DPk4を、計算結果(Pk+S8)および(Pk−S9)と比較し、微分結果DPk1〜DPk4がそれぞれ
(Pk+S8)≧DPkx≧(Pk−S9) (x=1,2,3,4) …(101)
の条件を満たしているかを判定し、判定結果を示す輪郭形状検出フラグefを出力する。このフラグefは、上記の式(101)で表される条件が満たされる場合Hiとなるものである。
FIGS. 15D and 15E are diagrams for explaining the operation of the continuity determination unit 38.
The continuity determination unit 38 calculates a result (Pk + S8) obtained by adding a threshold value S8 given in advance to the differentiation result Pk and a result (Pk−S9) obtained by subtracting the threshold value S9 given in advance from the differentiation result Pk. The continuity determination unit 38 further compares the differential results DPk1 to DPk4 output from the differential result storage unit 37 with the calculation results (Pk + S8) and (Pk−S9), and the differential results DPk1 to DPk4 are (Pk + S8) ≧ DPkx ≧ (Pk−S9) (x = 1, 2, 3, 4) (101)
The contour shape detection flag ef indicating the determination result is output. This flag ef is Hi when the condition expressed by the above equation (101) is satisfied.

差分検出部11、12から出力された差分補正信号g1、g2、微分部28から出力された微分値f3および輪郭形状判定部35から出力された輪郭形状検出フラグefは、ぼやけ期間判定部14に入力される。   The difference correction signals g1 and g2 output from the difference detection units 11 and 12, the differential value f3 output from the differentiation unit 28, and the contour shape detection flag ef output from the contour shape determination unit 35 are sent to the blur period determination unit 14. Entered.

図16は、ぼやけ期間判定部14の構成を示す図である。微分値f3は2値化部22に入力される。2値化部22は、微分値f3を予め与えられた閾値S4を元に2値化し、2値化差分補正信号dg3をステート判定部25に出力する。
差分補正信号g1は2値化部23に入力される。2値化部23は2値化部22と同様に、予め与えられた閾値S5を用いて、入力された差分補正信号g1の2値化を行い、2値化差分補正信号dg1をステート判定部25に出力する。
同様に、差分補正信号g2は2値化部24に入力される。2値化部24は2値化部22、23と同様に、予め与えられた閾値S6を用いて、入力された差分補正信号g2の2値化を行い、2値化差分補正信号dg2をステート判定部25に出力する。
FIG. 16 is a diagram illustrating a configuration of the blur period determination unit 14. The differential value f3 is input to the binarization unit 22. The binarization unit 22 binarizes the differential value f3 based on a predetermined threshold value S4 and outputs a binarized difference correction signal dg3 to the state determination unit 25.
The difference correction signal g1 is input to the binarization unit 23. Similarly to the binarization unit 22, the binarization unit 23 binarizes the input difference correction signal g1 using a predetermined threshold value S5, and uses the binarized difference correction signal dg1 as a state determination unit. To 25.
Similarly, the difference correction signal g2 is input to the binarization unit 24. Similarly to the binarization units 22 and 23, the binarization unit 24 binarizes the input difference correction signal g2 using a predetermined threshold value S6, and sets the binarized difference correction signal dg2 to the state. Output to the determination unit 25.

ステート判定部25は、2値化差分補正信号dg1、dg2、dg3を元に、輪郭状態フラグgsを生成し、ぼやけ判定部26に出力する。ぼやけ判定部26は、輪郭状態フラグgsと、輪郭形状検出フラグefを元に、ぼやけ検出フラグbfを出力する。   The state determination unit 25 generates a contour state flag gs based on the binarized difference correction signals dg1, dg2, and dg3, and outputs the contour state flag gs to the blur determination unit 26. The blur determination unit 26 outputs a blur detection flag bf based on the contour state flag gs and the contour shape detection flag ef.

図17(a)及び(b)は2値化部22の動作を説明するための図であり、入力信号f3と出力信号dg3の関係を示している。
入力された信号f3(図17(a))は、その絶対値が予め与えられた閾値S4より大きい場合は「1」、小さい場合は「0」に2値化され、ステート判定部25に出力される。2値化された結果得られる信号dg3が図17(b)に示されている。
2値化部23、24の動作は2値化部22と同様であるが、信号f3の代わりに、信号g1、g2が入力され、信号dg3の代わりに、信号dg1、dg2が出力される。
FIGS. 17A and 17B are diagrams for explaining the operation of the binarization unit 22 and show the relationship between the input signal f3 and the output signal dg3.
The input signal f3 (FIG. 17A) is binarized to “1” when its absolute value is larger than a predetermined threshold value S4 and “0” when it is smaller, and is output to the state determination unit 25. Is done. A signal dg3 obtained as a result of binarization is shown in FIG.
The operations of the binarizing units 23 and 24 are the same as those of the binarizing unit 22, but signals g1 and g2 are input instead of the signal f3, and signals dg1 and dg2 are output instead of the signal dg3.

図18はステート判定部25の一例を示す図である。図示のステート判定部25は、状態比較部21と状態補正部29とを備える。
ステート判定部25に入力される2値化差分補正信号dg1、dg2は状態比較部21に入力される。状態比較部21は、入力された2つの差分補正信号dg1、dg2を比較し、その結果を示す状態比較信号gssを状態補正部29に出力する。状態補正部29では、状態比較信号gssを、2値化差分補正信号dg3を元に補正を行い、状態補正信号gsを出力する。
FIG. 18 is a diagram illustrating an example of the state determination unit 25. The illustrated state determination unit 25 includes a state comparison unit 21 and a state correction unit 29.
The binarized difference correction signals dg1 and dg2 input to the state determination unit 25 are input to the state comparison unit 21. The state comparison unit 21 compares the two input difference correction signals dg1 and dg2, and outputs a state comparison signal gss indicating the result to the state correction unit 29. The state correction unit 29 corrects the state comparison signal gss based on the binarized difference correction signal dg3 and outputs a state correction signal gs.

図19(a)〜(c)は、状態比較部21の動作を説明するための図である。状態比較部21に入力される2値化差分補正信号dg1、dg2が、それぞれ図19(a)、(b)に示すようであったとする。状態比較部21は、2つの2値化差分補正信号の状態により3つのステート(A、B、C)をもつ状態比較信号gss(図19(c))を出力する。2値化差分補正信号dg1、dg2が共にLoである場合には、状態比較信号gssはステートAとなる。2値化差分補正信号dg1、dg2の状態が互いに異なる場合(dg1≠dg2のとき)には、状態比較信号gssはステートBとなる。2値化差分補正信号dg1、dg2が共にHiの場合には、状態比較信号gssはステートCとなる。   FIGS. 19A to 19C are diagrams for explaining the operation of the state comparison unit 21. FIG. Assume that the binary difference correction signals dg1 and dg2 input to the state comparison unit 21 are as shown in FIGS. 19 (a) and 19 (b), respectively. The state comparison unit 21 outputs a state comparison signal gss (FIG. 19C) having three states (A, B, C) according to the states of the two binarized difference correction signals. When the binarized difference correction signals dg1 and dg2 are both Lo, the state comparison signal gss is in the state A. When the binarized difference correction signals dg1 and dg2 are in different states (when dg1 ≠ dg2), the state comparison signal gss is in the state B. When the binarized difference correction signals dg1 and dg2 are both Hi, the state comparison signal gss is in the state C.

図20(a)〜(e)は状態補正部29の動作を説明するための図である。状態比較部21から入力される状態比較信号gssは、図20(a)に示すように、3つのステートA、B、Cを持つ信号である。状態補正部29では、信号gssのステートがCの場合に、2値化差分補正信号dg3(図20(b)、(d))の状態に応じて補正を行なって、状態補正信号(フラグ)gs(図20(c)、(e)を生成する。
具体的には、信号gssがステートAの場合には、gsを(gssと同じく)ステートAとし、信号gssがステートBの場合には、gsを(gssと同じく)ステートBとする。
一方、信号gssがステートCで、かつdg3=Loの場合、gsをステートDとする。
なお、図20(d)に示すように、信号gssがステートCで、かつdg3=Hiの場合には、図20(e)に示すように、gsを(gssと同じく)ステートCとする。
以上のようにして、状態補正部29が出力する状態補正信号gsは4つのステートを持つ信号になる。
20A to 20E are diagrams for explaining the operation of the state correction unit 29. FIG. The state comparison signal gss input from the state comparison unit 21 is a signal having three states A, B, and C as shown in FIG. When the state of the signal gss is C, the state correction unit 29 performs correction according to the state of the binarized difference correction signal dg3 (FIGS. 20B and 20D), and the state correction signal (flag) gs (FIGS. 20C and 20E) is generated.
Specifically, when the signal gss is in the state A, gs is set to the state A (same as gss), and when the signal gss is the state B, gs is set to the state B (same as gss).
On the other hand, if the signal gss is in state C and dg3 = Lo, gs is in state D.
As shown in FIG. 20D, when the signal gss is in state C and dg3 = Hi, gs is in state C (same as gss) as shown in FIG.
As described above, the state correction signal gs output from the state correction unit 29 is a signal having four states.

図21(a)〜(c)は、ぼやけ判定部26の動作を説明する図である。
ステート判定部25から出力される、図21(a)に示される状態補正信号gsは4つのステートA、B、C、Dを持つ信号であり、輪郭形状検出フラグefは図21(b)に示すように2値信号である。
ぼやけ判定部26では、状態補正信号gsのステートB、C、Dの信号に対して作用し、輪郭形状検出フラグefがLoの場合は、ステートB、C、Dのそれぞれの信号をステートAに変換して出力する。ステートAは、ぼやけ補正の対象外のステートである。
一方、輪郭形状検出フラグefがHiの場合は、ステートB、C、Dのそれぞれの信号をそのままB、C、Dとして出力する。なお、ステートAの信号は、輪郭形状検出フラグefがHiであるかLoであるかに拘わらず、そのまま出力される。このようにして、ぼやけ判定部26は、4つのステートA、B、C、Dを持つ動きぼやけ検出フラグbf(図21(c))を生成して出力する。
21A to 21C are diagrams illustrating the operation of the blur determination unit 26. FIG.
The state correction signal gs shown in FIG. 21A output from the state determination unit 25 is a signal having four states A, B, C, and D, and the contour shape detection flag ef is shown in FIG. As shown, it is a binary signal.
The blur determination unit 26 operates on the state B, C, and D signals of the state correction signal gs. When the contour shape detection flag ef is Lo, the signals of the states B, C, and D are changed to the state A. Convert and output. State A is a state that is not subject to blur correction.
On the other hand, when the contour shape detection flag ef is Hi, the signals of the states B, C, and D are output as B, C, and D as they are. Note that the signal of the state A is output as it is regardless of whether the contour shape detection flag ef is Hi or Lo. In this way, the blur determination unit 26 generates and outputs a motion blur detection flag bf (FIG. 21C) having four states A, B, C, and D.

ぼやけ検出部2から出力された、4つのステートA、B、C、Dを持つ動きぼやけ検出フラグbfと、遅延部1から出力された映像信号d1、d2、d3とは、ぼやけ補正部3に入力される。
ぼやけ補正部3の構成は図5で説明しているとおりであり、ここでは、ぼやけ補正部3の動作について説明する。
The motion blur detection flag bf having four states A, B, C, and D output from the blur detection unit 2 and the video signals d1, d2, and d3 output from the delay unit 1 are sent to the blur correction unit 3. Entered.
The configuration of the blur correction unit 3 is as described with reference to FIG. 5. Here, the operation of the blur correction unit 3 will be described.

ぼやけ補正部3に入力された動きぼやけ検出フラグbfは輪郭形状計算部15に入力される。
図22は輪郭形状計算部15の一例を示した図であり、図示の輪郭形状計算部15は、画素カウンタ部30と、ステートDカウンタ部31と、中心検出部32と、コア位置判定部33と、変換信号生成部34とを備える。
動きぼやけ検出フラグbfは画素カウンタ部30と、ステートDカウンタ部31と、変換信号生成部34とに入力される。
The motion blur detection flag bf input to the blur correction unit 3 is input to the contour shape calculation unit 15.
FIG. 22 is a diagram illustrating an example of the contour shape calculation unit 15. The illustrated contour shape calculation unit 15 includes a pixel counter unit 30, a state D counter unit 31, a center detection unit 32, and a core position determination unit 33. And a converted signal generator 34.
The motion blur detection flag bf is input to the pixel counter unit 30, the state D counter unit 31, and the converted signal generation unit 34.

画素カウンタ部30は、画素クロックを、画面上の各ラインの処理の開始時点からカウントすることで得られるカウント値c1を、当該ライン上の画素位置を示すデータとして出力する。
ステートDカウンタ部31は、画素クロックを、動きぼやけ検出フラグbfに含まれるステートDの開始時点から終了時点までカウントすることで得られるカウント値c2をステートDの幅(持続時間)を示すデータとして出力する。
画素クロックは、画像処理装置内の各部において、処理を同期させるために発生されるクロックであり、画素クロックが発生される度に一つの画素の信号が処理される。
The pixel counter unit 30 outputs a count value c1 obtained by counting the pixel clock from the start of processing of each line on the screen as data indicating the pixel position on the line.
The state D counter unit 31 uses the count value c2 obtained by counting the pixel clock from the start time to the end time of the state D included in the motion blur detection flag bf as data indicating the width (duration) of the state D. Output.
The pixel clock is a clock generated in order to synchronize processing in each unit in the image processing apparatus, and a signal of one pixel is processed each time the pixel clock is generated.

画素カウンタ部30とステートDカウンタ部31から出力されるカウント結果c1、c2は中心検出部32に入力される。
中心検出部32では、カウント結果c1とc2から、ステートD期間の中心位置(を示すデータ)c3を検出する。検出されたステートD期間の中心位置c3はコア位置判定部33に出力される。コア位置判定部33では、予め与えられた閾値S7を用いて、ぼやけ補正時のコア領域を計算し、コア領域判定フラグc4を出力する。
コア領域判定フラグc4は変換信号生成部34に送られる。変換信号生成部34では、入力された動きぼやけ検出フラグbfと、コア領域判定フラグc4を元に変換制御信号jを出力する。
The count results c1 and c2 output from the pixel counter unit 30 and the state D counter unit 31 are input to the center detection unit 32.
The center detector 32 detects the center position (data indicating) c3 in the state D period from the count results c1 and c2. The detected center position c3 of the state D period is output to the core position determination unit 33. The core position determination unit 33 calculates a core region at the time of blur correction using a threshold value S7 given in advance, and outputs a core region determination flag c4.
The core region determination flag c4 is sent to the converted signal generator 34. The conversion signal generation unit 34 outputs a conversion control signal j based on the input motion blur detection flag bf and the core area determination flag c4.

図23(a)〜(d)は動きぼやけ検出フラグbfと、画素カウンタ出力c1、ステートDカウンタ出力c2とからコア領域判定フラグc4を生成する動作を示す。
図23(a)に示す動きぼやけ検出フラグbfがステートDカウンタ部31に入力されたとき、ステートDのカウント値c2(図23(c))は9までカウントアップされ、最大カウント値c2maxは9となる。中心検出部32は、ステートDの最大カウント値c2maxと、最大カウント値c2maxとなったときの画素カウンタ部30の出力c1の値c1m(図23(b))に基づき、
c3=c1m−(c2max−1)/2
=12−(9−1)/2=8
の演算を行い(端数を切り上げ又は切り下げることにより)、ステートDの中心位置c3を求める。図示の例では、c3は「8」となる。中心位置(を示すデータ)c3は、コア位置判定部33に出力される。
FIGS. 23A to 23D show an operation of generating the core region determination flag c4 from the motion blur detection flag bf, the pixel counter output c1, and the state D counter output c2.
When the motion blur detection flag bf shown in FIG. 23A is input to the state D counter unit 31, the count value c2 (FIG. 23C) of the state D is counted up to 9, and the maximum count value c2max is 9 It becomes. The center detection unit 32 is based on the maximum count value c2max of the state D and the value c1m (FIG. 23B) of the output c1 of the pixel counter unit 30 when the maximum count value c2max is reached.
c3 = c1m- (c2max-1) / 2
= 12- (9-1) / 2 = 8
Is calculated (by rounding up or down) to obtain the center position c3 of the state D. In the illustrated example, c3 is “8”. The center position (data indicating) c <b> 3 is output to the core position determination unit 33.

コア位置判定部33では、中心検出部32から出力されるステートDの中心位置c3と予め与えられた閾値S7を元に、ぼやけ補正時のコア領域を計算し、コア領域判定フラグc4(図23(d))を出力する。例えば、c3−S7からc3+S7までをコア領域として、その間コア領域判定フラグc4がHiとなるようにする。例えば閾値S7が「2」であったとする。   The core position determination unit 33 calculates the core region at the time of blur correction based on the center position c3 of the state D output from the center detection unit 32 and a predetermined threshold value S7, and the core region determination flag c4 (FIG. 23). (D)) is output. For example, c3-S7 to c3 + S7 are set as the core area, and the core area determination flag c4 is set to Hi during that period. For example, it is assumed that the threshold value S7 is “2”.

図23(a)〜(c)に示される条件で中心検出部32から出力されるステートDの中心位置c3は「8」であるので、コア領域判定フラグc4は、c1b=c3−S7=8−2=6からc1e=c3+S7=8+2=10までの画素位置においてc4(図23(d))がHiになる。   Since the center position c3 of the state D output from the center detection unit 32 under the conditions shown in FIGS. 23A to 23C is “8”, the core region determination flag c4 is c1b = c3−S7 = 8. At a pixel position from −2 = 6 to c1e = c3 + S7 = 8 + 2 = 10, c4 (FIG. 23D) becomes Hi.

図24(a)〜(c)は変換信号生成部34の動作を説明するための図であり、入力される動きぼやけ検出フラグbf(図24(a))、コア領域判定フラグc4(図24(b))と、出力される変換制御信号j(図24(c))の関係を示す。変換信号生成部34では、コア領域判定フラグc4がHiの期間は、入力される動きぼやけ検出フラグbfのステートを、ステートEに変換して出力する。一方、c4がLoの期間は、bfをそのまま変換制御信号jとして出力する。
つまり、変換信号生成部34から出力される変換制御信号jは5つのステートA、B、C、D、Eを持つ信号である。
FIGS. 24A to 24C are diagrams for explaining the operation of the converted signal generation unit 34. The motion blur detection flag bf (FIG. 24A) and the core region determination flag c4 (FIG. 24) that are input. The relationship between (b)) and the output conversion control signal j (FIG. 24C) is shown. In the conversion signal generation unit 34, the state of the input motion blur detection flag bf is converted into the state E and output during the period when the core region determination flag c4 is Hi. On the other hand, during the period when c4 is Lo, bf is output as it is as the conversion control signal j.
That is, the conversion control signal j output from the conversion signal generation unit 34 is a signal having five states A, B, C, D, and E.

輪郭形状計算部15から出力された変換制御信号jは、映像信号d1、d2、d3と共に、画素変換部16に入力される。画素変換部16では、変換制御信号jのステートを元に、入力される映像信号d1、d2、d3から画像表示部4に出力する映像信号kを生成する。   The conversion control signal j output from the contour shape calculation unit 15 is input to the pixel conversion unit 16 together with the video signals d1, d2, and d3. The pixel conversion unit 16 generates a video signal k to be output to the image display unit 4 from the input video signals d1, d2, and d3 based on the state of the conversion control signal j.

図25(a)〜(c)に映像信号kの生成の過程の一例を示す。
画素変換部16に入力される映像信号d1、d2、d3が図25(a)に示すごとくであり、変換制御信号jが図25(b)に示す通りであるとする。ここで、変換制御信号jがステートB又はDであるときは、
|d2−d1|>|d2−d3|ならば、d3を出力映像信号kとして出力し、
|d2−d1|≦|d2−d3|ならば、d1を出力映像信号kとして出力する(図25(c))。即ち、d3、d1のうち、d2との差が小さいものを出力映像信号kとして出力する。
FIGS. 25A to 25C show an example of the process of generating the video signal k.
Assume that the video signals d1, d2, and d3 input to the pixel conversion unit 16 are as shown in FIG. 25A, and the conversion control signal j is as shown in FIG. Here, when the conversion control signal j is in the state B or D,
If | d2-d1 |> | d2-d3 |, output d3 as the output video signal k.
If | d2-d1 | ≦ | d2-d3 |, d1 is output as the output video signal k (FIG. 25 (c)). That is, of d3 and d1, a signal having a small difference from d2 is output as an output video signal k.

変換制御信号jがステートB、D以外である場合(即ち、ステートA、C、Eである場合)、d2を出力映像信号kとして出力する。このようにして、ステートE(ぼやけ期間のうちの中心部分に位置するコア領域)において、映像信号d2がkとして出力され、ステートD(ほやけ期間のうちのコア領域以外の領域)において、信号d3、d1のうちのd2との差がより小さいものを出力映像信号kとして出力している。
このような処理により、本処理を行わずに映像信号d2を表示に用いる場合と比較して、ぼやけの原因となる輪郭の遷移幅が狭くすることが可能となる。
When the conversion control signal j is other than the states B and D (that is, when the conversion control signal j is in the states A, C, and E), d2 is output as the output video signal k. In this way, the video signal d2 is output as k in the state E (core region located in the central part of the blurring period), and the signal is output in the state D (area other than the core area in the blurring period). A signal having a smaller difference from d2 out of d3 and d1 is output as an output video signal k.
By such processing, it is possible to narrow the transition width of the contour that causes blurring, as compared with the case where the video signal d2 is used for display without performing this processing.

上記のように、ステートDの中心位置c3と所定の閾値s7とにより、c3−S7からc3+S7までをコア領域とし、コア領域の外側において、階調値が緩やかに変化している場合には、その部分の階調値をより小さい値、或いはより大きい値に置き換えることで、結果として、緩やかな階調変化を先鋭化することができる。一方、階調変化が元々急峻である場合(例えば、コア領域の範囲内においてのみ階調が変化する場合)には、階調変化を先鋭化を行なわない。
上記のように、動きに起因しない等方的ぼやけは階調変化が比較的急であり、動きに起因する非等方的ぼやけは階調変化が比較的緩やかであるので、閾値S7を適切に選択することにより、等方的ぼやけに対して階調変化を先鋭化させることなく、動きに起因する非等方的ぼやけの場合のみ、階調変化を先鋭化させることができる。
As described above, when the center position c3 of the state D and the predetermined threshold value s7 are used as the core region from c3 to S7 to c3 + S7, and the gradation value gradually changes outside the core region, By substituting the gradation value of that portion with a smaller value or a larger value, as a result, a gradual gradation change can be sharpened. On the other hand, when the gradation change is originally steep (for example, when the gradation changes only within the core region), the gradation change is not sharpened.
As described above, the isotropic blur that is not caused by the movement has a relatively rapid gradation change, and the anisotropic blur that is caused by the movement has a relatively gentle gradation change. By selecting, the gradation change can be sharpened only in the case of the anisotropic blur caused by the movement without sharpening the gradation change with respect to the isotropic blur.

なお、上記の実施の形態では、現フレームの映像信号のほか、現フレームに対して1フレーム前の映像信号と、1フレーム後の映像信号を用いて、処理を行なっているが、現フレームに対して、1以外の所定のフレーム数前の映像信号と、1以外の所定のフレーム数後の映像信号を用いて処理を行なっても良い。   In the above-described embodiment, processing is performed using the video signal of the previous frame and the video signal of the next frame in addition to the current frame video signal. On the other hand, processing may be performed using a video signal before a predetermined number of frames other than 1 and a video signal after a predetermined number of frames other than 1.

以上説明したように、入力された画像信号の輪郭形状、および当該輪郭部のフレーム間の差分量を基に、ぼやけを判定することで、動きぼやけ特有の非等法的ぼやけを検出することが可能となり、また映像中に含まれる動きぼやけの発生している領域を検出し、検出された動きぼやけの大きさに合わせてぼやけ幅を狭くすることにより、動画表示時の画質を向上させることが可能となる。   As described above, by detecting blur based on the contour shape of the input image signal and the difference amount between frames of the contour portion, it is possible to detect inequality blur peculiar to motion blur. It is possible to improve the image quality when displaying moving images by detecting the area where motion blur is included in the video and narrowing the blur width according to the detected motion blur size. It becomes possible.

また、検出した非等法的ぼやけに対してのみ、ぼやけ補正を行うので、動き方向と直交した輪郭に対して不要な先鋭化が行われてしまうことはない。また、グラデーションのような緩やかな輝度変化を有する画像に対して誤ってもフィルタリング処理を施してしまうことはない。   Further, since the blur correction is performed only for the detected unequal blur, unnecessary sharpening is not performed on the contour orthogonal to the motion direction. Further, even if an image having a gradual change in luminance such as gradation is mistaken, no filtering process is performed.

また、動きベクトル検出を用いることなく動きぼやけを検出し、検出した動きぼやけに対して、フィルタリング手段を用いず、フレーム間の画素置き換えのみで補正を行うため、小規模回路で構成することが可能になる。さらに、回路規模が比較的小さくて済むので、省エネルギー効果も得られる。   In addition, motion blur is detected without using motion vector detection, and the detected motion blur is corrected only by pixel replacement between frames without using filtering means. become. Furthermore, since the circuit scale is relatively small, an energy saving effect can be obtained.

本発明の実施の形態1に係る画像表示装置を示すブロック図である。It is a block diagram which shows the image display apparatus which concerns on Embodiment 1 of this invention. 遅延部1の一例を示すブロック図である。3 is a block diagram illustrating an example of a delay unit 1. FIG. ぼやけ検出部2の一例を示すブロック図であるIt is a block diagram which shows an example of the blur detection part 2. 輪郭形状判定部35の一例を示した図である。5 is a diagram illustrating an example of a contour shape determination unit 35. FIG. ぼやけ補正部3の一例を示した図である。3 is a diagram illustrating an example of a blur correction unit 3. FIG. (a)〜(f)は、遅延部1の動作を説明する図である。(A)-(f) is a figure explaining operation | movement of the delay part 1. FIG. 映像信号の例を示した図である。It is the figure which showed the example of the video signal. 高周波成分を除去した映像信号の例を示した図である。It is the figure which showed the example of the video signal from which the high frequency component was removed. (a)及び(b)は、連続した3フレームの映像信号の例を示す図である。(A) And (b) is a figure which shows the example of the video signal of 3 continuous frames. 差分検出部11の一例を示した図であるIt is the figure which showed an example of the difference detection part 11. (a)〜(c)は、差分検出部11の動作を説明する図である。(A)-(c) is a figure explaining operation | movement of the difference detection part 11. FIG. (a)〜(d)は、差分演算部27及び微分部28の動作を説明する図である。(A)-(d) is a figure explaining operation | movement of the difference calculating part 27 and the differentiating part 28. FIG. 輝度がステップ状に変化する輪郭における非等方的ぼやけを示した図である。It is the figure which showed the anisotropic blurring in the outline where a brightness | luminance changes in step shape. 輝度がステップ状に変化する輪郭における非等方的ぼやけを示した図である。It is the figure which showed the anisotropic blurring in the outline where a brightness | luminance changes in step shape. 輪郭形状判定部35の動作を説明する図である。It is a figure explaining operation | movement of the outline shape determination part. ぼやけ期間判定部14の構成を示す図である。3 is a diagram illustrating a configuration of a blur period determination unit 14. FIG. (a)及び(b)は、2値化部22の動作を説明する図である。(A) And (b) is a figure explaining operation | movement of the binarization part 22. FIG. ステート判定部25の一例を示す図である。3 is a diagram illustrating an example of a state determination unit 25. FIG. (a)〜(c)は、状態比較部21の動作を説明する図である。(A)-(c) is a figure explaining operation | movement of the state comparison part 21. FIG. (a)〜(e)は、状態補正部29の動作を説明する図である。(A)-(e) is a figure explaining operation | movement of the state correction | amendment part 29. FIG. (a)〜(c)は、ぼやけ判定部26の動作を説明する図である。(A)-(c) is a figure explaining operation | movement of the blur determination part 26. FIG. 輪郭形状計算部15の一例を示した図である。5 is a diagram illustrating an example of a contour shape calculation unit 15. FIG. (a)〜(d)は、輪郭形状計算部15の動作を説明する図である。(A)-(d) is a figure explaining operation | movement of the outline shape calculation part 15. FIG. (a)〜(c)は、変換信号生成部34の動作を説明する図である。(A)-(c) is a figure explaining operation | movement of the conversion signal production | generation part 34. FIG. (a)〜(c)は、画素変換部16の動作を説明する図である。(A)-(c) is a figure explaining operation | movement of the pixel conversion part 16. FIG.

符号の説明Explanation of symbols

1 遅延部、 2 ぼやけ検出部、 3 ぼやけ補正部、 4 画像表示部、 5 フレームメモリ制御部、 6 フレームメモリ、 7、8、9 ローパスフィルタ、 11、12 差分検出部、 14 ぼやけ期間判定部、 15 輪郭形状計算部、 16 判定フラグ生成部、 17 3値化部、 18 判定フラグ生成部、 19 差分計算部、 20 差分補正部、 21 状態比較部、 22、23、24 2値化部、 25 ステート判定部、 26 ぼやけ判定部、 27 差分検出部、 28 微分部、 29 状態補正部、 30 画素カウンタ部、 31 ステートDカウンタ部、 32 中心検出部、 33 コア位置判定部、 34 変換信号生成部、 35 輪郭形状判定部、 36 微分部、 37 微分結果記憶部、 38 連続性判定部、 81 映像表示装置。   1 delay unit, 2 blur detection unit, 3 blur correction unit, 4 image display unit, 5 frame memory control unit, 6 frame memory, 7, 8, 9 low-pass filter, 11, 12 difference detection unit, 14 blur period determination unit, DESCRIPTION OF SYMBOLS 15 Outline shape calculation part, 16 Judgment flag production | generation part, 17 Trinization part, 18 Judgment flag production | generation part, 19 Difference calculation part, 20 Difference correction part, 21 State comparison part, 22, 23, 24 Binarization part, 25 State determination unit, 26 blur determination unit, 27 difference detection unit, 28 differentiation unit, 29 state correction unit, 30 pixel counter unit, 31 state D counter unit, 32 center detection unit, 33 core position determination unit, 34 conversion signal generation unit , 35 contour shape determination unit, 36 differentiation unit, 37 differentiation result storage unit, 38 continuity determination unit, 81 projection Display device.

Claims (10)

入力された映像信号に対してフレーム遅延していない第1の映像信号と、入力された映像信号に対して、所定のフレーム数遅延している第2の映像信号と、前記第2の映像信号に対して、前記所定のフレーム数遅延している第3の映像信号とを生成する遅延手段と、
前記第1の映像信号の高周波成分を除去して、第1のフィルタ後映像信号を出力する第1のローパスフィルタと、
前記第2の映像信号の高周波成分を除去して、第2のフィルタ後映像信号を出力する第2のローパスフィルタと、
前記第3の映像信号の高周波成分を除去して、第3のフィルタ後映像信号を出力する第3のローパスフィルタと、
前記第1のフィルタ後映像信号と前記第2のフィルタ後映像信号の階調差を検出する第1の差分検出手段と、
前記第2のフィルタ後映像信号と前記第3のフィルタ後映像信号の階調差を検出する第2の差分検出手段と、
前記第3のフィルタ後映像信号と前記第1のフィルタ後映像信号の階調差を検出する第3の差分検出手段と、
前記第3の差分検出手段が出力する映像信号の画素間変化を検出する微分手段と、
前記第2の映像信号において、階調変化の連続性を判定する輪郭形状判定手段と、
前記第1の差分検出手段で検出された前記階調差と、前記第2の差分検出手段で検出された前記階調差と、前記微分手段で検出された画素間変化の検出結果と、前記輪郭形状判定手段で検出された前記第2の映像信号の階調変化の連続性についての判定結果を元に、動きぼやけ期間を検出するぼやけ期間判定手段と、
前記ぼやけ期間判定手段による動きぼやけ期間の検出結果を元に、前記第2の映像信号を補正する補正手段とを有し、
前記ぼやけ補正手段は、前記ぼやけ期間判定手段で検出された前記動きぼやけ期間の間のみ前記第2の映像信号を補正する
ことを特徴とする画像処理装置。
A first video signal that is not frame-delayed with respect to the input video signal; a second video signal that is delayed by a predetermined number of frames with respect to the input video signal; and the second video signal A delay means for generating a third video signal delayed by the predetermined number of frames;
A first low-pass filter for removing a high-frequency component of the first video signal and outputting a first filtered video signal;
A second low-pass filter for removing a high-frequency component of the second video signal and outputting a second filtered video signal;
A third low-pass filter that removes high-frequency components of the third video signal and outputs a third filtered video signal;
First difference detection means for detecting a gradation difference between the first filtered video signal and the second filtered video signal;
Second difference detection means for detecting a gradation difference between the second filtered video signal and the third filtered video signal;
Third difference detection means for detecting a gradation difference between the third filtered video signal and the first filtered video signal;
Differentiating means for detecting an inter-pixel change in the video signal output by the third difference detecting means;
Contour shape determining means for determining continuity of gradation change in the second video signal;
The gradation difference detected by the first difference detection means, the gradation difference detected by the second difference detection means, the detection result of the inter-pixel change detected by the differentiation means, A blur period determination unit that detects a motion blur period based on a determination result about the continuity of gradation change of the second video signal detected by the contour shape determination unit;
Correction means for correcting the second video signal based on the detection result of the motion blur period by the blur period determination means;
The image processing apparatus, wherein the blur correction unit corrects the second video signal only during the motion blur period detected by the blur period determination unit.
前記遅延手段は、入力された映像信号を複数フレーム分蓄積可能なフレームメモリを有し、前記入力された映像信号をフレーム遅延させることなく前記第1の映像信号を生成し、前記第1の映像信号を前記フレームメモリを用いて前記所定のフレーム数遅延させることで前記第2の映像信号を生成し、前記第2の映像信号を前記フレームメモリを用いて前記所定のフレーム数遅延させることで前記第3の映像信号を生成することを特徴とする請求項1に記載の画像処理装置。   The delay means includes a frame memory capable of storing a plurality of input video signals for a plurality of frames, generates the first video signal without delaying the input video signal, and generates the first video signal. The second video signal is generated by delaying the signal by the predetermined frame number using the frame memory, and the second video signal is delayed by the predetermined frame number by using the frame memory. The image processing apparatus according to claim 1, wherein a third video signal is generated. 前記遅延手段は、2フレーム分の蓄積可能なフレームメモリを有し、
前記第1の映像信号と、前記第1の映像信号を1フレーム遅延させた第2の映像信号と、前記第2の映像信号を1フレーム遅延させた第3の映像信号を生成することを特徴とする請求項2に記載の画像処理装置。
The delay means has a frame memory capable of storing two frames,
Generating the first video signal, a second video signal obtained by delaying the first video signal by one frame, and a third video signal obtained by delaying the second video signal by one frame. The image processing apparatus according to claim 2.
前記ぼやけ期間判定手段は、
前記第1の差分検出手段から出力される前記階調差の絶対値が所定値より大きく、
前記第2の差分検出手段から出力される前記階調差の絶対値が所定値より大きく、
前記微分手段から出力される前記画素間変化の絶対値が所定値より小さく、
前記輪郭形状判定手段で前記階調変化に連続性があるとの判定がなされている場合に、
ぼやけ期間と判定することを特徴とする請求項1乃至3のいずれかに記載の画像処理装置。
The blur period determining means includes
The absolute value of the gradation difference output from the first difference detection means is greater than a predetermined value;
The absolute value of the gradation difference output from the second difference detection means is greater than a predetermined value;
The absolute value of the inter-pixel change output from the differentiating means is smaller than a predetermined value;
When it is determined by the contour shape determination means that the gradation change has continuity,
The image processing apparatus according to claim 1, wherein the image processing apparatus determines that the period is a blur period.
前記輪郭形状判定手段は、
前記第2の映像信号を受けて、各注目画素について、その直前の画素との差分を求めることで、当該注目画素についての微分結果を検出する微分部と、
前記微分部で検出された微分結果を所定の画素数分記憶する微分結果記憶部と、
前記微分部から出力される各注目画素についての微分結果と、当該注目画素よりも前に位置する複数の画素についての前記微分結果とを受け、前記複数の画素についての微分結果がすべて、前記注目画素についての微分結果を含む所定の範囲内にあるときに、前記階調変化に連続性があると判定し、前記複数の画素についての微分結果のいずれかが、前記注目画素についての微分結果を含む所定の範囲外にあるときに、前記階調変化に連続性がないと判定する
ことを特徴とする
請求項4に記載の画像処理装置。
The contour shape determining means includes
A differential unit that receives the second video signal and obtains a differential result for the pixel of interest by obtaining a difference from the immediately preceding pixel for each pixel of interest;
A differentiation result storage unit for storing a differentiation result detected by the differentiation unit for a predetermined number of pixels;
The differentiation result for each pixel of interest output from the differentiating unit and the differentiation result for a plurality of pixels located before the pixel of interest are received, and all the differentiation results for the plurality of pixels are the attention When the gradation change is within a predetermined range including the differential result for the pixel, it is determined that the gradation change has continuity, and any of the differential results for the plurality of pixels represents the differential result for the target pixel. 5. The image processing apparatus according to claim 4, wherein the gradation change is determined not to be continuous when it is out of a predetermined range.
前記注目画素についての微分結果を含む所定の範囲が、前記注目画素についての微分結果から第1の所定の値を引いた値から、前記注目画素についての微分結果に、第2の所定の値を加えた値までの範囲である
ことを特徴とする請求項5に記載の画像処理装置。
The predetermined range including the differentiation result for the pixel of interest has a second predetermined value in the differentiation result for the pixel of interest from a value obtained by subtracting the first predetermined value from the differentiation result for the pixel of interest. The image processing apparatus according to claim 5, wherein the range is up to the added value.
前記ぼやけ補正手段は、前記ぼやけ期間判定手段で判定された結果に基づき、前記第1の映像信号、前記第2の映像信号及び前記第3の映像信号のいずれかを選択して出力することを特徴とする請求項1乃至6のいずれかに記載の画像処理装置。   The blur correction unit selects and outputs one of the first video signal, the second video signal, and the third video signal based on the result determined by the blur period determination unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記ぼやけ補正手段は、
輪郭形状計算部と、画素変換部とを有し、
前記輪郭形状計算部は、
前記ぼやけ期間判定手段で検出したぼやけ期間のうちの中心部分に位置するコア領域を検出し、
前記画素変換部は、
前記コア領域においては、前記第2の映像信号を選択して出力し、
前記ぼやけ期間のうち、前記コア領域以外の領域においては、前記第1の映像信号及び前記第3の映像信号のうち、前記第2の映像信号との差がより小さいものを出力する
ことを特徴とする請求項7に記載の画像処理装置。
The blur correction means includes
An outline shape calculation unit and a pixel conversion unit;
The contour shape calculation unit
Detecting a core region located in a central portion of the blur period detected by the blur period determination means;
The pixel conversion unit
In the core region, the second video signal is selected and output,
Of the blur period, in a region other than the core region, the first video signal and the third video signal having a smaller difference from the second video signal are output. The image processing apparatus according to claim 7.
請求項1乃至8のいずれか1項に記載の画像処理装置と、
前記画像処理装置から出力された画像データに基づく画像を表示する表示手段を有することを特徴とする画像表示装置。
The image processing apparatus according to any one of claims 1 to 8,
An image display device comprising display means for displaying an image based on the image data output from the image processing device.
入力された映像信号に対してフレーム遅延していない第1の映像信号と、入力された映像信号に対して、所定のフレーム数遅延している第2の映像信号と、前記第2の映像信号に対して、前記所定のフレーム数遅延している第3の映像信号とを生成する遅延ステップと、
前記第1の映像信号の高周波成分を除去して、第1のフィルタ後映像信号を出力する第1のローパスフィルタリングステップと、
前記第2の映像信号の高周波成分を除去して、第2のフィルタ後映像信号を出力する第2のローパスフィルタリングステップと、
前記第3の映像信号の高周波成分を除去して、第3のフィルタ後映像信号を出力する第3のローパスフィルタリングステップと、
前記第1のフィルタ後映像信号と前記第2のフィルタ後映像信号の階調差を検出する第1の差分検出ステップと、
前記第2のフィルタ後映像信号と前記第3のフィルタ後映像信号の階調差を検出する第2の差分検出ステップと、
前記第3のフィルタ後映像信号と前記第1のフィルタ後映像信号の階調差を検出する第3の差分検出ステップと、
前記第3の差分検出ステップが出力する映像信号の画素間変化を検出する微分ステップと、
前記第2の映像信号において、階調変化の連続性を判定する輪郭形状判定ステップと、
前記第1の差分検出ステップで検出された前記階調差と、前記第2の差分検出ステップで検出された前記階調差と、前記微分ステップで検出された画素間変化の検出結果と、前記輪郭形状判定ステップで検出された前記第2の映像信号の階調変化の連続性についての判定結果を元に、動きぼやけ期間を検出するぼやけ期間判定ステップと、
前記ぼやけ期間判定ステップによる動きぼやけ期間の検出結果を元に、前記第2の映像信号を補正する補正ステップとを有し、
前記ぼやけ補正ステップは、前記ぼやけ期間判定ステップで検出された前記動きぼやけ期間の間のみ前記第2の映像信号を補正する
ことを特徴とする画像処理方法。
A first video signal that is not frame-delayed with respect to the input video signal; a second video signal that is delayed by a predetermined number of frames with respect to the input video signal; and the second video signal A delay step of generating a third video signal delayed by the predetermined number of frames;
A first low-pass filtering step of removing a high-frequency component of the first video signal and outputting a first filtered video signal;
A second low-pass filtering step of removing a high-frequency component of the second video signal and outputting a second filtered video signal;
A third low-pass filtering step of removing a high-frequency component of the third video signal and outputting a third filtered video signal;
A first difference detection step of detecting a gradation difference between the first filtered video signal and the second filtered video signal;
A second difference detecting step for detecting a gradation difference between the second filtered video signal and the third filtered video signal;
A third difference detecting step for detecting a gradation difference between the third filtered video signal and the first filtered video signal;
A differentiation step of detecting an inter-pixel change in the video signal output by the third difference detection step;
A contour shape determination step for determining continuity of gradation change in the second video signal;
The gradation difference detected in the first difference detection step, the gradation difference detected in the second difference detection step, the detection result of the inter-pixel change detected in the differentiation step, and A blur period determination step for detecting a motion blur period based on a determination result about the continuity of gradation change of the second video signal detected in the contour shape determination step;
A correction step of correcting the second video signal based on the detection result of the motion blur period in the blur period determination step;
The image processing method, wherein the blur correction step corrects the second video signal only during the motion blur period detected in the blur period determination step.
JP2008220946A 2008-08-29 2008-08-29 Image processor, method, and image display device Withdrawn JP2010057001A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008220946A JP2010057001A (en) 2008-08-29 2008-08-29 Image processor, method, and image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008220946A JP2010057001A (en) 2008-08-29 2008-08-29 Image processor, method, and image display device

Publications (1)

Publication Number Publication Date
JP2010057001A true JP2010057001A (en) 2010-03-11

Family

ID=42072423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008220946A Withdrawn JP2010057001A (en) 2008-08-29 2008-08-29 Image processor, method, and image display device

Country Status (1)

Country Link
JP (1) JP2010057001A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012070295A (en) * 2010-09-27 2012-04-05 Hitachi Consumer Electronics Co Ltd Video processing apparatus and video processing method
KR101345557B1 (en) 2013-06-26 2014-01-02 곽정필 Method and apparatus for detecting wastewater sludge boundary aspect

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012070295A (en) * 2010-09-27 2012-04-05 Hitachi Consumer Electronics Co Ltd Video processing apparatus and video processing method
KR101345557B1 (en) 2013-06-26 2014-01-02 곽정필 Method and apparatus for detecting wastewater sludge boundary aspect

Similar Documents

Publication Publication Date Title
WO2009107487A1 (en) Motion blur detecting device and method, and image processor, and image display
KR101200231B1 (en) Image processing apparatus and method, and recording medium
CN107113375B (en) Image processing apparatus, imaging apparatus, and image processing method
KR20090102610A (en) Method and system for images scaling detection
JP6041113B2 (en) Image processing apparatus, surveillance camera, and image processing method
US9525824B2 (en) Method and apparatus for processing image according to image conditions
JP4245045B2 (en) Imaging apparatus, imaging signal processing method, and program
CN101569174B (en) Image quality improving apparatus and image quality improving method
KR101257946B1 (en) Device for removing chromatic aberration in image and method thereof
JP5455611B2 (en) Image processing apparatus, image processing method, and program
EP1503578A1 (en) Motion detector, image processing system, motion detecting method, program, and recording medium
JP2006186622A (en) Image processing device and image processing method
JP2010057001A (en) Image processor, method, and image display device
EP3540685B1 (en) Image-processing apparatus to reduce staircase artifacts from an image signal
US11956539B2 (en) Correction control apparatus, image capturing apparatus, control method, and recording medium
WO2010106739A1 (en) Image processing device, image processing method, and image processing program
US9007494B2 (en) Image processing apparatus, method for controlling the same and storage medium
JP2005311455A (en) Imaging device, noise reduction device, noise reduction method and program
JP2006237716A (en) Image processor
JP7003342B2 (en) Video separator, program and video separation method
CN109754370B (en) Image denoising method and device
JP2004295361A (en) Image processing method
JP5759162B2 (en) Motion vector detection device, motion vector detection method, correction device, and program
WO2016199214A1 (en) Image processing device, image processing method, and vehicle-installed camera
JP2010015483A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111101