JP2010057001A - Image processor, method, and image display device - Google Patents
Image processor, method, and image display device Download PDFInfo
- Publication number
- JP2010057001A JP2010057001A JP2008220946A JP2008220946A JP2010057001A JP 2010057001 A JP2010057001 A JP 2010057001A JP 2008220946 A JP2008220946 A JP 2008220946A JP 2008220946 A JP2008220946 A JP 2008220946A JP 2010057001 A JP2010057001 A JP 2010057001A
- Authority
- JP
- Japan
- Prior art keywords
- video signal
- difference
- unit
- blur
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title abstract description 18
- 238000001514 detection method Methods 0.000 claims abstract description 93
- 230000008859 change Effects 0.000 claims abstract description 47
- 238000006243 chemical reaction Methods 0.000 claims abstract description 28
- 238000001914 filtration Methods 0.000 claims abstract description 11
- 230000004069 differentiation Effects 0.000 claims description 47
- 230000003111 delayed effect Effects 0.000 claims description 15
- 238000003672 processing method Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 30
- 238000009825 accumulation Methods 0.000 description 9
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 101100408421 Drosophila melanogaster Pkn gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
Abstract
Description
本発明は、画像処理装置及び方法、並びに画像表示装置に関する。 The present invention relates to an image processing apparatus and method, and an image display apparatus.
画像表示装置が受信する映像信号は、カメラの受光部がフレーム蓄積時間(例えば1/60秒)の間に被写体から受ける受光総量を量子化し、規格によって決められた画素順に並べて送られてくるものである。カメラの受光部と被写体が相対的に動く場合、被写体の輪郭部にはフレーム蓄積時間と、カメラと被写体の相対速度によって決まるぼやけ(以下では動きぼやけとする)が発生する。 The video signal received by the image display device is obtained by quantizing the total amount of light received from the subject during the frame accumulation time (for example, 1/60 seconds) by the light receiving unit of the camera, and arranging them in the pixel order determined by the standard. It is. When the light receiving unit of the camera and the subject move relative to each other, blurring (hereinafter referred to as motion blur) is generated in the contour portion of the subject depending on the frame accumulation time and the relative speed between the camera and the subject.
画像に含まれるぼやけを改善する方法として、例えば特許文献1に開示されているような、拡大縮小回路を用いる方法が開示されている。この方法によれば、オーバーシュートやアンダーシュートを付加することなく、フィルタリング技術を用いて映像の輪郭部の立ち上がり、立下りを急峻にすることができる。
As a method for improving blur included in an image, for example, a method using an enlargement / reduction circuit as disclosed in
また、特許文献2には、動きベクトル検出を用いた、ぼやけ関数のデコンボブル手法が開示されている。しかしこの手法は計算量が膨大になり、実際の回路に実装するのはコスト的に困難であった。
Further,
画像のぼやけは、等方的ぼやけと非等方的ぼやけに分類することができる。
撮像時の焦点ずれ等により発生する等方的ぼやけは、概ねぼやけ幅が狭いこともあり、特許文献1に開示されているフィルタリング技術は、ぼやけを改善する方法として効果的である。
一方、動きぼやけは、ぼやけの発生する方向が、動き方向に沿った一次元の非等方的なぼやけであり、またカメラと被写体の相対速度によりぼやけの幅が大きく変動する。
非等方的ぼやけに特許文献1に開示されているような従来のフィルタリング技術を用いて画面一様に周波数変換する方法を適用すると、動き方向と直交した輪郭に対しても不要な先鋭化が行われてしまうという問題があった。
Image blur can be classified into isotropic blur and anisotropic blur.
The isotropic blur caused by defocusing at the time of imaging has a narrow blur width in general, and the filtering technique disclosed in
On the other hand, in motion blur, the direction in which blur occurs is one-dimensional anisotropic blur along the motion direction, and the blur width varies greatly depending on the relative speed between the camera and the subject.
Applying the method of uniformly converting the screen frequency using the conventional filtering technique disclosed in
また、ぼやけ幅の広い動きぼやけを補正できるように、フィルタの最適化を行なった場合、グラデーションのような緩やかな輝度変化を有する画像に対してもフィルタリングを行なってしまい、本来表示したい画像と異なる画像に誤変換してしまう恐れがあった。 Also, when the filter is optimized so that motion blur with a wide blur width can be corrected, filtering is performed even on an image having a gradual change in luminance such as gradation, which is different from the image originally intended to be displayed. There was a risk of erroneous conversion to images.
さらに、特許文献2に開示されているような動きベクトル検出手法を用いて被写体の移動方向を特定し、適応的にフィルタリング処理を行う場合、検出回路規模が増大してしまうため、コスト的に難しいという問題があった。
Furthermore, when the moving direction of a subject is specified using a motion vector detection method as disclosed in
本発明は上記の課題に鑑みてなされたものであり、回路規模を増大させることなく、映像信号に含まれる動きぼやけを検出し、また検出された動きぼやけを低減することが可能な画像処理装置を提供することを目的とする。 The present invention has been made in view of the above problems, and is an image processing apparatus capable of detecting motion blur included in a video signal and reducing the detected motion blur without increasing the circuit scale. The purpose is to provide.
本発明の画像処理装置は、
入力された映像信号に対してフレーム遅延していない第1の映像信号と、入力された映像信号に対して、所定のフレーム数遅延している第2の映像信号と、前記第2の映像信号に対して、前記所定のフレーム数遅延している第3の映像信号とを生成する遅延手段と、
前記第1の映像信号の高周波成分を除去して、第1のフィルタ後映像信号を出力する第1のローパスフィルタと、
前記第2の映像信号の高周波成分を除去して、第2のフィルタ後映像信号を出力する第2のローパスフィルタと、
前記第3の映像信号の高周波成分を除去して、第3のフィルタ後映像信号を出力する第3のローパスフィルタと、
前記第1のフィルタ後映像信号と前記第2のフィルタ後映像信号の階調差を検出する第1の差分検出手段と、
前記第2のフィルタ後映像信号と前記第3のフィルタ後映像信号の階調差を検出する第2の差分検出手段と、
前記第3のフィルタ後映像信号と前記第1のフィルタ後映像信号の階調差を検出する第3の差分検出手段と、
前記第3の差分検出手段が出力する映像信号の画素間変化を検出する微分手段と、
前記第2の映像信号において、階調変化の連続性を判定する輪郭形状判定手段と、
前記第1の差分検出手段で検出された前記階調差と、前記第2の差分検出手段で検出された前記階調差と、前記微分手段で検出された画素間変化の検出結果と、前記輪郭形状判定手段で検出された前記第2の映像信号の階調変化の連続性についての判定結果を元に、動きぼやけ期間を検出するぼやけ期間判定手段と、
前記ぼやけ期間判定手段による動きぼやけ期間の検出結果を元に、前記第2の映像信号を補正する補正手段とを有し、
前記ぼやけ補正手段は、前記ぼやけ期間判定手段で検出された前記動きぼやけ期間の間のみ前記第2の映像信号を補正する
ことを特徴とする。
The image processing apparatus of the present invention
A first video signal that is not frame-delayed with respect to the input video signal; a second video signal that is delayed by a predetermined number of frames with respect to the input video signal; and the second video signal A delay means for generating a third video signal delayed by the predetermined number of frames;
A first low-pass filter for removing a high-frequency component of the first video signal and outputting a first filtered video signal;
A second low-pass filter for removing a high-frequency component of the second video signal and outputting a second filtered video signal;
A third low-pass filter that removes high-frequency components of the third video signal and outputs a third filtered video signal;
First difference detection means for detecting a gradation difference between the first filtered video signal and the second filtered video signal;
Second difference detection means for detecting a gradation difference between the second filtered video signal and the third filtered video signal;
Third difference detection means for detecting a gradation difference between the third filtered video signal and the first filtered video signal;
Differentiating means for detecting an inter-pixel change in the video signal output by the third difference detecting means;
Contour shape determining means for determining continuity of gradation change in the second video signal;
The gradation difference detected by the first difference detection means, the gradation difference detected by the second difference detection means, the detection result of the inter-pixel change detected by the differentiation means, A blur period determination unit that detects a motion blur period based on a determination result about the continuity of gradation change of the second video signal detected by the contour shape determination unit;
Correction means for correcting the second video signal based on the detection result of the motion blur period by the blur period determination means;
The blur correction unit corrects the second video signal only during the motion blur period detected by the blur period determination unit.
本発明によれば、動き方向と直交した輪郭に対して不要な先鋭化処理が施されることなく、入力された映像信号に含まれる動きぼやけ幅を低減することが可能になる。 According to the present invention, it is possible to reduce the motion blur width included in the input video signal without performing unnecessary sharpening processing on the contour orthogonal to the motion direction.
実施の形態1.
図1は、本発明に係る画像表示装置の構成を示すブロック図である。図示の画像表示装置81は、遅延部1と、ぼやけ検出部2と、ぼやけ補正部3と、画像表示部4とを備えている。遅延部1と、ぼやけ検出部2と、ぼやけ補正部3とで、画像処理装置が構成される。
画像表示装置81に入力された映像信号は、遅延部1に供給される。遅延部1はフレームメモリを用いて、入力された信号のフレーム遅延を行い、複数のフレーム遅延された信号d1、d2、d3をぼやけ検出部2及びぼやけ補正部3に出力する。
FIG. 1 is a block diagram showing a configuration of an image display apparatus according to the present invention. The illustrated
The video signal input to the
ぼやけ検出部2は、遅延部2から出力された複数の異なるフレームの映像信号d1、d2、d3から映像中に含まれる動きぼやけ領域を検出し、動きぼやけ検出フラグbfを出力する。
The
ぼやけ補正部3は、ぼやけ検出部2にて検出された、動きぼやけ検出フラグbfを元に、遅延部1から出力された映像信号d2を変換し、画像表示部4に出力する。
The
図2は、遅延部1の一例を示すブロック図である。図示の遅延部1はフレームメモリ制御部5と、フレームメモリ6から構成されている。フレームメモリ6は入力される映像信号を少なくとも2フレーム記憶可能な容量を有している。
FIG. 2 is a block diagram illustrating an example of the
フレームメモリ制御部5は、入力された映像信号d0に含まれる同期信号を元に生成した、メモリアドレスに従い、入力映像信号の書込みと、蓄積された映像信号の読み出しとを行い、例えば連続する3フレームの映像信号d1、d2、d3を生成する。
The frame
映像信号d1は、入力映像信号d0に対して遅延がないものであり、現フレーム映像信号とも呼ばれる。映像信号d2は、映像信号d1に対して1フレーム遅延したものであり、1フレーム遅延映像信号とも呼ばれる。映像信号d3は、映像信号d2に対して1フレーム遅延したもの、即ち映像信号d1に対して2フレーム遅延したものであり、2フレーム遅延映像信号とも呼ばれる。また、以下のように、映像信号d2を対象として処理を行うので、映像信号d2を注目フレーム映像信号と呼び、映像信号d1を前フレーム映像信号、映像信号d3を後フレーム映像信号と呼ぶこともある。 The video signal d1 has no delay with respect to the input video signal d0, and is also called a current frame video signal. The video signal d2 is delayed by one frame with respect to the video signal d1, and is also called a one-frame delayed video signal. The video signal d3 is delayed by one frame with respect to the video signal d2, that is, delayed by two frames with respect to the video signal d1, and is also called a two-frame delayed video signal. In addition, since the processing is performed on the video signal d2 as described below, the video signal d2 is also referred to as a target frame video signal, the video signal d1 is also referred to as a previous frame video signal, and the video signal d3 is also referred to as a rear frame video signal. is there.
図3はぼやけ検出部2の一例を示すブロック図である。図示のぼやけ検出部2は、ローパスフィルタ(以下LPF)7、8、9と、差分検出部11、12、27と、ぼやけ期間判定部14と、微分部28と、輪郭形状判定部35とを備える。
FIG. 3 is a block diagram illustrating an example of the
遅延部1から出力された映像信号d1、d2、d3は、それぞれLPF7、8、9に供給される。LPF7は、遅延部1から出力された映像信号d1の高周波成分を除去し、映像信号e1を生成し、それぞれ差分検出部11、27に出力する。
LPF8は、遅延部1より1フレーム遅れで出力された映像信号d2の高周波成分を除去し、映像信号e2を生成して差分検出部11、12に出力する。
LPF9は、遅延部1から出力された映像信号d3の高周波成分を除去し、映像信号e3を生成し、差分検出部12、27に出力する。
The video signals d1, d2, and d3 output from the
The
The
差分検出部11は、入力された映像信号e1と映像信号e2の差分、即ち画素ごとのフレーム間補正差分を検出し、差分補正信号g1をぼやけ期間判定部14に出力する。差分検出部11から出力されるフレーム間補正差分は、各画素についての、1フレーム間の差分を、後述のように補正した値である。
同様に、差分検出部12は、入力された映像信号e3と映像信号e2の差分、即ち画素ごとのフレーム間補正差分を検出し、差分補正信号g2をぼやけ期間判定部14に出力する。差分検出部12から出力されるフレーム間補正差分も、各画素についての、1フレーム間の差分を、後述のように補正した値である。
同様に、差分検出部27は、入力された映像信号e3と映像信号e1の差分、即ち画素ごとの(各画素についての)フレーム間補正差分を検出し、差分補正信号g3を微分部28に出力する。差分検出部27から出力されるフレーム間補正差分は、各画素についての、2フレーム間の差分を、後述のように補正した値である。
The
Similarly, the
Similarly, the
微分部28は、差分補正信号g3の各画素についての差分補正信号g3と、その直前に位置する画素についての差分補正信号g3との差を求め、隣接画素間変化量f3としてぼやけ期間判定部14に出力する。ここで「直前」というのは、画素の処理順における「直前」を意味し、通常のごとく各水平ライン内の画素が左から右へという順で処理される場合、左側に位置し、隣接する画素である。
The differentiating
遅延部1から出力された映像信号d2は、輪郭形状判定部35にも入力される。輪郭形状判定部35は、映像信号d2の階調変化の連続性を判定し、連続性を有する場合には、輪郭形状検出フラグefを第1の値、例えば「Hi」として、ぼやけ期間判定部14に出力する。
ここで、「階調変化が連続性を有する場合」とは、所定の条件を満たす階調変化が所定の画素期間以上継続する場合を言う。所定の条件とは、例えば1画素期間にわたる階調変化(隣接する画素間の差分)が所定の範囲内であることである。所定の範囲は、例えば現在の画素とその一つ前の画素との変化を基準にしてそれより第1の所定値だけ大きい値を上限値とし、それより第2の所定値だけ小さい値を下限値とする範囲である。「所定の画素期間以上継続する」とは現在の画素よりも前に連続して処理された所定数以上の画素について同じ結果が得られることを意味する。画素間距離が一定であることを考慮すれば、隣接画素間の差分で与えられる階調変化は、「階調変化率」と言うこともでき、「隣接画素間の差分で与えられる階調変化が所定の範囲内である」ということは、「階調変化率が所定の範囲内である」こと言い換えることもできる。
The video signal d2 output from the
Here, “when the gradation change has continuity” means a case where the gradation change satisfying a predetermined condition continues for a predetermined pixel period or longer. The predetermined condition is, for example, that the gradation change (difference between adjacent pixels) over one pixel period is within a predetermined range. The predetermined range is, for example, based on the change between the current pixel and the previous pixel as a reference, a value that is larger than the first predetermined value as an upper limit value, and a value that is smaller than the second predetermined value as a lower limit. The range of values. “Continue for a predetermined pixel period or more” means that the same result is obtained for a predetermined number or more of pixels that are continuously processed before the current pixel. Considering that the distance between pixels is constant, the gradation change given by the difference between adjacent pixels can also be called “gradation change rate”. "Is within a predetermined range" can be rephrased as "the gradation change rate is within a predetermined range".
ぼやけ期間判定部14では、輪郭形状判定部35から出力された輪郭形状検出フラグefと、差分検出部11及び12で求められた差分補正信号g1及びg2と、微分部28で求められたフレーム間差分微分結果f3とを元に、動きぼやけが発生したか否か、即ちぼやけ期間か否かを判定し、判定結果bfを出力する。
In the blur
図4は輪郭形状判定部35の構成の一例を示すブロック図である。図示の輪郭形状判定部35は、微分部36と、微分結果記憶部37と、連続性判定部38とを備える。
遅延部1から出力された映像信号d2は微分部36に入力される。微分部36は、各画素についての映像信号d2と、それよりも1画素前の映像信号との差分(隣接画素間輝度変化量)を求め、該差分を当該画素についての微分結果として出力する。
微分部36から出力される微分結果Pkは、微分結果記憶部37及び連続性判定部38に供給される。
FIG. 4 is a block diagram illustrating an example of the configuration of the contour
The video signal d2 output from the
The differentiation result Pk output from the
微分結果記憶部37は、微分部36から出力される微分結果(現在の微分結果)Pkを一時的に記憶し、記憶された微分結果Pkは、1画素期間、2画素期間、3画素期間、4画素期間遅延後に1画素遅延の微分結果、2画素遅延の微分結果、3画素遅延の微分結果、4画素遅延の微分結果として読み出される。
従って、各時点においては、現在の微分結果(注目画素についての微分結果)Pkに対して、1画素遅延、2画素遅延、3画素遅延、4画素遅延の微分結果DPk1、DPk2、DPk3、DPk4が記憶部37から読み出され、現在の微分結果Pkとともに連続性判定部38に入力される。
現在の微分結果は、注目画素についての微分結果であり、1画素遅延、2画素遅延、3画素遅延、4画素遅延の微分結果DPk1、DPk2、DPk3、DPk4は、注目画素よりも前に位置する画素についての微分結果であるとも言える。ここで「前」というのは、画素の処理順における「前」を意味し、通常のごとく、各水平ライン内の画素が左から右へという順で処理される場合、「左」の画素である。
The differentiation
Therefore, at each time point, the differential results DPk1, DPk2, DPk3, DPk4 of 1 pixel delay, 2 pixel delay, 3 pixel delay, and 4 pixel delay are obtained with respect to the current differential result (differential result for the target pixel) Pk. The data is read from the
The current differential result is a differential result for the target pixel, and the differential results DPk1, DPk2, DPk3, and DPk4 of 1 pixel delay, 2 pixel delay, 3 pixel delay, and 4 pixel delay are located before the target pixel. It can also be said that this is a differential result for a pixel. Here, “previous” means “previous” in the processing order of pixels. As usual, when pixels in each horizontal line are processed in order from left to right, is there.
連続性判定部38は、微分結果記憶部37から出力される遅延された微分結果(注目画素よりも前に位置する画素についての微分結果)DPk1〜DPk4が、現在の微分結果Pkを含む所定の範囲内のものかどうかの判定を行なうことで、階調変化の連続性の有無を判定する。具体的には、予め与えられる閾値S8と微分結果Pkを加算したもの(Pk+S8)、および微分結果Pkから予め与えられる閾値S9を減算したもの(Pk−S9)の値の間に、微分結果記憶部37から出力される連続する4つの微分結果が全て含まれるか否かを判定し、「含まれる」場合、すなわち
(Pk+S8)≧DPkx≧(Pk−S9) (x=1,2,3,4) …(102)
の場合、階調変化(傾き)に連続性があると判断し、連続性判定部38は輪郭形状検出フラグefの値を、第1の値、例えば「1」として、出力する。
The continuity determination unit 38 outputs a delayed differentiation result (differentiation result for a pixel located before the target pixel) DPk1 to DPk4 output from the differentiation
In this case, it is determined that the gradation change (gradient) has continuity, and the continuity determination unit 38 outputs the value of the contour shape detection flag ef as a first value, for example, “1”.
閾値S8と閾値S9とは同じ値であっても良く、互いに異なる値であっても良い。
以上の処理を行なうことで、連続性判定部38は、互いに隣接する画素間の、階調値の差分(階調変化率、微分値)が、連続して所定の画素数の区間にわたり、現在の階調変化率Pkを含む所定の範囲((Pk−S9)から(Pk+S8)までの範囲)内に入るかどうかの判定を行なう。
The threshold value S8 and the threshold value S9 may be the same value or different values.
By performing the above processing, the continuity determination unit 38 allows the difference in gradation values (gradation change rate, differential value) between adjacent pixels to be continuously present over a predetermined number of pixels. It is determined whether or not it falls within a predetermined range (range from (Pk−S9) to (Pk + S8)) including the gradation change rate Pk.
なお、上記の例では、「所定の画素数の区間」が「4画素の区間」であるが、4画素に限定されず、他の数の画素数であっても良い。「n画素の区間(nは自然数)」にするには、微分結果記憶部37にn個以上の画素についての微分結果を記憶させ、現在の微分結果Pkが微分部36から連続性判定部38に供給されるときに、微分結果記憶部37から、最近のn個の微分結果DPk1〜DPknを、連続性判定部38に供給すれば良い。
In the above example, the “section of the predetermined number of pixels” is the “section of four pixels”, but is not limited to four pixels, and may be another number of pixels. In order to make “n pixel interval (n is a natural number)”, the differential
図5は、ぼやけ補正部3の一例を示した図である。図示のぼやけ補正部3は、輪郭形状計算部15と、画素変換部16とを備える。
輪郭形状計算部15は、入力される動きぼやけ判定結果bfを元に、輪郭形状を算出し、画素変換部16に対して、変換制御信号jを出力する。
画素変換部16は、変換制御信号jと、入力される映像信号d1及びd3を元に、映像信号d2を変換し、変換後の映像信号kを出力する。
FIG. 5 is a diagram illustrating an example of the
The contour
The
以下、画像表示装置81の各構成要素の動作についてさらに詳しく説明する。
画像表示装置81に入力された映像信号d0は遅延部1に入力される。
図6(a)〜(f)は、遅延部1に入力される映像信号d0と、出力される映像信号d1、d2、d3の関係を説明する図である。図6(a)に示される入力垂直同期信号SYIに同期して、図6(b)に示すように、フレームF0、F1、F2、F3の入力映像信号d0が順次入力される。フレームメモリ制御部5は入力垂直同期信号SYIを元にフレームメモリ書込みアドレスを生成し、入力映像信号d0をフレームメモリ6に記憶させると共に、図6(c)に示す出力垂直同期信号SYO(入力垂直同期信号SYIに対して遅れがないものとして示してある)に同期して、図6(d)に示すように、入力映像信号d0に対してフレーム遅延のない映像信号d1(フレームF0、F1、F2、F3の映像信号)を出力する。フレームメモリ制御部5はまた、入力垂直同期信号を元にフレームメモリ読み出しアドレスを生成し、フレームメモリ6に蓄えられた、1フレーム遅延映像信号d2(図6(e))及び2フレーム遅延映像信号d3(図6(f))をそれぞれ読み出して出力する。この結果、遅延部1からは、連続する3フレームの映像信号d1、d2、d3が同時に出力される。即ち、フレームF2の映像信号が映像信号d0として入力されるタイミング(フレーム期間)に、フレームF2、F1、F0の映像信号が映像信号d1、d2、d3として出力され、フレームF3の映像信号が映像信号d0として入力されるタイミング(フレーム期間)に、フレームF3、F2、F1の映像信号が映像信号d1、d2、d3として出力される。
Hereinafter, the operation of each component of the
The video signal d0 input to the
6A to 6F are diagrams for explaining the relationship between the video signal d0 input to the
遅延部1から出力された、連続する3フレームの映像信号d1、d2、d3は、ぼやけ検出部2及びぼやけ補正部3へ出力される。ぼやけ検出部2に入力された映像信号d1、d2、d3は、LPF7、8、9にそれぞれ入力される。
Three consecutive frames of video signals d1, d2, and d3 output from the
図7は、映像信号d1、d2、d3の例を示す。水平方向は画素位置を、垂直方向は階調を示しており、階調が緩やかに変化している画像の輪郭部を示している。 FIG. 7 shows an example of the video signals d1, d2, and d3. The horizontal direction indicates the pixel position, and the vertical direction indicates the gradation, indicating the contour portion of the image where the gradation changes gently.
LPF7、8、9は、図7に示される映像信号の高周波成分を除去する。このように高周波成分を除去するのは、フレーム蓄積時間に起因するぼやけは比較的遷移幅の広い、言い換えれば比較的動きの速い映像で問題となり、このため、入力信号の高周波数成分は、フレーム蓄積時間に起因するぼやけの検出には不要な成分であるからである。
The
図8に、図7に示す映像信号を、LPFを用いて高周波成分を除去した映像信号eの例を示す。LPF7、8、9から出力された信号e1、e2、e3は、差分検出部11、12、27に入力される。
FIG. 8 shows an example of a video signal e obtained by removing high frequency components from the video signal shown in FIG. 7 using LPF. The signals e1, e2, e3 output from the
図9(a)及び(b)は、連続した3フレームの信号e1、e2、e3の関係を示す図である。
通常、60フレーム/秒で送信されてくる映像信号は、フレーム蓄積時間1/60秒での撮影で得られたものであるため、被写体が動いている場合、その輪郭部Ce3、Ce2、Ce1は図9(a)及び(b)に示すようにフレーム間で連続して観測される。具体的には、被写体が動いている場合、図9(a)に示すように、2フレーム遅延信号e3の階調変化が終わった画素位置で、1フレーム遅延信号e2の階調変化が始まる。同様に、図9(b)に示すように、1フレーム遅延信号e2の階調変化が終わった画素位置で、現フレーム信号e1の階調が変化し始める。
FIGS. 9A and 9B are diagrams illustrating the relationship between signals e1, e2, and e3 of three consecutive frames.
Normally, since the video signal transmitted at 60 frames / second is obtained by photographing with a frame accumulation time of 1/60 seconds, when the subject is moving, the contour portions Ce3, Ce2, Ce1 are As shown in FIGS. 9A and 9B, observation is continued between frames. Specifically, when the subject is moving, as shown in FIG. 9A, the gradation change of the 1-frame delay signal e2 starts at the pixel position where the gradation change of the 2-frame delay signal e3 ends. Similarly, as shown in FIG. 9B, the gradation of the current frame signal e1 starts to change at the pixel position where the gradation change of the one-frame delay signal e2 has ended.
図10は差分検出部11の一例を示した図である。図示の差分検出部11は差分計算部19と、差分補正部20とを備える。
差分計算部19は、入力信号e1、e2相互間の差分を計算し、計算結果deを出力する。
計算結果deは、差分補正部20に供給される。
差分補正部20は、予め与えられた閾値S3を用いて差分計算結果deを補正し、差分補正信号g1を生成し出力する。
FIG. 10 is a diagram illustrating an example of the
The
The calculation result de is supplied to the
The
図11(a)及び(b)は差分検出部11の動作を説明するための図である。
図11(a)は、入力される2フレーム分の信号e1、e2を示す。図11(b)は差分計算結果de(=e2−e1)を示す。図11(c)は生成された差分補正信号g1を示す。ここでそれぞれの図の横軸は画素位置を示している。
入力される連続する2フレームの信号e2、e1(図11(a))に、被写体が動いている箇所がある場合、差分計算部19にてフレーム間差分を取ると、図11(b)に示すように、フレーム間で輪郭が連続する画素位置Eeをピークとする、差分計算結果deが得られる。
FIGS. 11A and 11B are diagrams for explaining the operation of the
FIG. 11A shows the signals e1 and e2 for two frames to be input. FIG. 11B shows the difference calculation result de (= e2-e1). FIG. 11C shows the generated difference correction signal g1. Here, the horizontal axis of each figure indicates the pixel position.
If there is a place where the subject is moving in the two consecutive frames of signals e2 and e1 (FIG. 11 (a)), the
差分計算部19より出力された差分計算結果deは差分量補正部20に入力される。映像信号にはノイズ成分が重畳されていることが多く、本来被写体が動いていない箇所でも、フレーム間で差分量を計算すると、若干の差が検出されることがある。そこで差分量補正部20では、差分計算結果deの大きさを閾値S3の大きさだけ減少させる処理を行う。即ち、差分計算結果deの絶対値から閾値S3を減算する。これにより、ノイズによる誤検出を低減した差分補正信号g1(図11(c))を生成し出力する。
なお、以下の説明から理解されるように、ぼやけ検出部2内における処理では、差分の絶対値のみが問題になるので、差分検出部27において差分を求める場合、2つの信号のどちらからどちらを減算するかは問題とならない。差分検出部11、12においても同じである。
The difference calculation result de output from the
As will be understood from the following description, only the absolute value of the difference becomes a problem in the processing in the
差分計算部12の構成及び動作は差分計算部11と同じであるが、信号e1、e2の代わりに、信号e2、e3が入力され、信号g1の代わりに信号g2を出力する。
The configuration and operation of the
同様に、差分計算部27の構成及び動作は差分計算部11と同じであるが、信号e1、e2の代わりに、信号e1、e3が入力され、信号g1の代わりに信号g3を出力する。
Similarly, the configuration and operation of the
g1、g2、g3は以下の式で表される。
|e2−e1|>S3の場合には、g1=|e2−e1|−S3
そうでない場合には、g1=0
|e3−e2|>S3の場合には、g2=|e3−e2|−S3
そうでない場合には、g2=0
|e3−e1|>S3の場合には、g3=|e3−e1|−S3
そうでない場合には、g3=0
g1, g2, and g3 are represented by the following formulas.
When | e2-e1 |> S3, g1 = | e2-e1 | -S3
Otherwise, g1 = 0
If | e3-e2 |> S3, then g2 = | e3-e2 | -S3
Otherwise, g2 = 0
If | e3-e1 |> S3, then g3 = | e3-e1 | -S3
Otherwise, g3 = 0
図12(a)〜(d)は、差分計算部27に入力される信号e1、e2から差分補正信号g3を生成する過程と、差分補正信号g3から微分値f3を算出する過程を示した図である。
差分演算部27においては、信号e1、e3(図12(a))から、e1とe3の差de(図12(b))を求め、さらに差分補正信号g3(図12(c))を生成する。差分計算部27から出力された差分補正信号g3(図12(c))は、微分部28に入力される。
微分部28は、差分検出部27から出力される差分補正信号g3の隣接画素間変化量(隣接画素間差分)の絶対値を検出し、検出結果としての微分値f3をぼやけ判定部14に出力する。
12A to 12D are diagrams showing a process of generating the difference correction signal g3 from the signals e1 and e2 input to the
The
The differentiating
被写体の動きが原因で輪郭部がぼやけている場合、注目フレームの信号(1フレーム遅延信号)の輪郭部Ce2では、前後のフレーム相互間の差分(2フレーム遅延信号e3と現フレーム信号e1の差)を微分した結果f3(図12(d))はほぼ0になる。 When the contour portion is blurred due to the movement of the subject, the contour portion Ce2 of the signal of the frame of interest (1-frame delay signal) has a difference between the previous and subsequent frames (difference between the two-frame delay signal e3 and the current frame signal e1). ) Is differentiated, and f3 (FIG. 12D) is almost zero.
次に輪郭形状判定部35の動作についてより詳しく説明する。
被写体が動いている場合、被写体の動きによって決まる輪郭部に非等方的ぼやけが発生する。
図13は輝度がステップ状に変化する輪郭を持つ被写体が等速で移動した場合の、フレーム蓄積時間により発生するぼやけを示した図である。
撮像光学系が有する収差や、焦点ずれ等に起因する、いわゆる等方的ぼやけが無い場合、静止している被写体の輪郭は破線PRsで示すように位置に対する階調値の変化は不連続(ステップ状)になる。仮に、撮像素子の電荷蓄積時間が十分に短かければ、波線PRsで示すのと略同じ輪郭を持つ映像信号が得られる。しかし、実際には電荷蓄積時間はある長さを有するので、輪郭の移動速度に応じて、階調値が次第に変化する区間が生じ、これがぼやけの原因となる。上記の輝度がステップ状に変化する輪郭が等速運動をした場合、階調値は実線PRmで示すように、運動の早さによって決まる一定の傾き有し、階調値遷移区間TTmを生じる。
Next, the operation of the contour
When the subject is moving, anisotropic blur occurs in the contour determined by the motion of the subject.
FIG. 13 is a diagram showing blurring caused by the frame accumulation time when a subject having a contour whose luminance changes stepwise moves at a constant speed.
When there is no so-called isotropic blur caused by aberration or defocusing of the imaging optical system, the change in the gradation value with respect to the position is discontinuous as indicated by the broken line PRs in the contour of the stationary subject (step Shape). If the charge accumulation time of the image sensor is sufficiently short, a video signal having substantially the same contour as indicated by the wavy line PRs can be obtained. However, since the charge accumulation time has a certain length in practice, there is a section in which the gradation value gradually changes according to the moving speed of the contour, which causes blurring. When the contour in which the luminance changes stepwise moves at a constant speed, the gradation value has a constant slope determined by the speed of movement as shown by the solid line PRm, and a gradation value transition section TTm is generated.
図14は、輝度がステップ状に変化する輪郭を持つ被写体が加減速運動した場合の、フレーム蓄積時間により発生するぼやけを示した図である。
被写体が加減速運動をしている場合、厳密には図14に実線PRma、PRmbで示すように階調遷移期間中に階調値の傾きが変化する。
しかし、被写体の移動による輪郭部のぼやけは、フレームあたり数画素程度の移動速度しか持たず、従って、上記加減速運動に起因する階調遷移期間の傾きの変化は小さく、許容誤差の範囲内のものとして無視し、実線PRmcで示すように、階調が傾き一定で変化するものとして処理しても実際上問題はない。
FIG. 14 is a diagram showing blurring caused by the frame accumulation time when a subject having an outline whose luminance changes in a step shape is accelerated and decelerated.
When the subject is accelerating / decelerating, strictly speaking, as shown by solid lines PRma and PRmb in FIG. 14, the gradient of the gradation value changes during the gradation transition period.
However, the blurring of the contour due to the movement of the subject has only a moving speed of about several pixels per frame, and therefore the change in the gradient of the gradation transition period due to the acceleration / deceleration movement is small and within the allowable error range. Even if it is ignored and the gradation is changed with a constant slope as shown by the solid line PRmc, there is no practical problem.
図15は(a)〜(e)は、輪郭形状判定部35の動作を説明する図である。
図15(a)は入力される映像信号d2の例を示す。微分部36は入力される映像信号d2を微分し、図15(b)に示す微分結果Pkを出力する。
微分結果記憶部37は、微分部36から出力される微分結果Pkを一時的に記憶し、該記憶部37から、図15(c)に示すように、入力される微分結果Pkに対して、1画素遅延の微分結果DPk1、入力される微分結果Pkに対して、2画素遅延の微分結果DPk2、入力される微分結果Pkに対して、3画素遅延の微分結果DPk3、入力される微分結果Pkに対して、4画素遅延の微分結果DPk4が読み出される。
15A to 15E are diagrams for explaining the operation of the contour
FIG. 15A shows an example of the input video signal d2. The
The differentiation
図15(d)および(e)は連続性判定部38の動作を説明する図である。
連続性判定部38は予め与えられた閾値S8を微分結果Pkに加算した結果(Pk+S8)と、微分結果Pkから予め与えられた閾値S9を減算した結果(Pk−S9)を計算する。連続性判定部38はさらに、微分結果記憶部37から出力される微分結果DPk1〜DPk4を、計算結果(Pk+S8)および(Pk−S9)と比較し、微分結果DPk1〜DPk4がそれぞれ
(Pk+S8)≧DPkx≧(Pk−S9) (x=1,2,3,4) …(101)
の条件を満たしているかを判定し、判定結果を示す輪郭形状検出フラグefを出力する。このフラグefは、上記の式(101)で表される条件が満たされる場合Hiとなるものである。
FIGS. 15D and 15E are diagrams for explaining the operation of the continuity determination unit 38.
The continuity determination unit 38 calculates a result (Pk + S8) obtained by adding a threshold value S8 given in advance to the differentiation result Pk and a result (Pk−S9) obtained by subtracting the threshold value S9 given in advance from the differentiation result Pk. The continuity determination unit 38 further compares the differential results DPk1 to DPk4 output from the differential
The contour shape detection flag ef indicating the determination result is output. This flag ef is Hi when the condition expressed by the above equation (101) is satisfied.
差分検出部11、12から出力された差分補正信号g1、g2、微分部28から出力された微分値f3および輪郭形状判定部35から出力された輪郭形状検出フラグefは、ぼやけ期間判定部14に入力される。
The difference correction signals g1 and g2 output from the
図16は、ぼやけ期間判定部14の構成を示す図である。微分値f3は2値化部22に入力される。2値化部22は、微分値f3を予め与えられた閾値S4を元に2値化し、2値化差分補正信号dg3をステート判定部25に出力する。
差分補正信号g1は2値化部23に入力される。2値化部23は2値化部22と同様に、予め与えられた閾値S5を用いて、入力された差分補正信号g1の2値化を行い、2値化差分補正信号dg1をステート判定部25に出力する。
同様に、差分補正信号g2は2値化部24に入力される。2値化部24は2値化部22、23と同様に、予め与えられた閾値S6を用いて、入力された差分補正信号g2の2値化を行い、2値化差分補正信号dg2をステート判定部25に出力する。
FIG. 16 is a diagram illustrating a configuration of the blur
The difference correction signal g1 is input to the
Similarly, the difference correction signal g2 is input to the
ステート判定部25は、2値化差分補正信号dg1、dg2、dg3を元に、輪郭状態フラグgsを生成し、ぼやけ判定部26に出力する。ぼやけ判定部26は、輪郭状態フラグgsと、輪郭形状検出フラグefを元に、ぼやけ検出フラグbfを出力する。
The
図17(a)及び(b)は2値化部22の動作を説明するための図であり、入力信号f3と出力信号dg3の関係を示している。
入力された信号f3(図17(a))は、その絶対値が予め与えられた閾値S4より大きい場合は「1」、小さい場合は「0」に2値化され、ステート判定部25に出力される。2値化された結果得られる信号dg3が図17(b)に示されている。
2値化部23、24の動作は2値化部22と同様であるが、信号f3の代わりに、信号g1、g2が入力され、信号dg3の代わりに、信号dg1、dg2が出力される。
FIGS. 17A and 17B are diagrams for explaining the operation of the
The input signal f3 (FIG. 17A) is binarized to “1” when its absolute value is larger than a predetermined threshold value S4 and “0” when it is smaller, and is output to the
The operations of the
図18はステート判定部25の一例を示す図である。図示のステート判定部25は、状態比較部21と状態補正部29とを備える。
ステート判定部25に入力される2値化差分補正信号dg1、dg2は状態比較部21に入力される。状態比較部21は、入力された2つの差分補正信号dg1、dg2を比較し、その結果を示す状態比較信号gssを状態補正部29に出力する。状態補正部29では、状態比較信号gssを、2値化差分補正信号dg3を元に補正を行い、状態補正信号gsを出力する。
FIG. 18 is a diagram illustrating an example of the
The binarized difference correction signals dg1 and dg2 input to the
図19(a)〜(c)は、状態比較部21の動作を説明するための図である。状態比較部21に入力される2値化差分補正信号dg1、dg2が、それぞれ図19(a)、(b)に示すようであったとする。状態比較部21は、2つの2値化差分補正信号の状態により3つのステート(A、B、C)をもつ状態比較信号gss(図19(c))を出力する。2値化差分補正信号dg1、dg2が共にLoである場合には、状態比較信号gssはステートAとなる。2値化差分補正信号dg1、dg2の状態が互いに異なる場合(dg1≠dg2のとき)には、状態比較信号gssはステートBとなる。2値化差分補正信号dg1、dg2が共にHiの場合には、状態比較信号gssはステートCとなる。
FIGS. 19A to 19C are diagrams for explaining the operation of the
図20(a)〜(e)は状態補正部29の動作を説明するための図である。状態比較部21から入力される状態比較信号gssは、図20(a)に示すように、3つのステートA、B、Cを持つ信号である。状態補正部29では、信号gssのステートがCの場合に、2値化差分補正信号dg3(図20(b)、(d))の状態に応じて補正を行なって、状態補正信号(フラグ)gs(図20(c)、(e)を生成する。
具体的には、信号gssがステートAの場合には、gsを(gssと同じく)ステートAとし、信号gssがステートBの場合には、gsを(gssと同じく)ステートBとする。
一方、信号gssがステートCで、かつdg3=Loの場合、gsをステートDとする。
なお、図20(d)に示すように、信号gssがステートCで、かつdg3=Hiの場合には、図20(e)に示すように、gsを(gssと同じく)ステートCとする。
以上のようにして、状態補正部29が出力する状態補正信号gsは4つのステートを持つ信号になる。
20A to 20E are diagrams for explaining the operation of the
Specifically, when the signal gss is in the state A, gs is set to the state A (same as gss), and when the signal gss is the state B, gs is set to the state B (same as gss).
On the other hand, if the signal gss is in state C and dg3 = Lo, gs is in state D.
As shown in FIG. 20D, when the signal gss is in state C and dg3 = Hi, gs is in state C (same as gss) as shown in FIG.
As described above, the state correction signal gs output from the
図21(a)〜(c)は、ぼやけ判定部26の動作を説明する図である。
ステート判定部25から出力される、図21(a)に示される状態補正信号gsは4つのステートA、B、C、Dを持つ信号であり、輪郭形状検出フラグefは図21(b)に示すように2値信号である。
ぼやけ判定部26では、状態補正信号gsのステートB、C、Dの信号に対して作用し、輪郭形状検出フラグefがLoの場合は、ステートB、C、Dのそれぞれの信号をステートAに変換して出力する。ステートAは、ぼやけ補正の対象外のステートである。
一方、輪郭形状検出フラグefがHiの場合は、ステートB、C、Dのそれぞれの信号をそのままB、C、Dとして出力する。なお、ステートAの信号は、輪郭形状検出フラグefがHiであるかLoであるかに拘わらず、そのまま出力される。このようにして、ぼやけ判定部26は、4つのステートA、B、C、Dを持つ動きぼやけ検出フラグbf(図21(c))を生成して出力する。
21A to 21C are diagrams illustrating the operation of the
The state correction signal gs shown in FIG. 21A output from the
The
On the other hand, when the contour shape detection flag ef is Hi, the signals of the states B, C, and D are output as B, C, and D as they are. Note that the signal of the state A is output as it is regardless of whether the contour shape detection flag ef is Hi or Lo. In this way, the
ぼやけ検出部2から出力された、4つのステートA、B、C、Dを持つ動きぼやけ検出フラグbfと、遅延部1から出力された映像信号d1、d2、d3とは、ぼやけ補正部3に入力される。
ぼやけ補正部3の構成は図5で説明しているとおりであり、ここでは、ぼやけ補正部3の動作について説明する。
The motion blur detection flag bf having four states A, B, C, and D output from the
The configuration of the
ぼやけ補正部3に入力された動きぼやけ検出フラグbfは輪郭形状計算部15に入力される。
図22は輪郭形状計算部15の一例を示した図であり、図示の輪郭形状計算部15は、画素カウンタ部30と、ステートDカウンタ部31と、中心検出部32と、コア位置判定部33と、変換信号生成部34とを備える。
動きぼやけ検出フラグbfは画素カウンタ部30と、ステートDカウンタ部31と、変換信号生成部34とに入力される。
The motion blur detection flag bf input to the
FIG. 22 is a diagram illustrating an example of the contour
The motion blur detection flag bf is input to the
画素カウンタ部30は、画素クロックを、画面上の各ラインの処理の開始時点からカウントすることで得られるカウント値c1を、当該ライン上の画素位置を示すデータとして出力する。
ステートDカウンタ部31は、画素クロックを、動きぼやけ検出フラグbfに含まれるステートDの開始時点から終了時点までカウントすることで得られるカウント値c2をステートDの幅(持続時間)を示すデータとして出力する。
画素クロックは、画像処理装置内の各部において、処理を同期させるために発生されるクロックであり、画素クロックが発生される度に一つの画素の信号が処理される。
The
The state
The pixel clock is a clock generated in order to synchronize processing in each unit in the image processing apparatus, and a signal of one pixel is processed each time the pixel clock is generated.
画素カウンタ部30とステートDカウンタ部31から出力されるカウント結果c1、c2は中心検出部32に入力される。
中心検出部32では、カウント結果c1とc2から、ステートD期間の中心位置(を示すデータ)c3を検出する。検出されたステートD期間の中心位置c3はコア位置判定部33に出力される。コア位置判定部33では、予め与えられた閾値S7を用いて、ぼやけ補正時のコア領域を計算し、コア領域判定フラグc4を出力する。
コア領域判定フラグc4は変換信号生成部34に送られる。変換信号生成部34では、入力された動きぼやけ検出フラグbfと、コア領域判定フラグc4を元に変換制御信号jを出力する。
The count results c1 and c2 output from the
The
The core region determination flag c4 is sent to the converted
図23(a)〜(d)は動きぼやけ検出フラグbfと、画素カウンタ出力c1、ステートDカウンタ出力c2とからコア領域判定フラグc4を生成する動作を示す。
図23(a)に示す動きぼやけ検出フラグbfがステートDカウンタ部31に入力されたとき、ステートDのカウント値c2(図23(c))は9までカウントアップされ、最大カウント値c2maxは9となる。中心検出部32は、ステートDの最大カウント値c2maxと、最大カウント値c2maxとなったときの画素カウンタ部30の出力c1の値c1m(図23(b))に基づき、
c3=c1m−(c2max−1)/2
=12−(9−1)/2=8
の演算を行い(端数を切り上げ又は切り下げることにより)、ステートDの中心位置c3を求める。図示の例では、c3は「8」となる。中心位置(を示すデータ)c3は、コア位置判定部33に出力される。
FIGS. 23A to 23D show an operation of generating the core region determination flag c4 from the motion blur detection flag bf, the pixel counter output c1, and the state D counter output c2.
When the motion blur detection flag bf shown in FIG. 23A is input to the state
c3 = c1m- (c2max-1) / 2
= 12- (9-1) / 2 = 8
Is calculated (by rounding up or down) to obtain the center position c3 of the state D. In the illustrated example, c3 is “8”. The center position (data indicating) c <b> 3 is output to the core
コア位置判定部33では、中心検出部32から出力されるステートDの中心位置c3と予め与えられた閾値S7を元に、ぼやけ補正時のコア領域を計算し、コア領域判定フラグc4(図23(d))を出力する。例えば、c3−S7からc3+S7までをコア領域として、その間コア領域判定フラグc4がHiとなるようにする。例えば閾値S7が「2」であったとする。
The core
図23(a)〜(c)に示される条件で中心検出部32から出力されるステートDの中心位置c3は「8」であるので、コア領域判定フラグc4は、c1b=c3−S7=8−2=6からc1e=c3+S7=8+2=10までの画素位置においてc4(図23(d))がHiになる。
Since the center position c3 of the state D output from the
図24(a)〜(c)は変換信号生成部34の動作を説明するための図であり、入力される動きぼやけ検出フラグbf(図24(a))、コア領域判定フラグc4(図24(b))と、出力される変換制御信号j(図24(c))の関係を示す。変換信号生成部34では、コア領域判定フラグc4がHiの期間は、入力される動きぼやけ検出フラグbfのステートを、ステートEに変換して出力する。一方、c4がLoの期間は、bfをそのまま変換制御信号jとして出力する。
つまり、変換信号生成部34から出力される変換制御信号jは5つのステートA、B、C、D、Eを持つ信号である。
FIGS. 24A to 24C are diagrams for explaining the operation of the converted
That is, the conversion control signal j output from the conversion
輪郭形状計算部15から出力された変換制御信号jは、映像信号d1、d2、d3と共に、画素変換部16に入力される。画素変換部16では、変換制御信号jのステートを元に、入力される映像信号d1、d2、d3から画像表示部4に出力する映像信号kを生成する。
The conversion control signal j output from the contour
図25(a)〜(c)に映像信号kの生成の過程の一例を示す。
画素変換部16に入力される映像信号d1、d2、d3が図25(a)に示すごとくであり、変換制御信号jが図25(b)に示す通りであるとする。ここで、変換制御信号jがステートB又はDであるときは、
|d2−d1|>|d2−d3|ならば、d3を出力映像信号kとして出力し、
|d2−d1|≦|d2−d3|ならば、d1を出力映像信号kとして出力する(図25(c))。即ち、d3、d1のうち、d2との差が小さいものを出力映像信号kとして出力する。
FIGS. 25A to 25C show an example of the process of generating the video signal k.
Assume that the video signals d1, d2, and d3 input to the
If | d2-d1 |> | d2-d3 |, output d3 as the output video signal k.
If | d2-d1 | ≦ | d2-d3 |, d1 is output as the output video signal k (FIG. 25 (c)). That is, of d3 and d1, a signal having a small difference from d2 is output as an output video signal k.
変換制御信号jがステートB、D以外である場合(即ち、ステートA、C、Eである場合)、d2を出力映像信号kとして出力する。このようにして、ステートE(ぼやけ期間のうちの中心部分に位置するコア領域)において、映像信号d2がkとして出力され、ステートD(ほやけ期間のうちのコア領域以外の領域)において、信号d3、d1のうちのd2との差がより小さいものを出力映像信号kとして出力している。
このような処理により、本処理を行わずに映像信号d2を表示に用いる場合と比較して、ぼやけの原因となる輪郭の遷移幅が狭くすることが可能となる。
When the conversion control signal j is other than the states B and D (that is, when the conversion control signal j is in the states A, C, and E), d2 is output as the output video signal k. In this way, the video signal d2 is output as k in the state E (core region located in the central part of the blurring period), and the signal is output in the state D (area other than the core area in the blurring period). A signal having a smaller difference from d2 out of d3 and d1 is output as an output video signal k.
By such processing, it is possible to narrow the transition width of the contour that causes blurring, as compared with the case where the video signal d2 is used for display without performing this processing.
上記のように、ステートDの中心位置c3と所定の閾値s7とにより、c3−S7からc3+S7までをコア領域とし、コア領域の外側において、階調値が緩やかに変化している場合には、その部分の階調値をより小さい値、或いはより大きい値に置き換えることで、結果として、緩やかな階調変化を先鋭化することができる。一方、階調変化が元々急峻である場合(例えば、コア領域の範囲内においてのみ階調が変化する場合)には、階調変化を先鋭化を行なわない。
上記のように、動きに起因しない等方的ぼやけは階調変化が比較的急であり、動きに起因する非等方的ぼやけは階調変化が比較的緩やかであるので、閾値S7を適切に選択することにより、等方的ぼやけに対して階調変化を先鋭化させることなく、動きに起因する非等方的ぼやけの場合のみ、階調変化を先鋭化させることができる。
As described above, when the center position c3 of the state D and the predetermined threshold value s7 are used as the core region from c3 to S7 to c3 + S7, and the gradation value gradually changes outside the core region, By substituting the gradation value of that portion with a smaller value or a larger value, as a result, a gradual gradation change can be sharpened. On the other hand, when the gradation change is originally steep (for example, when the gradation changes only within the core region), the gradation change is not sharpened.
As described above, the isotropic blur that is not caused by the movement has a relatively rapid gradation change, and the anisotropic blur that is caused by the movement has a relatively gentle gradation change. By selecting, the gradation change can be sharpened only in the case of the anisotropic blur caused by the movement without sharpening the gradation change with respect to the isotropic blur.
なお、上記の実施の形態では、現フレームの映像信号のほか、現フレームに対して1フレーム前の映像信号と、1フレーム後の映像信号を用いて、処理を行なっているが、現フレームに対して、1以外の所定のフレーム数前の映像信号と、1以外の所定のフレーム数後の映像信号を用いて処理を行なっても良い。 In the above-described embodiment, processing is performed using the video signal of the previous frame and the video signal of the next frame in addition to the current frame video signal. On the other hand, processing may be performed using a video signal before a predetermined number of frames other than 1 and a video signal after a predetermined number of frames other than 1.
以上説明したように、入力された画像信号の輪郭形状、および当該輪郭部のフレーム間の差分量を基に、ぼやけを判定することで、動きぼやけ特有の非等法的ぼやけを検出することが可能となり、また映像中に含まれる動きぼやけの発生している領域を検出し、検出された動きぼやけの大きさに合わせてぼやけ幅を狭くすることにより、動画表示時の画質を向上させることが可能となる。 As described above, by detecting blur based on the contour shape of the input image signal and the difference amount between frames of the contour portion, it is possible to detect inequality blur peculiar to motion blur. It is possible to improve the image quality when displaying moving images by detecting the area where motion blur is included in the video and narrowing the blur width according to the detected motion blur size. It becomes possible.
また、検出した非等法的ぼやけに対してのみ、ぼやけ補正を行うので、動き方向と直交した輪郭に対して不要な先鋭化が行われてしまうことはない。また、グラデーションのような緩やかな輝度変化を有する画像に対して誤ってもフィルタリング処理を施してしまうことはない。 Further, since the blur correction is performed only for the detected unequal blur, unnecessary sharpening is not performed on the contour orthogonal to the motion direction. Further, even if an image having a gradual change in luminance such as gradation is mistaken, no filtering process is performed.
また、動きベクトル検出を用いることなく動きぼやけを検出し、検出した動きぼやけに対して、フィルタリング手段を用いず、フレーム間の画素置き換えのみで補正を行うため、小規模回路で構成することが可能になる。さらに、回路規模が比較的小さくて済むので、省エネルギー効果も得られる。 In addition, motion blur is detected without using motion vector detection, and the detected motion blur is corrected only by pixel replacement between frames without using filtering means. become. Furthermore, since the circuit scale is relatively small, an energy saving effect can be obtained.
1 遅延部、 2 ぼやけ検出部、 3 ぼやけ補正部、 4 画像表示部、 5 フレームメモリ制御部、 6 フレームメモリ、 7、8、9 ローパスフィルタ、 11、12 差分検出部、 14 ぼやけ期間判定部、 15 輪郭形状計算部、 16 判定フラグ生成部、 17 3値化部、 18 判定フラグ生成部、 19 差分計算部、 20 差分補正部、 21 状態比較部、 22、23、24 2値化部、 25 ステート判定部、 26 ぼやけ判定部、 27 差分検出部、 28 微分部、 29 状態補正部、 30 画素カウンタ部、 31 ステートDカウンタ部、 32 中心検出部、 33 コア位置判定部、 34 変換信号生成部、 35 輪郭形状判定部、 36 微分部、 37 微分結果記憶部、 38 連続性判定部、 81 映像表示装置。
1 delay unit, 2 blur detection unit, 3 blur correction unit, 4 image display unit, 5 frame memory control unit, 6 frame memory, 7, 8, 9 low-pass filter, 11, 12 difference detection unit, 14 blur period determination unit, DESCRIPTION OF
Claims (10)
前記第1の映像信号の高周波成分を除去して、第1のフィルタ後映像信号を出力する第1のローパスフィルタと、
前記第2の映像信号の高周波成分を除去して、第2のフィルタ後映像信号を出力する第2のローパスフィルタと、
前記第3の映像信号の高周波成分を除去して、第3のフィルタ後映像信号を出力する第3のローパスフィルタと、
前記第1のフィルタ後映像信号と前記第2のフィルタ後映像信号の階調差を検出する第1の差分検出手段と、
前記第2のフィルタ後映像信号と前記第3のフィルタ後映像信号の階調差を検出する第2の差分検出手段と、
前記第3のフィルタ後映像信号と前記第1のフィルタ後映像信号の階調差を検出する第3の差分検出手段と、
前記第3の差分検出手段が出力する映像信号の画素間変化を検出する微分手段と、
前記第2の映像信号において、階調変化の連続性を判定する輪郭形状判定手段と、
前記第1の差分検出手段で検出された前記階調差と、前記第2の差分検出手段で検出された前記階調差と、前記微分手段で検出された画素間変化の検出結果と、前記輪郭形状判定手段で検出された前記第2の映像信号の階調変化の連続性についての判定結果を元に、動きぼやけ期間を検出するぼやけ期間判定手段と、
前記ぼやけ期間判定手段による動きぼやけ期間の検出結果を元に、前記第2の映像信号を補正する補正手段とを有し、
前記ぼやけ補正手段は、前記ぼやけ期間判定手段で検出された前記動きぼやけ期間の間のみ前記第2の映像信号を補正する
ことを特徴とする画像処理装置。 A first video signal that is not frame-delayed with respect to the input video signal; a second video signal that is delayed by a predetermined number of frames with respect to the input video signal; and the second video signal A delay means for generating a third video signal delayed by the predetermined number of frames;
A first low-pass filter for removing a high-frequency component of the first video signal and outputting a first filtered video signal;
A second low-pass filter for removing a high-frequency component of the second video signal and outputting a second filtered video signal;
A third low-pass filter that removes high-frequency components of the third video signal and outputs a third filtered video signal;
First difference detection means for detecting a gradation difference between the first filtered video signal and the second filtered video signal;
Second difference detection means for detecting a gradation difference between the second filtered video signal and the third filtered video signal;
Third difference detection means for detecting a gradation difference between the third filtered video signal and the first filtered video signal;
Differentiating means for detecting an inter-pixel change in the video signal output by the third difference detecting means;
Contour shape determining means for determining continuity of gradation change in the second video signal;
The gradation difference detected by the first difference detection means, the gradation difference detected by the second difference detection means, the detection result of the inter-pixel change detected by the differentiation means, A blur period determination unit that detects a motion blur period based on a determination result about the continuity of gradation change of the second video signal detected by the contour shape determination unit;
Correction means for correcting the second video signal based on the detection result of the motion blur period by the blur period determination means;
The image processing apparatus, wherein the blur correction unit corrects the second video signal only during the motion blur period detected by the blur period determination unit.
前記第1の映像信号と、前記第1の映像信号を1フレーム遅延させた第2の映像信号と、前記第2の映像信号を1フレーム遅延させた第3の映像信号を生成することを特徴とする請求項2に記載の画像処理装置。 The delay means has a frame memory capable of storing two frames,
Generating the first video signal, a second video signal obtained by delaying the first video signal by one frame, and a third video signal obtained by delaying the second video signal by one frame. The image processing apparatus according to claim 2.
前記第1の差分検出手段から出力される前記階調差の絶対値が所定値より大きく、
前記第2の差分検出手段から出力される前記階調差の絶対値が所定値より大きく、
前記微分手段から出力される前記画素間変化の絶対値が所定値より小さく、
前記輪郭形状判定手段で前記階調変化に連続性があるとの判定がなされている場合に、
ぼやけ期間と判定することを特徴とする請求項1乃至3のいずれかに記載の画像処理装置。 The blur period determining means includes
The absolute value of the gradation difference output from the first difference detection means is greater than a predetermined value;
The absolute value of the gradation difference output from the second difference detection means is greater than a predetermined value;
The absolute value of the inter-pixel change output from the differentiating means is smaller than a predetermined value;
When it is determined by the contour shape determination means that the gradation change has continuity,
The image processing apparatus according to claim 1, wherein the image processing apparatus determines that the period is a blur period.
前記第2の映像信号を受けて、各注目画素について、その直前の画素との差分を求めることで、当該注目画素についての微分結果を検出する微分部と、
前記微分部で検出された微分結果を所定の画素数分記憶する微分結果記憶部と、
前記微分部から出力される各注目画素についての微分結果と、当該注目画素よりも前に位置する複数の画素についての前記微分結果とを受け、前記複数の画素についての微分結果がすべて、前記注目画素についての微分結果を含む所定の範囲内にあるときに、前記階調変化に連続性があると判定し、前記複数の画素についての微分結果のいずれかが、前記注目画素についての微分結果を含む所定の範囲外にあるときに、前記階調変化に連続性がないと判定する
ことを特徴とする
請求項4に記載の画像処理装置。 The contour shape determining means includes
A differential unit that receives the second video signal and obtains a differential result for the pixel of interest by obtaining a difference from the immediately preceding pixel for each pixel of interest;
A differentiation result storage unit for storing a differentiation result detected by the differentiation unit for a predetermined number of pixels;
The differentiation result for each pixel of interest output from the differentiating unit and the differentiation result for a plurality of pixels located before the pixel of interest are received, and all the differentiation results for the plurality of pixels are the attention When the gradation change is within a predetermined range including the differential result for the pixel, it is determined that the gradation change has continuity, and any of the differential results for the plurality of pixels represents the differential result for the target pixel. 5. The image processing apparatus according to claim 4, wherein the gradation change is determined not to be continuous when it is out of a predetermined range.
ことを特徴とする請求項5に記載の画像処理装置。 The predetermined range including the differentiation result for the pixel of interest has a second predetermined value in the differentiation result for the pixel of interest from a value obtained by subtracting the first predetermined value from the differentiation result for the pixel of interest. The image processing apparatus according to claim 5, wherein the range is up to the added value.
輪郭形状計算部と、画素変換部とを有し、
前記輪郭形状計算部は、
前記ぼやけ期間判定手段で検出したぼやけ期間のうちの中心部分に位置するコア領域を検出し、
前記画素変換部は、
前記コア領域においては、前記第2の映像信号を選択して出力し、
前記ぼやけ期間のうち、前記コア領域以外の領域においては、前記第1の映像信号及び前記第3の映像信号のうち、前記第2の映像信号との差がより小さいものを出力する
ことを特徴とする請求項7に記載の画像処理装置。 The blur correction means includes
An outline shape calculation unit and a pixel conversion unit;
The contour shape calculation unit
Detecting a core region located in a central portion of the blur period detected by the blur period determination means;
The pixel conversion unit
In the core region, the second video signal is selected and output,
Of the blur period, in a region other than the core region, the first video signal and the third video signal having a smaller difference from the second video signal are output. The image processing apparatus according to claim 7.
前記画像処理装置から出力された画像データに基づく画像を表示する表示手段を有することを特徴とする画像表示装置。 The image processing apparatus according to any one of claims 1 to 8,
An image display device comprising display means for displaying an image based on the image data output from the image processing device.
前記第1の映像信号の高周波成分を除去して、第1のフィルタ後映像信号を出力する第1のローパスフィルタリングステップと、
前記第2の映像信号の高周波成分を除去して、第2のフィルタ後映像信号を出力する第2のローパスフィルタリングステップと、
前記第3の映像信号の高周波成分を除去して、第3のフィルタ後映像信号を出力する第3のローパスフィルタリングステップと、
前記第1のフィルタ後映像信号と前記第2のフィルタ後映像信号の階調差を検出する第1の差分検出ステップと、
前記第2のフィルタ後映像信号と前記第3のフィルタ後映像信号の階調差を検出する第2の差分検出ステップと、
前記第3のフィルタ後映像信号と前記第1のフィルタ後映像信号の階調差を検出する第3の差分検出ステップと、
前記第3の差分検出ステップが出力する映像信号の画素間変化を検出する微分ステップと、
前記第2の映像信号において、階調変化の連続性を判定する輪郭形状判定ステップと、
前記第1の差分検出ステップで検出された前記階調差と、前記第2の差分検出ステップで検出された前記階調差と、前記微分ステップで検出された画素間変化の検出結果と、前記輪郭形状判定ステップで検出された前記第2の映像信号の階調変化の連続性についての判定結果を元に、動きぼやけ期間を検出するぼやけ期間判定ステップと、
前記ぼやけ期間判定ステップによる動きぼやけ期間の検出結果を元に、前記第2の映像信号を補正する補正ステップとを有し、
前記ぼやけ補正ステップは、前記ぼやけ期間判定ステップで検出された前記動きぼやけ期間の間のみ前記第2の映像信号を補正する
ことを特徴とする画像処理方法。 A first video signal that is not frame-delayed with respect to the input video signal; a second video signal that is delayed by a predetermined number of frames with respect to the input video signal; and the second video signal A delay step of generating a third video signal delayed by the predetermined number of frames;
A first low-pass filtering step of removing a high-frequency component of the first video signal and outputting a first filtered video signal;
A second low-pass filtering step of removing a high-frequency component of the second video signal and outputting a second filtered video signal;
A third low-pass filtering step of removing a high-frequency component of the third video signal and outputting a third filtered video signal;
A first difference detection step of detecting a gradation difference between the first filtered video signal and the second filtered video signal;
A second difference detecting step for detecting a gradation difference between the second filtered video signal and the third filtered video signal;
A third difference detecting step for detecting a gradation difference between the third filtered video signal and the first filtered video signal;
A differentiation step of detecting an inter-pixel change in the video signal output by the third difference detection step;
A contour shape determination step for determining continuity of gradation change in the second video signal;
The gradation difference detected in the first difference detection step, the gradation difference detected in the second difference detection step, the detection result of the inter-pixel change detected in the differentiation step, and A blur period determination step for detecting a motion blur period based on a determination result about the continuity of gradation change of the second video signal detected in the contour shape determination step;
A correction step of correcting the second video signal based on the detection result of the motion blur period in the blur period determination step;
The image processing method, wherein the blur correction step corrects the second video signal only during the motion blur period detected in the blur period determination step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008220946A JP2010057001A (en) | 2008-08-29 | 2008-08-29 | Image processor, method, and image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008220946A JP2010057001A (en) | 2008-08-29 | 2008-08-29 | Image processor, method, and image display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010057001A true JP2010057001A (en) | 2010-03-11 |
Family
ID=42072423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008220946A Withdrawn JP2010057001A (en) | 2008-08-29 | 2008-08-29 | Image processor, method, and image display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010057001A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012070295A (en) * | 2010-09-27 | 2012-04-05 | Hitachi Consumer Electronics Co Ltd | Video processing apparatus and video processing method |
KR101345557B1 (en) | 2013-06-26 | 2014-01-02 | 곽정필 | Method and apparatus for detecting wastewater sludge boundary aspect |
-
2008
- 2008-08-29 JP JP2008220946A patent/JP2010057001A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012070295A (en) * | 2010-09-27 | 2012-04-05 | Hitachi Consumer Electronics Co Ltd | Video processing apparatus and video processing method |
KR101345557B1 (en) | 2013-06-26 | 2014-01-02 | 곽정필 | Method and apparatus for detecting wastewater sludge boundary aspect |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2009107487A1 (en) | Motion blur detecting device and method, and image processor, and image display | |
KR101200231B1 (en) | Image processing apparatus and method, and recording medium | |
CN107113375B (en) | Image processing apparatus, imaging apparatus, and image processing method | |
KR20090102610A (en) | Method and system for images scaling detection | |
JP6041113B2 (en) | Image processing apparatus, surveillance camera, and image processing method | |
US9525824B2 (en) | Method and apparatus for processing image according to image conditions | |
JP4245045B2 (en) | Imaging apparatus, imaging signal processing method, and program | |
CN101569174B (en) | Image quality improving apparatus and image quality improving method | |
KR101257946B1 (en) | Device for removing chromatic aberration in image and method thereof | |
JP5455611B2 (en) | Image processing apparatus, image processing method, and program | |
EP1503578A1 (en) | Motion detector, image processing system, motion detecting method, program, and recording medium | |
JP2006186622A (en) | Image processing device and image processing method | |
JP2010057001A (en) | Image processor, method, and image display device | |
EP3540685B1 (en) | Image-processing apparatus to reduce staircase artifacts from an image signal | |
US11956539B2 (en) | Correction control apparatus, image capturing apparatus, control method, and recording medium | |
WO2010106739A1 (en) | Image processing device, image processing method, and image processing program | |
US9007494B2 (en) | Image processing apparatus, method for controlling the same and storage medium | |
JP2005311455A (en) | Imaging device, noise reduction device, noise reduction method and program | |
JP2006237716A (en) | Image processor | |
JP7003342B2 (en) | Video separator, program and video separation method | |
CN109754370B (en) | Image denoising method and device | |
JP2004295361A (en) | Image processing method | |
JP5759162B2 (en) | Motion vector detection device, motion vector detection method, correction device, and program | |
WO2016199214A1 (en) | Image processing device, image processing method, and vehicle-installed camera | |
JP2010015483A (en) | Image processing device, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20111101 |