JP2009100936A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2009100936A JP2009100936A JP2007275583A JP2007275583A JP2009100936A JP 2009100936 A JP2009100936 A JP 2009100936A JP 2007275583 A JP2007275583 A JP 2007275583A JP 2007275583 A JP2007275583 A JP 2007275583A JP 2009100936 A JP2009100936 A JP 2009100936A
- Authority
- JP
- Japan
- Prior art keywords
- image
- component
- brightness
- frequency component
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000004364 calculation method Methods 0.000 claims abstract description 18
- 230000006835 compression Effects 0.000 claims abstract description 15
- 238000007906 compression Methods 0.000 claims abstract description 15
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 8
- 230000003247 decreasing effect Effects 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 abstract 1
- 239000000523 sample Substances 0.000 description 25
- 239000000203 mixture Substances 0.000 description 24
- 230000003287 optical effect Effects 0.000 description 19
- 239000002131 composite material Substances 0.000 description 16
- 239000003086 colorant Substances 0.000 description 15
- 238000000034 method Methods 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000003595 spectral effect Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 208000007536 Thrombosis Diseases 0.000 description 1
- 238000002845 discoloration Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像が有する明るさのレンジを圧縮する画像処理装置に関する。 The present invention relates to an image processing apparatus that compresses a brightness range of an image.
従来から、医療の分野においては、先端にミラーや撮像素子などが取り付けられた細長い管(光プローブ)を被検者の体内に挿入し、被検者の体内を撮影して腫瘍や血栓などを観察する内視鏡システムが広く利用されている。被検者の体内を直接撮影することによって、被検者に外的なダメージを与えることなく、放射線画像では分かりにくい病巣の色や形状などを把握することができ、治療方針の決定などに必要な情報を手軽に得ることができる。 Conventionally, in the medical field, an elongated tube (optical probe) with a mirror or imaging device attached to the tip is inserted into the subject's body, and the subject's body is photographed to remove tumors or blood clots. Endoscope systems for observation are widely used. By directly photographing the body of the subject, it is possible to grasp the color and shape of the lesion, which is difficult to understand with radiographic images, without damaging the subject externally, and it is necessary to determine the treatment policy etc. Easy information.
ところで、内視鏡システムでは、暗い体内で観察箇所に強い光を当てて撮影が行われるために被写体の明暗の差が大きく、撮像素子で生成される画像の明るさの信号レベル幅(画像のダイナミックレンジ)が大きくなる。このため、撮影画像をそのまま表示モニタ上に表示しようとすると、撮影画像のダイナミックレンジが表示モニタで表示可能な信号レベル幅(表示モニタのダイナミックレンジ)を超えてしまい、表示モニタ上に表示された画像の明部や暗部がつぶれてしまう。これを防ぐため、撮影画像を表示モニタ上に表示する前に、撮影画像のダイナミックレンジを表示モニタのダイナミックレンジ内におさまるように圧縮する必要がある。 By the way, in an endoscope system, since a strong light is applied to an observation location in a dark body, a difference in brightness of a subject is large, and a signal level width of the brightness of an image generated by an image sensor (image Dynamic range) increases. For this reason, if the captured image is displayed on the display monitor as it is, the dynamic range of the captured image exceeds the signal level width that can be displayed on the display monitor (the dynamic range of the display monitor), and the captured image is displayed on the display monitor. The bright and dark parts of the image are crushed. In order to prevent this, it is necessary to compress the dynamic range of the captured image to fall within the dynamic range of the display monitor before the captured image is displayed on the display monitor.
画像のダイナミックレンジを圧縮する画像圧縮方法として、階調変換によって画像のダイナミックレンジを単純に圧縮する方法が知られているが、この画像圧縮方法では、画像信号の振幅が低下してしまうために画像の陰影が見えにくくなってしまう。また、画像の明るさを空間周波数が高い高周波成分と空間周波数が低い低周波成分とに分解し、低周波成分のみを圧縮する方法も利用されている。この画像圧縮方法では、階調変換によって画像を単純に圧縮する場合と比べて、画像信号の振幅の低下を抑えることができるため、画像上での細かい陰影変化(テクスチャ)を維持することができる。しかし、低周波成分のダイナミックレンジが減少することによって高周波成分が相対的に大きくなり、高周波成分が強調されて画像のエッジ部分でいわゆるオーバーシュートやアンダーシュートが生じてしまい、その結果、偽色等が表われるという問題がある。 As an image compression method for compressing the dynamic range of the image, a method of simply compressing the dynamic range of the image by gradation conversion is known. However, in this image compression method, the amplitude of the image signal decreases. The shadow of the image becomes difficult to see. In addition, a method of decomposing image brightness into a high frequency component having a high spatial frequency and a low frequency component having a low spatial frequency and compressing only the low frequency component is also used. In this image compression method, compared to a case where the image is simply compressed by gradation conversion, a decrease in the amplitude of the image signal can be suppressed, so that a fine shading change (texture) on the image can be maintained. . However, when the dynamic range of the low frequency component decreases, the high frequency component becomes relatively large and the high frequency component is emphasized, so-called overshoot or undershoot occurs at the edge portion of the image. There is a problem that appears.
この問題に関し、特許文献1には、オーバーシュートやアンダーシュートが目立たない信号レベルまでは低周波成分を圧縮し、それ以上は通常の階調変換によって画像のレンジを圧縮する技術について記載されており、特許文献2には、低周波成分を圧縮して高周波成分と合成するのにあたり、元の画像の画素値と階調の傾きに応じて高周波成分の加算量を制御する技術について記載されている。
しかし、特許文献1に記載された技術では、オーバーシュートやアンダーシュートの発生は抑えられるものの、結局は通常の階調変換による画像圧縮が行われるため、画像のテクスチャが低下してしまう。また、特許文献2に記載された技術では、処理が複雑であるために画像のレンジを圧縮する時間や負荷が増加してしまううえ、画像全体としてのオーバーシュートやアンダーシュートの発生しやすさが考慮されていないため、オーバーシュートやアンダーシュートが発生しにくい重要なテクスチャも圧縮されてしまう恐れがある。特に、内視鏡システムでは、胃壁などの微妙な変色や凹凸を観察することが求められているため、画像のテクスチャが失われてしまうと正しい診断ができなくなってしまうという問題がある。 However, with the technique described in Patent Document 1, although the occurrence of overshoot and undershoot can be suppressed, after all, image compression by normal gradation conversion is performed, so that the texture of the image is lowered. Further, in the technique described in Patent Document 2, since the processing is complicated, the time and load for compressing the range of the image increase, and overshoot and undershoot as a whole image are likely to occur. Since this is not taken into consideration, there is a risk that important textures that are less likely to cause overshoot and undershoot are also compressed. In particular, the endoscope system is required to observe subtle discoloration and irregularities such as the stomach wall, so that there is a problem that a correct diagnosis cannot be made if the texture of the image is lost.
また、このような問題は、内視鏡システムのみに限られた問題ではなく、画像が有する明るさのレンジを圧縮する画像処理装置の分野一般で生じる問題である。 Such a problem is not limited to the endoscope system alone, but is a problem that occurs in the field of image processing apparatuses that compress the brightness range of an image in general.
本発明は、上記事情に鑑み、オーバーシュートやアンダーシュートの発生を抑えるとともに、画像のテクスチャを維持して画像のダイナミックレンジを圧縮することができる画像処理装置を提供することを目的とする。 SUMMARY OF THE INVENTION In view of the above circumstances, an object of the present invention is to provide an image processing apparatus capable of suppressing the occurrence of overshoot and undershoot and maintaining the image texture and compressing the dynamic range of the image.
上記目的を達成する本発明の画像処理装置は、画像を取得する画像取得部と、
画像取得部で取得された画像上の各点の明るさを、画像上の空間周波数における高周波成分と低周波成分とに分解する成分分解部と、
成分分解部で分解された低周波成分に高周波成分を、高周波成分の絶対値が大きいほど元のまま維持し高周波成分の絶対値が小さいほど減少させて加算することで新たな明るさ成分を算出する成分算出部と、
画像取得部で取得された画像上の各点の明るさを、成分算出部で算出されたその点の明るさ成分に応じた分だけ変更することで画像が有する明るさのレンジを圧縮する圧縮部とを備えたことを特徴とする。
An image processing apparatus of the present invention that achieves the above object includes an image acquisition unit that acquires an image,
A component decomposition unit that decomposes the brightness of each point on the image acquired by the image acquisition unit into a high frequency component and a low frequency component at a spatial frequency on the image;
A new brightness component is calculated by adding the high-frequency component to the low-frequency component decomposed by the component decomposition unit while maintaining the original value as the absolute value of the high-frequency component increases and decreasing it as the absolute value of the high-frequency component decreases. A component calculation unit to perform,
Compression that compresses the brightness range of an image by changing the brightness of each point on the image acquired by the image acquisition unit by an amount corresponding to the brightness component of that point calculated by the component calculation unit And a section.
オーバーシュートやアンダーシュートは、画像の低周波成分を圧縮して高周波成分と合成する際に、高周波成分が強調されることによって発生するものであり、高周波成分が大きい画像のエッジ部分で発生しやすいという特徴がある。 Overshoot and undershoot are generated by emphasizing the high frequency component when compressing the low frequency component of the image and combining it with the high frequency component, and are likely to occur at the edge portion of the image where the high frequency component is large. There is a feature.
本発明の画像処理装置によると、高周波成分の絶対値が大きいエッジ部分では、本来の画像の明るさに近い明るさ成分に基づいて、従来の単純な階調変換に近い圧縮処理が実行されるため、オーバーシュートやアンダーシュートの発生が抑えられる。また、高周波成分の絶対値が小さい画像部分では、低周波成分に近い明るさ成分に基づいて明るさのレンジが圧縮されるため、画像のテクスチャを担った高周波成分による明るさの振幅は圧縮率等に依存せず、テクスチャが維持される。 According to the image processing apparatus of the present invention, at the edge portion where the absolute value of the high frequency component is large, the compression processing close to the conventional simple tone conversion is executed based on the brightness component close to the brightness of the original image. Therefore, the occurrence of overshoot and undershoot can be suppressed. Also, in the image portion where the absolute value of the high frequency component is small, the brightness range is compressed based on the brightness component close to the low frequency component, so the brightness amplitude due to the high frequency component that bears the texture of the image is the compression ratio. The texture is maintained without depending on etc.
また、本発明の画像処理装置において、上記画像が、画像上の各点の色が、複数の色成分それぞれの輝度値の各点における組み合わせで表現されたカラー画像である場合には、
上記圧縮部が、複数の色成分それぞれの輝度値に対して共通に明るさ成分に応じた係数を乗除することにより明るさを変更してレンジを圧縮するものであることが好ましい。
In the image processing apparatus of the present invention, when the image is a color image in which the color of each point on the image is expressed by a combination at each point of the luminance values of the plurality of color components,
It is preferable that the compression unit compresses the range by changing the brightness by multiplying / dividing a coefficient corresponding to the brightness component in common with respect to the luminance values of the plurality of color components.
また、本発明の画像処理装置において、上記画像が、画像上の各点の色が、複数の色成分それぞれの濃度値の各点における組み合わせで表現されたカラー画像である場合には、
上記圧縮部が、複数の色成分それぞれの濃度値に対して共通に明るさ成分に応じた値を加減することにより明るさを変更してレンジを圧縮するものであることが好ましい。
In the image processing apparatus of the present invention, when the image is a color image in which the color of each point on the image is expressed by a combination at each point of density values of a plurality of color components,
It is preferable that the compression unit compresses the range by changing the brightness by adding or subtracting a value corresponding to the brightness component in common to the density values of the plurality of color components.
複数の色成分それぞれの輝度値の組み合わせで色が表現されたカラー画像では、複数の色成分それぞれの輝度値に対して共通に明るさ成分に応じた係数を乗除することにより、色相を維持して明るさを変更することができ、複数の色成分それぞれの濃度値の組み合わせで色が表現されたカラー画像では、複数の色成分それぞれの濃度値に対して共通に明るさ成分に応じた値を加減することにより、色相を維持して明るさを変更することができる。これにより、カラー画像においても、色味等への影響を抑えて、簡単な演算で精度良く明るさのレンジを圧縮することができる。 In a color image in which colors are represented by combinations of luminance values of multiple color components, the hue is maintained by multiplying or dividing the luminance values of the multiple color components by a coefficient corresponding to the brightness component in common. In a color image in which the color can be changed by combining the density values of multiple color components, the value corresponding to the brightness component is common to the density values of the multiple color components. By adjusting the brightness, the brightness can be changed while maintaining the hue. As a result, even in a color image, it is possible to suppress the influence on the color and the like and to compress the brightness range with high accuracy by a simple calculation.
本発明によれば、オーバーシュートやアンダーシュートの発生を抑えるとともに、画像のテクスチャを維持して画像のダイナミックレンジを圧縮することができる。 According to the present invention, the occurrence of overshoot and undershoot can be suppressed, and the dynamic range of the image can be compressed while maintaining the texture of the image.
以下、図面を参照して本発明の実施の形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の一実施形態が適用された内視鏡システムの概略構成図である。 FIG. 1 is a schematic configuration diagram of an endoscope system to which an embodiment of the present invention is applied.
図1に示す内視鏡システム1は、被検体Pの体内に光を導いて照射し、その反射光に基づいて画像信号を生成する光プローブ10と、光を発する光源装置20と、光プローブ10で得られた画像に所定の画像処理を施して、被検体Pの体内を撮影した医用画像を生成する画像処理装置30と、画像処理装置30で生成された医用画像を表示モニタ41上に表示する表示装置40とを備えている。
An endoscope system 1 shown in FIG. 1 guides and irradiates light into the body of a subject P, generates an image signal based on the reflected light, a
光プローブ10は、可撓性を有する細長のプローブ部11と、プローブ部11を操作する操作部12と、光源装置20および画像処理装置30と光プローブ10とを接続する光/信号ガイド13で構成されている。以下では、光プローブ10の、被検体Pの体内に挿入される側を先端、その先端の逆側を後端と称して説明する。
The
操作部12には、プローブ部11を湾曲させるための湾曲操作レバー121、静止画を撮影するためのフリーズボタン122、および表示されている画像の色味を調整するための色調整ボタン123などが設けられている。
The
光/信号ガイド13は、光を伝達するライトガイド131と、信号を伝達する信号線132とで構成されている。ライトガイド131は、後端が光源装置20に接続され、光源装置20から発せられた光をプローブ部11内にまで導き、その光をプローブ部11の先端に設けられた照射窓11aから被検体Pに向けて照射する。信号線132は、先端にCCD133が取り付けられており、後端側が画像処理装置30に接続される。ライトガイド131の照射窓11aから照射された光が被検体Pの体内で反射した反射光は、プローブ部11の先端に設けられた光学部材134によって集光され、CCD133で受光されて、反射光を表わす撮影画像が生成される。CCD133は、複数の受光部が並べて配置されたものであり、それら複数の受光部それぞれで光が受光されることにより、画像が複数の画素で表現された画像データが生成される。CCD133は、複数の受光部が並べて配置されたものであり、それら複数の受光部それぞれで光が受光されることにより、複数の画素で表現された撮影画像が生成される。本実施形態においては、CCD133に、複数の受光部それぞれに対応する位置にR,G,B各色が規則的な色パターンで配置された色フィルタ(図2参照)が取り付けられており、色フィルタを通過してきた光がCCD133で受光されることによって、色フィルタの色パターンと同じ色パターンでR,G,B各色の画素が並んだ色モザイク画像が生成される。生成された色モザイク画像は、信号線132を通って画像処理装置30に伝達され、画像処理装置30において所定の画像処理が施される。
The light /
図2は、内視鏡システム1の概略的な機能ブロック図である。 FIG. 2 is a schematic functional block diagram of the endoscope system 1.
尚、図2では、表示モニタ41や、光プローブ10の操作部12などの図示を省き、画像信号の生成に関連する主要要素のみを示している。
In FIG. 2, the display monitor 41 and the
図1にも示す光源装置20は、白色光を発するものであり、画像処理装置30の全体制御部360によって制御されている。
The
光プローブ10には、図1にも示すCCD133に加えて、R,G,B各色が規則的な色パターンでモザイク状に配置された色フィルタ140、CCD133で生成されたアナログの画像信号をデジタルの画像信号に変換するA/D変換部150、光プローブ10内の各種要素における処理を制御する撮像制御部160などが備えられている。尚、本実施形態では、光プローブ10において、R,G,B3色で画像の色が表現されるとともに、R,G,B各色の成分が輝度リニアなRGB色空間の画像データが生成されるものとして説明する。
In addition to the
画像処理装置30には、フリーズボタン122が押下されることによって生成された静止画や各種パラメータなどが保存される保存部300と、光プローブ10から送られてきた画像のゲインを補正するゲイン補正部310と、CCD133を含む光プローブ10の分光特性を補正する分光補正部320と、画像に階調補正処理を施すガンマ補正部340と、光プローブ10で生成された色モザイク画像の各画素が有している色成分(例えば、R色)を除く他の色成分(例えば、B,G色)を周囲の画素を用いて補間することにより、各画素がR,G,B3色の混色で表現されたカラー画像を生成する同時化処理部350と、同時化処理部350で生成されたカラー画像の信号レベル幅(カラー画像のダイナミックレンジ)を表示モニタ41で表示可能な信号レベル幅(表示モニタ41のダイナミックレンジ)内におさまるように圧縮する表示調整部360と、光プローブ10および画像処理装置30全体の処理を制御する全体制御部390などが備えられている。
The
表示調整部360は、RGB3色で色が表現されたRGB画像に基づいて、輝度成分Yを生成するY生成部361、輝度成分Yから空間周波数が低い低周波成分を抽出するLPF(ローパスフィルタ)部262、輝度成分Yの低周波成分に高周波成分を加算して合成成分を生成するY合成部363、合成成分に基づいてRGB画像のダイナミックレンジを圧縮するための補正量を算出する補正量算出部364と、RGB画像のレンジを圧縮する補正部365とで構成されている。Y生成部361は、本発明にいう画像取得部の一例にあたり、ローパスフィルタ部262は、本発明にいう成分分解部の一例に相当する。また、Y合成部363は、本発明にいう成分算出部の一例にあたり、補正量算出部364と補正部365とを合わせたものは、本発明にいう圧縮部の一例に相当する。
The
図3は、撮影された画像が表示モニタ41上に表示されるまでの一連の処理の流れを示すフローチャート図である。 FIG. 3 is a flowchart showing a flow of a series of processes until a captured image is displayed on the display monitor 41.
以下では、このフローチャート図に従って、被検体が撮影されて、撮影画像が表示モニタ41上に表示されるまでの一連の処理の流れについて説明する。 In the following, a flow of a series of processes from when the subject is imaged until the captured image is displayed on the display monitor 41 will be described according to the flowchart.
まず、被検体の観察箇所に適した大きさの光プローブ10が光源装置20および画像処理装置30に装着され、光プローブ10が被検体Pの体内に挿入される。光源装置20から発せられた光はライトガイド131によって光プローブ10の先端に導かれ、照射窓11aから被検体Pの体内に照射される。光源装置20から発せられた光が被検体Pの体内で反射された反射光は、色フィルタ140を通ってCCD133で受光されて撮影画像が生成される(図3のステップS1)。生成された撮影画像は、A/D変換部150においてデジタル化された後、信号線132を通って画像処理装置30内に伝達される。
First, the
画像処理装置30では、撮影画像に、画像の色を補正するための各種画像処理が施される(図3のステップS2)。まず、ゲイン補正部310においてゲインの補正が行われ、分光補正部320において分光補正処理が施され、ガンマ補正部340において階調補正処理が施された後、同時化処理部350に伝えられる。同時化処理部350では、モザイク色画像である撮影画像に同時化処理が施されて、各画素がR,G,B3色の混色で表現されたRGB画像に変換される。変換後のRGB画像は、表示調整部360に伝えられる。
In the
表示調整部360では、RGB画像のダイナミックレンジが表示モニタ41のダイナミック内におさまるように、RGB画像のダイナミックレンジが圧縮される。尚、本実施形態においては、RGB画像を構成している複数の画素それぞれの明るさ(信号値)を補正する処理を実行することによって、RGB画像全体としてのダイナミックレンジが圧縮される。
The
表示調整部360にRGB画像が入力されると、Y生成部361では、RGB画像に基づいて輝度成分Yが生成される(図3のステップS3)。本実施形態においては、下記式(1)に基づいて、画像上の各点における輝度成分Yが算出される。
When the RGB image is input to the
Y=0.299×R+0.587×G+0.114×B ・・・(1)
生成された輝度成分Yは、ローパスフィルタ部362に伝えられる。
Y = 0.299 × R + 0.587 × G + 0.114 × B (1)
The generated luminance component Y is transmitted to the low-
ローパスフィルタ部362では、輝度成分Yにおいて画像上での空間周波数が低い低周波成分が抽出されるとともに、元の輝度成分Yから低周波成分を除いた高周波成分が生成される(図3のステップS4)。生成された低周波成分はいわゆるボケ画像であり、本実施形態においては、標準的な医用画像において診断に必要なテクスチャ成分が高周波成分として確実に分離されるフィルタ特性が予め用意されており、そのフィルタ特性に基づいて低周波成分と高周波成分とが生成される。尚、本実施形態においては、ローパスフィルタ部362としてFIRフィルタが適用されるが、本発明にいう成分分解部は、FIRフィルタよりも回路規模が小さいIIRフィルタを適用したり、縮小画像を用いてもよい。生成された低周波成分および高周波成分は、Y合成部363に伝えられる。
In the low-
Y合成部363では、ローパスフィルタ部362から伝えられた低周波成分に高周波成分が加算されて合成成分が生成される(図3のステップS5)。本実施形態においては、元の輝度成分Yと低周波成分YLとに基づいて、合成信号Ymixが、以下の式(2)に従って算出される。
In the
Ymix=YL+F(Y−YL) ・・・(2)
式(2)中の(Y−YL)項は、ローパスフィルタ部362から伝えられた高周波成分に相当する。
Y mix = Y L + F (Y−Y L ) (2)
The term (Y−Y L ) in Expression (2) corresponds to the high frequency component transmitted from the low
図4は、式(2)中の関数Fを示す図である。 FIG. 4 is a diagram illustrating the function F in the equation (2).
図4に示すように、関数Fは、輝度成分Yの高周波成分(Y−YL)の絶対値が規定値「t」以下である場合はF=0であり、輝度成分Yの高周波成分(Y−YL)の絶対値が規定値「t」よりも大きい場合はF=a×(Y−YL)±tで表わされる傾きaの1次関数である。すなわち、式(2)から、
|Y−YL|≦tの場合、Ymix=YL ・・・(3)
|Y−YL|>tの場合、Ymix=YL+a(Y−YL)±t ・・・(4)
が求められる。尚、本実施形態においては、傾きa=1であり、高周波成分が十分に大きいときには、
|Y−YL|≫tの場合、Ymix=Y±t≒Y ・・・(5)
となる。規定値「t」は、標準的な医用画像においてエッジ部分における高周波成分よりも十分に小さく、テクスチャ部分における高周波成分が−t≦x≦tの範囲内に含まれるような経験値が適用される。すなわち、高周波成分の絶対値が大きく、オーバーシュートやアンダーシュートが発生しやすいエッジ部分では、元の輝度成分Yに近い合成成分Ymixが生成され、高周波成分の絶対値が規定値「t」以下であり、重要なテクスチャ成分が含まれる画像部分では、合成成分Ymix=低周波成分YLとなる。
As shown in FIG. 4, the function F is F = 0 when the absolute value of the high-frequency component (Y−Y L ) of the luminance component Y is equal to or less than the specified value “t”, and the high-frequency component ( If the absolute value of Y-Y L) is greater than the specified value "t" is a linear function of slope a represented by F = a × (Y-Y L) ± t. That is, from equation (2)
When | Y−Y L | ≦ t, Y mix = Y L (3)
When | Y−Y L |> t, Y mix = Y L + a (Y−Y L ) ± t (4)
Is required. In this embodiment, when the slope a = 1 and the high frequency component is sufficiently large,
When | Y−Y L | >> t, Y mix = Y ± t≈Y (5)
It becomes. The specified value “t” is sufficiently smaller than the high frequency component in the edge portion in the standard medical image, and an empirical value is applied so that the high frequency component in the texture portion is included in the range of −t ≦ x ≦ t. . That is, at the edge portion where the absolute value of the high frequency component is large and overshoot or undershoot is likely to occur, a composite component Y mix close to the original luminance component Y is generated, and the absolute value of the high frequency component is equal to or less than the specified value “t”. In an image portion including an important texture component, the composite component Y mix = low frequency component Y L.
生成された合成成分Ymixは、補正量算出部364に伝えられる。
The generated composite component Y mix is transmitted to the correction
補正量算出部364では、合成成分Ymixに基づいて、RGB画像のレンジを圧縮するための、各画素の明るさを補正する補正量が算出される(図3のステップS6)。本実施形態においては、合成成分Ymixの大きさと補正量とが対応付けられた補正テーブルが用意されており、補正量算出部364では、合成成分Ymixに基づいて補正テーブルが参照されて、補正量が取得される。
The correction
図5は、補正テーブルの一例を示す図である。 FIG. 5 is a diagram illustrating an example of the correction table.
図5では、横軸に合成成分Ymixの大きさが対応付けられ、縦軸に補正量が対応付けられている。図5に示すように、合成成分Ymixが小さい(すなわち、画素が暗い)ほど補正量がプラス方向に大きくなり、画素が明るくなるように補正される。また、合成成分Ymixが大きい(すなわち、画素が明るい)ほど補正量がマイナス方向に大きくなり、画素が暗くなるように補正される。 In FIG. 5, the horizontal axis is associated with the magnitude of the composite component Y mix , and the vertical axis is associated with the correction amount. As shown in FIG. 5, the smaller the composite component Y mix (that is, the darker the pixel), the larger the correction amount is in the positive direction, and the pixel is corrected to become brighter. Also, synthetic components Y mix is large (i.e., the pixel is bright), the more the correction amount is increased in the negative direction, is corrected so that the pixel is dark.
補正量算出部364では、Y合成部363で算出された合成成分Ymixと対応する補正量rが取得され、取得された補正量rが補正部365に伝えられる。
In the correction
補正部365では、同時化処理部350から伝えられたRGB画像を構成している各画素の明るさが補正量算出部364で算出された補正量rで補正されることにより、RGB画像全体のダイナミックレンジが圧縮される(図3のステップS7)。本実施形態では、各画素の色がR,G,B各色の輝度値の組み合わせで表現されたRGB画像が生成されており、補正部365では、各R,G,B成分それぞれに同じ補正量rが加算されることによってRGB画像のダイナミックレンジが圧縮される。
In the
ここで、上述したように、合成成分Ymixは、高周波成分の絶対値が大きい画像部分では、元の輝度信号Yに近く、高周波成分の絶対値が小さい画像部分では、合成成分Ymix=低周波成分YLとなっている。このため、高周波成分の絶対値が大きいエッジ部分では、元の輝度信号Yに基づいて通常の階調変換と同様の画像圧縮処理が行われることとなり、オーバーシュートやアンダーシュートの発生を抑えることができる。また、高周波成分の絶対値が規定値t以下であるテクスチャ部分では、低周波成分に基づいて平均的に明るさが補正されることとなり、画像の陰影や微妙な凹凸感を維持することができる。 Here, as described above, the composite component Y mix is close to the original luminance signal Y in the image portion where the absolute value of the high frequency component is large, and the composite component Y mix = low in the image portion where the absolute value of the high frequency component is small. It has a frequency component Y L. For this reason, at the edge portion where the absolute value of the high-frequency component is large, image compression processing similar to normal gradation conversion is performed based on the original luminance signal Y, and the occurrence of overshoot and undershoot can be suppressed. it can. In addition, in the texture portion where the absolute value of the high frequency component is equal to or less than the specified value t, the brightness is corrected on the average based on the low frequency component, so that it is possible to maintain the shadow and subtle unevenness of the image. .
ダイナミックレンジが圧縮されたRGB画像は、表示装置40に伝えられて、表示モニタ41上に表示される(図3のステップS8)。
The RGB image in which the dynamic range is compressed is transmitted to the
以上のように、本実施形態によると、オーバーシュートやアンダーシュートの発生を抑えるとともに、画像のテクスチャを維持して画像のレンジを圧縮することができ、診断に有用な高画質な医用画像を表示することができる。 As described above, according to the present embodiment, the occurrence of overshoot and undershoot can be suppressed, the image texture can be maintained and the image range can be compressed, and a high-quality medical image useful for diagnosis can be displayed. can do.
以上で、本発明の第1実施形態の説明を終了し、本発明の第2実施形態について説明する。本発明の第2実施形態は、図2に示す第1実施形態と同様の構成を有しているため、図2を第2実施形態の説明でも流用し、第1実施形態との相違点についてのみ説明する。 Above, description of 1st Embodiment of this invention is complete | finished and 2nd Embodiment of this invention is described. Since the second embodiment of the present invention has the same configuration as that of the first embodiment shown in FIG. 2, FIG. 2 is also used in the description of the second embodiment, and is different from the first embodiment. Only explained.
本実施形態では、光プローブ10において、画像を構成する各画素がR,G,B各色の濃度値の組み合わせで表現されたRGB画像が生成される。
In the present embodiment, the
図6は、本実施形態の補正量算出部364で利用される補正テーブルの一例を示す図である。
FIG. 6 is a diagram illustrating an example of a correction table used by the correction
図6では、横軸に合成成分Ymixの大きさが対応付けられ、縦軸に元の画像の各画素値に乗算される補正係数r´が対応付けられている。本実施形態では、合成成分Ymixが小さい(すなわち、画素が暗い)ほど、補正係数r´が「1」よりも大きくなり、補正後の画素の明るさが補正前の画素よりも明るくなるように補正される。また、合成成分Ymixが大きい(すなわち、画素が明るい)ほど、補正係数r´が「1」よりも小さくなり、画素が暗くなるように補正される。 In FIG. 6, the horizontal axis is associated with the magnitude of the composite component Y mix , and the vertical axis is associated with the correction coefficient r ′ that is multiplied by each pixel value of the original image. In the present embodiment, as the composite component Y mix is smaller (that is, the pixel is darker), the correction coefficient r ′ is larger than “1”, and the brightness of the pixel after correction is brighter than the pixel before correction. It is corrected to. Further, as the composite component Y mix is larger (that is, the pixel is brighter), the correction coefficient r ′ is smaller than “1”, and correction is performed so that the pixel becomes darker.
補正部365では、濃度リニアなRGB画像を構成している複数の画素それぞれの各R,G,B成分に補正係数r´が乗算されることによって、RGB画像全体のダイナミックレンジが圧縮される。
In the
このように、各画素の色が複数の色それぞれの濃度値の組み合わせで表現されたカラー画像においては、各色成分それぞれに対して共通の補正係数r´を乗算することによって、画像のダイナミックレンジを圧縮することができる。 Thus, in a color image in which the color of each pixel is expressed by a combination of density values of a plurality of colors, the dynamic range of the image is increased by multiplying each color component by a common correction coefficient r ′. Can be compressed.
ここで、上記では、フレーム画像が撮影される毎に、コントラスト評価値を算出しておく例について説明したが、本発明の内視鏡装置は、撮影されたフレーム画像を記憶しておき、ユーザからの指示を受けた時点でコントラスト評価値の算出、および最大値を有するフレーム画像の判定を実行するものであってもよい。 Here, the example in which the contrast evaluation value is calculated every time the frame image is captured has been described above. However, the endoscope apparatus of the present invention stores the captured frame image, and the user The calculation of the contrast evaluation value and the determination of the frame image having the maximum value may be executed at the time when the instruction from is received.
また、上記では、画像の明るさのレンジを圧縮する画像処理装置を内視鏡システムに適用する例について説明したが、本発明の画像処理装置は、通常のデジタルカメラや画像表示装置などに適用してもよい。 In the above description, an example in which an image processing apparatus that compresses the range of image brightness is applied to an endoscope system has been described. However, the image processing apparatus of the present invention is applied to a normal digital camera, an image display apparatus, and the like. May be.
また、上記では、R,G,B各色の組み合わせで画像の色が表現されたカラー画像の明るさのレンジを圧縮する例について説明したが、本発明にいうカラー画像は、例えば、C,M,Y,K各色の組み合わせで画像の色が表現されたCMYK画像であってもよい。 In the above description, an example of compressing the brightness range of a color image in which the color of the image is expressed by a combination of R, G, and B colors has been described. A CMYK image in which the color of the image is expressed by a combination of the colors, Y, and K may be used.
また、上記では、人間の目の感覚に近い色を算出する式(1)を使ってRGB画像からY成分を生成する例について説明したが、例えば、
Y=R+G+G+B ・・・(6)
などを使ってY成分を生成してもよい。この式(6)は、RGB画像を使ってY成分に近似させるために広く利用されている。
In the above description, the example in which the Y component is generated from the RGB image using the equation (1) for calculating a color close to the sense of the human eye has been described.
Y = R + G + G + B (6)
The Y component may be generated using such as. This equation (6) is widely used to approximate the Y component using an RGB image.
1 内視鏡装置
10 光プローブ
20 光源装置
30 画像処理装置
40 表示装置
11 プローブ部
12 操作部
13 光/信号ガイド
121 湾曲操作レバー
122 フリーズボタン
123 選択ボタン
131 ライトガイド
132 信号
133 CCD
140 色フィルタ
150 A/D変換部
160 撮像制御部
300 保存部
310 ゲイン補正部
320 分光補正部
340 ガンマ補正部
350 同時化処理部
360 表示調整部
361 Y生成部
362 ローパスフィルタ部
363 Y合成部
364 補正量算出部
365 補正部
390 全体制御部
DESCRIPTION OF SYMBOLS 1
140 Color Filter 150 A /
Claims (3)
前記画像取得部で取得された画像上の各点の明るさを、画像上の空間周波数における高周波成分と低周波成分とに分解する成分分解部と、
前記成分分解部で分解された低周波成分に高周波成分を、前記高周波成分の絶対値が大きいほど元のまま維持し該高周波成分の絶対値が小さいほど減少させて加算することで新たな明るさ成分を算出する成分算出部と、
前記画像取得部で取得された画像上の各点の明るさを、前記成分算出部で算出されたその点の明るさ成分に応じた分だけ変更することで該画像が有する明るさのレンジを圧縮する圧縮部とを備えたことを特徴とする画像処理装置。 An image acquisition unit for acquiring images;
A component decomposition unit that decomposes the brightness of each point on the image acquired by the image acquisition unit into a high-frequency component and a low-frequency component at a spatial frequency on the image;
A new brightness is obtained by adding the high-frequency component to the low-frequency component decomposed by the component decomposition unit while keeping the original as the absolute value of the high-frequency component is larger and decreasing the absolute value of the high-frequency component as it is smaller. A component calculation unit for calculating a component;
The brightness range of the image is changed by changing the brightness of each point on the image acquired by the image acquisition unit by an amount corresponding to the brightness component of the point calculated by the component calculation unit. An image processing apparatus comprising: a compression unit that compresses the image.
前記圧縮部が、前記複数の色成分それぞれの輝度値に対して共通に前記明るさ成分に応じた係数を乗除することにより明るさを変更してレンジを圧縮するものであることを特徴とする請求項1記載の画像処理装置。 The image is a color image in which the color of each point on the image is expressed by a combination at each point of the luminance values of the plurality of color components,
The compression unit is configured to compress the range by changing the brightness by multiplying / multiplying the coefficient corresponding to the brightness component in common to the luminance values of the plurality of color components. The image processing apparatus according to claim 1.
前記圧縮部が、前記複数の色成分それぞれの濃度値に対して共通に前記明るさ成分に応じた値を加減することにより明るさを変更してレンジを圧縮するものであることを特徴とする請求項1記載の画像処理装置。 The image is a color image in which the color of each point on the image is expressed by a combination at each point of density values of a plurality of color components,
The compression unit compresses a range by changing brightness by adding or subtracting a value corresponding to the brightness component in common to density values of the plurality of color components. The image processing apparatus according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007275583A JP2009100936A (en) | 2007-10-23 | 2007-10-23 | Image processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007275583A JP2009100936A (en) | 2007-10-23 | 2007-10-23 | Image processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009100936A true JP2009100936A (en) | 2009-05-14 |
Family
ID=40703360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007275583A Withdrawn JP2009100936A (en) | 2007-10-23 | 2007-10-23 | Image processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009100936A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016084608A1 (en) * | 2014-11-25 | 2016-06-02 | ソニー株式会社 | Endoscope system, method for operating endoscope system, and program |
JPWO2016039269A1 (en) * | 2014-09-08 | 2017-04-27 | オリンパス株式会社 | Endoscope system and operation method of endoscope system |
WO2017203866A1 (en) * | 2016-05-24 | 2017-11-30 | オリンパス株式会社 | Image signal processing device, image signal processing method, and image signal processing program |
JP2020009136A (en) * | 2018-07-06 | 2020-01-16 | キヤノン株式会社 | Image processing system, control method, and program |
-
2007
- 2007-10-23 JP JP2007275583A patent/JP2009100936A/en not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2016039269A1 (en) * | 2014-09-08 | 2017-04-27 | オリンパス株式会社 | Endoscope system and operation method of endoscope system |
US9986890B2 (en) | 2014-11-25 | 2018-06-05 | Sony Corporation | Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging |
JP6020950B1 (en) * | 2014-11-25 | 2016-11-02 | ソニー株式会社 | Endoscope system, operation method of endoscope system, and program |
JP2017000839A (en) * | 2014-11-25 | 2017-01-05 | ソニー株式会社 | Medical image processing device and operation method of medical image processing device |
CN105916430A (en) * | 2014-11-25 | 2016-08-31 | 索尼公司 | Endoscope system, method for operating endoscope system, and program |
WO2016084608A1 (en) * | 2014-11-25 | 2016-06-02 | ソニー株式会社 | Endoscope system, method for operating endoscope system, and program |
US10799087B2 (en) | 2014-11-25 | 2020-10-13 | Sony Corporation | Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging |
WO2017203866A1 (en) * | 2016-05-24 | 2017-11-30 | オリンパス株式会社 | Image signal processing device, image signal processing method, and image signal processing program |
JPWO2017203866A1 (en) * | 2016-05-24 | 2018-06-07 | オリンパス株式会社 | Image signal processing apparatus, image signal processing method, and image signal processing program |
CN109152520A (en) * | 2016-05-24 | 2019-01-04 | 奥林巴斯株式会社 | Image signal processing device, image signal processing method, and image signal processing program |
US10574934B2 (en) | 2016-05-24 | 2020-02-25 | Olympus Corporation | Ultrasound observation device, operation method of image signal processing apparatus, image signal processing method, and computer-readable recording medium |
CN109152520B (en) * | 2016-05-24 | 2021-11-05 | 奥林巴斯株式会社 | Image signal processing device, image signal processing method, and recording medium |
JP2020009136A (en) * | 2018-07-06 | 2020-01-16 | キヤノン株式会社 | Image processing system, control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2750101B1 (en) | Endoscopic video system with dynamic contrast and detail enhancement | |
US9858666B2 (en) | Medical skin examination device and method for processing and enhancing an image of a skin lesion | |
JP5570373B2 (en) | Endoscope system | |
CN102201114B (en) | Image processing device and image processing method | |
KR100990904B1 (en) | The apparatus for enhancing image by generating and blending multiple image and method therefor | |
US9107603B2 (en) | Electronic endoscope system including a suppression section | |
US20090322863A1 (en) | Distance information obtainment method in endoscope apparatus and endoscope apparatus | |
KR20110000537A (en) | Image processing method and image processing apparatus | |
JP2010036017A (en) | Electronic endoscope signal-processing device and electronic endoscope system | |
JP5244164B2 (en) | Endoscope device | |
JP2009100936A (en) | Image processor | |
JP6850871B2 (en) | Electronic endoscopy system | |
JP4606838B2 (en) | Electronic endoscope device | |
JP2009273691A (en) | Apparatus and method of endoscope image processing | |
JP2009211313A (en) | Image processing apparatus, image processing method, and image processing program | |
JP2009219719A (en) | Endoscope system | |
JPH11313247A (en) | Endoscope system | |
EP1675064A1 (en) | Ultrasonograph and method and program for generating ultrasonotomographic image | |
JP5528122B2 (en) | Endoscope device | |
KR102272979B1 (en) | Method and system for retinex processing of endoscopic image, and a recording medium having computer readable program for executing the method | |
JP2009081694A (en) | Image processing device and endoscope system | |
JP7229210B2 (en) | Endoscope processor and endoscope system | |
JP2005130046A (en) | Image pickup device | |
JP4875578B2 (en) | Color conversion definition creation method, color conversion definition creation device, and endoscope system | |
WO2023090044A1 (en) | Processor for electronic endoscope and electronic endoscopic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110104 |