Nothing Special   »   [go: up one dir, main page]

JP2009100936A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2009100936A
JP2009100936A JP2007275583A JP2007275583A JP2009100936A JP 2009100936 A JP2009100936 A JP 2009100936A JP 2007275583 A JP2007275583 A JP 2007275583A JP 2007275583 A JP2007275583 A JP 2007275583A JP 2009100936 A JP2009100936 A JP 2009100936A
Authority
JP
Japan
Prior art keywords
image
component
brightness
frequency component
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007275583A
Other languages
Japanese (ja)
Inventor
Masayuki Takahira
正行 高平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujinon Corp
Original Assignee
Fujinon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujinon Corp filed Critical Fujinon Corp
Priority to JP2007275583A priority Critical patent/JP2009100936A/en
Publication of JP2009100936A publication Critical patent/JP2009100936A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of suppressing production of overshoot and undershoot, maintaining the texture components of images and compressing the dynamic range of the images. <P>SOLUTION: The image processor includes: an image acquisition part for acquiring the images; a component decomposition part for decomposing brightness of respective points on the image acquired in the image acquisition part into a high frequency component and a low frequency component in a spatial frequency on the image; a component calculation part for calculating a new brightness component by maintaining the high frequency component as it is as the absolute value of the high frequency component is larger, reducing it as the absolute value of the high frequency component is smaller and adding it to the low frequency component decomposed in the component decomposition part; and a compression part for compressing the range of the brightness that the image has by changing the brightness of the respective points on the image acquired in the image acquisition part corresponding to the brightness component of the point calculated in the component calculation part. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像が有する明るさのレンジを圧縮する画像処理装置に関する。   The present invention relates to an image processing apparatus that compresses a brightness range of an image.

従来から、医療の分野においては、先端にミラーや撮像素子などが取り付けられた細長い管(光プローブ)を被検者の体内に挿入し、被検者の体内を撮影して腫瘍や血栓などを観察する内視鏡システムが広く利用されている。被検者の体内を直接撮影することによって、被検者に外的なダメージを与えることなく、放射線画像では分かりにくい病巣の色や形状などを把握することができ、治療方針の決定などに必要な情報を手軽に得ることができる。   Conventionally, in the medical field, an elongated tube (optical probe) with a mirror or imaging device attached to the tip is inserted into the subject's body, and the subject's body is photographed to remove tumors or blood clots. Endoscope systems for observation are widely used. By directly photographing the body of the subject, it is possible to grasp the color and shape of the lesion, which is difficult to understand with radiographic images, without damaging the subject externally, and it is necessary to determine the treatment policy etc. Easy information.

ところで、内視鏡システムでは、暗い体内で観察箇所に強い光を当てて撮影が行われるために被写体の明暗の差が大きく、撮像素子で生成される画像の明るさの信号レベル幅(画像のダイナミックレンジ)が大きくなる。このため、撮影画像をそのまま表示モニタ上に表示しようとすると、撮影画像のダイナミックレンジが表示モニタで表示可能な信号レベル幅(表示モニタのダイナミックレンジ)を超えてしまい、表示モニタ上に表示された画像の明部や暗部がつぶれてしまう。これを防ぐため、撮影画像を表示モニタ上に表示する前に、撮影画像のダイナミックレンジを表示モニタのダイナミックレンジ内におさまるように圧縮する必要がある。   By the way, in an endoscope system, since a strong light is applied to an observation location in a dark body, a difference in brightness of a subject is large, and a signal level width of the brightness of an image generated by an image sensor (image Dynamic range) increases. For this reason, if the captured image is displayed on the display monitor as it is, the dynamic range of the captured image exceeds the signal level width that can be displayed on the display monitor (the dynamic range of the display monitor), and the captured image is displayed on the display monitor. The bright and dark parts of the image are crushed. In order to prevent this, it is necessary to compress the dynamic range of the captured image to fall within the dynamic range of the display monitor before the captured image is displayed on the display monitor.

画像のダイナミックレンジを圧縮する画像圧縮方法として、階調変換によって画像のダイナミックレンジを単純に圧縮する方法が知られているが、この画像圧縮方法では、画像信号の振幅が低下してしまうために画像の陰影が見えにくくなってしまう。また、画像の明るさを空間周波数が高い高周波成分と空間周波数が低い低周波成分とに分解し、低周波成分のみを圧縮する方法も利用されている。この画像圧縮方法では、階調変換によって画像を単純に圧縮する場合と比べて、画像信号の振幅の低下を抑えることができるため、画像上での細かい陰影変化(テクスチャ)を維持することができる。しかし、低周波成分のダイナミックレンジが減少することによって高周波成分が相対的に大きくなり、高周波成分が強調されて画像のエッジ部分でいわゆるオーバーシュートやアンダーシュートが生じてしまい、その結果、偽色等が表われるという問題がある。   As an image compression method for compressing the dynamic range of the image, a method of simply compressing the dynamic range of the image by gradation conversion is known. However, in this image compression method, the amplitude of the image signal decreases. The shadow of the image becomes difficult to see. In addition, a method of decomposing image brightness into a high frequency component having a high spatial frequency and a low frequency component having a low spatial frequency and compressing only the low frequency component is also used. In this image compression method, compared to a case where the image is simply compressed by gradation conversion, a decrease in the amplitude of the image signal can be suppressed, so that a fine shading change (texture) on the image can be maintained. . However, when the dynamic range of the low frequency component decreases, the high frequency component becomes relatively large and the high frequency component is emphasized, so-called overshoot or undershoot occurs at the edge portion of the image. There is a problem that appears.

この問題に関し、特許文献1には、オーバーシュートやアンダーシュートが目立たない信号レベルまでは低周波成分を圧縮し、それ以上は通常の階調変換によって画像のレンジを圧縮する技術について記載されており、特許文献2には、低周波成分を圧縮して高周波成分と合成するのにあたり、元の画像の画素値と階調の傾きに応じて高周波成分の加算量を制御する技術について記載されている。
特開2005−102152号公報 特開2005−353102号公報
Regarding this problem, Patent Document 1 describes a technique for compressing a low-frequency component up to a signal level where overshoot and undershoot are not noticeable, and compressing the image range by normal gradation conversion. Patent Document 2 describes a technique for controlling the addition amount of a high-frequency component in accordance with the pixel value of the original image and the gradient of the gradation when compressing the low-frequency component and combining it with the high-frequency component. .
JP 2005-102152 A JP-A-2005-353102

しかし、特許文献1に記載された技術では、オーバーシュートやアンダーシュートの発生は抑えられるものの、結局は通常の階調変換による画像圧縮が行われるため、画像のテクスチャが低下してしまう。また、特許文献2に記載された技術では、処理が複雑であるために画像のレンジを圧縮する時間や負荷が増加してしまううえ、画像全体としてのオーバーシュートやアンダーシュートの発生しやすさが考慮されていないため、オーバーシュートやアンダーシュートが発生しにくい重要なテクスチャも圧縮されてしまう恐れがある。特に、内視鏡システムでは、胃壁などの微妙な変色や凹凸を観察することが求められているため、画像のテクスチャが失われてしまうと正しい診断ができなくなってしまうという問題がある。   However, with the technique described in Patent Document 1, although the occurrence of overshoot and undershoot can be suppressed, after all, image compression by normal gradation conversion is performed, so that the texture of the image is lowered. Further, in the technique described in Patent Document 2, since the processing is complicated, the time and load for compressing the range of the image increase, and overshoot and undershoot as a whole image are likely to occur. Since this is not taken into consideration, there is a risk that important textures that are less likely to cause overshoot and undershoot are also compressed. In particular, the endoscope system is required to observe subtle discoloration and irregularities such as the stomach wall, so that there is a problem that a correct diagnosis cannot be made if the texture of the image is lost.

また、このような問題は、内視鏡システムのみに限られた問題ではなく、画像が有する明るさのレンジを圧縮する画像処理装置の分野一般で生じる問題である。   Such a problem is not limited to the endoscope system alone, but is a problem that occurs in the field of image processing apparatuses that compress the brightness range of an image in general.

本発明は、上記事情に鑑み、オーバーシュートやアンダーシュートの発生を抑えるとともに、画像のテクスチャを維持して画像のダイナミックレンジを圧縮することができる画像処理装置を提供することを目的とする。   SUMMARY OF THE INVENTION In view of the above circumstances, an object of the present invention is to provide an image processing apparatus capable of suppressing the occurrence of overshoot and undershoot and maintaining the image texture and compressing the dynamic range of the image.

上記目的を達成する本発明の画像処理装置は、画像を取得する画像取得部と、
画像取得部で取得された画像上の各点の明るさを、画像上の空間周波数における高周波成分と低周波成分とに分解する成分分解部と、
成分分解部で分解された低周波成分に高周波成分を、高周波成分の絶対値が大きいほど元のまま維持し高周波成分の絶対値が小さいほど減少させて加算することで新たな明るさ成分を算出する成分算出部と、
画像取得部で取得された画像上の各点の明るさを、成分算出部で算出されたその点の明るさ成分に応じた分だけ変更することで画像が有する明るさのレンジを圧縮する圧縮部とを備えたことを特徴とする。
An image processing apparatus of the present invention that achieves the above object includes an image acquisition unit that acquires an image,
A component decomposition unit that decomposes the brightness of each point on the image acquired by the image acquisition unit into a high frequency component and a low frequency component at a spatial frequency on the image;
A new brightness component is calculated by adding the high-frequency component to the low-frequency component decomposed by the component decomposition unit while maintaining the original value as the absolute value of the high-frequency component increases and decreasing it as the absolute value of the high-frequency component decreases. A component calculation unit to perform,
Compression that compresses the brightness range of an image by changing the brightness of each point on the image acquired by the image acquisition unit by an amount corresponding to the brightness component of that point calculated by the component calculation unit And a section.

オーバーシュートやアンダーシュートは、画像の低周波成分を圧縮して高周波成分と合成する際に、高周波成分が強調されることによって発生するものであり、高周波成分が大きい画像のエッジ部分で発生しやすいという特徴がある。   Overshoot and undershoot are generated by emphasizing the high frequency component when compressing the low frequency component of the image and combining it with the high frequency component, and are likely to occur at the edge portion of the image where the high frequency component is large. There is a feature.

本発明の画像処理装置によると、高周波成分の絶対値が大きいエッジ部分では、本来の画像の明るさに近い明るさ成分に基づいて、従来の単純な階調変換に近い圧縮処理が実行されるため、オーバーシュートやアンダーシュートの発生が抑えられる。また、高周波成分の絶対値が小さい画像部分では、低周波成分に近い明るさ成分に基づいて明るさのレンジが圧縮されるため、画像のテクスチャを担った高周波成分による明るさの振幅は圧縮率等に依存せず、テクスチャが維持される。   According to the image processing apparatus of the present invention, at the edge portion where the absolute value of the high frequency component is large, the compression processing close to the conventional simple tone conversion is executed based on the brightness component close to the brightness of the original image. Therefore, the occurrence of overshoot and undershoot can be suppressed. Also, in the image portion where the absolute value of the high frequency component is small, the brightness range is compressed based on the brightness component close to the low frequency component, so the brightness amplitude due to the high frequency component that bears the texture of the image is the compression ratio. The texture is maintained without depending on etc.

また、本発明の画像処理装置において、上記画像が、画像上の各点の色が、複数の色成分それぞれの輝度値の各点における組み合わせで表現されたカラー画像である場合には、
上記圧縮部が、複数の色成分それぞれの輝度値に対して共通に明るさ成分に応じた係数を乗除することにより明るさを変更してレンジを圧縮するものであることが好ましい。
In the image processing apparatus of the present invention, when the image is a color image in which the color of each point on the image is expressed by a combination at each point of the luminance values of the plurality of color components,
It is preferable that the compression unit compresses the range by changing the brightness by multiplying / dividing a coefficient corresponding to the brightness component in common with respect to the luminance values of the plurality of color components.

また、本発明の画像処理装置において、上記画像が、画像上の各点の色が、複数の色成分それぞれの濃度値の各点における組み合わせで表現されたカラー画像である場合には、
上記圧縮部が、複数の色成分それぞれの濃度値に対して共通に明るさ成分に応じた値を加減することにより明るさを変更してレンジを圧縮するものであることが好ましい。
In the image processing apparatus of the present invention, when the image is a color image in which the color of each point on the image is expressed by a combination at each point of density values of a plurality of color components,
It is preferable that the compression unit compresses the range by changing the brightness by adding or subtracting a value corresponding to the brightness component in common to the density values of the plurality of color components.

複数の色成分それぞれの輝度値の組み合わせで色が表現されたカラー画像では、複数の色成分それぞれの輝度値に対して共通に明るさ成分に応じた係数を乗除することにより、色相を維持して明るさを変更することができ、複数の色成分それぞれの濃度値の組み合わせで色が表現されたカラー画像では、複数の色成分それぞれの濃度値に対して共通に明るさ成分に応じた値を加減することにより、色相を維持して明るさを変更することができる。これにより、カラー画像においても、色味等への影響を抑えて、簡単な演算で精度良く明るさのレンジを圧縮することができる。   In a color image in which colors are represented by combinations of luminance values of multiple color components, the hue is maintained by multiplying or dividing the luminance values of the multiple color components by a coefficient corresponding to the brightness component in common. In a color image in which the color can be changed by combining the density values of multiple color components, the value corresponding to the brightness component is common to the density values of the multiple color components. By adjusting the brightness, the brightness can be changed while maintaining the hue. As a result, even in a color image, it is possible to suppress the influence on the color and the like and to compress the brightness range with high accuracy by a simple calculation.

本発明によれば、オーバーシュートやアンダーシュートの発生を抑えるとともに、画像のテクスチャを維持して画像のダイナミックレンジを圧縮することができる。   According to the present invention, the occurrence of overshoot and undershoot can be suppressed, and the dynamic range of the image can be compressed while maintaining the texture of the image.

以下、図面を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施形態が適用された内視鏡システムの概略構成図である。   FIG. 1 is a schematic configuration diagram of an endoscope system to which an embodiment of the present invention is applied.

図1に示す内視鏡システム1は、被検体Pの体内に光を導いて照射し、その反射光に基づいて画像信号を生成する光プローブ10と、光を発する光源装置20と、光プローブ10で得られた画像に所定の画像処理を施して、被検体Pの体内を撮影した医用画像を生成する画像処理装置30と、画像処理装置30で生成された医用画像を表示モニタ41上に表示する表示装置40とを備えている。   An endoscope system 1 shown in FIG. 1 guides and irradiates light into the body of a subject P, generates an image signal based on the reflected light, a light source device 20 that emits light, and an optical probe. The image obtained by 10 is subjected to predetermined image processing to generate a medical image obtained by photographing the inside of the subject P, and the medical image generated by the image processing device 30 is displayed on the display monitor 41. And a display device 40 for displaying.

光プローブ10は、可撓性を有する細長のプローブ部11と、プローブ部11を操作する操作部12と、光源装置20および画像処理装置30と光プローブ10とを接続する光/信号ガイド13で構成されている。以下では、光プローブ10の、被検体Pの体内に挿入される側を先端、その先端の逆側を後端と称して説明する。   The optical probe 10 includes a flexible elongated probe unit 11, an operation unit 12 that operates the probe unit 11, and a light / signal guide 13 that connects the light source device 20, the image processing device 30, and the optical probe 10. It is configured. Hereinafter, the side of the optical probe 10 that is inserted into the body of the subject P is referred to as the front end, and the opposite side of the front end is referred to as the rear end.

操作部12には、プローブ部11を湾曲させるための湾曲操作レバー121、静止画を撮影するためのフリーズボタン122、および表示されている画像の色味を調整するための色調整ボタン123などが設けられている。   The operation unit 12 includes a bending operation lever 121 for bending the probe unit 11, a freeze button 122 for capturing a still image, a color adjustment button 123 for adjusting the color of a displayed image, and the like. Is provided.

光/信号ガイド13は、光を伝達するライトガイド131と、信号を伝達する信号線132とで構成されている。ライトガイド131は、後端が光源装置20に接続され、光源装置20から発せられた光をプローブ部11内にまで導き、その光をプローブ部11の先端に設けられた照射窓11aから被検体Pに向けて照射する。信号線132は、先端にCCD133が取り付けられており、後端側が画像処理装置30に接続される。ライトガイド131の照射窓11aから照射された光が被検体Pの体内で反射した反射光は、プローブ部11の先端に設けられた光学部材134によって集光され、CCD133で受光されて、反射光を表わす撮影画像が生成される。CCD133は、複数の受光部が並べて配置されたものであり、それら複数の受光部それぞれで光が受光されることにより、画像が複数の画素で表現された画像データが生成される。CCD133は、複数の受光部が並べて配置されたものであり、それら複数の受光部それぞれで光が受光されることにより、複数の画素で表現された撮影画像が生成される。本実施形態においては、CCD133に、複数の受光部それぞれに対応する位置にR,G,B各色が規則的な色パターンで配置された色フィルタ(図2参照)が取り付けられており、色フィルタを通過してきた光がCCD133で受光されることによって、色フィルタの色パターンと同じ色パターンでR,G,B各色の画素が並んだ色モザイク画像が生成される。生成された色モザイク画像は、信号線132を通って画像処理装置30に伝達され、画像処理装置30において所定の画像処理が施される。   The light / signal guide 13 includes a light guide 131 that transmits light and a signal line 132 that transmits signals. The light guide 131 has a rear end connected to the light source device 20, guides the light emitted from the light source device 20 to the probe unit 11, and guides the light from the irradiation window 11 a provided at the tip of the probe unit 11. Irradiate toward P. The signal line 132 has a CCD 133 attached to the front end, and the rear end side is connected to the image processing apparatus 30. The reflected light reflected from the inside of the subject P by the light irradiated from the irradiation window 11a of the light guide 131 is collected by the optical member 134 provided at the tip of the probe unit 11, received by the CCD 133, and reflected light. A photographed image representing is generated. The CCD 133 has a plurality of light receiving portions arranged side by side, and light is received by each of the plurality of light receiving portions, whereby image data in which an image is expressed by a plurality of pixels is generated. The CCD 133 has a plurality of light receiving portions arranged side by side, and when a light is received by each of the plurality of light receiving portions, a captured image represented by a plurality of pixels is generated. In the present embodiment, a color filter (see FIG. 2) in which R, G, and B colors are arranged in a regular color pattern is attached to the CCD 133 at positions corresponding to the plurality of light receiving units. When the light that has passed through is received by the CCD 133, a color mosaic image in which pixels of R, G, and B colors are arranged in the same color pattern as the color pattern of the color filter is generated. The generated color mosaic image is transmitted to the image processing device 30 through the signal line 132, and the image processing device 30 performs predetermined image processing.

図2は、内視鏡システム1の概略的な機能ブロック図である。   FIG. 2 is a schematic functional block diagram of the endoscope system 1.

尚、図2では、表示モニタ41や、光プローブ10の操作部12などの図示を省き、画像信号の生成に関連する主要要素のみを示している。   In FIG. 2, the display monitor 41 and the operation unit 12 of the optical probe 10 are not shown, and only main elements related to the generation of the image signal are shown.

図1にも示す光源装置20は、白色光を発するものであり、画像処理装置30の全体制御部360によって制御されている。   The light source device 20 also shown in FIG. 1 emits white light and is controlled by the overall control unit 360 of the image processing device 30.

光プローブ10には、図1にも示すCCD133に加えて、R,G,B各色が規則的な色パターンでモザイク状に配置された色フィルタ140、CCD133で生成されたアナログの画像信号をデジタルの画像信号に変換するA/D変換部150、光プローブ10内の各種要素における処理を制御する撮像制御部160などが備えられている。尚、本実施形態では、光プローブ10において、R,G,B3色で画像の色が表現されるとともに、R,G,B各色の成分が輝度リニアなRGB色空間の画像データが生成されるものとして説明する。   In addition to the CCD 133 also shown in FIG. 1, the optical probe 10 digitally receives analog image signals generated by the color filter 140 in which each color of R, G, B is arranged in a mosaic pattern with a regular color pattern, and the CCD 133. Are provided with an A / D conversion unit 150 that converts the image signal into an image signal, an imaging control unit 160 that controls processing in various elements in the optical probe 10, and the like. In the present embodiment, the optical probe 10 generates RGB color space image data in which the color of the image is represented by R, G, and B colors and the components of the R, G, and B colors are linear in luminance. It will be explained as a thing.

画像処理装置30には、フリーズボタン122が押下されることによって生成された静止画や各種パラメータなどが保存される保存部300と、光プローブ10から送られてきた画像のゲインを補正するゲイン補正部310と、CCD133を含む光プローブ10の分光特性を補正する分光補正部320と、画像に階調補正処理を施すガンマ補正部340と、光プローブ10で生成された色モザイク画像の各画素が有している色成分(例えば、R色)を除く他の色成分(例えば、B,G色)を周囲の画素を用いて補間することにより、各画素がR,G,B3色の混色で表現されたカラー画像を生成する同時化処理部350と、同時化処理部350で生成されたカラー画像の信号レベル幅(カラー画像のダイナミックレンジ)を表示モニタ41で表示可能な信号レベル幅(表示モニタ41のダイナミックレンジ)内におさまるように圧縮する表示調整部360と、光プローブ10および画像処理装置30全体の処理を制御する全体制御部390などが備えられている。   The image processing apparatus 30 includes a storage unit 300 that stores a still image generated by pressing the freeze button 122, various parameters, and the like, and gain correction that corrects the gain of the image sent from the optical probe 10. Each pixel of the color mosaic image generated by the optical probe 10 includes: a unit 310; a spectral correction unit 320 that corrects spectral characteristics of the optical probe 10 including the CCD 133; a gamma correction unit 340 that performs gradation correction processing on the image; By interpolating other color components (for example, B and G colors) except for the color component (for example, R color) having the surrounding pixels, each pixel is a mixed color of R, G, and B colors. A display processing unit 41 that generates a represented color image and a signal level width (dynamic range of the color image) of the color image generated by the synchronization processing unit 350. A display adjustment unit 360 that compresses the signal level width within the displayable signal level range (dynamic range of the display monitor 41), an overall control unit 390 that controls processing of the optical probe 10 and the entire image processing apparatus 30, and the like are provided. Yes.

表示調整部360は、RGB3色で色が表現されたRGB画像に基づいて、輝度成分Yを生成するY生成部361、輝度成分Yから空間周波数が低い低周波成分を抽出するLPF(ローパスフィルタ)部262、輝度成分Yの低周波成分に高周波成分を加算して合成成分を生成するY合成部363、合成成分に基づいてRGB画像のダイナミックレンジを圧縮するための補正量を算出する補正量算出部364と、RGB画像のレンジを圧縮する補正部365とで構成されている。Y生成部361は、本発明にいう画像取得部の一例にあたり、ローパスフィルタ部262は、本発明にいう成分分解部の一例に相当する。また、Y合成部363は、本発明にいう成分算出部の一例にあたり、補正量算出部364と補正部365とを合わせたものは、本発明にいう圧縮部の一例に相当する。   The display adjustment unit 360 generates a luminance component Y based on an RGB image in which colors are expressed in three RGB colors, and an LPF (low pass filter) that extracts a low frequency component having a low spatial frequency from the luminance component Y. Unit 262, a Y composition unit 363 that generates a composite component by adding a high frequency component to the low frequency component of luminance component Y, a correction amount calculation that calculates a correction amount for compressing the dynamic range of the RGB image based on the composite component 364 and a correction unit 365 that compresses the range of the RGB image. The Y generation unit 361 corresponds to an example of an image acquisition unit according to the present invention, and the low-pass filter unit 262 corresponds to an example of a component decomposition unit according to the present invention. The Y composition unit 363 is an example of the component calculation unit according to the present invention, and the combination of the correction amount calculation unit 364 and the correction unit 365 corresponds to an example of the compression unit according to the present invention.

図3は、撮影された画像が表示モニタ41上に表示されるまでの一連の処理の流れを示すフローチャート図である。   FIG. 3 is a flowchart showing a flow of a series of processes until a captured image is displayed on the display monitor 41.

以下では、このフローチャート図に従って、被検体が撮影されて、撮影画像が表示モニタ41上に表示されるまでの一連の処理の流れについて説明する。   In the following, a flow of a series of processes from when the subject is imaged until the captured image is displayed on the display monitor 41 will be described according to the flowchart.

まず、被検体の観察箇所に適した大きさの光プローブ10が光源装置20および画像処理装置30に装着され、光プローブ10が被検体Pの体内に挿入される。光源装置20から発せられた光はライトガイド131によって光プローブ10の先端に導かれ、照射窓11aから被検体Pの体内に照射される。光源装置20から発せられた光が被検体Pの体内で反射された反射光は、色フィルタ140を通ってCCD133で受光されて撮影画像が生成される(図3のステップS1)。生成された撮影画像は、A/D変換部150においてデジタル化された後、信号線132を通って画像処理装置30内に伝達される。   First, the optical probe 10 having a size suitable for the observation location of the subject is mounted on the light source device 20 and the image processing device 30, and the optical probe 10 is inserted into the body of the subject P. The light emitted from the light source device 20 is guided to the tip of the optical probe 10 by the light guide 131 and is irradiated into the body of the subject P from the irradiation window 11a. The reflected light obtained by reflecting the light emitted from the light source device 20 in the body of the subject P passes through the color filter 140 and is received by the CCD 133 to generate a captured image (step S1 in FIG. 3). The generated captured image is digitized by the A / D converter 150 and then transmitted to the image processing apparatus 30 through the signal line 132.

画像処理装置30では、撮影画像に、画像の色を補正するための各種画像処理が施される(図3のステップS2)。まず、ゲイン補正部310においてゲインの補正が行われ、分光補正部320において分光補正処理が施され、ガンマ補正部340において階調補正処理が施された後、同時化処理部350に伝えられる。同時化処理部350では、モザイク色画像である撮影画像に同時化処理が施されて、各画素がR,G,B3色の混色で表現されたRGB画像に変換される。変換後のRGB画像は、表示調整部360に伝えられる。   In the image processing device 30, various image processing for correcting the color of the image is performed on the captured image (step S2 in FIG. 3). First, gain correction is performed in the gain correction unit 310, spectral correction processing is performed in the spectral correction unit 320, and tone correction processing is performed in the gamma correction unit 340, which is then transmitted to the synchronization processing unit 350. In the synchronization processing unit 350, the captured image that is a mosaic color image is subjected to synchronization processing, and each pixel is converted into an RGB image expressed by a mixed color of R, G, and B colors. The converted RGB image is transmitted to the display adjustment unit 360.

表示調整部360では、RGB画像のダイナミックレンジが表示モニタ41のダイナミック内におさまるように、RGB画像のダイナミックレンジが圧縮される。尚、本実施形態においては、RGB画像を構成している複数の画素それぞれの明るさ(信号値)を補正する処理を実行することによって、RGB画像全体としてのダイナミックレンジが圧縮される。   The display adjustment unit 360 compresses the dynamic range of the RGB image so that the dynamic range of the RGB image falls within the dynamic range of the display monitor 41. In the present embodiment, the dynamic range of the entire RGB image is compressed by executing the process of correcting the brightness (signal value) of each of the plurality of pixels constituting the RGB image.

表示調整部360にRGB画像が入力されると、Y生成部361では、RGB画像に基づいて輝度成分Yが生成される(図3のステップS3)。本実施形態においては、下記式(1)に基づいて、画像上の各点における輝度成分Yが算出される。   When the RGB image is input to the display adjustment unit 360, the Y generation unit 361 generates a luminance component Y based on the RGB image (step S3 in FIG. 3). In the present embodiment, the luminance component Y at each point on the image is calculated based on the following formula (1).

Y=0.299×R+0.587×G+0.114×B ・・・(1)
生成された輝度成分Yは、ローパスフィルタ部362に伝えられる。
Y = 0.299 × R + 0.587 × G + 0.114 × B (1)
The generated luminance component Y is transmitted to the low-pass filter unit 362.

ローパスフィルタ部362では、輝度成分Yにおいて画像上での空間周波数が低い低周波成分が抽出されるとともに、元の輝度成分Yから低周波成分を除いた高周波成分が生成される(図3のステップS4)。生成された低周波成分はいわゆるボケ画像であり、本実施形態においては、標準的な医用画像において診断に必要なテクスチャ成分が高周波成分として確実に分離されるフィルタ特性が予め用意されており、そのフィルタ特性に基づいて低周波成分と高周波成分とが生成される。尚、本実施形態においては、ローパスフィルタ部362としてFIRフィルタが適用されるが、本発明にいう成分分解部は、FIRフィルタよりも回路規模が小さいIIRフィルタを適用したり、縮小画像を用いてもよい。生成された低周波成分および高周波成分は、Y合成部363に伝えられる。   In the low-pass filter unit 362, a low-frequency component having a low spatial frequency on the image is extracted from the luminance component Y, and a high-frequency component obtained by removing the low-frequency component from the original luminance component Y is generated (step in FIG. 3). S4). The generated low-frequency component is a so-called blurred image, and in the present embodiment, a filter characteristic that reliably separates a texture component necessary for diagnosis as a high-frequency component in a standard medical image is prepared in advance. A low frequency component and a high frequency component are generated based on the filter characteristics. In this embodiment, an FIR filter is applied as the low-pass filter unit 362. However, the component decomposition unit referred to in the present invention applies an IIR filter having a circuit scale smaller than that of the FIR filter, or uses a reduced image. Also good. The generated low frequency component and high frequency component are transmitted to the Y synthesis unit 363.

Y合成部363では、ローパスフィルタ部362から伝えられた低周波成分に高周波成分が加算されて合成成分が生成される(図3のステップS5)。本実施形態においては、元の輝度成分Yと低周波成分Yとに基づいて、合成信号Ymixが、以下の式(2)に従って算出される。 In the Y synthesis unit 363, the high frequency component is added to the low frequency component transmitted from the low pass filter unit 362 to generate a synthesis component (step S5 in FIG. 3). In the present embodiment, based on the original luminance component Y and the low-frequency component Y L, the synthesized signal Y mix is calculated according to the following equation (2).

mix=Y+F(Y−Y) ・・・(2)
式(2)中の(Y−Y)項は、ローパスフィルタ部362から伝えられた高周波成分に相当する。
Y mix = Y L + F (Y−Y L ) (2)
The term (Y−Y L ) in Expression (2) corresponds to the high frequency component transmitted from the low pass filter unit 362.

図4は、式(2)中の関数Fを示す図である。   FIG. 4 is a diagram illustrating the function F in the equation (2).

図4に示すように、関数Fは、輝度成分Yの高周波成分(Y−Y)の絶対値が規定値「t」以下である場合はF=0であり、輝度成分Yの高周波成分(Y−Y)の絶対値が規定値「t」よりも大きい場合はF=a×(Y−Y)±tで表わされる傾きaの1次関数である。すなわち、式(2)から、
|Y−Y|≦tの場合、Ymix=Y ・・・(3)
|Y−Y|>tの場合、Ymix=Y+a(Y−Y)±t ・・・(4)
が求められる。尚、本実施形態においては、傾きa=1であり、高周波成分が十分に大きいときには、
|Y−Y|≫tの場合、Ymix=Y±t≒Y ・・・(5)
となる。規定値「t」は、標準的な医用画像においてエッジ部分における高周波成分よりも十分に小さく、テクスチャ部分における高周波成分が−t≦x≦tの範囲内に含まれるような経験値が適用される。すなわち、高周波成分の絶対値が大きく、オーバーシュートやアンダーシュートが発生しやすいエッジ部分では、元の輝度成分Yに近い合成成分Ymixが生成され、高周波成分の絶対値が規定値「t」以下であり、重要なテクスチャ成分が含まれる画像部分では、合成成分Ymix=低周波成分Yとなる。
As shown in FIG. 4, the function F is F = 0 when the absolute value of the high-frequency component (Y−Y L ) of the luminance component Y is equal to or less than the specified value “t”, and the high-frequency component ( If the absolute value of Y-Y L) is greater than the specified value "t" is a linear function of slope a represented by F = a × (Y-Y L) ± t. That is, from equation (2)
When | Y−Y L | ≦ t, Y mix = Y L (3)
When | Y−Y L |> t, Y mix = Y L + a (Y−Y L ) ± t (4)
Is required. In this embodiment, when the slope a = 1 and the high frequency component is sufficiently large,
When | Y−Y L | >> t, Y mix = Y ± t≈Y (5)
It becomes. The specified value “t” is sufficiently smaller than the high frequency component in the edge portion in the standard medical image, and an empirical value is applied so that the high frequency component in the texture portion is included in the range of −t ≦ x ≦ t. . That is, at the edge portion where the absolute value of the high frequency component is large and overshoot or undershoot is likely to occur, a composite component Y mix close to the original luminance component Y is generated, and the absolute value of the high frequency component is equal to or less than the specified value “t”. In an image portion including an important texture component, the composite component Y mix = low frequency component Y L.

生成された合成成分Ymixは、補正量算出部364に伝えられる。 The generated composite component Y mix is transmitted to the correction amount calculation unit 364.

補正量算出部364では、合成成分Ymixに基づいて、RGB画像のレンジを圧縮するための、各画素の明るさを補正する補正量が算出される(図3のステップS6)。本実施形態においては、合成成分Ymixの大きさと補正量とが対応付けられた補正テーブルが用意されており、補正量算出部364では、合成成分Ymixに基づいて補正テーブルが参照されて、補正量が取得される。 The correction amount calculation unit 364 calculates a correction amount for correcting the brightness of each pixel for compressing the range of the RGB image based on the composite component Y mix (step S6 in FIG. 3). In the present embodiment, a correction table in which the size of the composite component Y mix and the correction amount are associated is prepared, and the correction amount calculation unit 364 refers to the correction table based on the composite component Y mix , A correction amount is acquired.

図5は、補正テーブルの一例を示す図である。   FIG. 5 is a diagram illustrating an example of the correction table.

図5では、横軸に合成成分Ymixの大きさが対応付けられ、縦軸に補正量が対応付けられている。図5に示すように、合成成分Ymixが小さい(すなわち、画素が暗い)ほど補正量がプラス方向に大きくなり、画素が明るくなるように補正される。また、合成成分Ymixが大きい(すなわち、画素が明るい)ほど補正量がマイナス方向に大きくなり、画素が暗くなるように補正される。 In FIG. 5, the horizontal axis is associated with the magnitude of the composite component Y mix , and the vertical axis is associated with the correction amount. As shown in FIG. 5, the smaller the composite component Y mix (that is, the darker the pixel), the larger the correction amount is in the positive direction, and the pixel is corrected to become brighter. Also, synthetic components Y mix is large (i.e., the pixel is bright), the more the correction amount is increased in the negative direction, is corrected so that the pixel is dark.

補正量算出部364では、Y合成部363で算出された合成成分Ymixと対応する補正量rが取得され、取得された補正量rが補正部365に伝えられる。 In the correction amount calculation unit 364, the correction amount r corresponding to the composite component Y mix calculated by the Y composition unit 363 is acquired, and the acquired correction amount r is transmitted to the correction unit 365.

補正部365では、同時化処理部350から伝えられたRGB画像を構成している各画素の明るさが補正量算出部364で算出された補正量rで補正されることにより、RGB画像全体のダイナミックレンジが圧縮される(図3のステップS7)。本実施形態では、各画素の色がR,G,B各色の輝度値の組み合わせで表現されたRGB画像が生成されており、補正部365では、各R,G,B成分それぞれに同じ補正量rが加算されることによってRGB画像のダイナミックレンジが圧縮される。   In the correction unit 365, the brightness of each pixel constituting the RGB image transmitted from the synchronization processing unit 350 is corrected with the correction amount r calculated by the correction amount calculation unit 364, so that the entire RGB image is corrected. The dynamic range is compressed (step S7 in FIG. 3). In this embodiment, an RGB image in which the color of each pixel is expressed by a combination of luminance values of R, G, and B colors is generated, and the correction unit 365 has the same correction amount for each of the R, G, and B components. The dynamic range of the RGB image is compressed by adding r.

ここで、上述したように、合成成分Ymixは、高周波成分の絶対値が大きい画像部分では、元の輝度信号Yに近く、高周波成分の絶対値が小さい画像部分では、合成成分Ymix=低周波成分Yとなっている。このため、高周波成分の絶対値が大きいエッジ部分では、元の輝度信号Yに基づいて通常の階調変換と同様の画像圧縮処理が行われることとなり、オーバーシュートやアンダーシュートの発生を抑えることができる。また、高周波成分の絶対値が規定値t以下であるテクスチャ部分では、低周波成分に基づいて平均的に明るさが補正されることとなり、画像の陰影や微妙な凹凸感を維持することができる。 Here, as described above, the composite component Y mix is close to the original luminance signal Y in the image portion where the absolute value of the high frequency component is large, and the composite component Y mix = low in the image portion where the absolute value of the high frequency component is small. It has a frequency component Y L. For this reason, at the edge portion where the absolute value of the high-frequency component is large, image compression processing similar to normal gradation conversion is performed based on the original luminance signal Y, and the occurrence of overshoot and undershoot can be suppressed. it can. In addition, in the texture portion where the absolute value of the high frequency component is equal to or less than the specified value t, the brightness is corrected on the average based on the low frequency component, so that it is possible to maintain the shadow and subtle unevenness of the image. .

ダイナミックレンジが圧縮されたRGB画像は、表示装置40に伝えられて、表示モニタ41上に表示される(図3のステップS8)。   The RGB image in which the dynamic range is compressed is transmitted to the display device 40 and displayed on the display monitor 41 (step S8 in FIG. 3).

以上のように、本実施形態によると、オーバーシュートやアンダーシュートの発生を抑えるとともに、画像のテクスチャを維持して画像のレンジを圧縮することができ、診断に有用な高画質な医用画像を表示することができる。   As described above, according to the present embodiment, the occurrence of overshoot and undershoot can be suppressed, the image texture can be maintained and the image range can be compressed, and a high-quality medical image useful for diagnosis can be displayed. can do.

以上で、本発明の第1実施形態の説明を終了し、本発明の第2実施形態について説明する。本発明の第2実施形態は、図2に示す第1実施形態と同様の構成を有しているため、図2を第2実施形態の説明でも流用し、第1実施形態との相違点についてのみ説明する。   Above, description of 1st Embodiment of this invention is complete | finished and 2nd Embodiment of this invention is described. Since the second embodiment of the present invention has the same configuration as that of the first embodiment shown in FIG. 2, FIG. 2 is also used in the description of the second embodiment, and is different from the first embodiment. Only explained.

本実施形態では、光プローブ10において、画像を構成する各画素がR,G,B各色の濃度値の組み合わせで表現されたRGB画像が生成される。   In the present embodiment, the optical probe 10 generates an RGB image in which each pixel constituting the image is expressed by a combination of density values of R, G, and B colors.

図6は、本実施形態の補正量算出部364で利用される補正テーブルの一例を示す図である。   FIG. 6 is a diagram illustrating an example of a correction table used by the correction amount calculation unit 364 of the present embodiment.

図6では、横軸に合成成分Ymixの大きさが対応付けられ、縦軸に元の画像の各画素値に乗算される補正係数r´が対応付けられている。本実施形態では、合成成分Ymixが小さい(すなわち、画素が暗い)ほど、補正係数r´が「1」よりも大きくなり、補正後の画素の明るさが補正前の画素よりも明るくなるように補正される。また、合成成分Ymixが大きい(すなわち、画素が明るい)ほど、補正係数r´が「1」よりも小さくなり、画素が暗くなるように補正される。 In FIG. 6, the horizontal axis is associated with the magnitude of the composite component Y mix , and the vertical axis is associated with the correction coefficient r ′ that is multiplied by each pixel value of the original image. In the present embodiment, as the composite component Y mix is smaller (that is, the pixel is darker), the correction coefficient r ′ is larger than “1”, and the brightness of the pixel after correction is brighter than the pixel before correction. It is corrected to. Further, as the composite component Y mix is larger (that is, the pixel is brighter), the correction coefficient r ′ is smaller than “1”, and correction is performed so that the pixel becomes darker.

補正部365では、濃度リニアなRGB画像を構成している複数の画素それぞれの各R,G,B成分に補正係数r´が乗算されることによって、RGB画像全体のダイナミックレンジが圧縮される。   In the correction unit 365, the dynamic range of the entire RGB image is compressed by multiplying each R, G, B component of each of the plurality of pixels constituting the density linear RGB image by the correction coefficient r ′.

このように、各画素の色が複数の色それぞれの濃度値の組み合わせで表現されたカラー画像においては、各色成分それぞれに対して共通の補正係数r´を乗算することによって、画像のダイナミックレンジを圧縮することができる。   Thus, in a color image in which the color of each pixel is expressed by a combination of density values of a plurality of colors, the dynamic range of the image is increased by multiplying each color component by a common correction coefficient r ′. Can be compressed.

ここで、上記では、フレーム画像が撮影される毎に、コントラスト評価値を算出しておく例について説明したが、本発明の内視鏡装置は、撮影されたフレーム画像を記憶しておき、ユーザからの指示を受けた時点でコントラスト評価値の算出、および最大値を有するフレーム画像の判定を実行するものであってもよい。   Here, the example in which the contrast evaluation value is calculated every time the frame image is captured has been described above. However, the endoscope apparatus of the present invention stores the captured frame image, and the user The calculation of the contrast evaluation value and the determination of the frame image having the maximum value may be executed at the time when the instruction from is received.

また、上記では、画像の明るさのレンジを圧縮する画像処理装置を内視鏡システムに適用する例について説明したが、本発明の画像処理装置は、通常のデジタルカメラや画像表示装置などに適用してもよい。   In the above description, an example in which an image processing apparatus that compresses the range of image brightness is applied to an endoscope system has been described. However, the image processing apparatus of the present invention is applied to a normal digital camera, an image display apparatus, and the like. May be.

また、上記では、R,G,B各色の組み合わせで画像の色が表現されたカラー画像の明るさのレンジを圧縮する例について説明したが、本発明にいうカラー画像は、例えば、C,M,Y,K各色の組み合わせで画像の色が表現されたCMYK画像であってもよい。   In the above description, an example of compressing the brightness range of a color image in which the color of the image is expressed by a combination of R, G, and B colors has been described. A CMYK image in which the color of the image is expressed by a combination of the colors, Y, and K may be used.

また、上記では、人間の目の感覚に近い色を算出する式(1)を使ってRGB画像からY成分を生成する例について説明したが、例えば、
Y=R+G+G+B ・・・(6)
などを使ってY成分を生成してもよい。この式(6)は、RGB画像を使ってY成分に近似させるために広く利用されている。
In the above description, the example in which the Y component is generated from the RGB image using the equation (1) for calculating a color close to the sense of the human eye has been described.
Y = R + G + G + B (6)
The Y component may be generated using such as. This equation (6) is widely used to approximate the Y component using an RGB image.

本発明の第1実施形態における内視鏡装置の概略構成図である1 is a schematic configuration diagram of an endoscope apparatus according to a first embodiment of the present invention. 内視鏡装置の機能ブロック図である。It is a functional block diagram of an endoscope apparatus. 撮影された画像が表示モニタ上に表示されるまでの一連の処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a series of processes until the image | photographed image is displayed on a display monitor. 式(2)中の関数Fを示す図である。It is a figure which shows the function F in Formula (2). 第1実施形態における補正テーブルの一例を示す図である。It is a figure which shows an example of the correction table in 1st Embodiment. 第2実施形態における補正テーブルの一例を示す図である。It is a figure which shows an example of the correction table in 2nd Embodiment.

符号の説明Explanation of symbols

1 内視鏡装置
10 光プローブ
20 光源装置
30 画像処理装置
40 表示装置
11 プローブ部
12 操作部
13 光/信号ガイド
121 湾曲操作レバー
122 フリーズボタン
123 選択ボタン
131 ライトガイド
132 信号
133 CCD
140 色フィルタ
150 A/D変換部
160 撮像制御部
300 保存部
310 ゲイン補正部
320 分光補正部
340 ガンマ補正部
350 同時化処理部
360 表示調整部
361 Y生成部
362 ローパスフィルタ部
363 Y合成部
364 補正量算出部
365 補正部
390 全体制御部
DESCRIPTION OF SYMBOLS 1 Endoscope apparatus 10 Optical probe 20 Light source apparatus 30 Image processing apparatus 40 Display apparatus 11 Probe part 12 Operation part 13 Light / signal guide 121 Bending operation lever 122 Freeze button 123 Selection button 131 Light guide 132 Signal 133 CCD
140 Color Filter 150 A / D Conversion Unit 160 Imaging Control Unit 300 Storage Unit 310 Gain Correction Unit 320 Spectral Correction Unit 340 Gamma Correction Unit 350 Synchronization Processing Unit 360 Display Adjustment Unit 361 Y Generation Unit 362 Low-Pass Filter Unit 363 Y Composition Unit 364 Correction amount calculation unit 365 Correction unit 390 Overall control unit

Claims (3)

画像を取得する画像取得部と、
前記画像取得部で取得された画像上の各点の明るさを、画像上の空間周波数における高周波成分と低周波成分とに分解する成分分解部と、
前記成分分解部で分解された低周波成分に高周波成分を、前記高周波成分の絶対値が大きいほど元のまま維持し該高周波成分の絶対値が小さいほど減少させて加算することで新たな明るさ成分を算出する成分算出部と、
前記画像取得部で取得された画像上の各点の明るさを、前記成分算出部で算出されたその点の明るさ成分に応じた分だけ変更することで該画像が有する明るさのレンジを圧縮する圧縮部とを備えたことを特徴とする画像処理装置。
An image acquisition unit for acquiring images;
A component decomposition unit that decomposes the brightness of each point on the image acquired by the image acquisition unit into a high-frequency component and a low-frequency component at a spatial frequency on the image;
A new brightness is obtained by adding the high-frequency component to the low-frequency component decomposed by the component decomposition unit while keeping the original as the absolute value of the high-frequency component is larger and decreasing the absolute value of the high-frequency component as it is smaller. A component calculation unit for calculating a component;
The brightness range of the image is changed by changing the brightness of each point on the image acquired by the image acquisition unit by an amount corresponding to the brightness component of the point calculated by the component calculation unit. An image processing apparatus comprising: a compression unit that compresses the image.
前記画像が、画像上の各点の色が、複数の色成分それぞれの輝度値の各点における組み合わせで表現されたカラー画像であり、
前記圧縮部が、前記複数の色成分それぞれの輝度値に対して共通に前記明るさ成分に応じた係数を乗除することにより明るさを変更してレンジを圧縮するものであることを特徴とする請求項1記載の画像処理装置。
The image is a color image in which the color of each point on the image is expressed by a combination at each point of the luminance values of the plurality of color components,
The compression unit is configured to compress the range by changing the brightness by multiplying / multiplying the coefficient corresponding to the brightness component in common to the luminance values of the plurality of color components. The image processing apparatus according to claim 1.
前記画像が、画像上の各点の色が、複数の色成分それぞれの濃度値の各点における組み合わせで表現されたカラー画像であり、
前記圧縮部が、前記複数の色成分それぞれの濃度値に対して共通に前記明るさ成分に応じた値を加減することにより明るさを変更してレンジを圧縮するものであることを特徴とする請求項1記載の画像処理装置。
The image is a color image in which the color of each point on the image is expressed by a combination at each point of density values of a plurality of color components,
The compression unit compresses a range by changing brightness by adding or subtracting a value corresponding to the brightness component in common to density values of the plurality of color components. The image processing apparatus according to claim 1.
JP2007275583A 2007-10-23 2007-10-23 Image processor Withdrawn JP2009100936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007275583A JP2009100936A (en) 2007-10-23 2007-10-23 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007275583A JP2009100936A (en) 2007-10-23 2007-10-23 Image processor

Publications (1)

Publication Number Publication Date
JP2009100936A true JP2009100936A (en) 2009-05-14

Family

ID=40703360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007275583A Withdrawn JP2009100936A (en) 2007-10-23 2007-10-23 Image processor

Country Status (1)

Country Link
JP (1) JP2009100936A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016084608A1 (en) * 2014-11-25 2016-06-02 ソニー株式会社 Endoscope system, method for operating endoscope system, and program
JPWO2016039269A1 (en) * 2014-09-08 2017-04-27 オリンパス株式会社 Endoscope system and operation method of endoscope system
WO2017203866A1 (en) * 2016-05-24 2017-11-30 オリンパス株式会社 Image signal processing device, image signal processing method, and image signal processing program
JP2020009136A (en) * 2018-07-06 2020-01-16 キヤノン株式会社 Image processing system, control method, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016039269A1 (en) * 2014-09-08 2017-04-27 オリンパス株式会社 Endoscope system and operation method of endoscope system
US9986890B2 (en) 2014-11-25 2018-06-05 Sony Corporation Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging
JP6020950B1 (en) * 2014-11-25 2016-11-02 ソニー株式会社 Endoscope system, operation method of endoscope system, and program
JP2017000839A (en) * 2014-11-25 2017-01-05 ソニー株式会社 Medical image processing device and operation method of medical image processing device
CN105916430A (en) * 2014-11-25 2016-08-31 索尼公司 Endoscope system, method for operating endoscope system, and program
WO2016084608A1 (en) * 2014-11-25 2016-06-02 ソニー株式会社 Endoscope system, method for operating endoscope system, and program
US10799087B2 (en) 2014-11-25 2020-10-13 Sony Corporation Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging
WO2017203866A1 (en) * 2016-05-24 2017-11-30 オリンパス株式会社 Image signal processing device, image signal processing method, and image signal processing program
JPWO2017203866A1 (en) * 2016-05-24 2018-06-07 オリンパス株式会社 Image signal processing apparatus, image signal processing method, and image signal processing program
CN109152520A (en) * 2016-05-24 2019-01-04 奥林巴斯株式会社 Image signal processing device, image signal processing method, and image signal processing program
US10574934B2 (en) 2016-05-24 2020-02-25 Olympus Corporation Ultrasound observation device, operation method of image signal processing apparatus, image signal processing method, and computer-readable recording medium
CN109152520B (en) * 2016-05-24 2021-11-05 奥林巴斯株式会社 Image signal processing device, image signal processing method, and recording medium
JP2020009136A (en) * 2018-07-06 2020-01-16 キヤノン株式会社 Image processing system, control method, and program

Similar Documents

Publication Publication Date Title
EP2750101B1 (en) Endoscopic video system with dynamic contrast and detail enhancement
US9858666B2 (en) Medical skin examination device and method for processing and enhancing an image of a skin lesion
JP5570373B2 (en) Endoscope system
CN102201114B (en) Image processing device and image processing method
KR100990904B1 (en) The apparatus for enhancing image by generating and blending multiple image and method therefor
US9107603B2 (en) Electronic endoscope system including a suppression section
US20090322863A1 (en) Distance information obtainment method in endoscope apparatus and endoscope apparatus
KR20110000537A (en) Image processing method and image processing apparatus
JP2010036017A (en) Electronic endoscope signal-processing device and electronic endoscope system
JP5244164B2 (en) Endoscope device
JP2009100936A (en) Image processor
JP6850871B2 (en) Electronic endoscopy system
JP4606838B2 (en) Electronic endoscope device
JP2009273691A (en) Apparatus and method of endoscope image processing
JP2009211313A (en) Image processing apparatus, image processing method, and image processing program
JP2009219719A (en) Endoscope system
JPH11313247A (en) Endoscope system
EP1675064A1 (en) Ultrasonograph and method and program for generating ultrasonotomographic image
JP5528122B2 (en) Endoscope device
KR102272979B1 (en) Method and system for retinex processing of endoscopic image, and a recording medium having computer readable program for executing the method
JP2009081694A (en) Image processing device and endoscope system
JP7229210B2 (en) Endoscope processor and endoscope system
JP2005130046A (en) Image pickup device
JP4875578B2 (en) Color conversion definition creation method, color conversion definition creation device, and endoscope system
WO2023090044A1 (en) Processor for electronic endoscope and electronic endoscopic system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110104