JP5528255B2 - Endoscopic image processing system - Google Patents
Endoscopic image processing system Download PDFInfo
- Publication number
- JP5528255B2 JP5528255B2 JP2010181830A JP2010181830A JP5528255B2 JP 5528255 B2 JP5528255 B2 JP 5528255B2 JP 2010181830 A JP2010181830 A JP 2010181830A JP 2010181830 A JP2010181830 A JP 2010181830A JP 5528255 B2 JP5528255 B2 JP 5528255B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- size
- image block
- site
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003902 lesion Effects 0.000 claims description 160
- 238000004364 calculation method Methods 0.000 claims description 73
- 238000000034 method Methods 0.000 claims description 51
- 230000015654 memory Effects 0.000 claims description 35
- 238000010606 normalization Methods 0.000 claims description 15
- 238000000513 principal component analysis Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 29
- 238000005286 illumination Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000001727 in vivo Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
Images
Landscapes
- Endoscopes (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、内視鏡により撮像された画像に対して特徴的な病変部位の検出を支援する内視鏡画像処理システムに関する。 The present invention relates to an endoscope image processing system that supports detection of a characteristic lesion site in an image captured by an endoscope.
光が照射されない体内を観察するために、電子内視鏡を有する内視鏡ユニットが用いられている。内視鏡ユニットでは、挿入管が体内に挿入され、照明された体内の生体組織などが撮像され、撮像された被写体像がモニタで観察可能である。 An endoscope unit having an electronic endoscope is used for observing the inside of the body not irradiated with light. In the endoscope unit, the insertion tube is inserted into the body, the illuminated living tissue is imaged, and the captured subject image can be observed on the monitor.
体内の病変部位の外観は正常部位の外観と異なっていることが多く、内視鏡ユニットのモニタに表示される画像が診断に用いられることがある。病変部位であるか否かの判断は観察者の熟練度に依存していた。 The appearance of a lesion site in the body is often different from that of a normal site, and an image displayed on the monitor of the endoscope unit may be used for diagnosis. Judgment as to whether or not it was a lesion site depended on the skill level of the observer.
また、内視鏡による体内観察においては、特定の部位を観察する方向を調製することが難しいため、外観上の差異を判断するのは困難な画像しか得られない場合もある。このような場合においては、熟達した観察者によっても病変部位と正常部位との判別は困難であった。 In addition, in in-vivo observation with an endoscope, it is difficult to adjust the direction in which a specific part is observed, and therefore it may be possible to obtain only images that are difficult to determine the difference in appearance. In such a case, it is difficult for a skilled observer to distinguish between a lesion site and a normal site.
そこで、被写体を上方から観察した画像においてエッジの検出が困難であっても、2次元の濃淡値勾配を検出することにより病変部をより正確に検出する画像解析装置が提案されている(特許文献1参照)。 Therefore, an image analysis apparatus has been proposed that detects a lesion more accurately by detecting a two-dimensional gray value gradient even when it is difficult to detect an edge in an image obtained by observing a subject from above (Patent Document). 1).
しかし、特許文献1に記載の画像解析装置では、濃淡値勾配に等方性を有する箇所を検出するので円形の病変部を推定することが容易となるが、円形以外の濃淡勾配の部位を検出することが困難であった。また、特許文献1に記載の画像解析装置では、画素信号に混入し得るノイズの影響による誤検出が多くなることが問題であった。 However, in the image analysis apparatus described in Patent Document 1, it is easy to estimate a circular lesion because a portion having an isotropic gradient is detected, but a portion having a gradient gradient other than a circle is detected. It was difficult to do. In addition, the image analysis apparatus described in Patent Document 1 has a problem in that false detections due to the influence of noise that can be mixed into pixel signals increase.
したがって、本発明では、様々な種類の病変部と推定される部位を、ノイズの影響を低減化させながら検出する内視鏡画像処理システムの提供を目的とする。 Therefore, an object of the present invention is to provide an endoscopic image processing system that detects a part estimated as various types of lesions while reducing the influence of noise.
本発明の内視鏡画像処理システムは、受光した画像である受光画像を構成する複数の画素に相当する画素信号によって構成される画像信号を受信する受信部と、受光画像上において複数の画像ブロックを設定する設定部と、画像ブロックにおける第1の位置の画素を基準画素として画像ブロック内に配置され基準画素から第1の方向に位置する複数の画素を第1の画素として画像ブロック内に配置され基準画素から第1の方向と交差する第2の方向に位置する複数の前記画素を第2の画素として画像ブロック毎に選択する選択部と、基準画素と複数の第1の画素の中で間隔が第1の間隔である2つの画素の画素信号の差を第1の方向差として基準画素と複数の第2の画素の中で間隔が第2の間隔である2つの画素の画素信号の差を第2の方向差として画像ブロック毎に算出する第1の算出部と、第1の方向差が第1の方向の第1の階級に属する度数および第2の方向差が第2の方向の第1の階級に属する度数を画像ブロック毎にカウントするカウンタと、第1、第2の方向差それぞれが第1、第2の方向の第1の階級に属する度数を用いて所定の算出方法に基づいて第1の特徴量を画像ブロック毎に算出する第2の算出部と、体内の正常部位および第1の病変部位の画像に基づいて予め算出された第1の特徴量を格納するメモリと、第2の算出部により算出された第1の特徴量とメモリに格納された第1の特徴量とを比較することにより画像ブロックの画像が正常部位および第1の病変部位の画像であるか否かを判別する判別部とを備えることを特徴としている。 An endoscope image processing system according to the present invention includes a receiving unit that receives an image signal composed of pixel signals corresponding to a plurality of pixels that constitute a received light image that is a received light image, and a plurality of image blocks on the received light image. And a setting unit for setting a pixel at a first position in the image block as a reference pixel and a plurality of pixels located in a first direction from the reference pixel as a first pixel in the image block A selection unit that selects, for each image block, a plurality of pixels located in a second direction intersecting the first direction from a reference pixel, and a reference pixel and a plurality of first pixels The difference between the pixel signals of the two pixels whose interval is the first interval is defined as the first direction difference, and the pixel signal of the two pixels whose interval is the second interval among the reference pixel and the plurality of second pixels. Difference in the second direction A first calculation unit that calculates for each image block, a frequency in which the first direction difference belongs to the first class in the first direction, and a second direction difference belongs to the first class in the second direction A first feature based on a predetermined calculation method using a counter that counts the frequency for each image block and a frequency in which the first and second direction differences belong to the first class in the first and second directions, respectively. A second calculation unit that calculates the amount for each image block, a memory that stores a first feature amount that is calculated in advance based on images of a normal site and a first lesion site in the body, and a second calculation unit Discrimination for discriminating whether the image of the image block is an image of the normal site and the first lesion site by comparing the first feature value calculated by the above and the first feature value stored in the memory It is characterized by providing a part.
なお、カウンタは第1の方向の第1の階級と異なる第1の方向の第2の階級に第1の方向差が属する度数および第2の方向の第2の階級と異なる第2の方向の第2の階級に第2の方向差が属する度数の少なくとも一方をカウントし、第2の算出部はカウンタにカウントされた度数を用いて第1の特徴量を算出することが好ましい。 The counter has a frequency in which the first direction difference belongs to a second class in a first direction different from the first class in the first direction and a second direction different from the second class in the second direction. It is preferable that at least one of the frequencies to which the second direction difference belongs to the second class is counted, and the second calculation unit calculates the first feature value using the frequency counted by the counter.
また、選択部は画像ブロック内に配置され基準画素から第1、第2の方向と異なる第3の方向に位置する複数の画素を第3の画素として画像ブロック毎に選択し、第1の算出部は基準画素と複数の第3の画素の中で間隔が第3の間隔である2つの画素の画素信号の差を第3の方向差として画像ブロック毎に算出し、カウンタは第3の方向差が第3の方向の第1の階級に属する度数を画像ブロック毎に算出し、第2の算出部は第3の方向差が第3の方向の第1の階級に属する度数を画像ブロック毎にカウントし、第2の算出部はカウンタにカウントされた度数を用いて第1の特徴量を画像ブロック毎に算出することが好ましい。 In addition, the selection unit selects a plurality of pixels located in a third direction different from the first and second directions from the reference pixel, which are arranged in the image block, as a third pixel for each image block, and performs the first calculation. The unit calculates, for each image block, a difference between pixel signals of two pixels having a third interval between the reference pixel and the plurality of third pixels as a third direction difference, and the counter has a third direction. The frequency for which the difference belongs to the first class in the third direction is calculated for each image block, and the second calculation unit calculates the frequency for which the third direction difference belongs to the first class in the third direction for each image block. It is preferable that the second calculation unit calculates the first feature amount for each image block using the frequency counted by the counter.
また、第2の算出部はカウンタにカウントされた度数を用いて所定の算出方法に基づいて第2の特徴量を画像ブロック毎に算出し、メモリは正常部位および第1の病変部位の画像に基づいて予め算出された第2の特徴量を格納し、判別部は第2の算出部により算出された第2の特徴量とメモリに格納された第2の特徴量とを比較することにより画像ブロックの画像が正常部位および第1の病変部位の画像であるか否かを判別することが好ましい。 The second calculation unit calculates the second feature amount for each image block based on a predetermined calculation method using the frequency counted by the counter, and the memory stores the images of the normal site and the first lesion site. The second feature amount calculated in advance based on the second feature amount is stored, and the determination unit compares the second feature amount calculated by the second calculation unit with the second feature amount stored in the memory, thereby generating an image. It is preferable to determine whether or not the block image is an image of a normal site and a first lesion site.
また、メモリに記憶させた第1の特徴量の算出に用いた正常部位および第1の病変部位の画像の画像サイズが基準サイズに定められており、画像ブロックの画像サイズは基準サイズに定められることが好ましい。 Further, the image size of the image of the normal part and the first lesion part used for calculation of the first feature amount stored in the memory is determined as the reference size, and the image size of the image block is determined as the reference size. It is preferable.
また、メモリに記憶させた第1の特徴量の算出に用いた正常部位および第1の病変部位の画像の画像サイズが基準サイズに定められており、メモリに記憶させた第1の特徴量は画像サイズが基準サイズである正常部位および第1の病変部位の画像における第1、第2の方向差それぞれが第1、第2の方向の第1の階級に属する度数を用いて所定の算出方法に基づいて算出され、画像ブロックの画像サイズは基準サイズと異なる第1のサイズに定められ、第2の算出部は第1の方向差が第1の方向の第1の階級に属する度数および第2の方向差が第2の方向の第1の階級に属する度数を基準サイズおよび前記第1のサイズを用いて正規化することが好ましい。 In addition, the image size of the image of the normal site and the first lesion site used for calculation of the first feature value stored in the memory is set as the reference size, and the first feature value stored in the memory is A predetermined calculation method using the frequencies in which the first and second direction differences in the images of the normal site and the first lesion site whose image size is the reference size belong to the first class in the first and second directions, respectively. And the image size of the image block is determined to be a first size different from the reference size, and the second calculation unit calculates the frequency and the frequency of the first direction difference belonging to the first class in the first direction. It is preferable to normalize the frequency in which the direction difference of 2 belongs to the first class in the second direction using the reference size and the first size.
また、設定部、選択部、第1、第2の算出部、カウンタ、および判別部を制御する制御部を備え、メモリに記憶させた第1の特徴量の算出に用いた正常部位および第1の病変部位の画像の画像サイズが基準サイズに定められており、メモリに記憶させた第1の特徴量は画像サイズが基準サイズである正常部位および第1の病変部位の画像における第1、第2の方向差それぞれが第1、第2の方向の第1の階級に属する度数を用いて所定の算出方法に基づいて算出され、設定部は受光画像を複数のサイズのいずれかを画像サイズとする画像ブロックに設定可能であり、第2の算出部は画像ブロックの画像サイズが基準サイズと異なる画像サイズである場合に第1の方向差が第1の方向の第1の階級に属する度数および第2の方向差が第2の方向の第1の階級に属する度数を基準サイズおよび画像ブロックの画像サイズを用いて正規化し、制御部は判別部がいずれの画像ブロックの画像も第1の病変部位の画像でないと判別したときに設定部に画像ブロックの画像サイズを変えさせ選択部に基準画素および第1、第2の画素を再度選択させ第1の算出部に第1、第2の方向差を再度算出させカウンタに第1、第2の方向差が第1の階級に属する度数を再度カウントさせ第2の算出部に第1の特徴量を算出させ判別部に画像ブロックの画像が正常部位および第1の病変部位の画像であるか否かを再度判別させることが好ましい。 In addition, a control unit that controls the setting unit, the selection unit, the first and second calculation units, the counter, and the determination unit is provided, and the normal part used for calculating the first feature value stored in the memory and the first part The image size of the image of the lesion site is determined as the reference size, and the first feature amount stored in the memory is the first and first images in the images of the normal site and the first lesion site whose image size is the reference size. Each of the two direction differences is calculated based on a predetermined calculation method using the frequencies belonging to the first class in the first and second directions, and the setting unit sets the received light image as one of a plurality of sizes as the image size. The second calculation unit can calculate the frequency of the first direction difference belonging to the first class in the first direction and the image size of the image block different from the reference size. The second direction difference is the second direction The frequency belonging to the first class is normalized using the reference size and the image size of the image block, and when the control unit determines that the image of any image block is not the image of the first lesion site, the setting unit The image size of the image block is changed, the reference unit and the first and second pixels are selected again by the selection unit, the first and second direction differences are calculated again by the first calculation unit, and the first and second counters are calculated by the counter. The frequency where the direction difference of 2 belongs to the first class is counted again, the first feature amount is calculated by the second calculation unit, and the image of the image block is the image of the normal site and the first lesion site by the discrimination unit. It is preferable to determine again whether or not.
また、判別部は受信部が画像信号を受信した後の設定部における最初の設定のときに画像ブロックの画像サイズを複数のサイズの中の最大サイズに設定させることが好ましい。 Further, it is preferable that the determination unit causes the image size of the image block to be set to the maximum size among the plurality of sizes at the time of initial setting in the setting unit after the reception unit receives the image signal.
また、判別部は判別部がいずれの画像ブロックの画像も第1の病変部位の画像でないと判別したときに設定部に画像ブロックの画像サイズを小さくするように変えさせることが好ましい。 In addition, it is preferable that the determination unit causes the setting unit to change the image size of the image block to be small when the determination unit determines that the image of any image block is not the image of the first lesion site.
また、メモリには正常部位および第1の病変部位の複数の画像に基づいて予め算出された複数の第1の特徴量に基づいて定められた第1の特徴量の範囲が格納され、判別部は第2の算出部により算出された第1の特徴量がメモリに格納された第1の特徴量の範囲に含まれるか否かに基づいて画像ブロックの画像が正常部位および第1の病変部位の画像であるか否かを判別することが好ましい。 In addition, the memory stores a range of first feature values determined based on a plurality of first feature values calculated in advance based on a plurality of images of a normal site and a first lesion site, and a determination unit Is based on whether or not the first feature value calculated by the second calculation unit is included in the range of the first feature value stored in the memory, the image of the image block is a normal part and a first lesion part It is preferable to discriminate whether or not it is an image.
また、メモリには正常部位および第1の病変部位の複数の画像に基づいて予め算出された複数の第1の特徴量が格納され、判別部は第2の算出部により算出された第1の特徴量がメモリに格納された複数の第1の特徴量を用いた所定の分類方法により正常部位、第1の病変部位、または正常部位および第1の病変部位以外の部位であるかを分類することにより画像ブロックの画像が正常部位および第1の病変部位の画像であるか否かを判別することが好ましい。 The memory stores a plurality of first feature amounts calculated in advance based on a plurality of images of the normal site and the first lesion site, and the determination unit calculates the first feature calculated by the second calculation unit. Classifying whether a feature amount is a normal site, a first lesion site, or a site other than the normal site and the first lesion site by a predetermined classification method using a plurality of first feature values stored in a memory Accordingly, it is preferable to determine whether or not the image of the image block is an image of a normal site and a first lesion site.
また、所定の算出方法は主成分分析であって、予め受光した複数の正常部位および第1の病変部位の画像に対して算出された第1、第2の方向差の中で第1、第2の方向の第1の階級に属する度数に対して求められる第1主成分が前記第1の特徴量として算出されることが好ましい。 In addition, the predetermined calculation method is principal component analysis, and the first and second direction differences among the first and second direction differences calculated for the images of a plurality of normal sites and first lesion sites received in advance are used. It is preferable that the first principal component calculated for the frequency belonging to the first class in the direction of 2 is calculated as the first feature amount.
また、メモリは画像ブロックの画像が第1の病変部位と異なる第2の病変部位の画像である場合の前記第1の特徴量を記憶させられ、判別部は第2の算出部により算出された第1の特徴量とメモリに格納された第1の特徴量とを比較することにより画像ブロックの画像が第2の病変部位の画像であるか否かを判別することが好ましい。 The memory stores the first feature amount when the image of the image block is an image of a second lesion site different from the first lesion site, and the determination unit is calculated by the second calculation unit. It is preferable to determine whether or not the image of the image block is the image of the second lesion site by comparing the first feature amount and the first feature amount stored in the memory.
また、第1の算出部は画素信号における輝度信号成分または赤色項成分を用いて第1、第2の方向差を算出することが好ましい。 Further, it is preferable that the first calculation unit calculates the first and second direction differences using a luminance signal component or a red term component in the pixel signal.
また、選択部は画像ブロックの中心を第1の位置として基準画素を選択することが好ましい。 The selection unit preferably selects the reference pixel with the center of the image block as the first position.
本発明によれば、内視鏡により撮影された生体組織が正常部位であるか病変部位であるか、ノイズの影響を低減化させながら推定することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to estimate whether the biological tissue image | photographed with the endoscope is a normal site | part or a lesion site | part, reducing the influence of noise.
以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の第1の実施形態を適用した内視鏡画像処理システムを有する内視鏡プロセッサによって構成される内視鏡ユニットの内部構成を概略的に示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram schematically showing an internal configuration of an endoscope unit including an endoscope processor having an endoscope image processing system to which the first embodiment of the present invention is applied.
内視鏡ユニット10は、内視鏡プロセッサ20、電子内視鏡40、およびモニタ11によって構成される。内視鏡プロセッサ20は、電子内視鏡40、およびモニタ11に接続される。
The
内視鏡プロセッサ20から被写体を照明するための照明光が電子内視鏡40に供給される。照明光を照射された被写体が電子内視鏡40により撮像される。電子内視鏡40の撮像により生成する画像信号が内視鏡プロセッサ20に送られる。
Illumination light for illuminating the subject is supplied from the
内視鏡プロセッサ20では、電子内視鏡40から得られた画像信号に対して所定の信号処理が施される。所定の信号処理を施した画像信号はモニタ11に送信され、送信された画像信号に相当する画像がモニタ11に表示される。
In the
次に、内視鏡プロセッサ20の構成について説明する。内視鏡プロセッサ20には光源システム21、第1、第2の映像信号処理回路22a、22b、病変部推定回路30、SDRAM23、EEPROM24(メモリ)、およびシステムコントローラ25などが設けられる。
Next, the configuration of the
光源システム21から出射される照明光は、電子内視鏡40に設けられるライトガイド41に入射される。照明光はライトガイド41により挿入管42の先端まで伝達される。伝達された照明光は、挿入管42の先端方向の被写体に照射される。
Illumination light emitted from the
照明光が照射された被写体の反射光による光学像が、挿入管42の先端に設けられた対物レンズ(図示せず)により、撮像素子43の受光面に結像する。撮像素子43は、一定の周期、例えば、1/60秒毎に1フレームの画像信号を生成するように制御される。
An optical image of the reflected light of the subject irradiated with the illumination light is imaged on the light receiving surface of the
なお、撮像素子43の受光面には複数の画素(図示せず)が2次元状に配置される。各画素はRGBいずれかのカラーフィルタ(図示せず)によって覆われる。各画素では、カラーフィルタを透過した光成分の受光量に応じた画素信号が生成される。画像信号は、全画素において生成される画素信号によって構成される。
A plurality of pixels (not shown) are two-dimensionally arranged on the light receiving surface of the
生成された画像信号は、電子内視鏡40に設けられるA/Dコンバータ(図示せず)によりデジタル信号に変換される。デジタル信号に変換された画像信号は、第1の映像信号処理回路22aに送信される。第1の映像信号処理回路22aは、バス26を介してSDRAM23に接続される。画像信号はSDRAM23に格納される。
The generated image signal is converted into a digital signal by an A / D converter (not shown) provided in the
なお、バス26には、第2の映像信号処理回路22b、病変部推定回路30、EEPROM24も接続されており、画像信号や必要なデータがバス26を介して送信される。
Note that the second video
第1の映像信号処理回路22aはSDRAM23に格納された画像信号を読出し、読出した画像信号に対して色補間処理およびマトリックス処理を含む所定の信号処理が施される。色補間処理を施すことにより、全画素はRGB原色信号成分を有する。また、マトリックス処理によりRGB原色成分から輝度信号成分および色差信号成分が生成される。所定の信号処理が施された画像信号はSDRAM23に格納される。
The first video
第1の映像信号処理回路22aで所定の信号処理の施された画像信号は、SDRAM23から第2の映像信号処理回路22bに読出される。第2の映像信号処理回路22bでは、画像信号に対してスーパーインポーズなどの所定の信号処理が施される。所定の信号処理の施された画像信号はアナログ信号に変換され、モニタ11に出力される。
The image signal subjected to the predetermined signal processing by the first video
なお、後述するように、内視鏡プロセッサ20に設けられた病変部推定機能を実行させるときには、病変部位と推定される部位を指示する信号処理が第2の映像信号処理回路22bで付加的に施される。
As will be described later, when the lesion portion estimation function provided in the
モニタ11には、受信した画像信号に相当する画像が表示される。前述のように、撮像素子43は1/60秒毎に画像信号を生成するように駆動され、モニタ11にも1/60秒毎に画像信号が送信される。1/60秒毎に表示する画像を切換えることにより、モニタ11には動画像が表示される。
An image corresponding to the received image signal is displayed on the
前述のように、内視鏡プロセッサ20には病変部推定機能が設けられる。病変部推定機能を実行すると、後に詳述するように、モニタ11に表示した画像の中で病変部位と推定される位置が点線で囲われて表示される。
As described above, the
次に、病変部位推定回路30の構成とともに、病変部推定回路30によって実行される病変部推定機能について説明する。図2は病変部推定回路30の内部構成を示すブロック図である。病変部推定回路30は、分割回路31(設定部)、選択回路32(選択部)、輝度勾配算出回路33(第1の算出部)、ヒストグラム作成回路34(カウンタ)、正規化回路35、特徴量算出回路36(第2の算出部)、判別回路37(判別部)によって構成される。
Next, the configuration of the lesion
病変部推定機能を実行すると、分割回路31により画像ブロックが設定される。画像ブロックとは、撮影した画像を行列状に分割して得られるそれぞれの小領域である。具体的には、撮像素子43の有効撮影範囲において行列状に並ぶ複数の画素によって構成される特定の画像サイズとする複数の矩形の領域が、画像ブロックとして定められる。
When the lesion estimation function is executed, an image block is set by the dividing
なお、画像ブロックの行方向および列方向の画素数は等しくなるように定められる。また、画像ブロックの画像サイズは第1、第2、第3のサイズのいずれかに変更可能である。第1のサイズ>第2のサイズ>第3のサイズとなるように、各サイズは定められる。 The number of pixels in the row direction and the column direction of the image block is determined to be equal. The image size of the image block can be changed to any one of the first, second, and third sizes. Each size is determined such that first size> second size> third size.
分割回路31により画像ブロックが設定されると、各画像ブロックを構成する複数の画素のアドレスが画像ブロックデータとして分割回路31から選択回路32に送信される。選択回路32が画像ブロックデータを受信すると、選択回路32により単一の画像ブロックが選択される。
When the image block is set by the dividing
バス26を介してSDRAM23から、選択された単一の画像ブロック内の画素の輝度信号成分が読出される。なお、以下に説明するように、画像ブロックにおける基準画素および複数の第1〜第8の画素の輝度信号成分が読出される。読出された輝度信号成分は輝度勾配算出回路33に送信される。
The luminance signal component of the pixel in the selected single image block is read from the
図3に示すように、画像ブロックIB内の中心に位置する画素が基準画素spに定められる。また、基準画素spから上方向に向かって2画素おきに配置された画素が第1の画素p1に定められる。また、基準画素spから右方向に向かって2画素おきに配置された画素が第2の画素p2に定められる。また、基準画素spから下方向に向かって2画素おきに配置された画素が第3の画素p3に定められる。また、基準画素spから左方向に向かって2画素おきに配置された画素が第4の画素p4に定められる。 As shown in FIG. 3, the pixel located at the center in the image block IB is defined as the reference pixel sp. In addition, pixels arranged every two pixels upward from the reference pixel sp are defined as the first pixel p1. In addition, pixels arranged every two pixels from the reference pixel sp in the right direction are defined as the second pixels p2. In addition, pixels arranged every two pixels downward from the reference pixel sp are defined as third pixels p3. In addition, pixels arranged every two pixels from the reference pixel sp toward the left are defined as fourth pixels p4.
また、基準画素spから右上方向に向かって2画素おきに配置された画素が第5の画素p5に定められる。また、基準画素spから右下方向に向かって2画素おきに配置された画素が第6の画素p6に定められる。また、基準画素spから左下方向に向かって2画素おきに配置された画素が第7の画素p7に定められる。また、基準画素spから左上方向に向かって2画素おきに配置された画素が第8の画素p8に定められる。 In addition, pixels arranged every two pixels from the reference pixel sp in the upper right direction are defined as fifth pixels p5. In addition, pixels arranged every two pixels from the reference pixel sp toward the lower right are defined as the sixth pixel p6. In addition, pixels arranged every two pixels from the reference pixel sp toward the lower left are defined as the seventh pixel p7. Further, pixels arranged every two pixels from the reference pixel sp toward the upper left direction are defined as the eighth pixels p8.
上述のように、基準画素spおよび第1〜第8の画素p1〜p8における輝度信号成分が輝度勾配算出回路33に送信される。輝度勾配算出回路33では、以下に説明する第1〜第8の輝度勾配が算出される。
As described above, the luminance signal components in the reference pixel sp and the first to eighth pixels p1 to p8 are transmitted to the luminance
なお、第1の輝度勾配とは、基準画素spとすべての第1の画素p1との中の2画素であって、互いに2画素分の間隔で離れた2つの画素における輝度信号成分の差である。例えば、基準画素spから上方向に2画素分離れた位置の第1の画素p1と基準画素spとにおける輝度信号成分の差や、基準画素spから上方向に2画素分および4画素分離れた位置の2つの第1の画素p1における輝度信号成分の差である。 The first luminance gradient is a difference between luminance signal components in two pixels, which are two pixels among the reference pixel sp and all the first pixels p1, and are separated from each other by an interval of two pixels. is there. For example, the difference in luminance signal component between the first pixel p1 and the reference pixel sp at a position separated by two pixels upward from the reference pixel sp, or two pixels and four pixels separated from the reference pixel sp upward. This is the difference between the luminance signal components at the two first pixels p1 at the position.
同様に、第2の輝度勾配とは、基準画素spとすべての第2の画素p2との中の2画素であって、互いに2画素分の間隔で離れた2つの画素における輝度信号成分の差である。同様に、第3の輝度勾配とは、基準画素spとすべての第3の画素p3との中の2画素であって、互いに2画素分の間隔で離れた2つの画素における輝度信号成分の差である。同様に、第4の輝度勾配とは、基準画素spとすべての第4の画素p4との中の2画素であって、互いに2画素分の間隔で離れた2つの画素における輝度信号成分の差である。 Similarly, the second luminance gradient is a difference between luminance signal components in two pixels of the reference pixel sp and all the second pixels p2 that are separated from each other by an interval of two pixels. It is. Similarly, the third luminance gradient is a difference between luminance signal components in two pixels of the reference pixel sp and all the third pixels p3, which are separated from each other by an interval of two pixels. It is. Similarly, the fourth luminance gradient is a difference between luminance signal components in two pixels of the reference pixel sp and all the fourth pixels p4, which are separated from each other by an interval of two pixels. It is.
同様に、第5の輝度勾配とは、基準画素spとすべての第5の画素p5との中の2画素であって、互いに2画素分の間隔で離れた2つの画素における輝度信号成分の差である。同様に、第6の輝度勾配とは、基準画素spとすべての第6の画素p6との中の2画素であって、互いに2画素分の間隔で離れた2つの画素における輝度信号成分の差である。同様に、第7の輝度勾配とは、基準画素spとすべての第7の画素p7との中の2画素であって、互いに2画素分の間隔で離れた2つの画素における輝度信号成分の差である。同様に、第8の輝度勾配とは、基準画素spとすべての第8の画素p8との中の2画素であって、互いに2画素分の間隔で離れた2つの画素における輝度信号成分の差である。 Similarly, the fifth luminance gradient is the difference between the luminance signal components in two pixels of the reference pixel sp and all the fifth pixels p5 that are separated from each other by an interval of two pixels. It is. Similarly, the sixth luminance gradient is a difference between luminance signal components in two pixels of the reference pixel sp and all the sixth pixels p6 that are separated from each other by an interval of two pixels. It is. Similarly, the seventh luminance gradient is a difference between luminance signal components in two pixels of the reference pixel sp and all of the seventh pixels p7 that are separated from each other by an interval of two pixels. It is. Similarly, the eighth luminance gradient is a difference between luminance signal components in two pixels of the reference pixel sp and all the eighth pixels p8 that are separated from each other by an interval of two pixels. It is.
算出された第1〜第8の輝度勾配は、データとしてヒストグラム作成回路34に送信される。ヒストグラム作成回路34では、第1〜第8の輝度勾配毎のヒストグラムが作成される。
The calculated first to eighth luminance gradients are transmitted to the
例として、第1の輝度勾配のヒストグラムの作成について説明する。なお、輝度信号成分の信号レベルは9ビット、すなわち0〜511で表すことが可能である。ヒストグラムは、−256〜−224、−224〜−175、−174〜−125、−124〜−75、−74〜−25、−24〜24、25〜74、75〜124、125〜174、175〜224、225〜256を範囲とする第1〜第11の階級の度数がカウントされる。 As an example, creation of a histogram of the first luminance gradient will be described. The signal level of the luminance signal component can be represented by 9 bits, that is, 0 to 511. The histograms are -256 to -224, -224 to -175, -174 to -125, -124 to -75, -74 to -25, -24 to 24, 25 to 74, 75 to 124, 125 to 174, The frequencies of the first to eleventh classes in the range of 175 to 224 and 225 to 256 are counted.
カウントされた第1〜第11の階級の度数は、データとして正規化回路35に送信される。正規化回路35では、第1〜第11の階級の度数が正規化される。正規化のために、画像ブロックIBの画像サイズが分割回路31から読出され、後述する基準サイズがEEPROM24から読出される。基準サイズを画像ブロックIBの画像サイズで除した値が正規化係数として算出される。第1〜第11の階級の度数に正規化係数を乗じることにより正規化が実行される。
The counted frequencies of the first to eleventh classes are transmitted as data to the
正規化された度数が、データとして特徴量算出回路36に送信される。特徴量算出回路36では、正規化された第1の輝度勾配ヒストグラムおける第1〜第11の階級の度数fr1.1〜fr1.11〜第8の輝度勾配ヒストグラムにおける第1〜第11の階級の度数fr8.1〜fr8.11を用いて第1、第2の特徴量が算出される。
The normalized frequency is transmitted to the feature
第1、第2の特徴量を算出するために、第1、第2の関数f1(fr1.1、…、fr1.11、…fr8.1、…fr8.11)(以下、f1とする)、f2(fr1.1、…、fr1.11、…fr8.1、…、fr8.11)(以下f2とする)がEEPROM24から読出される。
In order to calculate the first and second feature amounts, the first and second functions f1 (fr1.1,..., Fr1.11,... Fr8.1,... Fr8.11) (hereinafter referred to as f1) , F2 (fr1.1,..., Fr1.11,... Fr8.1,..., Fr8.11) (hereinafter referred to as f2) are read from the
正規化された第1の輝度勾配ヒストグラムにおける第1〜第11の階級の度数fr1.1〜fr1.11〜第8の輝度勾配ヒストグラムにおける第1〜第11の階級の度数fr8.1〜8.11を第1、第2の関数f1、f2に代入することにより、第1、第2の特徴量が算出される。 The frequency fr1.1 to fr1.1 of the normalized first luminance gradient histogram fr1.1 to fr1.11 to the frequency fr8.1 to 8.11 of the eighth luminance gradient histogram. By substituting 11 into the first and second functions f1 and f2, the first and second feature quantities are calculated.
第1、第2の特徴量は、データとして判別回路37に送信される。判別回路37では、第1、第2の特徴量に基づいて、画像ブロックIB上に形成される画像が正常部位および第1〜第3の異常部位の画像であるか否かが判別される。
The first and second feature amounts are transmitted as data to the
画像ブロックIB上に形成される画像がどのような部位の画像であるか否かは、第1、第2の特徴量を2軸とする座標平面上において、算出された第1、第2の特徴量によって定められる座標に基づいて判別される。 Whether the image formed on the image block IB is an image of which part is calculated on the coordinate plane having the first and second feature amounts as two axes is calculated by the first and second calculated values. The determination is made based on the coordinates determined by the feature amount.
図4に示すように、第1の特徴量を横軸、第2の特徴量を縦軸とする2次元座標平面上において、正常領域ah、第1〜第3の病変領域a1〜a3が定められる。特徴量算出回路36で算出された第1、第2の特徴量を座標とする点を含む領域に対応する画像が、画像ブロックIB上に形成される画像と推定される。
As shown in FIG. 4, a normal area ah and first to third lesion areas a1 to a3 are defined on a two-dimensional coordinate plane having the first feature quantity as the horizontal axis and the second feature quantity as the vertical axis. It is done. An image corresponding to a region including a point having the first and second feature amounts calculated by the feature
例えば、算出された第1、第2の特徴量が正常領域ah内に位置する場合には、選択された画像ブロックIB上には正常部位の画像が形成されていると推定される。また、算出された第1、第2の特徴量が第1、第2の病変領域の2領域内に位置する場合には、選択された画像ブロックIB上には第1、第2の病変部位の画像が形成されていると推定される。 For example, when the calculated first and second feature quantities are located in the normal area ah, it is estimated that an image of a normal part is formed on the selected image block IB. In addition, when the calculated first and second feature amounts are located in two areas of the first and second lesion areas, the first and second lesion sites are displayed on the selected image block IB. Is estimated to be formed.
第1、第2の特徴量を含む領域がデータとして、SDRAM23に格納される。選択された画像ブロックIBに対する判別回路37における画像判別を終了すると、選択回路32によって画像判別の行われていない単一の画像ブロックIBが選択される。
A region including the first and second feature amounts is stored in the
選択された画像ブロックIBに対して上述と同じ処理が施され、画像判別が行われる。すべての画像ブロックIBに対して画像判別が行われると、第1〜第3の病変部位の画像が形成された画像ブロックIBがあるか否かがシステムコントローラ25(図1参照)により判別される。なお、システムコントローラ25によって、内視鏡プロセッサ10の各部位の動作が制御される。
The same processing as described above is performed on the selected image block IB, and image discrimination is performed. When image discrimination is performed for all image blocks IB, the system controller 25 (see FIG. 1) determines whether there is an image block IB on which images of the first to third lesion sites are formed. . Note that the operation of each part of the
すべての画像ブロックIBにおいて形成される画像が正常部位と推定される画像である場合には、システムコントローラ25の制御に基づいて、画像ブロックIBの画像のサイズが第2のサイズに変更される。画像サイズの変更後、第1のサイズのときと同様に、全画像ブロックIBに対する画像判別が行われる。
When the images formed in all the image blocks IB are images that are estimated to be normal parts, the image size of the image block IB is changed to the second size based on the control of the
第2のサイズを画像サイズとする画像ブロックIBにおいても、第1〜第3の病変部位と推定される画像が検出されなかった場合には、画像ブロックの画像サイズが第3のサイズに変更される。その後、第1、第2のサイズと同様に、画像判別が行われる。 Even in the image block IB having the second size as the image size, when an image estimated to be the first to third lesion sites is not detected, the image size of the image block is changed to the third size. The Thereafter, image discrimination is performed as in the first and second sizes.
画像サイズが第1のサイズまたは第2のサイズであっていずれかの画像ブロックIB上に第1〜第3の病変部位と推定される画像が形成されると、画像サイズの変更を行うことなく、対象とするフレームの画像信号に対する病変部の推定が停止される。 When the image size is the first size or the second size and an image estimated as the first to third lesion sites is formed on any one of the image blocks IB, the image size is not changed. The estimation of the lesioned part with respect to the image signal of the target frame is stopped.
病変部の推定の停止、または第3のサイズの画像ブロックIBに対する画像判別の終了後、第2の映像信号処理回路22bにおいて推定結果表示の信号処理が実行される。推定結果表示の信号処理により、第1〜第3の病変部位と推定される画像ブロックIBに対応する地域が枠線11fによって囲われる画像(図5参照)が作成される。
After the estimation of the lesioned part is stopped or the image discrimination for the image block IB having the third size is completed, the second video
なお、推定される病変部位の種類に応じて枠線の色が変えられる。例えば、第1、第2、第3の病変部位と推定される場合には、赤色、緑色、青色によって枠線が描かれる。 Note that the color of the frame line is changed according to the type of the estimated lesion site. For example, when the first, second, and third lesion sites are estimated, the border line is drawn in red, green, and blue.
病変部推定機能をOFFにするまで、全フレームの画像信号に対して上述の病変部推定処理が施される。 Until the lesion part estimation function is turned off, the above-described lesion part estimation process is performed on the image signals of all frames.
次に、EEPROM24に記憶され、病変部推定に用いられる基準サイズ、第1、第2の関数、正常領域、および第1〜第3の病変領域について説明する。
Next, the reference size, the first and second functions, the normal region, and the first to third lesion regions that are stored in the
これらのデータは実際の正常部位および第1〜第3の病変部位の画像に基づいて定められ、内視鏡プロセッサ10の製造時などにおいてEEPROM24に格納される。
These data are determined based on the images of the actual normal site and the first to third lesion sites, and are stored in the
まず、基準サイズが定められる。基準サイズは、正常部位および第1〜第3の病変部位を判別可能な適当な大きさに定められる。次に、実際の正常部位および第1〜第3の病変部位の複数の画像が採取される。 First, a reference size is determined. The reference size is set to an appropriate size that can distinguish the normal site and the first to third lesion sites. Next, a plurality of images of the actual normal site and the first to third lesion sites are collected.
なお、画像の採取は、事前に撮影した内視鏡の全体画像から医療従事者などにより画像の一部が選択され、正常部位および第1〜第3の病変部位のいずれであるかの分類により実行される。なお、選択された画像の画像サイズを基準サイズに変換される。または、画像サイズの変換を行うことなく、病変部推定機能実行時と同様に、第1〜第8のヒストグラムを形成する度数を基準サイズによって正規化してもよい。 It should be noted that the image is collected by selecting a part of the image from a whole image of the endoscope taken in advance by a medical worker or the like and classifying whether the image is a normal site or the first to third lesion sites. Executed. Note that the image size of the selected image is converted to a reference size. Alternatively, the frequency for forming the first to eighth histograms may be normalized by the reference size as in the case of executing the lesion portion estimation function without converting the image size.
採取した画像毎に、第1〜第8の輝度勾配が算出される。算出した第1〜第8の輝度勾配に基づいて、画像毎に第1〜第8の輝度勾配ヒストグラムが作成される。それぞれのヒストグラムは、画像によって傾向が異なっている。すなわち、個々のヒストグラムは異なっていても、正常部位であれば異なる画像であっても互いに同様のヒストグラムが作成される。第1〜第3の病変部位も同様である。 First to eighth luminance gradients are calculated for each collected image. Based on the calculated first to eighth luminance gradients, first to eighth luminance gradient histograms are created for each image. Each histogram has a different tendency depending on the image. That is, even if the individual histograms are different or different images are used for normal parts, similar histograms are created. The same applies to the first to third lesion sites.
例えば、図6、図7に示すように、第1、第2の輝度勾配のヒストグラムは正常部位および第1〜第3の病変部位によって異なっている。第3〜第8の輝度勾配のヒストグラムも同様に、正常部位および第1〜第3の病変部位によって異なっている。 For example, as shown in FIGS. 6 and 7, the histograms of the first and second luminance gradients differ depending on the normal site and the first to third lesion sites. Similarly, the histograms of the third to eighth luminance gradients differ depending on the normal site and the first to third lesion sites.
次に、第1〜第8の輝度勾配ヒストグラム毎の第1〜第11の階級の度数に対して主成分分析を施すことにより、正常部位、第1〜第3の病変部位の区別に適した第1、第2主成分の算出方法である第1、第2の関数f1、f2が定められる。 Next, by performing principal component analysis on the frequencies of the first to eleventh classes for each of the first to eighth luminance gradient histograms, it is suitable for distinguishing between a normal site and first to third lesion sites. First and second functions f1 and f2 which are calculation methods of the first and second principal components are determined.
すなわち、第1〜第8の輝度勾配ヒストグラム毎の第1〜第11の階級の度数を変数とした88次元(8×11)の特徴空間が、主成分分析により、正常部位、第1〜第3の病変部位の分布を表現し得る第1、第2主成分を変数として2次元の特徴空間に変換される。 That is, an 88-dimensional (8 × 11) feature space using the frequencies of the first to eleventh classes for each of the first to eighth luminance gradient histograms as variables is converted into a normal region, first to first features by principal component analysis. The first and second principal components that can represent the distribution of the three lesion sites are converted into a two-dimensional feature space.
正常部位の複数の画像および第1〜第3の病変部位の複数の画像毎に作成された第1〜第8の輝度勾配ヒストグラムに基づいて、それぞれの画像に対する第1、第2の主成分が第1、第2の特徴量として算出される。 Based on the first to eighth luminance gradient histograms created for each of the plurality of images of the normal site and the plurality of images of the first to third lesion sites, the first and second principal components for the respective images are Calculated as the first and second feature amounts.
算出された第1、第2の特徴量が、第1、第2の特徴量を2軸とする座標平面上にプロットされる(図8参照)。正常部位の画像に対応する第1、第2の特徴量を含む領域が、正常領域ahに定められる。また、第1〜第3の病変部位の画像に対応する第1、第2の特徴量を含む領域が、第1〜第3の病変領域a1〜a3に定められる。 The calculated first and second feature quantities are plotted on a coordinate plane having the first and second feature quantities as two axes (see FIG. 8). A region including the first and second feature amounts corresponding to the image of the normal part is determined as the normal region ah. In addition, regions including the first and second feature amounts corresponding to the images of the first to third lesion sites are determined as the first to third lesion regions a1 to a3.
上述のようにして定められた基準サイズ、第1、第2の関数f1、f2、正常領域ah、および第1〜第3の病変領域a1〜a3が、EEPROM24に記憶され、病変部推定機能に用いられる。
The reference size determined as described above, the first and second functions f1, f2, the normal region ah, and the first to third lesion regions a1 to a3 are stored in the
次に、第1、第2の関数、正常領域、および第1〜第3の病変領域の設定用機器(図示せず)によって実行される設定制御について、図9のフローチャートを用いて説明する。設定制御は、設定機器への開始入力により実行される。 Next, setting control executed by the first and second functions, the normal region, and the first to third lesion region setting devices (not shown) will be described with reference to the flowchart of FIG. Setting control is executed by a start input to the setting device.
ステップS100では、画像を選択する入力および分類する入力があるか否かを判別する。例えば、採取された複数の内視鏡の全体画像に対して操作者による部分的な画像を選択する入力がなされ、さらに選択された画像が正常部位および第1〜第3の病変部位のいずれであるかを分類する入力があるか否かを判別する。 In step S100, it is determined whether there is an input for selecting an image and an input for classifying. For example, an input for selecting a partial image by the operator is performed on the entire collected images of a plurality of endoscopes, and the selected image is in any one of a normal site and first to third lesion sites. It is determined whether there is an input for classifying whether there is any.
画像の選択入力および分類入力がある場合には、ステップS101に進む。入力が無い場合にはステップS101をスキップして、ステップS102に進む。 If there is an image selection input and a classification input, the process proceeds to step S101. If there is no input, step S101 is skipped and the process proceeds to step S102.
ステップS101では、選択された部分画像に対応する画像データが抽出され、抽出された画像データおよび分類された部位データが設定用機器のワーキングメモリ(図示せず)に格納される。ワーキングメモリへの格納後にステップS102に進む。 In step S101, image data corresponding to the selected partial image is extracted, and the extracted image data and classified part data are stored in a working memory (not shown) of the setting device. After storing in the working memory, the process proceeds to step S102.
ステップS102では、画像の選択終了する入力がされたか否かを判別する。選択終了されない場合には、ステップS100に戻る。以後、選択終了が入力されるまでステップS100〜ステップS102の処理を繰返す。画像の選択終了の入力がなされると、ステップS103に進む。 In step S102, it is determined whether or not an input for ending image selection has been made. If the selection is not completed, the process returns to step S100. Thereafter, the processing from step S100 to step S102 is repeated until selection end is input. When an input to end image selection is made, the process proceeds to step S103.
ステップS103では、第1〜第8の輝度勾配を入力された画像毎に算出する。輝度勾配の算出を終えると、ステップS104に進む。 In step S103, the first to eighth luminance gradients are calculated for each input image. When the calculation of the brightness gradient is finished, the process proceeds to step S104.
ステップS104では、各画像の第1〜第8の輝度勾配ヒストグラムを作成する。第1〜第8の輝度勾配ヒストグラムを作成すると、ステップS105に進む。 In step S104, first to eighth luminance gradient histograms for each image are created. When the first to eighth luminance gradient histograms are created, the process proceeds to step S105.
ステップS105では、第1〜第8の輝度勾配ヒストグラムの正規化を行う。すなわち、第1〜第8の輝度勾配ヒストグラムにおける各階級の度数に対して、基準サイズを元の画像の画像サイズで除した係数が乗じられる。正規化後、ステップS106に進む。 In step S105, normalization of the first to eighth luminance gradient histograms is performed. That is, the frequency of each class in the first to eighth luminance gradient histograms is multiplied by a coefficient obtained by dividing the reference size by the image size of the original image. After normalization, the process proceeds to step S106.
ステップS106では、各画像に対して作成された正規化された第1〜第8の輝度勾配ヒストグラムに対して主成分分析を施すことにより、第1、第2主成分を第1、第2の特徴量として算出するための第1、第2の関数f1、f2を作成する。第1、第2の関数f1、f2の作成後、ステップS107に進む。 In step S106, principal component analysis is performed on the normalized first to eighth luminance gradient histograms created for each image, whereby the first and second principal components are converted into the first and second principal components. First and second functions f1 and f2 to be calculated as feature amounts are created. After creating the first and second functions f1, f2, the process proceeds to step S107.
ステップS107では、作成した第1、第2の関数f1、f2を記録用のメモリ(図示せず)に格納する。メモリへの格納後、ステップS108に進む。 In step S107, the created first and second functions f1 and f2 are stored in a recording memory (not shown). After storing in the memory, the process proceeds to step S108.
ステップS108では、まず、S101で格納された各画像に対する第1、第2の特徴量を算出する。なお、各画像に対する第1〜第8の輝度勾配ヒストグラムにおける度数を、ステップS107で格納した第1、第2の関数f1、f2に代入することにより、各画像に対する第1、第2の特徴量が算出される。 In step S108, first, first and second feature amounts for each image stored in S101 are calculated. Note that the first and second feature amounts for each image are substituted by substituting the frequencies in the first to eighth luminance gradient histograms for each image into the first and second functions f1 and f2 stored in step S107. Is calculated.
次に、第1、第2の特徴量を軸とする2次元座標空間において、算出した各画像に対応する第1、第2の特徴量をプロットする。プロットした各画像の対応点に基づいて、正常範囲および第1〜第3の病変範囲を決定する。正常範囲および第1〜第3の病変範囲は、各画像の対応点に基づいて適切な算出方法に基づいて定められる。または、実際のプロットした各点に対して、操作者が範囲を決めてもよい。正常範囲などの決定後、ステップS109に進む。 Next, the first and second feature amounts corresponding to the calculated images are plotted in a two-dimensional coordinate space having the first and second feature amounts as axes. Based on the corresponding points of each plotted image, the normal range and the first to third lesion ranges are determined. The normal range and the first to third lesion ranges are determined based on an appropriate calculation method based on the corresponding points of each image. Alternatively, the operator may determine the range for each actually plotted point. After determining the normal range, the process proceeds to step S109.
ステップS109では、ステップS108で決定した正常範囲および第1〜第3の病変範囲を記録用のメモリに格納する。メモリへの格納後、設定制御を終了する。 In step S109, the normal range and the first to third lesion ranges determined in step S108 are stored in the recording memory. After storing in the memory, the setting control is terminated.
なお、正常範囲および第1〜第3の病変範囲の算出には、正規化されたヒストグラムが用いられている。また、正規化されたヒストグラムは、画像サイズが基準サイズである正常部位および第1〜第3の病変部位の画像のヒストグラムに等価である。 A normalized histogram is used for calculating the normal range and the first to third lesion ranges. Moreover, the normalized histogram is equivalent to the histogram of the image of the normal site and the first to third lesion sites whose image size is the reference size.
次に、病変部推定回路30によって実行される病変部推定処理について図10〜図12のフローチャートを用いて説明する。病変部推定処理は、病変部推定機能を実行が入力された状態で、1フレームの画像信号を受信するたびに開始する。
Next, the lesion part estimation process executed by the lesion
ステップS200では、画像ブロックIBの画像サイズを第1のサイズに決定する。画像サイズIBの決定後、ステップ201に進む。 In step S200, the image size of the image block IB is determined to be the first size. After the image size IB is determined, the process proceeds to step 201.
ステップS201では、ステップS200または、後に説明するステップS218で決定した画像サイズの画像ブロックIBを設定する。画像ブロックIBの設定後、ステップS202に進む。 In step S201, the image block IB having the image size determined in step S200 or step S218 described later is set. After setting the image block IB, the process proceeds to step S202.
ステップS202では、ステップS201で設定された複数の画像ブロックIBの中で、ステップS203〜ステップS213の処理が施されていない単一の画像ブロックIBを選択する。単一の画像ブロックIBの選択後、ステップS203に進む。 In step S202, a single image block IB that has not been subjected to the processing in steps S203 to S213 is selected from the plurality of image blocks IB set in step S201. After selecting a single image block IB, the process proceeds to step S203.
ステップS203では、ステップS202で選択された画像ブロックIBにおける基準画素spおよび第1〜第8の画素p1〜p8を選択する。基準画素spおよび第1〜第8の画素p1〜p8の選択後、ステップS204に進む。 In step S203, the reference pixel sp and the first to eighth pixels p1 to p8 in the image block IB selected in step S202 are selected. After selecting the reference pixel sp and the first to eighth pixels p1 to p8, the process proceeds to step S204.
ステップS204では、ステップS203において選択した基準画素spおよび第1〜第8の画素p1〜p8の輝度信号成分をSDRAM23から読出す。輝度信号成分の読出し後、ステップS205に進む。
In step S204, the luminance signal components of the reference pixel sp and the first to eighth pixels p1 to p8 selected in step S203 are read from the
ステップS205では、ステップS204で読出した輝度信号成分を用いて、第1〜第8の輝度勾配を算出する。輝度勾配の算出後、ステップS206に進む。 In step S205, the first to eighth luminance gradients are calculated using the luminance signal component read in step S204. After calculating the luminance gradient, the process proceeds to step S206.
ステップS206では、ステップS205で算出した第1〜第8の輝度勾配を用いて、第1〜第8の輝度勾配ヒストグラムを作成する。第1〜第8の輝度勾配ヒストグラムの作成後、ステップS207に進む。 In step S206, first to eighth luminance gradient histograms are created using the first to eighth luminance gradients calculated in step S205. After creating the first to eighth luminance gradient histograms, the process proceeds to step S207.
ステップS207では、ステップS206で作成した第1〜第8の輝度勾配ヒストグラムを正規化する。すなわち、第1〜第8の輝度勾配ヒストグラムにおける各階級の度数に対して、基準サイズを画像ブロックIBの画像サイズで除した正規化係数が乗じられる。ヒストグラムの正規化後、ステップS208に進む。 In step S207, the first to eighth luminance gradient histograms created in step S206 are normalized. That is, the frequency of each class in the first to eighth luminance gradient histograms is multiplied by a normalization coefficient obtained by dividing the reference size by the image size of the image block IB. After normalization of the histogram, the process proceeds to step S208.
ステップS208では、第1、第2の特徴量を算出する。すなわち、ステップS207で正規化した第1〜第8の輝度勾配ヒストグラムにおける各階級の度数を、第1、第2の関数f1、f2に代入することにより、第1、第2の特徴量が算出される。第1、第2の特徴量の算出後、ステップS209に進む。 In step S208, first and second feature amounts are calculated. That is, the first and second feature quantities are calculated by substituting the frequencies of the classes in the first to eighth luminance gradient histograms normalized in step S207 into the first and second functions f1 and f2. Is done. After calculating the first and second feature amounts, the process proceeds to step S209.
ステップS209では、ステップS208で算出された第1、第2の特徴量が正常範囲内に属するか否かを判別する。正常範囲である場合には、ステップS210〜ステップS212をスキップして、ステップS213に進む。正常範囲で無い場合には、ステップS210に進む。 In step S209, it is determined whether or not the first and second feature values calculated in step S208 belong to the normal range. If it is in the normal range, step S210 to step S212 are skipped and the process proceeds to step S213. If not in the normal range, the process proceeds to step S210.
ステップS210では、ステップS208で算出された第1、第2の特徴量が第1の病変範囲に属するか否かを判別する。第1の病変範囲である場合には、ステップS211およびステップS212をスキップして、ステップS213に進む。第1の病変範囲で無い場合には、ステップS211に進む。 In step S210, it is determined whether or not the first and second feature amounts calculated in step S208 belong to the first lesion range. If it is the first lesion range, step S211 and step S212 are skipped and the process proceeds to step S213. If it is not the first lesion range, the process proceeds to step S211.
ステップS211では、ステップS208で算出された第1、第2の特徴量が第2の病変範囲に属するか否かを判別する。第2の病変範囲である場合には、ステップS212をスキップして、ステップS213に進む。第2の病変範囲で無い場合には、ステップS212に進む。 In step S211, it is determined whether or not the first and second feature amounts calculated in step S208 belong to the second lesion range. If it is the second lesion range, step S212 is skipped and the process proceeds to step S213. If it is not the second lesion range, the process proceeds to step S212.
ステップS212では、ステップS208で算出された第1、第2の特徴量が第3の病変範囲に属するか否かを判別する。第3の病変範囲で無い場合には、ステップS213をスキップしてステップS214に進む。第3の病変範囲である場合には、ステップS213に進む。 In step S212, it is determined whether or not the first and second feature amounts calculated in step S208 belong to the third lesion range. If it is not the third lesion range, step S213 is skipped and the process proceeds to step S214. If it is the third lesion range, the process proceeds to step S213.
ステップS213では、ステップS209〜ステップS212において判別された部位に応じた部位信号を、画像ブロックの画像データに付加する。部位信号の付加後、ステップS214に進む。 In step S213, a part signal corresponding to the part determined in steps S209 to S212 is added to the image data of the image block. After adding the part signal, the process proceeds to step S214.
ステップS214では、ステップS201で設定したすべての画像ブロックIBに対して画像推定の処理を施しているか否かを判別する。すべての画像ブロックに画像推定の処理が施されていない場合には、ステップS202に戻る。以後、全画像ブロックIBに画像推定の処理が施されるまでステップS202〜ステップS214の処理を繰返す。すべての画像ブロックに画像推定の処理が施されている場合には、ステップS215に進む。 In step S214, it is determined whether or not image estimation processing has been performed on all the image blocks IB set in step S201. If image estimation processing has not been performed on all image blocks, the process returns to step S202. Thereafter, the processes in steps S202 to S214 are repeated until the image estimation process is performed on all the image blocks IB. If image estimation processing has been performed on all image blocks, the process proceeds to step S215.
ステップS215では、第1〜第3の病変部位であると推定された画像ブロックIBがあるか否かを判別する。第1〜第3の病変部位であると推定された画像ブロックがある場合には、ステップS218に進む。いずれの画像ブロックでも第1〜第3の病変部位であると推定されなかった場合には、ステップS216に進む。 In step S215, it is determined whether or not there is an image block IB estimated to be the first to third lesion sites. If there is an image block estimated to be the first to third lesion sites, the process proceeds to step S218. If none of the image blocks is estimated to be the first to third lesion sites, the process proceeds to step S216.
ステップS216では、画像ブロックIBの画像サイズが第3のサイズであるか否かを判別する。画像ブロックIBの画像サイズが第3のサイズである場合には、ステップS218に進む。画像ブロックIBの画像サイズが第3のサイズで無い場合には、ステップS217に進む。 In step S216, it is determined whether or not the image size of the image block IB is the third size. If the image size of the image block IB is the third size, the process proceeds to step S218. If the image size of the image block IB is not the third size, the process proceeds to step S217.
ステップS217では、画像ブロックIBの画像サイズを一段階小さなサイズに変更する。すなわち、画像ブロックIBの画像サイズが第1のサイズである場合には第2のサイズに変更され、画像ブロックIBの画像サイズが第2サイズである場合には第3のサイズに変更される。画像サイズの変更後、ステップ201に戻る。 In step S217, the image size of the image block IB is changed to one size smaller. That is, when the image size of the image block IB is the first size, it is changed to the second size, and when the image size of the image block IB is the second size, it is changed to the third size. After changing the image size, the process returns to step 201.
前述のように、ステップS215において第1〜第3の病変部位であると推定された画像ブロックIBがある場合、またはステップS216において画像ブロックIBの画像サイズが第3のサイズである場合にステップS218に進む。ステップS218では、第1〜第3の病変部位であると推定された画像ブロックIBの箇所に枠線11fを全体画像に重畳する画像処理を、SDRAM23に格納された画像信号に対して施す。枠線の重畳処理後、1フレームの画像信号に対して施される病変部推定処理を終了する。
As described above, when there is an image block IB estimated to be the first to third lesion sites in step S215, or when the image size of the image block IB is the third size in step S216, step S218 is performed. Proceed to In step S218, the image signal stored in the
以上のように、第1の実施形態の内視鏡画像処理システムによれば、撮影した生体内における画像に基づいて、様々な外観の病変部位があるか否かを判別可能である。 As described above, according to the endoscopic image processing system of the first embodiment, it is possible to determine whether or not there are lesion sites having various appearances based on the captured in-vivo images.
前述のように、各方向の輝度勾配ヒストグラムは、正常部位や病変部位の外観に応じて異なっている。そこで、本実施形態のように、実際の画像における各方向の輝度勾配ヒストグラムを用いた特徴量の算出方法が決められ、実際の画像に対して算出される特徴量をデータベースとして保持し、画像ブロック毎に算出した特徴量を保持されたデータベースと比較することにより、様々な外観の病変部位であるか否かが判別可能である。 As described above, the luminance gradient histogram in each direction differs depending on the appearance of a normal site or a lesion site. Therefore, as in this embodiment, a feature amount calculation method using a luminance gradient histogram in each direction in an actual image is determined, the feature amount calculated for the actual image is stored as a database, and an image block It is possible to determine whether or not the lesion site has various appearances by comparing the feature amount calculated every time with a stored database.
また、第1の実施形態では、病変部位の推定に対する画素信号に混入するノイズの影響を低下させることが可能である。一部の画素信号にはノイズが混入することがあり、ノイズの混入した画素信号を用いた輝度勾配はノイズ分の誤差を有する。しかし、本実施形態では、一部の輝度勾配にノイズ分の誤差が混入しても、多くの輝度勾配を用いて画像の判別をするので、ノイズの影響は低減化される。 Further, in the first embodiment, it is possible to reduce the influence of noise mixed in the pixel signal with respect to the estimation of the lesion site. Noise may be mixed in some pixel signals, and the luminance gradient using the pixel signal mixed with noise has an error for noise. However, in this embodiment, even if an error for noise is mixed in a part of the brightness gradient, the image is discriminated using many brightness gradients, so that the influence of noise is reduced.
また、第1の実施形態では、輝度勾配ヒストグラムの正規化を行うので、様々な大きさの画像ブロックに対して病変部位の推定を行うことが可能である。正規化が行われない場合には、正常範囲および第1〜第3の病変範囲を算出に用いた正常部位および第1〜第3の病変部位の画像の画像サイズと同じ画像サイズ以外の画像サイズの画像に対しては病変部位の推定が出来なかった。一方、本実施形態では、正規化を行うので、大きさによらず病変部位の推定が可能である。 In the first embodiment, since the luminance gradient histogram is normalized, it is possible to estimate a lesion site for image blocks of various sizes. When normalization is not performed, an image size other than the same image size as the image size of the normal region and the first to third lesion regions used in the calculation of the normal range and the first to third lesion ranges The lesion site could not be estimated for the image. On the other hand, in the present embodiment, normalization is performed, so that it is possible to estimate a lesion site regardless of the size.
次に、本発明の第2の実施形態の内視鏡画像処理システムについて説明する。第2の実施形態の内視鏡画像処理システムは、第1、第2の特徴量を用いた病変部位であるか否かの判別方法が第1の実施形態と異なる。以下、第1の実施形態と異なる点を中心に説明する。なお、第1の実施形態と同じ機能を有する部位には、同じ符号を付す。 Next, an endoscope image processing system according to a second embodiment of the present invention will be described. The endoscopic image processing system according to the second embodiment is different from the first embodiment in a method for determining whether or not a lesion site uses the first and second feature amounts. Hereinafter, a description will be given focusing on differences from the first embodiment. In addition, the same code | symbol is attached | subjected to the site | part which has the same function as 1st Embodiment.
第2の実施形態において、EEPROM240および病変部推定回路300以外の内視鏡プロセッサ20の部位の構成および機能は第1の実施形態と同じである(図13参照)。
In the second embodiment, the configuration and functions of the parts of the
第1の実施形態と異なり、EEPROM240には、正常領域および第1〜第3の病変領域の代わりに、第1、第2の関数f1、f2の決定に用いた実際の正常部位および第1〜第3の病変部位の複数の画像に対して算出される第1、第2の特徴量が格納されている。すなわち、図14に示すように、正常領域や第1〜第3の病変領域が定められることなく、正常部位や病変部位の画像に対して算出される第1、第2の特徴量が格納されている。
Unlike the first embodiment, the
第2の実施形態における病変部推定回路300の構成は、第1の実施形態と同じである(図13参照)。一方、第2の実施形態における病変部推定回路300において、判別回路370の機能のみが第1の実施形態と異なる。なお、判別回路370以外の病変部推定回路300の各部位の機能は第1の実施形態と同じである。
The configuration of the lesion
したがって、特徴量算出回路36により選択された画像ブロックIBの画像の第1、第2の特徴量がデータとして、判別回路370に送信される。判別回路370では、第1の実施形態と同様に、画像ブロックIB上に形成される画像が正常部位および第1〜第3の病変部位の画像であるか否かが判別される。
Therefore, the first and second feature amounts of the image of the image block IB selected by the feature
画像の判別のために、EEPROM240に格納された実際の正常部位や病変部位の画像に対して算出される第1、第2の特徴量が、判別回路370に読出される。判別回路370では、実際の正常部位や病変部位の画像に対して算出される第1、第2の特徴量を用いたNN法などのパターン分類方法により、算出された第1、第2の特徴量がいずれの部位に分類されるかが判別される。なお、実際の画像に対して算出される第1、第2の特徴量の集まりからの距離が一定の判別値以上に離れている場合には、分類不能としてもよい。
In order to discriminate images, the first and second feature quantities calculated for the images of actual normal sites and lesion sites stored in the
以上のような構成の第2の実施形態の内視鏡画像処理システムによっても、撮影した生体内における画像に基づいて、様々な外観の病変部位があるか否かを判別可能である。 Also with the endoscope image processing system according to the second embodiment configured as described above, it is possible to determine whether or not there are lesion sites with various appearances based on the captured in-vivo images.
なお、第1、第2の実施形態において、上下左右、右上、右下、左下、および左上の8方向における輝度勾配が算出される構成であるが、算出されるべき輝度勾配の方向はこれらの方向に限定されない。他の方向の輝度勾配であってもよい。また、算出されるべき輝度勾配の方向は8方向に限定されない。少なくとも、互いに交差する2方向または3方向以上であれば、第1、第2の実施形態と同様の効果を得ることが出来る。 In the first and second embodiments, the luminance gradients in the eight directions are calculated in the upper, lower, left, right, upper right, lower right, lower left, and upper left directions. It is not limited to the direction. It may be a luminance gradient in another direction. Further, the direction of the luminance gradient to be calculated is not limited to eight directions. The effects similar to those of the first and second embodiments can be obtained as long as at least two directions intersecting each other or three or more directions.
ただし、方向が多いほど検出精度の向上が見込まれるが、算出速度が低減化する。したがって、用いる回路の計算速度に応じて適切な方向数に定めることが好ましい。 However, the greater the number of directions, the better the detection accuracy, but the calculation speed is reduced. Therefore, it is preferable that the number of directions is determined in accordance with the calculation speed of the circuit to be used.
また、第1〜第8の輝度勾配として、2画素間隔で離れた画素同士の輝度信号成分の差が算出される構成であるが、間隔は2画素に限定されない。また、輝度勾配の方向によって画素の間隔が変わってもよい。ただし、輝度勾配の方向によって画素の間隔が変わる場合には、EEPROM24、240に格納された第1、第2の関数の算出に用いた実際の正常部位及び第1〜第3の病変部位の画像における輝度勾配の方向による画素間隔と合致させる必要がある。
Moreover, although it is the structure by which the difference of the brightness | luminance signal component of the pixels which left | separated by the 2 pixel space | interval is calculated as a 1st-8th brightness | luminance gradient, an space | interval is not limited to 2 pixels. Further, the pixel interval may be changed depending on the direction of the luminance gradient. However, when the pixel interval varies depending on the direction of the luminance gradient, the images of the actual normal site and the first to third lesion sites used for calculating the first and second functions stored in the
また、第1、第2の実施形態において、第1〜第8の輝度勾配ヒストグラムでは、輝度勾配が第1〜第11の階級に分割される構成であるが、少なくとも2以上の階級に分割されれば第1、第2の実施形態と同様の効果を得ることが可能である。 In the first and second embodiments, in the first to eighth luminance gradient histograms, the luminance gradient is divided into the first to eleventh classes, but is divided into at least two or more classes. Thus, the same effects as those of the first and second embodiments can be obtained.
また、第1、第2の実施形態において、第1、第2の特徴量が算出されるが、第1の特徴量のみが算出される構成であってもよいし、3以上の特徴量が算出される構成であってもよい。正常部位および第1〜第3の病変部位の判別が可能であれば、算出される特徴量は2つに限定されない。 In the first and second embodiments, the first and second feature amounts are calculated. However, only the first feature amount may be calculated, or three or more feature amounts may be calculated. It may be a calculated configuration. If the normal part and the first to third lesion parts can be discriminated, the calculated feature amount is not limited to two.
また、第1、第2の実施形態において、画像ブロックの画像に基づいて算出されるヒストグラムは正規化される構成であるが、正規化されなくてもよい。正規化されなくても、基準サイズの画像ブロックの画像に対しては病変部位であるか否かの推定が可能である。ただし、前述のように正規化可能であれば、どのような大きさの病変部位であっても、光学的倍率を変えることなく、病変部位の推定が可能である。 Further, in the first and second embodiments, the histogram calculated based on the image of the image block is normalized, but may not be normalized. Even if it is not normalized, it is possible to estimate whether or not the image is a lesion site with respect to the image of the image block of the reference size. However, as long as normalization is possible as described above, the lesion site can be estimated without changing the optical magnification, regardless of the size of the lesion site.
また、第1、第2の実施形態において、推定される病変部位は第1〜第3の病変部位であるが、判別可能な病変部位は3つに限定されない。1以上の病変部位であるか否かの判別が可能であればよい。 In the first and second embodiments, the estimated lesion sites are the first to third lesion sites, but the number of lesion sites that can be identified is not limited to three. It suffices if it is possible to determine whether or not there is one or more lesion sites.
また、第1、第2の実施形態において、第1、第2の特徴量は主成分分析によって算出方法が定められる構成であるが、第1〜第8の輝度勾配ヒストグラムにおける各階級の度数を変数として、これらの変数の画像毎の特徴を表現可能な特徴量を算出するいかなる公知の特徴量算出方法が用いられてもよい。 In the first and second embodiments, the calculation method for the first and second feature amounts is determined by principal component analysis. However, the frequency of each class in the first to eighth luminance gradient histograms is determined. As the variables, any known feature amount calculation method for calculating a feature amount capable of expressing the features of each variable for each image may be used.
また、第1、第2の実施形態において、画像ブロックIBの画像サイズは第1〜第3のサイズの3段階で変更可能な構成であるが、2段階以上の何段階に変更可能な構成でもよい。 In the first and second embodiments, the image size of the image block IB can be changed in three stages of the first to third sizes, but can be changed in any number of stages of two or more. Good.
また、第1、第2の実施形態において、病変部推定機能実行直後の画像ブロックIBの画像サイズは、調整可能な範囲における最大サイズである第1のサイズであるが、他のサイズを用いてもよい。ただし、第1、第2の実施形態のように、最大サイズから順番にサイズを小さくしていくことにより、最小サイズから順番に大きくしていく構成に比べて、推定にかかる時間を短縮することが可能である。 In the first and second embodiments, the image size of the image block IB immediately after execution of the lesion portion estimation function is the first size that is the maximum size in the adjustable range, but other sizes are used. Also good. However, as in the first and second embodiments, by reducing the size in order from the maximum size, the time required for estimation can be reduced compared to the configuration in which the size is increased in order from the minimum size. Is possible.
また、第1、第2の実施形態において、画像ブロックIBの画像サイズは第1〜第3のサイズの3段階で変更可能な構成であるが、変更不可能であっても病変部推定機能を実行することは可能である。 In the first and second embodiments, the image size of the image block IB can be changed in three stages of the first to third sizes. It is possible to execute.
また、第1、第2の実施形態において、画像ブロックにおける基準画素の位置は画像ブロックIBの中心に定められる構成であるが、中心に限定されない。画像ブロックIBのいかなる位置であってもよい。 In the first and second embodiments, the position of the reference pixel in the image block is determined at the center of the image block IB, but is not limited to the center. Any position of the image block IB may be used.
また、第1、第2の実施形態において、2画素間の輝度信号成分の差を輝度勾配として算出する構成であるが、輝度信号成分の代わりにR原色信号成分を用いてR原色勾配を算出して、第1〜第8の輝度勾配ヒストグラムの代わりに第1〜第8のR原色勾配に基づいて、第1、第2の特徴量を算出してもよい。R原色信号成分は、体内における凹凸情報を他の原色信号成分より多く含んでおり、輝度信号成分の代わりに使用しても十分に病変部位の推定に用いることが可能である。 In the first and second embodiments, the difference between the luminance signal components between the two pixels is calculated as the luminance gradient, but the R primary color gradient is calculated using the R primary color signal component instead of the luminance signal component. Then, the first and second feature amounts may be calculated based on the first to eighth R primary color gradients instead of the first to eighth luminance gradient histograms. The R primary color signal component contains more unevenness information in the body than the other primary color signal components, and even if it is used instead of the luminance signal component, it can be sufficiently used for estimating a lesion site.
10 内視鏡ユニット
11f 枠線
23 SDRAM
24、240 EEPROM
25 システムコントローラ
30、300 病変部推定回路
31 分割回路
32 選択回路
33 輝度勾配算出回路
34 ヒストグラム作成回路
35 正規回路
36 特徴量算出回路
37、370 判別回路
40 電子内視鏡
43 撮像素子
ah 正常領域
a1〜a3 第1〜第3の病変領域
IB 画像ブロック
sp 基準画素
p1〜p8 第1〜第8の画素
10
24, 240 EEPROM
25
Claims (14)
前記受光画像上において、複数の画像ブロックを設定する設定部と、
前記画像ブロックにおける第1の位置の前記画素を基準画素として、前記画像ブロック内に配置され前記基準画素から第1の方向に位置する複数の前記画素を第1の画素として、前記画像ブロック内に配置され前記基準画素から前記第1の方向と交差する第2の方向に位置する複数の前記画素を第2の画素として、前記画像ブロック毎に選択する選択部と、
前記基準画素と複数の前記第1の画素の中で間隔が第1の間隔である2つの画素の画素信号の差を第1の方向差として、前記基準画素と複数の前記第2の画素の中で間隔が第2の間隔である2つの画素の画素信号の差を第2の方向差として、前記画像ブロック毎に算出する第1の算出部と、
前記第1の方向差が第1の方向の第1の階級に属する度数、および前記第2の方向差が第2の方向の第1の階級に属する度数を、前記画像ブロック毎にカウントするカウンタと、
前記第1、第2の方向差それぞれが前記第1、第2の方向の第1の階級に属する度数を用いて所定の算出方法に基づいて、第1の特徴量を、前記画像ブロック毎に算出する第2の算出部と、
体内の正常部位および第1の病変部位の画像に基づいて予め算出された前記第1の特徴量を格納するメモリと、
前記第2の算出部により算出された前記第1の特徴量と前記メモリに格納された前記第1の特徴量とを比較することにより、前記画像ブロックの画像が前記正常部位および前記第1の病変部位の画像であるか否かを判別する判別部と、
前記設定部、前記選択部、前記第1、第2の算出部、前記カウンタ、および前記判別部を制御する制御部とを備え、
前記メモリに記憶させた前記第1の特徴量の算出に用いた前記正常部位および前記第1の病変部位の画像の画像サイズが基準サイズに定められており、
前記メモリに記憶させた前記第1の特徴量は、画像サイズが前記基準サイズである前記正常部位および前記第1の病変部位の画像における、前記第1、第2の方向差それぞれが前記第1、第2の方向の第1の階級に属する度数を用いて前記所定の算出方法に基づいて算出され、
前記設定部は、前記受光画像を複数のサイズのいずれかを画像サイズとする前記画像ブロックに設定可能であり、
前記第2の算出部は、前記画像ブロックの画像サイズが前記基準サイズと異なる画像サイズである場合に、前記第1の方向差が第1の方向の第1の階級に属する度数および前記第2の方向差が第2の方向の第1の階級に属する度数を、前記基準サイズおよび前記画像ブロックの画像サイズを用いて正規化し、
前記制御部は、前記判別部がいずれの画像ブロックの画像も前記第1の病変部位の画像でないと判別したときに、前記設定部に前記画像ブロックの画像サイズを変えさせ、前記選択部に前記基準画素および前記第1、第2の画素を再度選択させ、前記第1の算出部に前記第1、第2の方向差を再度算出させ、前記カウンタに前記第1、第2の方向差が第1の階級に属する度数を再度カウントさせ、前記第2の算出部に前記第1の特徴量を算出させ、前記判別部に前記画像ブロックの画像が前記正常部位および前記第1の病変部位の画像であるか否かを再度判別させる
ことを特徴とする内視鏡画像処理システム。 A receiving unit that receives an image signal constituted by pixel signals corresponding to a plurality of pixels constituting a received light image that is a received light image;
A setting unit for setting a plurality of image blocks on the received light image;
In the image block, the plurality of pixels arranged in the first direction from the reference pixel as the first pixel, the pixel at the first position in the image block as the reference pixel. A selection unit configured to select, for each image block, a plurality of the pixels located in a second direction intersecting with the first direction from the reference pixel as second pixels;
A difference between pixel signals of two pixels having a first interval among the reference pixel and the plurality of first pixels is defined as a first direction difference, and the reference pixel and the plurality of second pixels are compared. A first calculation unit that calculates, for each image block, a difference between pixel signals of two pixels having a second interval in the second direction difference;
A counter that counts, for each image block, the frequency that the first direction difference belongs to the first class in the first direction and the frequency that the second direction difference belongs to the first class in the second direction. When,
Based on a predetermined calculation method using the frequencies in which the first and second direction differences belong to the first class in the first and second directions, the first feature amount is calculated for each image block. A second calculation unit for calculating;
A memory for storing the first feature amount calculated in advance based on images of a normal site and a first lesion site in the body;
By comparing the first feature value calculated by the second calculation unit and the first feature value stored in the memory, the image of the image block is the normal part and the first feature value. A discriminator for discriminating whether the image is a lesion site;
A control unit that controls the setting unit, the selection unit, the first and second calculation units, the counter, and the determination unit;
The image size of the image of the normal site and the first lesion site used for the calculation of the first feature amount stored in the memory is determined as a reference size,
The first feature amount stored in the memory is such that the first and second direction differences in the images of the normal site and the first lesion site whose image size is the reference size are the first and second direction differences, respectively. , Calculated based on the predetermined calculation method using the frequency belonging to the first class in the second direction,
The setting unit can set the received light image to the image block having one of a plurality of sizes as an image size,
When the image size of the image block is an image size different from the reference size, the second calculation unit calculates the frequency of the first direction difference belonging to the first class in the first direction and the second Normalize the frequency belonging to the first class in the second direction using the reference size and the image size of the image block;
The control unit causes the setting unit to change the image size of the image block when the determination unit determines that the image of any image block is not the image of the first lesion site, and causes the selection unit to change the image block The reference pixel and the first and second pixels are selected again, the first calculation unit is caused to calculate the first and second direction differences again, and the counter is configured to determine the first and second direction differences. The frequency belonging to the first class is counted again, the second calculation unit is caused to calculate the first feature amount, and the image of the image block is displayed on the normal part and the first lesion part on the determination unit. An endoscopic image processing system characterized by re-determining whether or not the image is an image.
前記第2の算出部は、前記カウンタにカウントされた度数を用いて前記第1の特徴量を算出する
ことを特徴とする請求項1に記載の内視鏡画像処理システム。 It said counter includes a first different from the first class of the first direction of the first class and the different first direction of the second class to the first power of directions difference belongs, and said second direction Counting at least one of the frequencies to which the second direction difference belongs to a second class in two directions;
The endoscope image processing system according to claim 1, wherein the second calculation unit calculates the first feature amount using the frequency counted by the counter.
前記第1の算出部は、前記基準画素と複数の前記第3の画素の中で間隔が第3の間隔である2つの画素の画素信号の差を第3の方向差として、前記画像ブロック毎に算出し、
前記カウンタは、前記第3の方向差が第3の方向の第1の階級に属する度数を、前記画像ブロック毎に算出し、
前記第2の算出部は、前記第3の方向差が前記第3の方向の第1の階級に属する度数を、前記画像ブロック毎にカウントし、
前記第2の算出部は、前記カウンタにカウントされた度数を用いて前記第1の特徴量を、前記画像ブロック毎に算出する
ことを特徴とする請求項1または請求項2に記載の内視鏡画像処理システム。 The selection unit selects, for each image block, a plurality of pixels located in a third direction different from the first and second directions from the reference pixel, which are arranged in the image block, as third pixels. And
The first calculation unit determines, for each image block, a difference between pixel signals of two pixels having a third interval among the reference pixel and the plurality of third pixels as a third direction difference. To
The counter calculates, for each image block, a frequency at which the third direction difference belongs to the first class in the third direction;
The second calculation unit counts the frequency for which the third direction difference belongs to the first class in the third direction for each image block,
3. The internal view according to claim 1, wherein the second calculation unit calculates the first feature amount for each of the image blocks by using the frequency counted by the counter. Mirror image processing system.
前記メモリは、前記正常部位および前記第1の病変部位の画像に基づいて予め算出された前記第2の特徴量を格納し、
前記判別部は、前記第2の算出部により算出された前記第2の特徴量と前記メモリに格納された前記第2の特徴量とを比較することにより、前記画像ブロックの画像が前記正常部位および前記第1の病変部位の画像であるか否かを判別する
ことを特徴とする請求項2または請求項3に記載の内視鏡画像処理システム。 The second calculation unit calculates a second feature amount for each image block based on the predetermined calculation method using the frequency counted by the counter,
The memory stores the second feature amount calculated in advance based on images of the normal site and the first lesion site,
The determination unit compares the second feature amount calculated by the second calculation unit with the second feature amount stored in the memory, so that the image of the image block is the normal region. It is discriminate | determined whether it is an image of the said 1st lesion site | part. The endoscopic image processing system of Claim 2 or Claim 3 characterized by the above-mentioned.
前記メモリに記憶させた前記第1の特徴量は、画像サイズが前記基準サイズである前記正常部位および前記第1の病変部位の画像における、前記第1、第2の方向差それぞれが前記第1、第2の方向の第1の階級に属する度数を用いて前記所定の算出方法に基づいて算出され、
前記画像ブロックの画像サイズは前記基準サイズと異なる第1のサイズに定められ、
前記第2の算出部は、前記第1の方向差が第1の方向の第1の階級に属する度数および前記第2の方向差が第2の方向の第1の階級に属する度数を、前記基準サイズおよび前記第1のサイズを用いて正規化する
ことを特徴とする請求項1〜請求項4のいずれか1項に記載の内視鏡画像処理システム。 The image size of the image of the normal site and the first lesion site used for the calculation of the first feature amount stored in the memory is determined as a reference size,
The first feature amount stored in the memory is such that the first and second direction differences in the images of the normal site and the first lesion site whose image size is the reference size are the first and second direction differences, respectively. , Calculated based on the predetermined calculation method using the frequency belonging to the first class in the second direction,
The image size of the image block is set to a first size different from the reference size,
The second calculation unit calculates the frequency that the first direction difference belongs to the first class in the first direction and the frequency that the second direction difference belongs to the first class in the second direction, The endoscope image processing system according to any one of claims 1 to 4, wherein normalization is performed using a reference size and the first size.
前記判別部は、前記第2の算出部により算出された前記第1の特徴量が、前記メモリに格納された前記第1の特徴量の範囲に含まれるか否かに基づいて、前記画像ブロックの画像が前記正常部位および前記第1の病変部位の画像であるか否かを判別する
ことを特徴とする請求項1〜請求項8のいずれか1項に記載の内視鏡画像処理システム。 The memory stores a range of the first feature amount determined based on a plurality of the first feature amounts calculated in advance based on a plurality of images of the normal site and the first lesion site. And
The determining unit is configured to determine whether the first feature amount calculated by the second calculation unit is included in a range of the first feature amount stored in the memory. It is discriminate | determined whether the image of this is an image of the said normal site | part and the said 1st lesion site | part. The endoscope image processing system of any one of Claims 1-8 characterized by the above-mentioned.
前記判別部は、前記第2の算出部により算出された前記第1の特徴量が、前記メモリに格納された複数の第1の特徴量を用いた所定の分類方法により前記正常部位、前記第1の病変部位、または前記正常部位および前記第1の病変部位以外の部位であるかを分類することにより、前記画像ブロックの画像が前記正常部位および前記第1の病変部位の画像であるか否かを判別する
ことを特徴とする請求項1〜請求項8のいずれか1項に記載の内視鏡画像処理システム。 The memory stores a plurality of the first feature amounts calculated in advance based on a plurality of images of the normal site and the first lesion site,
The discriminating unit is configured such that the first feature amount calculated by the second calculation unit is the normal part, the first feature amount by a predetermined classification method using a plurality of first feature amounts stored in the memory. Whether or not the image of the image block is an image of the normal site and the first lesion site by classifying whether the site is one lesion site, or a site other than the normal site and the first lesion site The endoscope image processing system according to any one of claims 1 to 8, wherein the endoscope image processing system is determined.
前記判別部は、前記第2の算出部により算出された前記第1の特徴量と前記メモリに格納された前記第1の特徴量とを比較することにより、前記画像ブロックの画像が前記第2の病変部位の画像であるか否かを判別する
ことを特徴とする請求項1〜請求項11のいずれか1項に記載の内視鏡画像処理システム。 The memory stores the first feature amount when the image of the image block is an image of a second lesion site different from the first lesion site,
The determination unit compares the first feature amount calculated by the second calculation unit with the first feature amount stored in the memory, so that the image of the image block is the second feature amount. It is discriminate | determined whether it is an image of the lesion site | part of Claim 1. The endoscopic image processing system of any one of Claims 1-11 characterized by the above-mentioned.
The endoscope image processing system according to any one of claims 1 to 13, wherein the selection unit selects the reference pixel with the center of the image block as the first position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010181830A JP5528255B2 (en) | 2010-08-16 | 2010-08-16 | Endoscopic image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010181830A JP5528255B2 (en) | 2010-08-16 | 2010-08-16 | Endoscopic image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012040075A JP2012040075A (en) | 2012-03-01 |
JP5528255B2 true JP5528255B2 (en) | 2014-06-25 |
Family
ID=45897071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010181830A Active JP5528255B2 (en) | 2010-08-16 | 2010-08-16 | Endoscopic image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5528255B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11991478B2 (en) | 2018-07-09 | 2024-05-21 | Fujifilm Corporation | Medical image processing apparatus, medical image processing system, medical image processing method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3590415A4 (en) | 2017-03-03 | 2020-03-18 | Fujifilm Corporation | Endoscope system, processor device, and method of operating endoscope system |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3255668B2 (en) * | 1991-11-28 | 2002-02-12 | オリンパス光学工業株式会社 | Image analysis device |
JP2004188026A (en) * | 2002-12-12 | 2004-07-08 | Olympus Corp | Information processing system |
JP4652694B2 (en) * | 2004-01-08 | 2011-03-16 | オリンパス株式会社 | Image processing method |
JP4513365B2 (en) * | 2004-03-12 | 2010-07-28 | コニカミノルタエムジー株式会社 | Medical image processing apparatus and medical image processing program |
JP4891637B2 (en) * | 2006-03-14 | 2012-03-07 | オリンパスメディカルシステムズ株式会社 | Image analysis device |
JP5121204B2 (en) * | 2006-10-11 | 2013-01-16 | オリンパス株式会社 | Image processing apparatus, image processing method, and image processing program |
JP5004736B2 (en) * | 2007-09-25 | 2012-08-22 | オリンパス株式会社 | Image processing apparatus and image processing program |
JP5117353B2 (en) * | 2008-11-07 | 2013-01-16 | オリンパス株式会社 | Image processing apparatus, image processing program, and image processing method |
-
2010
- 2010-08-16 JP JP2010181830A patent/JP5528255B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11991478B2 (en) | 2018-07-09 | 2024-05-21 | Fujifilm Corporation | Medical image processing apparatus, medical image processing system, medical image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2012040075A (en) | 2012-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111295127B (en) | Examination support device, endoscope device, and recording medium | |
US20160014328A1 (en) | Image processing device, endoscope apparatus, information storage device, and image processing method | |
US9498153B2 (en) | Endoscope apparatus and shake correction processing method | |
US8855417B2 (en) | Method and device for shape extraction, and size measuring device and distance measuring device | |
US20120120305A1 (en) | Imaging apparatus, program, and focus control method | |
JP5281972B2 (en) | Imaging device | |
US20180153384A1 (en) | Image processing apparatus | |
JP2014521114A (en) | Image quality optimization for in vivo imaging | |
EP2671503A1 (en) | Image processing apparatus | |
KR20160118037A (en) | Apparatus and method for detecting lesion from medical image automatically | |
JP2014523545A (en) | Microscope system and method for in vivo imaging | |
US11503982B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium for detecting a defective pixel in an image frame | |
WO2016175098A1 (en) | Image analysis device, image analysis system, and operation method for image analysis device | |
JP5528255B2 (en) | Endoscopic image processing system | |
JP5039570B2 (en) | Display device, video display system, and display method | |
WO2022014258A1 (en) | Processor device and processor device operation method | |
US20150003742A1 (en) | Image processing device, endoscope apparatus, and image processing method | |
CN111093465B (en) | Processor for electronic endoscope and electronic endoscope system | |
US11050931B2 (en) | Control device and control method | |
JP2020181401A (en) | Image processing system, image processing method and program | |
US12100148B2 (en) | Image processing apparatus, image processing system, image processing method, and computer-readable recording medium | |
JP5557757B2 (en) | Endoscope light guide inspection system, endoscope processor, and endoscope unit | |
US20150003700A1 (en) | Image processing device, endoscope apparatus, and image processing method | |
WO2021166089A1 (en) | Evaluation assistance device, evaluation assistance system, evaluation assistance method, and program | |
JP2024524081A (en) | Depth-based automatic exposure management |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130610 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140401 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5528255 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |