JPH1014864A - Diagnosis support device - Google Patents
Diagnosis support deviceInfo
- Publication number
- JPH1014864A JPH1014864A JP15708096A JP15708096A JPH1014864A JP H1014864 A JPH1014864 A JP H1014864A JP 15708096 A JP15708096 A JP 15708096A JP 15708096 A JP15708096 A JP 15708096A JP H1014864 A JPH1014864 A JP H1014864A
- Authority
- JP
- Japan
- Prior art keywords
- image
- roi
- data
- feature
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003745 diagnosis Methods 0.000 title abstract description 91
- 230000003902 lesion Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 abstract description 169
- 210000004400 mucous membrane Anatomy 0.000 abstract description 6
- 239000006185 dispersion Substances 0.000 abstract description 2
- 201000010099 disease Diseases 0.000 abstract 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract 1
- 238000004364 calculation method Methods 0.000 description 107
- 238000010586 diagram Methods 0.000 description 96
- 238000000034 method Methods 0.000 description 78
- 238000007726 management method Methods 0.000 description 67
- 230000008569 process Effects 0.000 description 41
- 230000006870 function Effects 0.000 description 37
- 238000012937 correction Methods 0.000 description 30
- 238000007781 pre-processing Methods 0.000 description 20
- 239000013598 vector Substances 0.000 description 20
- 238000009826 distribution Methods 0.000 description 18
- 238000003672 processing method Methods 0.000 description 18
- 238000003705 background correction Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 13
- 238000005070 sampling Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 11
- 238000012986 modification Methods 0.000 description 9
- 230000004048 modification Effects 0.000 description 9
- 235000019646 color tone Nutrition 0.000 description 8
- 238000007689 inspection Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 7
- 210000004877 mucosa Anatomy 0.000 description 6
- 230000003936 working memory Effects 0.000 description 6
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000001839 endoscopy Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000008707 rearrangement Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 210000002784 stomach Anatomy 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 208000003200 Adenoma Diseases 0.000 description 1
- 206010001233 Adenoma benign Diseases 0.000 description 1
- 208000025865 Ulcer Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000002427 irreversible effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 210000002429 large intestine Anatomy 0.000 description 1
- 238000000386 microscopy Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000001187 pylorus Anatomy 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 231100000397 ulcer Toxicity 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G06F19/00—
Landscapes
- Endoscopes (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は診断支援装置、更に
詳しくは内視鏡装置による画像データを基に病変の種類
を自動的に判別分類する部分に特徴のある診断支援装置
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a diagnosis support apparatus, and more particularly, to a diagnosis support apparatus having a feature of automatically discriminating and classifying the type of a lesion based on image data from an endoscope apparatus.
【0002】[0002]
【従来の技術】近年、細長の挿入部を体腔内に挿入し、
固体撮像素子等を撮像手段に用いて体腔内臓器等をモニ
タ画面により観察し、検査あるいは診断することのでき
る内視鏡装置が広く用いられている。2. Description of the Related Art In recent years, an elongated insertion portion has been inserted into a body cavity,
2. Description of the Related Art An endoscope apparatus capable of observing an organ in a body cavity or the like on a monitor screen using a solid-state imaging device or the like as an imaging unit on a monitor screen to perform inspection or diagnosis is widely used.
【0003】また、前記体腔内臓器へ超音波を照射し、
この超音波の反射あるいは透過度等により該体腔内臓器
の状況をモニタ画面により観察し、検査あるいは診断す
ることのできる超音波内視鏡装置も広く用いられてい
る。[0003] Further, ultrasonic waves are applied to the organs in the body cavity,
Ultrasound endoscope devices that can observe or inspect or diagnose the condition of the internal organs of the body cavity on a monitor screen based on the reflection or transmittance of the ultrasonic waves are also widely used.
【0004】一方、このような内視鏡装置、超音波診断
装置等により得られた多数の画像データを管理する医療
用画像データベースを用いた画像表示装置が提案されて
いる。On the other hand, there has been proposed an image display apparatus using a medical image database for managing a large number of image data obtained by such an endoscope apparatus, an ultrasonic diagnostic apparatus and the like.
【0005】これら内視鏡装置及び超音波内視鏡装置等
で撮像した内視鏡画像を光磁気ディスク等の記録媒体に
記録し、後の診断に有効利用できるように画像ファイル
装置を接続してシステムとして使用される状況にある。[0005] Endoscope images picked up by the endoscope device and the ultrasonic endoscope device are recorded on a recording medium such as a magneto-optical disk, and an image file device is connected so that the image file device can be effectively used for later diagnosis. Is used as a system.
【0006】また、医療画像分野においては、例えば特
開平7−37056号公報に示されるように、画像ファ
イル装置に記録された画像に対しコンピュータを用い、
自動診断を行うことができる診断支援装置が提案されて
いる。In the field of medical imaging, for example, as shown in Japanese Patent Application Laid-Open No. 7-37056, a computer is used for an image recorded in an image file device.
A diagnosis support device capable of performing an automatic diagnosis has been proposed.
【0007】診断支援装置は、画像内における関心領域
(ROI)から算出された何らかの特徴量を用い、閾値
処理あるいは統計的・非統計的判別器を用いて診断対象
とする画像がどのような病変に分類されるかを医師に提
示することにより、診断の支援を行うものである。[0007] The diagnosis support apparatus uses a certain amount of feature calculated from a region of interest (ROI) in an image, and uses threshold processing or a statistical / non-statistical discriminator to determine what kind of lesion the image to be diagnosed has. The diagnosis is supported by presenting to the physician whether the classification is made.
【0008】[0008]
【発明が解決しようとする課題】しかしながら、従来の
診断支援装置においては、内視鏡画像を対象として単純
に多数の画像において設定したROIから個別に算出し
た特徴量を用いて診断支援を行う場合、必ずしも病変の
特徴に即した特徴量の算出が行われているとはいえなか
った。その理由は以下の通りである。However, in the conventional diagnosis support apparatus, diagnosis support is performed by simply using feature amounts individually calculated from ROIs set in a large number of images for an endoscope image. However, it cannot be said that the calculation of the feature amount according to the feature of the lesion is necessarily performed. The reason is as follows.
【0009】内視鏡画像においては、医師は粘膜表面に
おける色調、模様の構造パターン(テクスチャ)の規則
性・粗密度等、多くの特徴に基づき病変の発見及び診断
を行っている。In endoscopic images, doctors find and diagnose lesions based on many features such as the color tone on the mucous membrane surface, the regularity and coarse density of structural patterns (textures).
【0010】ところが、内視鏡画像においては、画像の
撮像条件のばらつきが大きい。例えば同一の病変を撮像
した場合においても、観察角度、距離等により観察光の
照射条件が画像ごとに変化するため、撮像画像における
色調が変化する場合がある。また、粘膜色の個人差等の
影響も考えられる。さらに、テクスチャにおいても観察
距離に応じて特徴が大きく変化するものである。したが
って、異なる内視鏡画像からそれぞれ算出された正常部
位及び病変部位における特徴量の値が接近し、診断支援
の妨げとなる。[0010] However, in an endoscopic image, there is a large variation in image capturing conditions. For example, even when the same lesion is imaged, the color tone in the captured image may change because the irradiation condition of the observation light changes for each image depending on the observation angle, the distance, and the like. In addition, the influence of individual differences in mucous membrane color and the like may be considered. Further, the characteristics of the texture change greatly depending on the observation distance. Therefore, the values of the feature amounts in the normal part and the lesion part calculated from the different endoscope images approach each other, and hinder the diagnosis support.
【0011】一方、病変の発見及び診断は、主として正
常粘膜と病変粘膜との前記特徴の違いに基づいている場
合が多いと考えられる。例えば1枚の内視鏡画像におけ
る正常部位と病変部位との間の何らかの特徴の相対的な
相違(例えば周辺粘膜と色調が異なる等)から病変の発
見が、該相違の種類(例えば周辺粘膜より色調が赤い
等)から診断が行われる。[0011] On the other hand, it is considered that the discovery and diagnosis of lesions are often based mainly on the difference in the characteristics between normal mucosa and lesion mucosa. For example, the discovery of a lesion from a relative difference in some characteristic between a normal part and a lesion part in one endoscopic image (for example, a color tone is different from that of the surrounding mucous membrane) determines the type of the difference (for example, Diagnosis is made based on the red color).
【0012】従来の診断支援装置においてはこの点が考
慮されておらず、複数のROIにおける相対的な特徴量
を算出することができなかった。This point is not taken into account in the conventional diagnosis support apparatus, and it has not been possible to calculate relative feature values in a plurality of ROIs.
【0013】また、内視鏡画像においては、各画素の画
像上の位置に依存する局所的な情報を有効に利用する特
徴量に対する考慮もなされていなかった。Further, in an endoscope image, no consideration has been given to a feature amount that effectively uses local information depending on the position of each pixel on the image.
【0014】さらに、内視鏡画像から特徴量を算出する
ためには、特徴量算出手法適用の前段にあたってノイズ
除去等の前処理が行われている。しかしながら、これら
の前処理手法は公知の基本的な手法を適用しているのみ
であり、内視鏡画像からの特徴量抽出のために特化した
複数の手法、さらには、必要に応じてそれらの各手法を
適切な順序及び組み合わせて使用するといった配慮がな
されていなかった。Further, in order to calculate a feature amount from an endoscope image, preprocessing such as noise removal is performed in a stage prior to application of the feature amount calculation method. However, these preprocessing methods only apply a known basic method, and a plurality of methods specialized for extracting feature amounts from an endoscope image, and further, if necessary, No consideration has been given to using the above methods in an appropriate order and combination.
【0015】本発明は、上記事情に鑑みてなされたもの
であり、撮像条件の違いによる影響の少ない特徴量の算
出、画素の画像上における位置に依存する情報を保存し
た特徴量の算出、さらには、内視鏡画像から診断に有用
な特徴量を算出するための前処理手法を提供することに
より、安定した自動診断結果を得ることのできる診断支
援装置を提供することを目的としている。The present invention has been made in view of the above circumstances, and calculates a feature amount that is less affected by differences in imaging conditions, calculates a feature amount that stores information that depends on the position of a pixel on an image, and An object of the present invention is to provide a diagnosis support apparatus that can obtain a stable automatic diagnosis result by providing a preprocessing method for calculating a feature amount useful for diagnosis from an endoscope image.
【0016】[0016]
【課題を解決するための手段】本発明の診断支援装置
は、少なくとも1つの信号からなる画像データを入力す
る画像入力手段と、入力された前記画像データを記憶す
る記憶手段と、前記記憶手段により記録された前記画像
データに対して少なくとも1つの関心領域を設定する関
心領域設定手段と、前記関心領域設定手段により設定さ
れた前記関心領域から特徴量を算出する特徴量算出手段
と、前記特徴量算出手段により算出された特徴量を用い
た病変の判別分類を行う判別分類手段とを備えて構成さ
れる。According to the present invention, there is provided a diagnosis support apparatus comprising: image input means for inputting image data comprising at least one signal; storage means for storing the input image data; A region-of-interest setting unit for setting at least one region of interest for the recorded image data; a characteristic amount calculating unit for calculating a characteristic amount from the region of interest set by the region of interest setting unit; Discriminating and classifying means for performing discrimination and classification of lesions using the feature amount calculated by the calculating means.
【0017】本発明の診断支援装置では、前記特徴量算
出手段が前記関心領域設定手段により設定された前記関
心領域から特徴量を算出し、前記判別分類手段が前記特
徴量算出手段により算出された特徴量を用いた病変の判
別分類を行うことで、撮像条件の違いによる影響の少な
い特徴量等を算出し、この特徴量を用いることにより、
安定した自動診断結果を得ることを可能とする。In the diagnosis support apparatus according to the present invention, the characteristic amount calculating means calculates a characteristic amount from the region of interest set by the region of interest setting means, and the discriminating and classifying means is calculated by the characteristic amount calculating means. By performing classification and classification of lesions using the feature amount, a feature amount or the like that is less affected by a difference in imaging conditions is calculated, and by using this feature amount,
It is possible to obtain a stable automatic diagnosis result.
【0018】[0018]
【発明の実施の形態】以下、図面を参照しながら本発明
の実施の形態について述べる。Embodiments of the present invention will be described below with reference to the drawings.
【0019】図1ないし図40は本発明の第1の実施の
形態に係わり、図1は診断支援装置の構成を示す構成
図、図2は図1の診断支援装置における診断支援処理実
行プログラムの構成を示す機能ブロック図、図3は図1
の診断支援装置におけるマルチウインドウの画面の概念
構成を示す構成図、図4は図3の画面でのアイコン操作
によって展開されるマルチウインドウ画面の構成を示す
構成図、図5は図4のマルチウインドウ画面上のウイン
ドウの構成を説明する第1の説明図、図6は図4のマル
チウインドウ画面上のウインドウの構成を説明する第2
の説明図、図7は図1の診断支援装置におけるマルチウ
インドウの画面の具体的な構成を示す構成図、図8は図
1のハードディスクに記録された内視鏡画像ファイルを
管理するファイル管理データを説明する説明図、図9は
図1のハードディスクに記録された内視鏡画像ファイル
の各内視鏡画像の内視鏡検査ごとに付与される管理デー
タを説明する説明図、図10は図7の画像表示アイコン
のクリック操作により展開される画像管理データウイン
ドウの構成を示す構成図、図11は図10の呼び出しボ
タンのクリック操作により展開される検索ウインドウの
構成を示す構成図、図12は図11の条件検索開始ボタ
ンのクリック操作により展開される検索結果表示ウイン
ドウの構成を示す構成図、図13は図12の画像一覧ボ
タンのクリック操作により展開される画像一覧表示ウィ
ンドウの構成を示す構成図、図14は図13の表示ボタ
ンのクリック操作により展開される画像表示ウインドウ
の構成を示す構成図、図15は図7の画像処理アイコン
のクリック操作により展開される画像処理ウインドウの
構成を示す構成図、図16は図15の実行ボタンのクリ
ック操作により展開される処理結果画像表示ウィンドウ
の構成を示す構成図、図17は図2のデータベース管理
ブロックが管理するデータベースの構成を示す構成図、
図18は図7のROI設定アイコンのクリック操作によ
り展開されるROI設定ウインドウの構成を示す構成
図、図19は図18の特徴量選択ボタンのクリック操作
により展開される算出特徴量メニューウインドウの構成
を示す構成図、図20は図19の一括選択ボタンのクリ
ック操作により展開される一括選択メニューウインドウ
の構成を示す構成図、図21は図18の部位設定ボタン
のクリック操作により展開される部位指定メニューウイ
ンドウの構成を示す構成図、図22は図18の特徴量算
出実行ボタンのクリック操作により展開される特徴量算
出結果表示ウインドウの構成を示す構成図、図23は図
7のROI設定アイコンによる原画像及び処理結果画像
に対するROIの設定方法を説明する説明図、図24は
図19の相互特徴量算出ボタンによる特徴量算出処理の
流れを示すフローチャート、図25は図24の特徴量算
出処理におけるG画像データから取り出すサンプリング
画素を説明する説明図、図26は図19の相互特徴量算
出ボタンのクリック操作により展開されるROI間相互
特徴量メニューウィンドウの構成を示す構成図、図27
は図26のROI間相互特徴量メニューウィンドウで算
出されるROI間相互特徴量を説明する説明図、図28
は図26のROI間相互特徴量メニューウィンドウでの
ROI間相互特徴量算出における自動組み合わせの動作
を説明するためのフローチャート、図29は図7の特徴
量算出アイコンのクリック操作により展開される特徴量
算出ウインドウの構成を示す構成図、図30は図29の
ROI指定ボタンのクリック操作により展開されるRO
I指定ウインドウの構成を示す構成図、図31は図7の
判別分類アイコンのクリック操作により展開される判別
分類ウインドウの構成を示す構成図、図32は図31の
データセット作成ボタンのクリック操作により展開され
るデータセット作成ウインドウの構成を示す構成図、図
33は図31のクラス別ROI選択ボタンのクリック操
作により展開されるクラス別ROI一覧ウインドウの構
成を示す構成図、図34は図32の既存データセット呼
び出しボタンのクリック操作により展開されるデータセ
ット一覧ウインドウの構成を示す構成図、図35は図3
1の判別分類実行ボタンのクリック操作により展開され
る判別分類実行ウインドウの構成を示す構成図、図36
は図35の実行ボタンのクリック操作により展開される
判別分類結果表示ウインドウの構成を示す構成図、図3
7は図7のレポート作成アイコンのクリック操作により
展開されるレポート作成ウインドウの構成を示す構成
図、図38は図37の選択ボタンのクリック操作により
展開される特徴量レポート作成ウインドウの構成を示す
構成図、図39は図38の表示ボタンのクリック操作に
より展開される特徴量レポート表示ウインドウの構成を
示す構成図、図40は図38のグラフ作成ボタンのクリ
ック操作により展開されるグラフ表示ウインドウの構成
を示す構成図である。FIGS. 1 to 40 relate to a first embodiment of the present invention. FIG. 1 is a block diagram showing a configuration of a diagnosis support apparatus. FIG. 2 is a diagram showing a diagnosis support processing execution program in the diagnosis support apparatus of FIG. FIG. 3 is a functional block diagram showing the configuration, and FIG.
FIG. 4 is a configuration diagram showing a conceptual configuration of a multi-window screen in the diagnosis support apparatus of FIG. 4, FIG. 4 is a configuration diagram showing a configuration of a multi-window screen developed by operating icons on the screen of FIG. 3, and FIG. FIG. 6 is a first explanatory diagram illustrating the configuration of a window on the screen, and FIG. 6 is a second explanatory diagram illustrating the configuration of a window on the multi-window screen of FIG.
FIG. 7 is a configuration diagram showing a specific configuration of a multi-window screen in the diagnosis support apparatus of FIG. 1, and FIG. 8 is file management data for managing an endoscope image file recorded on the hard disk of FIG. FIG. 9 is an explanatory diagram for explaining management data provided for each endoscopic examination of each endoscopic image of the endoscopic image file recorded on the hard disk in FIG. 1, and FIG. 7 is a configuration diagram showing a configuration of an image management data window developed by a click operation of an image display icon, FIG. 11 is a configuration diagram showing a configuration of a search window developed by a click operation of a call button in FIG. 10, and FIG. FIG. 13 is a configuration diagram showing a configuration of a search result display window expanded by a click operation of the condition search start button in FIG. 11, and FIG. 13 is a click operation of an image list button in FIG. FIG. 14 is a configuration diagram showing a configuration of an image list display window expanded by the operation of FIG. 13, FIG. 14 is a configuration diagram showing a configuration of an image display window expanded by a click operation of the display button of FIG. 13, and FIG. FIG. 16 is a configuration diagram showing a configuration of an image processing window developed by a click operation, FIG. 16 is a configuration diagram showing a configuration of a processing result image display window developed by a click operation of an execution button of FIG. 15, and FIG. 17 is a database of FIG. Configuration diagram showing the configuration of the database managed by the management block,
FIG. 18 is a configuration diagram showing a configuration of an ROI setting window expanded by a click operation of the ROI setting icon of FIG. 7, and FIG. 19 is a configuration of a calculated feature menu window expanded by a click operation of a feature selection button of FIG. FIG. 20 is a block diagram showing the configuration of a batch selection menu window developed by clicking the batch selection button in FIG. 19, and FIG. 21 is a site designation developed by clicking the site setting button in FIG. FIG. 22 is a configuration diagram showing a configuration of a menu window, FIG. 22 is a configuration diagram showing a configuration of a feature value calculation result display window developed by a click operation of a feature value calculation execution button in FIG. 18, and FIG. 23 is a diagram based on the ROI setting icon in FIG. FIG. 24 is an explanatory diagram for explaining a method of setting an ROI for an original image and a processing result image. FIG. FIG. 25 is a flowchart showing the flow of a feature amount calculation process using an output button, FIG. 25 is an explanatory diagram illustrating sampling pixels extracted from G image data in the feature amount calculation process of FIG. 24, and FIG. FIG. 27 is a configuration diagram showing the configuration of an inter-ROI mutual feature value menu window developed by operation.
FIG. 28 is an explanatory diagram for explaining the inter-ROI mutual feature calculated in the inter-ROI mutual feature menu window of FIG. 26;
26 is a flowchart for explaining the operation of automatic combination in the calculation of the inter-ROI mutual feature in the inter-ROI mutual feature menu window of FIG. 26, and FIG. 29 is a feature developed by clicking the feature amount calculation icon of FIG. FIG. 30 is a configuration diagram showing the configuration of the calculation window, and FIG. 30 is an RO diagram developed by clicking the ROI designation button in FIG.
FIG. 31 is a block diagram showing a configuration of a discrimination / classification window developed by a click operation of a discrimination / classification icon in FIG. 7, and FIG. 32 is a block diagram showing a configuration of a data set creation button in FIG. FIG. 33 is a configuration diagram showing a configuration of a data set creation window to be expanded, FIG. 33 is a configuration diagram showing a configuration of a class-specific ROI list window expanded by a click operation of a class-specific ROI selection button in FIG. 31, and FIG. FIG. 35 is a configuration diagram showing a configuration of a data set list window expanded by a click operation of an existing data set call button.
FIG. 36 is a configuration diagram showing a configuration of a discrimination / classification execution window developed by a click operation of a discrimination / classification execution button 1;
FIG. 3 is a configuration diagram showing a configuration of a discrimination / classification result display window developed by a click operation of the execution button in FIG. 35;
7 is a configuration diagram showing a configuration of a report creation window expanded by a click operation of a report creation icon in FIG. 7, and FIG. 38 is a configuration diagram showing a configuration of a feature report creation window expanded by a click operation of a selection button in FIG. FIG. 39 and FIG. 39 are configuration diagrams showing a configuration of a feature amount report display window developed by a click operation of the display button of FIG. 38. FIG. 40 is a configuration of a graph display window developed by a click operation of the graph creation button of FIG. FIG.
【0020】図1に示すように、本実施の形態の診断支
援装置1は、例えば図示しない電子内視鏡から撮像信号
を得て映像信号に変換するビデオプロセッサ2と、この
ビデオプロセッサ2からの映像信号を映し出す観察モニ
タ3と、ビデオプロセッサ2からの映像信号を画像デー
タに変換して信号処理する入力ユニット4と、入力ユニ
ット4により信号処理した画像データ及びこの画像デー
タを可逆あるいは非可逆圧縮た圧縮画像データを記憶す
るサーバユニット5と、サーバユニット5に記憶された
画像データあるいは圧縮画像データを検索して表示する
と共に、関心領域(ROI)設定処理、特徴量算出処
理、判別分類処理等の一連の診断支援処理を行うカンフ
ァレンスユニット6とを備えて構成されている。As shown in FIG. 1, a diagnosis support apparatus 1 according to the present embodiment includes, for example, a video processor 2 that obtains an image signal from an electronic endoscope (not shown) and converts it into a video signal. An observation monitor 3 for projecting a video signal, an input unit 4 for converting a video signal from the video processor 2 into image data for signal processing, image data signal-processed by the input unit 4, and lossless or irreversible compression of this image data Server unit 5 for storing the compressed image data, and searching and displaying the image data or the compressed image data stored in the server unit 5, a region of interest (ROI) setting process, a feature amount calculation process, a discrimination classification process, etc. And a conference unit 6 for performing a series of diagnosis support processes.
【0021】入力ユニット4は、ビデオプロセッサ2か
らの映像信号であるアナログRGBビデオ信号をデジタ
ル信号である画像データへ変換するA/Dコンバータ1
1と、画像データを記憶するメモリを備えビデオプロセ
ッサ2からの管理情報を付加した画像ファイルを生成す
る画像処理部12と、画像処理部12により生成された
画像ファイルをLAN(Local Area Network)ケーブル4
aを介してサーバユニット5に送出するLANコントロ
ーラ13と、ビデオプロセッサ2と画像データの管理情
報等を通信すると共に画像処理部12及びLANコント
ローラ13を制御するコントローラ14とを備えて構成
される。The input unit 4 is an A / D converter 1 for converting an analog RGB video signal as a video signal from the video processor 2 into image data as a digital signal.
1, an image processing unit 12 having a memory for storing image data and generating an image file to which management information from the video processor 2 has been added, and a LAN (Local Area Network) cable 4
a LAN controller 13 for transmitting the image data to the server unit 5 via the control unit a, and a controller 14 for communicating image data management information and the like with the video processor 2 and controlling the image processing unit 12 and the LAN controller 13.
【0022】ビデオプロセッサ2は、映像信号出力端、
アナログRGBビデオ信号出力端及び通信信号出力端を
備えており、映像信号出力端は観察モニタ3に接続さ
れ、アナログRGBビデオ信号出力端はA/Dコンバー
タ11の入力端に接続され、通信信号出力端はコントロ
ーラ14に接続されている。The video processor 2 has a video signal output terminal,
An analog RGB video signal output terminal and a communication signal output terminal are provided. The video signal output terminal is connected to the observation monitor 3, the analog RGB video signal output terminal is connected to the input terminal of the A / D converter 11, and the communication signal output terminal is connected. The end is connected to the controller 14.
【0023】また、A/Dコンバータ11の出力端は、
画像処理部12のデータ信号端に接続されている。The output terminal of the A / D converter 11 is
It is connected to the data signal end of the image processing unit 12.
【0024】コントローラ14の制御信号端及びデータ
信号端は、バスライン14aにより画像処理部12及び
LANコントローラ13との制御信号端に接続されてい
る。そしてコントローラ14による画像処理部12及び
LANコントローラ13の制御は、バスライン14aを
介した信号により行われるようになっている。A control signal terminal and a data signal terminal of the controller 14 are connected to a control signal terminal of the image processing unit 12 and the LAN controller 13 by a bus line 14a. The control of the image processing unit 12 and the LAN controller 13 by the controller 14 is performed by a signal via the bus line 14a.
【0025】ビデオプロセッサ2により映像信号に変換
された、例えば図示しない電子内視鏡による観察像は、
観察モニタ3に観察画像として映し出されるようになっ
ている。また、ビデオプロセッサ2の操作者が、前述し
た観察画像を記録する必要があると判断した場合、前述
した映像信号は、アナログRGBビデオ信号としてA/
Dコンバータ11へ出力され、このA/Dコンバータ1
1は、アナログRGBビデオ信号を所定の量子化処理を
行い、デジタルRGBビデオ信号に変換し、画像処理部
12へ観察画像データとして出力するようになってい
る。An image observed by an electronic endoscope (not shown) converted into a video signal by the video processor 2 is, for example,
The image is displayed on the observation monitor 3 as an observation image. When the operator of the video processor 2 determines that the above-described observation image needs to be recorded, the video signal described above is converted into an analog RGB video signal by A / A.
The output from the A / D converter 1
Numeral 1 performs a predetermined quantization process on an analog RGB video signal, converts the analog RGB video signal into a digital RGB video signal, and outputs the digital RGB video signal to the image processing unit 12 as observation image data.
【0026】画像処理部12は、コントローラ14の制
御により、A/Dコンバータ11から入力された観察画
像データを記憶するようになっている。The image processing section 12 stores observation image data input from the A / D converter 11 under the control of the controller 14.
【0027】コントローラ14は、画像処理部12に記
憶された観察画像データに対して縮小処理等の各種デー
タ処理を施し、さらには管理情報を付加して画像ファイ
ルとし、画像処理部12へ一旦記憶させ或いはLANコ
ントローラ13へ出力するようになっている。また、コ
ントローラ14は、前述したように各種データ処理を施
された画像ファイルを画像処理部12へ一旦記憶した場
合、該画像ファイルを所定のタイミングにより画像処理
部12からLANコントローラ13へ出力するようにな
っている。The controller 14 performs various data processing such as reduction processing on the observation image data stored in the image processing unit 12, further adds management information to form an image file, and temporarily stores the image file in the image processing unit 12. Or to the LAN controller 13. When the image file subjected to various data processing is temporarily stored in the image processing unit 12 as described above, the controller 14 outputs the image file from the image processing unit 12 to the LAN controller 13 at a predetermined timing. It has become.
【0028】サーバユニット5は、入力ユニット4のL
ANコントローラ13より送出される画像ファイルを受
け取るLANコントローラ21と、LANコントローラ
21が受け取った画像ファイルを一時的に記憶するメモ
リ22と、LANコントローラ21が受け取った画像フ
ァイルを大容量記憶媒体である例えばハードディスク2
3に記録するハードディスクドライバ24と、LANコ
ントローラ21が受け取った画像ファイルを可逆あるい
は非可逆で圧縮して圧縮画像データをハードディスクド
ライバ24に送出する圧縮装置25と、LANコントロ
ーラ21、メモリ22、ハードディスクドライバ24及
び圧縮装置25を制御するコントローラ26とを備えて
構成され、ハードディスクドライバ24は、画像ファイ
ル及び圧縮画像データをハードディスク23に記録する
と共に、LANコントローラ21は、LANケーブル5
aを介してハードディスク23に記録された画像ファイ
ルまたは圧縮画像データをカンファレンスユニット6に
送信できるようになっている。The server unit 5 has the L of the input unit 4
A LAN controller 21 for receiving an image file sent from the AN controller 13, a memory 22 for temporarily storing the image file received by the LAN controller 21, and a large-capacity storage medium for storing the image file received by the LAN controller 21; Hard disk 2
, A compression device 25 for reversibly or irreversibly compressing the image file received by the LAN controller 21 and sending the compressed image data to the hard disk driver 24, a LAN controller 21, a memory 22, and a hard disk driver. And a controller 26 for controlling the compression device 25. The hard disk driver 24 records the image file and the compressed image data on the hard disk 23, and the LAN controller 21
The image file or the compressed image data recorded on the hard disk 23 can be transmitted to the conference unit 6 via a.
【0029】入力ユニット4のLANコントローラ13
のLANケーブル4a端はサーバーユニット5のLAN
コントローラー21に接続されている。このLANケー
ブル4aは、いわゆる10baseTといわれるケーブ
ルであり、ツイストペア線を用い10Mbit/sec の双方
向のデータ通信を長さ100m以内の範囲で可能であ
り、複数の装置間の制御及びデータの送受をすることが
できるものである。The LAN controller 13 of the input unit 4
End of the LAN cable 4a is the LAN of the server unit 5.
It is connected to the controller 21. The LAN cable 4a is a so-called 10baseT cable, and is capable of performing bidirectional data communication of 10 Mbit / sec within a range of 100 m or less using a twisted pair wire, and performs control between a plurality of devices and transmission and reception of data. Is what you can do.
【0030】サーバーユニット4のコントローラ26の
制御信号端及びデータ信号端は、バスライン26aによ
りメモリ22と、LANコントローラ21と、ハードデ
ィスクドライブ24との制御信号端に接続されている。A control signal terminal and a data signal terminal of the controller 26 of the server unit 4 are connected to control signal terminals of the memory 22, the LAN controller 21, and the hard disk drive 24 by a bus line 26a.
【0031】サーバユニット5では、入力ユニット4の
LANコントローラ13からの画像ファイルをLANケ
ーブル4aを介してLANコントローラ21で入力し、
コントローラ26が、LANコントローラ21を介して
入力された画像ファイルを一旦メモリ22に記憶する。
ハードディスクドライブ24は、この画像ファイルを例
えばハードディスク23へ記憶するようになっている。In the server unit 5, the image file from the LAN controller 13 of the input unit 4 is input by the LAN controller 21 via the LAN cable 4a.
The controller 26 temporarily stores the image file input via the LAN controller 21 in the memory 22.
The hard disk drive 24 stores the image file on the hard disk 23, for example.
【0032】カンファレンスユニット6は、サーバーユ
ニット5のLANコントローラ21からの画像ファイル
または圧縮画像データをLANケーブル5aを介して受
け取るLANコントローラ31と、LANコントローラ
31が受け取った画像ファイルまたは圧縮画像データを
記憶する画像処理部32と、画像処理部32が記憶した
圧縮画像データを伸張する伸張装置33と、画像処理部
32が記憶した画像ファイル中のデジタル信号である画
像データ及び伸張装置33で伸張された画像データを逆
量子化処理し、アナログRGBビデオ信号へ変換するD
/Aコンバータ34と、D/Aコンバータ34により変
換されたアナログRGBビデオ信号を映し出す観察モニ
タ35と、画像処理部32を制御するコントローラ36
とを備えている。The conference unit 6 stores an image file or compressed image data from the LAN controller 21 of the server unit 5 via the LAN cable 5a, and stores the image file or compressed image data received by the LAN controller 31. An image processing unit 32, a decompression device 33 that decompresses the compressed image data stored by the image processing unit 32, and image data that is a digital signal in the image file stored by the image processing unit 32 and decompressed by the decompression device 33. D that performs inverse quantization on image data and converts it into an analog RGB video signal
/ A converter 34, an observation monitor 35 for displaying analog RGB video signals converted by the D / A converter 34, and a controller 36 for controlling the image processing unit 32
And
【0033】画像処理部32のデータ信号端は、D/A
コンバータ34の入力端に接続され、このD/Aコンバ
ータ34の出力端は、観察モニタ35に接続されてい
る。コントローラ36の制御信号端及びデータ信号端
は、バスライン36aにより前記画像処理部32とLA
Nコントローラ31との制御信号端に接続されている。
コントローラー36の制御信号端及びデータ信号端は、
バスライン36bにより後述のCPU41との制御信号
端に接続されている。The data signal end of the image processing unit 32 is D / A
The output terminal of the D / A converter 34 is connected to an observation monitor 35. A control signal end and a data signal end of the controller 36 are connected to the image processing unit 32 and the LA by a bus line 36a.
It is connected to a control signal terminal with the N controller 31.
The control signal end and the data signal end of the controller 36 are:
The bus line 36b is connected to a control signal terminal for a CPU 41 described later.
【0034】また、カンファレンスユニット6は、コン
トローラ36を制御するCPU41と、例えばサーバー
ユニット5への画像ファイルの検索等の要求を入力する
と共に、この画像ファイルに併せて各種の情報を入力す
るキーボード42と、このキーボード42の信号とCP
U41の信号との整合をとるキーボードインターフェー
ス(以下、キーボードI/Fと称する)43と、キーボ
ード42により入力された情報を表示する検索モニタ4
4と、検索モニタ44の画面上のカーソル座標を任意の
位置に移動させる指示を与えるマウス45と、このマウ
ス45の信号とCPU41の信号との整合をとるマウス
インターフェース(以下、マウスI/Fと称する)46
と、CPU41の実行プログラム及び検索モニタ44の
メニュー画面の画像データ等の各種データを記録したハ
ードディスク47と、このハードディスク47の信号と
CPU41との信号の整合をとるハードディスクインタ
ーフェース(以下、ハードディスクI/Fと称する)4
8と、CPU41の各種処理作業領域として用いられる
作業メモリ49と、検索モニタ44に表示するデジタル
RGBビデオ信号を記憶するメモリを含む画像処理部5
0と、CPU41からの情報を印刷するプリンタ51
と、プリンタ51とCPU41との整合をとるプリンタ
インターフェース(以下、プリンタI/Fと称する)5
2とを備えている。The conference unit 6 has a CPU 41 for controlling the controller 36 and a keyboard 42 for inputting, for example, a request for searching for an image file to the server unit 5 and for inputting various information along with the image file. And the signal of the keyboard 42 and the CP
A keyboard interface (hereinafter, referred to as a keyboard I / F) 43 for matching with the signal of U41, and a search monitor 4 for displaying information input by the keyboard 42
4, a mouse 45 for giving an instruction to move the cursor coordinates on the screen of the search monitor 44 to an arbitrary position, and a mouse interface (hereinafter referred to as a mouse I / F for matching the signal of the mouse 45 with the signal of the CPU 41). 46)
A hard disk 47 which records an execution program of the CPU 41 and various data such as image data of a menu screen of the search monitor 44; and a hard disk interface (hereinafter referred to as a hard disk I / F) for matching a signal of the hard disk 47 with a signal of the CPU 41. 4)
8, a working memory 49 used as various processing work areas of the CPU 41, and an image processing unit 5 including a memory for storing digital RGB video signals to be displayed on the search monitor 44.
0 and a printer 51 for printing information from the CPU 41
And a printer interface (hereinafter, referred to as a printer I / F) 5 for matching the printer 51 and the CPU 41.
2 is provided.
【0035】さらに、カンファレンスユニット6は、C
PU41によりキーボード42から入力された情報のう
ちパスワードを記憶するパスワード記憶部61と、パス
ワード記憶部61が記憶したパスワードのレベルを判定
するパスワード監視部62と、パスワード監視部62の
判定結果に基づいてCPU41の制御を制限する制御制
限部63とを備えている。Further, the conference unit 6
A password storage unit 61 that stores a password out of information input from the keyboard 42 by the PU 41, a password monitoring unit 62 that determines the level of the password stored in the password storage unit 61, and a password monitoring unit 62 based on the determination result. And a control restriction unit 63 for restricting the control of the CPU 41.
【0036】CPU41の制御信号端及びデータ信号端
は、バスライン41aによりハードディスクI/F4
8、マウスI/F46、キーボードI/F43、作業メ
モリ49,画像処理部50及びパスワード監視部61の
制御信号端及びデータ信号端に接続されている。そし
て、CPU41は、バスライン41aにより、ハードデ
ィスクI/F48、マウスI/F46、キーボードI/
F43、プリンタI/F52及び作業メモリ49を制御
するようになっている。The control signal end and the data signal end of the CPU 41 are connected to the hard disk I / F 4 by a bus line 41a.
8, the mouse I / F 46, the keyboard I / F 43, the working memory 49, the image processing unit 50, and the control signal terminal and the data signal terminal of the password monitoring unit 61. Then, the CPU 41 controls the hard disk I / F 48, the mouse I / F 46, and the keyboard I / F 46 via the bus line 41a.
The F43, the printer I / F 52 and the working memory 49 are controlled.
【0037】マウスI/F46は、マウス45の物理的
相対移動量に応じた信号を検出し、作業メモリ49へ出
力し、作業メモリ49は、前述した移動量を記憶するよ
うになっている。The mouse I / F 46 detects a signal corresponding to the physical relative movement amount of the mouse 45 and outputs the signal to the work memory 49. The work memory 49 stores the movement amount described above.
【0038】キーボードI/F43は、キーボード42
から入力された文字情報の信号を作業メモリ49へ出力
し、作業メモリ49は、前述した文字情報等を記憶する
ようになっている。The keyboard I / F 43 includes a keyboard 42
Is output to the working memory 49, and the working memory 49 stores the above-described character information and the like.
【0039】ハードディスクI/F48は、ハードディ
スク47からCPU41が実行するプログラム及びメニ
ュー画面等の検索モニタ44用の画像データを読み出
し、作業メモリ49へ出力し、作業メモリ49は前述し
たプログラム及び検索モニタ44用の画像データ等を記
憶するようになっている。The hard disk I / F 48 reads a program executed by the CPU 41 and image data for the search monitor 44 such as a menu screen from the hard disk 47 and outputs the read data to the work memory 49. Image data and the like are stored.
【0040】プリンタI/F52は、プリンタ51に対
してCPU41から送信される情報を伝送し印刷を行
う。The printer I / F 52 transmits information transmitted from the CPU 41 to the printer 51 and performs printing.
【0041】CPU41は、前述したようにハードディ
スク47に記憶されたプログラムを電源投入時に、作業
メモリ44にロードし該プログラムによって動作する。As described above, the CPU 41 loads the program stored in the hard disk 47 into the work memory 44 when the power is turned on, and operates according to the program.
【0042】前述したようにサーバーユニット5のハー
ドディスク23に記憶された画像ファイルは、コントロ
ーラー26の制御により、ハードディスクドライバ14
に出力されメモリ22に一旦記憶されるか或いは直接L
ANコントローラ21へ出力される。LANコントロー
ラ21からLANケーブル5aを介し、カンファレンス
ユニット6のLANコントローラ31へ画像ファイルが
入力される。As described above, the image file stored in the hard disk 23 of the server unit 5 is transferred to the hard disk driver 14 under the control of the controller 26.
And stored in the memory 22 once or directly to L
Output to the AN controller 21. An image file is input from the LAN controller 21 to the LAN controller 31 of the conference unit 6 via the LAN cable 5a.
【0043】そして、カンファレンスユニット6では、
コントローラ36の制御によりLANコントローラ31
は、画像処理部32に画像ファイルを出力する。画像処
理部32に記憶された、サーバーユニット5のハードデ
ィスク23からの画像ファイルは、コントローラ36の
制御によりデジタルの観察画像データと管理情報に分離
され、デジタル観察画像データは画像処理部32に記憶
され、管理情報はバスライン36bによりCPU41に
送られる。In the conference unit 6,
The LAN controller 31 is controlled by the controller 36.
Outputs an image file to the image processing unit 32. The image file from the hard disk 23 of the server unit 5 stored in the image processing unit 32 is separated into digital observation image data and management information under the control of the controller 36, and the digital observation image data is stored in the image processing unit 32. The management information is sent to the CPU 41 via the bus line 36b.
【0044】画像処理部32は、前述した観察画像デー
タを記憶するようになっている。前述したように画像処
理部32へ記憶されたデジタル信号である観察画像デー
タは、D/Aコンバータ34の逆量子化により、アナロ
グRGBビデオ信号へ変換され、観察モニタ35へ出力
されるようになっている。観察モニタ35は、前述した
ように入力されたアナログRGBビデオ信号を映し出す
ようになっている。尚、観察画像データが圧縮画像デー
タの場合は、伸張装置33で伸張された後にD/Aコン
バータ34に出力される。The image processing section 32 stores the above-described observation image data. As described above, the observation image data, which is a digital signal, stored in the image processing unit 32 is converted into an analog RGB video signal by the inverse quantization of the D / A converter 34, and is output to the observation monitor 35. ing. The observation monitor 35 projects the input analog RGB video signal as described above. If the observation image data is compressed image data, it is output to the D / A converter 34 after being expanded by the expansion device 33.
【0045】CPU41は、マウス45によるカーソ
ル、キーボード42による文字情報、ハードディスク4
7からのメニュー画面等の検索モニタ44用の画像デー
タと管理情報を合成或いは単独で表示するように演算処
理し、画像データとして画像処理部50へ記憶させるよ
うになっている。The CPU 41 includes a cursor by a mouse 45, character information by a keyboard 42, a hard disk 4
7 is processed so that the image data for the search monitor 44 such as the menu screen from 7 and the management information are combined or displayed alone, and are stored in the image processing unit 50 as image data.
【0046】ハードディスク23に記録されている画像
ファイルの観察画像データは、例えばカラーである観察
画像を横640ドット、縦480ドットで分割し、この
各ドットに対応じてRGB各色信号レベルを、例えば8
ビットとなるように量子化した所定のバイト数で構成さ
れるようになっている。In the observation image data of the image file recorded on the hard disk 23, for example, a color observation image is divided into 640 dots in the horizontal direction and 480 dots in the vertical direction. 8
It is composed of a predetermined number of bytes quantized to be bits.
【0047】次に、本実施の形態における診断支援処理
の詳細について説明する。診断支援処理は、ハードディ
スク47に記録された診断支援処理実行プログラムを用
い、CPU41により実行される。また、診断支援処理
は、検索モニタ44に表示されるマルチウインドウ環境
上において、キーボード42及びマウス45を用いての
入力により操作される。Next, details of the diagnosis support processing according to the present embodiment will be described. The diagnosis support processing is executed by the CPU 41 using a diagnosis support processing execution program recorded on the hard disk 47. The diagnosis support processing is operated by input using the keyboard 42 and the mouse 45 in a multi-window environment displayed on the search monitor 44.
【0048】図2に示すように、診断支援処理実行プロ
グラム70は、画像管理ブロック71、データベース管
理ブロック72、ROI設定ブロック73、特徴量算出
ブロック74、判別分類ブロック75、レポート作成ブ
ロック76及び画像処理ブロック77からなっている。As shown in FIG. 2, the diagnosis support processing execution program 70 includes an image management block 71, a database management block 72, an ROI setting block 73, a feature amount calculation block 74, a discrimination and classification block 75, a report creation block 76, and an image It consists of a processing block 77.
【0049】続いて、診断支援処理実行プログラム70
を構成する各ブロックの概要を説明する。Subsequently, the diagnosis support processing execution program 70
The outline of each block that constitutes will be described.
【0050】画像管理ブロック71は、診断支援処理に
おいて使用する内視鏡画像の管理及び検索等を行う。The image management block 71 manages and searches for endoscope images used in the diagnosis support processing.
【0051】データベース管理ブロック72は、診断支
援処理において使用する画像、設定されるROI、算出
される特徴量等を記憶及び管理するためのデータベース
を管理する。The database management block 72 manages a database for storing and managing images used in the diagnosis support processing, ROIs to be set, calculated feature amounts, and the like.
【0052】ROI設定ブロック73は、内視鏡画像上
において、特徴量の算出及び判別分類の対象とするため
のROIを設定する。The ROI setting block 73 sets an ROI on the endoscope image for calculating a characteristic amount and making a classification.
【0053】特徴量算出ブロック74は、ROI設定ブ
ロック73により設定されたROIに対して、特徴量算
出手法を適用することにより特徴量を算出する。The feature value calculation block 74 calculates a feature value by applying a feature value calculation method to the ROI set by the ROI setting block 73.
【0054】判別分類ブロック75は、特徴量算出ブロ
ック74において算出された特徴量を用いた判別分類処
理を行う。The discrimination / classification block 75 performs a discrimination / classification process using the feature amount calculated in the feature amount calculation block 74.
【0055】レポート作成ブロック76は、特徴量算出
ブロック74及び/または判別分類ブロック75により
得られた各処理結果の一覧表示及びグラフ上へのプロッ
ト等によるレポートを作成する。The report creation block 76 creates a report by displaying a list of the processing results obtained by the feature amount calculation block 74 and / or the discrimination and classification block 75 and plotting them on a graph.
【0056】また、画像処理ブロック77は、診断支援
処理に使用する原画像である内視鏡画像に対し、たとえ
ばノイズ除去処理、構造成分強調処理等の画像処理を適
用する。The image processing block 77 applies, for example, image processing such as noise removal processing and structural component enhancement processing to the endoscope image which is the original image used for the diagnosis support processing.
【0057】そして、画像処理ブロック77による処理
結果画像は、原画像と同様にサーバユニット5における
ハードディスク23に記録されるとともに、診断支援類
処理の対象データとすることができる。The processing result image by the image processing block 77 is recorded on the hard disk 23 in the server unit 5 like the original image, and can be used as data to be subjected to diagnosis support processing.
【0058】ここで、カンファレンスユニット6におい
ては、各ブロックはマルチウインドウ上でのマルチプロ
セッシングにより、並行して動作することが可能となっ
ている。Here, in the conference unit 6, each block can operate in parallel by multi-processing on a multi-window.
【0059】図3はマルチウインドウの例を説明するた
めの説明図である。当初、検索モニタ44のモニタ画面
80上には各種機能を実行するためのウインドウを開く
ためのアイコン81、82及び83が表示されている.
操作者は目的とする機能のウインドウを開くために,マ
ウス45に連動して移動するマウスポインタ84による
クリックを行う。クリックとは、マウスポインタ84を
アイコン等に重ね、マウス45のボタンを押下する動作
を示す。FIG. 3 is an explanatory diagram for explaining an example of a multi-window. Initially, icons 81, 82, and 83 for opening windows for executing various functions are displayed on the monitor screen 80 of the search monitor 44.
The operator clicks with the mouse pointer 84 that moves in conjunction with the mouse 45 in order to open the window of the target function. The click indicates an operation in which the mouse pointer 84 is overlaid on an icon or the like and the button of the mouse 45 is pressed.
【0060】マウスポインタ84によりクリックされた
アイコンは、各々に対応する機能を実行するための1つ
以上のウインドウを開く。図4は開かれたウインドウの
例を説明するための説明図であって、図3におけるアイ
コン81、82及び83は、クリックにより、図4に示
すようなウインドウ85、86及び87を検索モニタ4
4のモニタ画面80上にそれぞれ開く。The icons clicked by the mouse pointer 84 open one or more windows for executing the corresponding function. FIG. 4 is an explanatory diagram for explaining an example of an opened window. Icons 81, 82, and 83 in FIG. 3 indicate windows 85, 86, and 87 as shown in FIG.
4 on the monitor screen 80.
【0061】以後、モニタ画面80においては,マウス
ポインタ84が重ねられたウインドウ上(以下,このよ
うなウインドウをアクティブウインドウと称し、図4に
おいてはウインドウ86がアクティブウインドウであ
る)で入力等の作業が行われる。また、マウスポインタ
84の移動により任意のウインドウをアクティブウイン
ドウとして選択することが可能である。Thereafter, on the monitor screen 80, operations such as inputting on a window on which the mouse pointer 84 is superimposed (hereinafter, such a window is referred to as an active window, and a window 86 is an active window in FIG. 4). Is performed. Also, by moving the mouse pointer 84, an arbitrary window can be selected as an active window.
【0062】また、図5及び図6は上記のウインドウの
構成例を説明するための説明図であって、図5において
は、ウインドウ90は、機能の動作指定等を行うための
ボタン91、ウインドウ90に関する機能におけるシス
テム側からの出力を表示する出力表示領域92、機能に
基づく事項を選択するためのメニューバー93、メニュ
ーバー93をスクロールさせるためのスクロールバー9
4、キーボード42からの入力を表示するための入力表
示領域95及び作業を終了によりウインドウ90を閉じ
るための終了ボタン96からなっている。FIGS. 5 and 6 are explanatory diagrams for explaining an example of the configuration of the above-mentioned window. In FIG. 5, a window 90 includes a button 91 for designating the operation of a function and the like. An output display area 92 for displaying an output from the system side in a function related to 90, a menu bar 93 for selecting an item based on the function, and a scroll bar 9 for scrolling the menu bar 93
4. An input display area 95 for displaying an input from the keyboard 42 and an end button 96 for closing the window 90 when the operation is completed.
【0063】ボタン91上にマウスポインタ84を重ね
てクリックすることにより、対応する機能を動作させる
ことができる。なお、例えばボタン91を選択した場合
に新たな別のウインドウ(図示せず)が開くように制御
することも可能である。When the mouse pointer 84 is overlaid on the button 91 and clicked, a corresponding function can be operated. It is also possible to control so that another new window (not shown) is opened when the button 91 is selected, for example.
【0064】出力表示領域92においては、例えばテキ
スト、数値データ等のメッセージをシステム側から表示
する。In the output display area 92, messages such as texts and numerical data are displayed from the system side.
【0065】キーボード42から何らかの入力が行われ
る場合には、入力情報を入力表示領域95に表示するこ
とができる。When any input is made from the keyboard 42, the input information can be displayed in the input display area 95.
【0066】すべての作業が終了した場合には、終了ボ
タン96にマウスポインタ84を重ねてクリックするこ
とにより、ウインドウ90を閉じることができる。When all the operations are completed, the window 90 can be closed by placing the mouse pointer 84 on the end button 96 and clicking on it.
【0067】メニューバー93においては、各事項を指
すバー(図5において1、2、3、…の番号付けされた
部分)にマウスポインタ84を重ねてクリックすること
により、希望するものを選択することができる。その
際,クリックされたバーは反転表示等の動作が適用さ
れ、いずれが指定されたものかを操作者に知らせること
ができるようになっている。In the menu bar 93, a desired one is selected by superimposing the mouse pointer 84 on a bar (the part numbered 1, 2, 3,... In FIG. 5) indicating each item and clicking. be able to. At this time, an operation such as reverse display is applied to the clicked bar, so that the operator can be notified of which is specified.
【0068】また、メニューバー93の表示範囲に対し
て、選択できる事項の数が大である場合(図5の例にお
いては,例えば事項が10ある場合等)においては、ス
クロールバー94を使用することができる。すなわち、
マウスポインタ84をスクロールバー94の上方スクロ
ールボタン94aに重ねマウス45のボタンを押下する
とメニューバー93が上方へ、スクロールバー94の下
方スクロールボタン94bに重ねて押下した場合には下
方へとスクロールする。図5の例においては、下方スク
ロールボタン94bを使用することにより、事項6以降
を表示・選択することが可能となる。When the number of selectable items is large with respect to the display range of the menu bar 93 (in the example of FIG. 5, for example, when there are ten items), the scroll bar 94 is used. be able to. That is,
When the mouse pointer 84 is overlaid on the upper scroll button 94a of the scroll bar 94 and the button of the mouse 45 is pressed, the menu bar 93 is scrolled upward, and when pressed over the lower scroll button 94b of the scroll bar 94, the menu bar 93 is scrolled downward. In the example of FIG. 5, it is possible to display and select item 6 and subsequent items by using the downward scroll button 94b.
【0069】スクロールポインタ94cは、全事項中に
おいてスクロールバー94のおよそどの部分をメニュー
バー93に表示しているかを知るための目安を示してい
る。The scroll pointer 94c is a guide for knowing which part of the scroll bar 94 is displayed on the menu bar 93 in all items.
【0070】また、図6に示すように、メニューバーの
項目を2次元的に配置し、水平方向へのスクロールを行
うスクロールバーを備えることも可能である。すなわ
ち、図6において、ウインドウ100は項目が2次元に
配置されたメニューバー101と、垂直方向へのスクロ
ールを行うスクロールバー102及び水平方向へのスク
ロールを行うスクロールバー103からなっている。As shown in FIG. 6, it is also possible to arrange a menu bar item in a two-dimensional manner and provide a scroll bar for scrolling in the horizontal direction. That is, in FIG. 6, the window 100 includes a menu bar 101 in which items are arranged two-dimensionally, a scroll bar 102 for scrolling vertically and a scroll bar 103 for scrolling horizontally.
【0071】操作者は、図5のスクロールバー94に対
する操作と同様にして、水平及び垂直方向にメニューウ
インドウ100をスクロールさせることにより、任意の
項目を選択することが可能となる。The operator can select any item by scrolling the menu window 100 in the horizontal and vertical directions in the same manner as the operation on the scroll bar 94 in FIG.
【0072】本実施の形態におけるウインドウは、以上
に説明したように動作するボタン、メニューバー、スク
ロールバー、出力表示領域及び入力表示領域を任意の大
きさ及び個数で構成している。なお、以下の説明におい
て、特に断りのない場合は、終了ボタンをクリックする
と、該当するウインドウを閉じるよう動作するものとす
る。The window according to the present embodiment has buttons, menu bars, scroll bars, output display areas, and input display areas of any size and number, which operate as described above. In the following description, unless otherwise specified, it is assumed that when the end button is clicked, the corresponding window is closed.
【0073】図7は本実施の形態における診断支援処理
の各機能の呼び出し動作を説明するための説明図であ
る。FIG. 7 is an explanatory diagram for explaining the calling operation of each function of the diagnosis support processing according to the present embodiment.
【0074】初めに、検索モニタ44上において、診断
支援処理のメインメニューとなるアイコンが配置された
メイン画面110が表示される。このメイン画面110
は、画像表示機能を呼び出す画像表示アイコン111、
データベースカスタマイズ機能を呼び出すデータベース
アイコン112、ROI設定機能を呼び出すROI設定
アイコン113、特徴量算出機能を呼び出す特徴量算出
アイコン114、判別分類機能を呼び出す判別分類アイ
コン115、レポート作成機能を呼び出すレポート作成
アイコン116及び画像処理機能を呼び出す画像処理ア
イコン117からなっている.上記のアイコン111〜
117により実行される各機能は、診断支援処理実行プ
ログラムにおいては、図2に示したように、画像表示機
能は画像管理ブロック71が、データベースカスタマイ
ズ機能はデータベース管理ブロック72が、ROI設定
機能はROI設定ブロック73が、特徴量算出機能は特
徴量算出ブロック74が、判別分類機能は判別分類ブロ
ック75が、レポート作成機能はレポート作成ブロック
76が、画像処理機能は画像処理ブロック77がそれぞ
れ動作する。First, on the search monitor 44, a main screen 110 on which icons serving as a main menu of the diagnosis support processing are arranged is displayed. This main screen 110
Is an image display icon 111 for calling an image display function,
Database icon 112 for calling the database customization function, ROI setting icon 113 for calling the ROI setting function, feature amount calculation icon 114 for calling the feature amount calculation function, discrimination classification icon 115 for calling the discrimination classification function, report creation icon 116 for calling the report creation function And an image processing icon 117 for calling an image processing function. The above icons 111-
In the diagnosis support processing execution program, the functions executed by the 117 are the image management block 71 for the image display function, the database management block 72 for the database customization function, and the ROI setting function for the ROI setting function, as shown in FIG. The setting block 73 operates the feature amount calculation block 74 for the feature amount calculation function, the discrimination and classification block 75 for the discrimination and classification function, the report creation block 76 for the report creation function, and the image processing block 77 for the image processing function.
【0075】なお、各機能はマルチプロセッシングによ
り並行して動作可能である。また、各機能においては動
作内容ごとのサブルーチン化がなされており、必要に応
じて異なる機能から任意のサブルーチンを呼び出すこと
が可能となっている。Each function can be operated in parallel by multiprocessing. In addition, each function has a subroutine for each operation, and an arbitrary subroutine can be called from a different function as needed.
【0076】次に、診断支援処理実行プログラムにおけ
る各ブロックの動作の詳細について説明する。Next, the operation of each block in the diagnosis support processing execution program will be described in detail.
【0077】(画像管理ブロック)画像管理ブロック7
1は、前述の通り、主として診断支援処理において使用
する内視鏡画像の管理及び検索を行うものである。サー
バユニット5のハードディスク23に記録された内視鏡
画像ファイルは、対象となる患者の内視鏡検査ごとに管
理される。(Image management block) Image management block 7
As described above, reference numeral 1 mainly manages and searches for an endoscope image used in the diagnosis support processing. The endoscope image file recorded on the hard disk 23 of the server unit 5 is managed for each endoscopic examination of a target patient.
【0078】図8に示すように、ハードディスク23に
記録された内視鏡画像ファイルは、ファイル管理データ
により患者ID及び検査年月日(及び患者名)ごとに管
理されることとなり、各内視鏡検査単位に番号付けがな
されている。検査No.は検査ごとに、また患者IDは
各患者ごとに設定されるため、重複が生ずることはな
い。As shown in FIG. 8, the endoscope image file recorded on the hard disk 23 is managed for each patient ID and examination date (and patient name) by file management data. Numbers are assigned to the units for microscopy. Inspection No. Is set for each examination and the patient ID is set for each patient, so that there is no duplication.
【0079】また、図9は内視鏡画像ファイルの各内視
鏡画像の内視鏡検査ごとに付与される管理データを説明
するための説明図であって、この例においては、検査N
o.1として管理される内視鏡画像データは7枚である
ものとする。管理データとしては、前述の患者ID、患
者名及び検査年月日の他に、例えば検査部位、診断名、
メモ及び担当医等のデータを含むことができる。これら
のデータは、ハードディスク23に記録され、後述する
画像検索処理におけるキーとして使用される。FIG. 9 is an explanatory diagram for explaining management data provided for each endoscopic examination of each endoscope image in the endoscope image file. In this example, examination N
o. It is assumed that seven pieces of endoscope image data are managed as 1. As the management data, in addition to the above-mentioned patient ID, patient name, and examination date, for example, examination site, diagnosis name,
It can include data such as notes and attending physicians. These data are recorded on the hard disk 23 and used as keys in an image search process described later.
【0080】画像表示アイコン111をマウスポインタ
84で選択する(図7参照)ことで、画像管理ブロック
71は、図10に示すような画像管理データウインドウ
120を開く。画像管理ウィンドウ120は各種データ
を入力するための入力表示領域121と、すでに与えら
れている管理データを再編集する場合に使用する呼び出
しボタン122及び終了ボタン123からなっている。By selecting the image display icon 111 with the mouse pointer 84 (see FIG. 7), the image management block 71 opens an image management data window 120 as shown in FIG. The image management window 120 includes an input display area 121 for inputting various data, a call button 122 and an end button 123 used when re-editing management data that has already been given.
【0081】操作者はマウスポインタ84を希望する管
理データの入力欄に重ね、キーボード42より必要な情
報を入力する。また、検査No.のみを入力し、呼び出
しボタン122をクリックした場合には、対応する内視
鏡検査の管理データを入力表示領域121に各々表示す
る。管理データ呼び出し後は、操作者が所望の管理デー
タを編集することができる。The operator places the mouse pointer 84 on the input field of the desired management data and inputs necessary information from the keyboard 42. Inspection No. If only the input button 122 is clicked and the call button 122 is clicked, the management data of the corresponding endoscopy is displayed in the input display area 121. After the management data is called, the operator can edit desired management data.
【0082】図10において、呼び出しボタン122を
マウス45でクリックすると、検索処理が実行される。
この検索処理においては、図11に示すように、まず検
索ウインドウ130を開く。検索ウインドウ130は検
索キーを入力するための入力表示領域131と、入力し
た検索キーを用いた条件検索の開始を指定する条件検索
開始ボタン132と、全内視鏡検査データを表示する全
検索の開始を指定する全検索開始ボタン133及び終了
ボタン134から構成されている.なお、この例におい
ては、検索キーとして患者ID、患者名、検査部位及び
診断名が使用可能であるものとする。In FIG. 10, when the call button 122 is clicked with the mouse 45, a search process is executed.
In this search processing, a search window 130 is first opened as shown in FIG. The search window 130 includes an input display area 131 for inputting a search key, a condition search start button 132 for designating start of a condition search using the input search key, and a full search for displaying all endoscopy data. It consists of an all search start button 133 and an end button 134 for designating the start. In this example, it is assumed that a patient ID, a patient name, an examination site, and a diagnosis name can be used as search keys.
【0083】検索処理において全検索を行う場合、操作
者は全検索ボタン133をマウス45でクリックする。
また、条件検索を行う場合、操作者は入力表示領域13
1に所望のキーをキーボード42を用いて入力し、条件
検索開始ボタン132をマウス45でクリックする。When performing an all search in the search process, the operator clicks the all search button 133 with the mouse 45.
Further, when performing a condition search, the operator is required to enter the input display area 13.
The user inputs a desired key to the number 1 using the keyboard 42, and clicks the condition search start button 132 with the mouse 45.
【0084】これらの操作により検索が実行されるが、
検索結果として得られた内視鏡検査データが存在する場
合には、図12に示すような新たに検索結果表示ウイン
ドウ140を開き、検索結果を表示する。A search is executed by these operations.
If there is endoscopic examination data obtained as a search result, a new search result display window 140 as shown in FIG. 12 is opened to display the search result.
【0085】検索結果表示ウインドウ140は、検索結
果である内視鏡検査データの管理データ(この例では検
査No.、患者ID、患者名及び検査年月日)を表示す
るメニューバー141と、スクロールバー142と、所
望の内視鏡検査において記録した内視鏡画像の一覧表示
を指定するための画像一覧ボタン143と、後述する各
処理において内視鏡検査を選択する際に使用する確定ボ
タン144及び終了ボタン145からなっている.操作
者がメニューバー141のクリックにより所望の内視鏡
検査を指定後、さらに画像一覧ボタン143をクリック
すると、該当する内視鏡検査において記録された内視鏡
画像が一覧表示される図13に示すような画像一覧表示
ウィンドウ150が開かれる。A search result display window 140 includes a menu bar 141 for displaying management data (in this example, an examination number, a patient ID, a patient name, and an examination date) of the endoscopic examination data as a search result, and a scroll bar. A bar 142, an image list button 143 for designating a list display of endoscopic images recorded in a desired endoscopic examination, and a confirm button 144 used when selecting an endoscopic examination in each process described later. And an end button 145. After the operator designates a desired endoscopic examination by clicking on the menu bar 141, and further clicks the image list button 143, a list of endoscopic images recorded in the corresponding endoscopic examination is displayed in FIG. An image list display window 150 as shown is opened.
【0086】なお、検索結果ウィンドウ140において
表示された内視鏡検査に基づいて記録されている内視鏡
画像に対しては、後述する内視鏡画像の表示、画像処
理、ROIの設定及び特徴量算出、判別分類等の各処理
が適用されることとなる。For the endoscopic image recorded based on the endoscopic examination displayed in the search result window 140, the display of the endoscopic image, image processing, setting of the ROI, and features described later are performed. Each process such as the amount calculation and the classification is applied.
【0087】画像一覧表示ウィンドウ150は、図13
に示すように、内視鏡検査データにおける管理データ及
び記録された内視鏡画像の枚数等を表示するためのデー
タ表示領域151と、記録された内視鏡画像ごとに付与
された画像No.等を表示することにより所望の内視鏡
画像を指定することができるメニューバー152と、ス
クロールバー153と、メニューバー152上でクリッ
クにより選択した内視鏡画像の表示を開始するための表
示開始ボタン154及び終了ボタン155からなってい
る。The image list display window 150 is shown in FIG.
As shown in the figure, a data display area 151 for displaying management data in the endoscopic examination data and the number of recorded endoscope images, and the like, and an image No. assigned to each recorded endoscope image. And the like, a menu bar 152, a scroll bar 153, and a display start for starting display of an endoscopic image selected by clicking on the menu bar 152, by specifying a desired endoscopic image by displaying the same. It comprises a button 154 and an end button 155.
【0088】操作者がメニューバー152の任意の項目
(ここでは内視鏡画像)をクリックにより選択した後、
表示ボタン154をクリックすることにより、選択され
た内視鏡画像を表示する図14に示すような画像表示ウ
インドウ160が開かれる。After the operator clicks and selects an arbitrary item (here, an endoscope image) on the menu bar 152,
By clicking the display button 154, an image display window 160 for displaying the selected endoscope image as shown in FIG. 14 is opened.
【0089】画像表示ウィンドウ160は、図14に示
すように、画像表示領域161と、管理データ等を表示
するためのデータ表示領域162と、後述するROI設
定処理等において画像選択等に使用される確定ボタン1
63及び終了ボタン164からなっている。As shown in FIG. 14, the image display window 160 is used for image selection and the like in an image display area 161, a data display area 162 for displaying management data and the like, and an ROI setting process described later. Confirm button 1
63 and an end button 164.
【0090】操作者は、画像表示ウィンドウ160上に
表示された内視鏡画像を見ることにより、最終的な検索
結果が所望する内視鏡画像であるか否かを確認すること
ができる。The operator can check whether the final search result is a desired endoscope image by looking at the endoscope image displayed on the image display window 160.
【0091】そして、図10の画像管理データウインド
ウ120上でのすべての作業が終了した場合には、終了
ボタン123をマウス45でクリックすることにより画
像管理データウインドウ120が閉じられる。When all the operations on the image management data window 120 shown in FIG. 10 have been completed, the image management data window 120 is closed by clicking the end button 123 with the mouse 45.
【0092】なお、図13において表示ボタン154が
クリックされた場合には、画像表示ウインドウ160が
開かれるとともに,選択された内視鏡画像が観察モニタ
35上に表示されるように制御してもよい。When the display button 154 is clicked in FIG. 13, the image display window 160 is opened and the control is performed so that the selected endoscope image is displayed on the observation monitor 35. Good.
【0093】また、上記の検索処理は、図2において示
した各ブロックより、内視鏡画像の検索が必要とされる
任意の時点で実行可能となっている。すなわち、各ブロ
ックにおける機能を実行するウィンドウ(図示せず)上
に、図11の検索ウィンドウ130を開くことを指示す
るための検索指示ボタンを設定しておくことができる。The above-described search processing can be executed at any time when an endoscope image search is required from each block shown in FIG. That is, a search instruction button for instructing to open the search window 130 in FIG. 11 can be set on a window (not shown) for executing a function in each block.
【0094】(画像処理ブロック)次に、画像処理ブロ
ック77の動作について説明する。画像処理アイコン1
17をマウスポインタ84で選択する(図7参照)こと
で、画像処理ブロック77は、図15に示すような画像
処理ウインドウ170を開く。画像処理ブロック77は
前述のように、ハードディスク23に記録された内視鏡
画像に対し、所望の画像処理を適用する。(Image Processing Block) Next, the operation of the image processing block 77 will be described. Image processing icon 1
By selecting 17 with the mouse pointer 84 (see FIG. 7), the image processing block 77 opens an image processing window 170 as shown in FIG. The image processing block 77 applies desired image processing to the endoscope image recorded on the hard disk 23 as described above.
【0095】画像処理ブロック77の動作は、画像処理
ウインドウ170上において指定される。画像処理ウィ
ンドウ170は、実行する画像処理の一覧表示からなる
メニューバー171と、スクロールバー172と、前述
した検索処理の実行を指定するための検索ボタン173
と、メニューバー171において指定した1つ以上の画
像処理の実行開始を指定する実行ボタン174及び終了
ボタン175からなっている。The operation of the image processing block 77 is designated on the image processing window 170. The image processing window 170 includes a menu bar 171 including a list of image processing to be executed, a scroll bar 172, and a search button 173 for designating execution of the above-described search processing.
And an execution button 174 and an end button 175 for designating the start of execution of one or more image processes designated on the menu bar 171.
【0096】操作者は、メニューバー171上におい
て、所望する画像処理名をクリックにより指定する。画
像処理として、例えばノイズ除去処理、構造成分強調処
理、2値化処理がある。The operator designates a desired image processing name on the menu bar 171 by clicking. Image processing includes, for example, noise removal processing, structural component enhancement processing, and binarization processing.
【0097】また、検索ボタン173をクリックするこ
とにより,前述の検索ウインドウ130が開かれる(図
11参照)。前述した一連の検索処理を経て、操作者は
検索結果表示ウィンドウ140において、メニューバー
141及び確定ボタン144のクリックにより、選択し
た画像処理を適用する内視鏡画像を選択し終了ボタン1
34をクリックすることで、画像処理ウインドウ170
に戻る(図12参照)。By clicking the search button 173, the above-described search window 130 is opened (see FIG. 11). After the above-described series of search processing, the operator clicks the menu bar 141 and the confirm button 144 in the search result display window 140 to select the endoscope image to which the selected image processing is applied, and press the end button 1
By clicking on 34, the image processing window 170
(See FIG. 12).
【0098】適用する画像処理名及び内視鏡画像の選択
を終了後、図15において、実行ボタン174をクリッ
クすることにより処理が実行される。メニューバー17
1上に表示される各画像処理は、サブルーチンプログラ
ムとしてハードディスク47に記憶されている。実行結
果である処理結果画像は、新たに開かれる処理結果画像
表示ウインドウ上に表示される.処理結果画像を表示す
る処理結果画像表示ウィンドウ180は、図16に示す
ように、処理結果画像表示領域181と、画像管理デー
タ表示領域182と、処理結果画像のハードディスク2
3への記録開始を指示するための記録開始ボタン183
及び終了ボタン184からなっている。After the selection of the image processing name to be applied and the endoscope image are completed, the processing is executed by clicking an execution button 174 in FIG. Menu bar 17
Each image processing displayed on 1 is stored in the hard disk 47 as a subroutine program. The processing result image that is the execution result is displayed on the newly opened processing result image display window. As shown in FIG. 16, the processing result image display window 180 for displaying the processing result image includes a processing result image display area 181, an image management data display area 182, and a hard disk 2 for the processing result image.
Recording start button 183 for instructing the start of recording to No. 3
And an end button 184.
【0099】画像管理データ表示領域182には、前述
の管理データ及び適用した画像処理の処理名等を表示す
る。また、記録開始ボタン183をクリックすることに
より、処理結果画像がハードディスク23に管理データ
とともに記録される。The image management data display area 182 displays the management data described above, the processing name of the applied image processing, and the like. When the recording start button 183 is clicked, the processing result image is recorded on the hard disk 23 together with the management data.
【0100】なお、ハードディスク23への記録を行わ
ない場合には、終了ボタン184をクリックすることに
より処理結果画像表示ウィンドウ180を閉じればよ
い。この場合、処理結果画像は棄却される。If the recording to the hard disk 23 is not performed, the processing result image display window 180 may be closed by clicking the end button 184. In this case, the processing result image is rejected.
【0101】(データベース管理ブロック)次に、デー
タベース管理ブロック72について説明する。データベ
ース管理ブロック72は、診断支援装置1における内視
鏡検査、内視鏡画像、設定したROI及び各機能におけ
る処理結果等をデータベース化し管理するものである。(Database Management Block) Next, the database management block 72 will be described. The database management block 72 is a database for managing the endoscopy, the endoscopic image, the set ROI, the processing result in each function, and the like in the diagnosis support apparatus 1.
【0102】データベース管理ブロック72が管理する
データベースは、図17に示すように、検査データ19
0、患者管理データ191、処理結果画像管理データ1
92、画像処理手法データ193、画像管理データ19
4、ROI管理データ195、部位データ196、所見
データ197、分類データ198、特徴量算出手法デー
タ199、ROI間相互特徴量データ200、ROI特
徴量データ201及び判別分類手法データ202、デー
タセット名データ203、使用特徴量データ204、分
類クラスデータ205、クラス別サンプルデータ20
6、判別分類係数データ207、判別分類結果データ2
08、判別境界値データ209により構成されており、
各データはそれぞれファイルとしてハードディスク23
に記憶されている。The database managed by the database management block 72 is, as shown in FIG.
0, patient management data 191, processing result image management data 1
92, image processing method data 193, image management data 19
4. ROI management data 195, site data 196, finding data 197, classification data 198, feature amount calculation method data 199, inter-ROI mutual feature amount data 200, ROI feature amount data 201, discriminant classification method data 202, data set name data 203, used feature data 204, classification class data 205, class-specific sample data 20
6. Discrimination classification coefficient data 207, discrimination classification result data 2
08, discriminating boundary value data 209,
Each data is stored as a file on the hard disk 23
Is stored in
【0103】検査データ190は、内視鏡画像の管理単
位である前述の内視鏡検査ごとに付与されるデータを管
理するデータベースである。The examination data 190 is a database for managing data given for each of the above-mentioned endoscopic examinations, which is a management unit of an endoscope image.
【0104】患者管理データ191は、患者名、生年月
日及び患者ID等の患者ごとに付与されるデータを与え
る参照用データベースである。The patient management data 191 is a reference database that provides data such as a patient name, a date of birth, and a patient ID that are assigned to each patient.
【0105】画像管理データ194は、各内視鏡検査の
下に管理される内視鏡画像ごとに付与されるデータを管
理するデータベースである。The image management data 194 is a database that manages data given to each endoscope image managed under each endoscopic examination.
【0106】処理結果画像管理データ192は、前述の
画像処理が適用された処理結果画像に付与されるデータ
を管理するデータベースである。The processing result image management data 192 is a database for managing data added to the processing result image to which the above-described image processing has been applied.
【0107】画像処理手法データ193は、画像処理の
手法の種類を与える参照用データベースである。The image processing method data 193 is a reference database for giving the type of image processing method.
【0108】ROI管理データ195は、内視鏡画像あ
るいは処理結果画像に対し、後述する一連の処理により
設定されたROIの個々に対して付与されるデータを管
理するデータベースである。[0108] The ROI management data 195 is a database for managing data given to each of the ROIs set by a series of processes described later for the endoscope image or the processing result image.
【0109】部位データ196は、ROI管理データに
対し、診断部位を与えるための参照用データベースであ
る。The site data 196 is a reference database for giving a diagnosis site to the ROI management data.
【0110】所見データ197は、ROI管理データに
対し、所見属性を与えるための参照用データベースであ
る。The finding data 197 is a reference database for giving a finding attribute to the ROI management data.
【0111】分類データ198は、ROI管理データに
対し、診断分類を与えるための参照用データベースであ
る。The classification data 198 is a reference database for giving a diagnosis classification to the ROI management data.
【0112】特徴量算出手法データ199は、設定され
たROIに対して適用する特徴量算出処理の名称を与え
る参照用データベースである。The feature amount calculation method data 199 is a reference database that gives the name of the feature amount calculation process applied to the set ROI.
【0113】ROI間相互特徴量データ200は、後述
する一連の処理により算出されるROI間相互特徴量を
管理するためのデータベースである。The inter-ROI mutual feature data 200 is a database for managing the inter-ROI mutual feature calculated by a series of processes described later.
【0114】ROI特徴量データ201は、後述する一
連の処理により算出されるROI特徴量を管理するため
のデータベースである。The ROI feature data 201 is a database for managing ROI feature calculated by a series of processes described later.
【0115】判別分類手法データは202は、算出され
た特徴量を用いた判別分類処理手法の名称を与える参照
用データベースである。The discrimination / classification method data 202 is a reference database that gives the names of the discrimination / classification processing methods using the calculated feature amounts.
【0116】データセット名データ203は、判別分類
手法に基づく後述する判別分類系を管理するためのデー
タベースである。The data set name data 203 is a database for managing a discriminant classification system described later based on the discriminant classification method.
【0117】使用特徴量データ204は、判別分類系の
生成において使用した特徴量の名称を管理するためのデ
ータベースである。The used feature data 204 is a database for managing the names of the features used in the generation of the discriminant classification system.
【0118】分類クラスデータ205は、生成した判別
分類系のデータセットが分類の対象とするクラス(本実
施の形態においては診断分類)を管理するためのデータ
ベースである。The classification class data 205 is a database for managing the class (diagnosis classification in this embodiment) to be classified by the generated data set of the discrimination classification system.
【0119】クラス別サンプルデータ206は、判別分
類系の生成においてデータセットが教師データとして使
用したROIを管理するデータベースである。The class-specific sample data 206 is a database for managing the ROI used as the teacher data by the data set in generating the discriminant classification system.
【0120】判別分類係数データ207は、生成された
判別分類系における各係数値を管理するためのデータベ
ースである。The discriminant classification coefficient data 207 is a database for managing each coefficient value in the generated discriminant classification system.
【0121】判別分類結果データ208は、設定された
ROIに対して生成された判別分類系を適用して得られ
た結果を管理するためのデータベースである。The discrimination / classification result data 208 is a database for managing the result obtained by applying the discrimination / classification system generated to the set ROI.
【0122】判別境界値データ209は、生成された判
別分類系の判別分類基準となる値を管理するためのデー
タベースである。The discrimination boundary value data 209 is a database for managing a value that is a discrimination classification reference of the generated discrimination classification system.
【0123】ここで、参照用データベースとは、診断部
位(食道、胃、大腸等)、所見(発赤、褪色、隆起
等)、診断分類(正常、潰瘍、早期癌等)の名称を項目
として含むデータベースである。参照用データベース
は,操作者により、任意の時点で項目の追加、変更及び
削除等のカスタマイズが可能なデータベースである。Here, the reference database includes, as items, names of diagnostic sites (esophagus, stomach, large intestine, etc.), findings (redness, fading, bumps, etc.), and diagnostic classifications (normal, ulcers, early cancer, etc.). It is a database. The reference database is a database that can be customized by an operator at any time, such as addition, change, and deletion of items.
【0124】一方、参照用データベース以外のデータベ
ースは、各々が管理対象とするデータが発生した時点で
項目が生成される。例えば、新たな内視鏡検査により内
視鏡画像が記録された場合には検査データ190及び画
像管理データ194に新たな項目が追加生成される。ま
た、データが更新、削除された場合に連動し、対応する
項目が更新、削除される。On the other hand, in databases other than the reference database, items are generated when data to be managed is generated. For example, when an endoscopic image is recorded by a new endoscopic examination, a new item is additionally generated in the examination data 190 and the image management data 194. Also, when data is updated or deleted, the corresponding item is updated or deleted.
【0125】各データは、その関連する内容に基づき、
各々のキーとなるプライマリナンバを参照することによ
り結合がなされている。プライマリナンバは各データベ
ースにおける項目ごとに1対1に付与された番号であ
る。これにより、検査、患者、画像、ROI等の種々の
データが関連づけられる。Each data is based on its related contents,
The connection is made by referring to the primary numbers serving as the respective keys. The primary number is a number assigned one-to-one for each item in each database. Thus, various data such as examinations, patients, images, ROIs, and the like are associated.
【0126】データベース管理ブロック72は、データ
ベース化すべきデータの出現、データの内容変更等が生
じた場合に、各データのオープン、読みだし、書換、格
納、クローズ等の一連の作業を制御する。The database management block 72 controls a series of operations such as opening, reading, rewriting, storing, and closing each data when the appearance of data to be made into a database or a change in data contents occurs.
【0127】また、図7のデータベースアイコン112
をクリックすることにより、患者管理データ191、部
位データ196、所見データ197及び分類データ19
8における項目の追加、変更及び削除等のカスタマイズ
が可能となる。その場合、データベースカスタマイズウ
インドウ(図示せず)が開き、操作者は該ウインドウ上
においてカスタマイズするデータ、追加、変更及び削除
等の操作を行い、確定ボタン及び終了ボタンのクリック
により作業を終了する。データベース管理ブロック72
は、確定ボタンのクリックにより該当するデータの書き
換えを行う。The database icon 112 shown in FIG.
By clicking, the patient management data 191, the site data 196, the finding data 197, and the classification data 19
8 enables customization such as addition, change, and deletion of items. In this case, a database customization window (not shown) is opened, and the operator performs operations such as data to be customized, addition, change, and deletion on the window, and ends the operation by clicking the confirmation button and the end button. Database management block 72
Rewrites the corresponding data by clicking on the confirm button.
【0128】(ROI設定ブロック)次に、ROI設定
ブロック73の動作について説明する。図7のROI設
定アイコン113のクリックによりROI設定処理の実
行を選択すると、図10に示した画像管理データウイン
ドウ120が開く。以下、前述の手順にしたがいROI
の設定を行う内視鏡画像を、図12に示したように、検
索結果表示ウィンドウ140上のメニューバー141に
おいて選択する。続いて、確定ボタン144をクリック
することにより、新たなROI設定ウインドウが開かれ
る。(ROI Setting Block) Next, the operation of the ROI setting block 73 will be described. When the execution of the ROI setting process is selected by clicking the ROI setting icon 113 in FIG. 7, the image management data window 120 shown in FIG. 10 is opened. Hereinafter, ROI is performed according to the above-described procedure.
The endoscope image for which the setting is made is selected on the menu bar 141 on the search result display window 140 as shown in FIG. Subsequently, by clicking the confirm button 144, a new ROI setting window is opened.
【0129】図18に示すように、ROI設定ウインド
ウ220は、画像表示及びROI描画作業を行うための
ROI表示領域221、設定するROIの番号を指定す
るROI番号選択ボタン222、算出する特徴量を指定
するための特徴量選択ボタン223、設定したROIに
対し、部位、所見及び分類をそれぞれ設定するための部
位設定ボタン224、所見設定ボタン225及び分類設
定ボタン226、特徴量の算出を実行するための特徴量
算出実行ボタン227、ROIの設定をやり直す場合等
に使用するROI削除ボタン228、設定したROIの
データベースへの登録を指示する確定ボタン229、終
了ボタン230,画像表示領域においてROIの描画線
の表示または非表示を指定するためのROI表示指定ボ
タン231及びROI非表示指定ボタン232から構成
される。As shown in FIG. 18, an ROI setting window 220 includes an ROI display area 221 for performing image display and ROI drawing work, an ROI number selection button 222 for designating an ROI number to be set, and a feature amount to be calculated. A feature amount selection button 223 for designation, a part setting button 224 for setting a part, a finding, and a classification for the set ROI, a finding setting button 225, a classification setting button 226, and calculation of a feature amount Button 227, a ROI deletion button 228 used for re-setting the ROI, a confirm button 229 for instructing registration of the set ROI in the database, an end button 230, and a drawing line of the ROI in the image display area. Display designation buttons 231 and R for designating display or non-display of I made from the non-display designation button 232.
【0130】操作者はマウス45を用いてROI設定ウ
インドウ220上の各機能ボタンをクリックすることに
より作業を進める。なお、本実施の形態においては1枚
の内視鏡画像上に最大5個のROIが設定可能であるも
のとする。The operator proceeds with the operation by clicking each function button on the ROI setting window 220 using the mouse 45. In this embodiment, it is assumed that a maximum of five ROIs can be set on one endoscope image.
【0131】始めに、ROI設定対象とする内視鏡画像
を、ROI設定ウインドウ220における画像表示領域
221に表示する。操作者は、表示された内視鏡画像を
確認後、マウスポインタによりROI番号選択ボタン2
22をクリックする。ROI番号選択ボタン222は数
字1ないし5を示しており、それぞれが設定されるRO
Iの番号(1)ないし(5)に対応している。First, an endoscope image to be set as an ROI is displayed in the image display area 221 of the ROI setting window 220. After confirming the displayed endoscope image, the operator presses the ROI number selection button 2 with the mouse pointer.
Click 22. The ROI number selection button 222 indicates the numerals 1 to 5, and the RO to which each is set
Corresponds to I numbers (1) to (5).
【0132】続いて、画像表示領域221上において、
マウス45の操作によりROIの描画を行う。ROIの
描画は、例えばマウス45のボタンを押下したままでマ
ウスポインタ84を移動させ、その軌跡を表示するよう
に制御すればよい。描画されたROIに対して、対応す
るROIの番号(1)ないし(5)のいずれかを画像表
示領域221上に重畳表示する。Subsequently, on the image display area 221,
The ROI is drawn by operating the mouse 45. The drawing of the ROI may be controlled, for example, by moving the mouse pointer 84 while holding down the button of the mouse 45 and displaying the locus thereof. One of the corresponding ROI numbers (1) to (5) is superimposed and displayed on the image display area 221 on the drawn ROI.
【0133】また、ROIの設定においては、任意形状
の描画に限らず、正方形あるいは長方形のような矩形に
より設定してもよい。矩形の水平及び垂直方向の大きさ
(サイズ)は、操作者による指定または、例えば5画素
ずつ大きくした初斯設定値群から選択する等の可変にし
ておく。その場合は、図18に示したROI設定ウィン
ドウ上において、「矩形/任意描画選択ボタン」及び
「矩形サイズ指定ボタン」(ともに図示せず)を備える
ものとする。操作者は,マウスポインタ84を移動し、
画像表示領域221に表示された画像上の所望の位置に
矩形のROIを設定することが可能となる。画像表示領
域221上において、マウスポインタ84と同時に矩形
を表示し、マウスポインタ84の移動にともない矩形も
移動するように制御する。Further, the setting of the ROI is not limited to the drawing of an arbitrary shape, and may be set by a rectangle such as a square or a rectangle. The size (size) of the rectangle in the horizontal and vertical directions is variable by designating by the operator or by selecting from a group of initial setting values increased by, for example, 5 pixels. In this case, it is assumed that a “rectangle / arbitrary drawing selection button” and a “rectangle size designation button” (both not shown) are provided on the ROI setting window shown in FIG. The operator moves the mouse pointer 84,
It is possible to set a rectangular ROI at a desired position on the image displayed in the image display area 221. On the image display area 221, a rectangle is displayed at the same time as the mouse pointer 84, and the rectangle is controlled to move with the movement of the mouse pointer 84.
【0134】また、ROIの形状は,矩形に限らず、
円、その他の多角形等の任意の定形ROIを任意の大き
さで設定できるようにしてもよい。The shape of the ROI is not limited to a rectangle.
An arbitrary fixed ROI such as a circle or another polygon may be set to an arbitrary size.
【0135】次に、設定したROIにおいて算出する特
徴量を指定する。この操作は特徴量選択ボタン223を
クリックすることにより行う。特徴量選択ボタン223
をクリックすると、図19に示す算出特徴量メニューウ
インドウ240が開く。Next, a feature value to be calculated in the set ROI is designated. This operation is performed by clicking the feature amount selection button 223. Feature amount selection button 223
When is clicked, the calculation feature amount menu window 240 shown in FIG. 19 opens.
【0136】算出特徴量メニューウインドウ240は、
各種処理手法名及び各々から算出される特徴量の名称を
表示するメニューバー241と、スクロールバー242
と、後述するROI間相互特徴量を指定するための相互
特徴量算出ボタン243と、やはり後述する特徴量の一
括選択を指定する一括選択ボタン244と、算出する特
徴量の指定を確定し算出特徴量メニューウインドウ24
0を閉じるための確定ボタン245から構成される。The calculation feature amount menu window 240
A menu bar 241 for displaying names of various processing methods and names of feature amounts calculated from the respective methods, and a scroll bar 242
, A mutual feature calculation button 243 for specifying a mutual feature between ROIs to be described later, a collective selection button 244 for specifying batch selection of the feature also described later, Quantity menu window 24
It is composed of a decision button 245 for closing 0.
【0137】メニューバー241には、診断支援装置1
において実行可能である処理手法群と、各処理手法の適
用により得られる特徴量の名称からなる項目が表示され
ている。処理手法としては、例えば設定したROIに内
包された各画素におけるR、G及びB画像データに基づ
き色調を評価する手法、濃度共起行列等を用いたテクス
チャを解折する手法等、種々のものが考えられる。算出
の指定はマウス45を用いてメニューバー241上の該
当する項目をクリックすることにより行われる。[0137] The menu bar 241 displays the diagnosis support device 1.
Are displayed, and an item including a name of a feature amount obtained by applying each processing method is displayed. There are various processing methods such as a method of evaluating a color tone based on R, G, and B image data of each pixel included in a set ROI, a method of breaking a texture using a density co-occurrence matrix, and the like. Can be considered. The calculation is designated by clicking a corresponding item on the menu bar 241 using the mouse 45.
【0138】このように、算出可能である特徴量の中か
ら、任意の特徴量を指定可能とすることにより、不要な
特徴量の算出にともなう計算時間及び算出結果の記憶領
域の節減を図ることが可能となる。As described above, by making it possible to designate an arbitrary feature amount from among the feature amounts that can be calculated, it is possible to save the calculation time and the storage area of the calculation result due to the calculation of the unnecessary feature amount. Becomes possible.
【0139】また,本実施の形態の診断支援処理におい
ては,算出する特徴量の指定をメニューバー241の各
項目を逐一クリックすることによるのみでなく、一括選
択ボタン244を使用することによりさらに簡便に行う
ことができる。In the diagnosis support processing according to the present embodiment, not only is it possible to specify the feature to be calculated not only by clicking each item of the menu bar 241 but also by using the collective selection button 244. Can be done.
【0140】一括選択ボタン244をクリックした場
合、新たな一括選択メニューウインドウが開かれる。When the collective selection button 244 is clicked, a new collective selection menu window is opened.
【0141】図20に示すように、一括選択メニューウ
インドウ250は、算出する特徴量の組み合わせを選択
するための組み合わせ番号ボタン251と、組み合わせ
番号ボタン251により指定される算出される特徴量の
項目を表示する特徴量表示領域252と、すべての特徴
量の算出を指定するための全選択ボタン253と、確定
ボタン254と、一括選択メニューウインドウ250上
での操作を終了するための終了ボタン255から構成さ
れている。As shown in FIG. 20, a collective selection menu window 250 includes a combination number button 251 for selecting a combination of feature amounts to be calculated, and a feature amount item designated by the combination number button 251. A feature amount display area 252 to be displayed, an all-selection button 253 for designating calculation of all feature amounts, a confirm button 254, and an end button 255 for ending the operation on the collective selection menu window 250 Have been.
【0142】一括選択メニューウインドウ250では、
後の判別分類処理において使用する特徴量の数通り(本
実施の形態においては3組とする)の組み合わせを、あ
らかじめ設定しておく。すなわち、組み合わせ番号ボタ
ン251の1ないし3に番号付けされたボタン及び確定
ボタン254をクリックすることにより、常に必要最小
限の特徴量を算出することが可能となる。したがって、
使用しない特徴量算出に要する計算時間及び算出された
値を記憶するための記憶領域の大幅な節約が実現でき
る。In the collective selection menu window 250,
Several combinations (three in the present embodiment) of the feature amounts used in the subsequent classification and classification processing are set in advance. That is, by clicking the buttons numbered 1 to 3 of the combination number buttons 251 and the confirm button 254, it is possible to always calculate the minimum necessary feature amount. Therefore,
It is possible to realize a significant saving in the calculation time required for calculating the unused feature amounts and the storage area for storing the calculated values.
【0143】また,全選択ボタン253をクリックした
場合においては、メニューバー251における特徴量す
べてが選択される。これにより、すべての特徴量が必要
な場合において、算出する特徴量示す項目を逐一クリッ
クする労力が省かれることとなる。When the all-selection button 253 is clicked, all the feature values on the menu bar 251 are selected. As a result, when all the feature amounts are required, the labor for clicking each item indicating the feature amount to be calculated is omitted.
【0144】なお、上述した算出する特徴量の指定は、
後述する特徴量算出処理及び判別分類処理の実行時にお
いて行うことも可能であるため、ROIの設定時におい
ては省略(指定なし)してもかまわない。It should be noted that the above-described specification of the calculated feature amount is as follows.
Since it can be performed at the time of executing a feature amount calculation process and a discrimination / classification process, which will be described later, it may be omitted (no designation) at the time of setting the ROI.
【0145】続いて、設定するROIの部位の指定を行
う。ROIの設定における部位の指定は、例えば内視鏡
検査における部位が胃であれば、噴門、胃角、胃体部、
幽門等の詳細部位が与えられる。図18のROI設定ウ
インドウ220において、部位設定ボタン224をクリ
ックすることにより、新たな部位指定メニューウインド
ウが開かれる。Subsequently, the part of the ROI to be set is specified. For example, when the site in the endoscopy is the stomach, the site is specified in the setting of the ROI.
Details such as the pylorus are given. In the ROI setting window 220 shown in FIG. 18, by clicking the region setting button 224, a new region designation menu window is opened.
【0146】図21に示すように、部位指定メニューウ
インドウ260は、図17の部位データ196における
項目を表示するメニューバー261と、スクロールバー
262と、部位の設定を確定する確定ボタン263から
なっている。また、確定ボタン263は終了ボタンの機
能も兼ねており、クリックされた時点で部位指定メニュ
ーウインドウ260を閉じる。操作者は、所望する部位
の名称をメニューバー261をクリックすることにより
選択し、確定ボタン263をクリックすることにより確
定する。As shown in FIG. 21, the part designation menu window 260 includes a menu bar 261 for displaying items in the part data 196 of FIG. 17, a scroll bar 262, and a decision button 263 for confirming the part setting. I have. The confirm button 263 also functions as an end button, and closes the site designation menu window 260 when clicked. The operator selects the name of the desired part by clicking the menu bar 261, and confirms by clicking the confirm button 263.
【0147】また、図18のROI設定ウインドウ22
0の所見設定ボタン225及び分類設定ボタン226を
クリックすることにより、部位の指定と同様にして設定
するROIの所見及び分類を指定する。所見及び分類の
指定においては、所見指定メニューウインドウ及び分類
指定メニューウインドウ(ともに図示せず)を開く。そ
の際,各々のメニューウインドウが部位指定メニューウ
インドウ260の内容と異なる点は,メニューバー26
1上がそれぞれ所見データ197及び分類データ198
における項目となることである(図17参照)。The ROI setting window 22 shown in FIG.
By clicking the “0” finding setting button 225 and the classification setting button 226, the finding and classification of the ROI to be set are specified in the same manner as the designation of the part. To specify a finding and a classification, a finding specification menu window and a classification specification menu window (both not shown) are opened. At this time, the point that each menu window is different from the contents of the part designation menu window 260 is that the menu bar 26
1 shows the finding data 197 and the classification data 198, respectively.
(See FIG. 17).
【0148】なお、部位、所見及び分類の指定において
は、それぞれ初期値として「未設定」を与えておく。こ
れにより、各項目の指定を省略してROIの描画のみを
行う等の作業が可能となる。In the designation of a part, a finding, and a classification, "not set" is given as an initial value. This makes it possible to omit the specification of each item and perform only the drawing of the ROI.
【0149】以上の一連の作業により1個のROIの設
定が終了すると、確定ボタン229をクリックを機にR
OI管理データ195(図17参照)に新たなデータが
追加される。When the setting of one ROI is completed by the above series of operations, the user clicks the OK button 229 to set the ROI.
New data is added to the OI management data 195 (see FIG. 17).
【0150】なお、以上においては簡単のため各ボタン
等の操作を順序立てて説明したが、ROIの設定におい
てはROI番号選択ボタン222及び確定ボタン229
がそれぞれROI設定開始時及び設定終了時にクリック
されればよく、その間の作業はどのような順序で行って
もよい。Although the operation of each button and the like has been described in order for the sake of simplicity, the ROI setting includes the ROI number selection button 222 and the confirmation button 229.
May be clicked at the start of ROI setting and at the end of setting, respectively, and the work during that may be performed in any order.
【0151】ROIの設定が完了すると、特徴量の算出
が可能となる。特徴量の算出は、後述する特徴量算出ブ
ロック74が動作することにより行われ、特徴量算出実
行ボタン227のクリックのみでなく、特徴量算出アイ
コン114のクリック及び判別分類ブロック75からの
呼び出し(ともに後述する)からも実行可能である。When the setting of the ROI is completed, the feature amount can be calculated. The calculation of the feature amount is performed by the operation of a feature amount calculation block 74 described later, and not only the click of the feature amount calculation execution button 227 but also the click of the feature amount calculation icon 114 and the call from the determination classification block 75 (both are performed). This will be described later.
【0152】図18のROI設定ウインドウ220にお
いて、特徴量算出実行ボタン227がクリックされる
と、算出する特徴量の選択がなされている場合には、図
22に示す特徴量算出結果表示ウインドウ270が開
く。算出する特徴量が未選択であれば、「算出する特徴
量を選択して下さい」等のメッセージを表示する。In the ROI setting window 220 in FIG. 18, when the feature amount calculation execution button 227 is clicked, if the feature amount to be calculated is selected, the feature amount calculation result display window 270 shown in FIG. 22 is displayed. open. If the feature to be calculated has not been selected, a message such as "Please select the feature to be calculated" is displayed.
【0153】図22に示すように、特徴量算出結果表示
ウインドウ270は、各ROIごとに算出された特徴量
の値等を表示するための表示領域271と、スクロール
バー272及び終了ボタン273とからなっている。表
示領域271においては,検査NO.、患者ID、患者
名、画像No.、ROIの番号等、ROIに関する情報
が表示されるとともに、算出が終了したROIから逐次
算出結果である値が表示される。また、ROI設定ウイ
ンドウ220を複数開き、異なる複数の内視鏡画像に対
し、並行してROIの設定を行う場合等、多数のROI
から特徴量を算出する場合には、スクロールバー272
を使用することができる。操作者は、算出結果を確認
後、終了ボタン273をクリックすることにより、特徴
量算出結果ウインドウ270を閉じる。特徴量の算出結
果は、ROI特徴量データ201に追加される(図17
参照)。As shown in FIG. 22, the feature amount calculation result display window 270 includes a display area 271 for displaying the value of the feature amount calculated for each ROI, a scroll bar 272 and an end button 273. Has become. In the display area 271, the inspection NO. , Patient ID, patient name, image No. , The number of the ROI, and the like, information about the ROI is displayed, and a value as a calculation result is sequentially displayed from the ROI for which the calculation is completed. In addition, when a plurality of ROI setting windows 220 are opened to set ROIs in parallel for a plurality of different endoscope images, a large number of ROIs are set.
When calculating the feature amount from the scroll bar 272
Can be used. After checking the calculation result, the operator clicks the end button 273 to close the feature amount calculation result window 270. The calculation result of the feature amount is added to the ROI feature amount data 201 (FIG. 17).
reference).
【0154】なお、図22の例においては算出される特
徴量を1つの特徴量算出結果表示ウインドウ270上に
表示したが、各特徴量ごとに異なる特徴量算出結果表示
ウインドウを開くように制御してもよい。In the example of FIG. 22, the calculated feature values are displayed on one feature value calculation result display window 270. However, control is performed such that a different feature value calculation result display window is opened for each feature value. You may.
【0155】また、図18のROI設定ウインドウ22
0においては、ROI表示指定ボタン231及びROI
非表示指定ボタン232のそれぞれがクリックされるこ
とにより、画像表示領域221におけるROIの描画線
を表示及び消去するように制御する。これにより、操作
者は任意の時点でROIの描画線のない内視鏡画像を確
認することができる。The ROI setting window 22 shown in FIG.
0, the ROI display designation button 231 and the ROI
When each of the non-display designation buttons 232 is clicked, control is performed so that the drawing lines of the ROI in the image display area 221 are displayed and erased. Thereby, the operator can check the endoscope image without the drawing line of the ROI at any time.
【0156】なお、特徴量の算出を画像処理ブロック7
7による処理結果画像とすることも可能である。この場
合、設定されるROIの描画位置、部位、所見及び分類
等は、画像処理の適用されていない原画像と同一であ
る。したがって、原画像である内視鏡画像においてRO
Iの設定あるいは変更がなされた場合には、同一のデー
タを処理結果画像に対しても付与するように制御する。
また、処理結果画像においてROIの設定あるいは変更
がなされた場合には、やはり原画像に対して同一のデー
タを付与するように制御すればよい。Note that the calculation of the characteristic amount is performed by the image processing block 7.
7 can be used as the processing result image. In this case, the set drawing position, region, findings, classification, and the like of the ROI are the same as those of the original image to which the image processing is not applied. Therefore, RO in the original endoscope image
When I is set or changed, control is performed so that the same data is added to the processing result image.
Further, when the ROI is set or changed in the processing result image, control may be performed so that the same data is added to the original image.
【0157】従来、原画像及び処理結果画像においてR
OIを設定する場合、あるいは比較のため同一部位を切
り出してひとつの画面上に表示する場合等では、座標位
置、ROIサイズ等の情報を各々の画像に対し操作者が
別個に指定する必要があった。Conventionally, in the original image and the processing result image, R
When setting an OI or cutting out the same part for comparison and displaying it on one screen, the operator needs to separately specify information such as a coordinate position and an ROI size for each image. Was.
【0158】図23は、本実施の形態における原画像及
び処理結果画像に対するROIの設定方法を説明するた
めの説明図である。図23において、(a)は原画像、
(b)は処理結果画像をそれぞれ示している。FIG. 23 is an explanatory diagram for explaining a method of setting an ROI for an original image and a processing result image in the present embodiment. In FIG. 23, (a) is an original image,
(B) shows the processing result images.
【0159】図23(a)の原画像において、ROI1
aが定められたとき、図23(b)の処理結果画像に対
しても、自動的にROI1bが設定されたこととする。
ROI1a及びROI1bは、それぞれ画像上における
ROIの位置、大きさ及び形状が同一であるものとす
る。In the original image shown in FIG.
When a is determined, it is assumed that the ROI 1b is automatically set for the processing result image of FIG.
The ROI 1a and the ROI 1b have the same position, size, and shape of the ROI on the image.
【0160】また、逆に図23(b)の処理結果画像に
おけるROI1bが先に設定されれば、対応する図23
(a)の原画像に対しても同様にRO1aを設定する。On the contrary, if the ROI 1b in the processing result image of FIG. 23B is set first, the corresponding FIG.
RO1a is similarly set for the original image of (a).
【0161】すなわち、原画像及びそれに対する1つ以
上のの処理結果画像のいずれか1つにおいてROIが設
定された場合には、関連する各画像上においても同一の
ROIが設定されたものとみなし、必要なROI管理デ
ータ等を付加するように制御する。That is, when an ROI is set in any one of the original image and one or more processing result images corresponding to the original image, it is considered that the same ROI is set in each of the related images. , So that necessary ROI management data and the like are added.
【0162】(特徴量算出ブロック)次に、特徴量算出
ブロック74における特徴量算出手法について説明す
る。本実施の形態としては、特徴量算出手法として、G
abor(ガボール)特徴に基づくテクスチャ解折手法
を適用する。(Characteristic Value Calculation Block) Next, a characteristic value calculation method in the characteristic value calculation block 74 will be described. In the present embodiment, as a feature amount calculating method, G
A texture breaking method based on abor (Gabor) features is applied.
【0163】はじめに、Gabor特徴について説明す
る。Gabor特徴は、人間の視覚系のモデル化に基づ
く特徴量であり、画像における位置(座標)に依存する
局所的な情報を保存した周波数成分の解折手法である。
なお、より詳しい説明は文献「Gabor特徴による指
紋認識;浜本他:1995年第26回画像工学コンファ
レンス発表予報集 P.91〜P.94」に記述されて
いるため、ここでは概要を示すものとする。First, Gabor features will be described. The Gabor feature is a feature amount based on modeling of the human visual system, and is a method of analyzing frequency components in which local information depending on a position (coordinate) in an image is stored.
Since a more detailed explanation is described in the document “Fingerprint recognition by Gabor feature; Hamamoto et al .: Proceedings of the 26th Image Engineering Conference 1995, P.91 to P.94”, the outline is described here. I do.
【0164】Gabor特徴は、Gaborフィルタと
原画像とのたたみ込み演算により得られた値から算出さ
れる特徴量である。Gaborフィルタは、2次元ガウ
ス曲面と2次元平面上を一方向に伝わる平面波とをかけ
合わせたものであり、ガウス曲面における標準偏差σx
とσy、平面波の進行方向θk及び平面波の波長λmによ
り決定される。標準偏差σxとσyは波長λmと密接に関
係しており、波長λmの関数とすることができ、それぞ
れσx(λm)及びσy(λm)と表される。Gaborフ
ィルタは、実部Re(f)及び虚部Im(f)からなる
2次元フィルタであり、それぞれ、The Gabor feature is a feature amount calculated from a value obtained by a convolution operation between the Gabor filter and the original image. The Gabor filter is obtained by multiplying a two-dimensional Gaussian surface by a plane wave transmitted in one direction on a two-dimensional plane, and has a standard deviation σx in the Gaussian surface.
And σy, the traveling direction θk of the plane wave, and the wavelength λm of the plane wave. The standard deviations σx and σy are closely related to the wavelength λm and can be a function of the wavelength λm, denoted as σx (λm) and σy (λm), respectively. The Gabor filter is a two-dimensional filter including a real part Re (f) and an imaginary part Im (f).
【数1】 (Equation 1)
【数2】 で定義される。なお、Gaborフィルタは、式(1)
及び(2)におけるσx(λm)、σy(λm)、λm及び
θkを変更することにより、種々の特性を実現すること
が可能である。(Equation 2) Is defined by Note that the Gabor filter is obtained by the equation (1).
By changing σx (λm), σy (λm), λm and θk in (2), various characteristics can be realized.
【0165】ここで、波長λmはGaborフィルタが
画像から抽出する周波数成分の帯域を、方向θkはその
方向を規定する。Here, the wavelength λm defines the frequency component band extracted from the image by the Gabor filter, and the direction θk defines the direction.
【0166】Gabor特徴は、Gaborフィルタと
画像とのたたみ込みから得られる。画像を大きさN×N
の多値画像I(i,j)(0≦i≦N-1,0≦j≦N-
1)とし、画像上のサンプリング画素を(X,Y)とす
る。ある特定のθk、λmに対するGaborフィルタと
画像とのたたみ込みは、Gabor features are obtained from the convolution of a Gabor filter with an image. Image size N × N
Multi-valued image I (i, j) (0≤i≤N-1,0≤j≤N-
1), and the sampling pixel on the image is (X, Y). The convolution of the image with the Gabor filter for a particular θk, λm is
【数3】 で与えられる。そして、式(3)のgを用いて、Gab
or特徴の値h(X,Y,θk,λm)は、(Equation 3) Given by Then, by using g in the equation (3), Gab
or the feature value h (X, Y, θk, λm)
【数4】 h(X,Y,θk,λm)=|g(X,Y,θk,λm)| (4) ただし、|z|は複素数α+iβの絶対値(α2+β2)
1/2を表す。H (X, Y, θk, λm) = | g (X, Y, θk, λm) | (4) where | z | is the absolute value of the complex number α + iβ (α 2 + β 2 )
Represents 1/2 .
【0167】以上において説明したGabor特徴量h
(X,Y,θk,λm)を、複数のθk及びλmの各々の組
み合わせ数(Lとする)分作成し、M個のサンプリング
画素に対して算出する。得られた特徴の値を用いて特徴
次元数M×Lの特徴量(特徴ベクトル)とする。The Gabor feature quantity h described above
(X, Y, θk, λm) are created for each combination number (L) of a plurality of θk and λm, and calculated for M sampling pixels. The obtained feature value is used as a feature quantity (feature vector) having a feature dimension number M × L.
【0168】方向θkは、フイルタの設計をn方向につ
いて行うのであれば、The direction θk can be determined if the filter is designed in the n direction.
【数5】 θk=π(k−1)/n (k=1,…,n)(radian) (5) とする。例えば4方向とすれば0,π/4,π/2,3
π/4(radian)とすればよい。また、波長λmは、2
1/2,2×21/2,4×21/2,8×21/2のように適宜定
める。さらにσx(λ)及びσy(λ)については、例え
ばσx(λm)=σy(λm)=0.5×λmのように定め
ればよい。σx(λm)≠σy(λm)とすることも可能で
ある。Equation 5 θk = π (k−1) / n (k = 1,..., N) (radian) (5) For example, if there are four directions, 0, π / 4, π / 2, 3
π / 4 (radian) may be set. The wavelength λm is 2
1/2 , 2 × 2 1/2 , 4 × 2 1/2 , 8 × 2 1/2 . Further, σx (λ) and σy (λ) may be determined, for example, as σx (λm) = σy (λm) = 0.5 × λm. It is also possible to make σx (λm) ≠ σy (λm).
【0169】図24は本実施の形態におけるGabor
特徴に基づく特徴量算出手法を説明するためのフローチ
ャートである。ステップS101において、内視鏡画像
上に設定されたROIにおけるG画像データIgを取得
する。ここでは、簡単のためROIの形状は大きさN×
Nの矩形であるものとする。ステップS102におい
て、取得したG画像データIgに対し、ノイズ除去、逆
γ補正、シェーディング補正等の各前処理を適用するか
否かを判断し、適用する場合はステップS103へ、適
用しない場合はステップS104に進む。FIG. 24 shows Gabor in this embodiment.
9 is a flowchart for explaining a feature amount calculation method based on features. In step S101, G image data Ig in the ROI set on the endoscope image is obtained. Here, for simplicity, the shape of the ROI has a size of N ×
It is assumed to be a rectangle of N. In step S102, it is determined whether or not each of the pre-processing such as noise removal, inverse γ correction, and shading correction is applied to the acquired G image data Ig. If so, the process proceeds to step S103. If not, the process proceeds to step S103. Proceed to S104.
【0170】ステップS103においてはメディアンフ
ィルタリング等によるノイズ除去、逆γ補正、シェーデ
ィング補正等の前処理をG画像データIgに対し適用す
る。なお、前処理の各々を選択的に適用してもよい。In step S103, preprocessing such as noise removal by median filtering, inverse γ correction, shading correction and the like is applied to the G image data Ig. Note that each of the preprocessings may be selectively applied.
【0171】ステップS104においては、G画像デー
タIgに対し、前述したGaborフィルタによるGa
bor特徴を算出する。本実施の形態においては、上述
したGabor特徴を、 θk=(0,π/4,π/2,3π/4) (a) λm=(3×21/2,6×21/2) (b) σx(λm)=σy(λm)=0.5×λm (c) について設計したL=8個のGaborフィルタによ
り、G画像データIgからM個のサンプリング画素につ
いて算出するものとする。In step S104, the G image data Ig is subjected to Ga filtering by the Gabor filter described above.
Calculate the bor feature. In the present embodiment, the above-mentioned Gabor feature is defined as follows: θk = (0, π / 4, π / 2, 3π / 4) (a) λm = (3 × 2 1/2 , 6 × 2 1/2 ) (B) It is assumed that L = 8 Gabor filters designed for σx (λm) = σy (λm) = 0.5 × λm (c) are used to calculate M sampling pixels from G image data Ig.
【0172】図25は、本実施の形態におけるM個のサ
ンプリング画素の取り方を説明するための説明図であ
る。ここでは、図25に示すように、大きさN×NのG
画像Igに対し、間隔Dで5×5の計25画素のサンプ
リング画素を設定し、L個のGaborフィルタによる
Gabor特徴を算出する。FIG. 25 is an explanatory diagram for explaining how to obtain M sampling pixels in the present embodiment. Here, as shown in FIG. 25, G of size N × N
For the image Ig, a total of 25 sampling pixels of 5 × 5 at intervals D are set, and the Gabor feature by the L Gabor filters is calculated.
【0173】図24に戻り、続くステップS105にお
いては、ステップS104において算出したM×L(=
120)個のGabor特徴hij(i=1,2,…,
M;j=1,2,…,L)を特徴量とし、各値を特徴量
算出結果ウィンドウ(図22参照)に表示し、ROI特
徴量データ201に記億する。Returning to FIG. 24, in the subsequent step S105, the M × L (=
120) Gabor features hij (i = 1, 2,...,
M; j = 1, 2,..., L) are set as feature amounts, each value is displayed in a feature amount calculation result window (see FIG. 22), and stored in the ROI feature amount data 201.
【0174】以上に説明したように、内視鏡画像に対す
るGaborフィルタの適用によるGabor特徴の利
用により、画像上の位置に依存する局所的な情報を保存
した特徴量の算出が可能となる。得られた特徴量を用い
て内視鏡画像における粘膜表面の構造パターンを示すテ
クスチャの解折及び判別分類が良好に行える。As described above, by using the Gabor feature by applying the Gabor filter to the endoscope image, it is possible to calculate a feature amount storing local information depending on the position on the image. Using the obtained feature amounts, the texture indicating the structural pattern of the mucous membrane surface in the endoscopic image can be satisfactorily analyzed and classified.
【0175】なおGaborフィルタを設計するための
方向θk、波長λm及び標準偏差σxとσyの各々の与え方
は、本実施の形態の例に限定されるものではなく、適用
対象とする画像に合わせる等適宜決定してよい。また、
方向θkを非等間隔に設定してもよい。The way of giving each of the direction θk, the wavelength λm, and the standard deviations σx and σy for designing the Gabor filter is not limited to the example of the present embodiment, but is adapted to the image to be applied. Etc. may be determined as appropriate. Also,
The directions θk may be set at unequal intervals.
【0176】また、使用するGaborフィルタの特性
を正規化して使用することももちろん可能である。その
場合は、例えば周波数領域における直流成分に対する周
波数応答を0に、通過帯域における周波数応答の絶対値
の最大値をα(αは任意の定数)となるように各Gab
orフィルタを変更すればよい。さらに、このような正
規化を、算出されたGabor特徴に対して適用しても
よい。It is of course possible to normalize the characteristics of the Gabor filter to be used. In this case, for example, each Gab is set so that the frequency response to the DC component in the frequency domain is 0 and the maximum value of the absolute value of the frequency response in the pass band is α (α is an arbitrary constant).
or filter may be changed. Further, such normalization may be applied to the calculated Gabor feature.
【0177】また,本実施の形態においては、特徴量算
出の対象として、ROIにおけるG画像を用いたが、R
及びB画像から同様の特徴量を算出してもよい。また、
例えば輝度画像等のR、G及びB画像データに対する演
算の適用により得られた画像に対して適用することも可
能である。Further, in the present embodiment, the G image in the ROI is used as the target of the feature amount calculation.
And the same characteristic amount may be calculated from the B image and the B image. Also,
For example, the present invention can be applied to an image obtained by applying an operation to R, G, and B image data such as a luminance image.
【0178】さらに、Gabor特徴の算出は、M個の
サンプリング画素に関し適用するのみでなく、ROIに
内包される全画素から得るようにしてもよい。Furthermore, the calculation of the Gabor feature is not limited to being applied to the M sampling pixels, but may be obtained from all the pixels included in the ROI.
【0179】また、ROIの形状は矩形に限定されるも
のではなく、任意の描画形伏でのROIから同様の特徴
量を求めることも可能である。Further, the shape of the ROI is not limited to a rectangle, and a similar feature can be obtained from the ROI in an arbitrary drawing shape.
【0180】次に、特徴量算出ブロック74におけるR
OI間相互特徴量について説明する。ROI間相互特徴
量とは、1枚の内視鏡画像中に設定したROIにおける
2個以上の組み合わせにより算出された特徴量を指し示
す。Next, R in the feature amount calculation block 74
The inter-OI mutual feature will be described. The inter-ROI mutual feature indicates a feature calculated by a combination of two or more ROIs set in one endoscopic image.
【0181】例えば,ROI(1)と(2)、相互特徴
量としてlog(G/R)の平均値間の差分演算を想定
した場合、ROI間相互特徴量は各々のROIより算出
したlog(G/R)の平均値v1及びv2との差分で
ある v=v1−v2 となる。また、差分演算以外にも除算による比v1/v
2の算出等、種々のものが考えられ(例えば、(v1−
1)×v2のような数式でもよい)、3個以上のROI
における特徴量の任意の演算を用いてもよい。For example, assuming that the difference between ROIs (1) and (2) and the average value of log (G / R) is used as the mutual feature, the inter-ROI mutual feature is calculated using the log (G) calculated from each ROI. G = R1−v2, which is the difference between the average values of G / R) v1 and v2. In addition to the difference calculation, the ratio v1 / v
2 and the like (for example, (v1-
1) A formula such as xv2 may be used.) 3 or more ROIs
May be used.
【0182】ROI間相互特徴量を導入することによ
り、異なる病変間の正常粘膜に対する相対的な差異を評
価することが可能となる。例えば、ある病変1と病変2
との判別において、それぞれの色調を正常粘膜と比較し
た際に前者は白色調,後者は赤色調として観察者により
判断される場合がある。これは、1枚の内視鏡画像中に
おける病変部位とその周辺における正常粘膜との相対的
な評価に基づいている。By introducing the mutual feature between ROIs, it is possible to evaluate the relative difference between different lesions and normal mucosa. For example, lesion 1 and lesion 2
When the respective color tones are compared with normal mucous membranes, the observer may determine that the former is a white tone and the latter is a red tone. This is based on the relative evaluation of the lesion site in one endoscopic image and the normal mucosa around it.
【0183】一方、内視鏡画像の撮像条件である光源に
よる観察光の照射条件は、内視鏡画像1枚ごとに異な
る。したがって、同じ白色調あるいは赤色調の病変を撮
像した場合においてもそれらを構成するR,G及びB画
像データの組成は異なることとなる。そこで、1枚の内
視鏡画像の視野内においては比較的撮像条件が均一と考
えられることから、同一画像中における複数のROIか
ら算出される特徴量の相対的な値を求めることにより、
撮像条件のばらつきに影響されない判別分類が可能とな
る。On the other hand, the condition for irradiating the observation light with the light source, which is the condition for capturing the endoscope image, differs for each endoscope image. Therefore, even when lesions of the same white tone or red tone are imaged, the compositions of the R, G, and B image data that constitute them differ. Therefore, since it is considered that the imaging conditions are relatively uniform in the field of view of one endoscope image, the relative values of the feature amounts calculated from a plurality of ROIs in the same image are obtained.
Discrimination and classification not affected by variations in imaging conditions can be performed.
【0184】本実施の形態では、図19の算出特徴量メ
ニューウインドウ240で、相互特徴量算出ボタン24
3がクリックされた場合、図26に示すROI間相互特
徴量メニューウインドウ280が開く。In this embodiment, the mutual feature calculation button 24 is displayed on the calculation feature menu window 240 shown in FIG.
When 3 is clicked, the inter-ROI mutual feature menu window 280 shown in FIG. 26 is opened.
【0185】ROI間相互特徴量メニューウィンドウ2
80は、算出する特徴量の種類を指定するためのメニュ
ーバー281と、スクロールバー282と、ROI間の
演算の種類を指定するためのニューバー283と、スク
ロールバー284と、後述する基準分類を指定するため
のメニューバー285と、スクロールバー286と、相
互特徴量の一括選択を行うための一括選択ボタン287
と、算出するROI間相互特徴量を確定しROI間相互
特徴量メニューウィンドウ280を閉じるための確定ボ
タン288から構成される。Inter-ROI Mutual Feature Menu Window 2
Reference numeral 80 denotes a menu bar 281 for designating the type of feature to be calculated, a scroll bar 282, a new bar 283 for designating the type of operation between ROIs, a scroll bar 284, and a reference class described later. A menu bar 285 for specifying, a scroll bar 286, and a batch selection button 287 for batch selection of mutual feature values
And a determination button 288 for determining the inter-ROI mutual feature to be calculated and closing the inter-ROI mutual feature menu window 280.
【0186】メニューバー281は、図19のメニュー
バー241と同様に、算出可能である特徴量が一覧表示
され、操作者のクリックにより算出する特徴量の種類が
設定される。その際、図19のメニューバー241にお
いて設定された特徴量があれば、メニューバー281に
おいても同じ特徴量が自動的に選択されるように制御し
てもよい。In the menu bar 281, similarly to the menu bar 241 in FIG. 19, a list of feature amounts that can be calculated is displayed, and the type of the feature amount to be calculated by clicking on the operator is set. At this time, if there is a feature amount set in the menu bar 241 in FIG. 19, control may be performed so that the same feature amount is also automatically selected in the menu bar 281.
【0187】スクロールバー282は、必要に応じてメ
ニューバー281をスクロールさせることができる。The scroll bar 282 can scroll the menu bar 281 as needed.
【0188】メニューバー283は、前述のROI間相
互演算の種類を設定するためのもので、複数の演算を選
択可能である。The menu bar 283 is used to set the type of the above-described inter-ROI operation, and a plurality of operations can be selected.
【0189】スクロールバー284は、必要に応じてメ
ニューバー283をスクロールさせることができる。The scroll bar 284 can scroll the menu bar 283 as needed.
【0190】メニューバー285は、ROI間相互特徴
量の算出において、基準とするROIの分類である基準
分類を設定する。前述した例において、病変1と病変2
のそれぞれの正常粘膜に対するROI間相互特徴量を算
出する場合には、基準分類を正常とする。複数の基準分
類を選択可能としてもよい。The menu bar 285 sets a reference classification which is a classification of the ROI to be a reference in calculating the inter-ROI mutual feature amount. In the example described above, lesion 1 and lesion 2
When calculating the mutual feature value between ROIs for each normal mucosa, the reference classification is set to normal. A plurality of reference classifications may be selectable.
【0191】スクロールバー286は、必要に応じてメ
ニューバー285をスクロールさせることができる。The scroll bar 286 can scroll the menu bar 285 as needed.
【0192】一括選択ボタン287は、前述した図19
の一括選択ボタン244の動作と同様に、算出するRO
I間相互特徴量の一括選択を指定する。The collective selection button 287 is the same as the one shown in FIG.
RO to be calculated in the same manner as the operation of the batch selection button 244 of
A batch selection of mutual feature values between I is designated.
【0193】操作者は、ROI間相互特徴量メニューウ
インドウ280における一連の作業を終了後、確定ボタ
ン288のクリックにより算出するROI間相互特徴量
を確定の上、ROI間相互特徴量メニューウインドウ2
80を閉じ、図18のROI設定ウインドウ220に戻
る。After completing a series of operations in the inter-ROI mutual feature menu window 280, the operator determines the inter-ROI mutual feature calculated by clicking on the confirm button 288, and then sets the inter-ROI mutual feature menu window 2
80, and returns to the ROI setting window 220 of FIG.
【0194】ROI間相互特徴量の算出が設定された場
合には、図18において特徴量算出実行ボタン227の
クリックによりROI間相互特徴量が算出される。When the calculation of the mutual feature between ROIs is set, the mutual feature between ROIs is calculated by clicking the feature value calculation execution button 227 in FIG.
【0195】図27はROI間相互特徴量の算出を説明
するための説明図であって、内視鏡画像290におい
て、ROIが5個設定されそれぞれに分類ボタン226
(図18参照)を用いての分類がなされているものとす
る。また、図27に示す例においては、基準分類は正
常、相互演算は差分演算が設定されているものとする。
また,各ROI(1)ないし(5)における特徴量をv
1ないしv5とする。FIG. 27 is an explanatory diagram for explaining the calculation of the mutual feature value between ROIs. In the endoscope image 290, five ROIs are set and the classification buttons 226 are respectively set.
(See FIG. 18). In the example shown in FIG. 27, it is assumed that the reference classification is normal and the mutual operation is a difference operation.
Also, the feature quantity in each ROI (1) to (5) is represented by v
1 to v5.
【0196】ROI間相互特徴量は、前述の通り、基準
分類と同一の分類がなされたROIから算出される特徴
量と、その他の分類がなされたROIから算出される特
徴量との演算を行うものである。したがって、この場
合、ROI間相互特徴量は、以下の通り求められる。た
だし、ともに基準分類が与えられたROI間においては
ROI間相互特徴量の算出は行わないものとする。As described above, the inter-ROI mutual feature value is obtained by calculating the feature value calculated from the ROI classified into the same classification as the reference classification and the feature value calculated from the ROI classified into another classification. Things. Therefore, in this case, the mutual feature between ROIs is obtained as follows. However, it is assumed that the inter-ROI mutual feature value is not calculated between the ROIs to which the reference classification is given.
【0197】v1−v2 v1−v4 v1−v5 v3−v2 v3−v4 v3−v5 これらの組み合わせは、各ROIに付された分類をキー
として自動的に決定することが可能である。図28は、
ROI間相互特徴量算出における自動組み合わせの動作
を説明するためのフローチャートである。V1-v2 v1-v4 v1-v5 v3-v2 v3-v4 v3-v5 These combinations can be automatically determined using the classification assigned to each ROI as a key. FIG.
It is a flowchart for demonstrating the operation | movement of the automatic combination in mutual feature-value calculation between ROI.
【0198】ステップS1において、基準分類と同一の
分類(この例では正常)がなされたROIの番号をカウ
ントするための変数iを1に初期化し、ステップS2へ
進む。In step S1, a variable i for counting the number of an ROI having the same classification (normal in this example) as the reference classification is initialized to 1, and the flow advances to step S2.
【0199】続くステップS2において、i番目のRO
Iの分類が正常であるかどうかを判定する。判定結果が
真であればステップS3へ、偽であればステップS9へ
進む。In the following step S2, the i-th RO
It is determined whether the classification of I is normal. If the determination is true, the process proceeds to step S3, and if false, the process proceeds to step S9.
【0200】ステップS3においては、ステップS2で
の判定により基準分類であるとされたi番目のROIと
の特徴量間の差分算出対象とするROIの番号をカウン
トする変数jを1に初期化し、ステップS4へ進む。In step S3, a variable j for counting the number of the ROI to be calculated as the difference between the feature quantity and the i-th ROI determined to be the reference classification by the determination in step S2 is initialized to 1. Proceed to step S4.
【0201】ステップS4においては、i=jであるか
どうかを判定し、判定結果が真であればステップS7
へ、偽であればステップS5へ進む。In step S4, it is determined whether or not i = j. If the determination result is true, step S7
If false, the process proceeds to step S5.
【0202】ステップS5においては、j番目のROI
の分類が正常であるかどうかを判定する。判定結果が真
であればステップS7へ、偽であればステップS6へ進
む。In step S5, the j-th ROI
It is determined whether the classification is normal. If the determination result is true, the process proceeds to step S7, and if false, the process proceeds to step S6.
【0203】ステップS6においては、i番目及びj番
目のROIにおけるROI間相互特徴量の算出を行い、
ステップS7へ進む。In step S6, the mutual feature value between ROIs in the i-th and j-th ROIs is calculated.
Proceed to step S7.
【0204】ステップS7においては、jをj+1と
し、ステップS8へ進む。In step S7, j is set to j + 1, and the flow advances to step S8.
【0205】ステップS8においては、j>5であるか
否か、すなわち、すべてのROI(この例では5個)に
対する処理が終了したかどうかを判定する。判定結果が
真であればステップS9へ、偽であればステップS4進
む。In step S8, it is determined whether or not j> 5, that is, whether or not processing has been completed for all ROIs (five in this example). If the determination is true, the process proceeds to step S9, and if false, the process proceeds to step S4.
【0206】ステップS9においては、iをi+1と
し、ステップS10へ進む。In step S9, i is set to i + 1, and the flow advances to step S10.
【0207】ステップS10においては、i>5である
か否か、すなわち、すべてのROI(この例では5個)
に対する処理が終了したかどうかを判定する。判定結果
が真であれば処理を終了し、偽であればステップS2へ
進む。In step S10, it is determined whether or not i> 5, that is, all ROIs (five in this example)
It is determined whether the process for has been completed. If the result of the determination is true, the process is terminated; otherwise, the process proceeds to step S2.
【0208】また,特徴量算出実行ボタン227がクリ
ックされると、算出するROI間相互特徴量の選択がな
されている場合にはROI間特徴量算出結果表示ウイン
ドウ(図示せず)が開く。ROI間特徴量算出結果ウイ
ンドウの構成は、前述の特徴量算出結果表示ウィンドウ
(図22)とほぼ同一であり、例えば(1)−(2)
等、どのROIが組み合わされたかがわかるように表示
される点のみが異なる。When the feature amount calculation execution button 227 is clicked, if an inter-ROI mutual feature amount to be calculated is selected, an inter-ROI feature amount calculation result display window (not shown) is opened. The configuration of the inter-ROI feature amount calculation result window is substantially the same as the above-described feature amount calculation result display window (FIG. 22), for example, (1)-(2).
For example, the only difference is that the ROIs are displayed in such a manner as to be understood.
【0209】ROI間相互特徴量の算出結果は、ROI
間相互特徴量データ200に追加される(図17参
照)。The calculation result of the mutual feature between ROIs is
It is added to the inter-interest feature data 200 (see FIG. 17).
【0210】一方、特徴量算出アイコン114(図7)
をクリックすると、新たな特徴量算出ウインドウが開
く。On the other hand, the feature amount calculation icon 114 (FIG. 7)
Clicking opens a new feature amount calculation window.
【0211】図29に示すように、特徴量算出ウインド
ウ300は、特徴量を算出するROIを選択するための
ROI指定ボタン301と、特徴量の算出を実行するた
めの特徴量算出実行ボタン302及び終了ボタン303
からなっている。As shown in FIG. 29, the feature amount calculation window 300 includes an ROI designation button 301 for selecting an ROI for calculating the feature amount, a feature amount calculation execution button 302 for executing the feature amount calculation, and End button 303
Consists of
【0212】操作者が、ROI指定ボタン301をクリ
ックすることにより、図30に示すROI指定ウインド
ウ310が開く。When the operator clicks on ROI designation button 301, an ROI designation window 310 shown in FIG. 30 opens.
【0213】図30に示すように、ROI指定ウィンド
ウ310は、すでに設定済みであるROIの一覧を表示
及び選択することが可能であるメニューバー311と、
スクロールバー312と、すべての設定済みのROIを
特徴量算出の対象として指定する為の全ROI指定ボタ
ン313と、設定されているROIを確認するためのR
OI画像表示ボタン314と、算出する特徴量の種類を
選択する特徴量選択ボタン315と、部位,所見あるい
は分類によりメニューバー311上に表示するROIを
限定するためのROI限定ボタン316及びROI指定
を確定しROI指定ウィンドウ310を閉じるための確
定ボタン317からなっている。As shown in FIG. 30, a ROI designation window 310 has a menu bar 311 for displaying and selecting a list of ROIs already set,
A scroll bar 312, an all-ROI designation button 313 for designating all set ROIs as targets of feature amount calculation, and an R for confirming the set ROI.
An OI image display button 314, a feature amount selection button 315 for selecting the type of the feature amount to be calculated, a ROI limitation button 316 for limiting the ROI displayed on the menu bar 311 by a site, a finding, or a classification, and an ROI designation. The confirmation button 317 is used to confirm and close the ROI designation window 310.
【0214】メニューバー311上には、検査No.、
患者ID、患者名、画像No.あるいはROIの番号
等、ROIを特定するためのデータが表示され、任意の
事項をクリックすることによりROIを指定する。In the menu bar 311, the inspection No. ,
Patient ID, patient name, image No. Alternatively, data for specifying the ROI, such as the number of the ROI, is displayed, and the ROI is designated by clicking an arbitrary item.
【0215】ROI画像表示ボタン314がクリックさ
れた場合には、メニューバー311上で指定されている
ROIを含む内視鏡画像を表示する、ROI設定ウィン
ドウ220における画像表示領域221(図18参照)
に準じた新たなウインドウ(図示せず)が開かれる。そ
の際、内視鏡画像と同時に、部位、所見及び分類等のデ
ータを併せて表示してもよい。When ROI image display button 314 is clicked, image display area 221 in ROI setting window 220 for displaying an endoscope image including the ROI specified on menu bar 311 (see FIG. 18)
A new window (not shown) according to is opened. At this time, data such as the site, findings, and classification may be displayed together with the endoscope image.
【0216】特徴量選択ボタン315がクリックされた
場合には、前述のROI設定ウィンドウ220における
特徴量選択ボタン223がクリックされた場合と同様の
処理が行われる。When the feature amount selection button 315 is clicked, the same processing as when the feature amount selection button 223 in the above-described ROI setting window 220 is clicked is performed.
【0217】ROI限定ボタン316がクリックされた
場合には、操作者によるメニューバー311への表示項
目の限定が行われる。すなわち、部位、所見あるいは分
類をキーとし、指定されたデータが付されたROIのみ
を表示するようにする。When the ROI limitation button 316 is clicked, the display items on the menu bar 311 are limited by the operator. That is, only the ROI to which the specified data is attached is displayed using the site, the finding, or the classification as a key.
【0218】一連の作業が終了すると,操作者が確定ボ
タン317クリックすることにより、特徴量を算出する
ROIの指定が確定し、ROI指定ウィンドウ290を
閉じる。When a series of operations are completed, the operator clicks a confirm button 317 to confirm the designation of the ROI for calculating the characteristic amount, and closes the ROI designation window 290.
【0219】図29の特徴量算出実行ボタン303がク
リックされた場合においては、指定されたROIに対す
る特徴量の算出が行われる。この後の動作は、前述した
ROI設定ウインドウ220における特徴量算出実行ボ
タン227がクリックされた場合と同様である。When the feature amount calculation execution button 303 in FIG. 29 is clicked, the feature amount is calculated for the designated ROI. The subsequent operation is the same as when the feature amount calculation execution button 227 in the ROI setting window 220 is clicked.
【0220】また,終了ボタン303をクリックするこ
とにより特徴量算出ウインドウ300を閉じる。[0220] When the end button 303 is clicked, the feature amount calculation window 300 is closed.
【0221】(判別分類ブロック)次に、判別分類ブロ
ック75の動作について説明する。(Determination and Classification Block) Next, the operation of the determination and classification block 75 will be described.
【0222】判別分類手法としては、統計的手法あるい
は非統計的な手法として、種々のものが知られている。
前者は線形判別関数、ECM 規則等が挙げられ、後者はニ
ューラルネットワークによる判別器等が挙げられる。本
実施の形態においては公知技術として広く用いられてい
るFisherの線形判別関数(2クラス分類)を扱うことと
する。As the discriminant classification method, various methods are known as a statistical method or a non-statistical method.
The former includes a linear discriminant function and ECM rules, and the latter includes a discriminator using a neural network. In this embodiment, Fisher's linear discriminant function (two-class classification), which is widely used as a known technique, is handled.
【0223】判別分類処理は、異なる複数のクラス(本
実施の形態においては、設定したROIに対して付され
た分類をクラスとする)における1つ以上の特徴量か
ら、判別分類器(本実施の形態においては線形判別関
数)を作成し、判別分類対象とするデータがいずれのク
ラスに該当するかを判定するものである。判別分類器の
作成にあたっては、あらかじめ正しいクラスが与えられ
たサンプルデータ(教師データと呼ばれる)における1
つ以上の特徴量の値の組み合わせ(特徴ベクトルと呼ば
れる)を複数使用する。The discrimination / classification processing is performed by using a discrimination / classification unit (this embodiment) based on one or more characteristic amounts in a plurality of different classes (in the present embodiment, the class given to the set ROI is a class). In this embodiment, a linear discriminant function is created, and it is determined which class the data to be discriminated and classified corresponds to. When creating a discriminant classifier, one sample data (called teacher data) to which a correct class is given in advance is used.
A plurality of combinations of one or more feature values (called feature vectors) are used.
【0224】本実施の形態においては、例えば胃におけ
るI型早期癌及び腺腫をクラスとする。また、特徴ベク
トルを構成する特徴量を、ROI間相互特徴量とし、各
ROIにおける正常粘膜とのlog(G/R)及びlo
g(B/R)の平均値の差分を使用するものとする。In the present embodiment, for example, type I early cancer and adenoma in the stomach are classified as classes. In addition, the feature amount constituting the feature vector is defined as a mutual feature amount between ROIs, and log (G / R) and lo
It is assumed that the difference between the average values of g (B / R) is used.
【0225】また、本実施の形態においては、判別分類
対象とするクラス、特徴ベクトルとして使用する特徴量
の種類、教師データとして使用したROIの組み合わせ
及び判別分類器における各係数をデータセットと呼称す
る。In the present embodiment, the class to be classified and classified, the type of the feature used as the feature vector, the combination of the ROI used as the teacher data, and each coefficient in the classifier are called a data set. .
【0226】操作者は、判別分類アイコン75(図7)
をクリックすることにより、新たな判別分類ウィンドウ
を開く。The operator selects the discrimination / classification icon 75 (FIG. 7).
By clicking, a new classification window is opened.
【0227】図31に示すように、判別分類ウインドウ
320は、適用する判別分類手法の種類を表示及び選択
するためのメニューバー321と、スクロールバー32
2と、後述するデータセット作成処理を動作させるため
のデータセット作成ボタン323と、判別分類を実行す
るための判別分類実行ボタン324及び終了ボタン32
5からなっている。As shown in FIG. 31, the discrimination / classification window 320 includes a menu bar 321 for displaying and selecting the type of the discrimination / classification technique to be applied, and a scroll bar 32.
2, a data set creation button 323 for operating a data set creation process to be described later, a discrimination classification execution button 324 for executing discrimination classification, and an end button 32
It consists of five.
【0228】メニューバー321においては、実行可能
である判別分類手法が一覧表示され、操作者はクリック
により実行する判別分類手法を選択する。The menu bar 321 displays a list of executable discrimination and classification methods, and the operator selects a discrimination and classification method to be executed by clicking.
【0229】データセット作成ボタン323をクリック
すると、新たなデータセット作成ウインドウが開く。[0229] When the data set creation button 323 is clicked, a new data set creation window opens.
【0230】図32に示すように、データセット作成ウ
ィンドウ330は、判別分類対象とするクラスを設定す
るためにクラス(ここでは分類)を表示及び選択するた
めのメニューバー331と、スクロールバー332と、
特徴ベクトルとして使用する特徴量を選択するためのメ
ニューバー333と、メニューバー333を垂直及び水
平方向にそれぞれスクロールさせることができるスクロ
ールバー334a及び334bと、教師データを指定す
るためのクラス別ROI選択ボタン335と、作成する
データセットに対して名称を付すためのデータセット名
入力領域336と、データセットの作成を実行する作成
実行ボタン337と、すでに作成済みのデータセットを
呼び出すことができる既存データセット呼び出しボタン
338及び終了ボタン339からなっている。As shown in FIG. 32, a data set creation window 330 includes a menu bar 331 for displaying and selecting a class (here, a classification) for setting a class to be classified and classified, and a scroll bar 332. ,
A menu bar 333 for selecting a feature amount to be used as a feature vector, scroll bars 334a and 334b for scrolling the menu bar 333 in the vertical and horizontal directions, and a class-specific ROI selection for specifying teacher data A button 335, a data set name input area 336 for giving a name to the data set to be created, a create execution button 337 for executing the creation of the data set, and existing data for calling the already created data set It consists of a set call button 338 and an end button 339.
【0231】操作者は、メニューバー331上において
判別分類対象とするクラスを、メニューバー333上に
おいて、特徴ベクトルとして使用する特徴量を選択す
る。The operator selects a class to be determined and classified on the menu bar 331, and selects a feature amount to be used as a feature vector on the menu bar 333.
【0232】クラス別ROI選択ボタン335をクリッ
クすることにより、新たなクラス別ROI一覧ウインド
ウが開く。このクラス別ROI一覧ウインドウは、判別
分類対象とするクラス数と同じ数だけ開くものとする。Clicking on a class-specific ROI selection button 335 opens a new class-specific ROI list window. This class-specific ROI list window is opened by the same number as the number of classes to be classified and classified.
【0233】図33に示すように、クラス別ROI一覧
ウインドウ340は、設定されたROIの一覧を表示及
び選択するためのメニューバー341と、スクロールバ
ー342と、対応するクラスの名称を表示するための出
力表示領域343と、メニューバー341上に表示され
たすべてのROIを一括選択するための全選択ボタン3
44及び確定ボタン345からなっている。As shown in FIG. 33, a class-specific ROI list window 340 is used to display a menu bar 341 for displaying and selecting a set list of ROIs, a scroll bar 342, and the name of the corresponding class. Output display area 343 and an all select button 3 for collectively selecting all ROIs displayed on the menu bar 341
44 and an enter button 345.
【0234】メニューバー341上には、設定されたR
OIにおいて対応するクラスの分類が付されたものが一
覧表示され、クリックにより教師データとして使用する
ことが指定される。また、全選択ボタン344をクリッ
クすることにより、メニューバー341上に表示された
すべてのROIを教師データとして一括指定することも
可能である。On the menu bar 341, the set R
In the OI, a list of classes to which the corresponding class is attached is displayed, and a click specifies that the class is used as teacher data. By clicking the select all button 344, all ROIs displayed on the menu bar 341 can be collectively designated as teacher data.
【0235】教師データとして使用するROIの指定終
了後、確定ボタン345をクリックすることによりクラ
ス別ROI一覧ウィンドウを閉じる。After the designation of the ROI to be used as the teacher data is completed, the class-specific ROI list window is closed by clicking the confirm button 345.
【0236】以上の一連の処理を、判別対象とするクラ
ス数回行うことにより、教師データの指定を完了する。By performing the above series of processes several times for the class to be determined, designation of teacher data is completed.
【0237】また、キーボード42からの入力により作
成するデータセットに対する名称を付与することができ
る。データセット名は図32の出力表示領域336上に
表示される。A name for a data set created by input from the keyboard 42 can be given. The data set name is displayed on the output display area 336 in FIG.
【0238】以上において説明したデータセット作成ウ
インドウ330上での作業は、任意の順序で行うことが
可能である。The operations on the data set creation window 330 described above can be performed in an arbitrary order.
【0239】続いて、作成実行ボタン337をクリック
することにより、データセットの作成が行われる。Fish
er の線形判別関数においては、特徴ベクトルを構成す
る特徴量の個数と同数の係数と、判別分類の境界値が算
出される。Subsequently, a data set is created by clicking a create execution button 337. Fish
In the linear discriminant function of er, the same number of coefficients as the number of features constituting the feature vector and the boundary value of the discriminant classification are calculated.
【0240】また,既存データセット呼び出しボタン3
38をクリックすると、新たなデータセット一覧ウイン
ドウが開かれる。Also, an existing data set call button 3
Clicking on 38 opens a new dataset list window.
【0241】図34に示すように、データセット一覧ウ
インドウ350は、作成済みであるデータセット名の一
覧表示し、選択するためのメニューバー351と、スク
ロールバー352と、確定ボタン353及び終了ボタン
354からなっている。As shown in FIG. 34, the data set list window 350 displays a list of data set names that have been created, and a menu bar 351 for selecting the data set, a scroll bar 352, a confirm button 353, and an end button 354. Consists of
【0242】操作者はメニューバー351上のデータセ
ット名を1個選択し、確定ボタン353をクリックする
ことにより、データセット作成ウインドウ330におけ
るメニューバー331、メニューバー333、出力表示
領域336の設定内容を選択したデータセットと同じも
のとすることができる。また、クラス別ROI一覧ウイ
ンドウ340における各表示項目も同様である。The operator selects one data set name on the menu bar 351 and clicks the OK button 353 to set the menu bar 331, menu bar 333, and output display area 336 in the data set creation window 330. Can be the same as the selected data set. The same applies to each display item in the class-specific ROI list window 340.
【0243】以後、再現された各設定条件を適宜変更す
ることにより、新たなデータセットを作成することが可
能となる。これにより、判別分類への寄与度が低い特徴
量の使用をやめる、教師データとするROIの組み合わ
せを若干変更するといった調整が可能となる。Thereafter, a new data set can be created by appropriately changing the reproduced setting conditions. This makes it possible to make adjustments such as to stop using feature amounts that have a low degree of contribution to the discriminant classification and to slightly change the combination of ROIs used as teacher data.
【0244】一連の処理を終了後、終了ボタン339を
クリックすることによりデータセット作成ウィンドウ3
30を閉じる。After a series of processing is completed, the end button 339 is clicked to open the data set creation window 3
Close 30.
【0245】また、図31の判別分類実行ボタン324
をクリックすることにより、作成したデータセットを用
いた判別分類が実行される。判別分類実行ボタン324
をクリックすると、新たな判別分類実行ウインドウが開
く。Also, the discrimination / classification execution button 324 shown in FIG.
By clicking, discrimination and classification using the created data set is executed. Execute discrimination classification button 324
Clicking opens a new discrimination / classification execution window.
【0246】図35に示すように、判別分類実行ウイン
ドウ360は、既に作成済みのデータセット名の一覧を
表示及び選択することができるメニューバー361と、
スクロールバー361と、設定されたすべてのROIを
表示及び選択することができるメニューバー363と、
スクロールバー364と、スクロールバー363上に表
示するROIを、教師データと同じクラスとなる分類が
与えられたROIに限定するための対応クラス選択ボタ
ン365と、判別分類の実行を開始するための実行ボタ
ン366及び終了ボタン367からなっている。As shown in FIG. 35, a discrimination / classification execution window 360 includes a menu bar 361 capable of displaying and selecting a list of already created data set names,
A scroll bar 361, a menu bar 363 for displaying and selecting all set ROIs,
A scroll bar 364, a corresponding class selection button 365 for limiting the ROI displayed on the scroll bar 363 to a ROI to which the same class as the teacher data is assigned, and an execution for starting the execution of the discrimination classification A button 366 and an end button 367 are provided.
【0247】操作者は、メニューバー361上に表示さ
れた任意のデータセットを判別分類器として選択する。
また、メニューバー363上に表示された任意のROI
を判別分類対象として選択する。[0247] The operator selects an arbitrary data set displayed on the menu bar 361 as a discriminating classifier.
Also, any ROI displayed on the menu bar 363
Is selected as a classification target.
【0248】また、対応クラス選択ボタン365がクリ
ックされた場合には、教師データと同じクラスとなる分
類が付与されたROIのみを表示する。これにより、作
成したデータセットによる判別分類の正答率等を確認す
ることが容易になる。When the corresponding class selection button 365 is clicked, only the ROIs to which the same class as the teacher data is assigned are displayed. This makes it easy to confirm the correct answer rate and the like of the discrimination classification based on the created data set.
【0249】実行ボタン366がクリックされた場合に
は、選択されたデータセット及びROIを用いた判別分
類処理が実行され、新たな判別分類結果表示ウインドウ
が開く。When the execute button 366 is clicked, discrimination / classification processing using the selected data set and ROI is executed, and a new discrimination / classification result display window is opened.
【0250】図36に示すように、判別分類結果表示ウ
インドウ370は、使用したデータセット名を表示する
出力表示領域371と、判別分類の境界値を表示するた
めの出力表示領域372と、判別分類の対象としたクラ
スの名称を表示するための出力表示領域373と、判別
分類対象としたROIの情報及び判別結果を表示するた
めの出力表示領域374と、スクロールバー375及び
終了ボタン376からなっている。As shown in FIG. 36, the discrimination / classification result display window 370 includes an output display area 371 for displaying the used data set name, an output display area 372 for displaying the discrimination / classification boundary value, and a discrimination / classification. An output display area 373 for displaying the name of the class set as the target, an output display area 374 for displaying the information of the ROI set as the classification target and the determination result, a scroll bar 375 and an end button 376 I have.
【0251】判別分類の境界値は Fisher の線形判別関
数において2クラスを分離する境界を与える係数であ
る。判別分類対象としたROIの特徴ベクトルから算出
された結果の値がこの境界値に対して大または小である
ことにより、2クラスに分類する。算出結果と境界値と
が等しい場合にはいずれのクラスに分類するかをあらか
じめ決定しておけばよい。The boundary value of the discriminant classification is a coefficient that gives a boundary separating two classes in the Fisher's linear discriminant function. If the value of the result calculated from the feature vector of the ROI to be discriminated and classified is larger or smaller than this boundary value, the ROI is classified into two classes. When the calculation result is equal to the boundary value, it is only necessary to determine in advance which class to classify.
【0252】出力表示領域374においては、判別分類
結果が得られたROIに関する検査No.、患者ID、
画像No.、ROIの番号等のデータ及び判別分類結果
を逐次表示する。In the output display area 374, the inspection No. relating to the ROI from which the discrimination / classification result was obtained is displayed. , Patient ID,
Image No. , ROI numbers and the like and the discrimination classification result are sequentially displayed.
【0253】操作者は判別分類結果を確認後,終了ボタ
ン376をクリックすることにより判別分類結果表示ウ
インドウ370を閉じる。After confirming the discrimination / classification result, the operator clicks the end button 376 to close the discrimination / classification result display window 370.
【0254】なお、判別分類結果表示ウインドウは,選
択されたデータセットの個数分開かれ、各データセット
ごとの判別分類結果が表示される.以上説明した一連の
作業における所望の処理を実施後、図31の判別分類ウ
インドウ320における終了ボタン325をクリックす
ることにより判別分類ウインドウを閉じる。The discrimination / classification result display windows are opened by the number of the selected data sets, and the discrimination / classification results for each data set are displayed. After performing the desired process in the series of operations described above, the discrimination / classification window is closed by clicking the end button 325 in the discrimination / classification window 320 of FIG.
【0255】なお、本実施の形態における診断支援処理
おいては、教師データあるいは判別分類対象データとし
て指定されたROIにおいて、特徴ベクトルとして使用
する特徴量が未算出である場合には自動的に特徴量算出
ブロック74を呼び出すよう制御する。これにより、あ
らかじめ多数のROIを設定しておき、判別分類におい
て必要とする最小限の特徴量をまとめて算出することが
可能となる。In the diagnosis support processing according to the present embodiment, when a feature used as a feature vector has not been calculated in a ROI designated as teacher data or data to be classified and classified, the feature is automatically calculated. Control is performed to call the amount calculation block 74. Accordingly, it is possible to set a large number of ROIs in advance and collectively calculate the minimum feature amount required for discrimination and classification.
【0256】(レポート作成ブロック)続いて、レポー
ト作成ブロック76の動作について説明する。レポート
作成アイコン116(図7)をクリックすることによ
り、レポート作成ウインドウが開く。本実施の形態にお
けるレポートは、特徴量算出及び判別分類における各処
理結果を基に作成されたデータ群からなるものとする。
その内容は、設定したROIから算出した特徴量の値、
データセットによる判別分類結果等に基づく。(Report Creation Block) Next, the operation of the report creation block 76 will be described. Clicking on the report creation icon 116 (FIG. 7) opens a report creation window. The report in the present embodiment is assumed to be composed of a data group created based on each processing result in feature amount calculation and discrimination classification.
The contents are the value of the feature amount calculated from the set ROI,
It is based on the result of classification and classification by the data set.
【0257】図37に示すように、レポート作成ウイン
ドウ380は、作成するレポートの内容を選択するため
の選択ボタン381と、終了ボタン382からなってい
る。選択ボタン381は特徴量算出または判別分類にお
ける各処理結果において所望するものをクリックする。
双方のレポートを同時に並行して作成することも可能で
ある。As shown in FIG. 37, the report creation window 380 includes a selection button 381 for selecting the content of a report to be created, and an end button 382. The selection button 381 is used to click on a desired one of the processing results in the feature amount calculation or discrimination classification.
It is possible to create both reports simultaneously in parallel.
【0258】選択ボタン381において、特徴量算出結
果に対するレポート作成がなされた場合には、新たな特
徴量レポート作成ウインドウが開かれる。When a report is created for the feature amount calculation result using the select button 381, a new feature amount report creation window is opened.
【0259】図38に示すように、特徴量レポート作成
ウインドウ390は、レポート作成の対象とするクラス
すなわち分類の一覧を表示及び選択するためのメニュー
バー391と、スクロールバー392と、使用する特徴
量の一覧を表示及び選択するためのメニューバー393
と、スクロールバー394a及び394bと、レポート
の表示開始を指示するための表示ボタン395と、後述
するグラフの表示開始を指示するためのグラフ作成ボタ
ン396及び終了ボタン397からなっている。As shown in FIG. 38, a feature amount report creation window 390 includes a menu bar 391 for displaying and selecting a list of classes, ie, classifications, for which a report is to be created, a scroll bar 392, and a feature amount to be used. Menu bar 393 for displaying and selecting a list of
And scroll bars 394a and 394b, a display button 395 for instructing the start of display of a report, and a graph creation button 396 and an end button 397 for instructing the start of display of a graph described later.
【0260】操作者はメニューバー391及び393上
において、レポート作成に使用するクラス及び使用特徴
量を選択する。The operator selects a class and a feature to be used for report creation on the menu bars 391 and 393.
【0261】続いて、表示ボタン395をクリックする
ことにより、新たな特徴量レポート表示ウインドウを開
く。図39に示すように、特徴量レポート表示ウインド
ウ400は、メニューバー391において選択したクラ
ス数と同数開かれ、クラス名を表示する出力表示領域4
01と、検査No.、患者ID、画像No.、ROIの
番号等のデータ及び各ROIにおけるメニューバー39
3上で選択した特徴量の算出結果が一覧表示されるとと
もに選択可能であるメニューバー402と、スクロール
バー403a及び403bと、レポートの印刷開始を指
示するための印刷開始ボタン404と、終了ボタン40
5からなっている。Subsequently, by clicking the display button 395, a new feature amount report display window is opened. As shown in FIG. 39, the feature amount report display window 400 is opened as many as the number of classes selected in the menu bar 391, and the output display area 4 for displaying class names.
01 and inspection No. , Patient ID, image No. , ROI number, etc. and menu bar 39 in each ROI
3, a menu bar 402, a scroll bar 403a and 403b, and a print start button 404 for instructing a start of printing of a report, and a finish button 40 are displayed.
It consists of five.
【0262】操作者がメニューバー402上で所望の項
目を選択し、印刷開始ボタン404をクリックすること
でその内容をプリンタ51に出力することができる。When the operator selects a desired item on the menu bar 402 and clicks the print start button 404, the contents can be output to the printer 51.
【0263】また、メニューバー402におけるすべて
の項目を選択するための一括選択ボタンを設けてもよ
い。[0263] A collective selection button for selecting all items in the menu bar 402 may be provided.
【0264】終了ボタン405をクリックすることによ
り特徴量レポート表示ウインドウ400を閉じる。When the end button 405 is clicked, the feature amount report display window 400 is closed.
【0265】また、図38においてグラフ作成ボタン3
96をクリックすることにより、新たなグラフ表示ウイ
ンドウが開く。この場合、メニューバー393において
特徴量の個数は2個となる。In FIG. 38, a graph creation button 3
Clicking on 96 opens a new graph display window. In this case, the number of feature amounts in the menu bar 393 is two.
【0266】図40に示すように、グラフ表示ウインド
ウ410は、グラフ上にプロットされる各データのクラ
スの凡例を示すための出力表示領域411と、縦軸及び
横軸にそれぞれ選択された特徴量を与えたグラフを表示
するためのグラフ表示領域412と、出力表示領域41
1及びグラフ表示領域412における表示内容の印刷を
指示するための印刷開始ボタン413及び終了ボタン4
14からなっている。As shown in FIG. 40, a graph display window 410 includes an output display area 411 for displaying a legend of each data class plotted on the graph, and a characteristic amount selected on the vertical and horizontal axes, respectively. Display area 412 for displaying a graph given with
1 and a print start button 413 and an end button 4 for instructing printing of display contents in the graph display area 412.
It consists of fourteen.
【0267】グラフ表示領域412においては、各クラ
スの選択された特徴量を2次元座標上にプロットする。
表示におけるスケールは、各特徴量の算出結果の最小値
及び最大値を基に自動的に設定される。また、プロット
されたデータ属するクラスの認識を容易にするために、
プロット色はクラスごとに異なるものとする。この例に
おいてはクラス数を3としており、それぞれ赤、青及び
緑の点によりプロットし,その対応を凡例として出力表
示領域401に表示する。In the graph display area 412, selected feature amounts of each class are plotted on two-dimensional coordinates.
The scale in the display is automatically set based on the minimum value and the maximum value of the calculation result of each feature amount. Also, in order to facilitate recognition of the class to which the plotted data belongs,
The plot colors are different for each class. In this example, the number of classes is set to three, plotted using red, blue, and green points, respectively, and the correspondence is displayed in the output display area 401 as a legend.
【0268】また、各クラスにおける各特徴量の算出結
果の平均値あるいは分散等を併せて表示してもよい。Further, the average value or the variance of the calculation results of each feature amount in each class may be displayed together.
【0269】印刷開始ボタン413がクリックされた場
合においては、出力表示領域411及びグラフ表示領域
412における内容を、プリンタ51に出力する。When the print start button 413 is clicked, the contents in the output display area 411 and the graph display area 412 are output to the printer 51.
【0270】終了ボタン414をクリックすることによ
りグラフ表示ウインドウ410を閉じる。By clicking the end button 414, the graph display window 410 is closed.
【0271】なお、特徴量レポート表示ウインドウ40
0及びグラフ表示ウインドウ410を同時に開いている
場合には、メニューバー402における項目と、グラフ
表示領域412におけるプロットとの対応がわかるよう
に制御する。例えば、メニューバー402における項目
をクリックした場合に、対応するプロットを強調表示す
ればよい。The feature report display window 40
When the “0” and the graph display window 410 are open at the same time, control is performed so that the correspondence between the items in the menu bar 402 and the plots in the graph display area 412 can be understood. For example, when an item on the menu bar 402 is clicked, the corresponding plot may be highlighted.
【0272】また、図37の選択ボタン381におい
て、判別分類結果に対するレポート作成がなされた場合
には、判別分類結果レポート作成ウインドウ(図示せ
ず)が開かれ、選択したデータセット、判別分類結果等
を適宜選択の上、プリンタ51に出力すればよい。When a report for the discrimination / classification result is created with the selection button 381 in FIG. 37, a discrimination / category result report creation window (not shown) is opened, and the selected data set, discrimination / classification result, etc. May be appropriately selected and output to the printer 51.
【0273】このように本実施の形態の診断支援装置1
では、診断支援処理実行プログラム70の特徴量算出ブ
ロック74により、1枚の内視鏡画像中に設定したRO
Iにおける2個以上の組み合わせによりROI間相互特
徴量を算出することで、異なる病変間の正常粘膜に対す
る相対的な差異を評価し、同一画像中における複数のR
OIから算出される特徴量の相対的な値を求めることに
より、撮像条件のばらつきに影響されない判別分類がで
きる。As described above, the diagnosis support apparatus 1 according to the present embodiment
Then, the RO set in one endoscope image by the feature amount calculation block 74 of the diagnosis support processing execution program 70
By calculating the mutual feature value between ROIs by using two or more combinations in I, the relative difference between different lesions with respect to the normal mucosa is evaluated, and multiple Rs in the same image are evaluated.
By determining the relative value of the feature amount calculated from the OI, it is possible to perform the classification that is not affected by the variation in the imaging condition.
【0274】なお、上記第1の実施の形態において説明
したGabor特徴に基づく特徴量算出手法は、ROI
に内包される例えばG画像データIgにおけるM個のサ
ンプリング画素に対し、L個のGaborフィルタを適
用することにより得られたM×L個の特徴量をテクスチ
ャ解折及び判別分類に使用するものとしたが、これに限
らず、Gabor特徴のさらなる利用方法として、得ら
れたGabor特徴からより診断に有効なあらたな特徴
量を算出するようにしてもよい。The feature calculation method based on the Gabor feature described in the first embodiment uses the ROI
For example, M × L feature amounts obtained by applying L Gabor filters to M sampling pixels in the G image data Ig included in G image data Ig are used for texture analysis and discrimination classification. However, the present invention is not limited to this, and as a further utilization method of the Gabor feature, a new feature amount more effective for diagnosis may be calculated from the obtained Gabor feature.
【0275】すなわち、上記第1の実施の形態の第1の
変形例としては、図23におけるステップS101ない
しS104に示した一連の処理により、M×L個のGa
bor特徴hij(i=1,2,…,M;j=1,2,
…,L)を算出する点は、上記第1の実施に形態と同様
である。That is, as a first modification of the first embodiment, a series of processing shown in steps S101 to S104 in FIG.
bor features hij (i = 1, 2,..., M; j = 1, 2,
, L) is the same as in the first embodiment.
【0276】この第1の変形例においては、得られたG
abor特徴を、M個のサンプリング画素毎に、 h(1)=(h11,h12,…,h1L) h(2)=(h21,h22,…,h2L) : : : : h(M)=(hM1,hM2,…,hML) と置き直す。h(i)(i=1,2,…,M)はそれぞ
れL個の要素を持つベクトルと考えることができる。そ
こで、各ベクトルの要素の生起する確率分布を仮定し、
それを規定するパラメータを算出し、得られた値をあら
たな特徴量とすることを考える。In this first modification, the obtained G
The abor feature is defined as follows: h (1) = (h11, h12,..., h1L) h (2) = (h21, h22,..., h2L) ::::: h (M) = ( hM1, hM2, ..., hML). h (i) (i = 1, 2,..., M) can be considered as vectors each having L elements. Therefore, assuming the probability distribution that the elements of each vector occur,
It is considered that a parameter defining the parameter is calculated, and the obtained value is used as a new feature amount.
【0277】上記第1の実施の形態の第1の変形例にお
いては、ベクトルh(i)の各要素の生起する確率分布
をL次元の正規分布と仮定し、多次元正規分布を規定す
るパラメータである平均ベクトルμ及び共分散行列Σを
求める。In the first modification of the first embodiment, the probability distribution in which each element of the vector h (i) occurs is assumed to be an L-dimensional normal distribution, and a parameter defining a multidimensional normal distribution is assumed. And the covariance matrix Σ.
【0278】平均ベクトルμ=(μ1,μ2,…,μ L)
の各要素は、Average vector μ = (μ1, μ2,..., ΜL)
Each element of
【数6】 により求められる。これは、M個のサンプリング画素に
おける、i番目のGaborフィルタにより算出される
Gabor特徴の平均値(期待値)を示す。また、共分
散行列Σは、(Equation 6) Required by This indicates the average value (expected value) of the Gabor feature calculated by the i-th Gabor filter in the M sampling pixels. The covariance matrix Σ is
【数7】 により定義される。式(7)において、σpqは、(Equation 7) Defined by In equation (7), σpq is
【数8】 により定義される分散・共分散である。なお、共分散行
列Σにおいては,σpq=σqpの性質から、L個の分散
(対角成分)と((L×(L−1))/2)個の共分散
を特徴量として使用すればよい。(Equation 8) Is the variance / covariance defined by In the covariance matrix Σ, from the property of σpq = σqp, if L variances (diagonal components) and ((L × (L−1)) / 2) covariances are used as feature amounts, Good.
【0279】以上により得られた平均ベクトルμ及び分
散・共分散σpqにより、次元数(L+L+(L×(L−
1))/2)個の値を特徴量とし、特徴量算出結果ウィ
ンドウ(図22参照)に表示し、ROI特徴量データ2
01に記億する。Based on the mean vector μ and the variance / covariance σpq obtained as described above, the number of dimensions (L + L + (L × (L−
1)) / 2) values are set as feature amounts, displayed in a feature amount calculation result window (see FIG. 22), and ROI feature amount data 2
01.
【0280】したがって、上記第1の実施の形態の第1
の変形例では、以上説明したように、ROIにおける各
画素から算出された特徴量の値の生起する確率分布を仮
定し、その分布を規定するパラメータを算出し、あらた
な特徴量とすることにより、より診断に有効な特徴量が
算出可能となる。さらに、特徴次元数の削減という効果
をも得ることができる。Therefore, the first embodiment of the first embodiment
In the modified example, as described above, assuming a probability distribution in which the value of the feature amount calculated from each pixel in the ROI occurs, a parameter defining the distribution is calculated, and a new feature amount is obtained. Thus, it is possible to calculate a feature amount more effective for diagnosis. Further, an effect of reducing the number of feature dimensions can be obtained.
【0281】また、上記第1の実施の形態の第1の変形
例においては、Gabor特徴に基づく特徴量の生起す
る確率分布について説明した、確率分布を仮定する特徴
は、これに限られるものではない。すなわち、例えば各
サンプリング画素から得られたlog(G/R)、lo
g(B/R)の値についてもその生起する確率分布の型
を仮定し、それを規定するパラメータを算出し、あらた
な特徴量とすればよい。また、特徴量が生起する確率分
布の形態は正規分布に限るものではなく、二項分布,χ
2分布等、種々のものが考えられる。Further, in the first modification of the first embodiment, the probability distribution in which the feature amount based on the Gabor feature occurs has been described. The feature assuming the probability distribution is not limited to this. Absent. That is, for example, log (G / R), lo obtained from each sampling pixel
As for the value of g (B / R), the type of the probability distribution that occurs may be assumed, and a parameter defining the same may be calculated to obtain a new feature amount. Further, the form of the probability distribution in which the feature value occurs is not limited to the normal distribution, but is a binomial distribution, χ
Various things such as two distributions are conceivable.
【0282】上記第1の実施の形態の第2の変形例とし
ては、特徴量算出手法として、設定されたROIにおけ
るR、G及びB画像データに基づく統計量を算出する手
法を使用する。As a second modification of the first embodiment, a method of calculating a statistic based on R, G, and B image data in a set ROI is used as a feature amount calculating method.
【0283】複数の色信号からなる内視鏡画像において
は、各色信号により構成される各画素の色調や分布が診
断における有用な情報となっている。上記第1の実施の
形態の第2の変形例においては、この点に着目し、判別
分類等への使用に良好な特徴量の算出手法について説明
する。In an endoscope image composed of a plurality of color signals, the color tone and distribution of each pixel constituted by each color signal are useful information for diagnosis. In the second modification of the first embodiment, attention will be paid to this point, and a description will be given of a method of calculating a feature amount that is suitable for use in discrimination and classification.
【0284】上記第1の実施の形態の第2の変形例にお
いては、内視鏡画像における各画素は各々0ないし25
5の値をとるR、G及びB画像データからなるものとす
る。このような内視鏡画像上に設定されたROIにおけ
る統計量としては、例えば以下(1)〜(10)のもの
が考えられる。なお、各統計量を算出するための画素数
を、ここではN個とする。また、ri、gi及びbiは、
それぞれi番目(i=1,2,…,N)の画素のR、G
及びBデータの値を示すものとする。In the second modification of the first embodiment, each pixel in the endoscope image is 0 to 25, respectively.
It is assumed that the image data is composed of R, G, and B image data having a value of 5. As the statistics in the ROI set on such an endoscope image, for example, the following (1) to (10) can be considered. Note that the number of pixels for calculating each statistic is N here. Also, ri, gi and bi are:
R, G of the i-th (i = 1, 2,..., N) pixel
And the value of the B data.
【0285】(1)RGB各データの平均値:μr,μ
g,μb その算出式は、それぞれ、(1) Average value of RGB data: μr, μ
g, μb The calculation formulas are:
【数9】 となる。(Equation 9) Becomes
【0286】(2)RGB各データの分散:σ2 r,
σ2 g,σ2 b その算出式は、それぞれ、(2) Variance of RGB data: σ 2 r ,
σ 2 g , σ 2 b
【数10】 となる。(Equation 10) Becomes
【0287】(3)RGB各データの標準偏差:σr,
σg,σb σr,σg,σbは、それぞれの分散σ2 r,σ2 g,σ2 bの
正の平方根で与えられる。(3) Standard deviation of RGB data: σ r ,
σ g , σ b σ r , σ g , σ b are given by the positive square roots of the respective variances σ 2 r , σ 2 g , σ 2 b .
【0288】(4)RGB各データの共分散:σ2 rg,
σ2 rb,σ2 gb その算出式は、それぞれ、(4) Covariance of RGB data: σ 2 rg ,
σ 2 rb , σ 2 gb
【数11】 となる。[Equation 11] Becomes
【0289】(5)RGB各データの相関係数 σ2 rg/(σrσg),σ2 rb/(σrσb),σ2 gb/(σg
σb)で与えられる。(5) Correlation coefficient σ 2 rg / (σ r σ g ), σ 2 rb / (σ r σ b ), σ 2 gb / (σ g ) of RGB data
σ b ).
【0290】(6)RGB各データ各々の平均値/標準
偏差 μr/σr,μg/σg,μb/σbで与えられる。(6) The average value / standard deviation μr / σ r , μg / σ g , and μb / σ b of each of the RGB data are given.
【0291】(7)log(G/R)及びlog(B/
R)の平均値:μ(log(G/R)),μ(log(B/R) その算出式は、それぞれ、(7) log (G / R) and log (B /
Average value of R): μ (log (G / R)), μ (log (B / R)
【数12】 となる。(Equation 12) Becomes
【0292】(8)log(G/R)及びlog(B/
R)の分散:σ2 log(G/R),σ2 log(B/ R) その算出式は、それぞれ、(8) log (G / R) and log (B /
R) variance: σ 2 log (G / R) , σ 2 log (B / R)
【数13】 となる。(Equation 13) Becomes
【0293】(9)log(G/R)及びlog(B/
R)の標準偏差:σlog(G/R),σlog( B/R) σlog(G/R),σlog(B/R)は、それぞれの分散σ2
log(G/R),σ2 log(B/R)の正の平方根で与えられる。(9) log (G / R) and log (B /
R) standard deviation: σ log (G / R) , σ log ( B / R) σ log (G / R) , σ log (B / R) are the respective variances σ 2
It is given by the positive square root of log (G / R) and σ 2 log (B / R) .
【0294】(10)log(G/R)及びlog(B
/R)の共分散:σ2 log(G/R)log(B/R ) その算出式は、(10) log (G / R) and log (B
/ R) covariance: σ 2 log (G / R) log (B / R )
【数14】 となる。[Equation 14] Becomes
【0295】また、A=ri+gi+bi(ri、gi及び
biはそれぞれi番目の画素のR、G及びBデータの
値)として、R/A,G/A及びB/Aを算出すること
により、各画素の色調をRGB色空問におけるベクトル
で表現することができ。それらの統計量を特徴量とする
ことも可能である。すなわち、以下の(11)〜(1
6)の統計量を特徴量とすることができる。Further, by calculating R / A, G / A and B / A as A = ri + gi + bi (where ri, gi and bi are the values of R, G and B data of the i-th pixel, respectively), The color tone of a pixel can be represented by a vector in the RGB color space. It is also possible to use those statistics as features. That is, the following (11) to (1)
The statistic of 6) can be used as a feature amount.
【0296】(11)R/A,G/A,B/Aの平均
値:μr/a,μg/a,μb/a その算出式は、それぞれ、(11) Average values of R / A, G / A, B / A: μ r / a , μ g / a , μ b / a
【数15】 となる。(Equation 15) Becomes
【0297】(12)R/A,G/A,B/Aの分散:
σ2 r/a,σ2 g/a,σ2 b/a その算出式は、それぞれ、(12) Dispersion of R / A, G / A, B / A:
σ 2 r / a , σ 2 g / a , σ 2 b / a
【数16】 となる。(Equation 16) Becomes
【0298】(13)R/A,G/A,B/Aの標準偏
差:σr/a,σg/a,σb/a σr/a,σg/a,σb/aは、それぞれの分散σ2 r/a,σ2
g/a,σ2 b/aの正の平方根で与えられる。(13) Standard deviations of R / A, G / A and B / A: σ r / a , σ g / a , σ b / a σ r / a , σ g / a , σ b / a , Their variances σ 2 r / a , σ 2
It is given by the positive square root of g / a and σ 2 b / a .
【0299】(14)R/A,G/A,B/Aの共分
散:σ2 r/a,g/a,σ2 r/a,b/a,σ2 g/a,b /a その算出式は、それぞれ、(14) Covariance of R / A, G / A, B / A: σ 2 r / a, g / a , σ 2 r / a, b / a , σ 2 g / a, b / a The calculation formulas are:
【数17】 となる。[Equation 17] Becomes
【0300】(15)R/A,G/A,B/Aの相関係
数 σ2 r/a,g/a/(σr/aσg/a)、σ2 r/a,b/a/(σr/aσ
b/a)、σ2 g/a,b/a/(σg/aσb/a)で与えられる。(15) Correlation coefficients of R / A, G / A, B / A σ 2 r / a, g / a / (σ r / a σ g / a ), σ 2 r / a, b / a / (σr / aσ
b / a ) and σ 2 g / a, b / a / (σ g / a σ b / a ).
【0301】(16)R/A,G/A,B/Aの平均値
/標準偏差 μr/a/σr/a,μg/a/σg/a,μb/a/σb/aで与えられ
る。(16) Average value / standard deviation of R / A, G / A, B / A μ r / a / σ r / a , μ g / a / σ g / a , μ b / a / σ b given by / a .
【0302】このように上記第1の実施の形態の第2の
変形例では、以上に示した統計量をROIより算出する
ことにより、診断に有効な特徴量を得ることが可能とな
る。As described above, in the second modification of the first embodiment, by calculating the above-described statistics from the ROI, it is possible to obtain feature amounts effective for diagnosis.
【0303】図41ないし図43は本発明の第2の実施
の形態に係わり、図41は画像のテクスチャの構造パタ
ーンを示すパターン図、図42は図41のテクスチャの
構造パターンの補正を説明する説明図、図43は図41
のテクスチャの構造パターンの変形例を示すパターン図
である。FIGS. 41 to 43 relate to the second embodiment of the present invention. FIG. 41 is a pattern diagram showing the structure pattern of the texture of an image, and FIG. 42 explains the correction of the structure pattern of the texture of FIG. FIG. 43 is an explanatory view, and FIG.
FIG. 8 is a pattern diagram showing a modified example of the texture structure pattern of FIG.
【0304】第2の実施の形態は、第1の実施の形態と
ほとんど同じであるので、異なる点のみ説明し、同一の
構成には同じ符号をつけ説明は省略する。Since the second embodiment is almost the same as the first embodiment, only different points will be described, and the same components will be denoted by the same reference numerals and description thereof will be omitted.
【0305】本発明の第2の実施の形態は、第1の実施
の形態の構成と同じであり、Gabor特徴のように画
像中の位置に依存する局所的な情報を抽出する特徴量の
補正方法に関する。The second embodiment of the present invention has the same configuration as the first embodiment, and corrects a feature amount for extracting local information depending on a position in an image such as a Gabor feature. About the method.
【0306】Gabor特徴は,前述したように方向θ
k、波長λm及びσx(λm)とσy(λm)により設定され
るGaborフィルタにより算出される値である。一
方、内視鏡での撮像のように、撮像条件を定めることが
難しい条件の下で得られた画像は、回転移動が生じるた
め、上下左右等の方向を規定することが困難である場合
が多い。したがって、算出された、方向θkの変化に依
存する特徴量の値が意味をなさなくなる場合も考えられ
る。The Gabor feature is, as described above, in the direction θ.
k is a value calculated by a Gabor filter set by wavelengths λm and σx (λm) and σy (λm). On the other hand, there are cases where it is difficult to define directions such as up, down, left, and right, because images obtained under conditions where it is difficult to determine imaging conditions, such as imaging with an endoscope, are rotated and moved. Many. Therefore, the calculated value of the feature amount depending on the change in the direction θk may not be meaningful.
【0307】本実施の形態においては、回転移動が生じ
ている画像及び方向を規定することが困難である画像に
おいても、診断に良好に寄与する特徴量を得ることがで
きる補正について説明する。In the present embodiment, a description will be given of a correction that can obtain a feature amount that favorably contributes to diagnosis even in an image in which rotational movement occurs and an image in which it is difficult to define the direction.
【0308】本実施の形態においては、特徴量算出手法
として第1の実施に形態において説明したGabor特
徴に基づく特徴量を算出するものとする。In the present embodiment, as a feature amount calculating method, a feature amount based on the Gabor feature described in the first embodiment is calculated.
【0309】本実施の形態においては、Gabor特徴
を算出するためのGaborフィルタを第1の実施の形
態において説明した数値群(a)、(b)及び(c)か
ら得られるものとする。すなわち、方向θkは4通り、
波長λmは2通りとなり、Gaborフィルタは8種と
なっている。In the present embodiment, it is assumed that the Gabor filter for calculating the Gabor characteristic is obtained from the numerical value groups (a), (b) and (c) described in the first embodiment. That is, there are four directions θk,
There are two types of wavelengths λm, and there are eight types of Gabor filters.
【0310】図41及び図42は、本実施例における補
正を説明するための説明図である。ここで、ある画素に
おいて、波長λmに対し方向θkを変化させたGabor
フィルタにより算出されたGabor特徴の値をそれぞ
れ(hm1,hm2,hm3,hm4)とする。FIGS. 41 and 42 are explanatory diagrams for explaining the correction in this embodiment. Here, in a certain pixel, Gabor obtained by changing the direction θk with respect to the wavelength λm
The values of the Gabor features calculated by the filters are respectively (hm1, hm2, hm3, hm4).
【0311】判別分類において同一のクラスに分類され
るべきパターンにおいては、同一の波長λmにおける異
なる方向の各Gabor特徴の値の分布は類似したもの
となることが予測される。例えば、図41に示すような
テクスチャから、Gabor特徴を求める場合について
考える。図42(a)は、図41において示したテクス
チャの構造パターンの要素を示したものである。In the patterns to be classified into the same class in the discriminant classification, it is expected that the distribution of the values of the Gabor features in the different directions at the same wavelength λm will be similar. For example, consider a case where a Gabor feature is obtained from a texture as shown in FIG. FIG. 42A shows the elements of the structure pattern of the texture shown in FIG.
【0312】図42(a)に示すテクスチャ構造パター
ンにおける画素P(x,y)に対し、同一のλmにおけ
る4方向のθkによるGabor特徴は、図42(b)
に示すθ1の場合、すなわちhm1が最大となる。一方、
図42(c)に示すような回転移動が生じた場合、回転
移動後の画素P(x,y)に対応する画素P’(x,
y)におけるGabor特徴は図42(b)におけるθ
2の場合が最大となる。For the pixel P (x, y) in the texture structure pattern shown in FIG. 42 (a), the Gabor feature by θk in the four directions at the same λm is shown in FIG.
, That is, hm1 becomes the maximum. on the other hand,
When the rotational movement as shown in FIG. 42 (c) occurs, the pixel P ′ (x, x) corresponding to the pixel P (x, y) after the rotational movement
The Gabor feature in y) is θ in FIG.
2 is the largest.
【0313】この例は、テクスチャ解折対象とする構造
パターンにより、同一の波長λmにおけるGaborフ
ィルタにおいて、Gabor特徴が最大となる方向θk
を定めることにより、算出された特徴量の値への回転移
動の影響に対する補正が可能であることを示している。In this example, in the Gabor filter at the same wavelength λm, the direction θk at which the Gabor characteristic is maximized is determined by the structural pattern to be textured.
This indicates that it is possible to correct the influence of the rotational movement on the calculated feature value.
【0314】すなわち、図42(a)及び(c)のよう
に、テクスチャ構造パターンの回転移動による変化が発
生した場合においても、得られたGabor特徴の値が
最大となる方向θkをあらたにθ1とし、図42(d)に
示すような並べ替えを行えばよい。この例においては、
画素P(x,y)において得られたGabor特徴(h
m1,hm2,hm3,hm4)を、(hm2,hm3,hm4,hm
1)の順序に並び替えればよい。また、単純に最大値を
与える方向を基準とするのみでなく、hm1ないしhm4の
値の大小に見られる傾向から回転量を決定してもよい。That is, as shown in FIGS. 42 (a) and 42 (c), even when a change occurs due to the rotational movement of the texture structure pattern, the direction θk at which the obtained Gabor feature value becomes the maximum is newly set to θ1. Then, rearrangement as shown in FIG. 42 (d) may be performed. In this example,
Gabor features obtained at pixel P (x, y) (h
m1, hm2, hm3, hm4) to (hm2, hm3, hm4, hm
The order can be changed to the order of 1). Further, the amount of rotation may be determined not only based on the direction giving the maximum value, but also based on the tendency of the values of hm1 to hm4.
【0315】以上に説明した方向θkに関するGabo
r特徴の並べ替えを、ROIにおけるサンプリング画素
すべてにおいて適用する。これは、ある特定の波長λ
m、異なる方向θk(この例では4方向)により規定され
るGaborフィルタにより算出されたGabor特徴
の平均値を求め、その最大値を与えるθkについての並
び替えを行うようにする。また、回転移動の補正に対す
るより高い精度を望むのであれば方向θkをより多く
(例えば6方向)について定めればよい。Gabo in the direction θk described above
The reordering of r features is applied at all sampled pixels in the ROI. This is a certain wavelength λ
m, an average value of Gabor features calculated by a Gabor filter defined by different directions θk (four directions in this example) is obtained, and rearrangement is performed on θk that gives the maximum value. If higher accuracy in correcting the rotational movement is desired, more directions θk (for example, six directions) may be determined.
【0316】また,波長λmは複数(この例では2通
り)定められるが、その中の特定の波長(基準波長)に
おいて並び替えの順序を決定し、他の波長によるGab
or特徴に対しても同様の順序での並び替えを適用す
る。基準波長は任意のλmを選択可能であるが、例えば
対象とするテクスチャ構造パターンをよく反映する波長
に定めてもよい。A plurality of wavelengths λm (two types in this example) are determined. The order of rearrangement is determined at a specific wavelength (reference wavelength) among the wavelengths, and the wavelength of λm is determined based on other wavelengths.
Sorting in the same order is applied to the or feature. An arbitrary λm can be selected as the reference wavelength. For example, the reference wavelength may be set to a wavelength that well reflects a target texture structure pattern.
【0317】以上に説明した補正を適用することによ
り、回転移動のあるパターン(テクスチャ)に対して
も、位置に依存した局所的な情報を保存した特徴量算出
手法の適用が可能となる。By applying the above-described correction, it is possible to apply a feature amount calculation method that stores local information depending on the position to a pattern (texture) having a rotational movement.
【0318】また、内視鏡画像においては、テクスチャ
構造の不規則性等の理由により、方向性の保存が重要な
意味をなさない場合がある。例えば、図43に示すテク
スチャの例のように、テクスチャ全体における方向性に
おいてはあまり規則性がなく、むしろテクスチャを構成
する構造パターン自体に見られる特徴が重要である場合
がある。このようなテクスチャに対しては、前述したR
OI全体の回転移動に対する補正を適用するのではな
く、むしろサンプリング画素毎に独立に、算出されたG
abor特徴の並び替えを適用した方が望ましい特徴量
を得られることとなる。この場合は、図42を用いて説
明したGabor特徴の並べ替えを、算出した25画素
の各々における最大値に基づき実施すればよい。この補
正の適用により、Gabor特徴から、周波数成分の伝
搬方向によらないあらたな特徴量を算出することが可能
となる。なお、基準波長の設定の有無は適宜選択すれば
よい。In an endoscopic image, preservation of direction may not be important because of irregularities in the texture structure. For example, as in the example of the texture shown in FIG. 43, the directionality of the entire texture is not so regular, and the features found in the structural pattern itself that constitutes the texture may be important. For such a texture, the R
Rather than applying a correction to the rotational movement of the entire OI, the calculated G is calculated independently for each sampling pixel.
Applying rearrangement of the abor features will provide a desirable feature amount. In this case, the sorting of the Gabor features described with reference to FIG. 42 may be performed based on the calculated maximum value of each of the 25 pixels. By applying this correction, it is possible to calculate a new feature amount independent of the propagation direction of the frequency component from the Gabor feature. The setting of the reference wavelength may be appropriately selected.
【0319】また、テクスチャ構造における不規則性に
より、方向性の保存がまったく重要でないような場合も
ありうる。このような場合には、各サンプリング点にお
いて方向θkに規定された順序で得られるGabor特
徴hm1ないしhmn(nは方向θkの個数)を値の大小に
したがい再整列して使用してもよい。In some cases, preservation of direction is not important at all due to irregularities in the texture structure. In such a case, Gabor features hm1 to hmn (n is the number of directions θk) obtained in the order defined in the direction θk at each sampling point may be rearranged and used according to the value.
【0320】図44ないし図46は本発明の第3の実施
の形態に係わり、図44は前処理ブロックの処理構成を
示すブロック図、図45は図44の前処理ブロックの作
用を説明する第1の説明図、図46は図44の前処理ブ
ロックの作用を説明する第2の説明図である。FIGS. 44 to 46 relate to the third embodiment of the present invention. FIG. 44 is a block diagram showing the processing configuration of the pre-processing block, and FIG. 45 is a diagram for explaining the operation of the pre-processing block of FIG. FIG. 46 is a second explanatory diagram for explaining the operation of the preprocessing block of FIG.
【0321】第3の実施の形態は、第1の実施の形態と
ほとんど同じであるので、異なる点のみ説明し、同一の
構成には同じ符号をつけ説明は省略する。Since the third embodiment is almost the same as the first embodiment, only different points will be described, and the same components will be denoted by the same reference numerals and description thereof will be omitted.
【0322】本発明の第3の実施の形態は、第1の実施
の形態の構成は同じであり、特徴量算出手法による特徴
量の値を良好に得るための前処理手法に特徴がある。The third embodiment of the present invention has the same configuration as that of the first embodiment, and is characterized by a preprocessing method for obtaining a good value of a feature by a feature calculation method.
【0323】図44において,前処理手法ブロック50
0は、内視鏡画像におけるノイズを除去するためのノイ
ズ除去ブロック501と、逆γ補正を適用するための逆
γ補正ブロック502と、面順次方式の内視鏡により撮
像された画像に対する色ずれ補正ブロック503と、シ
ェーディングによる大域的な明るさの変化を補正するた
めのシェーディング補正ブロック504とからなってい
る。各ブロックは、それぞれ独立かつ選択的に適用で
き、任意の組み合わせ及び順序で使用することが可能と
なている。In FIG. 44, the preprocessing method block 50
0 denotes a noise removal block 501 for removing noise in the endoscope image, an inverse γ correction block 502 for applying inverse γ correction, and a color shift with respect to the image captured by the frame sequential endoscope. It comprises a correction block 503 and a shading correction block 504 for correcting a global change in brightness due to shading. Each block can be applied independently and selectively, and can be used in any combination and order.
【0324】次に、各ブロックの動作について説明す
る。ノイズ除去ブロック501は、R、G及びB画像デ
ータの各々におけるノイズを除去するものである。具体
的には、例えばR,G及びB画像データのすべてまたは
いずれかに対し、マスクサイズ3×3のメディアンフィ
ルタあるいは一様重みづけフィルタによるフィルタリン
グを適用すればよい。処理対象としては、R、G及びB
画像データのみではなく、輝度画像データ等、後段につ
づく特徴量算出手法が使用する画像データのすべてに適
用可能である(他のブロックにおける前処理においても
同様である)。Next, the operation of each block will be described. The noise removal block 501 removes noise in each of the R, G, and B image data. Specifically, for example, filtering by a median filter with a mask size of 3 × 3 or a uniform weighting filter may be applied to all or any of the R, G, and B image data. Processing targets are R, G and B
The present invention can be applied not only to image data but also to all image data used by a feature amount calculation method following the subsequent stage, such as luminance image data (the same applies to preprocessing in other blocks).
【0325】逆γ補正ブロック502は、R、G及びB
画像データ各々に対して適用されているγ補正を除去す
るための前処理を適用する。The inverse gamma correction block 502 comprises R, G, and B
A pre-process for removing the γ correction applied to each image data is applied.
【0326】色ずれ捕正ブロック503は、面順次方式
の内視鏡で撮像された画像において発生した色ずれを補
正するものである。具体的には、以下に示す一連の処理
により実現可能である。The color misregistration correction block 503 corrects a color misregistration occurring in an image picked up by a frame sequential endoscope. Specifically, it can be realized by a series of processes described below.
【0327】色ずれ補正は、処理対象であるROIにお
いて、G画像を基準とした場合のR画像及びB画像が、
水平及び垂直の各方向に何画素分ずれているかを推定
し、各々のずれを補正するようにする。G画像に対する
R画像のずれの補正は以下のように行う。In the color misregistration correction, in the ROI to be processed, the R image and the B image based on the G image
The number of pixels shifted in each of the horizontal and vertical directions is estimated, and each shift is corrected. The correction of the deviation of the R image from the G image is performed as follows.
【0328】図45及び図46は、それぞれ各画像のず
れが何画素分であるかを推定するための処理及び推定し
たずれに対する補正に関する説明図である。FIGS. 45 and 46 are diagrams for explaining processing for estimating the number of pixels corresponding to the shift of each image and correction for the estimated shift.
【0329】図45において、G画像の大きさはx1×
y1、R画像の大きさはx2×y2であり、x2=x1+2
×dx,y2=y1+2×dyであるものとする。ここ
で、dx及びdyは、それぞれ水平及び垂直方向におけ
るずれの発生した範囲を考慮して定めた値である。In FIG. 45, the size of the G image is x1 ×
The size of the y1, R image is x2 × y2, and x2 = x1 + 2
Xdx, y2 = y1 + 2 x dy. Here, dx and dy are values determined in consideration of the range in which the displacement has occurred in the horizontal and vertical directions, respectively.
【0330】これにより、R画像データ及びG画像デー
タは同一部位から得ているが、その大きさはR画像デー
タの方が若干大きく切り出されていることになる。As a result, although the R image data and the G image data are obtained from the same site, the size of the R image data is slightly larger than that of the R image data.
【0331】まず、図45におけるR画像データの始点
Srを座標(0,0)とする。これに対して、G画像デ
ータの始点Sgを(x,y)とし、座標(0,0)から
水平方向に2dx、垂直方向に2dyの範囲で1画素ず
つ移動させる。すなわち、Sg(x,y)(0≦x≦2
dx,0≦y≦2dy)となる。水平または垂直方向の
いずれか1画素分移動させるごとに、R画像データ及び
G画像データとの間の相互相関を算出し、その値の最大
値を与えるSg(xmax,ymax)を求める。First, the starting point Sr of the R image data in FIG. 45 is set to coordinates (0, 0). On the other hand, the start point Sg of the G image data is set to (x, y), and the pixel is moved by one pixel within a range of 2 dx in the horizontal direction and 2 dy in the vertical direction from the coordinates (0, 0). That is, Sg (x, y) (0 ≦ x ≦ 2
dx, 0 ≦ y ≦ 2dy). Each time the pixel is moved by one pixel in the horizontal or vertical direction, the cross-correlation between the R image data and the G image data is calculated, and Sg (xmax, ymax) that gives the maximum value is calculated.
【0332】例えば、dx=dy=5,xmax=2,ym
ax=7であった場合には,xmax−dx=−3、ymax−
dy=2となることから、G画像データに対するR画像
データのずれは、水平方向に−3画素(画像に向かって
左方向に3画素)、垂直方向に2画素(画像下方向に2
画素)であることがわかる。For example, dx = dy = 5, xmax = 2, ym
If ax = 7, xmax−dx = −3, ymax−
Since dy = 2, the deviation of the R image data from the G image data is −3 pixels in the horizontal direction (3 pixels in the left direction toward the image) and 2 pixels in the vertical direction (2 pixels in the image lower direction).
Pixel).
【0333】したがって、図46に示すように、R画像
データを水平方向に3画素、垂直方向に2画素移動させ
れば、色ずれに対する補正が完了したこととなる。Therefore, as shown in FIG. 46, when the R image data is shifted by three pixels in the horizontal direction and by two pixels in the vertical direction, the correction for the color shift is completed.
【0334】B画像データについても同様の処理を適用
することにより、R、G及びB画像データのすべてが色
ずれのない状態に補正される。By applying the same processing to the B image data, all of the R, G, and B image data are corrected to have no color shift.
【0335】次に、シェーディング補正ブロック504
の内容について説明する。シェーディングとは、照明光
の照射角度、撮像対象の形状等の理由により撮像画像上
に表れる、大域的な明暗の変化を示す。本実施の形態に
おいては、ROIにおけるR、G及びB画像データの各
々における大域的な明暗の変化を二次曲面近似(以下、
この曲面をシェーディング面とする)し、これを用いた
シェーディング補正を適用する。Next, the shading correction block 504
Will be described. Shading indicates a global change in lightness and darkness that appears on a captured image due to the irradiation angle of illumination light, the shape of an imaging target, and the like. In the present embodiment, the global brightness change in each of the R, G, and B image data in the ROI is represented by a quadratic surface approximation (hereinafter, referred to as a quadratic surface approximation).
This curved surface is referred to as a shading surface), and shading correction using this is applied.
【0336】まず、シェーディング面の算出方法につい
て説明する。二次曲面S(x,y)は、First, a method of calculating a shading surface will be described. The quadratic surface S (x, y) is
【数18】 S(x,y)=ax2+bxy+cy2+dx+ey+f (18) と表される。ここで、a,b,c,d,e及びfは、二
次曲面を規定するための定数、x及びyは三次元空間上
でのx及びy座標を、S(x,y)は点(x,y)にお
ける二次曲面の値をそれぞれ示す。また、画像において
は、x及びyは画素の画像上における位置を、S(x,
y)はその画素の値がそれぞれ対応する。S (x, y) = ax 2 + bxy + cy 2 + dx + ey + f (18) Here, a, b, c, d, e, and f are constants for defining a quadric surface, x and y are x and y coordinates in a three-dimensional space, and S (x, y) is a point. The values of the quadric surface at (x, y) are shown. In the image, x and y indicate the position of the pixel on the image, and S (x,
y) corresponds to the value of the pixel.
【0337】例として、大きさN×NのR画像データに
対する二次曲面近似について説明する。R画像データ
(Irとする)における各画素は、それぞれ値r(x,
y)を持つものとする。ここで、0≦x<N及び0≦y
<Nである。シェーディング面上での値S(x,y)
と、R画像データIr上の各画素の値r(x,y)との
2乗誤差Dは、As an example, a quadratic surface approximation for R image data of size N × N will be described. Each pixel in the R image data (Ir) has a value r (x,
y). Where 0 ≦ x <N and 0 ≦ y
<N. Value S (x, y) on shading surface
And the square error D between each pixel value r (x, y) on the R image data Ir is
【数19】 D(x,y)=(S(x,y)−r(x,y))2 (19) で表される。この差に着目し、0≦x<N及び0≦y<
Nにおいて式(19)における2乗誤差D(x,y)の
総和DsumをD (x, y) = (S (x, y) −r (x, y)) 2 (19) Focusing on this difference, 0 ≦ x <N and 0 ≦ y <
N, the sum Dsum of the square error D (x, y) in equation (19) is
【数20】 とし、その最小値を与える定数a,b,c,d,e及び
fを求めることを考える。式(20)に式(18)を代
入すると、(Equation 20) Let us consider finding constants a, b, c, d, e and f that give the minimum value. Substituting equation (18) into equation (20) gives
【数21】 となる。Dsum最小値を与える定数a,b,c,d,e
及びfの値の組み合わせは、式(21)を各々について
偏微分した上で、”=0”とおいた(すなわち、極値を
求める)6個の連立方程式から算出することができる。
これにより得られた連立方程式を行列形式で表すと、(Equation 21) Becomes Constants a, b, c, d, and e that give the minimum value of Dsum
The combination of the values of f and f can be calculated from six simultaneous equations in which equation (21) is partially differentiated with respect to each, and "= 0" (that is, an extreme value is obtained).
Expressing the resulting system of equations in matrix form,
【数22】 となる。ここで、式(22)におけるΣは、(Equation 22) Becomes Here, Σ in equation (22) is
【数23】 を示すものとする。(Equation 23) Shall be shown.
【0338】Dsumの最小値を与える定数a,b,c,
d,e及びfは、式(22)における左辺のx及びyに
関する6×6行列の逆行列を求め、右辺に左から乗ずる
ことにより得ることができ、これを式(18)に代入す
ることによりシェーディング面とする。Constants a, b, c, and D giving the minimum value of Dsum
d, e, and f can be obtained by finding an inverse matrix of a 6 × 6 matrix relating to x and y on the left side in equation (22) and multiplying the right side from the left, and substituting this into equation (18). To form a shading surface.
【0339】次に、算出したシェーディング面を用いた
シェーディング補正の方法について説明する。Next, a method of shading correction using the calculated shading surface will be described.
【0340】まず、直流成分の値を保存するため、R画
像データIrにおける画素r(x,y)の平均値rmean
を求めておく。また、画素r(x,y)の各々に対し、First, in order to store the value of the DC component, the average value rmean of the pixel r (x, y) in the R image data Ir
Ask for. Also, for each of the pixels r (x, y),
【数24】 rs(x,y)=r(x,y)/(ax2+bxy+cy2+dx+ey+f) (24) を算出し、得られたrs(x,y)の平均値rsmeanを
求め、さらに、Rs (x, y) = r (x, y) / (ax 2 + bxy + cy 2 + dx + ey + f) (24) is calculated, and the average value rs mean of the obtained rs (x, y) is obtained. ,
【数25】 rsn(x,y)=rs(x,y)/rsmean (25) を得る。最終的に、[Mathematical formula-see original document] rsn (x, y) = rs (x, y) / rs mean (25) is obtained. Finally,
【数26】 rr(x,y)=rsn(x,y)×rsmean (26) を算出し、これをシェーディング補正後のR画像データ
とする。なお、式(25)は、rsn(x,y)の値の総
和を1に正規化するものであり、一連の処理において省
略してもよい。その場合は、rs(X,y)に対してr
smeanを乗ずることによりrr(x,y)を得ることが
できる。[Mathematical formula-see original document] rr (x, y) = rsn (x, y) * rs mean (26) is calculated, and this is defined as R image data after shading correction. Equation (25) normalizes the sum of the values of rsn (x, y) to 1, and may be omitted in a series of processing. In that case, r s (X, y)
By multiplying by s mean , rr (x, y) can be obtained.
【0341】また、以上に説明した一連の処理を、G画
像データ及びB画像データについても同様に適用するこ
とにより、各々に対するシェーディング補正後の画像デ
ータを得ることができる。また、R、G及びB画像デー
タのいずれか1つからシェーディング面を求め、得られ
た定数a,b,c,d,e及びfを用いて他の画像のシ
ェーディング面として使用してもよい。By applying the series of processes described above to the G image data and the B image data in the same manner, it is possible to obtain image data after shading correction for each of them. Further, a shading surface may be obtained from any one of the R, G, and B image data, and the obtained constants a, b, c, d, e, and f may be used as a shading surface of another image. .
【0342】また、シェーディング補正ブロック504
において適用されるシェーディング補正の処理内容は以
上の説明によるものに限らず、例えば低域通過フィルタ
リングにより得られた画像データをシェーディング曲面
に代用してもよい。The shading correction block 504
The processing content of the shading correction applied in the above is not limited to the above description. For example, image data obtained by low-pass filtering may be substituted for the shading curved surface.
【0343】以上に説明したように、各々の前処理を任
意の組み合わせ及び順序で適用した画像データに対し特
徴量算出手法を適用することにより、より診断に有効な
特徴量の算出が可能となる。各前処理の適用の組み合わ
せ及び順序は、特徴量算出手法に合わせて適宜決定すれ
ばよい。また、ユーザによる指定が可能であってもよ
い。さらに、各前処理を繰り返して適用してもよい。例
えば、色ずれ補正ブロック503においては,シェーデ
ィング補正適用後のR、G及びB画像に対し色ずれ補正
適用後,再度シェーディング補正を適用することも可能
である。この場合は、より精度の高い色ずれ補正を行う
ことができる。As described above, by applying the feature value calculation method to image data to which each preprocessing is applied in an arbitrary combination and order, it is possible to calculate feature values more effective for diagnosis. . The combination and order of application of each preprocessing may be appropriately determined according to the feature amount calculation method. In addition, designation by a user may be possible. Furthermore, you may apply each preprocessing repeatedly. For example, in the color shift correction block 503, it is also possible to apply the shading correction again to the R, G, and B images after the shading correction is applied. In this case, more accurate color shift correction can be performed.
【0344】さらに、前処理手法ブロック500におい
ては、他の前処理手法を適宜追加してもよい。例えば画
像データに対する閾値処理、エッジ強調処理、二値化処
理、ラベリング処理等が挙げられる。Further, in the preprocessing method block 500, another preprocessing method may be appropriately added. For example, threshold processing, edge enhancement processing, binarization processing, labeling processing, and the like for image data are included.
【0345】[付記] (付記項1)少なくとも1つの信号からなる画像データ
を入力する画像入力手段と、入力された前記画像データ
を記憶する記憶手段と、前記記憶手段により記録された
前記画像データに対して少なくとも1つの関心領域を設
定する関心領域設定手段と、前記関心領域設定手段によ
り設定された前記関心領域から特徴量を算出する特徴量
算出手段と、前記特徴量算出手段により算出された特徴
量を用いた病変の判別分類を行う判別分類手段とを備え
たことを特徴とする診断支援装置。[Supplementary Notes] (Supplementary note 1) Image input means for inputting image data consisting of at least one signal, storage means for storing the input image data, and image data recorded by the storage means A region-of-interest setting unit for setting at least one region of interest, a characteristic amount calculating unit for calculating a characteristic amount from the region of interest set by the region-of-interest setting unit, and a characteristic amount calculating unit. A diagnostic support device comprising: a discriminating and classifying means for performing discriminating and classifying lesions using a feature amount.
【0346】(付記項2)前記特徴量算出手段が1つの
関心領域から算出された第1の特徴量に基づく新たな第
2の特徴量を算出することを特徴とする付記項1に記載
の診断支援装置。(Additional Item 2) The additional characteristic item 1, wherein the characteristic amount calculating means calculates a new second characteristic amount based on the first characteristic amount calculated from one region of interest. Diagnosis support device.
【0347】(付記項3)前記特徴量算出手段が複数の
関心領域から算出された第1の特徴量に基づく新たな第
2の特徴量を算出することを特徴とする付記項1または
2に記載の診断支援装置。(Additional Item 3) The additional item 1 or 2 wherein the characteristic amount calculating means calculates a new second characteristic amount based on the first characteristic amount calculated from a plurality of regions of interest. The diagnostic support device according to the above.
【0348】(付記項4)第1の特徴量が色調に基づく
特徴量であることを特徴とする付記項1、2または3の
いずれか1つに記載の診断支援装置。(Additional Item 4) The diagnostic support apparatus according to any one of additional items 1, 2 and 3, wherein the first characteristic amount is a characteristic amount based on a color tone.
【0349】(付記項5)第1の特徴量がテクスチャに
基づく特徴量であることを特徴とする付記項1、2また
は3のいずれか1つに記載の診断支援装置。(Additional Item 5) The diagnosis support apparatus according to any one of additional items 1, 2 and 3, wherein the first characteristic amount is a characteristic amount based on texture.
【0350】(付記項6)第2の特徴量が複数の関心領
域から算出された第1の特徴量における差分演算により
得られた値であることを特徴とする付記項3、4または
5のいずれか1つに記載の診断支援装置。(Additional Item 6) The additional item 3, 4, or 5, wherein the second feature value is a value obtained by a difference operation on the first feature value calculated from the plurality of regions of interest. The diagnosis support device according to any one of the above.
【0351】(付記項7)第2の特徴量が複数の関心領
域から算出された第1の特徴量における比に基づく値で
あることを特徴とする付記項3、4または5のいずれか
1つに記載の診断支援装置。(Additional Item 7) Any one of additional items 3, 4, and 5, wherein the second feature value is a value based on a ratio of the first feature value calculated from the plurality of regions of interest. The diagnostic support device according to any one of the above.
【0352】(付記項8)前記特徴量算出手段が前記関
心領域における前記画像データの信号に基づく統計量を
算出することを特徴とする付記項1、2、3、4、5、
6、7または8のいずれか1つに記載の診断支援装置。(Additional Item 8) The additional item 1, 2, 3, 4, 5, wherein the feature amount calculating means calculates a statistic based on the image data signal in the region of interest.
The diagnosis support apparatus according to any one of 6, 7, and 8.
【0353】(付記項9)前記特徴量算出手段が局所的
な周波数成分の分布に基づく特徴量を算出することを特
徴とする付記項5に記載の診断支援装置。(Additional Item 9) The diagnosis support apparatus according to additional item 5, wherein the characteristic amount calculating means calculates a characteristic amount based on a local frequency component distribution.
【0354】(付記項10)前記第2の特徴量が、前記
第1の特徴量の値が生起する確率分布に基づくことを特
徴とする付記項2、3、4、5、6、7、8または9の
いずれか1つに記載の診断支援装置。(Additional Item 10) The additional item 2, 3, 4, 5, 6, 7, or 16, wherein the second feature value is based on a probability distribution in which the value of the first feature value occurs. 10. The diagnosis support device according to any one of 8 and 9.
【0355】(付記項11)前記第2の特徴量が、前記
関心領域における前記第1の特徴量の平均値及び/また
は分散及び/または共分散及び/または標準偏差及び/
または相関係数であることを特徴とする付記項10に記
載の診断支援装置。(Supplementary item 11) The second feature value is an average value and / or a variance and / or a covariance and / or a standard deviation and / or a standard value of the first feature value in the region of interest.
Alternatively, the diagnosis support device according to claim 10, wherein the diagnosis support device is a correlation coefficient.
【0356】(付記項12)前記特徴量算出手段が算出
する前記特徴量が正規化された値であることを特徴とす
る付記項1、2、3、4、5、6、7、8、9、10ま
たは11のいずれか1つに記載の診断支援装置。(Additional item 12) The additional item 1, 2, 3, 4, 5, 6, 7, 8, or 17, wherein the characteristic amount calculated by the characteristic amount calculating means is a normalized value. 12. The diagnosis support apparatus according to any one of 9, 10, and 11.
【0357】(付記項13)前記特徴量算出手段が算出
する前記特徴量が補正された値であることを特徴とする
付記項1、2、3、4、5、6、7、8、9、10、1
1または12のいずれか1つに記載の診断支援装置。(Additional Item 13) The additional items 1, 2, 3, 4, 5, 6, 7, 8, and 9 wherein the characteristic amount calculated by the characteristic amount calculating means is a corrected value. , 10, 1
13. The diagnosis support device according to any one of 1 and 12.
【0358】(付記項14)前記特徴量に対する補正が
方向に関する補正であることを特徴とする付記項13に
記載の診断支援装置。(Additional Item 14) The diagnostic support apparatus according to additional item 13, wherein the correction for the feature amount is a correction relating to a direction.
【0359】(付記項15)前記特徴量に対する補正が
画像の回転移動に関する補正であることを特徴とする付
記項13に記載の診断支援装置。(Additional Item 15) The diagnosis support apparatus according to Additional Item 13, wherein the correction for the feature amount is a correction relating to rotational movement of an image.
【0360】(付記項16)前記特徴量算出手段がGa
bor特徴に基づく特徴量を算出することを特徴とする
付記項1、2、3、4、5、6、7、8、9、10、1
1、12、13、14または15のいずれか1つに記載
の診断支援装置。(Additional Item 16) The feature quantity calculating means may be Ga
Additional features 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 1 to calculate a feature amount based on the bor feature.
The diagnosis support device according to any one of 1, 12, 13, 14 and 15.
【0361】(付記項17)前記特徴量算出手段により
算出される特徴量が、前記画像データを構成する信号に
基づく平均値及び/または標準偏差及び/または分散及
び/または共分散及び/または相関係数及び/または標
準偏差を平均値で除した値であることを特徴とする付記
項8に記載の診断支援装置。(Additional Item 17) The feature value calculated by the feature value calculation means may be an average value and / or a standard deviation and / or a variance and / or a covariance and / or a phase based on a signal constituting the image data. 9. The diagnosis support apparatus according to claim 8, wherein the number is a value obtained by dividing the number of relations and / or the standard deviation by the average value.
【0362】(付記項18)前記特徴量算出手段よりも
前段に前記画像データに対する画像処理を適用するため
の画像処理手段を設けたことを特徴とする付記項1、
2、3、4、5、6、7、8、9、10、11、12、
13、14、15、16または17のいずれか1つに記
載の診断支援装置。(Additional Item 18) An additional item 1, wherein an image processing means for applying image processing to the image data is provided at a stage preceding the characteristic amount calculating means.
2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12,
The diagnosis support apparatus according to any one of 13, 14, 15, 16, and 17.
【0363】(付記項19)前記画像処理手段が、ノイ
ズ除去処理及び/またはγ捕正除去処理及び/または色
ずれ補正処理及び/またはシェーディング補正処理の少
なくともいずれか1つの画像処理を適用することを特徴
とする付記項18に記載の診断支援装置。(Additional Item 19) The image processing means may apply at least one image processing of noise removal processing and / or γ correction removal processing and / or color shift correction processing and / or shading correction processing. 19. The diagnosis support device according to claim 18, wherein
【0364】(付記項20)前記画像処理手段に対し前
記画像処理の適用の有無及び/または適用の順序を前記
特徴量算出手段が算出する前記特徴量の種別に応じて異
ならしめることを特徴とする付記項19に記載の診断支
援装置。(Appendix 20) The application of the image processing to the image processing means and / or the order of application are made different according to the type of the characteristic amount calculated by the characteristic amount calculating means. 20. The diagnostic support device according to claim 19, wherein
【0365】(付記項21)前記関心領域設定手段が設
定する前記関心領域の形状が任意の描画線であることを
特徴とする付記項1、2、3、4、5、6、7、8、
9、10、11、12、13、14、15、16、1
7、18、19または20のいずれか1つに記載の診断
支援装置。(Additional Item 21) The additional items 1, 2, 3, 4, 5, 6, 7, 8 wherein the shape of the region of interest set by the region of interest setting means is an arbitrary drawing line. ,
9, 10, 11, 12, 13, 14, 15, 16, 1
The diagnosis support device according to any one of 7, 18, 19, and 20.
【0366】(付記項22)前記関心領域設定手段が設
定する前記関心領域があらかじめ定められた形状である
とともに、その大きさが可変であることを特徴とする付
記項1、2、3、4、5、6、7、8、9、10、1
1、12、13、14、15、16、17、18、19
または20のいずれか1つに記載の診断支援装置。(Additional Item 22) The additional items 1, 2, 3, and 4 are characterized in that the region of interest set by the region of interest setting means has a predetermined shape and its size is variable. , 5, 6, 7, 8, 9, 10, 1
1, 12, 13, 14, 15, 16, 17, 18, 19
21. The diagnosis support apparatus according to any one of 20.
【0367】(付記項23)前記関心領域設定手段が設
定する前記関心領域の形状が多角形または円であること
を特徴とする付記項22に記載の診断支援装置。(Additional Item 23) The diagnostic support apparatus according to additional item 22, wherein the shape of the region of interest set by the region of interest setting means is a polygon or a circle.
【0368】(付記項24)前記関心領域設定手段が設
定する前記関心領域の形状が任意の描画線によるもの、
またはあらかじめ定められた形状であることを選択可能
とする関心領域形状選択手段を備えたことを特徴とする
付記項1、2、3、4、5、6、7、8、9、10、1
1、12、13、14、15、16、17、18、1
9、20、21、22または23のいずれか1つに記載
の診断支援装置。(Additional Item 24) The shape of the region of interest set by the region of interest setting means is an arbitrary drawing line.
Or an additional item 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 1 provided with a region-of-interest shape selection means for selecting a predetermined shape.
1, 12, 13, 14, 15, 16, 17, 18, 1
The diagnosis support device according to any one of 9, 20, 21, 22 and 23.
【0369】(付記項25)前記画像データが複数の色
信号からなる内視鏡画像及び/または超音波画像である
ことを特徴とする付記項1、2、3、4、5、6、7、
8、9、10、11、12、13、14、15、16、
17、18、19、20、21、22、23または24
のいずれか1つに記載の診断支援装置。(Additional Item 25) The additional item 1, 2, 3, 4, 5, 6, 7, wherein the image data is an endoscope image and / or an ultrasonic image composed of a plurality of color signals. ,
8, 9, 10, 11, 12, 13, 14, 15, 16,
17, 18, 19, 20, 21, 22, 23 or 24
The diagnosis support device according to any one of the above.
【0370】(付記項26)前記内視鏡画像がRGBデ
ータからなることを特徴とする付記項25に記載の診断
支援装置。(Additional Item 26) The diagnostic support apparatus according to Additional Item 25, wherein the endoscope image is composed of RGB data.
【0371】(付記項27)画像データに対し、パター
ンの方向性に関する特徴量を抽出することを特徴とする
画像処理方法。(Additional Item 27) An image processing method characterized by extracting a feature amount relating to the directionality of a pattern from image data.
【0372】(付記項28)画像データに対し、パター
ンの方向性に関する特徴量を抽出する第1のステップ
と、前記抽出された特徴量を要素とする第1の特徴ベク
トルを生成する第2のステップと、前記第1の特徴ベク
トルから第2の特徴ベクトルを生成する第3のステップ
とを備えたことを特徴とする付記項27に記載の画像処
理方法。(Additional Item 28) A first step of extracting a characteristic amount relating to the directionality of a pattern from image data, and a second step of generating a first characteristic vector having the extracted characteristic amount as an element. The image processing method according to claim 27, further comprising: a step; and a third step of generating a second feature vector from the first feature vector.
【0373】(付記項29)前記第2の特徴ベクトル
が、前記第1の特徴ベクトルにおける各要素の生起する
確率分布を規定するパラメータであることを特徴とする
付記項28に記載の画像処理方法。(Additional Item 29) The image processing method according to Additional Item 28, wherein the second feature vector is a parameter that defines a probability distribution of occurrence of each element in the first feature vector. .
【0374】(付記項30)前記抽出された特徴量に対
し、値の正規化及び/または方向に関する補正の少なく
ともいずれか1つを適用することを特徴とする付記項2
7、28または29のいずれか1つに記載の画像処理方
法。(Additional Item 30) Additional item 2 is characterized in that at least one of value normalization and / or direction correction is applied to the extracted feature amount.
30. The image processing method according to any one of 7, 28 and 29.
【0375】(付記項31)前記方向に関する補正が、
画像の回転移動に関するものであることを特徴とする付
記項30に記載の画像処理方法。(Additional Item 31) The correction regarding the direction is
31. The image processing method according to claim 30, wherein the method relates to rotational movement of the image.
【0376】(付記項32)前記抽出された特徴量がG
abor特徴に基づくものであることを特徴とする付記
項27、28、29、30または31のいずれか1つに
記載の画像処理方法。(Appendix 32) If the extracted feature quantity is G
The image processing method according to any one of additional items 27, 28, 29, 30, and 31, wherein the image processing method is based on the abor feature.
【0377】(付記項33)画像データに対し、大域的
な明暗変化を近似する多次元曲面を生成する第1のステ
ップと、前記多次元曲面を用いて前記画像データを補正
する第2のステップとからなることを特徴とする画像処
理方法。(Additional Item 33) A first step of generating a multi-dimensional surface approximating a global change in brightness for image data, and a second step of correcting the image data using the multi-dimensional surface An image processing method comprising:
【0378】(付記項34)前記補正がシェーディング
補正であることを特徴とする付記項33に記載の画像処
理方法。(Additional Item 34) The image processing method according to Additional Item 33, wherein the correction is shading correction.
【0379】(付記項35)前記画像データが内視鏡画
像であることを特徴とする付記項27、28、29、3
0、31、32、33または34のいずれか1つに記載
の画像処理方法。(Additional Item 35) The additional items 27, 28, 29, and 3 wherein the image data is an endoscope image.
The image processing method according to any one of 0, 31, 32, 33, and 34.
【0380】(付記項36)少なくとも1つの信号から
なる原画像データを入力する画像入力手段と、前記画像
入力手段により入力された前記原画像データに対して画
像処理を適用する画像処理手段と、前記画像入力手段に
より入力された前記原画像データ及び前記画像処理手段
による処理結果画像データを記億する記憶手段と、前記
記億手段により記録された前記原画像データ及び/また
は処理結果画像データに対して、少なくとも1つの関心
領域を設定する関心領域設定手段と、前記原画像データ
及び処理結果画像データに対して設定される関心領域の
情報を管理するための管理手段とを設けたことを特徴と
する診断支援装置。(Supplementary note 36) Image input means for inputting original image data composed of at least one signal, image processing means for applying image processing to the original image data input by the image input means, A storage unit for storing the original image data input by the image input unit and the processing result image data by the image processing unit; and storing the original image data and / or the processing result image data recorded by the storage unit. On the other hand, there is provided a region of interest setting means for setting at least one region of interest, and a managing means for managing information of the region of interest set for the original image data and the processing result image data. Diagnosis support device.
【0381】(付記項37)前記管理手段が前記原画像
及び前記原画像に対する処理結果画像を1つの画像群と
して管理し、前記関心領域設定手段により前記画像群の
少なくとも1つの原画像及び/または処理結果画像に対
して設定された関心領域と同じ形状、位置及び大きさの
関心領域を前記画像群における他の画像に付与すること
を特徴とする付記項36に記載の画像処理方法。(Additional Item 37) The management means manages the original image and the processing result image for the original image as one image group, and the region of interest setting means sets at least one original image and / or 37. The image processing method according to claim 36, wherein a region of interest having the same shape, position, and size as the region of interest set for the processing result image is added to another image in the image group.
【0382】[0382]
【発明の効果】以上説明したように本発明の診断支援装
置によれば、特徴量算出手段が関心領域設定手段により
設定された関心領域から特徴量を算出し、判別分類手段
が特徴量算出手段により算出された特徴量を用いた病変
の判別分類を行うので、撮像条件の違いによる影響の少
ない特徴量等を算出し、この特徴量を用いることで、安
定した自動診断結果を得ることができるという効果があ
る。As described above, according to the diagnosis support apparatus of the present invention, the characteristic amount calculating means calculates the characteristic amount from the region of interest set by the region of interest setting means, and the discriminating and classifying means calculates the characteristic amount. Is used to perform classification and classification of lesions using the feature amounts calculated by the above. Therefore, a feature amount or the like that is less affected by differences in imaging conditions is calculated, and a stable automatic diagnosis result can be obtained by using this feature amount. This has the effect.
【図1】本発明の第1の実施の形態に係る診断支援装置
の構成を示す構成図FIG. 1 is a configuration diagram showing a configuration of a diagnosis support device according to a first embodiment of the present invention;
【図2】図1の診断支援装置における診断支援処理実行
プログラムの構成を示す機能ブロック図FIG. 2 is a functional block diagram showing a configuration of a diagnosis support processing execution program in the diagnosis support device of FIG. 1;
【図3】図1の診断支援装置におけるマルチウインドウ
の画面の概念構成を示す構成図FIG. 3 is a configuration diagram showing a conceptual configuration of a multi-window screen in the diagnosis support apparatus of FIG. 1;
【図4】図3の画面でのアイコン操作によって展開され
るマルチウインドウ画面の構成を示す構成図4 is a configuration diagram showing a configuration of a multi-window screen developed by operating an icon on the screen of FIG. 3;
【図5】図4のマルチウインドウ画面上のウインドウの
構成を説明する第1の説明図FIG. 5 is a first explanatory diagram illustrating a configuration of a window on the multi-window screen of FIG. 4;
【図6】図4のマルチウインドウ画面上のウインドウの
構成を説明する第2の説明図FIG. 6 is a second explanatory diagram illustrating a configuration of a window on the multi-window screen of FIG. 4;
【図7】図1の診断支援装置におけるマルチウインドウ
の画面の具体的な構成を示す構成図FIG. 7 is a configuration diagram showing a specific configuration of a multi-window screen in the diagnosis support apparatus of FIG. 1;
【図8】図1のハードディスクに記録された内視鏡画像
ファイルを管理するファイル管理データを説明する説明
図FIG. 8 is an explanatory diagram for explaining file management data for managing an endoscope image file recorded on the hard disk in FIG. 1;
【図9】図1のハードディスクに記録された内視鏡画像
ファイルの各内視鏡画像の内視鏡検査ごとに付与される
管理データを説明する説明図FIG. 9 is an explanatory diagram illustrating management data assigned to each endoscopic examination of each endoscopic image of the endoscopic image file recorded on the hard disk of FIG. 1;
【図10】図7の画像表示アイコンのクリック操作によ
り展開される画像管理データウインドウの構成を示す構
成図FIG. 10 is a configuration diagram showing a configuration of an image management data window expanded by a click operation of the image display icon in FIG. 7;
【図11】図10の呼び出しボタンのクリック操作によ
り展開される検索ウインドウの構成を示す構成図11 is a configuration diagram showing a configuration of a search window expanded by a click operation of a call button in FIG.
【図12】図11の条件検索開始ボタンのクリック操作
により展開される検索結果表示ウインドウの構成を示す
構成図FIG. 12 is a configuration diagram showing a configuration of a search result display window expanded by a click operation of a condition search start button in FIG. 11;
【図13】図12の画像一覧ボタンのクリック操作によ
り展開される画像一覧表示ウィンドウの構成を示す構成
図FIG. 13 is a configuration diagram showing a configuration of an image list display window developed by a click operation of the image list button in FIG.
【図14】図13の表示ボタンのクリック操作により展
開される画像表示ウインドウの構成を示す構成図FIG. 14 is a configuration diagram showing a configuration of an image display window developed by a click operation of a display button in FIG. 13;
【図15】図7の画像処理アイコンのクリック操作によ
り展開される画像処理ウインドウの構成を示す構成図FIG. 15 is a configuration diagram showing a configuration of an image processing window developed by a click operation of the image processing icon in FIG. 7;
【図16】図15の実行ボタンのクリック操作により展
開される処理結果画像表示ウィンドウの構成を示す構成
図16 is a configuration diagram showing a configuration of a processing result image display window developed by a click operation of an execution button in FIG. 15;
【図17】図2のデータベース管理ブロックが管理する
データベースの構成を示す構成図FIG. 17 is a configuration diagram showing a configuration of a database managed by the database management block in FIG. 2;
【図18】図7のROI設定アイコンのクリック操作に
より展開されるROI設定ウインドウの構成を示す構成
図18 is a configuration diagram showing a configuration of an ROI setting window expanded by a click operation of the ROI setting icon in FIG. 7;
【図19】図18の特徴量選択ボタンのクリック操作に
より展開される算出特徴量メニューウインドウの構成を
示す構成図FIG. 19 is a configuration diagram showing a configuration of a calculation feature menu window developed by a click operation of a feature selection button in FIG. 18;
【図20】図19の一括選択ボタンのクリック操作によ
り展開される一括選択メニューウインドウの構成を示す
構成図20 is a configuration diagram showing a configuration of a batch selection menu window that is developed by a click operation of a batch selection button in FIG. 19;
【図21】図18の部位設定ボタンのクリック操作によ
り展開される部位指定メニューウインドウの構成を示す
構成図21 is a configuration diagram showing a configuration of a site designation menu window which is developed by a click operation of a site setting button in FIG. 18;
【図22】図18の特徴量算出実行ボタンのクリック操
作により展開される特徴量算出結果表示ウインドウの構
成を示す構成図FIG. 22 is a configuration diagram showing a configuration of a feature value calculation result display window developed by a click operation of a feature value calculation execution button in FIG. 18;
【図23】図7のROI設定アイコンによる原画像及び
処理結果画像に対するROIの設定方法を説明する説明
図23 is an explanatory diagram illustrating a method of setting an ROI for an original image and a processing result image using the ROI setting icon in FIG. 7;
【図24】図19の相互特徴量算出ボタンによる特徴量
算出処理の流れを示すフローチャート24 is a flowchart showing the flow of a feature amount calculation process using the mutual feature amount calculation button in FIG. 19;
【図25】図24の特徴量算出処理におけるG画像デー
タから取り出すサンプリング画素を説明する説明図25 is an explanatory diagram illustrating sampling pixels extracted from G image data in the feature amount calculation processing in FIG.
【図26】図19の相互特徴量算出ボタンのクリック操
作により展開されるROI間相互特徴量メニューウィン
ドウの構成を示す構成図26 is a configuration diagram showing the configuration of an inter-ROI mutual feature menu window developed by a click operation of the mutual feature calculation button in FIG. 19;
【図27】図26のROI間相互特徴量メニューウィン
ドウで算出されるROI間相互特徴量を説明する説明図FIG. 27 is an explanatory diagram for explaining an inter-ROI mutual feature calculated in the inter-ROI mutual feature menu window of FIG. 26;
【図28】図26のROI間相互特徴量メニューウィン
ドウでのROI間相互特徴量算出における自動組み合わ
せの動作を説明するためのフローチャートFIG. 28 is a flowchart for explaining the operation of automatic combination in the calculation of inter-ROI mutual features in the inter-ROI mutual features menu window of FIG. 26;
【図29】図7の特徴量算出アイコンのクリック操作に
より展開される特徴量算出ウインドウの構成を示す構成
図29 is a configuration diagram showing a configuration of a feature amount calculation window developed by a click operation of the feature amount calculation icon in FIG. 7;
【図30】図29のROI指定ボタンのクリック操作に
より展開されるROI指定ウインドウの構成を示す構成
図FIG. 30 is a configuration diagram showing a configuration of an ROI designation window which is developed by a click operation of the ROI designation button in FIG. 29;
【図31】図7の判別分類アイコンのクリック操作によ
り展開される判別分類ウインドウの構成を示す構成図FIG. 31 is a configuration diagram showing a configuration of a discrimination / classification window which is developed by a click operation of the discrimination / classification icon in FIG. 7;
【図32】図31のデータセット作成ボタンのクリック
操作により展開されるデータセット作成ウインドウの構
成を示す構成図FIG. 32 is a configuration diagram showing a configuration of a data set creation window which is developed by clicking a data set creation button in FIG. 31;
【図33】図31のクラス別ROI選択ボタンのクリッ
ク操作により展開されるクラス別ROI一覧ウインドウ
の構成を示す構成図FIG. 33 is a configuration diagram showing a configuration of a class-specific ROI list window expanded by a click operation of a class-specific ROI selection button in FIG. 31;
【図34】図32の既存データセット呼び出しボタンの
クリック操作により展開されるデータセット一覧ウイン
ドウの構成を示す構成図FIG. 34 is a configuration diagram showing a configuration of a data set list window expanded by a click operation of an existing data set call button in FIG. 32;
【図35】図31の判別分類実行ボタンのクリック操作
により展開される判別分類実行ウインドウの構成を示す
構成図FIG. 35 is a configuration diagram showing a configuration of a discrimination / classification execution window developed by a click operation of the discrimination / classification execution button in FIG. 31;
【図36】図35の実行ボタンのクリック操作により展
開される判別分類結果表示ウインドウの構成を示す構成
図36 is a configuration diagram showing a configuration of a discrimination / classification result display window developed by a click operation of an execution button in FIG. 35;
【図37】図7のレポート作成アイコンのクリック操作
により展開されるレポート作成ウインドウの構成を示す
構成図FIG. 37 is a configuration diagram showing a configuration of a report creation window expanded by a click operation of the report creation icon in FIG. 7;
【図38】図37の選択ボタンのクリック操作により展
開される特徴量レポート作成ウインドウの構成を示す構
成図FIG. 38 is a configuration diagram showing a configuration of a feature amount report creation window developed by a click operation of a selection button in FIG. 37;
【図39】図38の表示ボタンのクリック操作により展
開される特徴量レポート表示ウインドウの構成を示す構
成図39 is a configuration diagram showing a configuration of a feature amount report display window developed by a click operation of a display button in FIG. 38;
【図40】図38のグラフ作成ボタンのクリック操作に
より展開されるグラフ表示ウインドウの構成を示す構成
図40 is a configuration diagram showing the configuration of a graph display window developed by clicking the graph creation button in FIG. 38;
【図41】本発明の第2の実施の形態に係る画像のテク
スチャの構造パターンを示すパターン図FIG. 41 is a pattern diagram showing a structure pattern of an image texture according to the second embodiment of the present invention;
【図42】図41のテクスチャの構造パターンの補正を
説明する説明図FIG. 42 is an explanatory diagram illustrating correction of the structure pattern of the texture in FIG. 41;
【図43】図41のテクスチャの構造パターンの変形例
を示すパターン図FIG. 43 is a pattern diagram showing a modification of the structure pattern of the texture shown in FIG. 41;
【図44】本発明の第3の実施の形態に係る前処理ブロ
ックの処理構成を示すブロック図FIG. 44 is a block diagram showing a processing configuration of a pre-processing block according to the third embodiment of the present invention.
【図45】図44の前処理ブロックの作用を説明する第
1の説明図FIG. 45 is a first explanatory view illustrating the operation of the preprocessing block in FIG. 44;
【図46】図44の前処理ブロックの作用を説明する第
2の説明図FIG. 46 is a second explanatory diagram illustrating the operation of the preprocessing block in FIG. 44;
【符号の説明】 1…診断支援装置 2…ビデオプロセッサ 3、35…観察モニタ 4…入力ユニット 5…サーバユニット 6…カンファレンスユニット 11…A/Dコンバータ 12、32、50…画像処理部 13、21、31L…LANコントローラ 14、26、36…コントローラ 22…メモリ 23、47…ハードディスク 24…ハードディスクドライバ 25…圧縮装置 33…伸張装置 34…D/Aコンバータ 41…CPU 42…キーボード 43…キーボードI/F 44…検索モニタ 45…マウス 46…マウスI/F 48…ハードディスクI/F 49…作業メモリ 50…画像処理部 51…プリンタ 52…プリンタI/F 61…パスワード記憶部 62…パスワード監視部 63…制御制限部 70…診断支援処理実行プログラム 71…画像管理ブロック 72…データベース管理ブロック 73…ROI設定ブロック 74…特徴量算出ブロック 75…判別分類ブロック 76…レポート作成ブロック 77…画像処理ブロック[Description of Signs] 1 ... Diagnosis support device 2 ... Video processor 3, 35 ... Observation monitor 4 ... Input unit 5 ... Server unit 6 ... Conference unit 11 ... A / D converter 12, 32, 50 ... Image processing unit 13, 21 , 31L LAN controller 14, 26, 36 Controller 22 Memory 23, 47 Hard disk 24 Hard disk driver 25 Compressor 33 Expander 34 D / A converter 41 CPU 42 Keyboard 43 I / F 44 search monitor 45 mouse 46 mouse I / F 48 hard disk I / F 49 working memory 50 image processing unit 51 printer 52 printer I / F 61 password storage unit 62 password monitoring unit 63 control Restriction unit 70: Diagnosis support processing execution program 1 ... image management block 72 ... database management block 73 ... ROI setting block 74 ... feature calculation block 75 ... discriminant classifier block 76 ... reporting block 77 ... image processing block
Claims (1)
タを入力する画像入力手段と、 入力された前記画像データを記憶する記憶手段と、 前記記憶手段により記録された前記画像データに対して
少なくとも1つの関心領域を設定する関心領域設定手段
と、 前記関心領域設定手段により設定された前記関心領域か
ら特徴量を算出する特徴量算出手段と、 前記特徴量算出手段により算出された特徴量を用いた病
変の判別分類を行う判別分類手段とを備えたことを特徴
とする診断支援装置。An image input unit for inputting image data comprising at least one signal; a storage unit for storing the input image data; and at least one image data for the image data recorded by the storage unit. A region-of-interest setting unit for setting a region of interest; a characteristic amount calculating unit for calculating a characteristic amount from the region of interest set by the region-of-interest setting unit; a lesion using the characteristic amount calculated by the characteristic amount calculating unit And a discriminating and classifying means for performing discriminating and classifying.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15708096A JP3895400B2 (en) | 1996-04-30 | 1996-06-18 | Diagnosis support device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8-109588 | 1996-04-30 | ||
JP10958896 | 1996-04-30 | ||
JP15708096A JP3895400B2 (en) | 1996-04-30 | 1996-06-18 | Diagnosis support device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1014864A true JPH1014864A (en) | 1998-01-20 |
JP3895400B2 JP3895400B2 (en) | 2007-03-22 |
Family
ID=26449319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15708096A Expired - Fee Related JP3895400B2 (en) | 1996-04-30 | 1996-06-18 | Diagnosis support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3895400B2 (en) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000237122A (en) * | 1999-02-24 | 2000-09-05 | Asahi Optical Co Ltd | Display switching device for endoscope device |
JP2001202523A (en) * | 1999-12-03 | 2001-07-27 | Canon Inc | Image processing method and apparatus |
JP2003506797A (en) * | 1999-08-09 | 2003-02-18 | ウェイク フォレスト ユニバーシティ | Methods and systems for generating reports |
WO2004052188A1 (en) | 2002-12-12 | 2004-06-24 | Olympus Corporation | Information processing device |
JP2005192880A (en) * | 2004-01-08 | 2005-07-21 | Olympus Corp | Method for image processing |
WO2006087981A1 (en) * | 2005-02-15 | 2006-08-24 | Olympus Corporation | Medical image processing device, lumen image processing device, lumen image processing method, and programs for them |
JP2006223377A (en) * | 2005-02-15 | 2006-08-31 | Olympus Corp | Lumen image processing device, lumen image processing method, and program for the same |
JP2006223376A (en) * | 2005-02-15 | 2006-08-31 | Olympus Corp | Medical image processing apparatus |
WO2008136098A1 (en) * | 2007-04-24 | 2008-11-13 | Olympus Medical Systems Corp. | Medical image processing device and medical image processing method |
EP1704815A3 (en) * | 2001-10-22 | 2009-02-11 | Olympus Corporation | Information processing apparatus |
US7538761B2 (en) | 2002-12-12 | 2009-05-26 | Olympus Corporation | Information processor |
US7599533B2 (en) | 2002-12-05 | 2009-10-06 | Olympus Corporation | Image processing system and image processing method |
EP1997076A4 (en) * | 2006-03-13 | 2010-01-20 | Given Imaging Ltd | CASCADE ANALYSIS TO DETECT AN INTESTINAL CONTRACT |
JP2010535579A (en) * | 2007-08-03 | 2010-11-25 | エスティーアイ・メディカル・システムズ・エルエルシー | Computer image analysis of acetic acid processed cervical intraepithelial neoplasia |
US7995823B2 (en) | 1999-08-09 | 2011-08-09 | Wake Forest University Health Sciences | Image reporting method and system |
US8335362B2 (en) | 2006-06-12 | 2012-12-18 | Given Imaging Ltd. | Device, system and method for measurement and analysis of contractile activity |
US8396327B2 (en) | 2006-03-13 | 2013-03-12 | Given Imaging Ltd. | Device, system and method for automatic detection of contractile activity in an image frame |
JP2014232470A (en) * | 2013-05-30 | 2014-12-11 | オリンパス株式会社 | Detection device, learning device, detection method, learning method and program |
WO2015115274A1 (en) * | 2014-01-31 | 2015-08-06 | オムロン株式会社 | Object assessment device, image sensor, and object assessment method |
CN106466188A (en) * | 2015-08-20 | 2017-03-01 | 通用电气公司 | For the quantitative system and method for emission tomography imaging |
US10653295B2 (en) | 2015-09-29 | 2020-05-19 | Fujifilm Corporation | Image processing apparatus, endoscope system, and image processing method |
JPWO2019078204A1 (en) * | 2017-10-17 | 2020-10-22 | 富士フイルム株式会社 | Medical image processing equipment and endoscopic equipment |
-
1996
- 1996-06-18 JP JP15708096A patent/JP3895400B2/en not_active Expired - Fee Related
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000237122A (en) * | 1999-02-24 | 2000-09-05 | Asahi Optical Co Ltd | Display switching device for endoscope device |
JP2003506797A (en) * | 1999-08-09 | 2003-02-18 | ウェイク フォレスト ユニバーシティ | Methods and systems for generating reports |
US7995823B2 (en) | 1999-08-09 | 2011-08-09 | Wake Forest University Health Sciences | Image reporting method and system |
US8320651B2 (en) | 1999-08-09 | 2012-11-27 | Wake Forest University Health Sciences | Image reporting method and system |
JP2001202523A (en) * | 1999-12-03 | 2001-07-27 | Canon Inc | Image processing method and apparatus |
EP1704815A3 (en) * | 2001-10-22 | 2009-02-11 | Olympus Corporation | Information processing apparatus |
US7599533B2 (en) | 2002-12-05 | 2009-10-06 | Olympus Corporation | Image processing system and image processing method |
WO2004052188A1 (en) | 2002-12-12 | 2004-06-24 | Olympus Corporation | Information processing device |
EP1570777A4 (en) * | 2002-12-12 | 2008-05-21 | Olympus Corp | Information processing device |
US7538761B2 (en) | 2002-12-12 | 2009-05-26 | Olympus Corporation | Information processor |
JP2005192880A (en) * | 2004-01-08 | 2005-07-21 | Olympus Corp | Method for image processing |
JP2006223376A (en) * | 2005-02-15 | 2006-08-31 | Olympus Corp | Medical image processing apparatus |
JP2006223377A (en) * | 2005-02-15 | 2006-08-31 | Olympus Corp | Lumen image processing device, lumen image processing method, and program for the same |
WO2006087981A1 (en) * | 2005-02-15 | 2006-08-24 | Olympus Corporation | Medical image processing device, lumen image processing device, lumen image processing method, and programs for them |
US8055033B2 (en) | 2005-02-15 | 2011-11-08 | Olympus Corporation | Medical image processing apparatus, luminal image processing apparatus, luminal image processing method, and programs for the same |
US8441530B2 (en) | 2006-03-13 | 2013-05-14 | Given Imaging Ltd. | Cascade analysis for intestinal contraction detection |
EP1997076A4 (en) * | 2006-03-13 | 2010-01-20 | Given Imaging Ltd | CASCADE ANALYSIS TO DETECT AN INTESTINAL CONTRACT |
US8396327B2 (en) | 2006-03-13 | 2013-03-12 | Given Imaging Ltd. | Device, system and method for automatic detection of contractile activity in an image frame |
US8335362B2 (en) | 2006-06-12 | 2012-12-18 | Given Imaging Ltd. | Device, system and method for measurement and analysis of contractile activity |
CN101594817B (en) | 2007-04-24 | 2011-08-24 | 奥林巴斯医疗株式会社 | Medical image processing device and medical image processing method |
WO2008136098A1 (en) * | 2007-04-24 | 2008-11-13 | Olympus Medical Systems Corp. | Medical image processing device and medical image processing method |
JP2010535579A (en) * | 2007-08-03 | 2010-11-25 | エスティーアイ・メディカル・システムズ・エルエルシー | Computer image analysis of acetic acid processed cervical intraepithelial neoplasia |
JP2014232470A (en) * | 2013-05-30 | 2014-12-11 | オリンパス株式会社 | Detection device, learning device, detection method, learning method and program |
WO2015115274A1 (en) * | 2014-01-31 | 2015-08-06 | オムロン株式会社 | Object assessment device, image sensor, and object assessment method |
CN106466188A (en) * | 2015-08-20 | 2017-03-01 | 通用电气公司 | For the quantitative system and method for emission tomography imaging |
US10653295B2 (en) | 2015-09-29 | 2020-05-19 | Fujifilm Corporation | Image processing apparatus, endoscope system, and image processing method |
JPWO2019078204A1 (en) * | 2017-10-17 | 2020-10-22 | 富士フイルム株式会社 | Medical image processing equipment and endoscopic equipment |
JP2022060540A (en) * | 2017-10-17 | 2022-04-14 | 富士フイルム株式会社 | Medical image processing equipment and endoscopic equipment |
US11574401B2 (en) | 2017-10-17 | 2023-02-07 | Fujifilm Corporation | Medical image processing apparatus and endoscope apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP3895400B2 (en) | 2007-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3895400B2 (en) | Diagnosis support device | |
JP4450973B2 (en) | Diagnosis support device | |
EP3839885A1 (en) | Real-time pathological microscopic image collection and analysis system, method and device and medium | |
US7027627B2 (en) | Medical decision support system and method | |
CN111275041B (en) | Endoscope image display method and device, computer equipment and storage medium | |
Chiu | A novel approach based on computerized image analysis for traditional Chinese medical diagnosis of the tongue | |
US7324673B1 (en) | Image processing apparatus, image processing method, and image processing program storage medium | |
US7133546B2 (en) | Digital medical image analysis | |
US7606779B2 (en) | Methods and system for data aggregation of physical samples | |
CN112086197B (en) | Breast nodule detection method and system based on ultrasonic medicine | |
JP2000155840A (en) | Image processing method | |
JPH07284090A (en) | Picture classifying device | |
US20100150413A1 (en) | Abnormal shadow candidate detecting method and abnormal shadow candidate detecting device | |
CN111214255A (en) | Medical ultrasonic image computer-aided diagnosis method | |
WO2006115826A2 (en) | Method for diagnosing disease from tongue image | |
JP2007209770A (en) | Endoscopic diagnosis support apparatus | |
JP2012008027A (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for supporting pathological diagnosis, and recording medium recorded with control program | |
CN117095815B (en) | System for predicting prostate cancer patient with homologous recombination defect based on magnetic resonance image and pathological panoramic scanning slice | |
Zhang et al. | Evaluation of a new dataset for visual detection of cervical precancerous lesions | |
CN111242921A (en) | Method and system for automatically updating medical ultrasonic image auxiliary diagnosis system | |
JPH08293025A (en) | Image sorting device | |
JP2007236956A (en) | Endoscopic diagnosis support apparatus and endoscopic image processing method | |
JP5702943B2 (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program | |
WO1994014063A1 (en) | Order-based analyses of cell and tissue structure | |
JP2010220776A (en) | Ultrasonic image processing display device, ultrasonic image processing display method and control processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060814 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061214 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101222 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111222 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |