Nothing Special   »   [go: up one dir, main page]

JPH0380834A - Endoscope device - Google Patents

Endoscope device

Info

Publication number
JPH0380834A
JPH0380834A JP1238896A JP23889689A JPH0380834A JP H0380834 A JPH0380834 A JP H0380834A JP 1238896 A JP1238896 A JP 1238896A JP 23889689 A JP23889689 A JP 23889689A JP H0380834 A JPH0380834 A JP H0380834A
Authority
JP
Japan
Prior art keywords
image
oxygen saturation
distribution
blood flow
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1238896A
Other languages
Japanese (ja)
Other versions
JP2810718B2 (en
Inventor
Takeo Tsuruoka
建夫 鶴岡
Kazunari Nakamura
一成 中村
Masashi Yoshikawa
吉川 昌史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Publication of JPH0380834A publication Critical patent/JPH0380834A/en
Application granted granted Critical
Publication of JP2810718B2 publication Critical patent/JP2810718B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Endoscopes (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PURPOSE:To execute the measurement of the blood flow rate and the oxygen saturation quantity of an interest area and to facilitate the time lapse comparison by providing an image file means for storing an image signal so as to be retrievable, an area designating means of a display, and an arithmetic processing means of the blood flow rate or the oxygen saturation degree. CONSTITUTION:Light beams of R, G and B are radiated to a body to be photographed from the tip through a light guide 21, and tits reflected light is brought to image formation on a CCD 32 by an objective lens system 31 and an image of the body to be photographed is brought to image pickup. Accordingly, on a monitor 7, a visible image is brought to color display. Also, a hemoglobin distribution image (IHb distribution image) and an oxygen saturation degree distribution image (SO2 distribution image) are displayed by allowing them to pass through a real time processing unit 6. On the other hand, with respect to an endoscope image obtained under a special light illumination or an arbitrary interest area of an image stored in an image file device 8, a blood flow analytic system 12 calculates an analytic image of a hemoglobin quantity distribution, an oxygen saturation degree distribution, etc., by using a computer 10. Also, since this device is provided with an image file means, the change with lapse of time in the condition of a disease at the position a patient is concerned can also be known.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は被写体画像から血流量及び酸素飽和度等を算出
する機能を備えた内視鏡装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an endoscope apparatus having a function of calculating blood flow, oxygen saturation, etc. from an image of a subject.

[従来技術] 近年、胃等の臓器粘膜の血流tlI態と疾患との対応が
種々研究され明らかにされつつあり、血流量とか酸素飽
和度を計算して診断に役立てようとする試みが行われて
いる。
[Prior Art] In recent years, various studies have been conducted to clarify the relationship between blood flow in the mucous membranes of organs such as the stomach and diseases, and attempts have been made to calculate blood flow and oxygen saturation to aid in diagnosis. It is being said.

文献「医療用粗域スペクトル分析V装置」(「レーザー
研究」昭和60年第13巻第2@、平木順−氏ならびに
神田昌彦氏著〉において、胃粘膜の分光反射スペクトル
を計測して、吸光度と血流量(ヘモグロビン量)及び酸
素飽和度との間に、ある相関がある事が表わされている
。第17図に人血中のヘモグロビンの吸収スペクトルを
示す。
In the document "Medical Coarse Range Spectrum Analysis V Device"("LaserResearch" 1985 Vol. 13, No. 2@, written by Jun Hiraki and Masahiko Kanda), the spectral reflection spectrum of the gastric mucosa was measured and the absorbance was determined. It has been shown that there is a certain correlation between blood flow rate (hemoglobin amount) and oxygen saturation. Figure 17 shows the absorption spectrum of hemoglobin in human blood.

同図において波長569nm(ナノメートル、以下同じ
)および波長586 nmの2点では、全てヘモグロビ
ン中の酸化ヘモグロビンの割合(SO2、以下同じ)の
増減に関係なく、スペクトル値が変化せず(不動点)、
波長577nmの点では302が増せば吸収が増加し、
波長650 n1llの点では逆に302が増せば、減
少する。
In the figure, at the two points of wavelength 569 nm (nanometers, same below) and wavelength 586 nm, the spectral values do not change (fixed point ),
At the wavelength of 577 nm, the absorption increases as 302 increases,
Conversely, in terms of wavelength 650 n1ll, if 302 increases, it decreases.

これらの特性を利用して、同図中の線分A、B及びCに
て示される値を測定する事により、酸素飽和度(802
>及び血流量(ヘモグロビンMT目b)を式 %式% 及び I Hb = 200C を用いて求める事ができる。
Utilizing these characteristics, oxygen saturation (802
> and the blood flow rate (hemoglobin MT b) can be determined using the formula % and I Hb = 200C.

ところで、上記のようなスペクトル計測を粘膜表面の一
点一点について計測するのでは、広い表面全体を調査づ
るのに長時間を要する事になってしまう。
By the way, if the above-mentioned spectrum measurement is performed on each point on the surface of the mucous membrane, it will take a long time to investigate the entire wide surface.

内視鏡検査においては、特にこのような調査方法では患
者に少なからぬ苦痛を与える事、ならびに胃等の計測対
象が鼓動の心臓の拍動により絶えず動いている事等によ
り実用的でない。
In endoscopy, this type of investigation method is particularly impractical because it causes considerable pain to the patient and because the object to be measured, such as the stomach, is constantly moving due to the beating of the heart.

このため、2次元画像情報として短時間に、血流量およ
び酸素飽和度の分布が計測できる事が望まれていた。
Therefore, it has been desired to be able to measure blood flow and oxygen saturation distribution as two-dimensional image information in a short time.

このため、特開昭63−311937号公報には、2次
元の前詰plA等の血流量及び酸素飽和度イメージング
を高速に得られる内視鏡装置が開示されている。
For this reason, Japanese Patent Application Laid-Open No. 63-311937 discloses an endoscope apparatus that can rapidly obtain blood flow and oxygen saturation imaging such as two-dimensional prepackaging PLA.

し発明が解決しようとする問題点コ 上記公報の従来例は、2次元の胃粘膜等の血流量及び酸
素飽和度のイメージングを得ていたが、任意の関心領域
における血流量及び酸素飽和量の直読が困難であった。
Problems to be Solved by the Invention The conventional example of the above publication obtains two-dimensional imaging of blood flow and oxygen saturation in the gastric mucosa, etc. Direct reading was difficult.

又、画像ファイル機能がないため、同一患者の経時的観
察及び計測が困難であった。
Furthermore, since there is no image file function, it is difficult to observe and measure the same patient over time.

本発明は上述した点にかんがみてなされたもので、胃粘
膜等における任意の関心領域の血流量及び酸素飽和量に
ついて測定が可能であると共に、複数枚の画像を記録、
読出し可能なファイル機能を持ち、経時的な比較も容易
にできる内視鏡装置を提供することを目的とする。
The present invention has been made in view of the above points, and is capable of measuring blood flow and oxygen saturation in any region of interest in the gastric mucosa, etc., and recording multiple images.
It is an object of the present invention to provide an endoscope device that has a readable file function and allows easy comparison over time.

[問題点を解決する手段及び作用] 本発明では複数の狭帯域フィルタを通した光のもとて搬
像した画像信号を検索可能に記録する画像ファイル手段
と、デイスプレィに表示された画像に対して領域指定を
行う領域指定手段と、指定された領域指定に対して血流
量又は酸素飽和度を算出する演算処理手段とを設けるこ
とにより、所望とする画像部位に対しての血流量又は酸
素飽和度を数値として求められるようにしている。又、
上記画像ファイル手段により、画像を記録したり、記録
した画像を検索して経時的変化等も容易に調べる事がで
きる。
[Means and effects for solving the problem] The present invention provides an image file means for retrieably recording an image signal transmitted by light passing through a plurality of narrow band filters, and an image file means for retrieably recording an image signal transmitted by light passing through a plurality of narrow band filters, and By providing an area specifying means for specifying an area using a specified area, and an arithmetic processing means for calculating a blood flow rate or oxygen saturation level for the specified area specification, the blood flow rate or oxygen saturation level for a desired image area can be calculated. The degree can be calculated as a numerical value. or,
By using the image file means, it is possible to record images, search recorded images, and easily examine changes over time.

[実施例] 以下、図面を参照して本発明を具体的に説明する。[Example] Hereinafter, the present invention will be specifically described with reference to the drawings.

第1図ないし第16図は本発明の1実施例に係り、第1
図は1実施例の全体構成を示すブロック図、第2図は1
実施例の全体構成を示す斜視図、第3図はビデオプロセ
ッサ等の構成を示すブロック図、第4図は回転フィルタ
の構成を示す正面図、第5図は回転フィルタの透過特性
を示す特性図、第6図はヘモグロビンの酸素飽和度の変
化による血液の吸光度の変化を示1特性図、第7図はリ
アルタイム処理ユニットの構成を示すブロック図、第8
図は血流解析システムの全体的処理を示づフロー図、第
9図は処理条件設定の選択メニューを示す説明図、第1
0図は画像部分のみが切り出される様子を示す説明図、
第11図はヘモグロビンaを求める演痒処理のフロー図
、第12図は酸素飽和度を求める演算処理のフロー図、
第13図はCRTに出力される画像の近くにスケールが
表示されることを示す説明図、第14図は領域指定のメ
ニューを示す説明図、第15図は領域指定により、指定
された領域についてのヘモグロビン量又は酸素飽和度を
算出する処理のフロー図、第16図は領域指定される様
子を示す説明図である。
1 to 16 relate to one embodiment of the present invention;
The figure is a block diagram showing the overall configuration of one embodiment, and the second figure is a block diagram showing the overall configuration of one embodiment.
FIG. 3 is a block diagram showing the structure of the video processor, etc., FIG. 4 is a front view showing the structure of the rotating filter, and FIG. 5 is a characteristic diagram showing the transmission characteristics of the rotating filter. , FIG. 6 is a characteristic diagram showing changes in blood absorbance due to changes in oxygen saturation of hemoglobin, FIG. 7 is a block diagram showing the configuration of a real-time processing unit, and FIG.
Figure 9 is a flow diagram showing the overall processing of the blood flow analysis system, Figure 9 is an explanatory diagram showing the selection menu for setting processing conditions, Figure 1
Figure 0 is an explanatory diagram showing how only the image part is cut out,
Figure 11 is a flow diagram of the itching process to determine hemoglobin a, Figure 12 is a flow diagram of the calculation process to determine oxygen saturation,
Fig. 13 is an explanatory diagram showing that a scale is displayed near the image output to the CRT, Fig. 14 is an explanatory diagram showing the area specification menu, and Fig. 15 is an explanatory diagram showing the area specified by area specification. FIG. 16 is an explanatory diagram showing how a region is specified.

第1又は第2図に示すように1実施例の内視鏡装置り1
は、撮像手段を備えた電子内視鏡2と、この電子内視鏡
2に照明光を供給する光源装置3及び信号処理回路4(
第3図参照)とを内蔵したビデオプロセッサ5と、この
ビデオプロセッサ5と接続され、酸素飽和量等をリアル
タイム処理づるリアルタイム!ial!!ユニット6と
、このリアルタイム処理ユニット6で処理された画像又
はスイッチSによりビデオプロセッサ5から出力される
映像43号を表示する画像表示用カラーモニタ(CRT
とも記す)7と、前記ビデオプロセッサ5と接続され、
ビデオプロセッサ5から出力される画像を検索用のデー
タと共に記録したり、記録された画像を検索可能とする
画像ファイル装置8、この画像ファイル装置8の画像を
表示する画像表示用カラーモニタ(CRTとも記す。)
9、前記画像ファイル装置8の画像に対して画像処理す
る画像処理用コンピュータ10、このコンピュータ1o
の処理メニュー等を表示する操作用モニタ11とからな
る血流解析システム12とから構成される。
As shown in FIG. 1 or 2, an embodiment of the endoscope apparatus 1
comprises an electronic endoscope 2 equipped with an imaging means, a light source device 3 that supplies illumination light to the electronic endoscope 2, and a signal processing circuit 4 (
(See Figure 3) is connected to the video processor 5, which processes the oxygen saturation amount, etc. in real time! ial! ! unit 6 and an image display color monitor (CRT
) 7 connected to the video processor 5;
An image file device 8 that records images output from the video processor 5 together with search data and allows the recorded images to be searched; )
9. An image processing computer 10 that performs image processing on the image of the image file device 8; this computer 1o;
The blood flow analysis system 12 includes an operation monitor 11 that displays processing menus, etc.

尚、第1図に示す画像ファイル装置8は第2図ではコン
ピュータ10に内蔵されている。またコンピュータ10
で処理された画像はカラーモニタ9によっ(表示可能で
ある。
The image file device 8 shown in FIG. 1 is built into the computer 10 in FIG. Also computer 10
The processed image can be displayed on the color monitor 9.

第2図に示すように上記電子内視鏡2は、細長で例えば
可撓性の挿入部13を有し、この挿入部13の!2端に
大径の操作部14が連設されている。
As shown in FIG. 2, the electronic endoscope 2 has an elongated and, for example, flexible insertion section 13. A large-diameter operating section 14 is connected to the two ends.

前記操作部14から側方に可撓性のケーブル15が延設
され、このケーブル15の先端部にコネクタ16が設け
られている。この電子内視鏡2は、上記コネクタ16を
介してビデオプロセッサ5に接続できるようにしである
A flexible cable 15 extends laterally from the operating section 14, and a connector 16 is provided at the tip of the cable 15. This electronic endoscope 2 can be connected to the video processor 5 via the connector 16 described above.

上記挿入部13の先端側には、硬性の先端部17及びこ
の先端部17に隣接する後方側に湾曲可能な湾助部18
が順次設けられている。また、上記操作部14に設けら
れた湾曲操作ノブ19を回動操作することによって、上
記湾面部18を左右方向あるいは上下方向に湾曲できる
ようになっている。また、上記操作部14には、上記挿
入部13内に設けらたれ処置具チャンネルに連通ずる挿
入口20が設けられている。
On the distal end side of the insertion portion 13, there is a rigid distal end portion 17 and a bending aid portion 18 adjacent to the distal end portion 17 that can be bent rearward.
are set up in sequence. Furthermore, by rotating a bending operation knob 19 provided on the operating section 14, the curved surface section 18 can be bent in the left-right direction or the up-down direction. Further, the operating section 14 is provided with an insertion port 20 that is provided in the insertion section 13 and communicates with a treatment instrument channel.

第3図に示すように、電子内視鏡2の挿入部13内には
、照明光を伝送するライトガイド21が挿通されている
。このライトガイド21は、第2図に示すケーブル15
内を挿通され、ビデオプロセッサ5に接続することによ
り、このライトガイド21の入射側となる端面には光源
装@3から色順次の照明光が供給される。
As shown in FIG. 3, a light guide 21 for transmitting illumination light is inserted into the insertion section 13 of the electronic endoscope 2. As shown in FIG. This light guide 21 is connected to the cable 15 shown in FIG.
By passing through the light guide 21 and connecting it to the video processor 5, color-sequential illumination light is supplied from the light source device @3 to the end face of the light guide 21 on the incident side.

電源22から供給される電力によって発光するランプ2
3の照明光は、モータ24によって回転駆動される回転
フィルタ25を通すことにより、その回転フィルタ25
の最外周部分を光路中に介装させた場合には、その周方
向に取付けられた赤。
A lamp 2 that emits light by power supplied from a power source 22
The illumination light of No. 3 passes through the rotary filter 25 which is rotationally driven by the motor 24.
When the outermost part of the light beam is inserted in the optical path, the red light is attached in the circumferential direction.

緑、青の各色透過フィルタ26R,26G、26Bを順
次通した赤、緑、青の各波長の光、つまり3原色順次の
光にされ、ライトガイド21の端面に照射される。
The light of each wavelength of red, green, and blue is sequentially passed through the green and blue transmission filters 26R, 26G, and 26B, that is, the three primary colors are sequentially turned into light, and the end face of the light guide 21 is irradiated with the light.

上記ランプ23は、紫外線から赤外線に至る広帯域の光
を発光するもので、キセノンランプとかストロボランプ
等を用いることができる。
The lamp 23 emits broadband light ranging from ultraviolet rays to infrared rays, and can be a xenon lamp, a strobe lamp, or the like.

尚、モータ24はモータドライバ28によって、その回
転速度が一定となるように駆動制量される。
The motor 24 is driven and controlled by a motor driver 28 so that its rotational speed is constant.

上記ライトガイド21によって伝送された照明光は、挿
入部13の先端側の端面から前方に出側される。この照
明光で照明された被写体は、挿入部13の先端側に取付
けた対物レンズ31によって、その焦点面に配設された
固体撮像素子としてのCCD32に結像される。
The illumination light transmitted by the light guide 21 is emitted forward from the end surface of the insertion section 13 on the distal end side. The object illuminated with this illumination light is imaged by an objective lens 31 attached to the distal end side of the insertion section 13 on a CCD 32 as a solid-state image sensor disposed at its focal plane.

このCCD32は、可視領域を含め、紫外線から赤外領
域に至る広い波長域に感度を右し、このCCD32に結
像される光学像を光電変換し、信号電荷として蓄積する
This CCD 32 has sensitivity in a wide wavelength range from ultraviolet to infrared regions, including the visible region, photoelectrically converts the optical image formed on this CCD 32, and accumulates it as a signal charge.

しかして、信号処理回路4内のドライバ33から、信号
線34aを介して伝送された駆動パルスにより、CCD
32の信号電荷は読出され、信号線34bを介して信号
処理回路4内のプリアンプ35に入力される。
The driving pulse transmitted from the driver 33 in the signal processing circuit 4 via the signal line 34a causes the CCD to
32 signal charges are read out and input to the preamplifier 35 in the signal processing circuit 4 via the signal line 34b.

上記プリアンプ35で増幅された映像信号は、プロセス
回路36に入力され、γ補正及びホワイトバランス等の
信号処理が施され、A/Dコンバーク37によって、デ
ィジタル信号に変換されるようになっている。このディ
ジタルの映像信号ははセレクト回路38によって、例え
ば赤(R)。
The video signal amplified by the preamplifier 35 is input to a process circuit 36, where it undergoes signal processing such as γ correction and white balance, and is converted into a digital signal by an A/D converter 37. This digital video signal is selected, for example, as red (R) by the select circuit 38.

緑(G〉、青(R)の各色に対応する3つの第1メモリ
39a、第2メモリ39b、第3メモリ39Cに選択的
に記憶されるようになっている。上記メtlJ39a、
39b、39cに記憶された15号データは同時に読出
され、A/Dコンバータ41によってアナログ信号に変
換され、R,G、B色信弓として出力されると共に、エ
ンコーダ42に人力され、このエンコーダ42からNT
SCコンポジット信号として出ノjされる。
It is designed to be selectively stored in three first memories 39a, second memories 39b, and third memories 39C corresponding to each color of green (G> and blue (R).The above metlJ39a,
The No. 15 data stored in 39b and 39c are simultaneously read out, converted into analog signals by the A/D converter 41, outputted as R, G, and B color signals, and also manually inputted to the encoder 42. From NT
It is output as an SC composite signal.

上記エンコーダ42から出力されるコンポジットビデオ
信号は、スイッチSを介してカラーモニタ7に入力でき
、被写体像をカラー表示する。
The composite video signal output from the encoder 42 can be input to the color monitor 7 via the switch S, and the subject image is displayed in color.

上記信号処理回路4内には、システム全体のタイミング
を作るタイミングジェネレータ43が設けられ、このタ
イミングジェネレータ43の出力信号によって、モータ
ドライバ28、ドライバ33の各回路の同期をとってい
る。
The signal processing circuit 4 is provided with a timing generator 43 that generates the timing of the entire system, and the output signals of the timing generator 43 synchronize the motor driver 28 and driver 33 circuits.

本実施例では、切換え回路44にて、フィルタ切換装置
45を制御し、回転フィルタ25の最外周部を、照明光
路中に介装すると、上記ランプ23から白銅された光は
第4図に示す回転フィルタ24の最外周に設けられ、R
,G、Bを透過するフィルタ26R,26G、26Bを
順次透過してR,G、Bの各波長領域の光に時系列的に
分割される。
In this embodiment, when the filter switching device 45 is controlled by the switching circuit 44 and the outermost portion of the rotary filter 25 is inserted into the illumination optical path, the light emitted from the lamp 23 is as shown in FIG. Provided at the outermost periphery of the rotary filter 24, R
, G, and B, and is sequentially divided into light in the R, G, and B wavelength ranges.

尚、これらフィルタ26R,26G、26Bの透過特性
を第5図(a>に示す。
Incidentally, the transmission characteristics of these filters 26R, 26G, and 26B are shown in FIG. 5 (a>).

上記R,G、Bの光はライトガイド21を介して、その
先端から被写体に照射される。この可視帯域におけるR
、G、Bの面順次照明光による被写体からの反則光は、
対物レンズ系31によってCCD32上に結像され、こ
のCCD32によって被写体像が搬像される。従って、
モニタ7には、通常の可視画像が7Jラ一表示される。
The R, G, and B lights are irradiated onto the subject from the tip of the light guide 21. R in this visible band
, G, B, the repulsion light from the subject due to the sequential illumination light is
An objective lens system 31 forms an image on a CCD 32, and a subject image is conveyed by this CCD 32. Therefore,
The monitor 7 displays 7J normal visible images.

一方、上記切換え回路44にて、フィルタ切換装置45
を制御し、回転フィルタ25を下方に移動すると、第4
図に示す中間の狭帯域フィルタ群51 a、 5 i 
b、 51 Cが照明光路中に順次介装される。さらに
下方に移動すると、最内周の狭帯域フィルタ群52a、
52b、52cが照明光路中に順次介装される。
On the other hand, in the switching circuit 44, the filter switching device 45
When the rotary filter 25 is moved downward, the fourth
Intermediate narrowband filter groups 51a and 5i shown in the figure
b, 51 C are successively interposed in the illumination optical path. Moving further downward, the innermost narrow band filter group 52a,
52b and 52c are sequentially interposed in the illumination optical path.

上記狭帯域フィルタ群51a、51b、51cは、例え
ば第6図の211.λ12.λ13を中心としてその近
傍の波長バンドを通す透過特性を示し、この透過特性を
第5図(b)に示す。尚、各波長λ11.λ12.λ1
3を中心とする波長バンドをWl 1.Wl 2.Wl
3で表わす。
The narrowband filter groups 51a, 51b, and 51c are, for example, 211. in FIG. λ12. The transmission characteristics are shown in FIG. 5(b), which pass wavelength bands around λ13 as the center. In addition, each wavelength λ11. λ12. λ1
The wavelength band centered at Wl 1. Wl 2. Wl
Represented by 3.

同様に、狭帯域フィルタ群52a、52b、52Cは、
第6図の波長λ21.λ22.λ23を中心として狭い
波長バンドW21.W22.W23のみをそれぞれ通す
ものである。この実施例では、第6図の波長群(λ11
.λ12.λ13)から(λ51.λ52.λ53)の
うちの2つの波長群(λ11.λ12.λ13)と(λ
21゜λ22.λ23)の一方を選択できるようにして
いるが、回転フィルタ25を取り換えることにより、他
の波長群を選択することもできる。
Similarly, the narrow band filter groups 52a, 52b, 52C are
Wavelength λ21 in FIG. λ22. A narrow wavelength band W21. centered around λ23. W22. Only W23 is allowed to pass therethrough. In this example, the wavelength group (λ11
.. λ12. Two wavelength groups (λ11.λ12.λ13) and (λ13) to (λ51.λ52.λ53)
21°λ22. λ23), but by replacing the rotary filter 25, it is also possible to select other wavelength groups.

従って、上記波長群の波長バンドを選択すると、その選
択された波長バンドの光がライトガイド21を介して、
先端部17に伝達され、被写体に照射される。この照明
光による被写体からの反則光は、対物レンズ31によっ
てCCD32上に結像され、このCCD32によって、
被写体像が撮像される。この場合スイッチSによりこの
信号をモニタ7に出力すると、波長バンドW11.W1
2゜Wl3又はW21.W22.W23による(R。
Therefore, when a wavelength band of the above wavelength group is selected, the light of the selected wavelength band passes through the light guide 21,
The light is transmitted to the tip 17 and irradiated onto the subject. The reflected light from the object caused by this illumination light is imaged on the CCD 32 by the objective lens 31, and by this CCD 32,
A subject image is captured. In this case, when the switch S outputs this signal to the monitor 7, the wavelength band W11. W1
2°Wl3 or W21. W22. By W23 (R.

G、Bフィルタの通常光画像に対して〉特殊光画像が擬
似カラーで表示される。
A special light image is displayed in pseudo color with respect to the normal light image of the G and B filters.

又、リアルタイム処理ユニット6を通すことにより、ヘ
モグロビン分布画像(IHb分布画像)とか酸素飽和度
分布画61 (802分布画像〉が表示される。
Further, by passing the image through the real-time processing unit 6, a hemoglobin distribution image (IHb distribution image) and an oxygen saturation distribution image 61 (802 distribution image) are displayed.

選択された波長バンドW11.Wl 2.Wl3又はW
21.W22.W23の各(中心)波長をλ1.λ2.
λ3で表わすとして、上記リアルタイム処理ユニット6
の構成及び作用について第7図を参照して以下に説明す
る。尚、ここでλ1゜λ3はSO2によって、吸光度が
全く変わらない波長を示し、波長λ2は802によって
吸光度が大きく変化する波長を表わす。
Selected wavelength band W11. Wl 2. Wl3 or W
21. W22. Let each (center) wavelength of W23 be λ1. λ2.
As expressed by λ3, the above real-time processing unit 6
The structure and operation of this will be explained below with reference to FIG. Here, λ1°λ3 represents a wavelength at which the absorbance does not change at all due to SO2, and wavelength λ2 represents a wavelength at which the absorbance greatly changes due to SO2.

上記波長λ1.λ2.λ3を中心波長とする波長バンド
W1.W2、W3の照明光のもとて搬像された信号(分
り易くづるためこれもWl、W2゜W3で表わす)tよ
3人力1出力の3つのセレクタ61a、61b、61c
をそれぞれ介して逆γ補正回路62a、62b、62C
に入力される。例えば、セレクタ61aは波長バンドW
1に対応する画像信号を、セレクタ61bは波長バンド
W2にス4応する画像信号を、セレクタ61Gは波長バ
ンドW3に対応する画像値gを、それぞれ逆γ補正回路
62a、62b、62cに出力するように設定しである
The wavelength λ1. λ2. A wavelength band W1. whose center wavelength is λ3. Signals conveyed under the illumination lights W2 and W3 (to make it easy to understand, these are also expressed as Wl, W2°W3) t and three selectors 61a, 61b, 61c with 3 manual outputs.
through the inverse γ correction circuits 62a, 62b, 62C, respectively.
is input. For example, the selector 61a selects the wavelength band W.
1, the selector 61b outputs an image signal corresponding to wavelength band W2, and the selector 61G outputs an image value g corresponding to wavelength band W3 to inverse γ correction circuits 62a, 62b, and 62c, respectively. The settings are as follows.

上記逆γ補正回路62a、62b、62cは、上記ビデ
オプロセッサ5で既にγ補正が行われていることから、
これを元に戻すために逆γ補正が行われる。この逆γ補
正回路62a、62b、62Cの出力は、それぞれレベ
ル調整回路63a。
Since the inverse γ correction circuits 62a, 62b, and 62c have already performed γ correction in the video processor 5,
Inverse gamma correction is performed to restore this. The outputs of the inverse γ correction circuits 62a, 62b, and 62C are each sent to a level adjustment circuit 63a.

63b、63Gに入力される。このレベル調整回路63
a、63b、63cは、レベル調整制御信号発生回路6
4からのレベル調整制御信号によってレベルが調整され
、3つのレベル調整回路63a、63b、63cによっ
て、全体のレベル調整が行われる。更に、例えば第6図
のような酸素飽和度の変化による血液の吸光度の変化を
示す図の縦軸がlog軸であることから、上記レベル調
整回路63a、63b、63cの出力は、それぞれ0g
アンプ65a、65b、65cによって、対数変換され
る。
It is input to 63b and 63G. This level adjustment circuit 63
a, 63b, and 63c are level adjustment control signal generation circuits 6;
The level is adjusted by a level adjustment control signal from 4, and the overall level is adjusted by three level adjustment circuits 63a, 63b, and 63c. Furthermore, since the vertical axis of a diagram showing changes in blood absorbance due to changes in oxygen saturation, such as shown in FIG.
Logarithmic transformation is performed by amplifiers 65a, 65b, and 65c.

3つの logアンプのうちの2つの logアンプ6
5a、65cの出力は、差動アンプ66bに入力され、
波長バンドW1に対応する画像信号と波長バンドW3に
対応する画像信号との差が演算されるようになっている
。また、同様に、2つの logアンプ65b、65c
の出力は、差動アンプ66aに入力され、波長バンドW
2に対応する画像信号と波長バンドW3に対応する画像
信号との差が演算されるようになっている。このように
、2つの波長に対応する画像信号の差から、被検体に酸
素がどれだけ溶は込んでいるか、すなわち酸素飽和度を
知ることができる。また、酸素が多く溶は込んでいると
いうことは、つまり、酸素を多く消費しているというこ
とであり、これによって、血流がどれ位かが分かる。
Two of the three log amplifiers 6
The outputs of 5a and 65c are input to a differential amplifier 66b,
The difference between the image signal corresponding to wavelength band W1 and the image signal corresponding to wavelength band W3 is calculated. Similarly, two log amplifiers 65b and 65c
The output of W is input to the differential amplifier 66a, and the output of W
The difference between the image signal corresponding to wavelength band W3 and the image signal corresponding to wavelength band W3 is calculated. In this way, it is possible to know how much oxygen has dissolved into the subject, that is, the oxygen saturation level, from the difference between the image signals corresponding to the two wavelengths. Also, the fact that a lot of oxygen is dissolved means that a lot of oxygen is being consumed, and this tells us how much blood flow is being carried out.

上記差動アンプ66a、66bの出力は、酸素飽和度S
O2を求めるために用いられ、除算器67に入力され、
この除算器67で所定の演算を行うことにより、前記S
O2が求められる。また、上記差動アンプ66bの出力 1ooW 1− 1oaW 3 はヘモグロビンl(I日b)を表わすものとなる。
The output of the differential amplifiers 66a and 66b is the oxygen saturation S
It is used to calculate O2 and is input to the divider 67,
By performing a predetermined operation with this divider 67, the S
O2 is required. Further, the output 1ooW 1 - 1oaW 3 of the differential amplifier 66b represents hemoglobin l (I day b).

L記除算器67の出力及び差動アンプ66bの出力は、
2人力のセレクタ68に入力され、このセレクタ68か
ら、SO2を示す信号と血流量、ヘモグロビンff1(
I日b〉を示す信号の一方が選択的に出力されるように
なっている。
The output of the L divider 67 and the output of the differential amplifier 66b are:
A signal indicating SO2, blood flow rate, and hemoglobin ff1 (
One of the signals indicating "I day b>" is selectively output.

前記セレクタ68の出力信号は、計測に使用する場合に
は、そのまま取り出され、一方、表示させる場合には、
γ補正回路69によって、再度γ補正を行い、モニタ7
に出力される。
When the output signal of the selector 68 is used for measurement, it is taken out as is, but when it is displayed,
The γ correction circuit 69 performs γ correction again, and the monitor 7
is output to.

上記リアルタイム処理ユニット6は動画モードで802
分布画像とかIHb分布画像を表示することができる。
The above real-time processing unit 6 is 802 in video mode.
Distribution images and IHb distribution images can be displayed.

一方、血流解析システム12は特殊光照明のもとで得ら
れた内視鏡画像あるい(よ画像ファイル装@8に記憶さ
れた画像の任意関心領域に対して、コンピュータ10を
用いてヘモグロビン量分布、酸素飽和度分布等の解析画
像を算出する。
On the other hand, the blood flow analysis system 12 uses the computer 10 to analyze hemoglobin in an arbitrary region of interest in an endoscopic image obtained under special light illumination or an image stored in an image file system @8. Calculate analysis images such as volume distribution and oxygen saturation distribution.

この血流解析システム12は、ディジタル画像入力装置
と組合わせて、1つのプログラム内で、入出力、条件設
定、処理が対話形式で行えるようにしている。
In combination with a digital image input device, this blood flow analysis system 12 allows input/output, condition setting, and processing to be performed interactively within one program.

このため、画像処理用コンピュータ10としては、例え
ばPC−9801RA5 (計算器本体と40 M b
ytのハードディスク)を用いその実行環境は32ビツ
トCPUの30386 <Inte l )を数fIl
i演算プロセッサ30387ありで使用する。
Therefore, as the image processing computer 10, for example, a PC-9801RA5 (calculator body and 40 Mb
The execution environment uses a 32-bit CPU (30386<Intel) and several fl.
Used with i-arithmetic processor 30387.

尚、画像ファイル装置8はこの実施例では上記コンピュ
ータPC−9801RA5に内蔵された4 0 M b
ytのハードディスクで構成される。
In this embodiment, the image file device 8 is a 40 Mb built-in computer PC-9801RA5.
It consists of a yt hard disk.

又、上記コンピュータ10は画像記憶用フレームメモリ
(例えばΔ5TRODESIGN  GG125−A/
D)を装着して用いた。又、この]ンビュータ10にお
いて、任意の関心領域を設定するために、マウス71〈
例えばPC−9872U)が接続しである。又、各メニ
ューの選択はキーボード72の例えばファンクションキ
ーのみで殆ど行えるようにしている。
The computer 10 also has a frame memory for image storage (for example, Δ5TRODESIGN GG125-A/
D) was installed and used. In addition, in this viewer 10, in order to set an arbitrary region of interest, the mouse 71
For example, a PC-9872U) is connected. Furthermore, each menu can be selected using only the function keys of the keyboard 72, for example.

上記コンピュータ10による操作手順等を対話形式で行
うためのモニタ11として例えばPC−KD853を用
いることができる。
For example, a PC-KD853 can be used as the monitor 11 for performing the operating procedures and the like using the computer 10 in an interactive manner.

又、処理画像を表示するモニタ9として、例えば5ON
YのPVM−1371Qを用いることができる。
Also, as the monitor 9 for displaying the processed image, for example, a 5ON
PVM-1371Q of Y can be used.

上記コンピュータ10に入力される入力画像としては、
ディジタル画像入力装置からの内視鏡画像(例えば51
2X480dot、整数1bytx3)と本プログラム
で処理した数値データ画像(例えば365 X 385
 dot、実数4byt)Fある。
The input image input to the computer 10 is as follows:
Endoscopic images from a digital image input device (e.g. 51
2 x 480 dots, integer 1 byte x 3) and numerical data image processed by this program (e.g. 365 x 385
dot, real number 4 bytes) F.

このコンピュータ10による処理内容は、(例えば実数
4 bytデータでの〉演算処理と、(例えば365 
x 385 dot、整数1 bytデータでの)白黒
画像データ作成と、(例えば365X385dot、整
数1bytx3データでの)擬似カラーデータ作成の処
理を行う。
The processing contents by this computer 10 include arithmetic processing (for example, with real number 4-byte data) and (for example, 365-byte data)
Processes are performed to create black and white image data (eg, 365 x 385 dots, 1 byte integer data) and pseudo color data (eg, 365 x 385 dots, 1 byte integer x 3 data).

上記演算処理としてはヘモグロビン量分布画像(I日す
分布画像と略記〉の算出、酸素飽和度分布画像(802
分布画像と略記)の算出を行う。
The above calculation processing includes calculation of a hemoglobin amount distribution image (abbreviated as I-day distribution image), and calculation of an oxygen saturation distribution image (802
Calculate the distribution image (abbreviated as distribution image).

又、白黒画像データ作成は、上記I日す又は302分布
画像の実数値画像の整数化、ヒストグラムの平坦化によ
る表示レンジの拡張である。
Furthermore, the creation of black and white image data involves expanding the display range by converting the real value image of the I-day or 302 distribution image into an integer and flattening the histogram.

又、擬似カラーデータの作成は、上記白黒画像データの
擬似カラー(32色)化である。
The creation of pseudo color data involves converting the black and white image data into pseudo colors (32 colors).

又、出力画像は、例えば365 X 385  dot
、実数4bytでの数値データ画像として出力するよう
にしている。
Also, the output image is, for example, 365 x 385 dots.
, is output as a numerical data image in 4-byte real numbers.

次に上記システム12の処理フローを第8図を参照して
以下に説明づる。
Next, the processing flow of the system 12 will be explained below with reference to FIG.

上記システム12のプログラムをスタートさせると、モ
ニタ11には画像入力条件設定の処理P1のメニューが
表示されるので、未処理画像つまり内視鏡画像又は処理
された処理画像としての数舶データ画像の選択を行うと
共に、入力媒体としてハードディスク又はフロッピーデ
ィスクの選択を行う。
When the program of the system 12 is started, the menu for processing P1 for setting image input conditions is displayed on the monitor 11. A selection is made and a hard disk or floppy disk is selected as the input medium.

上記選択で未処理画像を選択した場合には第9図に示す
処理条件設定の処理P2を行う。つまりSO2又はIH
bのいずれの処理を行うかの選択を行う。
If an unprocessed image is selected in the above selection, processing P2 for setting processing conditions shown in FIG. 9 is performed. In other words, SO2 or IH
A selection is made as to which process is to be performed.

次に画像入力&切出しの処理P3により、内視鏡画像を
フレームメモリへの転送と、第10図に示すように内視
鏡画像全体から患者データ等の演算処理に不必要な領域
又は誤差となる領域をカットして画像部分のみを抽出す
る処理を行う。
Next, in the image input and cropping process P3, the endoscopic image is transferred to the frame memory, and as shown in Fig. 10, unnecessary areas or errors are removed from the entire endoscopic image for calculation processing of patient data, etc. Processing is performed to extract only the image part by cutting the area.

次に、逆γ補正の処理P4を行う。未処理画像〈内視鏡
画像〉ではγ補正が行われているので、逆γ補正により
γ補正されてない画像に戻す。
Next, inverse γ correction processing P4 is performed. Since γ correction has been performed on the unprocessed image (endoscopic image), the image is returned to an image without γ correction by inverse γ correction.

次に演算処理P5により、第11図又は第12図に示す
IHb又は802を算出する処理を行い、その処理結果
をデータ保存の処理P6又はデータ保存&CRT出力の
処理P7又はCRT出力の処理P8のいずれかの処理を
行う。
Next, calculation processing P5 calculates IHb or 802 shown in FIG. 11 or 12, and the processing result is used in data storage processing P6, data storage & CRT output processing P7, or CRT output processing P8. Perform either process.

上記データ保存の処理P6は、IHb又はSO2に対し
て算出された数値データ画像の保存であり、CRT出力
の処理P8は白黒又は擬似カラー化してCRT9に出力
する処理である。又、データ保存&CRT出力の処理P
7はP6とP8の両方の処理を行う。
The data storage process P6 is to save the numerical data image calculated for IHb or SO2, and the CRT output process P8 is to convert it into black and white or pseudo color and output it to the CRT9. Also, data storage & CRT output processing P
7 performs both P6 and P8 processing.

一方、処理画像が選択された場合には、出力条件設定の
処理P9により、白黒又は擬似カラー化して出力するか
の選択を行い、次の画像入力の処理P10により数値デ
ータ画像のフレームメモリへの転送を行う。
On the other hand, if the processed image is selected, the output condition setting process P9 selects whether to output it in black and white or pseudo color, and the next image input process P10 stores the numerical data image in the frame memory. Make a transfer.

このフレームメモリへの転送が行われると、CRT出力
の処理P8によりCRT9に処理画像が表示される。
When this transfer to the frame memory is performed, the processed image is displayed on the CRT 9 through CRT output processing P8.

しかして、CRT9に表示された画像に対して領域指定
&数値出力の処理P11により、第15図に示す処理を
経て指定された点又は指定された領域に対する数値デー
タがCRTllに表示される。従って、マウス71によ
り関心領域を指定すれば、その指定された領域でのIH
b又(よSO2の数値データが計算され、その結果がC
RTI 1に表示される。
Then, by area designation and numerical output processing P11 for the image displayed on the CRT 9, numerical data for the designated point or designated area is displayed on the CRT 11 through the processing shown in FIG. Therefore, if you specify a region of interest with the mouse 71, IH in the specified region
The numerical data of SO2 is calculated and the result is C
Displayed on RTI 1.

次に各処理についてて説明する。Next, each process will be explained.

画像入力条件設定の処理P1では入力画像条件として未
処理画像又は処理画像の選択と、入力媒体としてハード
ディスク又はフロッピーディスクの選択を行う。尚、未
処理画像を画像ファイル装旨8としてのハードディスク
に記録する場合、その画像データは患者データ、日付等
の検索用の2次データと共に記録される。従って、検索
する場合には患者データ、日付等を利用できる。
In the image input condition setting process P1, an unprocessed image or a processed image is selected as the input image condition, and a hard disk or floppy disk is selected as the input medium. Incidentally, when the unprocessed image is recorded on the hard disk as the image file storage 8, the image data is recorded together with secondary data for retrieval such as patient data and date. Therefore, when searching, patient data, dates, etc. can be used.

上記処理P1において、未処理画像且つハードディスク
を選択した場合には、ディジタル画像入力装置の画像選
択ルーチンを使用し、その他はマニュアルでファイル名
を人力する。
In the process P1, if an unprocessed image and a hard disk are selected, the image selection routine of the digital image input device is used, and otherwise the file name is entered manually.

入力画像は、未処理の内視鏡画像については例えば51
2X480 dot、整数1 bytで処理済の数値デ
ータ画像については例えば365X385dOt、実数
4bytl成である。
The input image is, for example, 51 for unprocessed endoscopic images.
For example, a processed numerical data image of 2×480 dots and 1 byte of integer is composed of 365×385 dots and 4 bytes of real number.

尚、処理画像に関しては、画像データの先頭部分に数値
パラメータ(最大値、最小値〉が付属づる。
Regarding the processed image, numerical parameters (maximum value, minimum value) are attached to the beginning of the image data.

次に未処理画像が選択された場合での処理条件設定の処
fP2と処理画像が選択された場合での出力条件設定の
処理P9について説明する。
Next, processing condition setting process fP2 when an unprocessed image is selected and output condition setting process P9 when a processed image is selected will be described.

これらの場合には、第9図に示すように■口b302の
選択とか、波長バンドW1.W2.W3の選択、白黒又
は擬似カラーの出力形態の選択、CRT出力をづるかし
ないかの選択、データ保存をするかしないか、又データ
保存をハードディスクにづるかフロッピーディスクにす
るか、保存する際のファイル名の設定等を行う。
In these cases, as shown in FIG. 9, selection of port b302 or selection of wavelength band W1. W2. selection of W3, selection of black and white or pseudo color output format, selection of whether to output CRT output, selection of whether to save data or not, and whether to save data to a hard disk or floppy disk. Configure the file name, etc.

尚、処理画像の場合には、選択できる項目は、出力形態
の選択のみで、CRT出力はYES、データ保存はNo
となる。
In the case of processed images, the only items that can be selected are the output formats, YES for CRT output, and No for data storage.
becomes.

尚、波長バンドの選択を可能にすることにより、フィル
タ構成の異なる光源装置の場合等にら対処できる。
By making it possible to select the wavelength band, it is possible to deal with cases where light source devices have different filter configurations.

未処理画像に対しては次の画像入力&切出しの処理P3
により、例えば512X480dot、整数i byt
の内視鏡全画面を、365 X 385 dotの画像
部分のみを切出しくこの様子を第10図に示す。) R
GF3IvA別の配列に格納する。
For unprocessed images, perform the next image input & cropping process P3
For example, 512X480 dots, integer i byte
FIG. 10 shows how only an image portion of 365 x 385 dots is extracted from the entire endoscope screen. ) R
GF3IvA is stored in a separate array.

一方処理画像に対しての画像入力の処理P10では、フ
ァイル先頭にある2つの数値パラメータ(最大値、最小
値)を読み込む、それに引き続いて画像データ(365
X 385 dot、実数4byt)を読み込む。
On the other hand, in image input processing P10 for the processed image, two numerical parameters (maximum value, minimum value) at the beginning of the file are read, and then the image data (365
x 385 dots, real number 4 bytes).

尚、上記画像入力&切出しの処理P3が行われた画像デ
ータは、逆γ補正の処理P4によって入力画像をD A
 in、補正後の出力画像をDAoutとすると、 DAout =  (DAin)  ”’の処理が全て
の画像部分データに対して行われる。
The image data that has been subjected to the image input and cropping process P3 is converted into an input image by the inverse γ correction process P4.
If the corrected output image is DAout, then DAout = (DAin) ``'' processing is performed on all image partial data.

その後、演算処理P5が行なわれる。Thereafter, arithmetic processing P5 is performed.

この演算処理P5は、■口すについては、第11図、S
O2については、第12図に示す処理が行なわれる。
This calculation process P5 is as shown in FIG.
Regarding O2, the process shown in FIG. 12 is performed.

第11図に示す■口すの処理がスタートすると、先ず初
期設定が行われる。
When the process shown in FIG. 11 starts, initial settings are first performed.

つまり、■口すの算出に用いられる2つの波長λ1.λ
3の照明のもとで得られた各画像データをそれぞれ]ン
ビュータ10内のフレームメモリに設けた画像格納領域
1maae  W 1 (X  5ize。
In other words, the two wavelengths λ1. λ
Each image data obtained under 3 illuminations is stored in an image storage area 1maae W1 (X 5ize.

Y  5ize)、In1aoe  W3 (X  5
ize、 Y  5ize)に転送する。ここでx  
5ize、 y  5izeは×方向及びY方向のgA
bXの大きさを表わす。
Y 5ize), In1aoe W3 (X 5
ize, Y 5ize). Here x
5ize, y 5ize is gA in the x direction and Y direction
Represents the size of bX.

また、IHbデータ格納領域rHb  (X  5iz
e。
In addition, the IHb data storage area rHb (X 5iz
e.

Y  5ize)も初期化し、演算処理に用いる変数X
Y 5ize) is also initialized, and the variable X used for calculation processing is
.

yもOを代入して初期化する。y is also initialized by assigning O.

この初期設定の処理の後、演算処理を行う。After this initial setting process, arithmetic processing is performed.

つまり、変数ンを1だけ増加し、さらに変数Xも1だけ
増加し、これらの数(x、y)に対してのI口すの値I
Hb  (X、V>を求める。つまり10G(IIIl
age−11?(X、V)) −10g(ImaGe−
W3(X、V))を計算して、この値をI日b  (x
、y>に代入する。
In other words, the variable N is increased by 1, the variable X is also increased by 1, and the value of I for these numbers (x, y) is
Find Hb (X, V>. In other words, 10G (III
age-11? (X, V)) -10g(ImaGe-
W3(X,V)) and convert this value into Idayb(x
, y>.

次に、このXの値が画像データ領域(のX75向の大き
さ〉以内であれば、再び1だf〕増加してどうようの計
算を行う。この計算を繰り返すことにより、特定のyの
値(この場合には1〉に対して×方向の領域X  5i
ze仝てに対するIt−1bが求められるので、次にy
の値を1だけ増加しで、同様の処理を行う事を繰返すこ
とにより、画像データ領1i11X  5ize、 Y
  5ize全てに対してのIt−1bを求められ、こ
の1日すを求める演算を終了する。
Next, if this value of X is within the size of the image data area in the The area in the x direction for the value (in this case, 1)
Since It-1b for all ze is calculated, next y
By increasing the value of 1 by 1 and repeating the same process, the image data area 1i11X 5ize, Y
It-1b for all 5ize is calculated, and the calculation for calculating this one-day count is completed.

又、第12図に示すSO2の演算処理は、第11図に示
す■口すと類似した演算を行う。
Further, the arithmetic processing of SO2 shown in FIG. 12 is similar to that shown in FIG. 11.

このS02の演算処理では、その初期設定が1口すの初
期設定において、さらに波長22での画像データをフレ
ームメモリ内の画像データ格納領域Tmage  W2
 (X  5ize、 Y  5ize)に転送し、I
Hb  (X  5ize、 Y  5ize)の代り
にS02のデータ格納領VASo2(X  5ize、
 Y  5ize)を初期化する。
In the calculation process of S02, the initial setting is 1 sip, and the image data at wavelength 22 is further stored in the image data storage area Tmage W2 in the frame memory.
(X 5ize, Y 5ize) and I
Instead of Hb (X 5ize, Y 5ize), the data storage area VASo2 of S02 (X 5ize,
Y 5ize).

又、演算処理は、第11図の■口b  (x、y)を求
めるための計算の代りに、 を計算して802  (X、 y)に代入する。
In addition, in the arithmetic processing, instead of the calculation to obtain (x, y) (x, y) in FIG. 11, the following is calculated and substituted into 802 (X, y).

その他は、第11図と同様である。The rest is the same as in FIG. 11.

このようにして、演算処理P5により画像データの各画
素に対して(l−1b、SO2の値が求められ、画像デ
ータの各画素に対応してフレームメモリに配列データと
して格納される。
In this way, the value of (l-1b, SO2) is determined for each pixel of the image data by the arithmetic processing P5, and is stored as array data in the frame memory corresponding to each pixel of the image data.

尚、■口b 、802の最大値及び最小値も算出される
Incidentally, the maximum value and minimum value of (2) mouth b, 802 are also calculated.

しかして、データ保存の処理P6では、客演(〉結果と
共に、最大値、最小値も保存される。
Therefore, in the data storage process P6, the maximum value and minimum value are also stored together with the result.

又、CRT出力の処理P8では、演算結果、最大値(M
AX)、最小値(MIN)により、正規化処理を行う。
In addition, in CRT output processing P8, the calculation result, the maximum value (M
AX) and the minimum value (MIN) to perform normalization processing.

つまり D A out = (D A in −HIM)/ 
(HAX −MIN)を行う。又、ヒストグラムの平坦
化を行い、ざらにγ補正つまり、 D A out = (D A in) 0.45を行
う。
In other words, DA out = (DA in - HIM)/
(HAX-MIN). Furthermore, the histogram is flattened and a rough γ correction is performed, that is, D A out = (D A in) 0.45.

その後、白黒画像形成の処理、例えば DAout =N INT [255xDAinlを行
う。ここでNINT[]は、四捨五入による整数化を意
味する。
Thereafter, black and white image formation processing, for example DAout =N INT [255xDAinl, is performed. Here, NINT[] means converting into an integer by rounding off.

又、擬似カラーデータの作成を行う。上記白黒データに
基づき、例えば32色のカラーに変換する。
Also, pseudo color data is created. Based on the above black and white data, it is converted into, for example, 32 colors.

32色の色は、C0LORR(1)、C0LORG(1
)、C0LORB(1)(7)3つの配列に予め用意さ
れている(ここで1=1〜32)。又、この■は、 I= INT [DAin/8] +1により定める。
The 32 colors are C0LORR (1), C0LORG (1
), C0LORB(1), and (7) are prepared in advance in three arrays (here, 1=1 to 32). Moreover, this ■ is determined by I=INT [DAin/8] +1.

ただしINT[]は小数点以下を切捨てることを意味す
る。
However, INT[] means to truncate the decimal point.

このCRT出力の処理P8におけるその他の処理として
、白黒画像の場合には、グレースケール(0〜255)
を、擬似カラーの場合にはカラースケール(32色)を
出力する。この様子を第13図に示す。つまり、画像の
右側等に、例えば20X256do℃のサイズでスケー
ルを表示する。
As other processing in this CRT output processing P8, in the case of a black and white image, gray scale (0 to 255)
In the case of pseudo color, a color scale (32 colors) is output. This situation is shown in FIG. That is, the scale is displayed on the right side of the image, for example, with a size of 20×256 degrees Celsius.

グレーはO〜255が連続的に、カラーは20X8サイ
ズのブロックで表わす。
Gray is represented by 0 to 255 continuously, and color is represented by 20×8 blocks.

又、未処理画像におけるデータ保存&CRT出力の処理
P7は、P6とP8の組合わせとなる。
Further, data storage and CRT output processing P7 for unprocessed images is a combination of P6 and P8.

次に、領域指定&数値出力の処理P11について説明す
る。
Next, the area designation & numerical value output processing P11 will be explained.

CRT9に表示された画像に対して領域指定手段として
のマウス71による指定法として、この実施例では第1
4図に示すように1点指定又は矩形指定を選択すること
ができる。
In this embodiment, the first method of specifying an image displayed on the CRT 9 using the mouse 71 as an area specifying means is used.
As shown in Figure 4, one point designation or rectangular designation can be selected.

上記マウス71で指定した点、又は領域は画面上に表示
される。つまり指定座標としてXl、Vlに表示され、
矩形領域の場合にはxl、ylにその領域の左上の点が
表示され、5IZE  X。
The point or area specified with the mouse 71 is displayed on the screen. In other words, it is displayed on Xl and Vl as specified coordinates,
In the case of a rectangular area, the upper left point of the area is displayed in xl and yl, and 5IZE X.

5IZE  YにX方間とY方向のサイズが表示される
5IZE Y displays the size in the X direction and Y direction.

尚、第14図の4角内の表示は、マウス71による指定
ルーチンが終了後表示される。但し、処理画像は処理条
件設定が出力条件になる。
It should be noted that the display in the square corner of FIG. 14 is displayed after the specified routine using the mouse 71 is completed. However, for processed images, the processing condition settings become the output conditions.

上記マウス71による関心領域の指定が行われると、演
算処理により予め求められたその領域に対応するI日す
又は302のデータが読み出され、1点指定の場合には
読み出されたデータが、矩形指定の場合にはその領域内
の総加平均値が計算されて、その値が表示される。
When a region of interest is specified using the mouse 71, the data of the I date or 302 corresponding to the region, which has been determined in advance by arithmetic processing, is read out, and in the case of one point specified, the read data is , if a rectangle is specified, the total average value within that area is calculated and displayed.

上記領域指定&数値出力の処理P11のフD −を第1
5図を参照して以下に説明する。
The above area specification & numerical output process P11 is the first step.
This will be explained below with reference to FIG.

領域指定&数値出力の処理P11がスタートすると、第
14図のようなメニューが現われるので、1点指定か矩
形指定かの領域指定法設定を行う。
When the area designation & numerical output process P11 starts, a menu as shown in FIG. 14 appears, and the area designation method is set as one point designation or rectangular designation.

1点指定の場合には、マウス71を操作してそのカーソ
ルを所望とする部位に移動し、セットボタンを押してそ
のカーソル点の座標(xl、ylを指定すると、コンピ
ュータ10はその座標点に対応する1口す又はSO2の
数値データを読込みを行う。しかして、その読込んだデ
ータを表示する。
In the case of specifying one point, operate the mouse 71 to move the cursor to the desired location, press the set button to specify the coordinates (xl, yl) of the cursor point, and the computer 10 will correspond to the coordinate point. The numerical data for each sip or SO2 is read in. Then, the read data is displayed.

一方、矩形指定を行った場合には、マウス71によって
、第16図に示すように2点の座標(×1、ン1)、(
×2. ×2)を指定する。
On the other hand, when a rectangle is specified, the coordinates of two points (x1, n1), (
×2. ×2).

この場合、最初の1点の指定で左上の座標(×1、yl
)が決定され、次の点の指定でその幻角線方向の座標(
×2.×2)が決定される。
In this case, by specifying the first point, the upper left coordinates (×1, yl
) is determined, and by specifying the next point, its coordinates in the direction of the phantom line (
×2. ×2) is determined.

上記2点の座標(xl、yl)、(×2.×2:が決定
されると、この矩形領域内の数値データの読込み処理が
行われる。
Once the coordinates (xl, yl) and (x2.x2:) of the two points are determined, the numerical data within this rectangular area is read.

つまり、数値データ(累積用)変数Totalと計測点
カウンタCountにOがセットされた後、座標変数y
にy1+1が、Xに×1+1が代入され、数値データ変
数Totalにはその座標変数x、yのIHb又は80
2データが加算されると共に、jjウンタCountが
1アツプされる。しかして、この座標変数Xが座標×2
より小さい場合には、Xの値を1つづアップして各座標
での数値データ(1−1b  (x、y)又はS02 
 (X、 y)を変数Totalに加算する。このよう
にして、yの値に対して×1から×2までのX座標全て
の数値データが累積加算され、次にyの値を1つづつア
ップして、結局矩形領域全ての座標に対しての数値デー
タの総和量が求められる。従って、この総和量をfi域
の大きさを表わすカウンタ(:、 ountの値で除算
した値がIHb又はSO2のデータ□ataニ代入され
、CRTllにその結果が表示される。
In other words, after the numerical data (accumulation) variable Total and the measurement point counter Count are set to O, the coordinate variable y
y1+1 is assigned to , x1+1 is assigned to
2 data are added, and the jj counter Count is incremented by 1. Therefore, this coordinate variable X is coordinate x 2
If it is smaller, increase the value of
Add (X, y) to the variable Total. In this way, the numerical data of all the X coordinates from x1 to x2 are cumulatively added to the y value, and then the y value is increased one by one, and eventually the coordinates of all the rectangular areas are The total amount of numerical data is calculated. Therefore, the value obtained by dividing this total amount by the value of the counter (:, ount) representing the size of the fi area is assigned to the IHb or SO2 data □ata, and the result is displayed on the CRTll.

他の点についても1口す又はSO2を求める場合には継
続するかに対してYESを選択すれば領域指定法設定の
処理に戻る。又、NOを選択すると、終了することにな
る。
For other points as well, if you select ``YES'' as to whether to continue if you want to obtain one bite or SO2, the process returns to the area specification method setting process. Also, if you select NO, the process will end.

この1実施例によれば、関心領域を指定することにより
、所望とする部位に対するI)−1b又はS02を数値
として得られる。
According to this embodiment, by specifying the region of interest, I)-1b or S02 for a desired region can be obtained as a numerical value.

又、画像ファイル手段を備えているので、例えば同一患
者に対して、注目する部位の症状の経時的変化を知るこ
ともできる。
Furthermore, since it is equipped with an image file means, it is also possible to know, for example, changes over time in symptoms at a site of interest for the same patient.

つまり、同一患者に対して、異なる日付又は時間での同
一部位に対して、IHb又は802の具体的数値を比較
することにより、どの程度の速度で治療が進んCいるか
、又は症状が進行しているか等を容易に知ることができ
る。
In other words, by comparing the specific values of IHb or 802 for the same patient at the same site on different dates or times, you can determine how quickly the treatment is progressing or whether the symptoms are progressing. You can easily find out if there are any.

又、このように経時的変化を簡単に求められるので、薬
その他での治療処置したその治療処置がその症状に対し
て有効であるか否かの判断も短時間で知ることができる
In addition, since changes over time can be easily determined in this way, it can be determined in a short time whether or not the treatment with drugs or other means is effective against the symptom.

従って、診断その他に有力な資料を提供できることにな
る。
Therefore, it is possible to provide useful data for diagnosis and other purposes.

尚、上述の実施例では、回転フィルタ25に通常R,G
、Bの色透過フィルタ26R,26G。
In the above embodiment, the rotary filter 25 usually has R, G
, B color transmission filters 26R, 26G.

26Bと、狭帯域のフィルタ51a、・・・、52Gを
取付けたが、別々に設けるようにしても良い。
26B and the narrow band filters 51a, . . . , 52G are installed, but they may be provided separately.

又、本発明は電子内視鏡2を用いたものに限らず、ファ
イバスコープ等の光学式内視鏡の接眼部にテレビカメラ
を装着したものでも同様に適用できる。
Further, the present invention is not limited to the one using the electronic endoscope 2, but can be similarly applied to an optical endoscope such as a fiberscope with a television camera attached to the eyepiece.

尚、上述の実施例では、リアルタイム処理ユニット6は
、IHb又はSO2分布画像をリアルタイム処理してそ
の処理画像を表示できるようにしているが、さらに累算
手段及び任意に開閉υ制御可能なゲート手段とを設けて
、fin指定手段で指定された画像部分に対してゲート
を開き、累韓手段で累算すると共に、そのゲートが開い
た時間で除算ツる等して指定領域に対する1口す又は3
02をリアルタイム又はこれに近い処理時間で算出でき
るようにすることもできる。又、リアルタイム処理ユニ
ット6でも画像ファイル手段から読出した画像に対して
IHb分布画像802分布画像とか、指定された領域に
ついてのIHb、SO2を表示するようにづることもで
きる。
In the above-described embodiment, the real-time processing unit 6 processes the IHb or SO2 distribution image in real time and is capable of displaying the processed image, but it also includes an accumulation means and a gate means that can be opened and closed υ controlled arbitrarily. , open the gate for the image part specified by the fin specifying means, accumulate the sum using the cumulative means, and divide by the time when the gate was opened to calculate the total amount of data for the specified area. 3
It is also possible to calculate 02 in real time or in a processing time close to this. Further, the real-time processing unit 6 can also be configured to display the IHb distribution image 802 distribution image or the IHb and SO2 for a designated area on the image read from the image file means.

尚、領域指定手段としてライトベンとかキーボードのカ
ーソル移動子−等を用いても良い。
Note that a light bar, a cursor mover on a keyboard, or the like may be used as the area specifying means.

[発明の効果コ 以上述べたように本発明によれば、血流債とか酸素飽和
度の分布画像が得られると共に、任意の関心領域に対し
ての血流請、酸素飽和度の数値データを算出できる。又
、画像ファイル手段を備えているので、経蒔的な変化も
計測可能となり、病変部等に対する診断能を向上できる
[Effects of the Invention] As described above, according to the present invention, distribution images of blood flow and oxygen saturation can be obtained, and numerical data of blood flow and oxygen saturation can be obtained for any region of interest. It can be calculated. Furthermore, since it is equipped with an image file means, it is possible to measure changes over time, and the ability to diagnose lesions etc. can be improved.

【図面の簡単な説明】[Brief explanation of drawings]

第1図ないし第16図は本発明の1実施例に係り、第1
図は1実施例の全体4R戒を示すブロック図、第2図は
1実施例の全体構成を示す斜視図、第3図はビデオプロ
セッサ等の構成を示すブロック図、第4図は回転フィル
タの構成を示す正面図、第5図は回転フィルタの透過特
性を示す特性図、第6図はヘモグロビンの酸素飽和度の
変化による血液の吸光度の変化を示づ特性図、第7図は
リアルタイム処理ユニットの構成を示すブロック図、第
8図(よ血流解析システムの全体的処理を示すフロー図
、第9図は処理条件設定の選択メニューを示す説明図、
第10図は画像部分のみが切り出される様子を示す説明
図、第11図はヘモグロビン量を求める演鋒処理のフロ
ー図、第12図は酸素飽和度を求める@線処理のフロー
図、第13図はCRTに出力される画像の近くにスケー
ルが表示されることを示す説明図、第14図は領域指定
のメニューを示す説明図、第15図は領域指定により、
指定されI;領域についてのヘモグロビン量または酸素
飽和度を算出でる処理のフロー図、第16図は領域指定
される様子を示す説明図、第17図は従来例における人
血中のl\モグロビンの啜収スペクトルを示す図である
。 1・・・内視鏡装@    2・・・電子内視鏡3・・
・光源装置     4・・・信号処理回路5・・・ビ
デオプロセッサ 6・・・リアルタイム処理ユニット 7.9.11・・・モニタ(CRT) 8・・・画像ファイル装置 10・・・コンビコータ1
2・・・血流解析システム
1 to 16 relate to one embodiment of the present invention;
Figure 2 is a block diagram showing the overall 4R command of the first embodiment, Figure 2 is a perspective view showing the overall configuration of the first embodiment, Figure 3 is a block diagram showing the configuration of the video processor, etc., and Figure 4 is the rotary filter. A front view showing the configuration, Fig. 5 is a characteristic diagram showing the transmission characteristics of the rotating filter, Fig. 6 is a characteristic diagram showing changes in blood absorbance due to changes in oxygen saturation of hemoglobin, and Fig. 7 is a real-time processing unit. FIG. 8 is a flow diagram showing the overall processing of the blood flow analysis system; FIG. 9 is an explanatory diagram showing the selection menu for setting processing conditions;
Fig. 10 is an explanatory diagram showing how only the image portion is cut out, Fig. 11 is a flow diagram of the focusing process for determining the amount of hemoglobin, Fig. 12 is a flow diagram of the @ line processing for determining the oxygen saturation level, and Fig. 13 is an explanatory diagram showing that the scale is displayed near the image output to the CRT, Fig. 14 is an explanatory diagram showing the area specification menu, and Fig. 15 is an explanatory diagram showing the area specification menu.
Specified I: A flowchart of the process for calculating the amount of hemoglobin or oxygen saturation for a region, FIG. 16 is an explanatory diagram showing how the region is designated, and FIG. It is a figure showing a absorption spectrum. 1... Endoscope @ 2... Electronic endoscope 3...
・Light source device 4... Signal processing circuit 5... Video processor 6... Real time processing unit 7.9.11... Monitor (CRT) 8... Image file device 10... Combi coater 1
2...Blood flow analysis system

Claims (1)

【特許請求の範囲】[Claims] 撮像手段を備えた内視鏡と、複数の狭帯域波長領域の画
像を得る信号処理手段と、該信号処理手段により得られ
た画像を記録すると共に、検索するデータを記録する画
像ファイル手段と、関心領域を指定する領域指定手段と
、指定された該関心領域に対する血流量又は酸素飽和度
を算出する演算処理手段とを有することを特徴とする内
視鏡装置。
an endoscope equipped with an imaging means, a signal processing means for obtaining images in a plurality of narrow band wavelength regions, an image file means for recording the images obtained by the signal processing means and data to be searched; An endoscope apparatus comprising: region specifying means for specifying a region of interest; and arithmetic processing means for calculating blood flow or oxygen saturation for the specified region of interest.
JP1238896A 1989-05-09 1989-09-14 Endoscope device Expired - Fee Related JP2810718B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP1-116973 1989-05-09
JP11697389 1989-05-09

Publications (2)

Publication Number Publication Date
JPH0380834A true JPH0380834A (en) 1991-04-05
JP2810718B2 JP2810718B2 (en) 1998-10-15

Family

ID=14700342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1238896A Expired - Fee Related JP2810718B2 (en) 1989-05-09 1989-09-14 Endoscope device

Country Status (1)

Country Link
JP (1) JP2810718B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1189789A (en) * 1997-09-24 1999-04-06 Olympus Optical Co Ltd Fluorescent image device
JP2006020788A (en) * 2004-07-07 2006-01-26 Pentax Corp Autofluorescently observable electronic endoscope apparatus and system
JP2011194182A (en) * 2010-03-24 2011-10-06 Fujifilm Corp Electronic endoscope system
JP2012100800A (en) * 2010-11-09 2012-05-31 Fujifilm Corp Endoscopic diagnostic apparatus
JP2012239816A (en) * 2011-05-24 2012-12-10 Fujifilm Corp Endoscope system and method for assisting in diagnostic endoscopy
CN102860809A (en) * 2011-07-04 2013-01-09 富士胶片株式会社 Endoscope system, light source device, and control method of endoscope system
WO2013035531A1 (en) * 2011-09-05 2013-03-14 富士フイルム株式会社 Endoscope system and image display method
WO2013035694A1 (en) * 2011-09-05 2013-03-14 富士フイルム株式会社 Endoscope system, processor device and image display method
JP2014113212A (en) * 2012-12-06 2014-06-26 Hoya Corp Endoscope
WO2015037344A1 (en) * 2013-09-11 2015-03-19 富士フイルム株式会社 Endoscopic system, processor device, light source device, and operation method
JP2017094145A (en) * 2011-02-09 2017-06-01 テル ハショマー メディカル リサーチ インフラストラクチャー アンド サーヴィシーズ リミテッド Devices for imaging blood-containing tissue
JP2017108983A (en) * 2015-12-17 2017-06-22 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
JP2017108982A (en) * 2015-12-17 2017-06-22 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
JP2018198703A (en) * 2017-05-26 2018-12-20 池上通信機株式会社 Captured image processing system
JP2021530341A (en) * 2018-07-16 2021-11-11 ビービーアイ、メディカル、イノベーションズ、リミテッド、ライアビリティー、カンパニーBbi Medical Innovations, Llc Measurement of perfusion and oxygenation
US11885954B2 (en) 2018-08-31 2024-01-30 Hoya Corporation Endoscope system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6092792B2 (en) 2014-01-20 2017-03-08 富士フイルム株式会社 Endoscope system processor device, endoscope system, operating method of endoscope system processor device, operating method of endoscope system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5969047A (en) * 1982-10-15 1984-04-19 オリンパス光学工業株式会社 Through-endoscope information filing system
JPS6259473A (en) * 1985-09-09 1987-03-16 Toshiba Corp Solid-state image pickup device
JPS6384514A (en) * 1986-09-30 1988-04-15 株式会社東芝 Electronic endoscope
JPS63311937A (en) * 1987-06-16 1988-12-20 Toshiba Corp Endoscopic apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5969047A (en) * 1982-10-15 1984-04-19 オリンパス光学工業株式会社 Through-endoscope information filing system
JPS6259473A (en) * 1985-09-09 1987-03-16 Toshiba Corp Solid-state image pickup device
JPS6384514A (en) * 1986-09-30 1988-04-15 株式会社東芝 Electronic endoscope
JPS63311937A (en) * 1987-06-16 1988-12-20 Toshiba Corp Endoscopic apparatus

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1189789A (en) * 1997-09-24 1999-04-06 Olympus Optical Co Ltd Fluorescent image device
JP2006020788A (en) * 2004-07-07 2006-01-26 Pentax Corp Autofluorescently observable electronic endoscope apparatus and system
US8944996B2 (en) 2010-03-24 2015-02-03 Fujifilm Corporation Electronic endoscope system with oxygen saturation enhancing image region
JP2011194182A (en) * 2010-03-24 2011-10-06 Fujifilm Corp Electronic endoscope system
JP2012100800A (en) * 2010-11-09 2012-05-31 Fujifilm Corp Endoscopic diagnostic apparatus
JP2019219417A (en) * 2011-02-09 2019-12-26 テル ハショマー メディカル リサーチ インフラストラクチャー アンド サーヴィシーズ リミテッド Image forming apparatus for tissue containing blood
JP2017094145A (en) * 2011-02-09 2017-06-01 テル ハショマー メディカル リサーチ インフラストラクチャー アンド サーヴィシーズ リミテッド Devices for imaging blood-containing tissue
US11911138B2 (en) 2011-02-09 2024-02-27 Tel Hashomer Medical Research Infrastructure And Services Ltd. Methods for in vivo fundus monochromotic angiography imaging blood-containing tissue by utilizing two wavelength from 400nm to 620 nm and 620 nm to 800 nm
JP2012239816A (en) * 2011-05-24 2012-12-10 Fujifilm Corp Endoscope system and method for assisting in diagnostic endoscopy
JP2013013560A (en) * 2011-07-04 2013-01-24 Fujifilm Corp Endoscope system, light source device and method for controlling endoscope system
CN102860809A (en) * 2011-07-04 2013-01-09 富士胶片株式会社 Endoscope system, light source device, and control method of endoscope system
CN103732116A (en) * 2011-09-05 2014-04-16 富士胶片株式会社 Endoscope system, processor device and image display method
WO2013035694A1 (en) * 2011-09-05 2013-03-14 富士フイルム株式会社 Endoscope system, processor device and image display method
WO2013035531A1 (en) * 2011-09-05 2013-03-14 富士フイルム株式会社 Endoscope system and image display method
JPWO2013035531A1 (en) * 2011-09-05 2015-03-23 富士フイルム株式会社 Endoscope system and operating method thereof
JPWO2013035694A1 (en) * 2011-09-05 2015-03-23 富士フイルム株式会社 ENDOSCOPE SYSTEM, PROCESSOR DEVICE, AND METHOD FOR OPERATING ENDOSCOPE SYSTEM
US9918613B2 (en) 2011-09-05 2018-03-20 Fujifilm Corporation Endoscope system and operating method thereof
JP2014113212A (en) * 2012-12-06 2014-06-26 Hoya Corp Endoscope
WO2015037344A1 (en) * 2013-09-11 2015-03-19 富士フイルム株式会社 Endoscopic system, processor device, light source device, and operation method
JP2015054062A (en) * 2013-09-11 2015-03-23 富士フイルム株式会社 Endoscope system, processor device, light source device and operation method
JP2017108982A (en) * 2015-12-17 2017-06-22 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
JP2017108983A (en) * 2015-12-17 2017-06-22 富士フイルム株式会社 Endoscope system, processor device, and operation method of endoscope system
US10842423B2 (en) 2015-12-17 2020-11-24 Fujifilm Corporation Endoscope system, processor device, and operation method of endoscope system
US10869590B2 (en) 2015-12-17 2020-12-22 Fujifilm Corporation Endoscope system, processor device, and operation method of endoscope system
JP2018198703A (en) * 2017-05-26 2018-12-20 池上通信機株式会社 Captured image processing system
JP2021530341A (en) * 2018-07-16 2021-11-11 ビービーアイ、メディカル、イノベーションズ、リミテッド、ライアビリティー、カンパニーBbi Medical Innovations, Llc Measurement of perfusion and oxygenation
US11885954B2 (en) 2018-08-31 2024-01-30 Hoya Corporation Endoscope system

Also Published As

Publication number Publication date
JP2810718B2 (en) 1998-10-15

Similar Documents

Publication Publication Date Title
JPH0380834A (en) Endoscope device
US5078150A (en) Spectral diagnosing apparatus with endoscope
EP1527729B1 (en) Image processing apparatus
US7123756B2 (en) Method and apparatus for standardized fluorescence image generation
US9084533B2 (en) Multispectral/hyperspectral medical instrument
AU2006209346B2 (en) Electronic endoscope
JP6027803B2 (en) Image processing apparatus and endoscope apparatus
JP3164609B2 (en) Endoscope device
WO2014013778A1 (en) Image processing device and endoscopic instrument
JPWO2018043550A1 (en) Processor for electronic endoscope and electronic endoscope system
JP3050569B2 (en) Endoscope image processing device
JPH0785135B2 (en) Endoscope device
KR20030033177A (en) Fluorescence endoscope apparatus and a method for imaging tissue within a body using the same
CN103826524A (en) Diagnostic system
JPWO2013164962A1 (en) Endoscope device
WO2003075752A1 (en) Endoscope image processing apparatus
WO2012046530A1 (en) Diagnostic system
JP6270967B2 (en) Image processing apparatus and endoscope apparatus
CN109310305B (en) Endoscope system and feature amount calculation method
JP6783168B2 (en) Endoscopic system and analyzer
JP2021035549A (en) Endoscope system
CN115245312A (en) Endoscope multispectral image processing system and processing and training method
JPH0777580B2 (en) Transendoscopic spectroscopic diagnostic device
JP7289241B2 (en) Filing device, filing method and program
JP2572784B2 (en) Transendoscopic spectroscopic diagnostic equipment

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080731

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090731

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees