Nothing Special   »   [go: up one dir, main page]

WO2020040059A1 - 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法 - Google Patents

医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法 Download PDF

Info

Publication number
WO2020040059A1
WO2020040059A1 PCT/JP2019/032168 JP2019032168W WO2020040059A1 WO 2020040059 A1 WO2020040059 A1 WO 2020040059A1 JP 2019032168 W JP2019032168 W JP 2019032168W WO 2020040059 A1 WO2020040059 A1 WO 2020040059A1
Authority
WO
WIPO (PCT)
Prior art keywords
medical image
image
recognition
unit
display
Prior art date
Application number
PCT/JP2019/032168
Other languages
English (en)
French (fr)
Inventor
正明 大酒
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2020538360A priority Critical patent/JP7146925B2/ja
Priority to EP19851806.0A priority patent/EP3841955A4/en
Priority to CN201980055084.XA priority patent/CN112584746B/zh
Publication of WO2020040059A1 publication Critical patent/WO2020040059A1/ja
Priority to US17/177,216 priority patent/US20210169306A1/en
Priority to JP2022118184A priority patent/JP7335399B2/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00055Operational features of endoscopes provided with output arrangements for alerting the user
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the endoscope includes an input unit that inputs an instruction for switching control of a display method to the display control unit.
  • An operation method of the medical image processing apparatus includes a step in which the medical image acquiring unit captures an observation target and acquires a medical image, and a step in which the recognition processing unit performs processing on the medical image acquired by the medical image acquiring unit.
  • the display control unit performing the first display method of displaying the medical image acquired by the medical image acquisition unit on the display unit, and performing the recognition process on the medical image acquired by the medical image acquisition unit Switching the plurality of recognition results to a second display method of displaying the plurality of recognition results on the display unit.
  • the present invention it is possible to prevent the display of the recognition result obtained in the recognition processing from obstructing the observation of the medical image.
  • FIG. 4 is a block diagram illustrating functions of a region of interest mode image processing unit including a recognition processing unit. It is explanatory drawing which shows an example of the display screen in the 1st display method (A) and the 2nd display method (B) when a display control part performs switching control.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18 (display unit), and a console 19.
  • the endoscope 12 is optically connected to the light source device 14 and is electrically connected to the processor device 16.
  • the endoscope 12 has an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a base end portion of the insertion portion 12a, and a bending portion 12c and a tip portion 12d provided at a distal end side of the insertion portion 12a. are doing.
  • the angle knob 13a of the operation section 12b By operating the angle knob 13a of the operation section 12b, the bending section 12c performs a bending operation. By this bending operation, the tip 12d is directed in a desired direction.
  • the operation unit 12b includes, in addition to the angle knob 13a, a still image acquisition unit 13b used for a still image acquisition operation, a mode switching unit 13c used for an observation mode switching operation, and a zoom operation unit 13d used for a zoom magnification change operation.
  • the display switching operation unit 13e is provided as a dedicated input unit used for instructing the switching of the display method in the region of interest mode.
  • the still image acquisition unit 13b can perform a freeze operation of displaying a still image to be observed on the monitor 18 and a release operation of saving a still image in a storage.
  • the endoscope system 10 has a normal mode, a special mode, and a region of interest mode as observation modes.
  • the observation mode is the normal mode
  • the light of a plurality of colors is combined with the light amount ratio Lc for the normal mode to emit normal light.
  • the observation mode is the special mode
  • special light is generated by combining light of a plurality of colors at the light amount ratio Ls for the special mode.
  • illumination light for the region of interest mode is emitted.
  • the normal light is emitted as the region-of-interest mode illumination light, but the special light may be emitted.
  • the light source device 14 includes a light source unit 20 that emits illumination light used for illumination of an observation target, and a light source control unit 22 that controls the light source unit 20.
  • the light source unit 20 is a semiconductor light source such as an LED (Light Emitting Diode) of a plurality of colors.
  • the light source control unit 22 controls the amount of emitted illumination light by turning on / off an LED or the like and adjusting a drive current or a drive voltage of the LED or the like.
  • the light source control unit 22 controls the wavelength band of the illumination light by changing an optical filter or the like.
  • the G-LED 20c emits green light G whose wavelength band extends from 480 nm to 600 nm.
  • the R-LED 20d emits red light R having a wavelength band ranging from 600 nm to 650 nm.
  • the light emitted from each of the LEDs 20a to 20d may have the same center wavelength and the same peak wavelength, or may have different center wavelengths and peak wavelengths.
  • the polychromatic light for the normal mode or the region of interest mode including the violet light V, the blue light Bx, the green light G, and the red light R is emitted from the light source device 14 as the normal light.
  • the normal light has a certain intensity or more from the blue band to the red band, and is almost white.
  • the light source control unit 22 turns on all of the V-LED 20a, the B-LED 20b, the G-LED 20c, and the R-LED 20d.
  • the light intensity ratio Ls among the violet light V, the blue light B, the green light G, and the red light R is such that the peak of the light intensity of the violet light V is blue light Bx, green light G , And the red light R are set to be larger than the peak of the light intensity. Further, the peaks of the light intensity of the green light G and the red light R are set to be smaller than the peaks of the light intensity of the violet light V and the blue light Bx.
  • a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of 0.3 mm to 0.5 mm including a protective layer serving as an outer cover can be used for the light guide 24.
  • the image sensor 38 In the normal mode or the region of interest mode, the image sensor 38 outputs a Bc image signal from a B pixel, outputs a Gc image signal from a G pixel, and outputs an R pixel by imaging an observation target illuminated with normal light. Output an Rc image signal.
  • the image sensor 38 In the special mode, the image sensor 38 outputs a Bs image signal from the B pixel, outputs a Gs image signal from the G pixel, and outputs Rs from the R pixel by imaging the observation target illuminated with the special light. Outputs an image signal.
  • the CDS circuit 40 performs correlated double sampling (CDS) on the analog image signal received from the image sensor 38.
  • the image signal that has passed through the CDS circuit 40 is input to the AGC circuit 42.
  • the AGC circuit 40 performs automatic gain control (AGC: Automatic Gain Control) on the input image signal.
  • An A / D (Analog to Digital) conversion circuit 44 converts the analog image signal passed through the AGC circuit 42 into a digital image signal.
  • the A / D conversion circuit 44 inputs the digital image signal after the A / D conversion to the processor device 16.
  • the image signal acquisition unit 50 acquires a digital image signal corresponding to the observation mode from the endoscope 12.
  • a Bc image signal, a Gc image signal, and an Rc image signal are acquired.
  • a Bs image signal, a Gs image signal, and an Rs image signal are obtained.
  • the Bc image signal, the Gc image signal, and the Rc image signal for one frame are acquired at the time of normal light illumination, and the Bs image signal, Gs image signal, and Rs for one frame at the time of special light illumination. Obtain an image signal.
  • the special mode image processing section 62 operates when the special mode is set.
  • the special mode image processing unit 62 performs color conversion processing, color enhancement processing, and structure enhancement processing on the received Bs image signal, Gs image signal, and Rs image signal.
  • the processing contents of the color conversion processing, the color enhancement processing, and the structure enhancement processing are the same as those of the normal mode image processing unit 60.
  • a special image can be obtained by performing various image processing as described above.
  • the special image is an image obtained based on the special light in which the violet light V having a high absorption coefficient of hemoglobin of a blood vessel has a larger light emission amount than the blue light Bx, green light G, and red light R of other colors. Therefore, the resolution of the blood vessel structure and the duct structure is higher than other structures.
  • the special image is input to the display control unit 58.
  • the region-of-interest mode image processing unit 64 includes a normal image processing unit 70, a recognition image processing unit 71, a recognition processing unit 72, and a recognition result storage unit 73.
  • the normal image processing unit 70 sequentially obtains an endoscope image through image processing similar to that of the normal mode image processing unit 60.
  • the recognition image processing unit 71 acquires a still image of the observation target obtained when the still image acquisition unit 13b is operated as a recognition image used for recognition of the region of interest.
  • the recognition image is stored in the recognition result storage unit 73.
  • an image-like feature amount is calculated from the divided recognition images. Subsequently, it is determined whether or not each small area is a lesion based on the calculated feature amount.
  • a determination method is preferably a machine learning algorithm such as a convolutional neural network (Convolutional Neural Network) or a deep learning (Deep Learning).
  • the feature amount calculated from the recognition image by the recognition processing unit 72 is an index value obtained from the shape, color, or the shape or color of a predetermined part in the observation target.
  • the characteristic amount the blood vessel density, the blood vessel shape, the number of blood vessel branches, the blood vessel thickness, the blood vessel length, the blood vessel meandering degree, the blood vessel depth, the gland duct shape, the gland duct opening shape, the gland duct
  • the value is at least one of the length, the degree of meandering of the gland duct, and the color information, or a value obtained by combining two or more of them.
  • the recognition processing unit 72 causes the recognition result storage unit 73 to store information on the presence or absence of a lesion in association with the recognition image.
  • the region-of-interest mode image processing unit 64 outputs one of an endoscope image and a recognition image in which information on the presence or absence of a lesion is associated with the display control unit 58 under the control of the display control unit 58.
  • the display control unit 58 switches between the first display method and the second display method.
  • An instruction to switch the display method to the display control unit 58 is input by operating the display switching operation unit 13e.
  • an endoscope image 75 (an image similar to a normal image) sequentially captured by the image sensor 38 and image-processed by the region-of-interest mode image processing unit 64 is sequentially displayed. This is a display method of acquiring and displaying in real time on the display screen 76 of the monitor 18.
  • the second display method is a display method in which a plurality of recognition results obtained by performing recognition processing on the recognition image by the recognition processing unit 72 are displayed on the display screen 76 of the monitor 18.
  • the thumbnail images 78 of the plurality of recognition images, the presence or absence of a lesion 79 as a recognition result corresponding to each recognition image, and the like are displayed. Is displayed on the display screen 76 of the monitor 18.
  • the display control unit 58 displays the thumbnail image 78 and the presence / absence 79 of the lesion based on the recognition image output from the region-of-interest mode image processing unit 64 and the information on the presence / absence of the lesion associated with the recognition image. I do.
  • the presence or absence of a lesion 79 is displayed near the thumbnail image 78 of the corresponding recognition image.
  • the thumbnail image 78 and the presence / absence 79 of the lesion as the recognition result are displayed six by six as the recognition result list 77, but the present invention is not limited to this.
  • the number and arrangement to be displayed are appropriately changed depending on the size of the image, the aspect ratio, and the like. Also in the following embodiments, the number and arrangement of images and recognition results are not limited.
  • the doctor as the user operates the mode switching unit 13c to switch to the region of interest mode (S11).
  • the observation region is illuminated with the region-of-interest mode illumination light.
  • the observation target illuminated with the region-of-interest mode illumination light is imaged by the image sensor 38 to obtain an endoscope image.
  • the first display method is set as an initial state in the display control unit 58. Therefore, when the mode is switched to the region of interest mode, the endoscope image 75 is displayed on the display screen 76 of the monitor 18 in real time (S12). In this case, since only the endoscope image 75 is displayed on the display screen 76 and the recognition result is not displayed, the observation of the doctor on the endoscope image 75 is not hindered.
  • the display control unit 58 switches from the first display method to the second display method (S16).
  • the recognition result list 77 is displayed on the display screen 76 of the monitor 18 (S17).
  • a list of the presence or absence of a lesion 79 as a recognition result is displayed together with the thumbnail image 78 of the recognition image, so that the doctor can easily confirm the recognition result of the region of interest.
  • the doctor inputs an instruction to switch the display method by the display switching operation unit 13e.
  • the display control unit 58 switches from the second display method to the first display method, and displays the endoscope image 75 on the display screen 76 of the monitor 18 in real time. Since the endoscope 12 is provided with the display switching operation unit 13e for inputting the instruction to switch the display method, the doctor can easily switch the first and second display methods.
  • the presence or absence of a lesion is displayed as a recognition result in the recognition result list in the second display method.
  • the present invention is not limited to this, and the position of the lesion may be displayed as a recognition result.
  • FIG. 9B in the recognition result list 80, thumbnail images 81 of a plurality of recognition images and a position 82 of a lesion as a recognition result corresponding to each recognition image are displayed. It is displayed on the display screen 76 of the monitor 18.
  • the endoscope images 75 are sequentially acquired and displayed on the monitor 18 in real time.
  • the display method 2 is the same as the switching of the display method in the region of interest mode of the first embodiment except that the position of the lesion is displayed.
  • the display control unit 58 determines the thumbnail image 78 of the recognition image and the position 82 of the lesion as a recognition result based on the recognition image and the coordinate information associated with the recognition image. Are displayed on the display screen 76 of the monitor 18.
  • the position 82 of the lesion is shown by displaying each small region recognized as a lesion in a square cell shape, but the present invention is not limited to this.
  • the display may be any display as long as the position 82 of the lesion part can be understood, such as changing the character information, and may be character information in which the coordinate information is represented by characters.
  • the recognition process is performed by always performing the recognition process on the latest endoscope image sequentially obtained. Further, it is preferable that the recognition image and the recognition result displayed in the recognition result list of the second display method include an image based on the latest endoscope image acquired by the imaging sensor 38. Further, in this case, in the recognition result list of the second display method, the recognition image based on the latest endoscope image and the recognition result are arranged first (the number “ ⁇ ” in FIG. 7B or FIG. 9B). After that, the recognition image and the recognition result obtained by performing the recognition process in the past are arranged in order from the newest one to the oldest one (FIG. 1). 7 (B) or the recognition images and recognition results numbered “2”, “3”, “4”,... In FIG. 9B).
  • the image sensor 38 does not perform recognition processing on all of the endoscope images sequentially acquired, but performs thinning processing, that is, among all the endoscope images, a recognition image at predetermined time intervals or at predetermined frame intervals.
  • a recognition result may be obtained by performing a recognition process on the recognition image obtained and decimated.
  • the endoscope image may be displayed in real time together with the recognition result list.
  • the endoscope images 75 are sequentially acquired and displayed on the monitor 18 in real time, as in the first embodiment, as shown in FIG.
  • an endoscope image 86 is displayed in real time together with the recognition result list 85 similar to the first embodiment.
  • the recognition processing unit 72 performs the recognition processing in the same manner as in the first embodiment.
  • the recognition processing unit 72 causes the recognition result storage unit 73 to store information such as the presence or absence of the detected lesion, in association with the recognition image.
  • the region-of-interest mode image processing unit 64 outputs only the endoscope image or both the endoscope image and the recognition image in which the recognition result is associated to the display control unit 58 under the control of the display control unit 58.
  • the display control unit 58 determines a thumbnail image 78 of the recognition image and a lesion image as a recognition result based on the endoscope image, the recognition image, and information associated with the recognition image.
  • a real-time display of the endoscope image 86 is displayed on the display screen 76 of the monitor 18 together with the recognition result list 85 including the presence / absence 79 of the copy.
  • the real-time display of the second display method is performed in the same manner as in the first display method by sequentially acquiring the endoscope images 86 that are captured by the imaging sensor 38 and image-processed by the region-of-interest mode image processing unit 64 in real time. To display. Although the presence or absence of a lesion is displayed as a recognition result in FIG. 10B as in the first embodiment, the position of the lesion is displayed as a recognition result as in the second embodiment. Good.
  • the recognition result in the second display method the result obtained by the recognition processing unit 72 performing the detection processing of the lesion is displayed.
  • the result of the processing may be displayed as a recognition result. That is, the recognition processing unit 72 detects a lesion from the recognition image in the same manner as in the above-described embodiments, and performs a discrimination process for discriminating the type of the lesion with respect to the detected lesion.
  • the discrimination result may be displayed by performing the discrimination processing on the whole.
  • AI Artificial @ Intelligence
  • deep learning deep learning
  • convolutional neural network template matching
  • texture analysis texture analysis
  • frequency analysis and the like.
  • the display control unit 58 may display the type of the lesion identified by the recognition processing unit 72 as the recognition result in the second display method.
  • the type of lesion to be distinguished by the recognition processing unit 72 is determined in advance by a part to be diagnosed.
  • the discriminating part is normal, hyperplastic polyp (HP), SSA / P (Sessile Serrated Adenoma / Polyp), adenoma (TSA: Traditional Serrated Adenoma), lateral developmental tumor (LST) : Laterally Spreading Tumor), and any type of cancer.
  • the type of the lesion to be identified may be set by, for example, an input from the console 19.
  • the display switching operation unit 13e for inputting an instruction to switch the display method to the display control unit 58 is provided in the endoscope 12, but is not limited thereto. Any input unit that inputs a switching instruction may be used.
  • the input unit may be provided in the medical image processing apparatus, and a function of inputting a similar switching instruction may be provided.
  • the display control unit 58 may switch from the second display method to the first display method after a certain period of time has elapsed after switching to the second display method.
  • the certain period of time from switching to the second display method to switching to the first display method may be a time in which a doctor who is a user sets a sufficient time in advance to confirm the recognition result,
  • the time from when the display method is switched to the second display method to when the display method is switched to the first display method may be set by, for example, input from the console 19.
  • the display method may be switched from the first display method to the second display method after a certain period of time after the processing unit 72 performs the recognition processing. In this case, every time the still image to be observed is acquired as the recognition image when the still image acquisition unit 13b is operated, recognition processing is performed to switch from the first display method to the second display method. Is preferred.
  • the medical image processing apparatus of the present invention is applied to an endoscope system that acquires an endoscope image as a medical image.
  • various endoscope systems such as a capsule endoscope are used.
  • it is applicable to the endoscope system, and other medical images include X-ray images, CT images, MR images, ultrasonic images, pathological images, PET (Positron Emission Tomography) images, and the like.
  • the medical image processing apparatus of the present invention can be applied to various types of acquired medical image apparatuses.
  • the hardware structure of the processing unit (processing unit) that executes various types of processing is the following various types of processors.
  • the various processors include a general-purpose processor (CPU (Central Processing Unit)), a GPU (Graphical Processing Unit), and an FPGA (Field Programmable Gate Array), which are general-purpose processors that execute software (programs) and function as various processing units.
  • a programmable logic device Programmable Logic Device: PLD) whose circuit configuration can be changed after the manufacture of the device, a dedicated electric circuit which is a processor having a circuit configuration specifically designed to execute various processes, and the like. .
  • One processing unit may be configured by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs, a combination of a CPU and an FPGA, or a CPU And a combination of a GPU and the like. Further, a plurality of processing units may be configured by one processor. As an example in which a plurality of processing units are configured by one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software, There is a form in which this processor functions as a plurality of processing units.
  • SoC System-On-Chip
  • SoC System-On-Chip

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)

Abstract

認識処理で得られた認識結果の表示が医用画像の観察を妨げることを防止することができる医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法を提供する。 プロセッサ装置(16)は画像信号取得部(50)と画像処理部(56)と表示制御部(58)とを備える。画像信号取得部(50)は内視鏡(12)から観察モードに対応したデジタル画像信号を取得する。画像処理部(56)は関心領域モード画像処理部(64)を備える。表示制御部(58)は内視鏡画像をリアルタイム表示する第1の表示方法と認識結果一覧を表示する第2の表示方法とを切り替える切り替え制御を行う。

Description

医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
 本発明は、病変部などの関心領域を認識処理するための医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法に関する。
 医療分野においては、内視鏡画像、X線画像、CT(Computed Tomography)画像、MR(Magnetic Resonanse)画像などの医用画像を用いて、患者の病状の診断や経過観察などの画像診断が行われている。このような画像診断に基づいて、医師などは治療方針の決定などを行っている。
 近年、医用画像を用いた画像診断においては、臓器内の病変や腫瘍など注意して観察すべき医用画像の関心領域を医用画像処理装置によって認識処理することが行われつつある。特に、ディープラーニングなどの機械学習の手法は、関心領域の認識処理向上に寄与している。
 特許文献1には、各医用画像に認識処理を行い、関心領域を認識した場合、認識した結果をモニタなどに表示させる医用画像処理装置が記載されている。この特許文献1の医用画像処理装置では、医用画像の関心領域近傍に、各医用画像の特徴量(関心領域の特徴量)をプロットしたグラフ表示、または各医用画像の特徴量の項目名と値を文字で表示したラベル表示のいずれかを行い、ユーザーの入力に応じてグラフ表示とラベル表示の切り替えを行う。
特開2016-158828号公報
 医師が医用画像を用いた画像診断を行う際、医用画像に対して認識処理を行った結果だけではなく、撮像部により取得した医用画像そのものを観察することも求められている。しかしながら、特許文献1記載の医用画像処理装置では、医用画像の関心領域近傍に表示される認識結果が多くなると、医用画像と重なって表示され、医用画像の観察の邪魔になる場合がある。
 本発明は、認識処理で得られた認識結果の表示が医用画像の観察の妨げとなることを防止する医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法の提供を目的とする。
 本発明の医用画像処理装置は、医用画像取得部と、認識処理部と、表示制御部とを有する。医用画像取得部は、観察対象を撮像して医用画像を取得する。認識処理部は、医用画像取得部により取得した医用画像に対して認識処理を行う。表示制御部は、医用画像取得部により取得した医用画像を表示部に表示する第1の表示方法と、医用画像取得部により取得した医用画像に対して認識処理を行った複数の認識結果を表示部に表示する第2の表示方法とを切り替える。
 表示制御部へ表示方法の切り替えの指示を入力する入力部を備えることが好ましい。
 表示制御部は、第2の表示方法に切り替えてから一定時間の経過後に第2の表示から第1の表示に切り替えることが好ましい。
 表示制御部は、認識処理部が認識処理を行った一定時間後に第1の表示方法から第2の表示方法に切り替えることが好ましい。
 表示制御部は、第2の表示方法により表示部に表示を行う場合、複数の認識結果とともに、医用画像の表示を行うことが好ましい。
 認識結果は病変の種類であることが好ましい。認識結果は病変部の有無であることが好ましい。認識結果は病変部の位置であることが好ましい。
 本発明の内視鏡システムは、光源装置と、内視鏡と、医用画像取得部と、認識処理部と、表示制御部と、表示部とを備える。光源装置は、観察対象を照明するための照明光を発生する。内視鏡は、照明光で照明された観察対象を撮像する撮像部を有する。医用画像取得部は、観察対象を撮像して医用画像を取得する。認識処理部は、医用画像取得部により取得した医用画像に対して認識処理を行う。表示制御部は、医用画像取得部により取得した医用画像を表示する第1の表示方法と、医用画像取得部により取得した医用画像に対して認識処理を行った複数の認識結果を表示する第2の表示方法とを切り替える。表示部は、第1の表示方法による医用画像、及び第2の表示方法による複数の認識結果を表示する。
 内視鏡は、表示制御部へ表示方法の切り替え制御の指示を入力する入力部を備えることが好ましい。
 本発明の医療用画像処理装置の作動方法は、医用画像取得部が、観察対象を撮像して医用画像を取得するステップと、認識処理部が、医用画像取得部により取得した医用画像に対して認識処理を行うステップと、表示制御部が、医用画像取得部により取得した医用画像を表示部に表示する第1の表示方法と、医用画像取得部により取得した医用画像に対して認識処理を行った複数の認識結果を表示部に表示する第2の表示方法とを切り替えるステップとを含んでいる。
 本発明によれば、認識処理で得られた認識結果の表示が医用画像の観察を妨げることを防止することができる。
内視鏡システムの外観図である。 複数のLED光源を備える第1実施形態の内視鏡システムの機能を示すブロック図である。 紫色光V、青色光B、青色光Bx、緑色光G、赤色光Rの分光スペクトルを示すグラフである。 第1実施形態の通常光の分光スペクトルを示すグラフである。 第1実施形態の特殊光の分光スペクトルを示すグラフである。 認識処理部を備える関心領域モード画像処理部の機能を示すブロック図である。 表示制御部が切り替え制御を行う場合の第1の表示方法(A)および第2の表示方法(B)における表示画面の一例を示す説明図である。 関心領域モードの一連の流れを示すフローチャートである。 第2実施形態における表示制御部が切り替え制御を行う場合の第1の表示方法(A)および第2の表示方法(B)における表示画面の一例を示す説明図である。 第3実施形態における表示制御部が切り替え制御を行う場合の第1の表示方法(A)および第2の表示方法(B)における表示画面の一例を示す説明図である。
 [第1実施形態]
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18(表示部)と、コンソール19とを有する。内視鏡12は、光源装置14と光学的に接続し、かつ、プロセッサ装置16と電気的に接続する。内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ13aを操作することにより、湾曲部12cが湾曲動作する。この湾曲動作によって、先端部12dが所望の方向に向けられる。
 また、操作部12bには、アングルノブ13aの他、静止画像の取得操作に用いる静止画像取得部13b、観察モードの切り替え操作に用いるモード切替部13c、ズーム倍率の変更操作に用いるズーム操作部13d、関心領域モードの際に表示方法の切り替えの指示に用いる専用の入力部としての表示切替操作部13eを設けている。静止画像取得部13bは、モニタ18に観察対象の静止画像を表示するフリーズ操作と、ストレージに静止画像を保存するレリーズ操作が可能である。
 内視鏡システム10は、観察モードとして、通常モードと、特殊モードと、関心領域モードとを有している。観察モードが通常モードである場合、複数色の光を通常モード用の光量比Lcで合波した通常光を発光する。また、観察モードが特殊モードである場合、複数色の光を特殊モード用の光量比Lsで合波した特殊光を発光する。
 また、観察モードが関心領域モードである場合、関心領域モード用照明光を発光する。本実施形態では、関心領域モード用照明光として、通常光を発光するが、特殊光を発光するようにしてもよい。
 プロセッサ装置16は、モニタ18及びコンソール19と電気的に接続する。モニタ18は、観察対象の画像や、画像に付帯する情報等を出力表示する。コンソール19は、関心領域(ROI : Region Of Interest)の指定等や機能設定等の入力操作を受け付けるユーザインタフェースとして機能する。
 図2に示すように、光源装置14は、観察対象の照明に用いる照明光を発する光源部20と、光源部20を制御する光源制御部22とを備えている。光源部20は、複数色のLED(Light Emitting Diode)等の半導体光源である。光源制御部22は、LED等のオン/オフや、LED等の駆動電流や駆動電圧の調整によって、照明光の発光量を制御する。また、光源制御部22は、光学フィルタの変更等によって、照明光の波長帯域を制御する。
 第1実施形態では、光源部20は、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、及びR-LED(Red Light Emitting Diode)20dの4色のLEDと、波長カットフィルタ23とを有している。図3に示すように、V-LED20aは、波長帯域380nm~420nmの紫色光Vを発する。
 B-LED20bは、波長帯域420nm~500nmの青色光Bを発する。B-LED23bから出射した青色光Bのうち少なくともピーク波長の450nmよりも長波長側は、波長カットフィルタ23によりカットされる。これにより、波長カットフィルタ23を透過した後の青色光Bxは、420~460nmの波長範囲になる。このように、460nmよりも長波長側の波長域の光をカットしているのは、この460nmよりも長波長側の波長域の光は、観察対象である血管の血管コントラストを低下させる要因であるためである。なお、波長カットフィルタ23は、460nmよりも長波長側の波長域の光をカットする代わりに、460nmよりも長波長側の波長域の光を減光させてもよい。
 G-LED20cは、波長帯域が480nm~600nmに及ぶ緑色光Gを発する。R-LED20dは、波長帯域が600nm~650nmに及び赤色光Rを発する。なお、各LED20a~20dから発せられる光は、それぞれの中心波長とピーク波長とが同じであっても良いし、異なっていても良い。
 光源制御部22は、各LED20a~20dの点灯や消灯、及び点灯時の発光量等を独立に制御することによって、照明光の発光タイミング、発光期間、光量、及び分光スペクトルの調節を行う。光源制御部22における点灯及び消灯の制御は、観察モードごとに異なっている。なお、基準の明るさは光源装置14の明るさ設定部又はコンソール19等によって設定可能である。
 通常モード又は関心領域モードの場合、光源制御部22は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを全て点灯させる。その際、図4に示すように、紫色光V、青色光B、緑色光G、及び赤色光R間の光量比Lcは、青色光Bxの光強度のピークが、紫色光V、緑色光G、及び赤色光Rのいずれの光強度のピークよりも大きくなるように、設定されている。これにより、通常モード又は関心領域モードでは、光源装置14から、紫色光V、青色光Bx、緑色光G、及び赤色光Rを含む通常モード用又は関心領域モード用の多色光が、通常光として、が発せられる。通常光は、青色帯域から赤色帯域まで一定以上の強度を有しているため、ほぼ白色となっている。
 特殊モードの場合、光源制御部22は、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを全て点灯させる。その際、図5に示すように、紫色光V、青色光B、緑色光G、及び赤色光R間の光量比Lsは、紫色光Vの光強度のピークが、青色光Bx、緑色光G、及び赤色光Rのいずれの光強度のピークよりも大きくなるように、設定されている。また、緑色光G及び赤色光Rの光強度のピークは、紫色光V及び青色光Bxの光強度のピークよりも小さくなるように、設定されている。これにより、特殊モードでは、光源装置14から、紫色光V、青色光Bx、緑色光G、及び赤色光Rを含む特殊モード用の多色光が、特殊光として発せられる。特殊光は、紫色光Vが占める割合が大きいことから、青みを帯びた光となっている。なお、特殊光は、4色全ての光が含まれていなくてもよく、4色のLED20a~20dのうち少なくとも1色のLEDからの光が含まれていればよい。また、特殊光は、450nm以下に主な波長域、例えばピーク波長又は中心波長を有することが好ましい。
 図2に示すように、光源部20が発した照明光は、ミラーやレンズ等で形成される光路結合部(図示しない)を介して、挿入部12a内に挿通したライトガイド24に入射する。ライトガイド24は、内視鏡12及びユニバーサルコードに内蔵され、照明光を内視鏡12の先端部12dまで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド24としては、マルチモードファイバを使用することができる。一例として、ライトガイド24には、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3mm~φ0.5mmの細径なファイバケーブルを使用することができる。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bとを設けている。照明光学系30aは、照明レンズ32を有している。この照明レンズ32を介して、ライトガイド24を伝搬した照明光によって観察対象を照明する。撮像光学系30bは、対物レンズ34と、拡大光学系36と、撮像センサ38(本発明の「撮像部」に対応する)とを有している。これら対物レンズ34及び拡大光学系36を介して、観察対象からの反射光、散乱光、及び蛍光等の各種の光が撮像センサ38に入射する。これにより、撮像センサ38に観察対象の像が結像する。
 拡大光学系36は、観察対象を拡大するズームレンズ36aと、ズームレンズ36aを光軸方向CLに移動させるレンズ駆動部36bとを備えている。ズームレンズ36aは、レンズ駆動部36bによるズーム制御に従って、テレ端とワイド端の間で自在に移動させることで、撮像センサ38に結像する観察対象を拡大又は縮小させる。
 撮像センサ38は、照明光が照射された観察対象を撮像するカラー撮像センサである。撮像センサ38の各画素には、R(赤色)カラーフィルタ、G(緑色)カラーフィルタ、B(青色)カラーフィルタのいずれかが設けられている。撮像センサ38は、Bカラーフィルタが設けられているB画素で紫色から青色の光を受光し、Gカラーフィルタが設けられているG画素で緑色の光を受光し、Rカラーフィルタが設けられているR画素で赤色の光を受光する。そして、各色の画素から、RGB各色の画像信号を出力する。撮像センサ38は、出力した画像信号を、CDS回路40に送信する。
 通常モード又は関心領域モードにおいては、撮像センサ38は、通常光が照明された観察対象を撮像することにより、B画素からBc画像信号を出力し、G画素からGc画像信号を出力し、R画素からRc画像信号を出力する。また、特殊モードにおいては、撮像センサ38は、特殊光が照明された観察対象を撮像することにより、B画素からBs画像信号を出力し、G画素からGs画像信号を出力し、R画素からRs画像信号を出力する。
 撮像センサ38としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサ等を利用可能である。また、RGBの原色のカラーフィルタを設けた撮像センサ38の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた補色撮像センサを用いても良い。補色撮像センサを用いる場合には、CMYGの4色の画像信号を出力する。このため、補色-原色色変換によって、CMYGの4色の画像信号をRGBの3色の画像信号に変換することにより、撮像センサ38と同様のRGB各色の画像信号を得ることができる。また、撮像センサ38の代わりに、カラーフィルタを設けていないモノクロセンサを用いても良い。
 CDS回路40は、撮像センサ38から受信したアナログの画像信号に、相関二重サンプリング(CDS:Correlated Double Sampling)を行う。CDS回路40を経た画像信号はAGC回路42に入力される。AGC回路40は、入力された画像信号に対して、自動利得制御(AGC:Automatic Gain Control)を行う。A/D(Analog to Digital)変換回路44は、AGC回路42を経たアナログ画像信号を、デジタルの画像信号に変換する。A/D変換回路44は、A/D変換後のデジタル画像信号を、プロセッサ装置16に入力する。
 図2に示すように、プロセッサ装置16は、画像信号取得部50(本発明の「医用画像取得部」に対応する)と、DSP(Digital Signal Processor)52と、ノイズ低減部54と、画像処理部56と、表示制御部58とを備えている。
 画像信号取得部50は、内視鏡12から、観察モードに対応したデジタル画像信号を取得する。通常モード又は関心領域モードの場合には、Bc画像信号、Gc画像信号、Rc画像信号を取得する。特殊モードの場合には、Bs画像信号、Gs画像信号、Rs画像信号を取得する。関心領域モードの場合には、通常光の照明時に1フレーム分のBc画像信号、Gc画像信号、Rc画像信号を取得し、特殊光の照明時に1フレーム分のBs画像信号、Gs画像信号、Rs画像信号を取得する。
 DSP52は、画像信号取得部50が取得した画像信号に対して、欠陥補正処理、オフセット処理、DSP用ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、及びデモザイク処理等の各種信号処理を施す。欠陥補正処理は、撮像センサ38の欠陥画素の信号を補正する。オフセット処理は、欠陥補正処理した画像信号から暗電流成分を除き、正確なゼロレベルを設定する。DSP用ゲイン補正処理は、オフセット処理した画像信号に特定のDSP用ゲインを乗じることにより信号レベルを整える。
 リニアマトリクス処理は、DSP用ゲイン補正処理した画像信号の色再現性を高める。ガンマ変換処理は、リニアマトリクス処理した画像信号の明るさや彩度を整える。ガンマ変換処理した画像信号には、デモザイク処理(等方化処理、又は同時化処理とも言う)を施すことによって、各画素で不足した色の信号を補間によって生成する。このデモザイク処理によって、全画素がRGB各色の信号を有するようになる。ノイズ低減部54は、DSP52でデモザイク処理等を施した画像信号に対して、例えば、移動平均法やメディアンフィルタ法等によるノイズ低減処理を施し、ノイズを低減する。ノイズ低減後の画像信号は画像処理部56に入力される。
 画像処理部56は、通常モード画像処理部60と、特殊モード画像処理部62と、関心領域モード画像処理部64を備えている。通常モード画像処理部60は、通常モードに設定されている場合に作動し、受信したBc画像信号、Gc画像信号、Rc画像信号に対して、色変換処理、色彩強調処理、及び構造強調処理を行う。色変換処理では、RGB画像信号に対して3×3のマトリックス処理、階調変換処理、及び3次元LUT(Look Up Table)処理などにより色変換処理を行う。
 色彩強調処理は、色変換処理済みのRGB画像信号に対して行われる。構造強調処理は、観察対象の構造を強調する処理であり、色彩強調処理後のRGB画像信号に対して行われる。上記のような各種画像処理等を行うことによって、通常画像が得られる。通常画像は、紫色光V、青色光Bx、緑色光G、赤色光Rがバランス良く発せられた通常光に基づいて得られた画像であるため、自然な色合いの画像となっている。通常画像は、表示制御部58に入力される。
 特殊モード画像処理部62は、特殊モードに設定されている場合に作動する。特殊モード画像処理部62では、受信したBs画像信号、Gs画像信号、Rs画像信号に対して、色変換処理、色彩強調処理、及び構造強調処理を行う。色変換処理、色彩強調処理、及び構造強調処理の処理内容は、通常モード画像処理部60と同様である。上記のような各種画像処理を行うことによって、特殊画像が得られる。特殊画像は、血管のヘモグロビンの吸収係数が高い紫色光Vが、他の色の青色光Bx、緑色光G、赤色光Rよりも大きい発光量となっている特殊光に基づいて得られた画像であるため、血管構造や腺管構造の解像度が他の構造よりも高くなっている。特殊画像は表示制御部58に入力される。
 関心領域モード画像処理部64は、関心領域モード時に設定されている場合に作動する。関心領域モード画像処理部64では、受信したBc画像信号、Gc画像信号、Rc画像信号に対して、色変換処理など通常モード画像処理部60と同様の画像処理を行う。
 図6に示すように、関心領域モード画像処理部64は、通常画像処理部70と、認識用画像処理部71と、認識処理部72と、認識結果記憶部73とを備えている。通常画像処理部70は、通常モード画像処理部60と同様の画像処理により内視鏡画像を順次取得する。一方、認識用画像処理部71は、静止画像取得部13bが操作された際に得られる観察対象の静止画像を、関心領域の認識に用いる認識用画像として取得する。認識用画像は、認識結果記憶部73に記憶させる。
 認識処理部72は、認識用画像を画像解析し、認識処理を行う。認識処理部72が行う認識処理としては、認識用画像から関心領域を検出する検出処理と、認識用画像に含まれる病変の種類などを鑑別する鑑別処理とが含まれる。なお、具体的には、鑑別処理は、関心領域に対して鑑別結果を出力する場合と、認識用画像全体に対して鑑別結果を出力する場合とがある。本実施形態では、認識処理部72は、認識用画像から関心領域である病変部を検出する検出処理を行う。この場合、認識処理部72は、先ず認識用画像を複数の小領域、例えば画素数個分の正方領域に分割する。次いで、分割した認識用画像から画像的な特徴量を算出する。続いて、算出した特徴量に基づき、各小領域が病変部であるか否かを判断する。このような判断手法としては、畳み込みニューラルネットワーク(Convolutional Neural Network)や、深層学習(Deep Learning)などの機械学習アルゴリズムであることが好ましい。
 また、認識処理部72により認識用画像から算出される特徴量としては、観察対象における所定部位の形状、色又はそれら形状や色などから得られる指標値であることが好ましい。例えば、特徴量として、血管密度、血管形状、血管の分岐数、血管の太さ、血管の長さ、血管の蛇行度、血管の深達度、腺管形状、腺管開口部形状、腺管の長さ、腺管の蛇行度、色情報の少なくともいずれか、もしくは、それらを2以上組み合わせた値であることが好ましい。
 最後に、同じ種類と特定された、ひとかたまりの小領域を1つの病変部として抽出する。認識処理部72は、病変部の有無の情報を認識用画像に関連付けて認識結果記憶部73に記憶させる。関心領域モード画像処理部64は、表示制御部58の制御に応じて内視鏡画像、および病変部の有無の情報を関連付けた認識用画像のいずれか一方を表示制御部58に出力する。
 表示制御部58は、画像処理部56からの画像やデータをモニタ18に表示するための表示制御を行う。通常モードに設定されている場合には、表示制御部58は、通常画像をモニタ18に表示する制御を行う。特殊モードに設定されている場合には、表示制御部58は、特殊画像をモニタ18に表示する制御を行う。
 関心領域モードに設定されている場合には、表示制御部58は、第1の表示方法と、第2の表示方法とを切り替える。表示制御部58に対する表示方法の切り替えの指示は、表示切替操作部13eの操作により入力される。図7(A)に示すように、第1の表示方法は、撮像センサ38が撮像し、関心領域モード画像処理部64により画像処理した内視鏡画像75(通常画像と同様の画像)を順次取得してモニタ18の表示画面76にリアルタイム表示する表示方法である。
 一方、第2の表示方法は、認識処理部72が認識用画像に対して認識処理を行った複数の認識結果をモニタ18の表示画面76に表示する表示方法である。具体的には、図7(B)に示すように、第2の表示方法では、複数の認識用画像のサムネイル画像78と、各認識用画像に対応する認識結果としての病変部の有無79とを含む認識結果一覧77をモニタ18の表示画面76に表示する。この場合、表示制御部58は、関心領域モード画像処理部64から出力された認識用画像および認識用画像に関連付けた病変部の有無の情報に基づいてサムネイル画像78および病変部の有無79を表示する。病変部の有無79は、該当する認識用画像のサムネイル画像78の近傍に表示する。なお、図7(B)に示す例では、認識結果一覧77としてサムネイル画像78と、認識結果としての病変部の有無79を6個ずつ表示させているが、これに限るものではなく、表示画面および画像の大きさ、縦横比などによって、表示させる個数および配置が適宜変更される。また、以下の実施形態においても、画像および認識結果の個数および配置は限定されるものではない。
 また、認識結果一覧として表示されるサムネイル画像78では、認識処理部72によって抽出された病変部の領域を、例えば、色、階調など異なる表示にしてもよい。また、サムネイル画像78のいずれか1つをコンソール19の入力により選択した場合、もとの認識用画像を表示させるようにしてもよい。
 次に、関心領域モードの一連の流れについて、図8に示すフローチャートに沿って説明を行う。ユーザーである医師がモード切替部13cを操作して、関心領域モードに切り替える(S11)。これにより、観察対象に対して、関心領域モード用照明光が照明される。この関心領域モード用照明光で照明された観察対象を撮像センサ38で撮像して内視鏡画像を取得する。本実施形態では、表示制御部58における初期状態として第1の表示方法が設定されている。このため、関心領域モードに切り替えた際は、内視鏡画像75をモニタ18の表示画面76にリアルタイム表示する(S12)。この場合、表示画面76には、内視鏡画像75のみが表示され、認識結果は表示されていないため、内視鏡画像75に対する医師の観察を妨げることがない。
 そして、第1の表示方法によるリアルタイム表示中に、内視鏡画像を観察している医師が静止画像取得部13bを操作して、認識用画像を取得する(S13)。この認識用画像を取得した場合、認識用画像に対して病変部を検出する認識処理を行う(S14)。認識用画像とともに、認識処理により認識した認識結果を認識用画像に関連付けて認識結果記憶部73に記憶させる(S15)。
 次に、医師が表示切替操作部13eにより表示方法の切り替えの指示を入力した場合、表示制御部58は第1の表示方法から、第2の表示方法に切り替える(S16)。第2の表示方法に切り替えられた場合、認識結果一覧77をモニタ18の表示画面76に表示する(S17)。認識用画像のサムネイル画像78とともに、認識結果としての病変部の有無79が一覧表示されるため、医師は、関心領域の認識結果を容易に確認することができる。
 また、関心領域の認識結果を確認した後、内視鏡画像75を再度観察したい場合には、医師は表示切替操作部13eにより表示方法の切り替えの指示を入力する。これにより、表示制御部58は第2の表示方法から、第1の表示方法に切り替えを行い、内視鏡画像75をモニタ18の表示画面76にリアルタイム表示する。表示方法の切り替えの指示を入力する表示切替操作部13eが、内視鏡12に設けられているため、医師は第1及び第2の表示方法の切り替えを容易に行うことができる。
 [第2実施形態]
 上記第1実施形態では、第2の表示方法における認識結果一覧では、認識結果として病変部の有無を表示しているが、これに限らず、認識結果として病変部の位置を表示してもよい。具体的には、図9(B)に示すように、認識結果一覧80では、複数の認識用画像のサムネイル画像81と、各認識用画像に対応する認識結果としての病変部の位置82とをモニタ18の表示画面76に表示する。なお、第1の表示方法の場合は、図9(A)に示すように、上記第1実施形態と同様、内視鏡画像75を順次取得してモニタ18にリアルタイム表示するものであり、第2の表示方法において、病変部の位置を表示すること以外は、上記第1実施形態の関心領域モードにおける表示方法の切り替えと同様である。
 この場合、認識処理部72は、第1実施形態と同様に、認識用画像を複数の小領域に分割する。次いで、分割した認識用画像から画像的な特徴量を算出し、算出した特徴量に基づき、各小領域が病変部であるか否かを判断する。そして、認識処理部72は、病変部として判断された各小領域の位置情報、例えば認識用画像内における座標情報を抽出する。認識処理部72は、抽出された病変部の座標情報を認識用画像に関連付けて認識結果記憶部73に記憶させる。関心領域モード画像処理部64は、第1実施形態と同様に、表示制御部58の制御に応じて内視鏡画像、および認識結果を関連付けた認識用画像のいずれか一方を表示制御部58に出力する。
 そして、第2の表示方法を行う場合、表示制御部58は、認識用画像および認識用画像に関連付けた座標情報に基づき、認識用画像のサムネイル画像78と、認識結果としての病変部の位置82とをモニタ18の表示画面76に表示する。なお、図9(B)においては病変部として認識された各小領域の表示を正方形の升目状に表示することで病変部の位置82を示しているが、これに限らず、色や階調を変えるなど、病変部の位置82が分かる表示であればよく、座標情報を文字で表した文字情報でもよい。
 なお、上記第1及び第2実施形態では、第2の表示方法の認識結果一覧において表示される認識用画像(サムネイル画像を含む。)および認識結果は、過去の内視鏡画像に基づくもの、すなわち、静止画像取得部13bが操作された際に、認識用画像として取得した内視鏡画像に対して認識処理を行ったものであるが、これに限るものではなく、撮像センサ38の撮像により取得した最新の内視鏡画像に基づく認識結果を認識結果一覧に含めてもよい。この場合、関心領域モードにおいて撮像センサ38が内視鏡画像を順次取得している間中は、常に内視鏡画像に対して認識処理を行う。
 そして、順次取得する最新の内視鏡画像に対して常に認識処理を行って認識結果を取得する。また、第2の表示方法の認識結果一覧において表示される認識用画像および認識結果には、撮像センサ38が取得した最新の内視鏡画像に基づくものが含まれることが好ましい。さらに、この場合、第2の表示方法の認識結果一覧は、最新の内視鏡画像に基づく認識用画像および認識結果を最初に配置し(図7(B)または図9(B)における番号「1」を付した認識用画像および認識結果)、以降は、徐々に時間を遡り、過去に認識処理を行って取得した認識用画像および認識結果を、新しいものから古いものへ順に配列する(図7(B)または図9(B)における番号「2」、「3」、「4」・・・を付した認識用画像および認識結果)ことが好ましい。
 なお、撮像センサ38が順次取得する内視鏡画像の全てを認識処理するものではなく、間引き処理、すなわち、全ての内視鏡画像のうち、所定時間毎に又は所定フレーム毎に認識用画像を取得し、間引きした後の認識用画像について認識処理を行って認識結果を取得してもよい。
 [第3実施形態]
 上記第1及び第2実施形態では、第2の表示方法により表示を行う場合、認識結果一覧のみを表示しているが、認識結果一覧とともに、内視鏡画像のリアルタイム表示をしてもよい。なお、第1の表示方法の場合は、図10(A)に示すように、上記第1実施形態と同様、内視鏡画像75を順次取得してモニタ18にリアルタイム表示する。
 図10(B)に示すように、第2の表示方法においては、第1実施形態と同様の認識結果一覧85とともに、内視鏡画像86のリアルタイム表示を行う。この場合、認識処理部72は、第1実施形態と同様に認識処理する。そして、認識処理部72は、検出した病変部の有無などの情報を認識用画像に関連付けて認識結果記憶部73に記憶させる。関心領域モード画像処理部64は、表示制御部58の制御に応じて内視鏡画像のみ、あるいは内視鏡画像および認識結果を関連付けた認識用画像の両方を表示制御部58に出力する。
 そして、第2の表示方法を行う場合、表示制御部58は、内視鏡画像、認識用画像および認識用画像に関連付けた情報に基づき、認識用画像のサムネイル画像78と、認識結果としての病変部の有無79とを含む認識結果一覧85とともに、内視鏡画像86のリアルタイム表示をモニタ18の表示画面76に表示する。なお、第2の表示方法のリアルタイム表示は、第1の表示方法と同様に、撮像センサ38が撮像し、関心領域モード画像処理部64により画像処理した内視鏡画像86を順次取得してリアルタイム表示するものである。なお、図10(B)においては、第1実施形態と同様に認識結果として病変部の有無を表示しているが、第2実施形態と同様に認識結果として病変部の位置を表示してもよい。
 上記各実施形態では、第2の表示方法における認識結果として、認識処理部72が病変部の検出処理を行った結果を表示させているが、これに限るものではなく、認識処理部72が鑑別処理を行った結果を認識結果として表示させてもよい。すなわち、認識処理部72が、上記各実施形態と同様に認識用画像から病変部を検出し、さらに検出した病変部に対して病変の種類などを鑑別する鑑別処理を行う、あるいは、認識用画像全体に対して鑑別処理を行うことにより鑑別結果を表示させてもよい。認識処理部72による鑑別処理の方法としては、人工知能(AI(Artificial Intelligence))、深層学習、畳み込みニューラルネットワーク、テンプレートマッチング、テクスチャ解析、周波数解析等を用いることが好ましい。
 具体的には、表示制御部58が、第2の表示方法における認識結果として認識処理部72が鑑別した病変の種類を表示させるようにしてもよい。この場合、例えば、認識処理部72が鑑別を行う病変の種類は、診断を行う部位によって予め決められたものであることが好ましい。例えば、大腸の診断では、鑑別部は、正常、過形成ポリープ(HP:Hyperplastic Polyp)、SSA/P(Sessile Serrated Adenoma / Polyp)、腺腫(TSA:Traditional Serrated Adenoma)、側方発達型腫瘍(LST:Laterally Spreading Tumor)、及びがんのいずれかの種類に鑑別する。また、鑑別を行う病変の種類は、例えば、コンソール19の入力により設定されるようにしてもよい。
 上記各実施形態では、表示制御部58へ表示方法の切り替えの指示を入力する表示切替操作部13eが内視鏡12に設けられているが、これに限らず、表示制御部58へ表示方法の切り替えの指示を入力する入力部であればよく、医用画像処理装置に入力部を設け、同様の切り替えの指示を入力する機能を持たせてもよい。
 上記各実施形態では、第1の表示方法から第2の表示方法に切り替えた後、入力部による切り替えの指示を再度入力することにより第1の表示方法に戻す例を示しているが、これに限らず、表示制御部58は、第2の表示方法に切り替えてから一定時間の経過後に第2の表示方法から第1の表示方法に切り替えてもよい。この場合、第2の表示方法に切り替えてから第1の表示方法に切り替えるまでの一定時間は、ユーザーである医師が認識結果を確認するのに十分な時間を予め設定したものでもよいし、第2の表示方法に切り替えてから第1の表示方法に切り替えるまでの時間を、例えばコンソール19の入力により設定するようにしてもよい。
 また、上記各実施形態では、第1の表示方法から第2の表示方法に切り替える場合、入力部の指示に応じて切り替える例を示しているが、これに限らず、表示制御部58は、認識処理部72が認識処理を行った一定時間後に第1の表示方法から第2の表示方法に切り替えてもよい。この場合、静止画像取得部13bが操作された際に観察対象の静止画像を認識用画像として取得する毎に、認識処理を行って第1の表示方法から第2の表示方法に切り替えを行うことが好ましい。また、認識処理を行って第1の表示方法から第2の表示方法に切り替えるまでの一定時間は、認識処理部72による認識処理から、表示制御部58が認識結果一覧の画像を作成し、表示画面を表示するのに十分な時間を予め設定したものでもよいし、第1の表示方法から第2の表示方法に切り替えるまでの時間を、例えばコンソール19の入力により設定するようにしてもよい。
 上記各実施形態では、4色のLED20a~20dを用いて観察対象の照明を行っているが、レーザ光源と蛍光体を用いて観察対象の照明を行ってもよい。また、上記各実施形態では、4色のLED20a~20dを用いて観察対象の照明を行っているが、キセノンランプ等の白色光光源と回転フィルタを用いて観察対象の照明を行ってもよい。また、カラーの撮像センサ38に代えて、モノクロの撮像センサで観察対象の撮像を行っても良い。
 なお、上記実施形態では、医用画像として、内視鏡画像を取得する内視鏡システムに対して、本発明の医療用画像処理装置を適用しているが、カプセル内視鏡など、さまざまな内視鏡システムに対して、適用可能であることはいうまでもなく、その他の医用画像として、X線画像、CT画像、MR画像、超音波画像、病理画像、PET(Positron Emission Tomography)画像などを取得する各種医用画像装置に対しても、本発明の医療用画像処理装置の適用は可能である。
 上記実施形態において、画像処理部56のような各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit) 、GPU(Graphical Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ、またはCPUとGPUの組み合わせ等)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
13a アングルノブ
13b 静止画像取得部
13c モード切替部
13d ズーム操作部
14 光源装置
16 プロセッサ装置
18 モニタ
19 コンソール
20 光源部
20a V-LED
20b B-LED
20c G-LED
20d R-LED
22 光源制御部
23 波長カットフィルタ
24 ライトガイド
30a 照明光学系
30b 撮像光学系
32 照明レンズ
34 対物レンズ
36 拡大光学系
36a ズームレンズ
36b レンズ駆動部
38 撮像センサ
40 CDS回路
42 AGC回路
44 A/D変換回路
50 画像信号取得部
52 DSP
54 ノイズ低減部
56 画像処理部
58 表示制御部
60 通常モード画像処理部
62 特殊モード画像処理部
64 関心領域モード画像処理部
70 通常画像処理部
71 認識用画像処理部
72 認識処理部
73 認識結果記憶部
75 内視鏡画像
76 表示画面
77 認識結果一覧
78 サムネイル画像
79 病変部の有無
80 認識結果一覧
81 サムネイル画像
82 病変部の位置
85 認識結果一覧
86 内視鏡画像

Claims (11)

  1.  観察対象を撮像して医用画像を取得する医用画像取得部と、
     前記医用画像取得部により取得した前記医用画像に対して認識処理を行う認識処理部と、
     前記医用画像取得部により取得した前記医用画像を表示部に表示する第1の表示方法と、前記医用画像取得部により取得した前記医用画像に対して前記認識処理を行った複数の認識結果を前記表示部に表示する第2の表示方法とを切り替える表示制御部とを有する医用画像処理装置。
  2.  前記表示制御部へ表示方法の切り替えの指示を入力する入力部を備える請求項1記載の医用画像処理装置。
  3.  前記表示制御部は、前記第2の表示方法に切り替えてから一定時間の経過後に前記第2の表示方法から前記第1の表示方法に切り替える請求項1又は2記載の医用画像処理装置。
  4.  前記表示制御部は、前記認識処理部が前記認識処理を行った一定時間後に前記第1の表示方法から前記第2の表示方法に切り替える請求項1又は2記載の医用画像処理装置。
  5.  前記表示制御部は、前記第2の表示方法により前記表示部に表示を行う場合、複数の前記認識結果とともに、前記医用画像の表示を行う請求項1ないし4のいずれか1項記載の医用画像処理装置。
  6.  前記認識結果は病変の種類である請求項1ないし5のいずれか1項記載の医用画像処理装置。
  7.  前記認識結果は病変部の有無である請求項1ないし5のいずれか1項記載の医用画像処理装置。
  8.  前記認識結果は病変部の位置である請求項1ないし5のいずれか1項記載の医用画像処理装置。
  9.  観察対象を照明するための照明光を発生する光源装置と、
     前記照明光で照明された観察対象を撮像する撮像部を有する内視鏡と、
     前記観察対象を撮像して医用画像を取得する医用画像取得部と、
     前記医用画像取得部により取得した前記医用画像に対して認識処理を行う認識処理部と、
     前記医用画像取得部により取得した前記医用画像を表示する第1の表示方法と、前記医用画像取得部により取得した前記医用画像に対して前記認識処理を行った複数の認識結果を表示する第2の表示方法とを切り替える表示制御部と、
     前記第1の表示方法による前記医用画像、及び前記第2の表示方法による複数の前記認識結果を表示する表示部とを備える内視鏡システム。
  10.  前記内視鏡は、前記表示制御部へ表示方法の切り替えの指示を入力する入力部を備える請求項9記載の内視鏡システム。
  11.  医用画像取得部が、観察対象を撮像して医用画像を取得するステップと、
     認識処理部が、前記医用画像取得部により取得した前記医用画像に対して認識処理を行うステップと、
     表示制御部が、前記医用画像取得部により取得した前記医用画像を表示部に表示する第1の表示方法と、前記医用画像取得部により取得した前記医用画像に対して前記認識処理を行った複数の認識結果を前記表示部に表示する第2の表示方法とを切り替えるステップとを含む医用画像処理装置の作動方法。
PCT/JP2019/032168 2018-08-23 2019-08-16 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法 WO2020040059A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020538360A JP7146925B2 (ja) 2018-08-23 2019-08-16 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
EP19851806.0A EP3841955A4 (en) 2018-08-23 2019-08-16 MEDICAL IMAGE PROCESSING APPARATUS, ENDOSCOPE SYSTEM AND METHOD OF OPERATION OF A MEDICAL IMAGE PROCESSING DEVICE
CN201980055084.XA CN112584746B (zh) 2018-08-23 2019-08-16 医用图像处理装置和内窥镜系统
US17/177,216 US20210169306A1 (en) 2018-08-23 2021-02-17 Medical image processing apparatus, endoscope system, and method for operating medical image processing apparatus
JP2022118184A JP7335399B2 (ja) 2018-08-23 2022-07-25 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018156407 2018-08-23
JP2018-156407 2018-08-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/177,216 Continuation US20210169306A1 (en) 2018-08-23 2021-02-17 Medical image processing apparatus, endoscope system, and method for operating medical image processing apparatus

Publications (1)

Publication Number Publication Date
WO2020040059A1 true WO2020040059A1 (ja) 2020-02-27

Family

ID=69592958

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032168 WO2020040059A1 (ja) 2018-08-23 2019-08-16 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法

Country Status (5)

Country Link
US (1) US20210169306A1 (ja)
EP (1) EP3841955A4 (ja)
JP (2) JP7146925B2 (ja)
CN (1) CN112584746B (ja)
WO (1) WO2020040059A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209390A1 (ja) * 2021-03-31 2022-10-06 富士フイルム株式会社 内視鏡システム及びその作動方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269296A (zh) 2020-02-14 2021-08-17 艾利丹尼森零售信息服务公司 计数机器和对物品进行计数的方法
US11893745B2 (en) * 2020-12-09 2024-02-06 Raytheon Company System and method for generating and displaying contours
KR102536369B1 (ko) * 2021-02-26 2023-05-26 주식회사 인피니트헬스케어 인공 지능 기반 위 내시경 영상 진단 보조 시스템 및 방법
KR102531400B1 (ko) * 2021-03-19 2023-05-12 주식회사 인피니트헬스케어 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009066301A (ja) * 2007-09-14 2009-04-02 Fujifilm Corp 画像処理装置および内視鏡システム
WO2016136700A1 (ja) * 2015-02-27 2016-09-01 Hoya株式会社 画像処理装置
JP2016158828A (ja) 2015-02-27 2016-09-05 富士フイルム株式会社 医用画像処理装置、方法、及びプログラム
WO2017073337A1 (ja) * 2015-10-27 2017-05-04 オリンパス株式会社 内視鏡装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7783094B2 (en) 2005-06-02 2010-08-24 The Medipattern Corporation System and method of computer-aided detection
US8900124B2 (en) * 2006-08-03 2014-12-02 Olympus Medical Systems Corp. Image display device
JP5007114B2 (ja) * 2006-12-22 2012-08-22 株式会社トプコン 眼底観察装置、眼底画像表示装置及びプログラム
JP2009061174A (ja) * 2007-09-07 2009-03-26 Konica Minolta Medical & Graphic Inc 医用画像診断支援装置
EP2601880B1 (en) * 2011-03-30 2014-09-03 Olympus Medical Systems Corp. Image management apparatus, operating method of the same, image management program and capsule endoscope system
JP5611892B2 (ja) * 2011-05-24 2014-10-22 富士フイルム株式会社 内視鏡システム及び内視鏡システムの作動方法
JP5818520B2 (ja) * 2011-06-06 2015-11-18 株式会社東芝 医用画像処理システム
EP3123925A4 (en) * 2014-03-28 2017-04-12 FUJIFILM Corporation Endoscope system, processor device of endoscope system, and method for operating endoscope system
WO2015151703A1 (ja) * 2014-03-31 2015-10-08 富士フイルム株式会社 内視鏡システム及びその作動方法
JP5968944B2 (ja) * 2014-03-31 2016-08-10 富士フイルム株式会社 内視鏡システム、プロセッサ装置、光源装置、内視鏡システムの作動方法、プロセッサ装置の作動方法、光源装置の作動方法
JP2015195845A (ja) * 2014-03-31 2015-11-09 富士フイルム株式会社 内視鏡システム、内視鏡システムの作動方法、プロセッサ装置、プロセッサ装置の作動方法
JP6392570B2 (ja) * 2014-07-11 2018-09-19 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、画像処理プログラム、及び内視鏡システム
JP6243364B2 (ja) * 2015-01-26 2017-12-06 富士フイルム株式会社 内視鏡用のプロセッサ装置、及び作動方法、並びに制御プログラム
WO2017057574A1 (ja) * 2015-09-29 2017-04-06 富士フイルム株式会社 画像処理装置、内視鏡システム、及び画像処理方法
EP3357407A4 (en) * 2015-10-26 2019-04-17 Olympus Corporation PROCESSING DEVICE FOR ENDOSCOPIC IMAGES
CN110049709B (zh) * 2016-12-07 2022-01-11 奥林巴斯株式会社 图像处理装置
WO2018159363A1 (ja) * 2017-03-01 2018-09-07 富士フイルム株式会社 内視鏡システム及びその作動方法
JP6785942B2 (ja) * 2017-03-03 2020-11-18 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
JP6785948B2 (ja) * 2017-03-30 2020-11-18 富士フイルム株式会社 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
JP6834001B2 (ja) * 2017-07-03 2021-02-24 富士フイルム株式会社 医療画像処理装置、診断支援装置、医療業務支援装置、及び、レポート作成支援装置
JP2021191314A (ja) * 2018-06-19 2021-12-16 オリンパス株式会社 内視鏡システム及び内視鏡システムの作動方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009066301A (ja) * 2007-09-14 2009-04-02 Fujifilm Corp 画像処理装置および内視鏡システム
WO2016136700A1 (ja) * 2015-02-27 2016-09-01 Hoya株式会社 画像処理装置
JP2016158828A (ja) 2015-02-27 2016-09-05 富士フイルム株式会社 医用画像処理装置、方法、及びプログラム
WO2017073337A1 (ja) * 2015-10-27 2017-05-04 オリンパス株式会社 内視鏡装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209390A1 (ja) * 2021-03-31 2022-10-06 富士フイルム株式会社 内視鏡システム及びその作動方法

Also Published As

Publication number Publication date
EP3841955A1 (en) 2021-06-30
JP7335399B2 (ja) 2023-08-29
JP7146925B2 (ja) 2022-10-04
CN112584746B (zh) 2024-08-30
JPWO2020040059A1 (ja) 2021-08-12
CN112584746A (zh) 2021-03-30
US20210169306A1 (en) 2021-06-10
EP3841955A4 (en) 2021-10-13
JP2022136171A (ja) 2022-09-15

Similar Documents

Publication Publication Date Title
JP6785948B2 (ja) 医療用画像処理装置及び内視鏡システム並びに医療用画像処理装置の作動方法
US11033175B2 (en) Endoscope system and operation method therefor
JP7335399B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
US12029384B2 (en) Medical image processing apparatus, endoscope system, and method for operating medical image processing apparatus
WO2019220801A1 (ja) 内視鏡画像処理装置、内視鏡画像処理方法、及びプログラム
JP2020065685A (ja) 内視鏡システム
WO2022014235A1 (ja) 画像解析処理装置、内視鏡システム、画像解析処理装置の作動方法、及び画像解析処理装置用プログラム
US20230027950A1 (en) Medical image processing apparatus, endoscope system, method of operating medical image processing apparatus, and non-transitory computer readable medium
JP7130043B2 (ja) 医用画像処理装置及び内視鏡システム並びに医用画像処理装置の作動方法
US20230029239A1 (en) Medical image processing system and method for operating medical image processing system
US11627864B2 (en) Medical image processing apparatus, endoscope system, and method for emphasizing region of interest
US20230101620A1 (en) Medical image processing apparatus, endoscope system, method of operating medical image processing apparatus, and non-transitory computer readable medium
JP7214886B2 (ja) 画像処理装置及びその作動方法
WO2022009478A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
WO2022210508A1 (ja) プロセッサ装置、医療画像処理装置、及び医療画像処理システム、並びに内視鏡システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19851806

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020538360

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019851806

Country of ref document: EP

Effective date: 20210323