Nothing Special   »   [go: up one dir, main page]

WO2018154661A1 - 内視鏡のための画像処理装置及び内視鏡システム - Google Patents

内視鏡のための画像処理装置及び内視鏡システム Download PDF

Info

Publication number
WO2018154661A1
WO2018154661A1 PCT/JP2017/006645 JP2017006645W WO2018154661A1 WO 2018154661 A1 WO2018154661 A1 WO 2018154661A1 JP 2017006645 W JP2017006645 W JP 2017006645W WO 2018154661 A1 WO2018154661 A1 WO 2018154661A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
area
disturbing
interference
endoscope
Prior art date
Application number
PCT/JP2017/006645
Other languages
English (en)
French (fr)
Inventor
俊彰 三上
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to PCT/JP2017/006645 priority Critical patent/WO2018154661A1/ja
Publication of WO2018154661A1 publication Critical patent/WO2018154661A1/ja
Priority to US16/545,280 priority patent/US11045071B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/0002Operational features of endoscopes provided with data storages
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/051Details of CCD assembly

Definitions

  • the present invention relates to an image processing apparatus and an endoscope system for an endoscope.
  • Treatment may be performed using various treatment tools under observation with an endoscope.
  • an endoscope In such a procedure, when the distance between the distal end portion of the endoscope to be photographed and the treatment tool for treatment is short, the field of view is blocked by the treatment tool, or illumination light for photographing is strongly reflected by the treatment tool.
  • the brightness of the treatment tool may become extremely high on the image. Since the high-luminance area is easy to catch, the user's line of sight tends to face the high-luminance area.
  • a three-dimensional endoscope using binocular vision may be used.
  • the subject image acquired from the three-dimensional endoscope is displayed using a three-dimensional stereoscopic display device such as a 3D display.
  • the image displayed on the three-dimensional stereoscopic display device may not be stereoscopically viewable. In such a case, the user feels uncomfortable. Therefore, when the distance between the distal end portion of the endoscope and the treatment tool for performing the treatment is short, a region where discomfort occurs is likely to catch the eye of the user. In addition, an image region included in only one of the pair of left and right images acquired to obtain the parallax may occur.
  • the space used is often a luminal shape, and the subject existing in the image region included in only one of the pair of left and right images is the distance from the distal end of the endoscope.
  • the brightness is likely to be high.
  • stereoscopic viewing cannot be performed, and the user who is viewing the image acquired by the three-dimensional endoscope may feel uncomfortable.
  • Japanese Unexamined Patent Application Publication No. 2014-64657 discloses a technique for reducing discomfort that a user may experience when using a three-dimensional endoscope.
  • an image in which the treatment tool is captured and an image in which the treatment tool is not captured are acquired.
  • an area where the treatment tool is shown is detected, and the image in the area is replaced with an image corresponding to the area in the image where the treatment tool is not shown.
  • the correspondence between regions in both images can be obtained by taking region-based matching using both images.
  • An object of the present invention is to provide an image processing apparatus and an endoscope system for an endoscope that presents a more preferable image for a user.
  • an image processing device for an endoscope includes an image acquisition unit that acquires an image captured using the endoscope, and an interference having characteristics different from an observation target in the image.
  • a disturbing region setting unit that sets a region on the image; and a disturbing region correcting unit that performs correction including suppression of luminance of the disturbing region on the image.
  • an endoscope system includes the above-described image processing device and the endoscope.
  • an image processing apparatus and an endoscope system for an endoscope that presents a more preferable image for a user.
  • FIG. 1 is a block diagram illustrating an outline of a configuration example of an endoscope system according to the embodiment.
  • FIG. 2 is a diagram for explaining a usage mode of the endoscope system according to the embodiment.
  • FIG. 3 is a flowchart illustrating an outline of an example of image processing by the image processing apparatus according to the embodiment.
  • FIG. 4 is a flowchart illustrating an outline of an example of the candidate interference area extraction process according to the embodiment.
  • FIG. 5 is a diagram for explaining the image processing according to the embodiment, and is a schematic diagram illustrating an image acquired by the endoscope.
  • FIG. 6 is a diagram for explaining the image processing according to the embodiment, and is a schematic diagram illustrating the extracted interference candidate areas.
  • FIG. 1 is a block diagram illustrating an outline of a configuration example of an endoscope system according to the embodiment.
  • FIG. 2 is a diagram for explaining a usage mode of the endoscope system according to the embodiment.
  • FIG. 3 is a flowchart illustrating an
  • FIG. 7 is a diagram for explaining the image processing according to the embodiment, and is a schematic diagram illustrating labeled interference candidate regions.
  • FIG. 8 is a flowchart illustrating an outline of an example of a disturbing area selection process according to the first embodiment.
  • FIG. 9 is a diagram for explaining the image processing according to the embodiment, and is a schematic diagram showing a selected disturbing area.
  • FIG. 10A is a diagram for explaining the image processing according to the embodiment, and is an image example before the correction processing.
  • FIG. 10B is a diagram for explaining the image processing according to the embodiment, and is an image example after the correction processing.
  • FIG. 11A is a diagram for explaining a non-corresponding region, and is a schematic diagram showing a left image.
  • FIG. 11B is a diagram for explaining the non-corresponding region and is a schematic diagram showing the right image.
  • FIG. 12A is a flowchart illustrating an outline of an example of a disturbing area selection process according to the second embodiment.
  • FIG. 12B is a flowchart illustrating an outline of an example of a disturbing area selection process according to the second embodiment.
  • the present embodiment relates to a three-dimensional (3D) endoscope system.
  • characteristic image processing is performed on a moving image obtained by photographing.
  • image processing an image region that visually gives a user some kind of discomfort is detected, and correction is performed on the image region to reduce the discomfort.
  • the 3D endoscope includes a stereo camera including a pair of left and right optical systems and an image sensor, and captures a pair of left and right subject images.
  • the left image captured by the left optical system and the image sensor and the right image captured by the right optical system and the image sensor are obtained as subject images having parallax similar to those when a human performs binocular vision. It is done.
  • the endoscope system causes a user to perceive a stereoscopic image of a subject by displaying an image based on a left image and a right image on a three-dimensional display device.
  • the endoscope system 1 includes an image processing device 100, an endoscope 200, a display 300, and a light source device 350.
  • the endoscope 200 is described as a 3D endoscope, but is not limited thereto.
  • the endoscope 200 captures an image of the inside of the subject by inserting a part of the endoscope 200 into the subject, and generates image data inside the subject.
  • the image processing apparatus 100 performs various image processing and the like on the image data generated by the endoscope 200.
  • the display 300 displays the image processed by the image processing apparatus 100.
  • the light source device 350 is a light source of illumination light for illuminating a range imaged by the endoscope 200.
  • the endoscope 200 is a rigid endoscope for surgery, for example, and has an elongated insertion portion configured to be inserted into a subject. Further, the endoscope 200, the image processing apparatus 100, and the light source device 350 are connected via a cable.
  • the distal end portion of the insertion portion may be provided with a bending portion that is actively curved, and the distal end portion may be configured to bend in a direction desired by the user in accordance with a user operation.
  • An imaging unit 210, an imaging optical system 220, and an illumination unit 230 are provided at the distal end of the insertion unit.
  • the imaging unit 210 and the imaging optical system 220 have two left and right optical systems to acquire a 3D image.
  • the imaging unit 210 includes a left image acquisition unit 211 and a right image acquisition unit 212 each including an imaging element such as a CCD image sensor.
  • the imaging optical system 220 focuses on the left optical system 221 that forms a subject image so as to focus on the imaging surface of the imaging element of the left image acquisition unit 211 and the imaging surface of the imaging element of the right image acquisition unit 212.
  • the illumination unit 230 includes an optical system that emits illumination light emitted from the light source device 350 and guided by an optical fiber in the direction of the subject.
  • the image of the subject illuminated by the illumination light emitted from the illumination unit 230 is focused on the imaging surface of the imaging element of the imaging unit 210 via the imaging optical system 220.
  • the imaging unit 210 generates image data based on the subject image by an imaging operation.
  • the image data includes a left image generated by the left image acquisition unit 211 and a right image generated by the right image acquisition unit 212.
  • the image data is transmitted to the image processing apparatus 100 via a cable.
  • the image processing apparatus 100 includes an image acquisition unit 110, an image storage unit 120, an obstruction area setting unit 130, an obstruction area correction unit 140, and a display image generation unit 150.
  • the image acquisition unit 110 acquires image data from the endoscope 200.
  • the image storage unit 120 stores the left image data and the right image data separately for the image data acquired by the image acquisition unit 110.
  • the image storage unit 120 includes a semiconductor memory such as a DRAM. Various processes are performed using the image stored in the image storage unit 120.
  • the disturbing area setting unit 130 sets a disturbing area for each of the left image data and the right image data stored in the image storage unit 120.
  • the disturbing area is an image area that gives the user discomfort during observation.
  • the interference area setting unit 130 functions as an interference candidate area extraction unit 131, a labeling unit 132, and an interference region selection unit 133.
  • the interference candidate region extraction unit 131 extracts interference region candidates as interference candidate regions based on the image characteristics acquired from the image storage unit 120.
  • the labeling unit 132 performs labeling on each of the one or more extracted interference candidate regions.
  • the disturbing area selection unit 133 selects, for example, a bright spot area other than the disturbing area based on the feature of the image acquired from the image storage unit 120 from each of the labeled interference candidate areas acquired from the labeling unit 132. Exclude and select the interference area.
  • the disturbing region correction unit 140 acquires an image from the image storage unit 120, acquires the disturbing region data from the disturbing region selection unit 133, and corrects the disturbing region where the image is set.
  • This correction is image processing for reducing user discomfort associated with the disturbing area.
  • This correction may include, for example, a process of reducing the luminance of the disturbing area.
  • the display image generation unit 150 performs other image processing on the image data corrected by the interference area correction unit 140.
  • This image processing includes various processes for obtaining an image suitable for display on the display 300, and includes, for example, image processing for displaying a three-dimensional image.
  • the display image data processed by the display image generation unit 150 is output to the display 300.
  • the disturbing area setting unit 130, the disturbing area correcting unit 140, the display image generating unit 150, and the like include, for example, Application Specific Integrated Circuit (ASIC), Field Programmable Gate Array (FPGA), Graphics Processing Unit (GPU), or Central Processing Unit ( CPU) and the like.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • GPU Graphics Processing Unit
  • CPU Central Processing Unit
  • the disturbing region setting unit 130, the disturbing region correcting unit 140, the display image generating unit 150, and the like may each be configured by one integrated circuit or the like, or may be configured by combining a plurality of integrated circuits. Further, two or more of the disturbing region setting unit 130, the disturbing region correcting unit 140, the display image generating unit 150, and the like may be configured by one integrated circuit or the like. The operation of these integrated circuits is performed according to a recording device provided in the image processing apparatus 100 (not shown) or a program recorded in a recording area in the integrated circuit.
  • Display 300 is a 3D display.
  • the display 300 displays a three-dimensional image based on display image data acquired from the image processing apparatus 100.
  • the display 300 is a 3D display using polarized light, for example. In this case, the user can recognize the display image as a three-dimensional image by viewing the image displayed on the display 300 while wearing polarized glasses.
  • FIG. 2 is a schematic diagram illustrating an example of the state of treatment using the endoscope system 1.
  • the insertion part 240 of the endoscope 200 is inserted into the subject 420.
  • a left optical system 221 and a right optical system 222 of the imaging optical system 220 are provided at the distal end portion of the insertion portion 240.
  • a three-dimensional image is displayed on the display 300 based on the left image and the right image acquired through these two optical systems.
  • An illumination unit 230 is provided at the distal end of the insertion unit 240.
  • the illumination unit 230 has two illumination windows that emit illumination light, but the number of illumination windows may be one or three or more. Further, the positional relationship of the left optical system 221, the right optical system 222, and the illumination unit 230 may be arbitrary. For example, the illumination window of the illumination unit 230 may have a ring shape that surrounds the left optical system 221 and the right optical system 222.
  • the forceps 410 and the like are inserted into the subject 420 separately from the insertion portion 240 of the endoscope 200, and the tissue 422 that is the treatment target is treated.
  • a plurality of forceps may be inserted into the subject 420, and the tissue 422 may be treated using high-frequency power, ultrasonic vibration, thermal energy, or the like.
  • a treatment tool to be performed may be inserted into the subject 420. The user treats the tissue 422 that is the treatment target using the forceps 410 and the like while viewing the image acquired by the endoscope 200 and displayed on the display 300.
  • step S101 the image acquisition unit 110 acquires image data obtained by imaging from the imaging unit 210 of the endoscope 200.
  • the image data acquired here includes left image data obtained by the left image acquisition unit 211 and right image data obtained by the right image acquisition unit 212.
  • step S102 the image storage unit 120 temporarily stores the acquired image data. At this time, the left image data and the right image data are stored separately.
  • step S103 the interference area setting unit 130 selects an image to be processed later. Specifically, the interference area setting unit 130 selects one of the left image data and the right image data.
  • the interference candidate area extraction unit 131 performs an interference candidate area extraction process.
  • the interference candidate region extraction unit 131 extracts, as image interference candidate regions, image data stored in the image storage unit 120 other than the image features, for example, a portion having a color feature as a living body.
  • the interference candidate area extraction unit 131 extracts an interference candidate area using a color-related feature such as image saturation information or hue information.
  • a color-related feature such as image saturation information or hue information.
  • the interference candidate area extraction unit 131 selects an area to be processed in subsequent steps S202 to S207.
  • the area selected here is, for example, a rectangular area having one pixel or more. Note that the selected region does not have to be rectangular.
  • the interference candidate area extraction unit 131 calculates the saturation of the target area selected in step S201.
  • the interference candidate region extraction unit 131 calculates saturation by converting, for example, an RGB signal into a YCbCr signal. By normalizing the Cb signal and the Cr signal in the YCbCr signal with the Y signal, the reflection intensity of the subject can be excluded, and only the color feature can be handled.
  • the saturation feature value is based on the distance from the origin of the point represented by the Cb signal value and the Cr signal value normalized by the Y signal.
  • Sat is the saturation in the region
  • x and y are the pixel positions
  • SizeX and SizeY are the size of the region set in step S201
  • NormCb and NormCr are the Cb signal value and Cr signal normalized by the Y signal. Represents a value.
  • HLS space etc. may be used.
  • step S203 the interference candidate area extraction unit 131 determines whether or not the saturation calculated in step S202 matches the biological feature.
  • the characteristics of the living body to be compared may be set in advance. For example, when the color is achromatic or close to it, it is determined that it does not match the biological feature. If the saturation does not match the biological feature, the process proceeds to step S206 described later. On the other hand, when the saturation matches the biological feature, the process proceeds to step S204.
  • the interference candidate area extraction unit 131 calculates the hue of the target area.
  • the hue calculation may be performed using the Cb signal value and the Cr signal value normalized by the Y signal, similarly to the saturation calculation.
  • the hue feature value is calculated based on the angle of the point represented by the Cb signal value normalized by the Y signal and the Cr signal value in the space centered on Cb and Cr normalized by the Y signal. Can be done. Specifically, for example, it can be calculated by the following equation (2).
  • H is the hue
  • arctan (a, b) is the arc tangent value of a and b. Even if it is not arctangent, the sign and inclination in the Cb, Cr space normalized by the Y signal may be calculated.
  • HLS space etc. may be used.
  • step S205 the interference candidate region extraction unit 131 determines whether the hue calculated in step S204 matches the biological feature.
  • the characteristics of the living body to be compared may be set in advance. For example, when it is reddish, it is determined that it matches the characteristics of the living body. If the hue does not match the biometric feature, the process proceeds to step S206. On the other hand, when the hue matches the biological feature, the process proceeds to step S207.
  • step S206 the interference candidate area extraction unit 131 extracts the area as an interference candidate area. Thereafter, the process proceeds to step S207.
  • the region is defined as a disturbing candidate region. Extracted. On the other hand, in other cases, it is not extracted as an interference candidate area.
  • step S207 the interference candidate area extraction unit 131 determines whether or not all areas in the image have been processed as target areas. When all the areas have not been processed as target areas, the process returns to step S201. On the other hand, when all the regions have been processed as target regions, the interference candidate region extraction process ends, and the process returns to image processing.
  • the interference candidate area extraction process will be described using a schematic diagram.
  • An image 710 shown in FIG. 5 shows an organ 711 that is a living body and forceps 712.
  • the forceps 712 generally has a different color characteristic from the organ 711 or the like that is an observation target, and the portion near the imaging unit 210 of the endoscope 200 has higher luminance than other portions.
  • a bright spot 716 exists also in a living body such as an organ 711 other than the forceps 712. Since each of the RGB signal values of the luminescent spot 716 is near the saturation value, the saturation calculated by the processing in step S202 can be an achromatic color or a value close thereto.
  • the bright spot 716 can be extracted as an interference candidate region because the saturation does not match the biological feature. Even when it is determined that the saturation calculated in the process of step S202 matches the feature of the living body, the hue of the bright spot 716 may be different from that of the organ 711 or the like. In this case, the bright spot 716 can be extracted as an interference candidate region because the hue does not match the biological feature.
  • the forceps 712, the bright spot 716, and the like can be extracted as interference candidate regions.
  • a schematic diagram of the extracted interference candidate area data 720 is shown in FIG. In FIG. 6, the interference candidate area
  • the interference candidate area may be extracted using either one of the saturation information and the hue information. Further, the interference candidate area may be extracted using a feature relating to a color other than the saturation information or the hue information. Further, the interference candidate area may be extracted using the feature of the image that shows different values for the observation object other than the color and the interference area.
  • correction for reducing the luminance is performed for the inside of the first region 722 corresponding to the forceps 712, and correction is not performed for the second region 726 corresponding to the bright spot 716. For this reason, it is necessary to distinguish between the first area 722 and the second area 726 in subsequent processing.
  • the labeling unit 132 executes a labeling process for labeling each interference candidate area extracted in the interference candidate area extraction process.
  • the labeling unit 132 first sets an area of one pixel or more in order. If the set area is an interference candidate area, and there is no labeled area in the vicinity of the area around the area 8, a new number is labeled for the set area. If the set area is an interference candidate area and there is an already labeled area in the vicinity of 8 of the area, the same number as the already existing label is labeled. No labeling is performed outside the interference candidate area.
  • the method described here is an example of a labeling process, and labeling may be performed by any other method including various commonly used methods.
  • FIG. 7 shows the result of the labeling process performed on the interference candidate area data shown in FIG.
  • the label “1” is attached to the first region 722 corresponding to the forceps 712
  • the label “2” is attached to the second region 726 corresponding to the bright spot 716.
  • "3" and "4" are added.
  • the disturbing area selecting unit 133 performs a disturbing area selecting process for selecting the disturbing area based on the image data stored in the image storing unit 120 and the labeling data processed by the labeling unit 132.
  • a treatment instrument such as a forceps 410 is generally inserted toward the tissue 422 from the outside of the angle of view in the imaging optical system 220 of the insertion unit 240 of the endoscope 200. Therefore, in FIG. 5, the forceps 712 is closest to the imaging optical system 220 of the endoscope 200 in the image end, and there is a high possibility that stereoscopic vision is impossible. Further, since the forceps 712 has the image end closest to the illumination unit 230, the brightness becomes high and the eye catches easily.
  • an area extending from the periphery of the image 710 to the inside of the image 710 is selected as the obstruction area from among the obstruction candidate areas. Is done. That is, the disturbing area is selected based on the position information related to the disturbing candidate area.
  • the disturbing area selection process will be described with reference to FIG.
  • step S301 the disturbing area selection unit 133 selects a label to be processed in steps S302 to S306. For example, in the example shown in FIG. 7, labels 1 to 4 are selected in order.
  • the disturbing area selection unit 133 determines the minimum value minX of the x coordinate and the minimum value minY of the y coordinate among the pixels in the target label area.
  • minX indicates the leftmost pixel in the label area in the image.
  • minY indicates the uppermost pixel in the label area in the image.
  • step S303 the disturbing region selection unit 133 determines whether minX ⁇ 0 and minY ⁇ 0.
  • minX it indicates that the label area is in contact with the left end of the image 710.
  • minY the label area is in contact with the upper end of the image 710.
  • minX ⁇ 0 and minY ⁇ the process proceeds to step S304.
  • step S304 the disturbing area selection unit 133 determines the maximum value maxX of the x coordinate and the maximum value maxY of the y coordinate among the pixels in the target label area.
  • maxX indicates the rightmost pixel in the label area in the image.
  • maxY indicates, for example, the lowermost pixel in the label area in the image.
  • step S305 the disturbing region selection unit 133 determines whether maxX ⁇ width of the image 710 and minY ⁇ height of the image 710.
  • maxX is the width of the image 710, it indicates that the area of the label is in contact with the right end of the image 710.
  • maxY is the height of the image 710, it indicates that the label area is in contact with the lower end of the image 710.
  • the process proceeds to step S306.
  • maxX ⁇ width of image 710 and minY ⁇ height of image 710 the process proceeds to step S307.
  • step S306 the disturbing area selecting unit 133 selects the disturbing candidate area related to the label as the disturbing area. Thereafter, the process proceeds to step S307. That is, when the interference candidate area is in contact with the edge of the image 710, the area is selected as the interference area.
  • step S307 the disturbing area selection unit 133 determines whether or not the above-described processing has been completed for all labels. If processing of all labels has not been completed, the processing returns to step S301. On the other hand, when all the labels have been processed, the disturbing area selection processing ends, and the processing returns to image processing.
  • FIG. 740 Schematic diagram of disturbing area data created by disturbing area selection processing is shown in FIG. Only the area 742 corresponding to the forceps 712 is selected as the obstruction area data 740.
  • the interference area correction unit 140 performs an interference area correction process. That is, the interference area correction unit 140 acquires image data to be processed from the image storage unit 120, and acquires interference area data indicating the interference area from the interference area selection unit 133.
  • the disturbing region correction unit 140 determines a pixel corresponding to the disturbing region in the image, and performs a correction process for reducing the luminance value of the image for the pixel.
  • the amount by which the luminance value is decreased may be stored in a table or the like, or may be calculated according to the luminance value. For example, it may be preferable to reduce the luminance value so that the maximum luminance value of the pixels in the disturbing area is 2/3 or less.
  • the adjustment of the luminance value may be performed by, for example, ⁇ correction.
  • the luminance value of the obstructing area decreases in the correction process
  • the color perception may be increased, for example, when there is a reflection of a living body on the forceps 712. Therefore, a correction process for reducing the saturation of the pixels related to the disturbing area in proportion to the amount of suppression of the luminance value, for example, may be performed. In this way, correction processing is performed to make the disturbing region inconspicuous in the image. As a result, in the processed image, the feeling of interference when viewing the image is reduced.
  • step S108 the image processing apparatus 100 determines whether the left image and the right image stored in the image storage unit 120 have been processed together. When both are processed, the process proceeds to step S109, and otherwise, the process returns to step S103.
  • step S109 the display image generation unit 150 acquires the image data after the correction processing, performs other image processing for display including image processing for three-dimensional display, and generates a display image.
  • the display image generation unit 150 outputs the generated display image data to the display 300 and causes the display 300 to display the display image.
  • FIG. 10A shows an example of the first image 750 when the image processing according to the present embodiment is not performed
  • FIG. 10B shows an example of the second image 760 when the image processing is performed.
  • the forceps 751 is whitened
  • the second image 760 shown in FIG. 10B the brightness of the forceps 761 is suppressed.
  • the bright spot 756 appearing on the living body 755 in the first image 750 is maintained as the bright spot 766 appearing on the living body 765 in the second image 760.
  • the luminance of an obstructing area such as a high-luminance area of a treatment instrument that enters from the outside of the screen with the forceps is suppressed. As a result, discomfort felt by the user is reduced.
  • FIG. 11A A schematic diagram of the left image 770 is shown in FIG. 11A, and a schematic diagram of the corresponding right image 780 is shown in FIG. 11B.
  • the left image 770 and the right image 780 that form a pair have different fields of view.
  • the left image 770 includes a first non-corresponding region 779 that appears in the left image 770 but not in the right image 780.
  • the right image 780 includes a second non-corresponding region 789 that appears in the right image 780 but not in the left image 770.
  • the first non-corresponding region 779 and the second non-corresponding region 789 are regions in which stereoscopic viewing is impossible. If the first non-corresponding region 779 and the second non-corresponding region 789 are conspicuous, the user is not allowed. I feel pleasure. Therefore, the disturbing area setting unit 130 includes the first non-corresponding area 779 and the second non-corresponding area 789 in addition to the disturbing area according to the above-described embodiment or instead of the disturbing area according to the above-described embodiment. May be set as a disturbing area. That is, the interference area setting unit 130 may set an interference area on the image including an area that appears only in one of the pair of images captured using the three-dimensional endoscope.
  • the disturbing area correction unit 140 performs the same image processing on the first non-corresponding area 779 and the second non-corresponding area 789 as the image processing performed on the disturbing area in the above-described embodiment. .
  • the user's line of sight is less likely to be directed to the non-corresponding region, and the discomfort felt by the user is reduced.
  • the disturbing area setting unit 130 sets a range included in the non-corresponding area among the disturbing areas selected as in the above-described embodiment as the disturbing area, and the disturbing area correcting unit 140 corrects the area. May be performed.
  • the interference area setting unit 130 may set an area of the forceps 712 whose luminance is higher than a predetermined value as the interference area.
  • the disturbing area shown in the above-described embodiment is an example, and the disturbing area may be various areas that give the user discomfort.
  • the disturbance area is determined based on the fact that it is in contact with the end of the image 710.
  • the obstruction area is determined as follows so that the area of the treatment tool is selected more stably. That is, since there are many common treatment tools in which the handle portion has a cylindrical shape, the brightness of the treatment tool handle is widely distributed.
  • the luminance distribution is largely biased at the bright spot of the living body.
  • the interference area is determined using the luminance distribution in the label and the size of the label. The disturbing area selection processing according to the present embodiment will be described with reference to the flowcharts shown in FIGS. 12A and 12B.
  • step S401 the disturbing area selection unit 133 selects a label to be processed later.
  • step S402 the disturbing area selection unit 133 determines a minimum value minX of the x coordinate and a minimum value minY of the y coordinate among the pixels in the target label area.
  • step S ⁇ b> 404 the disturbing region selection unit 133 determines a maximum value maxX of the x coordinate and a maximum value maxY of the y coordinate among the pixels in the target label region.
  • step S406 the interference area selection unit 133 selects an interference candidate area related to the label as an interference area. Thereafter, the process proceeds to step S407. That is, when the interference candidate area is in contact with the edge of the image 710, the area is selected as the interference area, and the process proceeds to step S407.
  • the processing from step S407 to step 409 is processing for extracting a region indicating the bright spot 716 of the living body using the luminance distribution in the label.
  • the region of the bright spot 716 extracted as the interference candidate region there are many regions where the luminance value is saturated.
  • the distribution of luminance values becomes wide. Therefore, paying attention to the distribution of luminance values, the bright spot 716 of the living body is excluded from the disturbing area.
  • each area is a rectangular area of one pixel or more, for example. Note that the region may not be rectangular. Further, the luminance value may be a luminance signal value created based on, for example, an RGB signal.
  • the disturbing area selecting unit 133 calculates the ratio of the area having the maximum luminance value in the label.
  • the ratio of the area having the maximum luminance value in the label is the maximum luminance value or the number of areas having the luminance value within a predetermined range compared to the maximum luminance value divided by the number of areas in the label. Value.
  • the maximum luminance value or the ratio of the area having the luminance value within the predetermined range compared to the maximum luminance value in the label the luminance value within the predetermined range compared to the luminance saturation value or the saturated value
  • the ratio of the area held in the label may be used.
  • the ratio of the area having another predetermined luminance value in the label may be used.
  • a predetermined threshold value may be determined based on a luminance histogram, and a ratio of an area having a luminance equal to or higher than the threshold value in the label may be used.
  • step S409 the disturbing area selection unit 133 performs threshold determination on the ratio of the area having the calculated maximum luminance value in the label. That is, the disturbing area selection unit 133 determines whether the ratio is equal to or less than a predetermined threshold value.
  • the threshold value used here is not limited to this, but is preferably about 70%, for example.
  • the processing from step S410 to step S411 is processing for extracting a region indicating the bright spot 716 of the living body using the label size.
  • the ratio of the area having the maximum luminance value in the label is small, and thus the bright spot 716 of the living body is not correctly selected based on the luminance distribution. Therefore, paying attention to the size of the label, a very small biological bright spot 716 is excluded from the disturbing area.
  • step S410 the disturbing area selecting unit 133 calculates the number of pixels in the same label.
  • step S411 the disturbing region selection unit 133 determines whether the number of pixels in the same label is equal to or less than a predetermined threshold value.
  • the threshold is not limited to this, but may be about 100 pixels for a high-definition image, for example.
  • the process proceeds to step S412.
  • step S412 the disturbing area selection unit 133 excludes the label area determined to be the bright spot 716 or the like in the above determination from the objects selected as the disturbing area, and the area is the disturbing area. Decide not. Thereafter, the process proceeds to step S413.
  • step S411 When it is determined in step S411 that the number of pixels is not less than the threshold value, the process proceeds to step S413.
  • the label selected as the target of the disturbing area is not excluded from the disturbing area and is determined to be the disturbing area.
  • step S413 the disturbing region selection unit 133 determines whether or not the above-described processing has been completed for all labels. If processing of all labels has not been completed, the processing returns to step S401. On the other hand, when all the labels have been processed, the disturbing area selection processing ends, and the processing returns to image processing.
  • the disturbing area can be selected with higher accuracy than the disturbing area selection process according to the first embodiment.
  • the endoscope 200 has been described as a 3D endoscope.
  • the technology according to the present embodiment is not limited to a 3D endoscope, and there is one imaging system.
  • the present invention can be widely applied to a dimension endoscope.
  • the endoscope 200 is a medical rigid endoscope
  • the present invention can be similarly applied to a medical flexible endoscope.
  • the endoscope 200 is not limited to a medical endoscope, but can be applied to an industrial endoscope. In this case, it can be used in a state where the observation object and the instrument used together with the industrial endoscope are distinguished on the image based on characteristics such as color.
  • the control mainly described in the flowchart can be realized using a program.
  • This program can be implemented in a circuit such as an FPGA.
  • the program may be stored in a recording medium or a recording unit, for example.
  • recording medium or recording unit There are various methods for recording on this recording medium or recording unit, which may be recorded at the time of product shipment, may be recorded using a distributed recording medium, or may be downloaded via the Internet. Good.
  • the above-described embodiment is also an example of various determination methods such as extraction of interference candidate regions and selection of interference regions in image processing, and various methods can be adopted for these methods.
  • the various determination methods are not limited to simple determinations based on threshold values and the like as in the above-described embodiment, and for example, determinations based on artificial intelligence constructed by machine learning such as deep learning may be used.
  • the image processing apparatus is not limited to an endoscope, but can be applied to a microscope, industrial equipment such as an inspection, various medical observation apparatuses, and the like.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

内視鏡のための画像処理装置(100)は、内視鏡(200)を用いて撮影された画像を取得する画像取得部(110)と、妨害領域設定部(130)と、妨害領域補正部(140)とを備える。妨害領域設定部(130)は、画像において観察対象とは異なる特徴を有する妨害領域を画像上に設定する。妨害領域補正部(140)は、妨害領域の輝度を抑制することを含む補正を画像に対して施す。

Description

内視鏡のための画像処理装置及び内視鏡システム
 本発明は、内視鏡のための画像処理装置及び内視鏡システムに関する。
 内視鏡による観察下で種々の処置具を用いて処置が行われることがある。このような処置において、撮影が行われる内視鏡の先端部と処置を行う処置具との距離が近いと、処置具によって視界が遮られたり、撮影のための照明光が処置具で強く反射し画像上で処置具の輝度が極端に高くなったりすることがある。高輝度の領域は目を引きやすいため、ユーザの視線は高輝度領域に向かいやすい。また、近年では、両眼視を利用した3次元内視鏡が用いられる場合がある。3次元内視鏡から取得された被写体像は、3Dディスプレイなどの3次元立体表示装置を用いて表示される。3次元内視鏡での撮影時に、内視鏡の先端部と処置を行う処置具との距離が近いと、3次元立体表示装置で表示される画像は立体視が不可能である場合があり、そのような場合にユーザは不快感を覚える。したがって、内視鏡の先端部と処置を行う処置具との距離が近い場合、不快感が発生した領域は、ユーザの目を引きやすくなる。また、視差を得るために取得される左右一対の画像のうち一方にのみ含まれる画像領域が生じ得る。3次元内視鏡では、使用される空間が管腔状のものである場合が多く、左右一対の画像のうち一方にのみ含まれる画像領域に存在する被写体は内視鏡の先端部との距離が近い場合が多いため、高輝度になりやすい。さらに、左右一対の画像のうち一方にのみ含まれるため立体視ができず、3次元内視鏡によって取得された画像を見ているユーザは、不快感を覚えることがある。
 3次元内視鏡を用いた際にユーザが受けることがある不快感を軽減することに係る技術が、例えば日本国特開2014-64657号公報に開示されている。この技術では、処置具が写っている画像と写っていない画像とを取得する。処置具が写っている画像において、処置具が写っている領域を検出し、当該領域内の画像を、処置具が写っていない画像における当該領域に対応する領域の画像に置換する。両画像における領域の対応は、両画像を用いた領域ベースのマッチングを取ることで取得され得る。
 内視鏡を用いて取得された画像において、ユーザに不快感などを与える画像を表示することはできるだけ避けることが望ましい。
 本発明は、ユーザにとってより好ましい画像を提示する内視鏡のための画像処理装置及び内視鏡システムを提供することを目的とする。
 本発明の一態様によれば、内視鏡のための画像処理装置は、内視鏡を用いて撮影された画像を取得する画像取得部と、前記画像において観察対象とは異なる特徴を有する妨害領域を前記画像上に設定する妨害領域設定部と、前記妨害領域の輝度を抑制することを含む補正を前記画像に対して施す妨害領域補正部とを備える。
 本発明の一態様によれば、内視鏡システムは、上述の画像処理装置と、前記内視鏡とを備える。
 本発明によれば、ユーザにとってより好ましい画像を提示する内視鏡のための画像処理装置及び内視鏡システムを提供することができる。
図1は、実施形態に係る内視鏡システムの構成例の概略を示すブロック図である。 図2は、実施形態に係る内視鏡システムの使用態様について説明するための図である。 図3は、実施形態に係る画像処理装置による画像処理の一例の概略を示すフローチャートである。 図4は、実施形態に係る妨害候補領域抽出処理の一例の概略を示すフローチャートである。 図5は、実施形態に係る画像処理を説明するための図であり、内視鏡により取得された画像を示す模式図である。 図6は、実施形態に係る画像処理を説明するための図であり、抽出された妨害候補領域を示す模式図である。 図7は、実施形態に係る画像処理を説明するための図であり、ラベリングされた妨害候補領域を示す模式図である。 図8は、第1の実施形態に係る妨害領域選択処理の一例の概略を示すフローチャートである。 図9は、実施形態に係る画像処理を説明するための図であり、選択された妨害領域を示す模式図である。 図10Aは、実施形態に係る画像処理を説明するための図であり、補正処理前の画像例である。 図10Bは、実施形態に係る画像処理を説明するための図であり、補正処理後の画像例である。 図11Aは、非対応領域について説明するための図であり、左画像を示す模式図である。 図11Bは、非対応領域について説明するための図であり、右画像を示す模式図である。 図12Aは、第2の実施形態に係る妨害領域選択処理の一例の概略を示すフローチャートである。 図12Bは、第2の実施形態に係る妨害領域選択処理の一例の概略を示すフローチャートである。
 [第1の実施形態]
 本発明の第1の実施形態について説明する。本実施形態は、3次元(3D)内視鏡システムに関する。本実施形態に係る内視鏡システムでは、撮影により得られた動画に対して特徴的な画像処理が行われる。この画像処理は、ユーザに視覚的にある種の不快感を与える画像領域を検出し、当該画像領域にその不快感を低減させる補正を施すものである。
 3D内視鏡は、左右一組の光学系及び撮像素子を含むステレオカメラを備え、左右一組の被写体像を撮像する。左の光学系及び撮像素子で撮影された左画像と、右の光学系及び撮像素子で撮影された右画像とは、人間が両眼視を行った場合と類似した視差のある被写体像として得られる。内視鏡システムは、左画像及び右画像に基づく画像を3次元表示装置に表示させる事で、ユーザに被写体の立体的な像を知覚させる。
 〈内視鏡システムの構成〉
 本実施形態に係る内視鏡システム1の構成例の概略を図1のブロック図に示す。内視鏡システム1は、画像処理装置100と内視鏡200とディスプレイ300と光源装置350とを備える。本実施形態では、内視鏡200は、3D内視鏡であるものとして説明するがこれに限らない。内視鏡200は、その一部が被検体の内部に挿入されることにより被検体の内部を撮像し、被検体の内部の画像データを生成する。画像処理装置100は、内視鏡200により生成された画像データに対して各種画像処理等を施す。ディスプレイ300は、画像処理装置100により処理された画像を表示する。光源装置350は、内視鏡200による撮像する範囲を照明するための照明光の光源である。
 内視鏡200は、例えば外科手術用の硬性鏡であり、被検体に挿入されるように構成された細長形状をした挿入部を有する。また、内視鏡200と画像処理装置100及び光源装置350とは、ケーブルを介して接続されている。例えば挿入部の先端部には、能動的に湾曲する湾曲部が設けられており、ユーザの操作に応じてユーザが希望する方向に先端部が湾曲するように構成されていてもよい。
 挿入部の先端部には、撮像部210と撮像光学系220と照明部230とが設けられている。撮像部210及び撮像光学系220は、3D画像を取得するために左右2つの光学系を有する。撮像部210は、例えばCCDイメージセンサといった撮像素子をそれぞれ備える左画像取得部211と右画像取得部212とを有する。撮像光学系220は、左画像取得部211の撮像素子の撮像面に合焦するように被写体像を形成する左光学系221と、右画像取得部212の撮像素子の撮像面に合焦するように被写体像を形成する右光学系222とを備える。照明部230は、光源装置350から放射され、光ファイバによって導かれた照明光を被写体の方向に放射する光学系を備える。
 照明部230から放射された照明光によって照明された被写体の像は、撮像光学系220を介して撮像部210の撮像素子の撮像面に合焦する。撮像部210は、撮像動作によって被写体像に基づく画像のデータを生成する。この画像データには、左画像取得部211で生成される左画像と、右画像取得部212で生成される右画像とが含まれる。画像データは、ケーブルを介して画像処理装置100へと送信される。
 画像処理装置100は、画像取得部110と、画像保存部120と、妨害領域設定部130と、妨害領域補正部140と、表示画像生成部150とを備える。
 画像取得部110は、内視鏡200から画像データを取得する。画像保存部120は、画像取得部110で取得された画像データについて、左画像データと右画像データとを分けてそれぞれ保存する。画像保存部120は、例えばDRAMといった半導体メモリを含む。画像保存部120に保存された画像を用いて各種処理が行われる。
 妨害領域設定部130は、画像保存部120に保存された左画像データと右画像データとのそれぞれに対して、妨害領域を設定する。ここで、妨害領域は、観察においてユーザに不快感などを与える画像領域である。妨害領域設定部130は、妨害候補領域抽出部131、ラベリング部132及び妨害領域選択部133としての機能を有する。妨害候補領域抽出部131は、画像保存部120から取得した画像の特徴に基づいて、妨害領域の候補を妨害候補領域として抽出する。ラベリング部132は、抽出された1つ又は複数の妨害候補領域のそれぞれに対してラベリングを行う。妨害領域選択部133は、ラベリング部132から取得したラベリングされた各々の妨害候補領域のうちから、画像保存部120から取得した画像の特徴に基づいて、妨害領域以外の例えば輝点の領域などを除外して、妨害領域を選択する。
 妨害領域補正部140は、画像保存部120から画像を取得し、妨害領域選択部133から妨害領域のデータを取得して、画像の設定された妨害領域に対して、補正を施す。この補正は、妨害領域に関するユーザの不快感などを低減させるための画像処理である。この補正には、例えば妨害領域の輝度を低下させる処理が含まれ得る。表示画像生成部150は、妨害領域補正部140で補正された画像データに対して、その他の画像処理を施す。この画像処理には、ディスプレイ300への表示に適した画像とするための各種処理が含まれ、例えば3次元画像を表示するための画像処理も含まれる。表示画像生成部150で処理された表示用の画像データは、ディスプレイ300へと出力される。
 妨害領域設定部130、妨害領域補正部140、表示画像生成部150等は、例えば、Application Specific Integrated Circuit(ASIC)、Field Programmable Gate Array(FPGA)、Graphics Processing Unit(GPU)、又はCentral Processing Unit(CPU)等の集積回路等を含む。妨害領域設定部130、妨害領域補正部140、表示画像生成部150等は、それぞれ1つの集積回路等で構成されてもよいし、複数の集積回路等が組み合わされて構成されてもよい。また、妨害領域設定部130、妨害領域補正部140、表示画像生成部150等のうち2つ以上が1つの集積回路等で構成されてもよい。これら集積回路の動作は、図示しない画像処理装置100に設けられた記録装置又は集積回路内の記録領域に記録されたプログラムに従って行われる。
 ディスプレイ300は、3Dディスプレイである。ディスプレイ300は、画像処理装置100から取得した表示用の画像データに基づいて、3次元画像を表示する。ディスプレイ300は、例えば偏光を利用した3Dディスプレイである。この場合、ユーザは、偏光メガネをかけてディスプレイ300に表示された画像を見ることで、表示画像を3次元画像として認識することができる。
 〈内視鏡システムの使用態様〉
 内視鏡システム1の使用状況について説明する。図2は、内視鏡システム1を用いた処置の状況の一例を示す模式図である。内視鏡200の挿入部240は、被検体420の内部に挿入されている。図2に示すように、挿入部240の先端部には、撮像光学系220の左光学系221と右光学系222とが設けられている。これら2つの光学系を介して取得される左画像及び右画像に基づいて、ディスプレイ300には3次元画像が表示される。また、挿入部240の先端部には、照明部230が設けられている。図2において照明部230には照明光を放射する2つの照明窓が描かれているが、照明窓の数は1つであっても3つ以上であってもよい。また、左光学系221、右光学系222及び照明部230の位置関係などは、任意でよい。例えば、照明部230の照明窓は、左光学系221及び右光学系222を囲むようなリング形状であってもよい。
 内視鏡200の挿入部240とは別に被検体420の内部には、鉗子410などが挿入され、処置対象である組織422の処置が行われる。図2には、1つの鉗子410が描かれているが、複数の鉗子が被検体420に挿入されてもよいし、高周波電力、超音波振動、又は熱エネルギー等を用いて組織422の処置を行う処置具が被検体420の内部に挿入されてもよい。ユーザは、内視鏡200で取得された画像であってディスプレイ300に表示された画像を見ながら、鉗子410などを用いて処置対象である組織422の処置を行う。
 〈画像処理装置の動作〉
 画像処理装置で行われる画像処理について、図3に示すフローチャートを参照して説明する。
 ステップS101において、画像取得部110は、内視鏡200の撮像部210から撮像により得られた画像データを取得する。ここで取得される画像データは、左画像取得部211で得られた左画像データと右画像取得部212で得られた右画像データとを含む。ステップS102において、画像保存部120は、取得された画像データを一時記憶する。この際、左画像データと右画像データとは分けて保存される。
 ステップS103において、妨害領域設定部130は、以降で処理を施す画像を選択する。具体的には、妨害領域設定部130は、左画像データと右画像データとのうちから一方を選択する。
 ステップS104において、妨害候補領域抽出部131は、妨害候補領域抽出処理を行う。妨害候補領域抽出処理において妨害候補領域抽出部131は、画像保存部120に保存された画像データにおいて、画像の特徴、例えば生体としての色の特徴を持つ部分以外を妨害候補領域として抽出する。例えば、妨害候補領域抽出部131は、画像の彩度情報又は色相情報といった色に係る特徴を用いて妨害候補領域を抽出する。妨害候補領域抽出処理の一例について、図4を参照して説明する。
 ステップS201において、妨害候補領域抽出部131は、以降のステップS202乃至ステップS207の処理の対象となる領域を選択する。ここで選択される領域は、例えば1画素以上の矩形領域である。なお、選択される領域は矩形でなくてもよい。ステップS202において、妨害候補領域抽出部131は、ステップS201で選択された対象となっている領域の彩度を算出する。妨害候補領域抽出部131は、例えばRGB信号をYCbCr信号に変換して彩度の算出を行う。YCbCr信号のうちCb信号及びCr信号をY信号で正規化することで、被写体の反射強度が除外され、色の特徴のみが扱われ得る。例えば、Y信号で正規化されたCb及びCrを軸とする空間における、Y信号で正規化されたCb信号値及びCr信号値が表す点の原点から距離に基づいて、彩度の特徴値が算出され得る。具体的には、例えば下記式(1)で算出され得る。
Figure JPOXMLDOC01-appb-M000001
ここで、Satは領域内の彩度、x及びyは画素位置、SizeX及びSizeYは、ステップS201で設定された領域のサイズ、NormCb及びNormCrはY信号で正規化されたCb信号値及びCr信号値を表す。
 なお、ここでは彩度の算出にYCbCr空間が用いられる例を挙げたが、HLS空間等が用いられてもよい。
 ステップS203において、妨害候補領域抽出部131は、ステップS202で算出された彩度が生体の特徴と一致するか否かを判定する。ここで、比較対象とされる生体の特徴は、予め設定されていてもよい。例えば無彩色又はそれに近いとき、生体の特徴と一致しないと判定される。彩度が生体の特徴と一致しないとき、処理は後述するステップS206に進む。一方、彩度が生体の特徴と一致するとき、処理はステップS204に進む。
 ステップS204において、妨害候補領域抽出部131は、対象となっている領域の色相を算出する。色相の算出は、彩度の算出と同様に、Y信号で正規化されたCb信号値及びCr信号値を用いて行われてもよい。例えば、Y信号で正規化されたCb及びCrを軸とする空間における、Y信号で正規化されたCb信号値及びCr信号値で表される点の角度に基づいて、色相の特徴値が算出され得る。具体的には、例えば下記式(2)で算出され得る。
Figure JPOXMLDOC01-appb-M000002
ここで、Hは色相、arctan(a,b)はaとbのアークタンジェントの値である。アークタンジェントでなくても、Y信号で正規化したCb,Cr空間における符号と傾きが算出されてもよい。
 なお、ここでは色相の算出にYCbCr空間が用いられる例を挙げたが、HLS空間等が用いられてもよい。
 ステップS205において、妨害候補領域抽出部131は、ステップS204で算出された色相が生体の特徴と一致するか否かを判定する。ここで、比較対象とされる生体の特徴は、予め設定されていてもよい。例えば、赤みがかっているとき、生体の特徴と一致すると判定される。色相が生体の特徴と一致しないとき、処理はステップS206に進む。一方、色相が生体の特徴と一致するとき、処理はステップS207に進む。
 ステップS206において、妨害候補領域抽出部131は、当該領域を妨害候補領域として抽出する。その後、処理はステップS207に進む。このように、彩度が生体の特徴と一致していないとき、又は、彩度が生体の特徴と一致しているが色相が生体の特徴と一致していないとき、当該領域は妨害候補領域として抽出される。一方、その他の場合には、妨害候補領域として抽出されない。
 ステップS207において、妨害候補領域抽出部131は、画像内の全ての領域が対象領域として処理されたか否かを判定する。全ての領域が対象領域として処理されていないとき、処理はステップS201に戻る。一方、全ての領域が対象領域として処理されたとき、妨害候補領域抽出処理は終了し、処理は画像処理に戻る。
 模式図を使って妨害候補領域抽出処理について説明する。例えば、図5に示すような画像710が内視鏡200によって取得された場合を考える。図5に示す画像710には、生体である臓器711と、鉗子712とが写っている。鉗子712は、一般的に観察対象である臓器711等と異なる色特徴を有し、また、内視鏡200の撮像部210に近い部分は、他の部位よりも輝度が高くなっている。また、画像710には、鉗子712以外の例えば臓器711等の生体においても輝点716が存在する。輝点716は、RGB信号値それぞれが飽和値付近であるため、ステップS202の処理で算出される彩度は無彩色又はそれに近い値となり得る。この場合、輝点716は、彩度が生体の特徴と一致しないとして妨害候補領域として抽出され得る。また、ステップS202の処理で算出される彩度が生体の特徴と一致すると判定された場合でも、輝点716の色相は、臓器711等と異なる場合がある。この場合、輝点716は、色相が生体の特徴と一致しないとして妨害候補領域として抽出され得る。以上のように、例えば画像710に対して上述の妨害候補領域抽出処理を行うと、鉗子712及び輝点716等が妨害候補領域として抽出され得る。抽出された妨害候補領域データ720の模式図を図6に示す。図6において、白抜きの領域が抽出された妨害候補領域を示す。すなわち、妨害候補領域データ720には、鉗子712に対応する第1の領域722と、輝点716に対応する第2の領域726とを表す情報が含まれる。
 なお、ここでは、彩度情報と色相情報とを用いて妨害候補領域を抽出する例を示したが、これに限らない。彩度情報と色相情報とのうち何れか一方を用いて妨害候補領域が抽出されてもよい。また、彩度情報又は色相情報以外の色に係る特徴を用いて妨害候補領域が抽出されてもよい。また、色以外の観察対象と妨害領域とで異なる値を示す画像の特徴を用いて妨害候補領域が抽出されてもよい。
 図3に戻って説明を続ける。本実施形態では、鉗子712に対応する第1の領域722の内部については輝度を低下させる補正を行い、輝点716に対応する第2の領域726については補正を行わない。このため、以降の処理で第1の領域722と第2の領域726とを区別する必要がある。
 ステップS105において、ラベリング部132は、妨害候補領域抽出処理で抽出された各妨害候補領域に対してラベル付けを行うラベリング処理を実行する。ラベリング処理において、ラベリング部132は、まず1画素以上の領域を順に設定する。設定した領域が妨害候補領域であり、当該領域の周囲8近傍内にラベル付けされた領域が存在しない場合、設定した領域に対して新しい番号のラベル付けを行う。設定した領域が妨害候補領域であり、当該領域の8近傍内に既にラベル付けされた領域が存在した場合、既に存在するラベルと同じ番号をラベル付けする。妨害候補領域以外には、ラベル付けは行われない。ここで説明した方法は、ラベリング処理の一例であり、ラベル付けは、一般に用いられている種々の方法を含めて他のどのような方法によって行われてもよい。
 一例として、図6に示す妨害候補領域データに対して行ったラベリング処理の結果を図7に示す。図7に示すように、ラベリングデータ730において、鉗子712に対応する第1の領域722には、ラベル「1」が付され、輝点716に対応する第2の領域726には、ラベル「2」「3」「4」が付される。
 ステップS106において、妨害領域選択部133は、画像保存部120に保存された画像データと、ラベリング部132で処理されたラベリングデータとに基づいて、妨害領域を選択する妨害領域選択処理を行う。図2に示すように、一般的に、鉗子410等の処置具は内視鏡200の挿入部240の撮像光学系220における画角の外側から、組織422に向かって挿入される。そのため、図5において、鉗子712は画像端が最も内視鏡200の撮像光学系220と近く、立体視不可能となる可能性が高い。また、鉗子712は画像端が最も照明部230に近いために輝度が高くなり、目を引きやすくなる。本実施形態では、鉗子712のように内視鏡200と近接する領域を妨害領域として抽出するために、妨害候補領域のうち画像710の周縁から画像710の内部へと延びる領域が妨害領域として選択される。すなわち、妨害候補領域に係る位置情報に基づいて妨害領域が選択される。妨害領域選択処理について図8を参照して説明する。
 ステップS301において、妨害領域選択部133は、ステップS302乃至ステップS306の処理の対象となるラベルを選択する。例えば、図7に示す例では、ラベル1乃至4が順に選択される。
 ステップS302において、妨害領域選択部133は、対象とするラベルの領域内の画素のうち、x座標の最小値minXとy座標の最小値minYとを決定する。minXは、例えば画像内において当該ラベルの領域のうち最も左側の画素を示す。minYは、例えば画像内において当該ラベルの領域のうち最も上側の画素を示す。
 ステップS303において、妨害領域選択部133は、minX≠0かつminY≠0であるか否かを判定する。minXが0であるとき、当該ラベルの領域が画像710の左端に接していることを示す。minYが0であるとき、当該ラベルの領域が画像710の上端に接していることを示す。minX=0又はminY=0であるとき、処理は後述するステップS306に進む。一方、minX≠0かつminY≠0であるとき、処理はステップS304に進む。
 ステップS304において、妨害領域選択部133は、対象とするラベルの領域内の画素のうち、x座標の最大値maxXとy座標の最大値maxYとを決定する。maxXは、例えば画像内において当該ラベルの領域のうち最も右側の画素を示す。maxYは、例えば画像内において当該ラベルの領域のうち最も下側の画素を示す。
 ステップS305において、妨害領域選択部133は、maxX≠画像710の幅かつminY≠画像710の高さであるか否かを判定する。maxXが画像710の幅であるとき、当該ラベルの領域が画像710の右端に接していることを示す。maxYが画像710の高さであるとき、当該ラベルの領域が画像710の下端に接していることを示す。maxX=画像710の幅又はmaxY=画像710の高さであるとき、処理はステップS306に進む。一方、maxX≠画像710の幅かつminY≠画像710の高さであるとき、処理はステップS307に進む。
 ステップS306において、妨害領域選択部133は、当該ラベルに係る妨害候補領域を妨害領域として選択する。その後、処理はステップS307に進む。すなわち、妨害候補領域が画像710の端部に接しているとき、当該領域が妨害領域として選択される。
 ステップS307において、妨害領域選択部133は、全てのラベルについて、上述の処理が終了したか否かを判定する。全てのラベルの処理が終了していないとき、処理はステップS301に戻る。一方、全てのラベルの処理が終了しているとき、妨害領域選択処理は終了し、処理は画像処理に戻る。
 妨害領域選択処理によって作成された妨害領域データの模式図を図9に示す。妨害領域データ740には、鉗子712に対応する領域742のみが選択されている。
 図3に戻って説明を続ける。ステップS107において、妨害領域補正部140は、妨害領域補正処理を行う。すなわち、妨害領域補正部140は、画像保存部120から処理対象とする画像のデータを取得し、妨害領域選択部133から妨害領域を示す妨害領域データを取得する。妨害領域補正部140は、画像において妨害領域に対応する画素を決定し、当該画素について画像の輝度値を低下させる補正処理を行う。
 輝度値を低下させる量は、テーブルなどに保存されていてもよいし、輝度値に応じて算出してもよい。例えば、妨害領域内にある画素の輝度の最大値が3分の2以下になるように輝度値を低下させることが好ましいこともある。輝度値の調整は、例えばγ補正によって行われてもよい。
 補正処理で妨害領域について輝度値が低下すると、例えば鉗子712に生体の映り込みがある場合等で色の知覚が強まることがある。そこで、妨害領域に係る画素について、輝度値の抑制量に例えば比例させて彩度を低下させる補正処理も併せて行われてもよい。このように、画像において妨害領域を目立たなくさせる補正処理が行われる。その結果、処理後の画像では、画像を見たときの妨害感が減少する。
 ステップS108において、画像処理装置100は、画像保存部120に保存された左画像と右画像とが共に処理されたか否かを判定する。共に処理されているとき、処理はステップS109に進み、それ以外の場合は、処理はステップS103に戻る。
 ステップS109において、表示画像生成部150は、補正処理後の画像データを取得し、3次元表示のための画像処理を含む表示のためのその他の画像処理を行い、表示画像を生成する。表示画像生成部150は、生成した表示画像のデータをディスプレイ300へと出力し、ディスプレイ300に表示画像を表示させる。
 本実施形態に係る画像処理を行わない場合の第1の画像750の例を図10Aに示し、画像処理を行った場合の第2の画像760の例を図10Bに示す。図10Aに示す第1の画像750では鉗子751が白飛びしているのに対して、図10Bに示す第2の画像760では鉗子761の輝度が抑制されている。一方、第1の画像750において、生体755に表れている輝点756は、第2の画像760においても生体765に表れている輝点766として維持されている。
 〈内視鏡システムの特長〉
 本実施形態に係る内視鏡システム1によれば、例えば鉗子といた画面の外部から入って来る処置具の高輝度領域などの妨害領域の輝度が抑制される。その結果、ユーザが感じる不快感は低減する。
 [変形例]
 左画像770の模式図を図11Aに示し、対応する右画像780の模式図を図11Bに示す。一般に、一対をなす左画像770と右画像780とでは、視野が異なる。このため、左画像770には、左画像770には写っており右画像780には写っていない第1の非対応領域779が含まれる。同様に、右画像780には、右画像780には写っており左画像770には写っていない第2の非対応領域789が含まれる。
 第1の非対応領域779及び第2の非対応領域789は、立体視が不可能となる領域であり、第1の非対応領域779及び第2の非対応領域789が目立つと、ユーザは不快感を覚える。そこで、妨害領域設定部130は、上述の実施形態に係る妨害領域に加えて、又は、上述の実施形態に係る妨害領域に代えて、第1の非対応領域779及び第2の非対応領域789を妨害領域として設定してもよい。すなわち、妨害領域設定部130は、3次元内視鏡が用いられて撮影された一対の画像のうち、一方の画像にのみ写っている領域を含む妨害領域を画像上に設定してもよい。その結果、妨害領域補正部140は、上述の実施形態において妨害領域に施す画像処理と同様の画像処理を、第1の非対応領域779及び第2の非対応領域789に対して施すことになる。このようにすれば、ユーザの視線は非対応領域に向きにくくなり、ユーザが覚える不快感は低減する。
 また、妨害領域設定部130は、上述の実施形態のようにして選択された妨害領域のうち非対応領域に含まれる範囲を妨害領域として設定し、妨害領域補正部140は当該領域に対して補正を行ってもよい。
 また、上述の実施形態では、鉗子712の全体が妨害領域として設定される例を示したが、これに限らない。例えば、妨害領域設定部130は、鉗子712のうち、輝度が所定の値よりも高い領域を妨害領域として設定してもよい。
 このように、上述の実施形態で示した妨害領域は一例であり、妨害領域は、ユーザにとって不快感等を与える種々の領域であり得る。
 [第2の実施形態]
 第2の実施形態について説明する。ここでは、第1の実施形態との相違点について説明し、同一の部分については、同一の符号を付してその説明を省略する。第1の実施形態では、妨害領域は画像710の端部に接していることを手がかりとして決定されている。しかしながらこの方法では、輝点716が画像710の端部に接して存在する場合、当該輝点716が妨害領域として抽出されるおそれがある。そこで、本実施形態では、処置具の領域がより安定的に選択されるように、次のように妨害領域が決定される。すなわち、一般的な処置具は柄の部分が円柱状になっているものが多いため、処置具の柄では輝度が広く分布する。一方、生体の輝点では輝度の分布は偏りが大きい。本実施形態では、ラベル内の輝度分布及びラベルのサイズを用いて妨害領域を決定する。本実施形態に係る妨害領域選択処理を図12A及び図12Bに示すフローチャートを参照して説明する。
 本実施形態に係る妨害領域選択処理において、ステップS401乃至ステップS406の処理は、第1の実施形態に係る妨害領域処理のステップS301乃至ステップS306と同様である。簡単に説明すると、ステップS401において、妨害領域選択部133は、以降の処理の対象となるラベルを選択する。ステップS402において、妨害領域選択部133は、対象とするラベルの領域内の画素のうち、x座標の最小値minXとy座標の最小値minYとを決定する。ステップS403において、妨害領域選択部133は、minX≠0かつminY≠0であるか否かを判定する。minX=0又はminY=0であるとき、処理は後述するステップS406に進む。一方、minX≠0かつminY≠0であるとき、処理はステップS404に進む。ステップS404において、妨害領域選択部133は、対象とするラベルの領域内の画素のうち、x座標の最大値maxXとy座標の最大値maxYとを決定する。ステップS405において、妨害領域選択部133は、maxX≠画像710の幅かつminY≠画像710の高さであるか否かを判定する。maxX=画像710の幅又はmaxY=画像710の高さであるとき、処理はステップS406に進む。一方、maxX≠画像710の幅かつminY≠画像710の高さであるとき、処理はステップS413に進む。ステップS406において、妨害領域選択部133は、当該ラベルに係る妨害候補領域を妨害領域として選択する。その後、処理はステップS407に進む。すなわち、妨害候補領域が画像710の端に接しているとき、当該領域が妨害領域として選択され、処理はステップS407に進む。
 ステップS407乃至ステップ409の処理は、ラベル内の輝度分布を用いて生体の輝点716を示す領域を抽出する処理である。妨害候補領域として抽出される輝点716の領域内では、輝度値が飽和している領域が多く存在する。一方で、一般的な処置具は柄の部分が円柱状になっているものが多いため、輝度値の分布は広くなる。したがって、輝度値の分布に着目し、生体の輝点716を妨害領域から除外する。
 ステップS407において、妨害領域選択部133は、ラベル内の各領域において輝度値を算出する。ここで、各領域とは例えば1画素以上の矩形領域である。なお、領域は矩形でなくてもよい。また、輝度値は、例えばRGB信号に基づいて作成される輝度信号値であってもよい。
 ステップS408において、妨害領域選択部133は、最大輝度値を持つ領域がラベル内で占める割合を算出する。ここで、最大輝度値を持つ領域がラベル内で占める割合とは、最大輝度値又は最大輝度値と比較して所定の範囲内の輝度値を持つ領域の数をラベル内の領域数で除した値である。最大輝度値又は最大輝度値と比較して所定の範囲内の輝度値を持つ領域がラベル内で占める割合に代えて、輝度の飽和値又は飽和値と比較して所定の範囲内の輝度値を持つ領域がラベル内で占める割合が用いられてもよい。また、他の所定の輝度値を持つ領域がラベル内で占める割合が用いられてもよい。例えば、輝度のヒストグラムに基づいて所定の閾値が決定され、当該閾値以上の輝度を持つ領域がラベル内で占める割合が用いられてもよい。
 ステップS409において、妨害領域選択部133は、算出された最大輝度値を持つ領域のラベル内での割合に対して閾値判定を行う。すなわち、妨害領域選択部133は、割合が所定の閾値以下であるか否かを判定する。ここで用いられる閾値は、これに限らないが例えば70%程度であることが好ましい。最大輝度値を持つ領域のラベル内での割合が閾値より大きいとき、処理はステップS412に進み、当該領域は妨害領域から除外される。一方、割合が閾値以下であるとき、処理はステップS410に進む。
 ステップS410乃至ステップS411の処理は、ラベルのサイズを用いて生体の輝点716を示す領域を抽出する処理である。妨害候補領域として抽出される輝点716には、非常に小さい輝点が存在する。非常に小さい輝点716では、最大輝度値を持つ領域のラベル内での割合が小さくなるため、輝度分布に基づいては生体の輝点716が正しく選択されない。そこで、ラベルのサイズに着目し、非常に小さい生体の輝点716を妨害領域から除外する。
 ステップS410において、妨害領域選択部133は、同一ラベル内の画素数を算出する。ステップS411において、妨害領域選択部133は、同一ラベル内の画素数が所定の閾値以下であるか否かを判定する。ここで、閾値は、これに限らないが例えば、ハイビジョン画像に対して100画素程度であってもよい。同一ラベル内の画素数が所定の閾値以下であるとき、処理はステップS412に進む。ステップS412において、妨害領域選択部133は、妨害領域として選択された対象のうち、上述の判定で輝点716などであると判定されたラベルの領域を妨害領域から除外し、当該領域は妨害領域ではないと決定する。その後、処理はステップS413に進む。
 ステップS411で画素数が閾値以下でないと判定されたとき、処理はステップS413に進む。すなわち、妨害領域と選択され対象とされているラベルは、妨害領域から除外されず、妨害領域であると決定される。
 ステップS413において、妨害領域選択部133は、全てのラベルについて、上述の処理が終了したか否かを判定する。全てのラベルの処理が終了していないとき、処理はステップS401に戻る。一方、全てのラベルの処理が終了しているとき、妨害領域選択処理は終了し、処理は画像処理に戻る。
 本実施形態に係る妨害領域選択処理によれば、第1の実施形態に係る妨害領域選択処理と比較してより高い精度で妨害領域が選択され得る。
 なお、本実施形態も当然に上述の変形例と組み合わせて用いられ得る。
 [変形例]
 上述の2つの実施形態では、内視鏡200は、3D内視鏡であるものとして説明したが、本実施形態に係る技術は、3D内視鏡に限らず、撮像系が1つである2次元の内視鏡に対しても広く同様に適用され得る。
 また、上述の2つの実施形態及び変形例では、内視鏡200が医療用の硬性鏡の場合を例に挙げて説明したが、医療用の軟性内視鏡に対しても同様に適用され得る。また、内視鏡200は医療用の内視鏡に限らず、工業用内視鏡にも適用され得る。この場合、観察対象と工業用内視鏡と共に用いられる器具とが画像上で色等の特徴に基づいて区別されるような状態で用いられ得る。
 以上、各実施形態で説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムを用いて実現され得る。このプログラムは、FPGA等の回路に実装され得る。また、CPU等において動作する場合、プログラムは、例えば記録媒体や記録部に収められてもよい。この記録媒体又は記録部への記録の方法は様々であり、製品出荷時に記録されてもよく、配布された記録媒体が利用されて記録されてもよく、インターネットを介したダウンロードが利用されてもよい。
 また、画像処理における例えば妨害候補領域の抽出、妨害領域の選択等、各種判定の方法についても上述の実施形態は一例であり、これらについても様々な方法が採用され得る。ここで、各種判定の方法において、上述の実施形態のような閾値等に基づく単純な判断に限らず、例えば、ディープラーニングといった機械学習により構築した人工知能などに基づく判断が用いられてもよい。
 また、各実施形態に係る画像処理装置は、内視鏡に限らず、顕微鏡、検査用等の産業用機器、各種医療用の観察装置等にも適用され得る。

Claims (9)

  1.  内視鏡を用いて撮影された画像を取得する画像取得部と、
     前記画像において観察対象とは異なる特徴を有する妨害領域を前記画像上に設定する妨害領域設定部と、
     前記妨害領域の輝度を抑制することを含む補正を前記画像に対して施す妨害領域補正部と
     を備える内視鏡のための画像処理装置。
  2.  前記妨害領域設定部は、
      前記観察対象とは異なる特徴に基づいて妨害候補領域を抽出する妨害候補領域抽出部と、
      前記画像における前記妨害候補領域の位置情報に基づいて前記妨害候補領域から前記妨害領域を選択する妨害領域選択部と
     を備える、請求項1に記載の画像処理装置。
  3.  前記妨害領域選択部は、前記画像の端部に接している前記妨害候補領域を前記妨害領域として選択する、請求項2に記載の画像処理装置。
  4.  前記妨害候補領域抽出部は、前記観察対象とは異なる特徴として色に係る特徴に基づいて、前記妨害候補領域を設定する、請求項2に記載の画像処理装置。
  5.  前記妨害候補領域抽出部は、前記色に係る特徴として、彩度情報と色相情報とのうち少なくとも何れか一方を用いる、請求項4に記載の画像処理装置。
  6.  前記妨害領域選択部は、前記妨害候補領域における輝度分布と前記妨害候補領域のサイズとのうち少なくとも何れか一方を用いて前記妨害領域を選択する、請求項3に記載の画像処理装置。
  7.  前記妨害領域補正部は、さらに前記妨害領域の彩度を抑制することを含む前記補正を前記画像に対して施す、請求項1乃至6のうち何れか1項に記載の画像処理装置。
  8.  前記画像取得部は、前記内視鏡として3次元内視鏡が用いられて撮影された一対の画像を取得し、
     前記妨害領域設定部は、一対の画像のうち、一方の画像にのみ写っている領域を含む前記妨害領域を前記画像上に設定する、
     請求項1乃至7のうち何れか1項に記載の画像処理装置。
  9.  請求項1乃至8のうち何れか1項に記載の画像処理装置と、
     前記内視鏡と
     を備える内視鏡システム。
PCT/JP2017/006645 2017-02-22 2017-02-22 内視鏡のための画像処理装置及び内視鏡システム WO2018154661A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2017/006645 WO2018154661A1 (ja) 2017-02-22 2017-02-22 内視鏡のための画像処理装置及び内視鏡システム
US16/545,280 US11045071B2 (en) 2017-02-22 2019-08-20 Image processing apparatus for endoscope and endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/006645 WO2018154661A1 (ja) 2017-02-22 2017-02-22 内視鏡のための画像処理装置及び内視鏡システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/545,280 Continuation US11045071B2 (en) 2017-02-22 2019-08-20 Image processing apparatus for endoscope and endoscope system

Publications (1)

Publication Number Publication Date
WO2018154661A1 true WO2018154661A1 (ja) 2018-08-30

Family

ID=63253573

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/006645 WO2018154661A1 (ja) 2017-02-22 2017-02-22 内視鏡のための画像処理装置及び内視鏡システム

Country Status (2)

Country Link
US (1) US11045071B2 (ja)
WO (1) WO2018154661A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB202201997D0 (en) 2022-02-15 2022-03-30 King S College London Cells and methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016059983A1 (ja) * 2014-10-14 2016-04-21 オリンパス株式会社 撮像システム
WO2016114155A1 (ja) * 2015-01-13 2016-07-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び、内視鏡システム
WO2016181781A1 (ja) * 2015-05-14 2016-11-17 オリンパス株式会社 内視鏡装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5865606B2 (ja) * 2011-05-27 2016-02-17 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
JP5363680B2 (ja) * 2011-09-22 2013-12-11 オリンパスメディカルシステムズ株式会社 医療機器
JP2014064657A (ja) 2012-09-25 2014-04-17 Canon Inc 立体内視鏡装置
JP2014073143A (ja) * 2012-10-02 2014-04-24 Canon Inc 内視鏡システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016059983A1 (ja) * 2014-10-14 2016-04-21 オリンパス株式会社 撮像システム
WO2016114155A1 (ja) * 2015-01-13 2016-07-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び、内視鏡システム
WO2016181781A1 (ja) * 2015-05-14 2016-11-17 オリンパス株式会社 内視鏡装置

Also Published As

Publication number Publication date
US20190374087A1 (en) 2019-12-12
US11045071B2 (en) 2021-06-29

Similar Documents

Publication Publication Date Title
US10614555B2 (en) Correction processing of a surgical site image
JP7074065B2 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
US20170366773A1 (en) Projection in endoscopic medical imaging
US10694933B2 (en) Image processing apparatus and image processing method for image display including determining position of superimposed zoomed image
US11030745B2 (en) Image processing apparatus for endoscope and endoscope system
CN110099599B (zh) 医学图像处理设备、医学图像处理方法和程序
JP2015531271A (ja) 外科用画像処理システム、外科用画像処理方法、プログラム、コンピュータ可読記録媒体、医用画像処理装置、および画像処理検査装置
US9635343B2 (en) Stereoscopic endoscopic image processing apparatus
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2016136700A1 (ja) 画像処理装置
WO2019130868A1 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
JP2023164610A (ja) 画像処理装置、画像処理方法および画像処理システム
WO2020067100A1 (ja) 医用画像処理装置、プロセッサ装置、医用画像処理方法、及びプログラム
US20240188790A1 (en) Medical display controlling apparatus and display controlling method
JP2021045337A (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
CN109152520A (zh) 图像信号处理装置、图像信号处理方法以及图像信号处理程序
US11045071B2 (en) Image processing apparatus for endoscope and endoscope system
US20140088353A1 (en) Stereo endoscope apparatus and image processing method in stereo endoscope apparatus
CN110678116B (zh) 医疗系统和控制单元
JP6458205B1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2019048492A1 (en) IMAGING DEVICE, METHOD AND PROGRAM FOR PRODUCING IMAGES OF A SCENE
US20220142454A1 (en) Image processing system, image processing device, and image processing method
US20200037865A1 (en) Image processing device, image processing system, and image processing method
JP6663692B2 (ja) 画像処理装置、内視鏡システム、及び画像処理装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17897956

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17897956

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP