Nothing Special   »   [go: up one dir, main page]

WO2023175986A1 - 内視鏡挿入支援システム、内視鏡挿入支援方法および記憶媒体 - Google Patents

内視鏡挿入支援システム、内視鏡挿入支援方法および記憶媒体 Download PDF

Info

Publication number
WO2023175986A1
WO2023175986A1 PCT/JP2022/012902 JP2022012902W WO2023175986A1 WO 2023175986 A1 WO2023175986 A1 WO 2023175986A1 JP 2022012902 W JP2022012902 W JP 2022012902W WO 2023175986 A1 WO2023175986 A1 WO 2023175986A1
Authority
WO
WIPO (PCT)
Prior art keywords
shape
endoscope
category
situation
support system
Prior art date
Application number
PCT/JP2022/012902
Other languages
English (en)
French (fr)
Inventor
尚希 深津
浩正 藤田
憲輔 三宅
Original Assignee
オリンパスメディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパスメディカルシステムズ株式会社 filed Critical オリンパスメディカルシステムズ株式会社
Priority to PCT/JP2022/012902 priority Critical patent/WO2023175986A1/ja
Priority to JP2024507480A priority patent/JPWO2023175986A5/ja
Priority to CN202280093524.2A priority patent/CN118871024A/zh
Publication of WO2023175986A1 publication Critical patent/WO2023175986A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Definitions

  • the present disclosure relates to an endoscope insertion support system, an endoscope insertion support method, and a storage medium that support insertion of an endoscope.
  • endoscope control devices In colonoscopy, endoscope control devices are known that use AI to classify the shape of the insertion section of the colonoscope and control the insertion of the colonoscope according to the classification results (for example, patented (See Reference 1).
  • the present disclosure has been made in view of these circumstances, and its purpose is to provide a technology that can recognize the insertion status of an endoscope with high accuracy.
  • an endoscope insertion support system is an endoscope insertion support system, and includes one or more processors having hardware.
  • the processor acquires shape information of the endoscope insertion section during endoscopy, inputs the shape information into the insertion situation learning model according to predetermined conditions, and calculates the shape of the endoscope insertion section from the insertion situation learning model. obtaining an insertion situation category that categorizes the insertion situation of the endoscope, and applying the shape information to a predetermined shape category determination logic to obtain an insertion shape category that categorizes the insertion shape of the endoscope insertion section. Execute one.
  • Another aspect of the present invention is an endoscope insertion support method.
  • This method involves acquiring the shape information of the endoscope insertion section during endoscopy, inputting the shape information into the insertion situation learning model according to predetermined conditions, and using the insertion situation learning model to Obtain an insertion status category that categorizes the insertion status of the endoscope insertion section, and apply shape information to a predetermined shape category determination logic to obtain an insertion shape category that categorizes the insertion shape of the endoscope insertion section. , and executing at least one of the following.
  • FIG. 1 is a diagram showing an overall system configuration related to colonoscopy according to an embodiment.
  • FIG. It is a figure showing an example of the endoscope used in this embodiment.
  • 1 is a diagram showing a configuration example of an endoscope insertion support system according to Embodiment 1.
  • FIG. It is a diagram showing the state of colonoscopy.
  • FIG. 3 is a diagram showing an example of a screen displayed on a display device during an endoscopy.
  • FIGS. 6A and 6B are diagrams for explaining an example of the determination logic used in the shape determination section.
  • FIGS. 7A and 7B are diagrams for explaining correction example 1 of the insertion status category.
  • FIGS. 8A and 8B are diagrams for explaining example 2 of correction of the insertion status category.
  • FIG. 3 is a flowchart illustrating an example of the operation of the endoscope insertion support system according to the first embodiment.
  • FIG. 3 is a diagram illustrating a configuration example of an endoscope insertion support system according to a second embodiment.
  • FIGS. 11(a) and 11(b) are diagrams showing an example of the shape of the endoscope before and after changing the body position.
  • 7 is a flowchart illustrating an operation example of the endoscope insertion support system according to Embodiment 2.
  • FIG. FIG. 7 is a diagram illustrating a configuration example of an endoscope insertion support system according to a third embodiment.
  • 12 is a flowchart illustrating an example of the operation of the endoscope insertion support system according to Embodiment 3.
  • FIG. 3 is a flowchart illustrating an example of the operation of the endoscope insertion support system according to the first embodiment.
  • FIG. 3 is a diagram illustrating a configuration example of an endoscope insertion support system according to a
  • FIG. 7 is a diagram illustrating a configuration example of an endoscope insertion support system according to a fourth embodiment. 12 is a flowchart illustrating an example of the operation of the endoscope insertion support system according to Embodiment 4.
  • FIG. 7 is a diagram illustrating a configuration example of an endoscope insertion support system according to a fifth embodiment.
  • This embodiment relates to colonoscopy.
  • Very advanced technology is required to perform high-quality colonoscopies that place less burden on patients.
  • AI is used to recognize the shape of the endoscope insertion section inside the body and determine the optimal operating method for that insertion situation.
  • a system is being developed. If the AI in this system incorrectly recognizes the insertion status of the endoscope, it may present the wrong operating method to the doctor or send incorrect operating information to the control system of the automatic insertion device. It leads to
  • this embodiment does not directly adopt the judgment results of one AI, but rather combines the shape recognition results based on logic or the judgment results of other AIs to determine the insertion status. Introduce a mechanism to reduce misrecognition.
  • FIG. 1 is a diagram showing the overall system configuration related to colonoscopy according to an embodiment.
  • an endoscope system 10 an endoscope 11, a light source device 15, an endoscope position detection unit (UPD) 20, an endoscope insertion support system 30, a display device 41, An input device 42 and a storage device 43 are used.
  • the endoscope 11 according to the present embodiment is a colonoscope inserted into the large intestine of a subject (patient).
  • the endoscope 11 includes a lens and a solid-state image sensor (for example, a CMOS image sensor, a CCD image sensor, or a CMD image sensor).
  • the solid-state image sensor converts the light focused by the lens into an electrical signal, and outputs it to the endoscope system 10 as an endoscopic image (electrical signal).
  • Endoscope 11 includes a forceps channel. An operator (doctor) can perform various treatments during an endoscopy by passing a treatment tool through the forceps channel.
  • the light source device 15 includes a light source such as a xenon lamp, and supplies observation light (white light, narrowband light, fluorescence, near-infrared light, etc.) to the distal end of the endoscope 11.
  • the light source device 15 also has a built-in pump that sends water and air to the endoscope 11.
  • the endoscope system 10 controls the light source device 15 and processes endoscopic images input from the endoscope 11.
  • the endoscope system 10 can perform, for example, Narrow Band Imaging (NBI), Red Dichromatic Imaging (RDI), Texture and Color Enhancement Imaging (TXI), and Extended Depth of Field (TXI). It is equipped with functions such as EDOF (Extended Depth of Field).
  • Narrow Band Imaging Narrow Band Imaging
  • RDI Red Dichromatic Imaging
  • TXI Texture and Color Enhancement Imaging
  • TXI Texture and Color Enhancement Imaging
  • TXI Extended Depth of Field
  • EDOF Extended Depth of Field
  • Narrowband light observation uses specific wavelengths of violet (415 nm) and green (540 nm), which are strongly absorbed by hemoglobin in the blood, to highlight capillaries and microstructures in the surface layer of the mucous membrane. A mirror image can be obtained.
  • violet 415 nm
  • green 540 nm
  • Structural color enhancement generates an endoscopic image in which the three elements of the mucosal surface, ⁇ structure,'' ⁇ tone,'' and ⁇ brightness,'' are optimized under normal light observation.
  • the endoscope system 10 uses an endoscopic image obtained by processing an endoscopic image input from the endoscope 11, or an endoscopic image input from the endoscope 11 as it is, and transfers it to the endoscope insertion support system 30. Output to.
  • the endoscope insertion shape observation device 20 is a device for observing the three-dimensional shape of the endoscope 11 inserted into the lumen of the subject.
  • a receiving antenna 20a is connected to the endoscope insertion shape observation device 20.
  • the receiving antenna 20a is an antenna for detecting a magnetic field generated by a plurality of magnetic coils built into the endoscope 11.
  • FIG. 2 is a diagram showing an example of the endoscope 11 used in this embodiment.
  • the endoscope 11 has an elongated tubular insertion section 11a made of a flexible member, and an operation section 11e connected to the proximal end of the insertion section 11a.
  • the insertion portion 11a has, from the distal end side to the proximal end side, a hard distal end portion 11b, a curved portion 11c, and a flexible tube portion 11d.
  • the proximal end of the rigid tip portion 11b is connected to the distal end of the curved portion 11c, and the proximal end of the curved portion 11c is connected to the proximal end of the flexible tube portion 11d.
  • the operating part 11e has a main body part 11f from which a flexible tube part 11d extends, and a grip part 11g connected to the base end of the main body part 11f.
  • the grip portion 11g is gripped by the operator.
  • a universal cord including an imaging electric cable, a light guide, etc. extending from inside the insertion section 11a extends from the operation section 11e, and is connected to the endoscope system 10 and the light source device 15.
  • the rigid tip portion 11b is the tip of the insertion portion 11a and is also the tip of the endoscope 11.
  • a solid-state image sensor, an illumination optical system, an observation optical system, and the like are built into the rigid tip portion 11b. Illumination light emitted from the light source device 15 is propagated along the light guide to the distal end surface of the rigid distal end portion 11b, and is irradiated from the distal end surface of the rigid distal end portion 11b toward an observation target within the lumen.
  • the curved portion 11c is constructed by connecting node rings along the longitudinal axis direction of the insertion portion 11a.
  • the curved portion 11c is curved in a desired direction in response to the operator's operation input to the operating portion 11e, and the position and orientation of the rigid distal end portion 11b are changed in accordance with the curvature.
  • the flexible tube portion 11d is a tubular member extending from the main body portion 11f of the operating portion 11e, has desired flexibility, and is bent by external force. The operator inserts the insertion section 11a into the large intestine of the subject while bending the bending section 11c and twisting the flexible tube section 11d.
  • a plurality of magnetic coils 12 are arranged inside the insertion portion 11a at predetermined intervals (for example, 10 cm intervals) along the longitudinal direction. Each magnetic coil 12 generates a magnetic field when supplied with current.
  • the plurality of magnetic coils 12 function as a position sensor for detecting each position of the insertion portion 11a.
  • the receiving antenna 20a receives magnetic fields transmitted from a plurality of magnetic coils 12 built into the insertion section 11a of the endoscope 11, and outputs the magnetic fields to the endoscope insertion shape observation device 20.
  • the endoscope insertion shape observation device 20 applies the magnetic field strength of each of the plurality of magnetic coils 12 received by the receiving antenna 20a to a predetermined position detection algorithm, and determines the three-dimensional position of each of the plurality of magnetic coils 12. Estimate.
  • the endoscope insertion shape observation device 20 generates a three-dimensional endoscope shape of the insertion portion 11a of the endoscope 11 by performing curve interpolation on the estimated three-dimensional positions of the plurality of magnetic coils 12.
  • the reference plate 20b is attached to the subject (for example, the abdomen of the subject).
  • a body position sensor for detecting the body position of the subject is arranged on the reference plate 20b.
  • a three-axis acceleration sensor or a gyro sensor can be used as the body position sensor.
  • the reference plate 20b is connected to the endoscope insertion shape observation device 20 by a cable, and the reference plate 20b internally collects three-dimensional posture information indicating the posture of the reference plate 20b (that is, the posture of the subject). It is output to the mirror insertion shape observation device 20.
  • a plurality of magnetic coils similar to the plurality of magnetic coils 12 built into the insertion section 11a of the endoscope 11 may be used as the body position sensor disposed on the reference plate 20b.
  • the receiving antenna 20a receives the magnetic field transmitted from the plurality of magnetic coils arranged on the reference plate 20b, and outputs it to the endoscope insertion shape observation device 20.
  • the endoscope insertion shape observation device 20 applies the magnetic field strength of each of the plurality of magnetic coils received by the receiving antenna 20a to a predetermined attitude detection algorithm to determine the attitude of the reference plate 20b (i.e., the attitude of the subject). ) is generated.
  • the endoscope insertion shape observation device 20 changes the generated three-dimensional endoscope shape to follow changes in the three-dimensional posture information. Specifically, the endoscope insertion shape observation device 20 changes the three-dimensional endoscope shape so as to cancel out the change in the three-dimensional posture information. As a result, even if the subject's body position is changed during endoscopy, the endoscope shape is always maintained from a specific viewpoint (for example, the perspective of viewing the subject's abdomen vertically from the front side of the abdomen). can be recognized.
  • a specific viewpoint for example, the perspective of viewing the subject's abdomen vertically from the front side of the abdomen.
  • the endoscope insertion shape observation device 20 measures the insertion length indicating the length of the portion of the endoscope 11 inserted into the large intestine, and the elapsed time since the endoscope 11 was inserted into the large intestine (hereinafter referred to as insertion time). ) can be obtained.
  • the endoscope insertion shape observation device 20 measures the insertion length using the position of the timing at which the operator inputs the examination start operation into the input device 42 as a reference point, and measures the insertion time using the timing as the starting point.
  • the endoscope insertion shape observation device 20 estimates the position of the anus from the generated three-dimensional endoscope shape and the difference in magnetic field strength between the magnetic coil inside the body and the magnetic field coil outside the body, and the estimated anus position.
  • the position may be used as the base point of the insertion length.
  • an encoder may be installed near the anus of the subject.
  • the endoscope insertion shape observation device 20 detects the insertion length based on the anus position based on the signal from the encoder.
  • the endoscope insertion shape observation device 20 adds the insertion length and insertion time to the 3D endoscope shape after body position correction based on the 3D posture information, and outputs the result to the endoscope insertion support system 30.
  • the endoscope insertion support system 30 calculates the shape of the endoscope 11 based on the endoscope image input from the endoscope system 10 and the endoscope shape input from the endoscope insertion shape observation device 20. Generates insertion support information and presents it to the surgeon. Furthermore, the endoscope insertion support system 30 uses the endoscope image inputted from the endoscope system 10 and the endoscope shape inputted from the endoscope insertion shape observation device 20 to Inspection history information is generated and recorded in the storage device 43.
  • the display device 41 includes a liquid crystal monitor or an organic EL monitor, and displays images input from the endoscope insertion support system 30.
  • the input device 42 includes a mouse, a keyboard, a touch panel, etc., and outputs operation information input by a surgeon or the like to the endoscope insertion support system 30.
  • the storage device 43 includes a storage medium such as an HDD or an SSD, and stores endoscopy history information generated by the endoscope insertion support system 30.
  • the storage device 43 may be a dedicated storage device attached to the endoscope system 10, a database in an in-hospital server connected via an in-hospital network, or a database in a cloud server. It may be.
  • FIG. 3 shows a configuration example of the endoscope insertion support system 30 according to the first embodiment.
  • the endoscope insertion support system 30 may be constructed with a processing device dedicated to endoscope insertion support, or may be constructed with a general-purpose server (which may be a cloud server). Furthermore, the endoscope insertion support system 30 may be constructed with any combination of a processing device dedicated to endoscope insertion support, a general-purpose server (which may be a cloud server), and a dedicated image diagnostic device. . Further, the endoscope insertion support system 30 may be constructed integrally with the endoscope system 10.
  • the endoscope insertion support system 30 includes an endoscope shape acquisition section 31, an endoscope image acquisition section 32, an insertion situation estimation section 33, a shape determination section 34, a site estimation section 35, and an insertion support information generation section 36.
  • These components can be realized in terms of hardware by at least one arbitrary processor (e.g., CPU, GPU), memory (e.g., DRAM), or other LSI (e.g., FPGA, ASIC), and can be realized in terms of software. It is realized by programs loaded into memory, but here we depict the functional blocks realized by their cooperation. Therefore, those skilled in the art will understand that these functional blocks can be implemented in various ways using only hardware, only software, or a combination thereof.
  • processor e.g., CPU, GPU
  • memory e.g., DRAM
  • LSI e.g., FPGA, ASIC
  • the endoscope shape acquisition section 31 receives shape information of the insertion section 11a (hereinafter simply referred to as the endoscope insertion section) of the endoscope 11 during endoscopy from the endoscope insertion shape observation device 20. get.
  • the endoscopic image acquisition unit 32 acquires endoscopic images during endoscopic examination from the endoscope system 10.
  • the insertion situation estimation unit 33 has an insertion situation learning model 33a.
  • the insertion situation estimation section 33 inputs the shape information of the endoscope insertion section acquired by the endoscope shape acquisition section 31 into the insertion situation learning model 33a, and calculates the insertion of the endoscope insertion section from the insertion situation learning model 33a. Get the insertion situation category that categorizes the situation.
  • the insertion status of the endoscope insertion section indicates the placement status of the entire endoscope insertion section within the body of the subject.
  • the insertion status category of the endoscope insertion section divides the entire endoscope insertion section into several insertion stages, and displays multiple deformations to determine where and in what shape the endoscope insertion section is placed inside the subject's body. It is classified into different shapes.
  • the insertion situation learning model 33a is generated by machine learning using, as a supervised data set, shape information of a large number of endoscope insertion sections to which the insertion situation category of the endoscope insertion section is annotated.
  • the annotation is provided by an annotator with specialized knowledge such as a doctor.
  • CNN, RNN, LSTM, etc. which are types of deep learning, can be used for machine learning.
  • the data set may be a combination of shape information of a large number of endoscope insertion sections and a large number of endoscopic images, to which the insertion status category of the endoscope insertion section is annotated.
  • the insertion situation estimation unit 33 inputs the shape information of the endoscope insertion portion and the corresponding endoscope image to the insertion situation learning model 33a, and acquires the insertion situation category from the insertion situation learning model 33a.
  • the body part estimation unit 35 has a body part learning model 35a.
  • the region estimating section 35 inputs the endoscopic image acquired by the endoscopic image acquisition section 32 into the region learning model 35a, and acquires the region of the subject reflected in the endoscopic image from the region learning model 35a.
  • the region learning model 35a is generated by machine learning using a large number of endoscopic images to which regions of the large intestine are annotated as a supervised data set.
  • the data set may be a combination of a large number of endoscopic images and a large number of shape information of the endoscope insertion portion, with the parts of the large intestine annotated.
  • the region estimating unit 35 inputs the endoscopic image and the shape information of the corresponding endoscope insertion portion to the region learning model 35a, and acquires the region of the large intestine from the region learning model 35a.
  • the region to be acquired may be a region where the rigid tip portion 11b of the endoscope 11 (hereinafter simply referred to as the endoscope tip portion) is located, or a portion where a plurality of portions of the endoscope insertion portion are located, respectively. It may also be a location where it is located.
  • the plurality of portions of the endoscope insertion portion may each have a magnetic coil 12 installed therein.
  • the parts of the large intestine may be classified into five parts: sigmoid colon, descending colon, transverse colon, ascending colon, and cecum, or into the sigmoid colon or two parts after the sigmoid colon. , may be classified into any other unit.
  • the part estimation unit 35 may invalidate the detected part of the subject. That is, the part estimating unit 35 may provide "Delay" in the part estimation result. "Delay” here is a process in which when the same estimation result is not returned in a predetermined number of frames when switching parts, it is determined that recognition is incorrect.
  • the part estimation unit 35 will detect if the same estimation result is not returned for 60 consecutive frames of endoscopic images in time series. , it is determined to be a misrecognition. Further, when the frame rate of the endoscopic image is 60 Hz, the acquisition rate of the shape information of the endoscope insertion part is 5 Hz, and a 1-second "Delay" is provided, the part estimating unit 35 uses 60 If the same estimation result is not returned from the combination of the endoscopic image of the frame and the shape information of the five corresponding endoscope insertion sections, it is determined that the recognition is incorrect.
  • the shape determination unit 34 has a shape category determination logic 34a.
  • the shape determination section 34 applies the shape information of the endoscope insertion section acquired by the endoscope shape acquisition section 31 to the shape category determination logic 34a, and categorizes the insertion shape of the endoscope insertion section into an insertion shape. Get the category.
  • the shape category determination logic 34a is determination logic (for example, defined by geometric conditions) for geometrically classifying the shape of the endoscope insertion portion, and is determined in advance by the designer.
  • the shape determination unit 34 applies the shape information of the endoscope insertion portion to the shape category determination logic 34a to determine the various loops (inverted letter, N, ⁇ (front and back), reverse ⁇ ( It is possible to determine the presence or absence of a hook in the central part of the transverse colon.
  • the characteristics of the estimation of the insertion situation of the endoscope insertion section by the insertion situation estimation section 33 and the determination of the insertion shape of the endoscope insertion section by the shape determination section 34 will be compared.
  • the insertion situation estimating unit 33 there is a wide range of recognition of the insertion situation. In other words, even if the model does not completely match the model of any insertion situation category, it is applied to the insertion situation category with the highest degree of similarity. Furthermore, it is possible to estimate the insertion status of the endoscope insertion section including the site. Moreover, time series information can also be used.
  • the site can also be specified using time series information.
  • the estimation accuracy by the insertion situation estimation unit 33 depends on the data set to be trained. Estimation accuracy varies depending on the insertion status category.
  • the shape set by the determination logic can be recognized with high accuracy.
  • there is no range in recognizing the insertion shape In other words, if the setting conditions are even slightly deviated from, recognition becomes impossible.
  • the determination by the shape determination unit 34 does not use a learning data set, so there are limits to the conditions that can be set.
  • the estimation accuracy can be improved by correcting the estimation result of the insertion situation category with a small number of learning data sets by the insertion situation estimation unit 33 using the judgment result of the shape judgment unit 34.
  • the result of estimating the part by the part estimating unit 35 which has a "Delay" so as to reduce the occurrence of misrecognition, is combined with the result of estimating the insertion situation by the insertion situation estimating part 33, and the insertion shape by the shape determining part 34.
  • the shape determining unit 34 estimates the correctness of the insertion shape in the parts where the insertion situation estimating unit 33 is weak
  • the part estimating unit 35 estimates the insertion situation.
  • the insertion support information generation unit 36 generates insertion support information based on the insertion status category.
  • the insertion support information generation unit 36 outputs the generated insertion support information to the display device 41 for display.
  • the insertion support information includes information to support the operator in operating the endoscope 11.
  • the insertion support information is linked in advance to each insertion status category.
  • FIG. 4 is a diagram showing the state of colonoscopy.
  • the operator inserts the endoscope 11 into the anus of the subject and performs the endoscopic examination while viewing the endoscopic image captured by the endoscope 11 and insertion support information displayed on the display device 41. .
  • FIG. 5 is a diagram showing an example of a screen displayed on the display device 41 during an endoscopy.
  • An endoscopic image A1 taken by the endoscope 11 is displayed on the right side of the screen, and an endoscope shape B1 is displayed on the left side.
  • a guide C3 indicating the direction of movement of the endoscope 11 is displayed at the upper right of the endoscope image A1, and a guide C1 that recommends a pull operation and a right torque operation is displayed as operation support information below the endoscope image A1.
  • Guide C2 is displayed.
  • FIGS. 6(a) and 6(b) are diagrams for explaining an example of the determination logic used by the shape determination unit 34.
  • the examples shown in FIGS. 6(a) and 6(b) show determination logic for determining whether the endoscope shape B2 is curved to the right or left.
  • FIG. 6(a) shows the parameters of the endoscope shape B2
  • FIG. 6(b) shows the conditional expression of the determination logic.
  • the shape determination unit 34 compares the inner angle ⁇ of the curved portion of the endoscope shape B2 with a threshold value (S341a). If the inner angle ⁇ of the curved portion is equal to or greater than the threshold value (N in S341a), the shape determining unit 34 determines that the endoscope shape B2 does not correspond to the determination logic.
  • a threshold value S341a
  • the shape determination unit 34 compares the x-axis coordinate xa of the apex of the curved portion of the endoscope shape B2 with the x-axis coordinate xb of the tip of the curved portion. (S341b). If the x-axis coordinate xa of the apex of the curved portion is smaller than the x-axis coordinate xb of the tip of the curved portion (Y in S341b), the shape determining unit 34 determines that the endoscope shape is curved to the right.
  • the shape determination unit 34 determines that the endoscope shape is curved to the left.
  • the insertion support information generation section 36 If the insertion shape category included in the insertion situation category output from the insertion situation estimation section 33 and the insertion shape category output from the shape determination section 34 do not match, the insertion support information generation section 36 generates information from the insertion situation estimation section 33. The insertion shape category included in the output insertion status category is corrected to the insertion shape category output from the shape determination unit 34.
  • the insertion support information generating part 36 If the part of the subject included in the insertion situation category output from the insertion situation estimating part 33 and the part of the subject output from the part estimating part 35 do not match, the insertion support information generating part 36 generates an insertion situation estimating part. The part of the subject included in the insertion status category output from 33 is corrected to the part of the subject output from part estimation section 35.
  • FIGS. 7(a) and 7(b) are diagrams for explaining correction example 1 of the insertion status category.
  • 7(a) shows the actual insertion situation of the endoscope insertion portion
  • FIG. 7(b) shows the insertion situation of the endoscope insertion portion estimated by the insertion situation estimation unit 33.
  • the insertion shape B11a of the endoscope insertion part is "table ⁇ loop"
  • the region d11a where the endoscope tip is located is "sigmoid colon”. It is.
  • FIG. 7(a) shows the actual insertion situation of the endoscope insertion part estimated by the insertion situation estimation unit 33.
  • the insertion shape B11b of the endoscope insertion part is the "back ⁇ loop", and the tip of the endoscope is located.
  • the site d11b is the "sigmoid colon.”
  • the site where the tip of the endoscope is located, estimated by the site estimating unit 35, is the "sigmoid colon.”
  • the insertion shape of the endoscope insertion portion determined by the shape determination unit 34 is a “table ⁇ loop”.
  • the site where the endoscope tip estimated by the insertion situation estimating section 33 is located and the site where the endoscope tip estimated by the site estimating section 35 is located match in "sigmoid colon”. Therefore, the insertion support information generation unit 36 determines that the site where the endoscope tip is located is the "sigmoid colon.”
  • the “back ⁇ loop” which is the insertion shape of the endoscope insertion portion estimated by the insertion situation estimation unit 33 is different from the “front ⁇ loop” which is the insertion shape of the endoscope insertion portion determined by the shape determination unit 34. It's different. Since the shape determination unit 34 has higher accuracy in recognizing the shape of the loop, the insertion support information generation unit 36 determines that the “back ⁇ loop” estimated by the insertion situation estimation unit 33 is misrecognized, and performs shape determination. The "table ⁇ loop” determined in section 34 is adopted.
  • the insertion support information generation unit 36 replaces the insertion shape category defined by the “sigmoid colon” and “back ⁇ loop” estimated by the insertion situation estimating unit 33 with the “sigmoid colon” and “front ⁇ loop”. Correct to the insertion shape category specified by.
  • the insertion support information generation unit 36 acquires the insertion support information linked to the corrected insertion status category, and displays an operation guide based on the acquired insertion support information on the display device 41.
  • FIGS. 8(a) and 8(b) are diagrams for explaining correction example 2 of the insertion status category.
  • FIG. 8(a) shows the actual insertion situation of the endoscope insertion portion
  • FIG. 8(b) shows the insertion situation of the endoscope insertion portion estimated by the insertion situation estimation unit 33.
  • the insertion shape B12a of the endoscope insertion part is "no loop, tip curved to the left", and the part d12a where the endoscope tip is located is " the sigmoid colon.
  • FIG. 8(a) shows the actual insertion situation of the endoscope insertion part
  • the insertion shape B12a of the endoscope insertion part is "no loop, tip curved to the left”
  • the part d12a where the endoscope tip is located is " the sigmoid colon.
  • the insertion shape B12b of the endoscope insertion part is "no loop/tip curved to the left", and the endoscope tip is The region d12b where the section is located is the "transverse colon ("splenic curvature" in a more detailed classification)".
  • the site where the tip of the endoscope is located, estimated by the site estimating unit 35, is the "sigmoid colon.”
  • the insertion shape of the endoscope insertion portion determined by the shape determination section 34 is "no loop, tip curved to the left.”
  • the insertion support information generating unit 36 determines that the "transverse colon" estimated by the insertion situation estimating part 33 is misrecognized, and the part estimating part 35 The estimated "sigmoid colon” is adopted.
  • the insertion shape of the endoscope insertion portion estimated by the insertion situation estimating unit 33 and the insertion shape of the endoscope insertion portion determined by the shape determination unit 34 match as “no loop, tip curved to the left”. . Therefore, the insertion support information generation unit 36 determines that the insertion shape of the endoscope insertion section is "no loop, tip curved leftward.”
  • the insertion support information generation unit 36 replaces the insertion shape categories defined by “transverse colon” and “no loops/tip curved to the left” estimated by the insertion situation estimation unit 33 with “sigmoid colon” and “loop”. Correct to the insertion shape category defined by "None/Tip curved to the left.”
  • FIG. 9 is a flowchart showing an example of the operation of the endoscope insertion support system 30 according to the first embodiment.
  • the endoscope image acquisition section 32 acquires an endoscope image from the endoscope system 10
  • the endoscope shape acquisition section 31 acquires shape information of the endoscope insertion section from the endoscope insertion shape observation device 20. (S10).
  • the insertion situation estimation unit 33 inputs the shape information of the endoscope insertion section and the endoscope image to the insertion situation learning model 33a, and acquires the insertion situation category of the endoscope insertion section from the insertion situation learning model 33a ( S20).
  • the part estimating unit 35 inputs the endoscopic image and the shape information of the endoscope insertion part into the part learning model 35a, and acquires the part where the endoscope tip is located from the part learning model 35a (S30).
  • the shape determination unit 34 applies the shape information of the endoscope insertion portion to the shape category determination logic 34a, and acquires the insertion shape category from the shape category determination logic 34a (S40).
  • the processes in steps S20, S30, and S40 may be executed in chronological order or may be executed in parallel.
  • the insertion support information generation unit 36 compares the insertion shape category included in the insertion situation category estimated by the insertion situation estimation unit 33 and the insertion shape category determined by the shape determination unit 34 (S50). If the two do not match (N in S50), the insertion support information generation unit 36 converts the insertion shape category included in the insertion situation category estimated by the insertion situation estimation unit 33 into the insertion shape category determined by the shape determination unit 34. (S60). If the two match (Y in S50), the process in step S60 is skipped.
  • the insertion support information generation unit 36 determines the location of the endoscope tip included in the insertion situation category estimated by the insertion situation estimation unit 33 and the location of the endoscope tip estimated by the site estimation unit 35. The parts are compared (S70). If the two do not match (N in S70), the insertion support information generating unit 36 uses the site estimating unit 35 to select the site where the endoscope tip included in the insertion status category estimated by the insertion status estimating unit 33 is located. The estimated position of the endoscope tip is corrected to the position (S80). If the two match (Y in S70), the process in step S80 is skipped. The insertion support information generation unit 36 acquires the insertion support information linked to the finally determined insertion status category, and displays the acquired insertion support information on the display device 41 (S90).
  • priority information specifying which of the insertion shape categories included in the insertion situation categories estimated by the insertion situation estimating unit 33 and the insertion shape categories determined by the shape determining unit 34 should be prioritized is determined by insertion situation learning.
  • the insertion status category may be assigned in advance to each of a plurality of insertion status categories prepared as estimation results of the model 33a.
  • priority information specifying which of the insertion shape categories included in the insertion situation categories estimated by the insertion situation estimating unit 33 and the insertion shape categories determined by the shape determining unit 34 should be prioritized is used for shape category determination. It may be given in advance to each of a plurality of insertion shape categories prepared as a determination result of the logic 34a.
  • the insertion support information generation unit 36 generates priority information assigned to at least one of the insertion shape category included in the insertion status category estimated by the insertion status estimation unit 33 and the insertion shape category determined by the shape determination unit 34. Based on this, it is determined whether the insertion shape category included in the insertion situation category acquired from the insertion situation learning model 33a is to be corrected to the insertion shape category acquired from the shape category determination logic 34a.
  • the insertion support information generation unit 36 Do not correct shape categories.
  • the insertion support information generation unit 36 selects the insertion shape category included in the insertion situation category acquired from the insertion situation learning model 33a. The insertion shape category is corrected to the inserted shape category obtained from the shape category determination logic 34a.
  • the insertion situation estimation unit 33 When the insertion situation estimating unit 33 inputs the shape information (or the combination of the shape information and the endoscope image) of the endoscope insertion portion into the insertion situation learning model 33a and acquires the insertion situation category, the insertion situation estimation unit 33 inputs the input shape information ( or a combination of shape information and an endoscopic image) and the reliability based on the similarity between the classified insertion status category and the classified insertion status category can be obtained at the same time.
  • the insertion support information generation unit 36 selects the insertion shape categories included in the insertion situation categories acquired from the insertion situation learning model 33a based on the reliability of the insertion situation categories acquired from the insertion situation learning model 33a, using the shape category determination logic 34a. It can be determined whether or not to correct the insertion shape category obtained from the inserted shape category. If the reliability is higher than the threshold, the insertion support information generation unit 36 does not correct the insertion shape category included in the insertion situation category acquired from the insertion situation learning model 33a. On the other hand, if the reliability is less than the threshold, the insertion support information generation unit 36 replaces the insertion shape category included in the insertion situation category acquired from the insertion situation learning model 33a with the insertion shape category acquired from the shape category determination logic 34a. to correct.
  • the shape information of the endoscope insertion section 34 does not satisfy the conditions of any shape category determination logic 34a.
  • the insertion support information generation unit 36 generates information when the shape information of the endoscope insertion portion does not satisfy any of the conditions of the shape category determination logic 34a, and the reliability of the insertion situation category acquired from the insertion situation learning model 33a is less than a threshold value. In this case, it is determined that the insertion shape of the endoscope insertion section cannot be estimated.
  • the insertion support information generation unit 36 does not display the operation guide based on the insertion support information on the display device 41 during a period when the insertion shape of the endoscope insertion section cannot be estimated.
  • the insertion support information generation unit 36 may display a message such as "The insertion status of the endoscope cannot be recognized. Please operate carefully.” on the display device 41.
  • the explanation so far has been based on the assumption that the insertion situation estimation process by the insertion situation estimation unit 33, the insertion shape judgment process by the shape judgment unit 34, and the part estimation process by the part estimation unit 35 are all executed.
  • predetermined conditions it is also possible to omit one of the insertion situation estimation process by the insertion situation estimation section 33 and the insertion shape determination process by the shape determination section 34.
  • the predetermined condition may be a condition determined according to the result of a priority determination that determines which of the outputs of the insertion situation estimating section 33 and the shape determining section 34 should be prioritized.
  • the insertion situation estimation process by the insertion situation estimation unit 33 may be executed before the insertion shape determination process by the shape determination unit 34. If the reliability of the insertion situation category acquired from the insertion situation learning model 33a is higher than the threshold, the insertion shape determination process by the shape determination unit 34 may be omitted. In this case, the insertion support information generation unit 36 directly employs the insertion situation category acquired from the insertion situation learning model 33a.
  • the insertion shape determination process by the shape determination unit 34 may be executed before the insertion status estimation process by the insertion status estimation unit 33. If the insertion shape category can be acquired from the shape category determination logic 34a, the insertion situation estimation process by the insertion situation estimation unit 33 may be omitted. In this case, the insertion support information generation unit 36 specifies the insertion shape category acquired from the shape category determination logic 34a and the insertion situation category including the body part acquired from the body part learning model 35a.
  • Which of the insertion situation estimation process by the insertion situation estimation unit 33 and the insertion shape determination process by the shape determination unit 34 is executed first depends on the insertion shape included in the insertion situation category acquired from the insertion situation learning model 33a. It may be determined based on the most recent adoption rate of the category and the inserted shape category acquired from the shape category determination logic 34a. For example, if the latest adoption rate of the inserted shape category acquired from the shape category determination logic 34a is higher, the inserted shape determination process by the shape determination unit 34 is executed first.
  • the priority information is given in advance to each insertion situation category prepared as an estimation result of the insertion situation learning model 33a or to each insertion shape category prepared as a judgment result of the shape category judgment logic 34a. There's no need to be there. This can be executed if the shape information of the endoscope insertion section is input to either the insertion situation estimating section 33 or the shape determining section 34.
  • a priority determination unit may be provided that determines which of the outputs of the insertion status estimation unit 33 and the shape determination unit 34 should be given priority based on the shape information of the endoscope insertion section acquired by the endoscope shape acquisition unit 31. .
  • the insertion support information generation section 36 only needs to obtain the output of the insertion shape category from one of the insertion situation estimation section 33 and the shape determination section 34, which has priority.
  • the insertion support information generation section 36 combines the insertion shape category information from the shape determination section 34 and the information of the region where the endoscope tip is located from the region estimation section 35. It can be used as That is, the output from the one that is not prioritized between the insertion situation estimation section 33 and the shape determination section 34 is not essential.
  • the misrecognition of the inserted shape can be reduced.
  • the misrecognition of the inserted shape can be reduced by employing the inserted shape determined based on the determination logic set by the designer.
  • FIG. 10 shows a configuration example of an endoscope insertion support system 30 according to the second embodiment.
  • An endoscope insertion support system 30 according to the second embodiment adds a body position information acquisition section 37 and an endoscope shape correction section 38 to the configuration of the endoscope insertion support system 30 according to the first embodiment shown in FIG. This is the configuration with added.
  • FIG. 1 an example is shown in which the reference plate 20b on which the body position sensor is arranged is connected to the endoscope insertion shape observation device 20.
  • the reference plate 20b on which the body position sensor is arranged is directly connected to the endoscope insertion support system 30.
  • the shape information used by the insertion situation estimating section 33, shape determining section 34, and region estimating section 35 is based on the viewpoint from the abdominal side of the subject in the supine position. Therefore, if the subject's body position changes during the examination, there is a possibility that the endoscope shape will be recognized as different from the actual shape.
  • the body position information acquisition unit 37 acquires three-dimensional information indicating the posture of the subject from the reference plate 20b as body position information.
  • a body position sensor is attached to a subject to measure the body position of the subject.
  • a plurality of pressure sensors may be installed on a medical examination bed, and the body position of the subject may be estimated from the detection value of each pressure sensor.
  • a camera may be installed in the examination room, and the movement of the subject shown in a moving image taken by the camera may be followed by image recognition to estimate the body position of the subject.
  • the endoscope shape correction unit 38 corrects the shape information of the endoscope insertion section acquired by the endoscope shape acquisition unit 31 based on the body position information acquired by the body position information acquisition unit 37. Specifically, the endoscope shape correction unit 38 changes the shape information of the endoscope insertion portion so as to cancel the three-dimensional change in the posture of the subject defined by the body position information.
  • FIGS. 11(a) and 11(b) are diagrams showing an example of the endoscope shape B3 before and after changing the body position.
  • FIG. 11A shows an example of an endoscope shape B3 inserted into a subject in a supine position, viewed from a ceiling viewpoint.
  • FIG. 11(b) shows an example of an endoscope shape B3 inserted into a subject in the left lateral decubitus position, viewed from a ceiling viewpoint.
  • the endoscope shape B3 seen from the ceiling perspective changes significantly.
  • FIG. 12 is a flowchart showing an example of the operation of the endoscope insertion support system 30 according to the second embodiment.
  • the endoscopic image acquisition section 32 acquires an endoscopic image from the endoscope system 10
  • the endoscope shape acquisition section 31 acquires shape information of the endoscope insertion section from the endoscope insertion shape observation device 20.
  • the body position information acquisition unit 37 acquires body position information from the body position sensor (S10a).
  • the endoscope shape correction unit 38 corrects the orientation of the acquired shape information based on the body position information. For example, the endoscope shape correction unit 38 always corrects the acquired shape information so that it becomes the shape information from the viewpoint from the abdominal side of the subject (S15).
  • the processing after step S20 is similar to the processing in the flowchart shown in FIG.
  • the second embodiment provides the following effects in addition to the effects of the first embodiment.
  • the second embodiment by acquiring body position information, it is possible to know which body position the subject is currently in.
  • shape information of the endoscope insertion section By correcting the shape information of the endoscope insertion section based on the body position information, shape information from the viewpoint from the abdominal side of the subject can always be handled.
  • FIG. 13 is a diagram showing a configuration example of an endoscope insertion support system 30 according to the third embodiment.
  • An endoscope insertion support system 30 according to Embodiment 3 has a configuration in which an intestinal condition estimating section 39 is added to the configuration of endoscope insertion support system 30 according to Embodiment 1 shown in FIG.
  • the intestinal tract condition estimating section 39 inputs the endoscopic image acquired by the endoscopic image acquisition section 32 into the intestinal tract condition learning model 39a, and estimates the endoscope tip and the intestinal tract of the subject from the intestinal tract condition learning model 39a.
  • the state related to the distance to the wall (hereinafter referred to as intestinal wall distance state) is acquired.
  • the intestinal tract state estimating unit 39 can obtain, for example, any one of "optimal distance,” “clay tubular shape,” and “red ball” as the intestinal wall distance state.
  • the “optimal distance” refers to a state in which the distance between the endoscope tip and the intestinal wall falls within a predetermined range.
  • “Ceramic tube-like” refers to a state in which the lumen extends straight and visibility is good.
  • Akadama refers to a condition in which the tip of the endoscope touches or approaches the intestinal wall and appears bright red.
  • the intestinal tract condition estimating section 39 inputs the endoscopic image acquired by the endoscopic image acquisition section 32 into the intestinal tract condition learning model 39a, and acquires the state related to the residue or water from the intestinal tract condition learning model 39a. You can also do it. That is, the intestinal condition estimating unit 39 can identify endoscopic images in which residue or water is reflected. Furthermore, the intestinal condition estimating unit 39 may be able to identify endoscopic images that show cleaning fluid, bleeding, diverticula, or lesions (such as polyps) in addition to residue or water.
  • the intestinal state learning model 39a performs supervised processing on a large number of endoscopic images annotated with information such as the intestinal wall distance state and whether residue, water, washing fluid, bleeding, diverticula, or lesions are shown. Generated by machine learning as a dataset.
  • the insertion support information generation unit 36 generates insertion support information based on the insertion status category and the intestinal wall distance state, and displays it on the display device 41. By referring to the intestinal wall distance state, the insertion support information generation unit 36 can grasp the insertion situation in more detail, and can present more detailed insertion support information suitable for the insertion situation.
  • the endoscope tip is located in the sigmoid colon (more specifically, near the first curve on the rectal side of the sigmoid colon), and the insertion shape of the endoscope insertion section is ⁇ no loop''.
  • the insertion support information generation unit 36 If the intestinal wall distance state has not been acquired in the insertion status category of "tip curved toward the right,” the insertion support information generation unit 36 generates a guide that recommends a right torque operation as insertion support information. In the case where the intestinal wall distance state has been acquired and the intestinal wall distance state is "optimal distance", the insertion support information generation unit 36 similarly generates a guide that recommends right torque operation as the insertion support information. do.
  • the insertion support information generation unit 36 when the intestinal wall distance state is "clay tube-like", the insertion support information generation unit 36 generates a guide that recommends an operation to bring the endoscope tip closer to the intestinal wall by a pull operation or suction as insertion support information. generate.
  • the insertion support information generation unit 36 can also generate insertion support information based on the insertion status category and the state related to residue or water. If residue or water is reflected in the endoscopic image, the insertion support information generation unit 36 generates a guide that recommends cleaning or suction, for example.
  • FIG. 14 is a flowchart showing an example of the operation of the endoscope insertion support system 30 according to the third embodiment.
  • the processing from step S10 to step S40 is similar to the processing in the flowchart shown in FIG.
  • the intestinal condition estimating section 39 inputs the endoscopic image acquired by the endoscopic image acquisition section 32 to the intestinal condition learning model 39a, and acquires the intestinal wall distance state from the intestinal condition learning model 39a (S42).
  • the processing from step S50 to step S80 is similar to the processing in the flowchart shown in FIG.
  • the insertion support information generation unit 36 acquires the insertion support information linked to the finally determined combination of the insertion status category and the intestinal wall distance state, and displays the acquired insertion support information on the display device 41 (S90a).
  • the insertion situation learning model 33a is a combination of a large number of shape information of the endoscope insertion part and a large number of endoscopic images (with intestinal wall distance status), to which the insertion situation category of the endoscope insertion part is annotated. may be generated by machine learning using a supervised data set.
  • the insertion situation estimating unit 33 inputs the shape information of the endoscope insertion part, the corresponding endoscopic image, and the corresponding intestinal wall distance state to the insertion situation learning model 33a. Get the insertion status category from.
  • Embodiment 3 provides the following effects.
  • more detailed insertion support information can be presented by referring to the state of the intestinal tract.
  • FIG. 15 shows a configuration example of an endoscope insertion support system 30 according to the fourth embodiment.
  • the endoscope insertion support system 30 according to the fourth embodiment has a configuration in which a pain estimation section 310 is added to the configuration of the endoscope insertion support system 30 according to the first embodiment shown in FIG.
  • the pain estimation unit 310 generates pain information indicating pain caused to the subject based on the insertion shape of the endoscope insertion section and the region where the endoscope tip is located.
  • the pain information includes at least the presence or absence of pain.
  • the level of pain may also be included.
  • a table is prepared in advance in which pain information is defined for each combination of the insertion shape of the endoscope insertion portion and the site where the endoscope tip is located. As the region where the endoscope distal end is located, the region where the endoscope distal end estimated by the region estimator 35 is located can be used.
  • the insertion shape category determined by the shape determination section 34 may be used, or the insertion shape classified by a category different from the insertion shape classification by the shape determination section 34 may be used. may be used. In the latter case, a learning model for the insertion shape for pain estimation is prepared, or a logic for determining the insertion shape for pain estimation is separately prepared.
  • the insertion support information generation unit 36 generates insertion support information based on the insertion situation category and pain information, and displays the insertion support information on the display device 41. By referring to pain information, it is possible to present insertion support information specific to when pain occurs.
  • FIG. 16 is a flowchart showing an example of the operation of the endoscope insertion support system 30 according to the fourth embodiment.
  • the processing from step S10 to step S40 is similar to the processing in the flowchart shown in FIG.
  • the pain estimation section 310 calculates pain information based on the shape information of the endoscope insertion section acquired by the endoscope shape acquisition section 31 and the region where the endoscope tip is located estimated by the region estimation section 35. Generate (S44).
  • the processing from step S50 to step S80 is similar to the processing in the flowchart shown in FIG.
  • the insertion support information generation unit 36 generates insertion support information according to the finally determined insertion status category and pain information, and displays the generated insertion support information on the display device 41 (S90b).
  • Embodiment 4 has the following effects.
  • more detailed insertion support information can be presented by referring to pain information.
  • FIG. 17 shows a configuration example of an endoscope insertion support system 30 according to the fifth embodiment.
  • the insertion support information generation section 36 of the endoscope insertion support system 30 according to the first embodiment shown in FIG. 3 is replaced with an insertion control information generation section 311. It is the composition.
  • the insertion control information generation unit 311 generates insertion control information based on the insertion status category, and transmits the generated insertion control information to the endoscope control device 50.
  • the endoscope control device 50 is, for example, a fully automatic or semi-automatic endoscope operating robot.
  • the endoscope control device 50 fully or semi-automatically performs the insertion operation of the endoscope insertion section based on the insertion control information received from the endoscope insertion support system 30.
  • the insertion situation estimation section 33 performs the insertion situation estimation process and the shape determination section 34 performs the insertion shape determination process. It is also possible to omit one of them.
  • the predetermined condition may be a condition determined according to the result of a priority determination that determines which of the outputs of the insertion situation estimating section 33 and the shape determining section 34 should be prioritized.
  • a plurality of shape sensors may be built into the endoscope 11 to estimate the shape of the endoscope.
  • the shape sensor may be, for example, a fiber sensor that detects the bent shape from the curvature of a specific location using an optical fiber.
  • the fiber sensor has, for example, an optical fiber arranged along the longitudinal direction of the insertion section 11a, and the optical fiber is provided with a plurality of photodetectors along the longitudinal direction. Detection light is supplied from the detection light emitting device to the optical fiber, and the shape of the endoscope is estimated based on changes in the amount of light detected by each photodetector while the detection light is propagating through the optical fiber.
  • the present disclosure can be used for colonoscopy.
  • Part learning model 36... Insertion support information Generation unit, 37... Body position information acquisition unit, 38... Endoscope shape correction unit, 39... Intestinal condition estimation unit, 39a... Intestinal condition learning model, 310... Pain estimation unit, 311 ... Insertion control information generation unit, 41 ... Display device, 42 ... Input device, 43 ... Storage device, 50 ... Endoscope control device.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

内視鏡画像取得部32は、内視鏡検査時の内視鏡挿入部の形状情報を取得する。所定の条件に応じて、挿入状況推定部33が、形状情報を挿入状況学習モデル33aに入力して、挿入状況学習モデル33aから内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得する処理、および形状判定部34が、形状情報を所定の形状カテゴリ判定ロジック34aに適用して、内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得する処理、の少なくとも一方を実行する。

Description

内視鏡挿入支援システム、内視鏡挿入支援方法および記憶媒体
 本開示は、内視鏡の挿入を支援する内視挿入支援システム、内視鏡挿入支援方法および記憶媒体に関する。
 大腸内視鏡検査において、AIにより、大腸内視鏡の挿入部形状を分類し、分類結果に応じて大腸内視鏡の挿入を制御する内視鏡制御装置が知られている(例えば、特許文献1参照)。
国際公開第21/038871号
 上記の内視鏡制御装置を利用して挿入制御または挿入ガイド表示をする際、AIが挿入部形状を誤認識すると、最適な挿入制御または挿入ガイド表示から外れることがあり、内視鏡の挿入がスムーズにいかないケースが発生する。
 本開示はこうした状況に鑑みなされたものであり、その目的は、内視鏡の挿入状況を高精度に認識することができる技術を提供することにある。
 上記課題を解決するために、本開示のある態様の内視鏡挿入支援システムは、内視鏡挿入支援システムであって、ハードウェアを有する1つ以上のプロセッサを備える。プロセッサは、内視鏡検査時の内視鏡挿入部の形状情報を取得し、所定の条件に応じて、形状情報を挿入状況学習モデルに入力して、挿入状況学習モデルから内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得する、および形状情報を所定の形状カテゴリ判定ロジックに適用して、内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得する、の少なくとも一方を実行する。
 本発明の別の態様は、内視鏡挿入支援方法である。この方法は、内視鏡検査時の内視鏡挿入部の形状情報を取得することと、所定の条件に応じて、形状情報を挿入状況学習モデルに入力して、挿入状況学習モデルから内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得する、および形状情報を所定の形状カテゴリ判定ロジックに適用して、内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得する、の少なくとも一方を実行することと、を有する。
 なお、以上の構成要素の任意の組み合わせ、本開示の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本開示の態様として有効である。
実施の形態に係る大腸内視鏡検査に関連する全体システム構成を示す図である。 本実施の形態で使用される内視鏡の一例を示す図である。 実施の形態1に係る内視鏡挿入支援システムの構成例を示す図である。 大腸内視鏡検査の様子を示す図である。 内視鏡検査中に表示装置に表示される画面の一例を示す図である。 図6(a)-(b)は、形状判定部で使用される判定ロジックの一例を説明するための図である。 図7(a)-(b)は、挿入状況カテゴリの補正例1を説明するための図である。 図8(a)-(b)は、挿入状況カテゴリの補正例2を説明するための図である。 実施の形態1に係る内視鏡挿入支援システムの動作例を示すフローチャートである。 実施の形態2に係る内視鏡挿入支援システムの構成例を示す図である。 図11(a)-(b)は、体位変換前後の内視鏡形状の一例を示す図である。 実施の形態2に係る内視鏡挿入支援システムの動作例を示すフローチャートである。 実施の形態3に係る内視鏡挿入支援システムの構成例を示す図である。 実施の形態3に係る内視鏡挿入支援システムの動作例を示すフローチャートである。 実施の形態4に係る内視鏡挿入支援システムの構成例を示す図である。 実施の形態4に係る内視鏡挿入支援システムの動作例を示すフローチャートである。 実施の形態5に係る内視鏡挿入支援システムの構成例を示す図である。
 本実施の形態は大腸内視鏡検査に関する。患者への負担が少ない質の高い大腸内視鏡検査を実施するためには、非常に高度な技術が必要となる。質の高い大腸内視鏡検査を実現するため、内視鏡の挿入部が体内でどのような形状になっているかの挿入状況をAIで認識し、その挿入状況における最適な操作方法を判断するシステムが開発されている。当該システムにおいてAIが内視鏡の挿入状況を誤認識してしまうと、誤った操作方法を医師に呈示してしまったり、自動挿入装置の制御系に誤った操作情報を送ってしまったりすることに繋がる。
 本実施の形態では、このようなリスクを低減するために、1つのAIの判定結果をそのまま採用するのではなく、ロジックによる形状認識結果または他のAIの判定結果を組み合わせることで、挿入状況の誤認識を低減させる仕組みを導入する。
 図1は、実施の形態に係る大腸内視鏡検査に関連する全体システム構成を示す図である。本実施の形態では、内視鏡システム10、内視鏡11、光源装置15、内視鏡挿入形状観測装置(UPD:Endoscope Position Detecting Unit)20、内視鏡挿入支援システム30、表示装置41、入力装置42および記憶装置43が使用される。本実施の形態に係る内視鏡11は、被検体(患者)の大腸に挿入される大腸内視鏡である。
 内視鏡11は、レンズおよび固体撮像素子(例えば、CMOSイメージセンサ、CCDイメージセンサまたはCMDイメージセンサ)を含む。固体撮像素子は、レンズで集光した光を電気信号に変換し、内視鏡画像(電気信号)として内視鏡システム10に出力する。内視鏡11は鉗子チャンネルを含む。術者(医師)は鉗子チャンネルに処置具を通すことで、内視鏡検査中に種々の処置を実施することができる。
 光源装置15はキセノンランプなどの光源を備え、内視鏡11の先端部に観察光(白色光、狭帯域光、蛍光、近赤外光など)を供給する。光源装置15は、内視鏡11に水や空気を送り出すポンプも内蔵している。
 内視鏡システム10は、光源装置15を制御するとともに、内視鏡11から入力される内視鏡画像を処理する。内視鏡システム10は例えば、狭帯域光観察(NBI:Narrow Band Imaging)、赤色光観察(RDI:Red Dichromatic Imaging)、構造色彩強調(TXI:Texture and Color Enhancement Imaging)、被写界深度拡大(EDOF:Extended Depth of Field)などの機能を搭載する。
 狭帯域光観察では、血液中のヘモグロビンに強く吸収される紫(415nm)と緑(540nm)の特定の波長の光を照射することで、粘膜表層の毛細血管や微細構造が強調された内視鏡画像を取得することができる。赤色光観察では、3色(緑・アンバー・赤)の特定の波長の光を照射することで、深部組織のコントラストが強調された内視鏡画像を取得することができる。構造色彩強調では、通常光観察下での粘膜表面の「構造」・「色調」・「明るさ」の3つの要素が最適化された内視鏡画像が生成される。被写界深度拡大では、近距離と遠距離のそれぞれに焦点が合った2つの画像を合成することで、焦点範囲の広い内視鏡画像を取得することができる。
 内視鏡システム10は、内視鏡11から入力される内視鏡画像を処理した内視鏡画像、または内視鏡11から入力される内視鏡画像をそのまま、内視鏡挿入支援システム30に出力する。
 内視鏡挿入形状観測装置20は、被検体の管腔内に挿入された内視鏡11の3次元形状を観測するための装置である。内視鏡挿入形状観測装置20には、受信アンテナ20aが接続される。受信アンテナ20aは、内視鏡11に内蔵された複数の磁気コイルが発生させる磁界を検出するためのアンテナである。
 図2は、本実施の形態で使用される内視鏡11の一例を示す図である。内視鏡11は、可撓性部材で構成される細長い管状の挿入部11aと、挿入部11aの基端部と連結された操作部11eを有する。挿入部11aは、先端側から基端側へ向かって、先端硬質部11b、湾曲部11cおよび可撓管部11dを有する。先端硬質部11bの基端部は湾曲部11cの先端部と連結し、湾曲部11cの基端部は可撓管部11dの基端部と連結している。
 操作部11eは、可撓管部11dが延出している本体部11fと、本体部11fの基端部と連結している把持部11gを有している。把持部11gは術者によって把持される。操作部11eからは、挿入部11a内から延びた撮像用電気ケーブル、ライトガイドなどを含むユニバーサルコードが延びており、内視鏡システム10および光源装置15に接続される。
 先端硬質部11bは、挿入部11aの先端部であって、かつ内視鏡11の先端部でもある。先端硬質部11bには、固体撮像素子、照明光学系、観察光学系などが内蔵される。光源装置15から出射される照明光が、ライトガイドに沿って、先端硬質部11bの先端面に伝搬され、先端硬質部11bの先端面から管腔内の観察対象に向けて照射される。
 湾曲部11cは、節輪が挿入部11aの長手軸方向に沿って連結されることにより構成される。湾曲部11cは、操作部11eに入力される術者の操作に応じて所望の方向に湾曲し、その湾曲に応じて先端硬質部11bの位置および向きが変わる。
 可撓管部11dは、操作部11eの本体部11fから延出した管状部材であり、所望の可撓性を有し、外力によって曲がる。術者は、湾曲部11cを湾曲操作したり可撓管部11dを捻ったりしながら、挿入部11aを被検体の大腸へ挿入していく。
 挿入部11aの内部に長手方向に沿って、所定の間隔(例えば、10cm間隔)で複数の磁気コイル12が配置される。各磁気コイル12は、電流が供給されると磁界を発生させる。複数の磁気コイル12は、挿入部11aの各位置を検出するための位置センサとして機能する。
 図1に戻る。受信アンテナ20aは、内視鏡11の挿入部11aに内蔵された複数の磁気コイル12から発信される磁界を受信し、内視鏡挿入形状観測装置20に出力する。内視鏡挿入形状観測装置20は、受信アンテナ20aで受信された複数の磁気コイル12のそれぞれの磁界強度を、所定の位置検出アルゴリズムに適用して、複数の磁気コイル12のそれぞれの3次元位置を推定する。内視鏡挿入形状観測装置20は、推定した複数の磁気コイル12の3次元位置を曲線補間することにより、内視鏡11の挿入部11aの3次元内視鏡形状を生成する。
 基準プレート20bは被検体(例えば、被検体の腹部)に装着される。基準プレート20bには、被検体の体位を検出するための体位センサが配置される。体位センサとして例えば、3軸加速度センサやジャイロセンサを使用することができる。図1では基準プレート20bはケーブルで内視鏡挿入形状観測装置20に接続されており、基準プレート20bは、基準プレート20bの姿勢(即ち、被検体の姿勢)を示す3次元姿勢情報を内視鏡挿入形状観測装置20に出力する。
 なお、基準プレート20bに配置される体位センサとして、内視鏡11の挿入部11aに内蔵された複数の磁気コイル12と同様の、複数の磁気コイルが使用されてもよい。この場合、受信アンテナ20aは、基準プレート20bに配置された複数の磁気コイルから発信される磁界を受信し、内視鏡挿入形状観測装置20に出力する。内視鏡挿入形状観測装置20は、受信アンテナ20aで受信された複数の磁気コイルのそれぞれの磁界強度を、所定の姿勢検出アルゴリズムに適用して、基準プレート20bの姿勢(即ち、被検体の姿勢)を示す3次元姿勢情報を生成する。
 内視鏡挿入形状観測装置20は、生成した3次元内視鏡形状を、3次元姿勢情報の変化に追従させて変化させる。具体的には内視鏡挿入形状観測装置20は、3次元姿勢情報の変化を打ち消すように、3次元内視鏡形状を変化させる。これにより、内視鏡検査中に被検体の体位変換が実施された場合でも、常に特定の視点(例えば、被検体の腹部を、腹部の正面側から垂直に見る視点)からの内視鏡形状を認識することができる。
 内視鏡挿入形状観測装置20は、内視鏡11の大腸に挿入された部分の長さを示す挿入長と、内視鏡11が大腸に挿入されてからの経過時間(以下、挿入時間という)を取得することができる。内視鏡挿入形状観測装置20は例えば、術者が入力装置42に検査開始操作を入力したタイミングの位置を基点として挿入長を計測し、当該タイミングを起点に挿入時間を計測する。なお、内視鏡挿入形状観測装置20は、生成した3次元内視鏡形状と、体内にある磁気コイルと体外にある磁界コイルの磁界強度の差から、肛門の位置を推定し、推定した肛門の位置を挿入長の基点としてもよい。
 なお、挿入長を高精度に計測するために、被検体の肛門近傍にエンコーダを設置してもよい。内視鏡挿入形状観測装置20は、エンコーダからの信号をもとに、肛門の位置を基点とした挿入長を検出する。
 内視鏡挿入形状観測装置20は、3次元姿勢情報に基づく体位補正後の3次元内視鏡形状に、挿入長と挿入時間を付加して、内視鏡挿入支援システム30に出力する。
 内視鏡挿入支援システム30は、内視鏡システム10から入力される内視鏡画像、および内視鏡挿入形状観測装置20から入力される内視鏡形状をもとに、内視鏡11の挿入支援情報を生成して術者に呈示する。また、内視鏡挿入支援システム30は、内視鏡システム10から入力される内視鏡画像、および内視鏡挿入形状観測装置20から入力される内視鏡形状をもとに、内視鏡検査履歴情報を生成して記憶装置43に記録する。
 表示装置41は、液晶モニタや有機ELモニタを備え、内視鏡挿入支援システム30から入力される画像を表示する。入力装置42は、マウス、キーボード、タッチパネルなどを備え、術者などが入力した操作情報を内視鏡挿入支援システム30に出力する。記憶装置43はHDD、SSDなどの記憶媒体を備え、内視鏡挿入支援システム30により生成された内視鏡検査履歴情報を保存する。記憶装置43は、内視鏡システム10に付随する専用の記憶装置であってもよいし、院内ネットワークを経由して接続された院内サーバ内のデータベースであってもよいし、クラウドサーバ内のデータベースであってもよい。
 図3は、実施の形態1に係る内視鏡挿入支援システム30の構成例を示す。内視鏡挿入支援システム30は、内視鏡挿入支援専用の処理装置で構築されてもよいし、汎用のサーバ(クラウドサーバであってもよい)で構築されてもよい。また、内視鏡挿入支援システム30は、内視鏡挿入支援専用の処理装置、汎用のサーバ(クラウドサーバであってもよい)、および専用の画像診断装置の任意の組み合わせで構築されてもよい。また、内視鏡挿入支援システム30は内視鏡システム10と一体的に構築されてもよい。
 内視鏡挿入支援システム30は、内視鏡形状取得部31、内視鏡画像取得部32、挿入状況推定部33、形状判定部34、部位推定部35および挿入支援情報生成部36を含む。これらの構成要素は、ハードウェア的には任意の少なくとも1つのプロセッサ(例えば、CPU、GPU)、メモリ(例えば、DRAM)、その他のLSI(例えば、FPGA、ASIC)で実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
 内視鏡形状取得部31は、内視鏡挿入形状観測装置20から、内視鏡検査時の内視鏡11の挿入部11a(以下、単に内視鏡挿入部と表記する)の形状情報を取得する。内視鏡画像取得部32は、内視鏡システム10から、内視鏡検査時の内視鏡画像を取得する。
 挿入状況推定部33は、挿入状況学習モデル33aを有する。挿入状況推定部33は、内視鏡形状取得部31により取得された内視鏡挿入部の形状情報を挿入状況学習モデル33aに入力して、挿入状況学習モデル33aから内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得する。内視鏡挿入部の挿入状況は、被検体の体内における内視鏡挿入部全体の配置状況を示している。内視鏡挿入部の挿入状況カテゴリは、内視鏡挿入部が被検体の体内のどこにどんな形状で配置されているかを、内視鏡挿入部全体をいくつかの挿入段階に分け、複数のデフォルメした形に分類したものである。
 挿入状況学習モデル33aは、内視鏡挿入部の挿入状況カテゴリがアノテーションとして付与された多数の内視鏡挿入部の形状情報を、教師付きデータセットとする機械学習により生成される。アノテーションは、医師などの専門知識を有するアノテータにより付与される。機械学習には、ディープラーニングの一種であるCNN、RNN、LSTMなどを使用することができる。
 なお、データセットは、内視鏡挿入部の挿入状況カテゴリがアノテーションとして付与された、多数の内視鏡挿入部の形状情報と多数の内視鏡画像の組み合わせであってもよい。その場合、挿入状況推定部33は、内視鏡挿入部の形状情報と、対応する内視鏡画像を挿入状況学習モデル33aに入力して、挿入状況学習モデル33aから挿入状況カテゴリを取得する。
 部位推定部35は、部位学習モデル35aを有する。部位推定部35は、内視鏡画像取得部32により取得された内視鏡画像を部位学習モデル35aに入力して、部位学習モデル35aから内視鏡画像に映る被検体の部位を取得する。部位学習モデル35aは、大腸の部位がアノテーションとして付与された多数の内視鏡画像を、教師付きデータセットとする機械学習により生成される。
 なお、データセットは、大腸の部位がアノテーションとして付与された、多数の内視鏡画像と多数の内視鏡挿入部の形状情報の組み合わせであってもよい。その場合、部位推定部35は、内視鏡画像と、対応する内視鏡挿入部の形状情報を部位学習モデル35aに入力して、部位学習モデル35aから大腸の部位を取得する。
 取得される部位は、内視鏡11の先端硬質部11b(以下、単に内視鏡先端部と表記する)が位置する部位であってもよいし、内視鏡挿入部の複数の部分がそれぞれ位置する部位であってもよい。内視鏡挿入部の複数の部分は、それぞれ磁気コイル12が設置されている部分であってもよい。大腸の部位は、S状結腸、下行結腸、横行結腸、上行結腸、および盲腸の5部位に分類されてもよいし、S状結腸またはS状結腸以降かの2部位に分類されてもよいし、その他の任意の単位に分類されてもよい。
 部位推定部35は、部位学習モデル35aにより検出される被検体の部位が所定時間、連続して検出されない場合、検出された被検体の部位を無効としてもよい。すなわち、部位推定部35は、部位の推定結果に「Delay」を設けてもよい。ここでいう「Delay」は、部位の切り替わりの際、所定数のフレームで同じ推定結果が返ってこない場合は誤認識と判定する処理である。
 例えば、内視鏡画像のフレームレートが60Hzで、1秒の「Delay」を設ける場合、部位推定部35は、時系列に連続する60フレームの内視鏡画像で同じ推定結果が返ってこない場合、誤認識と判定する。また、内視鏡画像のフレームレートが60Hzで、内視鏡挿入部の形状情報の取得レートが5Hzで、1秒の「Delay」を設ける場合、部位推定部35は、時系列に連続する60フレームの内視鏡画像と対応する5つの内視鏡挿入部の形状情報の組み合わせで同じ推定結果が返ってこない場合、誤認識と判定する。
 形状判定部34は、形状カテゴリ判定ロジック34aを有する。形状判定部34は、内視鏡形状取得部31により取得された内視鏡挿入部の形状情報を形状カテゴリ判定ロジック34aに適用して、内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得する。形状カテゴリ判定ロジック34aは、内視鏡挿入部の形状を幾何学的に分類するための判定ロジック(例えば、幾何学的条件で規定される)であり、設計者により予め決定される。形状判定部34は例えば、内視鏡挿入部の形状情報を形状カテゴリ判定ロジック34aに適用して、内視鏡先端部の各種ループ(逆のの字、N、α(表裏)、逆α(表裏)、γ(表裏)、再ループ)、横行結腸中央部での引っかけの有無を判定することができる。
 以下、挿入状況推定部33による内視鏡挿入部の挿入状況の推定と、形状判定部34による内視鏡挿入部の挿入形状の判定のそれぞれの性質を比較する。挿入状況推定部33による推定では、挿入状況の認識に幅がある。すなわち、いずれかの挿入状況カテゴリのモデルに完全一致していなくても、類似度が最も高い挿入状況カテゴリに当てはめてくれる。また、部位も含めた形で内視鏡挿入部の挿入状況を推定可能である。また、時系列情報も用いることができる。大腸の部位は、肛門側からS状結腸、下行結腸、横行結腸、上行結腸、および盲腸の順に推移する。挿入状況推定部33による推定では、時系列情報を用いて部位も特定可能である。ただし、挿入状況推定部33による推定精度は、学習させるデータセットに依存する。挿入状況カテゴリによって推定精度にバラツキがある。
 一方、形状判定部34による判定では、判定ロジックで設定した形状においては、高い精度で認識できる。ただし、形状判定部34による判定では、挿入形状の認識に幅がない。すなわち、設定条件から少しでも外れると認識できなくなる。形状判定部34による判定では、学習データセットを使用しないため、設定できる条件に限度がある。
 挿入状況推定部33の推定結果と、形状判定部34の判定結果を組み合わせることで、内視鏡挿入部の形状情報のみから部位を含んだ、幅を持った認識を可能としつつ、学習データセットの精度のバラツキによる誤認識を低減させることができる。例えば、挿入状況推定部33による、学習データセットが少ない挿入状況カテゴリの推定結果を、形状判定部34の判定結果で補正することで推定精度を向上させることができる。
 ただし、挿入状況推定部33による挿入状況の推定と、形状判定部34による挿入形状の判定のみでは、挿入形状が類似するが部位が異なるケースで誤認識が発生しやすい。挿入状況推定部33による挿入状況の推定にも、部位推定部35と同様に「Delay」を設けることが考えられるが、挿入状況推定部33による挿入状況の推定に長時間の「Delay」を設けることは難しい。長時間の「Delay」を設けると、挿入形状が変わっていくため同じ結果が返ってこない。そのため、挿入状況推定部33の推定に「Delay」を設けても誤認識防止効果が少ない。
 そこで、誤認識の発生が低減されるように「Delay」を設けている部位推定部35による部位の推定結果を、挿入状況推定部33による挿入状況の推定結果と、形状判定部34による挿入形状の判定結果と組み合わせることで、どの部位でどの挿入形状になっているかをより正しく判定することができる。すなわち、挿入状況推定部33で部位も含めた挿入状況カテゴリを推定しつつ、形状判定部34で挿入状況推定部33が苦手な箇所の挿入形状の正しさを、部位推定部35で挿入状況推定部33が苦手な箇所の部位の正しさを補完することで、挿入状況推定部33で推定可能なほとんど全ての挿入状況をより高精度に認識することが可能となる。
 挿入支援情報生成部36は、挿入状況カテゴリに基づいて、挿入支援情報を生成する。挿入支援情報生成部36は、生成した挿入支援情報を表示装置41に出力して表示する。挿入支援情報には、術者への内視鏡11の操作支援情報が含まれる。挿入支援情報は、挿入状況カテゴリのそれぞれに予め紐付けられている。
 図4は、大腸内視鏡検査の様子を示す図である。術者は、内視鏡11を被検体の肛門に挿入し、表示装置41に表示される内視鏡11で撮影された内視鏡画像と挿入支援情報を見ながら内視鏡検査を実施する。
 図5は、内視鏡検査中に表示装置41に表示される画面の一例を示す図である。画面の右側に内視鏡11により撮影されている内視鏡画像A1が表示され、左側に内視鏡形状B1が表示されている。内視鏡画像A1の右上に内視鏡11の進行方向を示すガイドC3が表示され、内視鏡画像A1の下に操作支援情報として、プル操作を推奨するガイドC1と、右トルク操作を推奨するガイドC2が表示されている。
 図6(a)-(b)は、形状判定部34で使用される判定ロジックの一例を説明するための図である。図6(a)-(b)に示す例は、右または左に湾曲している内視鏡形状B2を判定するための判定ロジックを示している。図6(a)は内視鏡形状B2のパラメータを示し、図6(b)は判定ロジックの条件式を示す図である。形状判定部34は、内視鏡形状B2の湾曲部の内側の角度θと閾値を比較する(S341a)。湾曲部の内側の角度θが閾値以上の場合(S341aのN)、形状判定部34は、内視鏡形状B2は当該判定ロジックに該当しないと判定する。
 湾曲部の内側の角度θが閾値未満の場合(S341aのY)、形状判定部34は、内視鏡形状B2の湾曲部頂点のx軸座標xaと湾曲部先端のx軸座標xbを比較する(S341b)。湾曲部頂点のx軸座標xaが湾曲部先端のx軸座標xbより小さい場合(S341bのY)、形状判定部34は右に湾曲している内視鏡形状と判定する。湾曲部頂点のx軸座標xaが湾曲部先端のx軸座標xbより大きい場合(S341bのN)、形状判定部34は左に湾曲している内視鏡形状と判定する。
 挿入支援情報生成部36は、挿入状況推定部33から出力される挿入状況カテゴリに含まれる挿入形状カテゴリと、形状判定部34から出力される挿入形状カテゴリが不一致の場合、挿入状況推定部33から出力される挿入状況カテゴリに含まれる挿入形状カテゴリを、形状判定部34から出力される挿入形状カテゴリに補正する。
 挿入支援情報生成部36は、挿入状況推定部33から出力される挿入状況カテゴリに含まれる被検体の部位と、部位推定部35から出力される被検体の部位が不一致の場合、挿入状況推定部33から出力される挿入状況カテゴリに含まれる被検体の部位を、部位推定部35から出力される被検体の部位に補正する。
 図7(a)-(b)は、挿入状況カテゴリの補正例1を説明するための図である。図7(a)は内視鏡挿入部の実際の挿入状況を示し、図7(b)は挿入状況推定部33で推定された内視鏡挿入部の挿入状況を示す。図7(a)に示すように実際の挿入状況(正解)では、内視鏡挿入部の挿入形状B11aが「表αループ」、内視鏡先端部が位置する部位d11aが「S状結腸」である。図7(b)に示すように挿入状況推定部33で推定された挿入状況(不正解)では、内視鏡挿入部の挿入形状B11bが「裏αループ」、内視鏡先端部が位置する部位d11bが「S状結腸」である。
 部位推定部35で推定された内視鏡先端部が位置する部位は「S状結腸」である。形状判定部34で判定された内視鏡挿入部の挿入形状は「表αループ」である。挿入状況推定部33で推定された内視鏡先端部が位置する部位と、部位推定部35で推定された内視鏡先端部が位置する部位は「S状結腸」で一致している。したがって、挿入支援情報生成部36は、内視鏡先端部が位置する部位を「S状結腸」と判断する。
 挿入状況推定部33で推定された内視鏡挿入部の挿入形状である「裏αループ」は、形状判定部34で判定された内視鏡挿入部の挿入形状である「表αループ」と異なっている。ループの形状の認識は、形状判定部34の方が精度が高いため、挿入支援情報生成部36は、挿入状況推定部33で推定された「裏αループ」を誤認識と判断し、形状判定部34で判定された「表αループ」を採用する。
 すなわち、挿入支援情報生成部36は、挿入状況推定部33で推定された「S状結腸」および「裏αループ」で規定される挿入形状カテゴリを、「S状結腸」および「表αループ」で規定される挿入形状カテゴリに補正する。挿入支援情報生成部36は、補正後の挿入状況カテゴリに紐付いている挿入支援情報を取得し、取得した挿入支援情報に基づく操作ガイドを表示装置41に表示する。
 図8(a)-(b)は、挿入状況カテゴリの補正例2を説明するための図である。図8(a)は内視鏡挿入部の実際の挿入状況を示し、図8(b)は挿入状況推定部33で推定された内視鏡挿入部の挿入状況を示す。図8(a)に示すように実際の挿入状況(正解)では、内視鏡挿入部の挿入形状B12aが「ループなし・先端左向きに湾曲」、内視鏡先端部が位置する部位d12aが「S状結腸」である。図8(b)に示すように挿入状況推定部33で推定された挿入状況(不正解)では、内視鏡挿入部の挿入形状B12bが「ループなし・先端左向きに湾曲」、内視鏡先端部が位置する部位d12bが「横行結腸(より細かい分類では「脾湾曲」)」である。
 部位推定部35で推定された内視鏡先端部が位置する部位は「S状結腸」である。形状判定部34で判定された内視鏡挿入部の挿入形状は「ループなし・先端左向きに湾曲」である。挿入状況推定部33で推定された内視鏡先端部が位置する部位である「横行結腸」は、部位推定部35で推定された内視鏡先端部が位置する部位である「S状結腸」と異なっている。部位の認識は、部位推定部35の方が精度が高いため、挿入支援情報生成部36は、挿入状況推定部33で推定された「横行結腸」を誤認識と判断し、部位推定部35で推定された「S状結腸」を採用する。
 挿入状況推定部33で推定された内視鏡挿入部の挿入形状と、形状判定部34で判定された内視鏡挿入部の挿入形状は「ループなし・先端左向きに湾曲」で一致している。したがって、挿入支援情報生成部36は、内視鏡挿入部の挿入形状を「ループなし・先端左向きに湾曲」と判断する。
 すなわち、挿入支援情報生成部36は、挿入状況推定部33で推定された「横行結腸」および「ループなし・先端左向きに湾曲」で規定される挿入形状カテゴリを、「S状結腸」および「ループなし・先端左向きに湾曲」で規定される挿入形状カテゴリに補正する。
 図9は、実施の形態1に係る内視鏡挿入支援システム30の動作例を示すフローチャートである。内視鏡画像取得部32は内視鏡システム10から内視鏡画像を取得し、内視鏡形状取得部31は内視鏡挿入形状観測装置20から内視鏡挿入部の形状情報を取得する(S10)。
 挿入状況推定部33は、内視鏡挿入部の形状情報と内視鏡画像を挿入状況学習モデル33aに入力して、挿入状況学習モデル33aから内視鏡挿入部の挿入状況カテゴリを取得する(S20)。部位推定部35は、内視鏡画像と内視鏡挿入部の形状情報を部位学習モデル35aに入力して、部位学習モデル35aから内視鏡先端部が位置する部位を取得する(S30)。形状判定部34は、内視鏡挿入部の形状情報を形状カテゴリ判定ロジック34aに適用して、形状カテゴリ判定ロジック34aから挿入形状カテゴリを取得する(S40)。ステップS20、S30、S40の処理は、時系列に実行されてもよいし、同時並行で実行されてもよい。
 挿入支援情報生成部36は、挿入状況推定部33で推定された挿入状況カテゴリに含まれる挿入形状カテゴリと、形状判定部34で判定された挿入形状カテゴリを比較する(S50)。両者が不一致の場合(S50のN)、挿入支援情報生成部36は、挿入状況推定部33で推定された挿入状況カテゴリに含まれる挿入形状カテゴリを、形状判定部34で判定された挿入形状カテゴリに補正する(S60)。両者が一致する場合(S50のY)、ステップS60の処理がスキップされる。
 挿入支援情報生成部36は、挿入状況推定部33で推定された挿入状況カテゴリに含まれる内視鏡先端部が位置する部位と、部位推定部35で推定された内視鏡先端部が位置する部位を比較する(S70)。両者が不一致の場合(S70のN)、挿入支援情報生成部36は、挿入状況推定部33で推定された挿入状況カテゴリに含まれる内視鏡先端部が位置する部位を、部位推定部35で推定された内視鏡先端部が位置する部位に補正する(S80)。両者が一致する場合(S70のY)、ステップS80の処理がスキップされる。挿入支援情報生成部36は、最終的に決定した挿入状況カテゴリに紐付いている挿入支援情報を取得し、取得した挿入支援情報を表示装置41に表示する(S90)。
 なお、挿入状況推定部33で推定された挿入状況カテゴリに含まれる挿入形状カテゴリと、形状判定部34で判定された挿入形状カテゴリのどちらを優先するかを指定する優先度情報が、挿入状況学習モデル33aの推定結果として用意されている複数の挿入状況カテゴリのそれぞれに、予め付与されていてもよい。
 また、挿入状況推定部33で推定された挿入状況カテゴリに含まれる挿入形状カテゴリと、形状判定部34で判定された挿入形状カテゴリのどちらを優先するかを指定する優先度情報が、形状カテゴリ判定ロジック34aの判定結果として用意されている複数の挿入形状カテゴリのそれぞれに、予め付与されていてもよい。
 挿入支援情報生成部36は、挿入状況推定部33で推定された挿入状況カテゴリに含まれる挿入形状カテゴリおよび形状判定部34で判定された挿入形状カテゴリの少なくとも一方に付与されている優先度情報に基づき、挿入状況学習モデル33aから取得した挿入状況カテゴリに含まれる挿入形状カテゴリを、形状カテゴリ判定ロジック34aから取得した挿入形状カテゴリに補正するか否か判定する。
 挿入状況推定部33で推定された挿入状況カテゴリに含まれる挿入形状カテゴリの優先度の方が高い場合、挿入支援情報生成部36は、挿入状況学習モデル33aから取得した挿入状況カテゴリに含まれる挿入形状カテゴリを補正しない。反対に、形状判定部34で判定された挿入形状カテゴリの優先度の方が高い場合、挿入支援情報生成部36は、挿入状況学習モデル33aから取得した挿入状況カテゴリに含まれる挿入形状カテゴリを、形状カテゴリ判定ロジック34aから取得した挿入形状カテゴリに補正する。
 挿入状況推定部33は、内視鏡挿入部の形状情報(または形状情報と内視鏡画像の組み合わせ)を挿入状況学習モデル33aに入力して挿入状況カテゴリを取得する際、入力した形状情報(または形状情報と内視鏡画像の組み合わせ)と、分類された挿入状況カテゴリとの類似度に基づく信頼度を同時に取得することができる。
 挿入支援情報生成部36は、挿入状況学習モデル33aから取得された挿入状況カテゴリの信頼度に基づき、挿入状況学習モデル33aから取得した挿入状況カテゴリに含まれる挿入形状カテゴリを、形状カテゴリ判定ロジック34aから取得した挿入形状カテゴリに補正するか否か判定することができる。信頼度が閾値より高い場合、挿入支援情報生成部36は、挿入状況学習モデル33aから取得した挿入状況カテゴリに含まれる挿入形状カテゴリを補正しない。反対に、信頼度が閾値未満の場合、挿入支援情報生成部36は、挿入状況学習モデル33aから取得した挿入状況カテゴリに含まれる挿入形状カテゴリを、形状カテゴリ判定ロジック34aから取得した挿入形状カテゴリに補正する。
 上述したように形状判定部34による判定では、内視鏡挿入部の形状情報が、いずれの形状カテゴリ判定ロジック34aの条件も満たさない場合も発生する。挿入支援情報生成部36は、内視鏡挿入部の形状情報が形状カテゴリ判定ロジック34aのいずれの条件も満たさず、かつ挿入状況学習モデル33aから取得された挿入状況カテゴリの信頼度が閾値未満の場合、内視鏡挿入部の挿入形状を推定不能と判定する。
 挿入支援情報生成部36は、内視鏡挿入部の挿入形状を推定できない期間、挿入支援情報に基づく操作ガイドを表示装置41に表示しない。挿入支援情報生成部36は、「内視鏡の挿入状況を認識できません。慎重に操作してください。」といったメッセージを表示装置41に表示してもよい。
 ここまでの説明では、挿入状況推定部33による挿入状況の推定処理と、形状判定部34による挿入形状の判定処理と、部位推定部35による部位の推定処理を全て実行することを前提とした。この点、所定の条件に応じて、挿入状況推定部33による挿入状況の推定処理と、形状判定部34による挿入形状の判定処理の一方を省略することも可能である。所定の条件は、挿入状況推定部33と形状判定部34のどちらの出力を優先するかを判定する優先度判定の結果に応じて決定される条件であってもよい。
 例えば、挿入状況推定部33による挿入状況の推定処理が、形状判定部34による挿入形状の判定処理より先に実行されてもよい。挿入状況学習モデル33aから取得された挿入状況カテゴリの信頼度が閾値より高い場合、形状判定部34による挿入形状の判定処理が省略されてもよい。この場合、挿入支援情報生成部36は、挿入状況学習モデル33aから取得した挿入状況カテゴリをそのまま採用する。
 例えば、形状判定部34による挿入形状の判定処理が、挿入状況推定部33による挿入状況の推定処理より先に実行されてもよい。形状カテゴリ判定ロジック34aから挿入形状カテゴリを取得できた場合、挿入状況推定部33による挿入状況の推定処理が省略されてもよい。この場合、挿入支援情報生成部36は、形状カテゴリ判定ロジック34aから取得された挿入形状カテゴリと、部位学習モデル35aから取得された部位を含む挿入状況カテゴリを特定する。
 挿入状況推定部33による挿入状況の推定処理と、形状判定部34による挿入形状の判定処理のどちらを先に実行するかは、挿入状況学習モデル33aから取得された挿入状況カテゴリに含まれる挿入形状カテゴリと、形状カテゴリ判定ロジック34aから取得された挿入形状カテゴリとの直近の採用率をもとに決定されてもよい。例えば、形状カテゴリ判定ロジック34aから取得した挿入形状カテゴリの直近の採用率の方が高い場合、形状判定部34による挿入形状の判定処理が先に実行される。
 この例では、上記優先度情報が、挿入状況学習モデル33aの推定結果として用意されている各挿入状況カテゴリまたは形状カテゴリ判定ロジック34aの判定結果として用意されている各挿入形状カテゴリに予め付与されている必要はない。内視鏡挿入部の形状情報が、挿入状況推定部33または形状判定部34のいずれかに入力されれば、実行可能である。
 内視鏡形状取得部31が取得した内視鏡挿入部の形状情報に基づき、挿入状況推定部33と形状判定部34のどちらの出力を優先するかを決める優先度決定部を設けても良い。この場合、挿入支援情報生成部36は、挿入状況推定部33と形状判定部34のうち、優先される一方からの挿入形状カテゴリの出力を得れば良い。また、形状判定部34を優先する場合、挿入支援情報生成部36は、形状判定部34からの挿入形状カテゴリ情報と、部位推定部35からの内視鏡先端部が位置する部位の情報を組み合わせて用いることができる。すなわち、挿入状況推定部33と形状判定部34のうち、優先されない方からの出力は必須では無い。
 以上説明したように実施の形態1によれば、挿入状況推定部33の推定結果に、形状判定部34の判定結果と部位推定部35による部位の推定結果の少なくとも一方を組み合わせることで、内視鏡の挿入状況の誤認識を低減することができる。例えば、AIが誤認識しやすい挿入形状のときは、設計者が設定した判定ロジックに基づいて判定された挿入形状を採用することで、挿入形状の誤認識を低減することができる。
 図10は、実施の形態2に係る内視鏡挿入支援システム30の構成例を示す。実施の形態2に係る内視鏡挿入支援システム30は、図3に示した実施の形態1に係る内視鏡挿入支援システム30の構成に、体位情報取得部37および内視鏡形状補正部38が追加された構成である。
 図1の説明では、体位センサが配置された基準プレート20bが内視鏡挿入形状観測装置20に接続される例を示した。実施の形態2では体位センサが配置された基準プレート20bが直接、内視鏡挿入支援システム30に接続される例を想定する。挿入状況推定部33、形状判定部34および部位推定部35で使用される形状情報は、仰臥位の被検体の腹部側からの視点を基本としている。そのため、検査の途中で被検体の体位が変わってしまうと、実際と異なる内視鏡形状を認識してしまう可能性がある。
 体位情報取得部37は、基準プレート20bから、被検体の姿勢を示す3次元情報を体位情報として取得する。なお実施の形態2では、体位センサを被検体に装着して被検体の体位を計測する例に限定されない。例えば、診察用のベッドに複数の圧力センサを設置して、各圧力センサの検出値から被検体の体位を推定してもよい。また、検査室にカメラを設置し、カメラで撮影した動画像に映っている被検体の動きを画像認識で追従し、被検体の体位を推定してもよい。
 内視鏡形状補正部38は、内視鏡形状取得部31により取得された内視鏡挿入部の形状情報を、体位情報取得部37により取得された体位情報に基づき補正する。具体的には内視鏡形状補正部38は、体位情報で規定される被検体の姿勢の3次元的変化を打ち消すように、内視鏡挿入部の形状情報を変化させる。
 図11(a)-(b)は、体位変換前後の内視鏡形状B3の一例を示す図である。図11(a)は、仰臥位の被検体に挿入されている内視鏡形状B3を天井視点で見た例を示している。図11(b)は、左側臥位の被検体に挿入されている内視鏡形状B3を天井視点で見た例を示している。被検体の体位が変わると、天井視点で見た内視鏡形状B3が大きく変わる。
 図12は、実施の形態2に係る内視鏡挿入支援システム30の動作例を示すフローチャートである。内視鏡画像取得部32は内視鏡システム10から内視鏡画像を取得し、内視鏡形状取得部31は内視鏡挿入形状観測装置20から内視鏡挿入部の形状情報を取得し、体位情報取得部37は体位センサから体位情報を取得する(S10a)。
 内視鏡形状補正部38は、取得された形状情報の向きを体位情報をもとに補正する。内視鏡形状補正部38は例えば、取得された形状情報を常に、被検体の腹部側からの視点の形状情報になるように補正する(S15)。ステップS20以降の処理は、図9に示したフローチャートの処理と同様である。
 以上説明したように実施の形態2では、実施の形態1の効果に加え、さらに以下の効果を奏する。実施の形態2では、体位情報を取得することで、被検体の体位が現在どの体位にあるかを把握することができる。体位情報に基づき内視鏡挿入部の形状情報を補正することで、常に被検体の腹部側からの視点の形状情報を取り扱うことができる。
 図13は、実施の形態3に係る内視鏡挿入支援システム30の構成例を示す図である。実施の形態3に係る内視鏡挿入支援システム30は、図3に示した実施の形態1に係る内視鏡挿入支援システム30の構成に、腸管状態推定部39が追加された構成である。
 腸管状態推定部39は、内視鏡画像取得部32により取得された内視鏡画像を腸管状態学習モデル39aに入力して、腸管状態学習モデル39aから、内視鏡先端部と被検体の腸管壁との距離に係る状態(以下、腸管壁距離状態という)を取得する。腸管状態推定部39は例えば、腸管壁距離状態として、「至適距離」、「土管状」、「赤玉」のいずれかを取得することができる。「至適距離」は内視鏡先端部と腸管壁との距離が所定の範囲に収まっている状態を指す。「土管状」は管腔が真っ直ぐに伸びて視界が良好な状態を指す。「赤玉」は、内視鏡先端部が腸管壁に接触または接近して、真っ赤に見える状態を指す。
 腸管状態推定部39は、内視鏡画像取得部32により取得された内視鏡画像を腸管状態学習モデル39aに入力して、腸管状態学習モデル39aから、残渣または水に係る状態を取得することもできる。すなわち、腸管状態推定部39は、残渣または水が映った内視鏡画像を特定することができる。さらに、腸管状態推定部39は、残渣または水の他に、洗浄液、出血、憩室、または病変部(ポリープなど)が映った内視鏡画像を特定できてもよい。
 腸管状態学習モデル39aは、腸管壁距離状態、および残渣、水、洗浄液、出血、憩室、または病変部が映っているか否かの情報がアノテーションとして付与された多数の内視鏡画像を、教師付きデータセットとする機械学習により生成される。
 挿入支援情報生成部36は、挿入状況カテゴリと腸管壁距離状態に基づき、挿入支援情報を生成し、表示装置41に表示する。挿入支援情報生成部36は、腸管壁距離状態を参照することで、さらに細かく挿入状況を把握でき、その挿入状況に適したさらにきめ細かな挿入支援情報の呈示が可能となる。
 例えば、内視鏡先端部が位置する部位が「S状結腸(より具体的にはS状結腸の直腸側の最初のカーブ付近)」で、内視鏡挿入部の挿入形状が「ループなし・先端右向きに湾曲」の挿入状況カテゴリにおいて、腸管壁距離状態が取得されていない場合、挿入支援情報生成部36は、挿入支援情報として、右トルク操作を推奨するガイドを生成する。腸管壁距離状態が取得されている場合で、腸管壁距離状態が「至適距離」の場合も同様に、挿入支援情報生成部36は、挿入支援情報として、右トルク操作を推奨するガイドを生成する。これに対して、腸管壁距離状態が「土管状」の場合、挿入支援情報生成部36は、挿入支援情報として、プル操作または吸引で腸管壁に内視鏡先端部を近づける操作を推奨するガイドを生成する。
 挿入支援情報生成部36は、挿入状況カテゴリと、残渣または水に係る状態に基づき、挿入支援情報を生成することもできる。内視鏡画像に残渣または水が映っている場合、挿入支援情報生成部36は例えば、洗浄または吸引を推奨するガイドを生成する。
 図14は、実施の形態3に係る内視鏡挿入支援システム30の動作例を示すフローチャートである。ステップS10-ステップS40の処理は、図9に示したフローチャートの処理と同様である。腸管状態推定部39は、内視鏡画像取得部32により取得された内視鏡画像を腸管状態学習モデル39aに入力して、腸管状態学習モデル39aから腸管壁距離状態を取得する(S42)。ステップS50-ステップS80の処理は、図9に示したフローチャートの処理と同様である。挿入支援情報生成部36は、最終的に決定した挿入状況カテゴリと腸管壁距離状態の組み合わせに紐付いている挿入支援情報を取得し、取得した挿入支援情報を表示装置41に表示する(S90a)。
 なお、挿入状況学習モデル33aは、内視鏡挿入部の挿入状況カテゴリがアノテーションとして付与された多数の内視鏡挿入部の形状情報と多数の内視鏡画像(腸管壁距離状態付き)の組み合わせを、教師付きデータセットとする機械学習により生成されていてもよい。この場合、挿入状況推定部33は、内視鏡挿入部の形状情報と、対応する内視鏡画像と、対応する腸管壁距離状態を挿入状況学習モデル33aに入力して、挿入状況学習モデル33aから挿入状況カテゴリを取得する。
 以上説明したように実施の形態3では、実施の形態1の効果に加え、さらに以下の効果を奏する。実施の形態3では、腸管状態を参照することで、さらにきめ細かな挿入支援情報を呈示することができる。
 図15は、実施の形態4に係る内視鏡挿入支援システム30の構成例を示す。実施の形態4に係る内視鏡挿入支援システム30は、図3に示した実施の形態1に係る内視鏡挿入支援システム30の構成に、痛み推定部310が追加された構成である。
 痛み推定部310は、内視鏡挿入部の挿入形状と内視鏡先端部が位置する部位に基づき、被検体に生じる痛みを示す痛み情報を生成する。痛み情報には、少なくとも痛みの有無が含まれる。痛みの程度も含まれてもよい。内視鏡挿入部の挿入形状と内視鏡先端部が位置する部位の組み合わせごとに痛み情報が規定されたテーブルが予め用意される。内視鏡先端部が位置する部位は、部位推定部35で推定された内視鏡先端部が位置する部位を使用することができる。
 内視鏡挿入部の挿入形状は、形状判定部34で判定された挿入形状カテゴリが使用されてもよいし、形状判定部34による挿入形状のカテゴリ分類と異なるカテゴリ分類で分類された挿入形状が使用されてもよい。後者の場合、痛み推定用の挿入形状の学習モデルを用意するか、痛み推定用の挿入形状の判定ロジックを別に用意する。
 挿入支援情報生成部36は、挿入状況カテゴリと痛み情報に基づき、挿入支援情報を生成し、挿入支援情報を表示装置41に表示する。痛み情報を参照することで、痛み発生時に特有の挿入支援情報の呈示が可能となる。
 図16は、実施の形態4に係る内視鏡挿入支援システム30の動作例を示すフローチャートである。ステップS10-ステップS40の処理は、図9に示したフローチャートの処理と同様である。痛み推定部310は、内視鏡形状取得部31により取得された内視鏡挿入部の形状情報と、部位推定部35で推定された内視鏡先端部が位置する部位に基づき、痛み情報を生成する(S44)。ステップS50-ステップS80の処理は、図9に示したフローチャートの処理と同様である。挿入支援情報生成部36は、最終的に決定した挿入状況カテゴリと痛み情報に応じた挿入支援情報を生成し、生成した挿入支援情報を表示装置41に表示する(S90b)。
 以上説明したように実施の形態4では、実施の形態1の効果に加え、さらに以下の効果を奏する。実施の形態4では、痛み情報を参照することで、さらにきめ細かな挿入支援情報を呈示することができる。
 図17は、実施の形態5に係る内視鏡挿入支援システム30の構成例を示す。実施の形態5に係る内視鏡挿入支援システム30は、図3に示した実施の形態1に係る内視鏡挿入支援システム30の挿入支援情報生成部36が挿入制御情報生成部311に置き換わった構成である。
 挿入制御情報生成部311は、挿入状況カテゴリに基づいて、挿入制御情報を生成し、生成した挿入制御情報を内視鏡制御装置50に送信する。内視鏡制御装置50は例えば、全自動または半自動の内視鏡操作ロボットである。内視鏡制御装置50は、内視鏡挿入支援システム30から受信した挿入制御情報に基づき、内視鏡挿入部の挿入操作を全自動または半自動で実行する。
 以上説明したように実施の形態5によれば、誤った操作指示を内視鏡制御装置50に送信する可能性を低減することができる。
 以上、本開示を複数の実施の形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本開示の範囲にあることは当業者に理解されるところである。
 上記の実施の形態2-5においても、実施の形態1と同様に、所定の条件に応じて、挿入状況推定部33による挿入状況の推定処理と、形状判定部34による挿入形状の判定処理の一方を省略することも可能である。所定の条件は、挿入状況推定部33と形状判定部34のどちらの出力を優先するかを判定する優先度判定の結果に応じて決定される条件であってもよい。
 上記の実施の形態では、内視鏡11に複数の磁気コイルを内蔵して内視鏡形状を推定する例を説明した。この点、内視鏡11に複数の形状センサを内蔵して内視鏡形状を推定してもよい。形状センサは例えば、光ファイバを用いて特定箇所の曲率から曲げ形状を検出するファイバセンサであってもよい。ファイバセンサは例えば、挿入部11aの長手方向に沿って配置された光ファイバを有し、光ファイバには、長手方向に沿って複数の光検出器が設けられる。検出光出射装置から光ファイバに検出光が供給され、検出光が光ファイバを伝搬しているときの各光検出器で検出される光量の変化に基づいて、内視鏡形状を推定する。
 本開示は、大腸内視鏡検査に利用できる。
10・・・内視鏡システム、11・・・内視鏡、11a・・・挿入部、11b・・・先端硬質部、11c・・・湾曲部、11d・・・可撓管部、11e・・・操作部、11f・・・本体部、11g・・・把持部、12・・・磁気コイル、15・・・光源装置、20・・・内視鏡挿入形状観測装置、20a・・・受信アンテナ、20b・・・基準プレート、30・・・内視鏡挿入支援システム、31・・・内視鏡形状取得部、32・・・内視鏡画像取得部、33・・・挿入状況推定部、33a・・・挿入状況学習モデル、34・・・形状判定部、34a・・・形状カテゴリ判定ロジック、35・・・部位推定部、35a・・・部位学習モデル、36・・・挿入支援情報生成部、37・・・体位情報取得部、38・・・内視鏡形状補正部、39・・・腸管状態推定部、39a・・・腸管状態学習モデル、310・・・痛み推定部、311・・・挿入制御情報生成部、41・・・表示装置、42・・・入力装置、43・・・記憶装置、50・・・内視鏡制御装置。

Claims (22)

  1.  内視鏡挿入支援システムであって、
     ハードウェアを有する1つ以上のプロセッサを備え、
     前記プロセッサは、
     内視鏡検査時の内視鏡挿入部の形状情報を取得し、
     所定の条件に応じて、前記形状情報を挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得する、および前記形状情報を所定の形状カテゴリ判定ロジックに適用して、前記内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得する、の少なくとも一方を実行する、
     内視鏡挿入支援システム。
  2.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     優先度判定の結果に応じて、前記形状情報を前記挿入状況学習モデルに入力して前記挿入状況学習モデルから前記挿入状況カテゴリを取得する、および前記形状情報を前記形状カテゴリ判定ロジックに適用して前記挿入形状カテゴリを取得する、の少なくとも一方を実行する、
     内視鏡挿入支援システム。
  3.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記形状情報を前記挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得し、
     前記形状情報を前記形状カテゴリ判定ロジックに適用して、前記内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得し、
     前記挿入状況カテゴリに含まれる挿入形状カテゴリと、前記形状カテゴリ判定ロジックから取得した挿入形状カテゴリが不一致の場合、前記挿入状況カテゴリに含まれる挿入形状カテゴリを、前記形状カテゴリ判定ロジックから取得した挿入形状カテゴリに補正する、
     内視鏡挿入支援システム。
  4.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、前記挿入状況カテゴリに基づいて、挿入支援情報を生成し、前記挿入支援情報をモニタに表示する、
     内視鏡挿入支援システム。
  5.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、前記挿入状況カテゴリに基づいて、挿入制御情報を生成する、
     内視鏡挿入支援システム。
  6.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記内視鏡検査時の内視鏡画像を取得し、
     前記内視鏡画像を部位学習モデルに入力して、前記部位学習モデルから前記内視鏡画像に映る被検体の部位を取得する、
     内視鏡挿入支援システム。
  7.  請求項6に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記形状情報を前記挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得し、
     前記内視鏡検査時の内視鏡画像を部位学習モデルに入力して、前記部位学習モデルから前記内視鏡画像に映る被検体の部位を取得し、
     前記挿入状況カテゴリに含まれる被検体の部位と、前記部位学習モデルから取得した被検体の部位が不一致の場合、前記挿入状況カテゴリに含まれる被検体の部位を、前記部位学習モデルから取得した被検体の部位に補正する、
     内視鏡挿入支援システム。
  8.  請求項3に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記内視鏡検査時の内視鏡画像を取得し、
     前記形状情報と前記内視鏡画像を前記挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記挿入状況カテゴリを取得する、
     内視鏡挿入支援システム。
  9.  請求項6に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、前記内視鏡画像と前記形状情報を前記部位学習モデルに入力して、前記部位学習モデルから前記内視鏡画像に映る被検体の部位を取得する、
     内視鏡挿入支援システム。
  10.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記形状情報を前記挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得し、
     前記形状情報を前記形状カテゴリ判定ロジックに適用して、前記内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得し、
     前記形状情報に基づき、前記挿入状況カテゴリに含まれる挿入形状カテゴリを、前記形状カテゴリ判定ロジックから取得した挿入形状カテゴリに補正するか否か判定する、
     内視鏡挿入支援システム。
  11.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記形状情報を前記挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得し、
     前記形状情報を前記形状カテゴリ判定ロジックに適用して、前記内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得し、
     前記挿入状況カテゴリおよび前記挿入形状カテゴリの少なくとも一方に付与されている優先度情報に基づき、前記挿入状況カテゴリに含まれる挿入形状カテゴリを、前記形状カテゴリ判定ロジックから取得した挿入形状カテゴリに補正するか否か判定する、
     内視鏡挿入支援システム。
  12.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記形状情報を前記挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得し、
     前記形状情報を前記形状カテゴリ判定ロジックに適用して、前記内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得し、
     前記挿入状況学習モデルから取得された前記挿入状況カテゴリの信頼度に基づき、前記挿入状況カテゴリに含まれる挿入形状カテゴリを、前記形状カテゴリ判定ロジックから取得した挿入形状カテゴリに補正するか否か判定する、
     内視鏡挿入支援システム。
  13.  請求項12に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記形状情報が前記形状カテゴリ判定ロジックのいずれの条件も満たさず、かつ前記挿入状況カテゴリの信頼度が閾値未満の場合、前記内視鏡挿入部の挿入形状を推定不能と判定する、
     内視鏡挿入支援システム。
  14.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記所定の形状カテゴリ判定ロジックは、設計者により決定された判定ロジックである、
     内視鏡挿入支援システム。
  15.  請求項7に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     時系列の前記内視鏡画像を取得し、
     前記部位学習モデルにより検出される前記被検体の部位が所定時間、連続して検出されない場合、検出された前記被検体の部位を無効とする、
     内視鏡挿入支援システム。
  16.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     被検体の体位情報を取得し、
     前記体位情報に基づき、前記形状情報を補正する、
     内視鏡挿入支援システム。
  17.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記内視鏡検査時の内視鏡画像を取得し、
     内視鏡先端部と被検体の腸管壁との距離に係る状態を判定し、
     前記挿入状況カテゴリと、前記内視鏡先端部と前記被検体の腸管壁との距離に係る状態とに基づき、挿入支援情報または挿入制御情報を生成する、
     内視鏡挿入支援システム。
  18.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記内視鏡検査時の内視鏡画像を取得し、
     内視鏡先端部と被検体の腸管壁との距離に係る状態を判定し、
     前記形状情報、前記内視鏡画像および前記内視鏡先端部と被検体の腸管壁との距離に係る状態を前記挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記挿入状況カテゴリを取得する、
     内視鏡挿入支援システム。
  19.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、
     前記内視鏡検査時の内視鏡画像を取得し、
     残渣または水に係る状態を判定し、
     前記挿入状況カテゴリと、前記残渣または前記水に係る状態とに基づき、挿入支援情報または挿入制御情報を生成する、
     内視鏡挿入支援システム。
  20.  請求項1に記載の内視鏡挿入支援システムにおいて、
     前記プロセッサは、前記内視鏡挿入部の挿入形状と、内視鏡先端部が位置する部位に基づき、被検体に生じる痛みを示す痛み情報を生成し、前記痛み情報をモニタに表示する、
     内視鏡挿入支援システム。
  21.  内視鏡検査時の内視鏡挿入部の形状情報を取得することと、
     所定の条件に応じて、前記形状情報を挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得する、および前記形状情報を所定の形状カテゴリ判定ロジックに適用して、前記内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得する、の少なくとも一方を実行することと、
     を有する内視鏡挿入支援方法。
  22.  内視鏡検査時の内視鏡挿入部の形状情報を取得する処理と、
     所定の条件に応じて、前記形状情報を挿入状況学習モデルに入力して、前記挿入状況学習モデルから前記内視鏡挿入部の挿入状況をカテゴリ分類した挿入状況カテゴリを取得する、および前記形状情報を所定の形状カテゴリ判定ロジックに適用して、前記内視鏡挿入部の挿入形状をカテゴリ分類した挿入形状カテゴリを取得する、の少なくとも一方を実行する処理と、
     をコンピュータに実行させるプログラムを記憶した記憶媒体。
PCT/JP2022/012902 2022-03-18 2022-03-18 内視鏡挿入支援システム、内視鏡挿入支援方法および記憶媒体 WO2023175986A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2022/012902 WO2023175986A1 (ja) 2022-03-18 2022-03-18 内視鏡挿入支援システム、内視鏡挿入支援方法および記憶媒体
JP2024507480A JPWO2023175986A5 (ja) 2022-03-18 内視鏡挿入支援システム、内視鏡挿入支援システムの作動方法および記憶媒体
CN202280093524.2A CN118871024A (zh) 2022-03-18 2022-03-18 内窥镜插入辅助系统、内窥镜插入辅助方法以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/012902 WO2023175986A1 (ja) 2022-03-18 2022-03-18 内視鏡挿入支援システム、内視鏡挿入支援方法および記憶媒体

Publications (1)

Publication Number Publication Date
WO2023175986A1 true WO2023175986A1 (ja) 2023-09-21

Family

ID=88023103

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012902 WO2023175986A1 (ja) 2022-03-18 2022-03-18 内視鏡挿入支援システム、内視鏡挿入支援方法および記憶媒体

Country Status (2)

Country Link
CN (1) CN118871024A (ja)
WO (1) WO2023175986A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011500162A (ja) * 2007-10-11 2011-01-06 タフツ ユニバーシティー 光ファイバ形状追跡を採用したシステム、装置、および方法
WO2018069992A1 (ja) * 2016-10-12 2018-04-19 オリンパス株式会社 挿入システム
WO2019130390A1 (ja) * 2017-12-25 2019-07-04 オリンパス株式会社 推奨操作呈示システム、推奨操作呈示制御装置及び推奨操作呈示制御方法
WO2021024301A1 (ja) * 2019-08-02 2021-02-11 Hoya株式会社 コンピュータプログラム、内視鏡用プロセッサ、及び情報処理方法
WO2021038871A1 (ja) * 2019-08-30 2021-03-04 オリンパス株式会社 内視鏡制御装置、内視鏡挿入形状分類装置、内視鏡制御装置の作動方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011500162A (ja) * 2007-10-11 2011-01-06 タフツ ユニバーシティー 光ファイバ形状追跡を採用したシステム、装置、および方法
WO2018069992A1 (ja) * 2016-10-12 2018-04-19 オリンパス株式会社 挿入システム
WO2019130390A1 (ja) * 2017-12-25 2019-07-04 オリンパス株式会社 推奨操作呈示システム、推奨操作呈示制御装置及び推奨操作呈示制御方法
WO2021024301A1 (ja) * 2019-08-02 2021-02-11 Hoya株式会社 コンピュータプログラム、内視鏡用プロセッサ、及び情報処理方法
WO2021038871A1 (ja) * 2019-08-30 2021-03-04 オリンパス株式会社 内視鏡制御装置、内視鏡挿入形状分類装置、内視鏡制御装置の作動方法及びプログラム

Also Published As

Publication number Publication date
CN118871024A (zh) 2024-10-29
JPWO2023175986A1 (ja) 2023-09-21

Similar Documents

Publication Publication Date Title
EP1437083B1 (en) Endoscope insertion direction sensing method and endoscope insertion direction sensing apparatus
US20220361733A1 (en) Endoscopic examination supporting apparatus, endoscopic examination supporting method, and non-transitory recording medium recording program
US20220398771A1 (en) Luminal structure calculation apparatus, creation method for luminal structure information, and non-transitory recording medium recording luminal structure information creation program
JP7245360B2 (ja) 学習モデルの生成方法、プログラム、手技支援システム、情報処理装置、情報処理方法及び内視鏡用プロセッサ
US20210405344A1 (en) Control apparatus, recording medium recording learned model, and movement support method
WO2018235185A1 (ja) 挿入支援装置、挿入支援方法、及び挿入支援装置を含む内視鏡装置
JPWO2009069394A1 (ja) 内視鏡システム
WO2020165978A1 (ja) 画像記録装置、画像記録方法および画像記録プログラム
JP4855901B2 (ja) 内視鏡挿入形状解析システム
JP7385731B2 (ja) 内視鏡システム、画像処理装置の作動方法及び内視鏡
WO2019239545A1 (ja) 内視鏡システムおよび挿入部の推進方法
US20220218180A1 (en) Endoscope insertion control device, endoscope insertion control method, and non-transitory recording medium in which endoscope insertion control program is recorded
WO2023175986A1 (ja) 内視鏡挿入支援システム、内視鏡挿入支援方法および記憶媒体
JP4855912B2 (ja) 内視鏡挿入形状解析システム
JP7441934B2 (ja) 処理装置、内視鏡システム及び処理装置の作動方法
JP5530406B2 (ja) 内視鏡挿入方向検出装置の作動方法および内視鏡挿入方向検出装置
WO2019244345A1 (ja) ランドマーク推定方法、及び、内視鏡装置
WO2022230160A1 (ja) 内視鏡システム、内腔構造算出システム及び内腔構造情報の作成方法
US20200205902A1 (en) Method and apparatus for trocar-based structured light applications
WO2023181175A1 (ja) 内視鏡検査支援システム、内視鏡検査支援方法および記憶媒体
JP2011235176A (ja) 内視鏡挿入方向検出方法及び内視鏡挿入方向検出装置
CN116940275A (zh) 内窥镜图像处理装置及内窥镜图像处理方法
JP2021194268A (ja) 血管観察システムおよび血管観察方法
WO2023175732A1 (ja) 内視鏡検査支援システム、内視鏡検査支援方法および記憶媒体
WO2023175855A1 (ja) 内視鏡制御システムおよび内視鏡制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22932252

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2024507480

Country of ref document: JP

Kind code of ref document: A