WO2015029135A1 - Incidence rate evaluation device, incidence rate evaluation method, and incidence rate evaluation program - Google Patents
Incidence rate evaluation device, incidence rate evaluation method, and incidence rate evaluation program Download PDFInfo
- Publication number
- WO2015029135A1 WO2015029135A1 PCT/JP2013/072856 JP2013072856W WO2015029135A1 WO 2015029135 A1 WO2015029135 A1 WO 2015029135A1 JP 2013072856 W JP2013072856 W JP 2013072856W WO 2015029135 A1 WO2015029135 A1 WO 2015029135A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- morbidity
- difference
- image
- diagnosed
- images
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
- A61B2576/02—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
- A61B2576/026—Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
Definitions
- the present invention relates to a morbidity rate evaluation apparatus, a morbidity rate evaluation method, and a morbidity rate evaluation program.
- the image display device of Patent Literature 1 acquires a feature amount that represents an abnormal shadow from an abnormal shadow candidate region in a diagnostic image, searches for a similar feature amount from medical images stored in advance, The diagnostic image and the corresponding medical image are displayed so as to be comparable.
- the diagnosis support apparatus of Patent Literature 2 accumulates reference images that have been diagnosed in a database. Then, the image-like feature amount of the lesion position of the diagnostic image is extracted, the extracted feature amount is compared with each feature amount of the reference image, and the similarity is calculated. Further, a plurality of reference images having a high degree of similarity are selected, and a disease name probability that is an average value of the degrees of similarity is displayed for each disease name.
- the diagnosis support apparatus of Patent Document 3 stores examination history information including information on a lesion part of a subject. Then, according to the examination history information, the size of a lesion part to be processed is changed when data obtained from the subject is processed. Also, the occurrence probability of a lesion is calculated according to the examination history information, and the processing method of the lesion is changed according to the occurrence probability.
- the image collection device of Patent Document 4 collects images and detects the type and degree of progress of the abnormality. When the degree of progress is within a predetermined range, it is output that an additional inspection is necessary, and the inspection conditions for the additional inspection are determined.
- the hospital visitor selection device of Patent Document 5 acquires virtual patient data of a patient candidate based on disease information including the type of disease, date of occurrence, occurrence location, etc. of the patient candidate, and the patient candidate needs to go to the hospital. Determine whether or not.
- the study of Non-Patent Document 1 compares MRI (Magnetic Resonance Imaging) images of brains of patients with mild cognitive impairment in time series. And it reports that cerebral atrophy actually occurs for all patients studied.
- MRI Magnetic Resonance Imaging
- JP 2006-34585 A (Claim 1, paragraph 0031) Japanese Patent No. 4021179 (Claim 7, paragraph 0026) Japanese Patent No. 5159242 (Claims 1, 3 etc.) Japanese Patent No. 3495327 (Claim 1 etc.) JP 2010-113477 A (Claim 1 etc.)
- the devices of Patent Literatures 1, 2, and 3 calculate “feature amounts” of the respective images, and further calculate “similarity” from the two “feature amounts” (for example, And paragraph 0026 of Patent Document 2).
- the “feature amount” is a multidimensional vector having a plurality of physical quantities acquired from the medical image as components.
- the plurality of components many components including volume, lightness, circularity and the like are assumed.
- group health examinations, medical checkups, short-term health examinations of less than one year, etc. are performed for a large number of people and are frequently performed. In such a case, there are many technical and cost restrictions, and it is difficult to acquire a high-quality image with a large amount of information.
- the image acquisition device of Patent Document 4 detects the degree of progress of abnormality, and this detection is based on the premise that there is an example of precise diagnosis in which abnormality diagnosis has been made in the past. Therefore, the apparatus of Patent Document 4 is also unsuitable when it cannot be expected to acquire a high-quality image.
- the visitor selection apparatus of Patent Document 5 is intended for patients who already have some abnormality and actually have a visit history, and does not make any diagnosis for a patient to be newly diagnosed.
- the research of Non-Patent Document 1 uses images of patients who have been diagnosed with mild cognitive impairment in the past. Neither of them is intended for healthy individuals who are included in large numbers in subjects such as group health examinations, medical checkups, and short-term health examinations of less than one year. Therefore, the present invention determines whether or not there is an abnormality based on an image that is not necessarily high in quality when it is necessary to take a medical image of a large number of people in a short period of time, such as in a group medical examination, and for each disease name The purpose is to calculate the likelihood of morbidity.
- the morbidity evaluation apparatus includes a storage unit that stores diagnostic information in which a difference between two images at different imaging time points and a disease name are stored in association with a body part, and a user stores Accepting the input of the category of the feature amount of the image and the part to be diagnosed, and calculating the difference between the two images at different imaging time points when imaging the part to be diagnosed by the diagnosis subject for the received category,
- the diagnosis information is searched using the part to be diagnosed and the calculated difference as a search key, the disease name of the corresponding record is acquired, and the ratio of the number of the corresponding record to the number of records having the part
- a control unit that calculates the morbidity based on the acquired morbidity and displays the calculated morbidity for each acquired disease name. Other means will be described in the embodiment for carrying out the invention.
- the presence or absence of an abnormality is determined based on an image that is not necessarily high in image quality, and for each disease name It is possible to calculate the possibility of morbidity.
- a current medical image 102 is obtained for a certain part of the patient to be diagnosed (in the example of FIG. 1, the brain).
- past medical images 101 for the relevant part of other patients are accumulated.
- the medical image 101 is obtained by imaging the relevant part of many patients, and has a medical image ID 103 that uniquely identifies the medical image.
- correspondence information 104 in which the disease name diagnosed by the doctor is stored in association with the medical image ID.
- the similarity S is a scalar quantity calculated by the following Equation 1 with the feature quantity vector Q and any one feature quantity vector P as inputs.
- E is a vector whose n components are all “1”.
- W is a vector having the weight of each feature quantity as n components.
- is the sum (scalar amount) of the components of the vector “W”.
- W t is a “transpose matrix” of the vector “W”, and when “W t ” is multiplied by the vector “E ⁇ (QP)” from the right, a scalar quantity is calculated.
- the components of the vectors “P” and “Q” are normalized to a range of 0 to 1.
- the apparatus completes the correspondence information 104 by associating such similarity S with past medical images on a one-to-one basis.
- the apparatus specifies the disease name corresponding to the past medical image having the highest similarity (close to “1”) as the disease name of the patient who is the current diagnosis target.
- the following problems occur.
- ⁇ In the first place, it is generally impossible to expect high-quality medical images that can acquire many types of feature values. -Comparing medical images that do not have sufficiently high image quality, a temporary calculation is possible, but a meaningless result is output. For example, as a result of not being able to detect a difference, similar levels of similarity are calculated for all past medical images.
- ⁇ Long time required for processing. ⁇ Comparing the feature level itself without having the idea of change along the time axis. Therefore, the feature amount of the medical image of the healthy target patient is coincidentally similar to the feature amount of the medical image of the affected patient and may be misdiagnosed as suffering from some disease.
- FIG. 2 An outline of information processing according to the present embodiment will be described with reference to FIGS. Details will be described later along a separate flowchart.
- FIG. 2 will be described.
- the past medical image 111 is acquired for a certain part of the patient to be diagnosed (also the brain in the example of FIG. 2).
- the current medical image 112 is also acquired for the part of the patient.
- the morbidity rate evaluation apparatus 1 (FIG. 6) of the present embodiment can use the past diagnosis examples 114.
- Various diagnosis examples 114 can be assumed.
- a plurality of two-dimensional graphs showing the relationship between the rate of change and the number of diagnoses are prepared for each disease.
- the morbidity rate evaluation apparatus 1 determines a certain feature amount (category). Assume that the determined feature amount is, for example, “area”. Secondly, the morbidity evaluation apparatus 1 extracts a difference between feature amounts.
- the difference in “area” is simply the difference between the cross-sectional area of the portion expressed as the brain in the medical image 111 and the cross-sectional area of the portion expressed as the brain in the medical image 112.
- the difference can also be expressed as a numerical value (unit: cm 2 ) by converting the number of pixels into an area. Further, it can be expressed as a medical image 113 as a portion (a contracted portion) having a specific pixel value that exists in the medical image 111 and does not exist in the medical image 112.
- the morbidity evaluation apparatus 1 calculates the change rate R (percentage) of the difference by the following formula 2.
- R (q 1 ⁇ p 1 ) / p 1 ⁇ 100 (Formula 2)
- p 1 is the area of the brain of the medical image 111.
- q 1 is the area of the brain of the medical image 112.
- the morbidity evaluation apparatus 1 applies the difference to all the graphs, and acquires the number of diagnoses for each disease.
- the morbidity evaluation device 1 displays the disease name and the morbidity in association with each other in descending order of the number of diagnoses.
- the morbidity is, for example, a numerical value (percentage) obtained by dividing the acquired number of diagnoses by the total number of diagnoses (through all diseases) for the site.
- the feature quantity is “lightness” in FIG. 3.
- the difference in “brightness” is simply the brightness of the portion expressed as the brain in the medical image 111 (for example, the average value of gray scales of 0 to 255 of each pixel) and the portion expressed as the brain in the medical image 112. It is the difference from brightness.
- the difference can be expressed as a unitless numerical value. Further, it may be expressed as a medical image 113 with a color or the like determined in advance according to the magnitude of the difference.
- brain diseases such as those that develop as a change in “area”, those that develop as a change in “brightness”, and those that develop as a change in other features.
- the user can also search for disease names using the rate of change of a certain feature amount as a key. It is also possible to search for disease names using as a key a combination of change rates of a plurality of feature amounts (for example, “area” decreases and “brightness” increases).
- FIG. 4 is similar to FIG. 2 (where “area” is a feature amount).
- the change rate of the area is a single numerical value.
- the area change rate is greatly different in that it is a plurality of numerical values indicating changes in change along a time series.
- a past medical image 121 of a part (a brain) of a patient to be diagnosed is acquired.
- a plurality of current and near past medical images 122 of the relevant part of the patient are also acquired.
- the morbidity evaluation apparatus 1 extracts a difference between each of the medical images 122 (current now, previous now-1 and previous time now-2) and the oldest medical image 121 serving as a reference (std). (Reference numeral 123), and the change rate 124 of the difference with respect to the reference is calculated. The change rate of the difference is calculated by the number of medical images 122. Secondly, the morbidity rate evaluation apparatus 1 creates a time-series graph 125 of the change rate. Thirdly, the morbidity rate evaluation apparatus 1 applies the time series graph 125 of the change rate to a plurality of “types” (reference numeral 126). The “type” is a time-series graph pattern of change rate created based on past diagnosis examples (details will be described later).
- the morbidity rate evaluation apparatus 1 specifies the “type” that most closely approximates the created time series graph 125.
- the morbidity evaluation apparatus 1 displays the name of a disease having the specified type in association with the morbidity that is a percentage obtained by dividing the number of diagnoses of the disease by the total number of diagnoses of the type. It is assumed that the morbidity evaluation apparatus 1 creates correspondence information 127 in which one or a plurality of diseases and the number of diagnoses thereof are stored in association with a type based on past diagnosis examples.
- FIG. 5 will be described. Compared with the example of FIG. 4, the only difference is that the feature quantity is “lightness” in FIG. 5.
- Brain diseases that develop as time-series changes in “area”, those that develop as time-series changes in “brightness”, and those that develop as time-series changes in other feature values There are various things such as things.
- the user can also search for a disease name using a time-series transition of a change in a certain feature amount as a key. It is also possible to search for disease names using a combination of time-series transitions of changes in a plurality of feature quantities (for example, “area” repeatedly shrinks and expands and “brightness” simply continues to increase) as a key. it can.
- the morbidity evaluation apparatus 1 is a general computer.
- the morbidity evaluation device 1 includes a central control device 11, an input device 12 such as a keyboard, a mouse, and a touch screen, an output device 13 such as a display, a main storage device 14, an auxiliary storage device 15, and a communication device 16. These are connected to each other by a system bus.
- the relative position correction unit 21, the difference image calculation unit 22, the change rate calculation unit 23, the abnormality presence / absence determination unit 24, the morbidity rate calculation unit 25, and the input / output control unit 26 in the main storage device 14 are programs. Thereafter, when the subject is described as “XX section”, the central control device 11 reads each program from the auxiliary storage device 15 and loads it into the main storage device 14, and then the function of each program (detailed later). Shall be realized.
- the auxiliary storage device 15 stores image management information 31, abnormality determination information 32, doctor diagnosis information 33, and a medical image 34. These details will be described later.
- the input / output control unit 26 corresponds to “input unit” and “output unit”.
- the morbidity evaluation device 1 is connected to the terminal device 2 through the network 4 so as to be communicable.
- the terminal device 2 is also a general computer, and is connected to each other via a central control device, an input device such as a keyboard, a mouse, and a touch screen, an output device such as a display, a main storage device, an auxiliary storage device, and a communication device. (Not shown).
- the imaging device 3 is a device that captures a medical image from the body. There are various types of medical images picked up by the image pickup device 3, such as a CT (Computed Tomography) image, an MRI image, a PET (Position Emission Tomography) image, an X-ray image, an ultrasonic image, an endoscopic image, and the like. obtain.
- the imaging device 3 can output the captured image as a digital image (consisting of pixels and their pixel values) that can be processed by a computer including the morbidity evaluation device 1 and the terminal device 2.
- the morbidity rate evaluation device 1, the terminal device 2, and the imaging device 3 are often arranged in a clinic or the like.
- a doctor or the like acquires a medical image of the body of a patient (including a healthy person) by using the imaging device 3 at an opportunity such as a health checkup.
- the doctor or the like inputs the medical image to the terminal device 2 and displays the medical image on an output device (display), for example.
- the medical image is transmitted to the morbidity evaluation apparatus 1 via the network 4.
- the morbidity evaluation apparatus 1 creates a “diagnosis result” using the received medical image and sends it back to the terminal apparatus 2.
- FIG. 6 it is assumed that a plurality of terminal devices 2 access one morbidity rate evaluation device 1.
- the morbidity rate evaluation device 1 and the terminal device 2 may be configured in a single casing.
- the morbidity evaluation apparatus 1 is divided into a plurality of cases for each body part (brain, lung,%), For each medical department (brain neurology, circulatory organ department,). It may be.
- the user who uses the terminal device 2 or the like may be a person other than a doctor, for example, an employee of a life insurance company, a patient himself including a healthy person, or the like.
- a doctor for example, an employee of a life insurance company
- a patient himself including a healthy person, or the like.
- doctors' diagnosis examples should not be published.
- the person who manages his / her health condition can also obtain the diagnosis example by himself and operate the morbidity evaluation apparatus 1 of the present embodiment.
- a health-related business operator obtains a diagnosis example from a doctor or the like, receives a medical image of the customer from a general customer, and operates the morbidity evaluation apparatus 1 to provide a diagnostic service to the customer. It becomes possible.
- the image management information 31 will be described with reference to FIG.
- the patient name column 202 contains the patient name
- the image ID column 203 contains the image ID
- the imaging device ID column 204 contains the imaging device.
- the ID is stored in the imaging time column 205
- the site name column 206 is stored with the site name
- the image file name column 207 is stored with the image file name.
- the patient ID in the patient ID column 201 is an identifier that uniquely identifies a patient.
- “patient” means a general subject who can acquire an image of the body. In other words, “patient” is a concept including “healthy person” who is not affected.
- the patient name in the patient name column 202 is the name of the patient.
- the image ID in the image ID column 203 is an identifier that uniquely identifies a medical image.
- the imaging device ID in the imaging device ID column 204 is an identifier that uniquely identifies the imaging device 3.
- the imaging time point in the imaging time point column 205 is the date when the medical image is captured.
- the part name in the part name column 206 is a name of a part (part) of the patient's body.
- the site name may be, for example, a nerve center such as the brain and medulla, an organ such as the heart and lungs, and a skeleton such as the pelvis and femur.
- the image file name in the image file name field 207 is a name of a medical image as digital image information.
- the abnormality determination information 32 will be described with reference to FIG.
- the feature amount column 212 has a feature amount
- the priority column 213 has a priority
- the normal change rate range column 214 has a normal state.
- the change rate range, the normal change amount range column 215 stores the normal change amount range
- the unit column 216 stores the unit
- the change period 217 stores the change period.
- the part name in the part name column 211 is the same as the part name in FIG.
- the feature amount in the feature amount column 212 is a category of the physical amount of the part that can be acquired from the medical image.
- the feature amount mainly expresses the shape, properties, etc. of the part, and specific examples thereof will be described later.
- the morbidity evaluation apparatus 1 acquires a difference between feature quantities at two different time points, and estimates the morbidity for each disease name (candidate) from past diagnosis examples based on the difference (details will be described later).
- the priority in the priority column 213 is a priority order among the feature amounts when there are a plurality of feature amounts corresponding to one part name. The lower the number, the higher the priority.
- the normal change rate range in the normal change rate range column 214 is a combination of the upper limit and the lower limit of the change rate at which a doctor or the like diagnoses as normal.
- the upper and lower limits do not always need to be equidistant around “0”.
- the upper limit may be “+ 3%” and the lower limit may be “ ⁇ 2%”.
- the change rate is a rate (percentage) at which the feature amount changes.
- the rate of change is calculated by Equation 3 below.
- Rate of change (feature before change ⁇ feature after change) / feature before change ⁇ 100 (Formula 3)
- the normal change amount range in the normal change amount range column 215 is a combination of the upper limit and the lower limit of the change amount that a doctor or the like diagnoses as normal.
- the change amount is an absolute amount at which the feature amount changes.
- the amount of change is calculated by Equation 4 below.
- Change amount feature amount before change-feature amount after change (Formula 4)
- the unit in the unit column 216 is a feature amount unit. It can be unitless.
- the feature quantity expressed by an 8-bit binary number (0 to 255 in decimal number) such as “brightness” is “no unit”.
- the change period of the change period 217 indicates how long the change rate and change amount of the feature amount are converted into the change rate and change amount over the period. For example, the rate of change “+ 1%” in the change period “1 month” indicates that a certain feature value changes “+ 12%” in 12 months, “+ 6%” in 6 months, and “+0.5 in half a month. % "Changes, ... are shown equally.
- the change amount “+1” of the change period “1 month” is, for example, that a certain feature amount changes “+12” in 12 months, “+6” changes in 6 months, and “+0.5 in half months”. "Indicates changing, ... equally.”
- “...” Is an abbreviated expression of the numerical value stored in each column, and does not mean that there is no numerical value in that column.
- the morbidity evaluation apparatus 1 counts, for example, the number of pixels within a region closed by a contour and having a pixel value in a specific range among pixels of a medical image, and determines the number.
- the area of the brain (more precisely, the cross-sectional area) can be calculated by converting it into an area according to the above rule.
- the morbidity evaluation apparatus 1 calculates, for example, an average value of pixel values (for example, a gray scale of 0 to 255) of pixels within a region closed by a contour in a medical image, etc.
- the brightness of the brain can be calculated.
- “lightness dispersion” can be obtained by subdividing the area and calculating the variance of the average value of the pixel values in each subdivided area.
- the morbidity evaluation apparatus 1 calculates the circularity of the brain (accurately, for example, by calculating the aspect ratio of the region closed by the contour in the medical image, or by applying the contour shape or the like to the template. Is the circularity of the cross section).
- an endoscopic image (color image) of “stomach” is assumed.
- “Color” The morbidity evaluation apparatus 1 calculates the average value of pixel values (for example, 0 to 255 for each of R, G, and B) of pixels in the imaged region, for example, and so on. The color (hue) of can be calculated.
- “Texture” The morbidity evaluation apparatus 1 calculates the texture statistics (unevenness, texture, etc.) of the stomach inner wall by performing, for example, spatial frequency analysis, Fourier transform, etc. on the pixels in the imaged region. can do.
- an X-ray image of “lung” is assumed.
- “Number of nodules” The morbidity evaluation apparatus 1 counts the number of shadows having a predetermined lightness and circularity between straight outlines (ribs), for example, and thereby presents nodules (tumors or the like) existing in the lungs. The number of lesions) is often calculated.
- the morbidity evaluation apparatus 1 uses the existing technology and uses other features such as “blood flow velocity”, “temperature”, “saturation”, and the like of a specific part. You can also get As shown in FIG. 8, a plurality of feature amounts correspond to one part. Of course, there are individual circumstances such that a specific feature amount is easily acquired for a certain part and is difficult to acquire for another part (or cannot be assumed in the first place). However, in FIG. 8, such individual circumstances are omitted for the sake of simplicity of explanation.
- doctor diagnosis information 33 (Doctor's diagnosis information)
- the doctor diagnosis information 33 in association with the patient ID stored in the patient ID column 221, the doctor ID column 222 has a doctor ID, the diagnostic image ID column 223 has a diagnostic image ID, and the region name column 224 has a region.
- the change rate column 225 stores the change rate, the change amount 226 stores the change amount, the disease name column 227 stores the disease name, and the diagnosis time column 228 stores the diagnosis time point.
- the patient ID in the patient ID column 221 is the same as the patient ID in FIG.
- the doctor ID in the doctor ID column 222 is an identifier that uniquely identifies the doctor who diagnosed the patient.
- the diagnostic image ID in the diagnostic image ID column 223 is the same as the image ID in FIG. However, here, the image ID of the medical image (the medical image having the feature “p” in FIGS. 2 to 5) serving as a reference for comparing the feature and the medical image (FIG. 2 to 5 are combinations of image IDs of medical images having the feature quantity “q”.
- the site name in the site name column 224 is the same as the site name in FIG. However, the site name here may be a site name based on the subjective symptoms of the patient, and it does not matter whether or not there is a disease in the site as seen from the doctor's eyes.
- the change rate in the change rate column 225 is a vector having the change rate of each feature amount as a component.
- the feature amounts for the part name “brain” are “area”, “lightness”, “temperature”, “color”, “circularity”, and “texture” in descending order of priority.
- the disease name in the disease name column 227 is the name of the disease diagnosed by the doctor based on his / her opinion after referring to the medical image, change rate, and change amount specified by the diagnostic image ID. When there is no disease at the site as seen from the doctor's eyes, “(not applicable)” is stored.
- the diagnosis time point in the diagnosis time point column 228 is the date when the doctor made a diagnosis.
- the patient “Jiro Koizumi” whose patient ID is “P002” is aware that there is an abnormality in the brain.
- ⁇ "Jiro Koizumi” has been treated by doctor “D002” four times.
- the four dates are “2012415”, “201220515”, “2012615”, and “20120715”.
- the doctor “D002” compares the medical images “I101” and “I102” at the first diagnosis time “2012415”.
- the medical image “I101” is acquired at a time point “20120315” before the first diagnosis time point.
- Jiro Koizumi has brought the medical image “I101” to the doctor “D002” at the time of the first diagnosis.
- the medical image “I102” is acquired by the doctor “D002” himself at the first diagnosis time using the imaging device “M004”.
- the doctor “D002” acquires a medical image using the imaging device “M004” each time three times after that, and obtains the acquired images “I103”, “I104”, and “I105” as medical images. It is compared with “I101”. -Regarding the “area” of the brain, the rate of change “ ⁇ 1%” continues and the amount of change “ ⁇ 5” continues. These numerical values are converted into the change rate (amount) of “change period 1 month”. Eventually, the brain area continues to contract by “ ⁇ 1%” for the rate of change by month and by “ ⁇ 5 cm 2 ” for the amount of change.
- the rate of change changes as “+ 4%, ⁇ 4%, + 6%, ⁇ 2%”, and the amount of change is “+8, ⁇ 8, + 12%, ⁇ 4%” It has changed as follows. Eventually, the lightness tends to increase while repeating large and decreasing amplitudes. The doctor “D002” has consistently diagnosed “mild cognitive impairment” since the first diagnosis.
- the records in the third to sixth lines in FIG. 9 are records for the patient “P002”. These records correspond to the time series graphs 231 and 232 in FIG. Attention is paid to the first (leftmost) component of each vector stored in the change rate column 225 of the records in the third to sixth lines in FIG. The component indicates the rate of change of the area of the brain, and in order from the top record, that is, in time series, “ ⁇ 1%”, “ ⁇ 1%”, “ ⁇ 1%” and “ ⁇ 1%” is there.
- a graph showing the transition of the time series is a time series graph 231 in FIG.
- the component indicates the change rate of the lightness of the brain, and is “+ 4%”, “ ⁇ 4%”, “+ 6%”, and “ ⁇ 2%” in order from the top record, that is, in time series.
- a graph showing the transition of this time series is a time series graph 232 of FIG.
- the records in the seventh to tenth lines in FIG. 9 are records for the patient “P003”. These records correspond to the time series graphs 233 and 234 of FIG. Attention is paid to the first (leftmost) component of each vector stored in the change rate column 225 of the records in the seventh to tenth lines in FIG. This component indicates the rate of change in the number of nodules in the lung, and is “+ 3%”, “+ 3%”, “+ 4%”, and “+ 4%” in order from the top record, that is, in time series. A graph showing the transition of this time series is a time series graph 233 in FIG. Similarly, attention is focused on the second component (from the left) of each vector stored in the change rate column 225 of the records in the seventh to tenth rows in FIG.
- This component indicates the change rate of lightness dispersion of the lung, and is “+ 2%”, “+ 2%”, “+ 3%”, and “+ 3%” in order from the top record, that is, in time series.
- a graph showing the transition of this time series is a time series graph 234 in FIG.
- Type list In the type list 35 of FIG. 10, in association with the types stored in the type column 241, the code transition column 242 shows the code transition, the increase / decrease trend column 243 shows the increase / decrease trend, and the time series graph example column 244 An example of a time series graph is stored in.
- the type in the type column 241 is an identifier that uniquely identifies the type.
- the type is a combination of “sign transition” and “increase / decrease tendency”.
- the sign transition in the sign transition column 242 indicates how the sign of the change rate changes.
- the increase / decrease trend in the increase / decrease trend column 243 indicates how the level of the change rate tends to change.
- the example of the time series graph in the time series graph example column 244 is a code of the time series graph corresponding to the type. It can be seen that the time series graph 231 belongs to the type “a”, the time series graph 232 belongs to the type “b”, and the time series graphs 233 and 234 both belong to the type “c”.
- the morbidity rate evaluation apparatus 1 can calculate the morbidity rate by executing one of them.
- the first processing procedure will be described with reference to FIG. It is assumed that the image management information 31, the abnormality determination information 32, and the doctor diagnosis information 33 are stored in the auxiliary storage device 15 in a completed state at the time of starting the first processing procedure. Furthermore, it is assumed that all the medical images 34 whose image IDs are stored in the image management information 31 are stored in the auxiliary storage device 15. For the sake of simplification of description, it is assumed that the morbidity rate evaluation device 1 and the terminal device 2 are combined into one housing. That is, it is assumed that a user such as a doctor is operating the input device 12 of the morbidity evaluation apparatus 1 or the like.
- step S301 the input / output control unit 26 acquires a medical image to be compared. Specifically, the input / output control unit 26 accepts that a user such as a doctor inputs a patient ID, a part name, and a medical image via the input device 12.
- the medical image input here is the current medical image (reference numeral 112 in FIG. 2), and may be referred to as a “comparison medical image” hereinafter.
- the patient ID and the part name received here may be hereinafter referred to as “target patient ID” and “target part name”, respectively.
- step S ⁇ b> 302 the input / output control unit 26 acquires a medical image for comparison reference. Specifically, the input / output control unit 26 first searches the image management information 31 (FIG. 7) using the target patient ID and the target part name as search keys, and the imaging point of time is the latest among the corresponding records. Get a record. Second, the input / output control unit 26 acquires from the auxiliary storage device 15 a medical image having the image ID of the record acquired in “first” in step S302. Assume that all medical images stored in the auxiliary storage device 15 are assigned image IDs. The medical image acquired here may be referred to as a “comparison reference medical image” hereinafter.
- step S303 the relative position correction unit 21 aligns the medical image.
- Both images have the same target patient and part, but there are cases in which the imaging devices that acquired these images are different. Furthermore, even if both images are acquired by the same imaging device, the setting conditions, imaging environment, and the like of the imaging device at the time of each imaging may be different. Then, both images cannot be compared as they are. Therefore, it is necessary to align the images of both images as a step before obtaining the difference by superimposing both images (reference numeral 113).
- the relative position correction unit 21 first selects two points having a small temporal change such as a skeleton from the comparative reference medical images. How to select such two points differs depending on the part. In the case of a medical image of the brain, such two points are, for example, the center of gravity 111a (FIG. 2) of the skull and the vertex 111b (FIG. 2) of the skull. Hereinafter, the description will be continued by taking the case of the brain as an example. Second, the relative position correction unit 21 selects points (points 112a and 112b in FIG. 2) corresponding to the two points selected in “first” in step S303 from the comparison target medical images.
- the relative position correction unit 21 places the comparison target medical image and the comparison reference medical image on the same plane. Then, the comparison target medical image is entirely reduced or enlarged so that the point 112a overlaps the point 111a and the point 112b overlaps the point 111b.
- the comparison target medical image reduced or enlarged in this way may be hereinafter referred to as a “position corrected comparison target medical image”.
- step S304 the difference image calculation unit 22 determines a feature amount to be compared. Specifically, the difference image calculation unit 22 first searches the abnormality determination information 32 (FIG. 8) using the target part name as a search key, and displays all corresponding records on the output device 13. Second, the difference image calculation unit 22 selects one or a plurality of feature quantities (categories) via the input device 12 from the feature quantities of the record displayed in “first” in step S304. Accept to do. At this time, the difference image calculation unit 22 may accept that the user inputs the number of feature quantity categories.
- the difference image calculation unit 22 when “2” is input, the difference image calculation unit 22 includes the feature amount (“area” and “area” of the record having the target part name in the abnormality determination information 32 and the priority is “2” or less. It is assumed that “brightness”) is selected. Here, the following description will be continued assuming that only “area” is selected.
- the feature amount selected here may be hereinafter referred to as “selected feature amount”.
- the difference image calculation unit 22 accepts that the user selects one of “change rate” and “change amount” via the input device 12. Here, the following description will be continued assuming that “change rate” is selected.
- the difference image calculation unit 22 creates a difference image. Specifically, the difference image calculation unit 22 first superimposes the comparison reference medical image and the post-position correction comparison target medical image, and calculates any pixel in the union area from the pixel value of the comparison target medical image. Then, the pixel value of the comparison reference medical image is subtracted.
- the “union area” is the union part of the brain contour area in the comparative reference medical image and the brain outline area in the post-position correction comparison target medical image (the part to which either corresponds). is there.
- the difference image calculation unit 22 may execute the process for pixels at all positions in the union area. Further, in the union region, when the pixel position is specified as the first, second, third,... From left to right and further from top to bottom, for example, the “integer multiple of 10” th Processing (thinning-out processing) may be performed only for the pixel at the position.
- the difference image calculation unit 22 identifies pixels that exceed a certain threshold value as a result of the “first” subtraction in step S305. Usually, there is a significant difference between the pixel value of a pixel in which brain tissue is imaged and the pixel value of a pixel that is not (in the brain space).
- the difference image calculation unit 22 sets the pixel value of the pixel specified in “second” in step S305 as a predetermined pixel value (for example, a pixel value representing “white”), and sets the pixel values of other pixels as other values.
- a difference image having a predetermined pixel value for example, a pixel value representing “black” is created. According to the difference image, the user can easily visually recognize which part of the part is reduced or enlarged.
- step S306 the change rate calculation unit 23 calculates the change rate and the like. Specifically, the change rate calculation unit 23 first counts the number of pixels belonging to the region within the outline of the brain among the pixels of the comparative reference medical image, and further calculates a predetermined conversion coefficient for the number. The area “p” is the result of multiplying. Secondly, the change rate calculation unit 23 counts the number of pixels belonging to the region within the outline of the brain among the pixels of the comparison target medical image, and further multiplies the number by the conversion coefficient, The area is “q”. Third, the change rate calculation unit 23 calculates the change rate ((q ⁇ p) / p ⁇ 100).
- the change rate calculation unit 23 calculates the change amount (q ⁇ p).
- the rate-of-change calculating unit 23 uses the difference between the number of days when the comparative reference medical image is captured and the time when the comparative target medical image is captured to calculate the rate of change calculated in “third” in step S306. Convert to the rate of change. For example, when the difference in the number of days is “50 days” and the “change period” corresponding to the selected feature amount is one month, the change rate calculated in “third” in step S306 is multiplied by “30/50”. To do.
- the abnormality presence / absence determination unit 24 determines the presence / absence of an abnormality. Specifically, the abnormality presence / absence determination unit 24 first searches the abnormality determination information 32 (FIG. 8) using the target part name and the selected feature amount as a search key, and acquires the normal change rate range of the corresponding record. To do. If “change amount” is received in “third” in step S304, the abnormality presence / absence determination unit 24 acquires a normal change amount range. Secondly, the abnormality presence / absence determination unit 24 determines whether or not the change rate converted in “fourth” in step S306 is within the normal change rate range acquired in “first” in step S307. If it is within the range, the determination result “normal” is generated, and if it is not within the range, the determination result “abnormal” is generated.
- the morbidity rate calculation unit 25 calculates the morbidity rate. Specifically, the morbidity rate calculation unit 25 first acquires records satisfying all of the following conditions 1 and 2 from the doctor diagnosis information 33 (FIG. 9). (Condition 1) The site name (column 224) matches the target site name. (Condition 2) The change rate (column 225) corresponding to the selected feature amount matches the change rate converted in “fourth” in step S306. Or even if it does not completely match, it is included within a predetermined error range. Now, assume that the target region name is “brain”, the selected feature amount is “area”, and the change rate converted in “fourth” in step S306 is “ ⁇ 1%”. Then, the records in the third to sixth lines and the eleventh line in FIG. 9 are acquired.
- the morbidity rate calculation unit 25 acquires disease names of all the records acquired in “first” in step S308. And the number of the acquired records is hold
- step S309 the input / output control unit 26 displays the diagnosis result. Specifically, the input / output control unit 26 displays the diagnosis result display screen 51a (FIG. 13) on the output device 13, and displays the following information in the following columns of the diagnosis result display screen 51a.
- the determination result table 137 includes a feature amount column 137a, a change rate column 137b, a change amount column 137c, and a determination result column 137d.
- the feature amount column 137a all feature amounts corresponding to the target part names are displayed.
- the input / output control unit 26 displays the change rate (or change amount) converted in “fourth” in step S306 in the change rate column 137b (or change amount column 137c) of the row having the selected feature amount.
- the determination result generated in the “second” in step S307 is displayed in the determination result column 137d. Note that “*” indicates that no processing was performed for the column.
- the morbidity rate table 138 has a disease name column 138a, a morbidity rate column 138b, and a confirmation column 138c.
- the input / output control unit 26 selects a combination of the disease name and the morbidity such as “(mild cognitive impairment, 57%), (dementia, 14%)” held in “fourth” in step S308, and displays the disease name column. 138a and the morbidity column 138b.
- step S310 the input / output control unit 26 registers the diagnosis result. Specifically, in the input / output control unit 26, first, a user such as a doctor inputs a check mark in a check box displayed in the confirmation column 138c of any row of the morbidity rate table 138, and “ It is accepted that the “determined result registration” button 139 is pressed. A user such as a doctor confirms the comparative reference medical image 134a, the post-position correction comparison target image 135a, the difference image 136, and the determination result table 137, and inputs a check mark based on his / her own opinion. A check mark does not have to be entered in the row with the highest morbidity in the morbidity table 138.
- the input / output control unit 26 creates a new record of the doctor diagnosis information 33 (FIG. 9), and stores the following information in the following columns of the new record.
- Patient ID column 221 Target patient ID Doctor ID column 223: User's own doctor ID
- Diagnosis image ID column 223 Image ID of the comparison reference medical image, and image ID of the newly assigned comparison target medical image
- Part name column 224 Position of the component corresponding to the selected feature amount in the target part name / change rate column 225 (or change amount column 226): Change rate (or change amount) converted in “fourth” in step S306 -Position of other components in the change rate column 225 (or change amount column 226): "*" -Disease name column 227: Disease name corresponding to the input check mark or “(Not applicable)”
- Diagnosis time column 228 Current date and time Then, the first processing procedure is terminated.
- step S401 the input / output control unit 26 acquires a medical image to be compared.
- the processing in step S401 is the same as step S301 in the first processing procedure.
- step S ⁇ b> 402 the input / output control unit 26 acquires a medical image for comparison reference. Specifically, the input / output control unit 26 first searches the image management information 31 (FIG. 7) using the target patient ID and the target part name as search keys, and the imaging time points of the corresponding records are in order from the newest. Get a predetermined number of records. Here, the following description will be continued on the assumption that the predetermined number is “3”. Secondly, the input / output control unit 26 acquires from the auxiliary storage device 15 a medical image having the image ID of the record acquired in “first” in step S ⁇ b> 402. Assume that all medical images stored in the auxiliary storage device 15 are assigned image IDs. Of the medical images acquired here, the one with the oldest imaging time may be referred to as a “comparison reference medical image”, and the other (two) may be referred to as “intermediate medical images”.
- step S403 the relative position correction unit 21 aligns the medical image.
- the processing in step S403 is the same as step S303 in the first processing procedure. However, it is assumed that the relative position correction unit 21 aligns the “intermediate medical image” with respect to the “comparison reference medical image” and creates the “intermediate medical image after position correction”.
- step S404 the difference image calculation unit 22 determines a feature amount to be compared.
- the processing in step S404 is the same as step S304 in the first processing procedure.
- step S405 the difference image calculation unit 22 creates a difference image.
- the processing in step S405 is the same as step S305 in the first processing procedure.
- the difference image calculation part 22 shall produce all the following difference images. -Difference image between "Comparison standard medical image” and “Intermediate medical image after position correction with earlier imaging time”-"Intermediate medical image after position correction with earlier imaging time” and “Intermediate medical after position correction” Difference image between “images with late imaging time” and “difference image between“ positional corrected intermediate medical images with late imaging time ”and“ position corrected comparative medical images ”
- step S406 the change rate calculation unit 23 calculates the change rate and the like.
- the processing in step S406 is the same as step S306 in the first processing procedure.
- the change rate calculation unit 23 calculates all the following change rates (or changes). ⁇ Change rate (or change amount) of “intermediate medical image with the earlier imaging time point” relative to “comparative reference medical image” ⁇ Change rate (or amount of change) of “intermediate medical image with late imaging time” relative to “comparative reference medical image” -Rate of change (or amount of change) of “comparison medical image” relative to “comparison reference medical image”
- the rate-of-change calculating unit 23 acquires the rate of change from the reference medical image for three medical images at different imaging points. Of course, it is also possible to acquire the rate of change from the reference medical image for four or more medical images at different imaging time points.
- the abnormality presence / absence determination unit 24 determines the presence / absence of an abnormality. Specifically, the abnormality presence / absence determination unit 24 first searches the abnormality determination information 32 (FIG. 8) using the target part name and the selected feature amount as a search key, and acquires the normal change rate range of the corresponding record. To do. When “change amount” is received in “third” in step S404 (S304), the abnormality determination unit 24 acquires a normal change amount range. Secondly, the abnormality presence / absence determination unit 24 determines whether or not all the change rates converted in “fourth” in step S406 (S306) are within the normal change rate range acquired in “first” in step S407. If all the change rates are within the range, the determination result “normal” is generated. Otherwise, the determination result “abnormal” is generated.
- the morbidity rate calculation unit 25 classifies past diagnosis examples. Specifically, the morbidity rate calculation unit 25 first acquires records that satisfy all of the following conditions 3 to 5 from the doctor diagnosis information 33 (FIG. 9). (Condition 3) The site name (column 224) matches the target site name. (Condition 4) A change rate (not “*”) corresponding to the selected feature amount is stored in the change rate column 225. (Condition 5) The patient ID is not the target patient ID.
- the morbidity rate calculation unit 25 sorts the records acquired in “first” in step S408 for each patient ID, and creates a record group for each patient ID. Thirdly, the morbidity rate calculation unit 25 deletes the record group created in “second” in step S408, in which the number of records belonging to the record group is less than the predetermined number.
- the predetermined number in this case is “4”, for example. That is, if there are “4” or more records, the time-series transition of the rate of change based on those records can be treated as significant.
- the morbidity rate calculation unit 25 creates a time-series graph of the selected feature amount for the patient based on the record group that remains without being deleted in “third” in step S408. That is, the morbidity rate calculation unit 25 creates, for example, a time-series graph of the change rate for the target region “brain” and the selected feature amount “area” (for example, see reference numeral 231 in FIG. 10) for each patient ID. become.
- the method of creating the time series graph is in accordance with the method described in step S406.
- the morbidity rate calculation unit 25 creates a plurality of types, and classifies the time series graph created in “fourth” in step S408 by the created type. Then, the patient ID, type, and disease name of the time series graph are temporarily associated with each other.
- the type means each pattern when the time series graphs are classified without duplication according to the result of processing the time series graphs mathematically and physically by an arbitrary method (as described above with reference to FIG. 10). ).
- Information temporarily stored at this time is, for example, “(P001, type d, mild cognitive impairment), (P002, type e, dementia), (P003, type f, brain tumor), (P004, type g, meningitis).
- classified information corresponds to one time series graph.
- step S ⁇ b> 409 the morbidity rate calculation unit 25 classifies the transition of the image change leading to the comparison target medical image. Specifically, the morbidity rate calculating unit 25 first reaches the comparison target medical image from the comparison reference medical image through the intermediate medical image based on the plurality of change rates calculated in step S406 (the target patient ID of the target patient ID). Create a time series graph of the rate of change (for the patient). Secondly, the morbidity rate calculation unit 25 determines which of the types created in “fifth” in step S408 the time-series graph created in “first” in step S409 corresponds to. The type determined at this time may be hereinafter referred to as “patient type”.
- the morbidity rate calculation unit 25 calculates the morbidity rate. Specifically, the morbidity rate calculation unit 25 first counts, for each disease name, the number of items having patient types among the classified information held in “fifth” in step S408. Then, the counted number is temporarily stored in association with the disease name. Information temporarily stored at this time is, for example, “(mild cognitive impairment, 8), (dementia, 4), (meningitis, 2),...”.
- the morbidity rate calculation unit 25 divides the number (8, 4, 2,%) For each disease name counted in “first” in step S410 by the total number of classified information having patient types. The resulting percentage is temporarily stored in association with the disease name. Assume that the total number of classified information having patient types is “20”. Then, in the above example, the morbidity rate calculating unit 25 holds “(mild cognitive impairment, 40%), (dementia, 20%), (meningitis, 10%),...”. “40%” is a calculation result of 8/20 ⁇ 100, “20%” is a calculation result of 4/20 ⁇ 100, and “10%” is a calculation result of 2/20 ⁇ 100. .
- step S411 the input / output control unit 26 displays the diagnosis result. Specifically, the input / output control unit 26 displays the diagnosis result display screen 51b (FIG. 14) on the output device 13, and displays the following information in the following columns of the diagnosis result display screen 51b.
- Reference time column 141a Imaging of comparative reference medical image Time point / previous time point column 141b: Imaging time point of the intermediate medical image whose imaging time point is early ⁇ Previous time point column 141c: Imaging time point of the intermediate medical image whose imaging time point is slow / Current time point column 141d: Imaging time point of the comparison medical image
- Column 142a Difference image between comparison reference medical image and intermediate medical image after position correction, which has an earlier imaging time point.
- the description of FIG. 13 is applied as it is.
- the rate of change (or amount of change) is displayed as a combination of a lower limit and an upper limit (indicating the vertical fluctuation width of the time series graph).
- the morbidity rate table 138 the description of FIG.
- step S412 the input / output control unit 26 registers the diagnosis result. Specifically, the input / output control unit 26 first executes the same processing as the “first” and “second” processing in step S310 of the first processing procedure.
- the input / output control unit 26 acquires a record having the target patient ID from the doctor diagnosis information 33 (FIG. 9). Then, the disease name of the acquired record is updated and overwritten with the disease name corresponding to the input check mark or “(not applicable)”. If there is no record having the target patient ID in the doctor diagnosis information 33, nothing is done. Thereafter, the second processing procedure is terminated.
- Step S304 of the first processing procedure Processing in the case where a plurality of “selected feature values” (categories) are selected in “second” in step S304 of the first processing procedure is as follows. (1) The difference image calculation unit 22 and the like repeat the processing of steps S305 to S308 for each selected feature amount. (2) The input / output control unit 26 executes the same process as the process of step S309 described above, except for the following, for the process of step S309. In the “difference” column 136 (FIG. 13), difference images for a plurality of selected feature amounts are displayed. A difference image of “area” (5 seconds) ⁇ a difference image of “lightness” (5 seconds) ⁇ ...
- the change rate (or change amount) and the determination result are displayed in all rows having each of the selected feature amounts in the determination result table 137.
- the input / output control unit 26 executes the same processing as the processing content of step S310 described above for the processing of step S310.
- step S404 (S304) of the second processing procedure, the processing when a plurality of “selected feature amounts” (categories) are selected is as follows. (1) The difference image calculation unit 22 and the like repeat the processing of steps S405 to S410 for each selected feature amount. (2) The input / output control unit 26 executes the same process as the process of step S411 described above, except for the following, for the process of step S411.
- difference images for a plurality of selected feature amounts are displayed. You may display by a slide type. In the column 143, a time series graph for a plurality of selected feature amounts is displayed.
- the input / output control unit 26 executes the same processing as the processing content of step S412 described above for the processing of step S412.
- the morbidity evaluation apparatus 1 of the present embodiment has the following effects.
- the morbidity rate evaluation apparatus 1 searches past diagnosis examples using the received difference between the feature amounts. At this time, if the number of feature quantity categories is limited, it is not required that the medical image of the past diagnosis example and the received medical image have high image quality. Therefore, a large amount of data that cannot necessarily require high image quality, such as a periodic health checkup, can be used effectively. Furthermore, the morbidity evaluation apparatus 1 calculates a difference. Therefore, if medical images captured by the same imaging device 3 are continuously used, measurement errors (such as image distortion) unique to the imaging devices can be eliminated. (2) The morbidity evaluation apparatus 1 uses either or both of the “rate” and “amount” of the difference. Therefore, multifaceted morbidity evaluation can be performed according to the feature quantity category.
- the morbidity evaluation apparatus 1 feeds back the diagnosis result as doctor diagnosis information 33. Therefore, as the number of uses increases, the influence of random measurement errors that occur each time a medical image is captured becomes relatively small, and the diagnostic accuracy improves. (4) The morbidity evaluation apparatus 1 determines “abnormal” or “normal” in accordance with the feature quantity category. Therefore, it is possible to easily know which category has a large change in the feature amount. (5) The morbidity evaluation apparatus 1 searches for a diagnosis example using transitions of changes at three or more different time points. Therefore, the diagnosis result reflects a longer-term viewpoint and has a positive effect on the patient's consultation psychology.
- the morbidity evaluation apparatus 1 uses feature amounts of a plurality of categories. Therefore, it is possible to flexibly and flexibly use a feature amount that matches the characteristics of the part or disease. (7) The morbidity evaluation apparatus 1 displays a difference image. Therefore, the difference change can be easily visually recognized. (8) The morbidity evaluation apparatus 1 converts the difference into a difference for a period of a predetermined length. Therefore, the difference is easy to understand sensibly and is easy to compare according to the category of the region, disease, and feature amount. (9) The morbidity evaluation apparatus 1 performs alignment of medical images. Therefore, it is possible to compare medical images with different setting conditions and imaging environments.
- this invention is not limited to an above-described Example, Various modifications are included.
- the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
- a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
- Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
- Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
- Information such as programs, tables, and files that realize each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
- the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. In practice, it may be considered that almost all the components are connected to each other.
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Primary Health Care (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Quality & Reliability (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Psychiatry (AREA)
- Physiology (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Neurology (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
Abstract
This incidence rate evaluation device is characterized in being provided with: a storage unit for storing diagnostic information, which stores regions of the body associated with differences between two images taken of the region at different times and with a disease name; and a control unit for receiving input of an image feature value category and the region to be diagnosed from a user, calculating the difference in the received category between the two images of the region that is being diagnosed in the patient and have been taken at different times, searching the diagnostic information using the region being diagnosed and the calculated difference as search keys, acquiring disease names of relevant records, calculating incidence rates on the basis of the percentages of the relevant records in the total number of records for the region, and displaying the calculated incidence rates for each acquired disease name.
Description
本発明は、罹患率評価装置、罹患率評価方法及び罹患率評価プログラムに関する。
The present invention relates to a morbidity rate evaluation apparatus, a morbidity rate evaluation method, and a morbidity rate evaluation program.
近時、コンピュータが医用画像を分析し、異常があるか否かの判断、想定される疾病名の特定等を行う又は支援する技術が多く存在する。
特許文献1の画像表示装置は、診断画像中の異常陰影の候補領域より異常陰影らしさを表す特徴量を取得し、予め記憶している医用画像のうちから特徴量が類似するものを検索し、診断画像及び該当する医用画像を対比可能に表示する。
特許文献2の診断支援装置は、データベースに診断済の参照画像を蓄積しておく。そして、診断画像の病変位置の画像的な特徴量を抽出し、抽出した特徴量を参照画像のそれぞれの特徴量と比較し、類似度を演算する。さらに、類似度の高い複数の参照画像を選択し、疾病名ごとに類似度の平均値である病名確率を表示する。 In recent years, there are many techniques for analyzing or supporting a medical image, determining whether there is an abnormality, specifying an assumed disease name, or the like.
The image display device ofPatent Literature 1 acquires a feature amount that represents an abnormal shadow from an abnormal shadow candidate region in a diagnostic image, searches for a similar feature amount from medical images stored in advance, The diagnostic image and the corresponding medical image are displayed so as to be comparable.
The diagnosis support apparatus ofPatent Literature 2 accumulates reference images that have been diagnosed in a database. Then, the image-like feature amount of the lesion position of the diagnostic image is extracted, the extracted feature amount is compared with each feature amount of the reference image, and the similarity is calculated. Further, a plurality of reference images having a high degree of similarity are selected, and a disease name probability that is an average value of the degrees of similarity is displayed for each disease name.
特許文献1の画像表示装置は、診断画像中の異常陰影の候補領域より異常陰影らしさを表す特徴量を取得し、予め記憶している医用画像のうちから特徴量が類似するものを検索し、診断画像及び該当する医用画像を対比可能に表示する。
特許文献2の診断支援装置は、データベースに診断済の参照画像を蓄積しておく。そして、診断画像の病変位置の画像的な特徴量を抽出し、抽出した特徴量を参照画像のそれぞれの特徴量と比較し、類似度を演算する。さらに、類似度の高い複数の参照画像を選択し、疾病名ごとに類似度の平均値である病名確率を表示する。 In recent years, there are many techniques for analyzing or supporting a medical image, determining whether there is an abnormality, specifying an assumed disease name, or the like.
The image display device of
The diagnosis support apparatus of
特許文献3の診断支援装置は、被検者の病変部の情報を含む検査履歴情報を記憶しておく。そして、検査履歴情報に応じて、被検者から得たデータを処理する際に処理対象とすべき病変部の大きさを変更する。また、検査履歴情報に応じて病変の発生確率を計算し、発生確率に応じて、病変部の処理方法を変更する。
特許文献4の画像収集装置は、画像を収集し、異常の種類及び進行程度を検出する。そして、進行程度が所定の範囲内にある場合、追加検査が必要であることを出力し、追加検査の検査条件を決定する。 The diagnosis support apparatus ofPatent Document 3 stores examination history information including information on a lesion part of a subject. Then, according to the examination history information, the size of a lesion part to be processed is changed when data obtained from the subject is processed. Also, the occurrence probability of a lesion is calculated according to the examination history information, and the processing method of the lesion is changed according to the occurrence probability.
The image collection device ofPatent Document 4 collects images and detects the type and degree of progress of the abnormality. When the degree of progress is within a predetermined range, it is output that an additional inspection is necessary, and the inspection conditions for the additional inspection are determined.
特許文献4の画像収集装置は、画像を収集し、異常の種類及び進行程度を検出する。そして、進行程度が所定の範囲内にある場合、追加検査が必要であることを出力し、追加検査の検査条件を決定する。 The diagnosis support apparatus of
The image collection device of
特許文献5の通院者選定装置は、患者候補者の疾病の種類、発生日時、発生場所等を含む疾病情報に基づいて、患者候補者の仮想患者データを取得し、患者候補者が通院を要するか否かを決定する。
非特許文献1の研究は、軽度認知障害患者の脳のMRI(Magnetic Resonance Imaging)画像を時系列で比較している。そして、調査対象となったすべての患者について、脳萎縮が実際に生じていることを報告している。 The hospital visitor selection device ofPatent Document 5 acquires virtual patient data of a patient candidate based on disease information including the type of disease, date of occurrence, occurrence location, etc. of the patient candidate, and the patient candidate needs to go to the hospital. Determine whether or not.
The study ofNon-Patent Document 1 compares MRI (Magnetic Resonance Imaging) images of brains of patients with mild cognitive impairment in time series. And it reports that cerebral atrophy actually occurs for all patients studied.
非特許文献1の研究は、軽度認知障害患者の脳のMRI(Magnetic Resonance Imaging)画像を時系列で比較している。そして、調査対象となったすべての患者について、脳萎縮が実際に生じていることを報告している。 The hospital visitor selection device of
The study of
特許文献1、2及び3の装置は、2つの医用画像を比較する際にそれぞれの画像の「特徴量」を算出し、さらに、2つの「特徴量」から「類似度を」算出する(例えば、特許文献2の段落0026参照)。このとき、「特徴量」は、医用画像から取得される複数の物理量を成分とする多次元のベクトルである。当該複数の成分としては、体積、明度、円形度等を含む多くのものが想定されている。このような物理量をすべて取得するためには、医用画像の画質が相当程度に高いことが必須の条件となる。しかしながら、一般に、集団健康診断、人間ドック、1年未満の短周期健康診断等は、多人数について行われ、その回数も多い。このような場合、技術面及びコスト面の制約があることが多く、情報量の多い高画質の画像を取得することは困難である。
When comparing two medical images, the devices of Patent Literatures 1, 2, and 3 calculate “feature amounts” of the respective images, and further calculate “similarity” from the two “feature amounts” (for example, And paragraph 0026 of Patent Document 2). At this time, the “feature amount” is a multidimensional vector having a plurality of physical quantities acquired from the medical image as components. As the plurality of components, many components including volume, lightness, circularity and the like are assumed. In order to acquire all such physical quantities, it is an essential condition that the image quality of the medical image is considerably high. However, in general, group health examinations, medical checkups, short-term health examinations of less than one year, etc. are performed for a large number of people and are frequently performed. In such a case, there are many technical and cost restrictions, and it is difficult to acquire a high-quality image with a large amount of information.
特許文献4の画像収集装置は、異常の進行程度を検出するが、この検出は、過去に異常診断がなされた精密診断の例が存在することを前提としている。したがって、特許文献4の装置も、高画質の画像を取得することが期待できない場合には不向きである。
The image acquisition device of Patent Document 4 detects the degree of progress of abnormality, and this detection is based on the premise that there is an example of precise diagnosis in which abnormality diagnosis has been made in the past. Therefore, the apparatus of Patent Document 4 is also unsuitable when it cannot be expected to acquire a high-quality image.
特許文献5の通院者選定装置は、既に何らかの異常があり実際に通院履歴を有する患者を対象としており、新たに診断対象となる患者に対して何らかの診断を下すものではない。非特許文献1の研究は、過去に軽度認知障害であると診断された患者の画像を利用している。両者とも、集団健康診断、人間ドック、1年未満の短周期健康診断等の対象者に多く含まれる健常者を対象とするものではない。
そこで、本発明は、集団健康診断等のように短時間に大人数の医用画像を撮像する必要がある場合に、必ずしも高画質ではない画像に基づいて異常の有無を判定し、疾病名ごとに罹患の可能性を算出することを目的とする。 The visitor selection apparatus ofPatent Document 5 is intended for patients who already have some abnormality and actually have a visit history, and does not make any diagnosis for a patient to be newly diagnosed. The research of Non-Patent Document 1 uses images of patients who have been diagnosed with mild cognitive impairment in the past. Neither of them is intended for healthy individuals who are included in large numbers in subjects such as group health examinations, medical checkups, and short-term health examinations of less than one year.
Therefore, the present invention determines whether or not there is an abnormality based on an image that is not necessarily high in quality when it is necessary to take a medical image of a large number of people in a short period of time, such as in a group medical examination, and for each disease name The purpose is to calculate the likelihood of morbidity.
そこで、本発明は、集団健康診断等のように短時間に大人数の医用画像を撮像する必要がある場合に、必ずしも高画質ではない画像に基づいて異常の有無を判定し、疾病名ごとに罹患の可能性を算出することを目的とする。 The visitor selection apparatus of
Therefore, the present invention determines whether or not there is an abnormality based on an image that is not necessarily high in quality when it is necessary to take a medical image of a large number of people in a short period of time, such as in a group medical examination, and for each disease name The purpose is to calculate the likelihood of morbidity.
本発明の罹患率評価装置は、身体の部位に関連付けて、部位を撮像した撮像時点の異なる2つの画像の差分と、疾病名と、が記憶される診断情報を格納する記憶部と、ユーザが画像の特徴量のカテゴリと、診断対象となる部位を入力するのを受け付け、受け付けたカテゴリについて、診断対象者の診断対象となる部位を撮像した撮像時点の異なる2つの画像の差分を算出し、診断対象となる部位と、算出した差分とを検索キーとして、診断情報を検索し、該当するレコードの疾病名を取得し、該当したレコードの数が部位を有するレコードの数に対して占める比率に基づいて罹患率を算出し、取得した疾病名ごとに、算出した罹患率を表示する制御部と、を備えることを特徴とする。
その他の手段については、発明を実施するための形態のなかで説明する。 The morbidity evaluation apparatus according to the present invention includes a storage unit that stores diagnostic information in which a difference between two images at different imaging time points and a disease name are stored in association with a body part, and a user stores Accepting the input of the category of the feature amount of the image and the part to be diagnosed, and calculating the difference between the two images at different imaging time points when imaging the part to be diagnosed by the diagnosis subject for the received category, The diagnosis information is searched using the part to be diagnosed and the calculated difference as a search key, the disease name of the corresponding record is acquired, and the ratio of the number of the corresponding record to the number of records having the part A control unit that calculates the morbidity based on the acquired morbidity and displays the calculated morbidity for each acquired disease name.
Other means will be described in the embodiment for carrying out the invention.
その他の手段については、発明を実施するための形態のなかで説明する。 The morbidity evaluation apparatus according to the present invention includes a storage unit that stores diagnostic information in which a difference between two images at different imaging time points and a disease name are stored in association with a body part, and a user stores Accepting the input of the category of the feature amount of the image and the part to be diagnosed, and calculating the difference between the two images at different imaging time points when imaging the part to be diagnosed by the diagnosis subject for the received category, The diagnosis information is searched using the part to be diagnosed and the calculated difference as a search key, the disease name of the corresponding record is acquired, and the ratio of the number of the corresponding record to the number of records having the part A control unit that calculates the morbidity based on the acquired morbidity and displays the calculated morbidity for each acquired disease name.
Other means will be described in the embodiment for carrying out the invention.
本発明によれば、集団健康診断等のように短時間に大人数の医用画像を撮像する必要がある場合に、必ずしも高画質ではない画像に基づいて異常の有無を判定し、疾病名ごとに罹患の可能性を算出することが可能になる。
According to the present invention, when it is necessary to take a medical image of a large number of people in a short time, such as in a group medical examination, the presence or absence of an abnormality is determined based on an image that is not necessarily high in image quality, and for each disease name It is possible to calculate the possibility of morbidity.
以降、本発明を実施するための形態(「本実施形態」という)を、図等を参照しながら説明する。
Hereinafter, a mode for carrying out the present invention (referred to as “the present embodiment”) will be described with reference to the drawings and the like.
(既存技術)
図1に沿って、既存技術の例を説明する。当該例は、前記した文献のなかでは、「特許文献2」(段落0026等)に最も近い。診断対象となる患者のある部位(図1の例では脳である)についての現在の医用画像102が取得されている。一方、他の患者の当該部位についての過去の医用画像101が蓄積されている。医用画像101は多くの患者の当該部位を撮像したものであり、医用画像を一意に特定する医用画像ID103が付されている。一方、医用画像IDに関連付けて、医師が診断した疾病名が記憶されている対応情報104が存在する。 (Existing technology)
An example of the existing technology will be described with reference to FIG. This example is closest to “Patent Document 2” (paragraph 0026, etc.) among the above-mentioned documents. A current medical image 102 is obtained for a certain part of the patient to be diagnosed (in the example of FIG. 1, the brain). On the other hand, past medical images 101 for the relevant part of other patients are accumulated. The medical image 101 is obtained by imaging the relevant part of many patients, and has a medical image ID 103 that uniquely identifies the medical image. On the other hand, there is correspondence information 104 in which the disease name diagnosed by the doctor is stored in association with the medical image ID.
図1に沿って、既存技術の例を説明する。当該例は、前記した文献のなかでは、「特許文献2」(段落0026等)に最も近い。診断対象となる患者のある部位(図1の例では脳である)についての現在の医用画像102が取得されている。一方、他の患者の当該部位についての過去の医用画像101が蓄積されている。医用画像101は多くの患者の当該部位を撮像したものであり、医用画像を一意に特定する医用画像ID103が付されている。一方、医用画像IDに関連付けて、医師が診断した疾病名が記憶されている対応情報104が存在する。 (Existing technology)
An example of the existing technology will be described with reference to FIG. This example is closest to “
既存技術の装置は、第1に、「面積」、「明度」等、n種類の特徴ごとに、医用画像102の特徴量を抽出する。当該装置は、第2に、このような多くの特徴量qi(i=1,2,・・・,n)を成分として有する「特徴量ベクトルQ」を作成する。各ベクトルの成分に付した数字は、例えば、「1」が「面積」の特徴量を示し、「2」が「明度」の特徴量を示している。当該装置は、第3に、過去の医用画像101のすべてについて、同様に「特徴量ベクトルP」を作成する。当該装置は、第4に、類似度Sを算出する。類似度Sは、特徴量ベクトルQと、任意の1つの特徴量ベクトルPを入力として、以下の数式1によって算出されるスカラー量である。
First, the existing technology apparatus extracts the feature amount of the medical image 102 for each of n types of features such as “area” and “brightness”. Secondly, the apparatus creates a “feature quantity vector Q” having such many feature quantities q i (i = 1, 2,..., N) as components. In the numbers attached to the components of each vector, for example, “1” indicates a feature amount of “area”, and “2” indicates a feature amount of “lightness”. Thirdly, the apparatus similarly creates a “feature vector P” for all past medical images 101. Fourth, the apparatus calculates the similarity S. The similarity S is a scalar quantity calculated by the following Equation 1 with the feature quantity vector Q and any one feature quantity vector P as inputs.
S=Wt(E-(Q-P))/|W| (数式1)
ここで、「E」は、n個の各成分がすべて「1」であるベクトルである。「W」は、各特徴量の重みをn個の成分として有するベクトルである。「|W|」は、ベクトル「W」の成分の和(スカラー量)である。「Wt」はベクトル「W」の「転置行列」であり、「Wt」に対して右からベクトル「E-(Q-P)」を乗算すると、スカラー量が算出される。一般的に、ベクトル「P」及び「Q」の各成分は0~1の範囲に正規化されている。 S = W t (E− (QP)) / | W | (Formula 1)
Here, “E” is a vector whose n components are all “1”. “W” is a vector having the weight of each feature quantity as n components. “| W |” is the sum (scalar amount) of the components of the vector “W”. “W t ” is a “transpose matrix” of the vector “W”, and when “W t ” is multiplied by the vector “E− (QP)” from the right, a scalar quantity is calculated. In general, the components of the vectors “P” and “Q” are normalized to a range of 0 to 1.
ここで、「E」は、n個の各成分がすべて「1」であるベクトルである。「W」は、各特徴量の重みをn個の成分として有するベクトルである。「|W|」は、ベクトル「W」の成分の和(スカラー量)である。「Wt」はベクトル「W」の「転置行列」であり、「Wt」に対して右からベクトル「E-(Q-P)」を乗算すると、スカラー量が算出される。一般的に、ベクトル「P」及び「Q」の各成分は0~1の範囲に正規化されている。 S = W t (E− (QP)) / | W | (Formula 1)
Here, “E” is a vector whose n components are all “1”. “W” is a vector having the weight of each feature quantity as n components. “| W |” is the sum (scalar amount) of the components of the vector “W”. “W t ” is a “transpose matrix” of the vector “W”, and when “W t ” is multiplied by the vector “E− (QP)” from the right, a scalar quantity is calculated. In general, the components of the vectors “P” and “Q” are normalized to a range of 0 to 1.
このような前提において、医用画像101と医用画像102とが完全に一致するとき、P=Q、すなわち、すべてのi(i=1,2,・・・n)について、pi=qiであるので、S=1となる。医用画像101と医用画像102とが完全に相違するとき、Q-P=1、すなわち、すべてのi(i=1,2,・・・,n)について、qi-pi=1であるので、S=0となる。Sは、過去の医用画像101の数だけ算出される。
Under such a premise, when the medical image 101 and the medical image 102 completely match, P = Q, that is, p i = q i for all i (i = 1, 2,... N). Since there is, S = 1. When the medical image 101 and the medical image 102 are completely different, QP = 1, that is, q i −p i = 1 for all i (i = 1, 2,..., N). Therefore, S = 0. S is calculated by the number of past medical images 101.
当該装置は、第5に、このような類似度Sと過去の医用画像とを1対1に対応させて、対応情報104を完成する。当該装置は、第6に、類似度が最も大きい(「1」に近い)過去の医用画像に対応する疾病名を、現在の診断対象となる患者の疾病名として特定する。
Fifth, the apparatus completes the correspondence information 104 by associating such similarity S with past medical images on a one-to-one basis. Sixthly, the apparatus specifies the disease name corresponding to the past medical image having the highest similarity (close to “1”) as the disease name of the patient who is the current diagnosis target.
図1の例では、以下のような不具合が発生する。
・そもそも、多くの種類の特徴量が取得できるような高画質の医用画像は一般的に期待できない。
・充分に高い画質を有さない医用画像同士を比較すると、一応の計算はできるが、無意味な結果が出力される。例えば、差異を検出できない結果、すべての過去の医用画像に対して同じような水準の類似度が算出される。
・処理に必要な時間が長い。
・時間軸に沿った変化という考え方を有することなく、特徴量の水準自体を比較している。したがって、健常な対象患者の医用画像の特徴量が、罹患した患者の医用画像の特徴量と偶然に類似し、何らかの疾病に罹患していると誤診断される場合もある。 In the example of FIG. 1, the following problems occur.
・ In the first place, it is generally impossible to expect high-quality medical images that can acquire many types of feature values.
-Comparing medical images that do not have sufficiently high image quality, a temporary calculation is possible, but a meaningless result is output. For example, as a result of not being able to detect a difference, similar levels of similarity are calculated for all past medical images.
・ Long time required for processing.
・ Comparing the feature level itself without having the idea of change along the time axis. Therefore, the feature amount of the medical image of the healthy target patient is coincidentally similar to the feature amount of the medical image of the affected patient and may be misdiagnosed as suffering from some disease.
・そもそも、多くの種類の特徴量が取得できるような高画質の医用画像は一般的に期待できない。
・充分に高い画質を有さない医用画像同士を比較すると、一応の計算はできるが、無意味な結果が出力される。例えば、差異を検出できない結果、すべての過去の医用画像に対して同じような水準の類似度が算出される。
・処理に必要な時間が長い。
・時間軸に沿った変化という考え方を有することなく、特徴量の水準自体を比較している。したがって、健常な対象患者の医用画像の特徴量が、罹患した患者の医用画像の特徴量と偶然に類似し、何らかの疾病に罹患していると誤診断される場合もある。 In the example of FIG. 1, the following problems occur.
・ In the first place, it is generally impossible to expect high-quality medical images that can acquire many types of feature values.
-Comparing medical images that do not have sufficiently high image quality, a temporary calculation is possible, but a meaningless result is output. For example, as a result of not being able to detect a difference, similar levels of similarity are calculated for all past medical images.
・ Long time required for processing.
・ Comparing the feature level itself without having the idea of change along the time axis. Therefore, the feature amount of the medical image of the healthy target patient is coincidentally similar to the feature amount of the medical image of the affected patient and may be misdiagnosed as suffering from some disease.
図2~図5に沿って、本実施形態の情報処理の概要を説明する。詳細については、別途フローチャートに沿って後記する。
まず、図2を説明する。診断対象となる患者のある部位(図2の例でも脳である)について過去の医用画像111が取得されている。一方、当該患者の当該部位について現在の医用画像112も取得されている。本実施形態の罹患率評価装置1(図6)は、過去の診断例114を利用することができる。診断例114は、様々なものが想定できる。ここでは、例えば、変化率と診断件数との関係を示す2次元のグラフが、疾病ごとに複数用意されている。例えば100件の過去の診断例において、「脳の面積が5%縮小した結果、認知症と診断された例が5件ある」、「脳の面積が8%縮小した結果、認知症と診断された例が10件ある」、・・・のような情報が存在するとする。そして、「-5%,5件」、「-8%,10件」、・・・の点をプロットすることによって、「認知症」についてのグラフが作成される。同様に、「軽度認知障害」、「脳腫瘍」、・・・のグラフが作成される。 An outline of information processing according to the present embodiment will be described with reference to FIGS. Details will be described later along a separate flowchart.
First, FIG. 2 will be described. The pastmedical image 111 is acquired for a certain part of the patient to be diagnosed (also the brain in the example of FIG. 2). On the other hand, the current medical image 112 is also acquired for the part of the patient. The morbidity rate evaluation apparatus 1 (FIG. 6) of the present embodiment can use the past diagnosis examples 114. Various diagnosis examples 114 can be assumed. Here, for example, a plurality of two-dimensional graphs showing the relationship between the rate of change and the number of diagnoses are prepared for each disease. For example, in 100 past diagnoses, “There are 5 cases diagnosed as dementia as a result of 5% reduction in brain area”, “Diagnosis is diagnosed as a result of 8% reduction in brain area. There are 10 examples. " Then, by plotting the points of “−5%, 5 cases”, “−8%, 10 cases”,..., A graph about “dementia” is created. Similarly, graphs of “mild cognitive impairment”, “brain tumor”,... Are created.
まず、図2を説明する。診断対象となる患者のある部位(図2の例でも脳である)について過去の医用画像111が取得されている。一方、当該患者の当該部位について現在の医用画像112も取得されている。本実施形態の罹患率評価装置1(図6)は、過去の診断例114を利用することができる。診断例114は、様々なものが想定できる。ここでは、例えば、変化率と診断件数との関係を示す2次元のグラフが、疾病ごとに複数用意されている。例えば100件の過去の診断例において、「脳の面積が5%縮小した結果、認知症と診断された例が5件ある」、「脳の面積が8%縮小した結果、認知症と診断された例が10件ある」、・・・のような情報が存在するとする。そして、「-5%,5件」、「-8%,10件」、・・・の点をプロットすることによって、「認知症」についてのグラフが作成される。同様に、「軽度認知障害」、「脳腫瘍」、・・・のグラフが作成される。 An outline of information processing according to the present embodiment will be described with reference to FIGS. Details will be described later along a separate flowchart.
First, FIG. 2 will be described. The past
本実施形態の罹患率評価装置1は、第1に、ある1つの特徴量(のカテゴリ)を決定する。決定した特徴量が例えば「面積」であったとする。罹患率評価装置1は、第2に、特徴量の差分を抽出する。「面積」の差分は、単に、医用画像111に脳として表現された部分の断面積と、医用画像112に脳として表現された部分の断面積のとの差分である。差分は、画素数を面積に換算することによって、数値(単位:cm2)としても表現されうる。また、医用画像111には存在し、医用画像112には存在しない、特定の画素値を有する部分(収縮した部分である)として、医用画像113のようにも表現され得る。
First, the morbidity rate evaluation apparatus 1 according to the present embodiment determines a certain feature amount (category). Assume that the determined feature amount is, for example, “area”. Secondly, the morbidity evaluation apparatus 1 extracts a difference between feature amounts. The difference in “area” is simply the difference between the cross-sectional area of the portion expressed as the brain in the medical image 111 and the cross-sectional area of the portion expressed as the brain in the medical image 112. The difference can also be expressed as a numerical value (unit: cm 2 ) by converting the number of pixels into an area. Further, it can be expressed as a medical image 113 as a portion (a contracted portion) having a specific pixel value that exists in the medical image 111 and does not exist in the medical image 112.
罹患率評価装置1は、第3に、差分の変化率R(百分率)を以下の数式2によって算出する。
R=(q1-p1)/p1×100 (数式2)
ここで、p1は、医用画像111の脳の面積である。q1は、医用画像112の脳の面積である。
罹患率評価装置1は、第4に、差分をすべてのグラフに当てはめて、それぞれの疾病ごとに診断件数を取得する。罹患率評価装置1は、第5に、診断件数の大きい順に、疾病名と罹患率とを関連付けて表示する。罹患率とは、例えば、取得された診断件数を、当該部位についての(すべての疾病を通じての)全診断件数で除算した数値(百分率)である。 Thirdly, themorbidity evaluation apparatus 1 calculates the change rate R (percentage) of the difference by the following formula 2.
R = (q 1 −p 1 ) / p 1 × 100 (Formula 2)
Here, p 1 is the area of the brain of themedical image 111. q 1 is the area of the brain of the medical image 112.
Fourth, themorbidity evaluation apparatus 1 applies the difference to all the graphs, and acquires the number of diagnoses for each disease. Fifthly, the morbidity evaluation device 1 displays the disease name and the morbidity in association with each other in descending order of the number of diagnoses. The morbidity is, for example, a numerical value (percentage) obtained by dividing the acquired number of diagnoses by the total number of diagnoses (through all diseases) for the site.
R=(q1-p1)/p1×100 (数式2)
ここで、p1は、医用画像111の脳の面積である。q1は、医用画像112の脳の面積である。
罹患率評価装置1は、第4に、差分をすべてのグラフに当てはめて、それぞれの疾病ごとに診断件数を取得する。罹患率評価装置1は、第5に、診断件数の大きい順に、疾病名と罹患率とを関連付けて表示する。罹患率とは、例えば、取得された診断件数を、当該部位についての(すべての疾病を通じての)全診断件数で除算した数値(百分率)である。 Thirdly, the
R = (q 1 −p 1 ) / p 1 × 100 (Formula 2)
Here, p 1 is the area of the brain of the
Fourth, the
次に、図3を説明する。図2の例に比して、図3においては特徴量が「明度」であることだけが異なっている。「明度」の差分は、単に、医用画像111に脳として表現された部分の明度(例えば、各画素の0~255のグレースケールの平均値)と、医用画像112に脳として表現された部分の明度との差分である。差分は、無単位の数値として表現され得る。また、差分の大きさに応じて予め決定された色彩等を付して、医用画像113のようにも表現され得る。
Next, FIG. 3 will be described. Compared to the example of FIG. 2, the only difference is that the feature quantity is “lightness” in FIG. 3. The difference in “brightness” is simply the brightness of the portion expressed as the brain in the medical image 111 (for example, the average value of gray scales of 0 to 255 of each pixel) and the portion expressed as the brain in the medical image 112. It is the difference from brightness. The difference can be expressed as a unitless numerical value. Further, it may be expressed as a medical image 113 with a color or the like determined in advance according to the magnitude of the difference.
脳の疾病には、「面積」の変化として発症するもの、「明度」の変化として発症するもの、他の特徴量の変化として発症するもの等、様々なものが存在する。ユーザは、ある1つの特徴量の変化率をキーとして疾病名を検索することもできる。また、複数の特徴量の変化率の組合せ(例えば、「面積」は縮小し、かつ、「明度」は増加する)をキーとして疾病名を検索することもできる。
There are various brain diseases such as those that develop as a change in “area”, those that develop as a change in “brightness”, and those that develop as a change in other features. The user can also search for disease names using the rate of change of a certain feature amount as a key. It is also possible to search for disease names using as a key a combination of change rates of a plurality of feature amounts (for example, “area” decreases and “brightness” increases).
続いて、図4を説明する。図4は、図2(「面積」が特徴量)に類似している。図2においては、面積の変化率は単一の数値である。これに対し、図4においては、面積の変化率は、時系列に沿った変化の推移を示す複数の数値であることが大きく異なる。診断対象となる患者のある部位(脳である)の過去の医用画像121が取得されている。一方、当該患者の当該部位の現在及び近い過去の医用画像122も複数取得されている。
Subsequently, FIG. 4 will be described. FIG. 4 is similar to FIG. 2 (where “area” is a feature amount). In FIG. 2, the change rate of the area is a single numerical value. On the other hand, in FIG. 4, the area change rate is greatly different in that it is a plurality of numerical values indicating changes in change along a time series. A past medical image 121 of a part (a brain) of a patient to be diagnosed is acquired. On the other hand, a plurality of current and near past medical images 122 of the relevant part of the patient are also acquired.
罹患率評価装置1は、第1に、医用画像122のそれぞれ(現在now、前回now-1、前々回now-2)と、基準となる最も古い過去(std)の医用画像121との差分を抽出(符号123)し、基準に対する差分の変化率124を算出する。差分の変化率は、医用画像122の枚数だけ算出されることになる。罹患率評価装置1は、第2に、変化率の時系列グラフ125を作成する。罹患率評価装置1は、第3に、変化率の時系列グラフ125を、複数の「類型」に当てはめる(符号126)。「類型」とは、過去の診断例に基づいて作成された、変化率の時系列グラフのパターンである(詳細後記)。
First, the morbidity evaluation apparatus 1 extracts a difference between each of the medical images 122 (current now, previous now-1 and previous time now-2) and the oldest medical image 121 serving as a reference (std). (Reference numeral 123), and the change rate 124 of the difference with respect to the reference is calculated. The change rate of the difference is calculated by the number of medical images 122. Secondly, the morbidity rate evaluation apparatus 1 creates a time-series graph 125 of the change rate. Thirdly, the morbidity rate evaluation apparatus 1 applies the time series graph 125 of the change rate to a plurality of “types” (reference numeral 126). The “type” is a time-series graph pattern of change rate created based on past diagnosis examples (details will be described later).
罹患率評価装置1は、第4に、作成した時系列グラフ125に最も近似する「類型」を特定する。罹患率評価装置1は、第5に、特定した類型を有する疾病名を、その疾病の診断件数をその類型の全診断件数で除算した百分率である罹患率に関連付けて表示する。なお、罹患率評価装置1は、過去の診断例に基づいて、類型に関連付けて、1又は複数の疾病と、その診断件数とが記憶された対応情報127を作成するものとする。
Fourthly, the morbidity rate evaluation apparatus 1 specifies the “type” that most closely approximates the created time series graph 125. Fifthly, the morbidity evaluation apparatus 1 displays the name of a disease having the specified type in association with the morbidity that is a percentage obtained by dividing the number of diagnoses of the disease by the total number of diagnoses of the type. It is assumed that the morbidity evaluation apparatus 1 creates correspondence information 127 in which one or a plurality of diseases and the number of diagnoses thereof are stored in association with a type based on past diagnosis examples.
さらに、図5を説明する。図4の例に比して、図5においては特徴量が「明度」であることだけが異なっている。
Further, FIG. 5 will be described. Compared with the example of FIG. 4, the only difference is that the feature quantity is “lightness” in FIG. 5.
脳の疾病には、「面積」の変化の時系列の推移として発症するもの、「明度」の変化の時系列の推移として発症するもの、他の特徴量の変化の時系列の推移として発症するもの等、様々なものが存在する。ユーザは、ある1つの特徴量の変化の時系列の推移をキーとして疾病名を検索することもできる。また、複数の特徴量の変化の時系列の推移の組合せ(例えば、「面積」は縮小と拡大を繰り返し、かつ、「明度」は単純に増加し続ける)をキーとして疾病名を検索することもできる。
Brain diseases that develop as time-series changes in “area”, those that develop as time-series changes in “brightness”, and those that develop as time-series changes in other feature values There are various things such as things. The user can also search for a disease name using a time-series transition of a change in a certain feature amount as a key. It is also possible to search for disease names using a combination of time-series transitions of changes in a plurality of feature quantities (for example, “area” repeatedly shrinks and expands and “brightness” simply continues to increase) as a key. it can.
(機器構成)
図6に沿って、罹患率評価装置1の構成を説明する。罹患率評価装置1は、一般的なコンピュータである。罹患率評価装置1は、中央制御装置11、キーボード、マウス、タッチスクリーン等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び通信装置16を有する。これらはシステムバスによって相互に接続されている。 (Equipment configuration)
A configuration of themorbidity evaluation apparatus 1 will be described with reference to FIG. The morbidity evaluation apparatus 1 is a general computer. The morbidity evaluation device 1 includes a central control device 11, an input device 12 such as a keyboard, a mouse, and a touch screen, an output device 13 such as a display, a main storage device 14, an auxiliary storage device 15, and a communication device 16. These are connected to each other by a system bus.
図6に沿って、罹患率評価装置1の構成を説明する。罹患率評価装置1は、一般的なコンピュータである。罹患率評価装置1は、中央制御装置11、キーボード、マウス、タッチスクリーン等の入力装置12、ディスプレイ等の出力装置13、主記憶装置14、補助記憶装置15及び通信装置16を有する。これらはシステムバスによって相互に接続されている。 (Equipment configuration)
A configuration of the
主記憶装置14における、相対位置補正部21、差分画像算出部22、変化率算出部23、異常有無判定部24、罹患率算出部25及び入出力制御部26は、プログラムである。以降、「○○部は」と主体を記した場合は、中央制御装置11が、補助記憶装置15から各プログラムを読み出し、主記憶装置14にロードしたうえで、各プログラムの機能(詳細後記)を実現するものとする。補助記憶装置15は、画像管理情報31、異常判定情報32、医師診断情報33及び医用画像34を記憶している。これらの詳細については後記する。
なお、「入力部」及び「出力部」には、入出力制御部26が相当する。 The relativeposition correction unit 21, the difference image calculation unit 22, the change rate calculation unit 23, the abnormality presence / absence determination unit 24, the morbidity rate calculation unit 25, and the input / output control unit 26 in the main storage device 14 are programs. Thereafter, when the subject is described as “XX section”, the central control device 11 reads each program from the auxiliary storage device 15 and loads it into the main storage device 14, and then the function of each program (detailed later). Shall be realized. The auxiliary storage device 15 stores image management information 31, abnormality determination information 32, doctor diagnosis information 33, and a medical image 34. These details will be described later.
The input /output control unit 26 corresponds to “input unit” and “output unit”.
なお、「入力部」及び「出力部」には、入出力制御部26が相当する。 The relative
The input /
罹患率評価装置1は、ネットワーク4を介して端末装置2と通信可能に接続されている。端末装置2もまた一般的なコンピュータであり、相互にバスで接続された中央制御装置、キーボード、マウス、タッチスクリーン等の入力装置、ディスプレイ等の出力装置、主記憶装置、補助記憶装置及び通信装置(図示せず)を有する。
撮像装置3は、身体から医用画像を撮像する機器である。撮像装置3によって撮像される医用画像は多種であるが、例えば、CT(Computed Tomography)画像、MRI画像、PET(Position Emission Tomography)画像、X線画像、超音波画像、内視鏡画像等であり得る。そして撮像装置3は、撮像した画像を、罹患率評価装置1及び端末装置2を含むコンピュータが処理可能なデジタル画像(画素とその画素値から構成される)として出力できるものとする。 Themorbidity evaluation device 1 is connected to the terminal device 2 through the network 4 so as to be communicable. The terminal device 2 is also a general computer, and is connected to each other via a central control device, an input device such as a keyboard, a mouse, and a touch screen, an output device such as a display, a main storage device, an auxiliary storage device, and a communication device. (Not shown).
Theimaging device 3 is a device that captures a medical image from the body. There are various types of medical images picked up by the image pickup device 3, such as a CT (Computed Tomography) image, an MRI image, a PET (Position Emission Tomography) image, an X-ray image, an ultrasonic image, an endoscopic image, and the like. obtain. The imaging device 3 can output the captured image as a digital image (consisting of pixels and their pixel values) that can be processed by a computer including the morbidity evaluation device 1 and the terminal device 2.
撮像装置3は、身体から医用画像を撮像する機器である。撮像装置3によって撮像される医用画像は多種であるが、例えば、CT(Computed Tomography)画像、MRI画像、PET(Position Emission Tomography)画像、X線画像、超音波画像、内視鏡画像等であり得る。そして撮像装置3は、撮像した画像を、罹患率評価装置1及び端末装置2を含むコンピュータが処理可能なデジタル画像(画素とその画素値から構成される)として出力できるものとする。 The
The
一般的に、罹患率評価装置1、端末装置2及び撮像装置3は、医院等に配置されることが多い。医師等は、健康診断等の機会に撮像装置3を使用して患者(健常者も含む)の身体の医用画像を取得する。そして、医師等は、その医用画像を端末装置2に入力し、例えば、出力装置(ディスプレイ)にその医用画像を表示する。そして、その医用画像を、ネットワーク4を介して罹患率評価装置1に送信する。すると、罹患率評価装置1は、受信した医用画像を用いて「診断結果」を作成し、端末装置2に返信する。
Generally, the morbidity rate evaluation device 1, the terminal device 2, and the imaging device 3 are often arranged in a clinic or the like. A doctor or the like acquires a medical image of the body of a patient (including a healthy person) by using the imaging device 3 at an opportunity such as a health checkup. Then, the doctor or the like inputs the medical image to the terminal device 2 and displays the medical image on an output device (display), for example. Then, the medical image is transmitted to the morbidity evaluation apparatus 1 via the network 4. Then, the morbidity evaluation apparatus 1 creates a “diagnosis result” using the received medical image and sends it back to the terminal apparatus 2.
図6においては、複数の端末装置2が1つの罹患率評価装置1にアクセスすることを前提としている。しかしながら、罹患率評価装置1と端末装置2とが、1つの筐体に纏められた構成となっていてもよい。さらに、罹患率評価装置1は、例えば、身体の部位(脳、肺、・・・)ごと、医療科(脳神経科、循環器科、・・・)ごと等に複数の筐体に分かれた構成となっていてもよい。
In FIG. 6, it is assumed that a plurality of terminal devices 2 access one morbidity rate evaluation device 1. However, the morbidity rate evaluation device 1 and the terminal device 2 may be configured in a single casing. Furthermore, the morbidity evaluation apparatus 1 is divided into a plurality of cases for each body part (brain, lung,...), For each medical department (brain neurology, circulatory organ department,...). It may be.
端末装置2等を使用するユーザは、医師以外の者、例えば、生命保険会社の従業員、健常者を含む患者自身等であってもよい。
健康ブームを反映し、自身又は医師等が撮像した医用画像を収集し、自身の健康状態を管理する者も近時は多い。そして、膨大な量の医師の診断例は、公表されるべきものではない。しかしながら、将来的な法令の見直し又は契約締結等の便宜によって、匿名性を維持するという条件つきで診断例が公表されることも想定され得る。すると、自身の健康状態を管理する者は、自身で診断例を入手し本実施形態の罹患率評価装置1を操作することもできる。さらに、健康関連の事業者が、医師等から診断例を入手し、一般の顧客からその顧客の医用画像を受け取り、罹患率評価装置1を操作することによって、顧客に対して診断サービスを提供することも可能になる。 The user who uses theterminal device 2 or the like may be a person other than a doctor, for example, an employee of a life insurance company, a patient himself including a healthy person, or the like.
Recently, many people manage their own health condition by collecting medical images taken by themselves or doctors reflecting the health boom. And a huge amount of doctors' diagnosis examples should not be published. However, it may be assumed that a diagnosis example will be published under the condition that anonymity is maintained, for the convenience of reviewing future laws and concluding a contract. Then, the person who manages his / her health condition can also obtain the diagnosis example by himself and operate themorbidity evaluation apparatus 1 of the present embodiment. Furthermore, a health-related business operator obtains a diagnosis example from a doctor or the like, receives a medical image of the customer from a general customer, and operates the morbidity evaluation apparatus 1 to provide a diagnostic service to the customer. It becomes possible.
健康ブームを反映し、自身又は医師等が撮像した医用画像を収集し、自身の健康状態を管理する者も近時は多い。そして、膨大な量の医師の診断例は、公表されるべきものではない。しかしながら、将来的な法令の見直し又は契約締結等の便宜によって、匿名性を維持するという条件つきで診断例が公表されることも想定され得る。すると、自身の健康状態を管理する者は、自身で診断例を入手し本実施形態の罹患率評価装置1を操作することもできる。さらに、健康関連の事業者が、医師等から診断例を入手し、一般の顧客からその顧客の医用画像を受け取り、罹患率評価装置1を操作することによって、顧客に対して診断サービスを提供することも可能になる。 The user who uses the
Recently, many people manage their own health condition by collecting medical images taken by themselves or doctors reflecting the health boom. And a huge amount of doctors' diagnosis examples should not be published. However, it may be assumed that a diagnosis example will be published under the condition that anonymity is maintained, for the convenience of reviewing future laws and concluding a contract. Then, the person who manages his / her health condition can also obtain the diagnosis example by himself and operate the
(画像管理情報)
図7に沿って、画像管理情報31を説明する。画像管理情報31においては、患者ID欄201に記憶された患者IDに関連付けて、患者氏名欄202には患者氏名が、画像ID欄203には画像IDが、撮像装置ID欄204には撮像装置IDが、撮像時点欄205には撮像時点が、部位名欄206には部位名が、画像ファイル名欄207には画像ファイル名が記憶されている。 (Image management information)
Theimage management information 31 will be described with reference to FIG. In the image management information 31, in association with the patient ID stored in the patient ID column 201, the patient name column 202 contains the patient name, the image ID column 203 contains the image ID, and the imaging device ID column 204 contains the imaging device. The ID is stored in the imaging time column 205, the site name column 206 is stored with the site name, and the image file name column 207 is stored with the image file name.
図7に沿って、画像管理情報31を説明する。画像管理情報31においては、患者ID欄201に記憶された患者IDに関連付けて、患者氏名欄202には患者氏名が、画像ID欄203には画像IDが、撮像装置ID欄204には撮像装置IDが、撮像時点欄205には撮像時点が、部位名欄206には部位名が、画像ファイル名欄207には画像ファイル名が記憶されている。 (Image management information)
The
患者ID欄201の患者IDは、患者を一意に特定する識別子である。本実施形態において、「患者」とは、その身体の画像を取得される対象者一般を意味する。つまり「患者」は、罹患していない「健常者」も含む概念である。
患者氏名欄202の患者氏名は、患者の氏名である。
画像ID欄203の画像IDは、医用画像を一意に特定する識別子である。
撮像装置ID欄204の撮像装置IDは、撮像装置3を一意に特定する識別子である。
撮像時点欄205の撮像時点は、医用画像が撮像された時点の年月日である。
部位名欄206の部位名は、患者の身体の一部(部位)の名称である。部位名は、例えば、脳、延髄等の神経中枢、心臓、肺等の臓器、骨盤、大腿骨等の骨格であってもよい。
画像ファイル名欄207の画像ファイル名は、デジタル画像情報としての医用画像の名称である。 The patient ID in thepatient ID column 201 is an identifier that uniquely identifies a patient. In the present embodiment, “patient” means a general subject who can acquire an image of the body. In other words, “patient” is a concept including “healthy person” who is not affected.
The patient name in thepatient name column 202 is the name of the patient.
The image ID in theimage ID column 203 is an identifier that uniquely identifies a medical image.
The imaging device ID in the imagingdevice ID column 204 is an identifier that uniquely identifies the imaging device 3.
The imaging time point in the imagingtime point column 205 is the date when the medical image is captured.
The part name in thepart name column 206 is a name of a part (part) of the patient's body. The site name may be, for example, a nerve center such as the brain and medulla, an organ such as the heart and lungs, and a skeleton such as the pelvis and femur.
The image file name in the imagefile name field 207 is a name of a medical image as digital image information.
患者氏名欄202の患者氏名は、患者の氏名である。
画像ID欄203の画像IDは、医用画像を一意に特定する識別子である。
撮像装置ID欄204の撮像装置IDは、撮像装置3を一意に特定する識別子である。
撮像時点欄205の撮像時点は、医用画像が撮像された時点の年月日である。
部位名欄206の部位名は、患者の身体の一部(部位)の名称である。部位名は、例えば、脳、延髄等の神経中枢、心臓、肺等の臓器、骨盤、大腿骨等の骨格であってもよい。
画像ファイル名欄207の画像ファイル名は、デジタル画像情報としての医用画像の名称である。 The patient ID in the
The patient name in the
The image ID in the
The imaging device ID in the imaging
The imaging time point in the imaging
The part name in the
The image file name in the image
(異常判定情報)
図8に沿って、異常判定情報32を説明する。異常判定情報32においては、部位名欄211に記憶された部位名に関連付けて、特徴量欄212には特徴量が、優先度欄213には優先度が、正常変化率範囲欄214には正常変化率範囲が、正常変化量範囲欄215には正常変化量範囲が、単位欄216には単位が、変化期間217には変化期間が記憶されている。 (Abnormality judgment information)
Theabnormality determination information 32 will be described with reference to FIG. In the abnormality determination information 32, in association with the part name stored in the part name column 211, the feature amount column 212 has a feature amount, the priority column 213 has a priority, and the normal change rate range column 214 has a normal state. The change rate range, the normal change amount range column 215 stores the normal change amount range, the unit column 216 stores the unit, and the change period 217 stores the change period.
図8に沿って、異常判定情報32を説明する。異常判定情報32においては、部位名欄211に記憶された部位名に関連付けて、特徴量欄212には特徴量が、優先度欄213には優先度が、正常変化率範囲欄214には正常変化率範囲が、正常変化量範囲欄215には正常変化量範囲が、単位欄216には単位が、変化期間217には変化期間が記憶されている。 (Abnormality judgment information)
The
部位名欄211の部位名は、図7の部位名と同じである。
特徴量欄212の特徴量は、医用画像から取得することができるその部位の物理量のカテゴリである。特徴量は、主として部位の形状、性状等を表現するものであるが、それらの具体例については後記する。なお、以降では、罹患率評価装置1は、異なる2時点の特徴量の差分を取得し、その差分に基づいて、過去の診断例から疾病名(候補)ごとの罹患率を推定する(詳細後記)。
優先度欄213の優先度は、1つの部位名に対応する特徴量が複数存在する場合に、それらの特徴量相互間での優先順位である。数字が小さいほど優先度が高い。 The part name in thepart name column 211 is the same as the part name in FIG.
The feature amount in thefeature amount column 212 is a category of the physical amount of the part that can be acquired from the medical image. The feature amount mainly expresses the shape, properties, etc. of the part, and specific examples thereof will be described later. In the following, the morbidity evaluation apparatus 1 acquires a difference between feature quantities at two different time points, and estimates the morbidity for each disease name (candidate) from past diagnosis examples based on the difference (details will be described later). ).
The priority in thepriority column 213 is a priority order among the feature amounts when there are a plurality of feature amounts corresponding to one part name. The lower the number, the higher the priority.
特徴量欄212の特徴量は、医用画像から取得することができるその部位の物理量のカテゴリである。特徴量は、主として部位の形状、性状等を表現するものであるが、それらの具体例については後記する。なお、以降では、罹患率評価装置1は、異なる2時点の特徴量の差分を取得し、その差分に基づいて、過去の診断例から疾病名(候補)ごとの罹患率を推定する(詳細後記)。
優先度欄213の優先度は、1つの部位名に対応する特徴量が複数存在する場合に、それらの特徴量相互間での優先順位である。数字が小さいほど優先度が高い。 The part name in the
The feature amount in the
The priority in the
正常変化率範囲欄214の正常変化率範囲は、医師等が正常であると診断する変化率の上限及び下限の組合せである。上限及び下限は、常に「0」を中心として等間隔である必要はない。例えば、上限が「+3%」であり、下限が「-2%」であってもよい。変化率は、特徴量が変化する割合(百分率)である。変化率は以下の数式3によって算出される。
変化率=(変化前の特徴量-変化後の特徴量)/変化前の特徴量×100
(数式3)
正常変化量範囲欄215の正常変化量範囲は、医師等が正常であると診断する変化量の上限及び下限の組合せである。変化量は、特徴量が変化する絶対量である。変化量は以下の数式4によって算出される。
変化量=変化前の特徴量-変化後の特徴量 (数式4) The normal change rate range in the normal changerate range column 214 is a combination of the upper limit and the lower limit of the change rate at which a doctor or the like diagnoses as normal. The upper and lower limits do not always need to be equidistant around “0”. For example, the upper limit may be “+ 3%” and the lower limit may be “−2%”. The change rate is a rate (percentage) at which the feature amount changes. The rate of change is calculated by Equation 3 below.
Rate of change = (feature before change−feature after change) / feature before change × 100
(Formula 3)
The normal change amount range in the normal changeamount range column 215 is a combination of the upper limit and the lower limit of the change amount that a doctor or the like diagnoses as normal. The change amount is an absolute amount at which the feature amount changes. The amount of change is calculated by Equation 4 below.
Change amount = feature amount before change-feature amount after change (Formula 4)
変化率=(変化前の特徴量-変化後の特徴量)/変化前の特徴量×100
(数式3)
正常変化量範囲欄215の正常変化量範囲は、医師等が正常であると診断する変化量の上限及び下限の組合せである。変化量は、特徴量が変化する絶対量である。変化量は以下の数式4によって算出される。
変化量=変化前の特徴量-変化後の特徴量 (数式4) The normal change rate range in the normal change
Rate of change = (feature before change−feature after change) / feature before change × 100
(Formula 3)
The normal change amount range in the normal change
Change amount = feature amount before change-feature amount after change (Formula 4)
単位欄216の単位は、特徴量の単位である。無単位である場合もある。本実施形態において、「明度」のように、例えば8ビットの2進数(十進数では0~255)で表現される特徴量は、「無単位」としている。
変化期間217の変化期間は、特徴量の変化率及び変化量が、どれだけの期間に亘る変化率及び変化量に換算されたものであるかを示す。例えば、変化期間「1ヶ月」の変化率「+1%」は、ある特徴量が、12ヶ月で「+12%」変化すること、6ヶ月で「+6%」変化すること、半月で「+0.5%」変化すること、・・・を等しく示す。同様に、変化期間「1ヶ月」の変化量「+1」は、例えば、ある特徴量が、12ヶ月で「+12」変化すること、6ヶ月で「+6」変化すること、半月で「+0.5」変化すること、・・・を等しく示す。
なお、図8おいて、「・・・」は、各欄に記憶されている数値を省略的に表現したものであり、その欄に数値が存在しない訳ではない。 The unit in theunit column 216 is a feature amount unit. It can be unitless. In the present embodiment, for example, the feature quantity expressed by an 8-bit binary number (0 to 255 in decimal number) such as “brightness” is “no unit”.
The change period of thechange period 217 indicates how long the change rate and change amount of the feature amount are converted into the change rate and change amount over the period. For example, the rate of change “+ 1%” in the change period “1 month” indicates that a certain feature value changes “+ 12%” in 12 months, “+ 6%” in 6 months, and “+0.5 in half a month. % "Changes, ... are shown equally. Similarly, the change amount “+1” of the change period “1 month” is, for example, that a certain feature amount changes “+12” in 12 months, “+6” changes in 6 months, and “+0.5 in half months”. "Indicates changing, ... equally."
In FIG. 8, “...” Is an abbreviated expression of the numerical value stored in each column, and does not mean that there is no numerical value in that column.
変化期間217の変化期間は、特徴量の変化率及び変化量が、どれだけの期間に亘る変化率及び変化量に換算されたものであるかを示す。例えば、変化期間「1ヶ月」の変化率「+1%」は、ある特徴量が、12ヶ月で「+12%」変化すること、6ヶ月で「+6%」変化すること、半月で「+0.5%」変化すること、・・・を等しく示す。同様に、変化期間「1ヶ月」の変化量「+1」は、例えば、ある特徴量が、12ヶ月で「+12」変化すること、6ヶ月で「+6」変化すること、半月で「+0.5」変化すること、・・・を等しく示す。
なお、図8おいて、「・・・」は、各欄に記憶されている数値を省略的に表現したものであり、その欄に数値が存在しない訳ではない。 The unit in the
The change period of the
In FIG. 8, “...” Is an abbreviated expression of the numerical value stored in each column, and does not mean that there is no numerical value in that column.
(特徴量の具体例)
いま、「脳」の医用画像を想定する。当該医用画像は、例えば図2の符号111のようなMRI画像であるとする。
「面積」:罹患率評価装置1は、例えば、医用画像の画素のうち、輪郭によって閉じられた領域内にあり、かつ、特定の範囲の画素値を有する画素の数を数え、その数を所定の規則に従って面積に換算する等によって、脳の面積(正確には断面積)を算出することができる。 (Specific examples of feature values)
Now, a medical image of “brain” is assumed. The medical image is assumed to be an MRI image such asreference numeral 111 in FIG.
“Area”: Themorbidity evaluation apparatus 1 counts, for example, the number of pixels within a region closed by a contour and having a pixel value in a specific range among pixels of a medical image, and determines the number. The area of the brain (more precisely, the cross-sectional area) can be calculated by converting it into an area according to the above rule.
いま、「脳」の医用画像を想定する。当該医用画像は、例えば図2の符号111のようなMRI画像であるとする。
「面積」:罹患率評価装置1は、例えば、医用画像の画素のうち、輪郭によって閉じられた領域内にあり、かつ、特定の範囲の画素値を有する画素の数を数え、その数を所定の規則に従って面積に換算する等によって、脳の面積(正確には断面積)を算出することができる。 (Specific examples of feature values)
Now, a medical image of “brain” is assumed. The medical image is assumed to be an MRI image such as
“Area”: The
「明度」:罹患率評価装置1は、例えば、医用画像のうち、輪郭によって閉じられた領域内にある画素の画素値(例えば、0~255のグレースケール)の平均値を算出する等によって、脳の明度を算出することができる。さらに、領域を細分化し、それぞれの細分化された領域における画素値の平均値の分散を算出することによって、「明度分散」を求めることもできる。
“Brightness”: The morbidity evaluation apparatus 1 calculates, for example, an average value of pixel values (for example, a gray scale of 0 to 255) of pixels within a region closed by a contour in a medical image, etc. The brightness of the brain can be calculated. Furthermore, “lightness dispersion” can be obtained by subdividing the area and calculating the variance of the average value of the pixel values in each subdivided area.
「円形度」:罹患率評価装置1は、例えば、医用画像のうち、輪郭によって閉じられた領域の縦横比率を算出する、輪郭の形状等をテンプレートに当てはめる等によって、脳の円形度(正確には断面の円形度)を算出することができる。
“Circularity”: The morbidity evaluation apparatus 1 calculates the circularity of the brain (accurately, for example, by calculating the aspect ratio of the region closed by the contour in the medical image, or by applying the contour shape or the like to the template. Is the circularity of the cross section).
他の例として、「胃」の内視鏡画像(カラー画像)を想定する。
「色彩」:罹患率評価装置1は、例えば、撮像された領域内にある画素の画素値(例えば、R、G、Bごとに0~255)の平均値を算出する等によって、胃の内壁の色彩(色相)を算出することができる。
「テクスチャ」:罹患率評価装置1は、例えば、撮像された領域内にある画素について、空間周波数分析、フーリエ変換等を行うことによって、胃の内壁のテクスチャ統計量(凹凸、質感等)を算出することができる。 As another example, an endoscopic image (color image) of “stomach” is assumed.
“Color”: Themorbidity evaluation apparatus 1 calculates the average value of pixel values (for example, 0 to 255 for each of R, G, and B) of pixels in the imaged region, for example, and so on. The color (hue) of can be calculated.
“Texture”: Themorbidity evaluation apparatus 1 calculates the texture statistics (unevenness, texture, etc.) of the stomach inner wall by performing, for example, spatial frequency analysis, Fourier transform, etc. on the pixels in the imaged region. can do.
「色彩」:罹患率評価装置1は、例えば、撮像された領域内にある画素の画素値(例えば、R、G、Bごとに0~255)の平均値を算出する等によって、胃の内壁の色彩(色相)を算出することができる。
「テクスチャ」:罹患率評価装置1は、例えば、撮像された領域内にある画素について、空間周波数分析、フーリエ変換等を行うことによって、胃の内壁のテクスチャ統計量(凹凸、質感等)を算出することができる。 As another example, an endoscopic image (color image) of “stomach” is assumed.
“Color”: The
“Texture”: The
さらに他の例として、「肺」のX線画像を想定する。
「結節数」:罹患率評価装置1は、例えば、直線状の輪郭(肋骨)間にある所定の明度及び円形度を有する陰影の数を数えることによって、肺の中に存在する結節(腫瘍等の病巣であることが多い)の数を算出することができる。 As yet another example, an X-ray image of “lung” is assumed.
“Number of nodules”: Themorbidity evaluation apparatus 1 counts the number of shadows having a predetermined lightness and circularity between straight outlines (ribs), for example, and thereby presents nodules (tumors or the like) existing in the lungs. The number of lesions) is often calculated.
「結節数」:罹患率評価装置1は、例えば、直線状の輪郭(肋骨)間にある所定の明度及び円形度を有する陰影の数を数えることによって、肺の中に存在する結節(腫瘍等の病巣であることが多い)の数を算出することができる。 As yet another example, an X-ray image of “lung” is assumed.
“Number of nodules”: The
その他、具体的な例は挙げないものの、罹患率評価装置1は、既存の技術を使用して、特定の部位の「血流速度」、「温度」、「彩度」等、他の特徴量を取得することもできる。
図8に示したように、1つの部位に対して、複数の特徴量が対応している。もちろん、特定の特徴量は、ある部位については取得され易く、他の部位については取得されにくい(又は、そもそも想定することができない)等の個別事情は存在する。ただし、図8においては、説明の単純化のため、このような個別事情は捨象した。 In addition, although a specific example is not given, themorbidity evaluation apparatus 1 uses the existing technology and uses other features such as “blood flow velocity”, “temperature”, “saturation”, and the like of a specific part. You can also get
As shown in FIG. 8, a plurality of feature amounts correspond to one part. Of course, there are individual circumstances such that a specific feature amount is easily acquired for a certain part and is difficult to acquire for another part (or cannot be assumed in the first place). However, in FIG. 8, such individual circumstances are omitted for the sake of simplicity of explanation.
図8に示したように、1つの部位に対して、複数の特徴量が対応している。もちろん、特定の特徴量は、ある部位については取得され易く、他の部位については取得されにくい(又は、そもそも想定することができない)等の個別事情は存在する。ただし、図8においては、説明の単純化のため、このような個別事情は捨象した。 In addition, although a specific example is not given, the
As shown in FIG. 8, a plurality of feature amounts correspond to one part. Of course, there are individual circumstances such that a specific feature amount is easily acquired for a certain part and is difficult to acquire for another part (or cannot be assumed in the first place). However, in FIG. 8, such individual circumstances are omitted for the sake of simplicity of explanation.
(医師診断情報)
図9に沿って、医師診断情報33を説明する。医師診断情報33においては、患者ID欄221に記憶された患者IDに関連付けて、医師ID欄222には医師IDが、診断画像ID欄223には診断画像IDが、部位名欄224には部位名が、変化率欄225には変化率が、変化量226には変化量が、疾病名欄227には疾病名が、診断時点欄228には診断時点が記憶されている。 (Doctor's diagnosis information)
Thedoctor diagnosis information 33 will be described with reference to FIG. In the doctor diagnosis information 33, in association with the patient ID stored in the patient ID column 221, the doctor ID column 222 has a doctor ID, the diagnostic image ID column 223 has a diagnostic image ID, and the region name column 224 has a region. The change rate column 225 stores the change rate, the change amount 226 stores the change amount, the disease name column 227 stores the disease name, and the diagnosis time column 228 stores the diagnosis time point.
図9に沿って、医師診断情報33を説明する。医師診断情報33においては、患者ID欄221に記憶された患者IDに関連付けて、医師ID欄222には医師IDが、診断画像ID欄223には診断画像IDが、部位名欄224には部位名が、変化率欄225には変化率が、変化量226には変化量が、疾病名欄227には疾病名が、診断時点欄228には診断時点が記憶されている。 (Doctor's diagnosis information)
The
患者ID欄221の患者IDは、図7の患者IDと同じである。
医師ID欄222の医師IDは、患者を診断した医師を一意に特定する識別子である。
診断画像ID欄223の診断画像IDは、図7の画像IDと同じである。但し、ここでは、特徴量を比較する基準となる医用画像(図2~図5における特徴量「p」を有する医用画像)の画像ID、及び、特徴量を比較する対象となる医用画像(図2~図5における特徴量「q」を有する医用画像)の画像IDの組合せである。
部位名欄224の部位名は、図7の部位名と同じである。但し、ここでの部位名は、患者の自覚症状に基づく部位名であってもよく、医師の目から見てその部位に疾病が存在するか否かは問われていない。 The patient ID in thepatient ID column 221 is the same as the patient ID in FIG.
The doctor ID in thedoctor ID column 222 is an identifier that uniquely identifies the doctor who diagnosed the patient.
The diagnostic image ID in the diagnosticimage ID column 223 is the same as the image ID in FIG. However, here, the image ID of the medical image (the medical image having the feature “p” in FIGS. 2 to 5) serving as a reference for comparing the feature and the medical image (FIG. 2 to 5 are combinations of image IDs of medical images having the feature quantity “q”.
The site name in thesite name column 224 is the same as the site name in FIG. However, the site name here may be a site name based on the subjective symptoms of the patient, and it does not matter whether or not there is a disease in the site as seen from the doctor's eyes.
医師ID欄222の医師IDは、患者を診断した医師を一意に特定する識別子である。
診断画像ID欄223の診断画像IDは、図7の画像IDと同じである。但し、ここでは、特徴量を比較する基準となる医用画像(図2~図5における特徴量「p」を有する医用画像)の画像ID、及び、特徴量を比較する対象となる医用画像(図2~図5における特徴量「q」を有する医用画像)の画像IDの組合せである。
部位名欄224の部位名は、図7の部位名と同じである。但し、ここでの部位名は、患者の自覚症状に基づく部位名であってもよく、医師の目から見てその部位に疾病が存在するか否かは問われていない。 The patient ID in the
The doctor ID in the
The diagnostic image ID in the diagnostic
The site name in the
変化率欄225の変化率は、各特徴量の変化率を成分に有するベクトルである。図8において、部位名「脳」についての特徴量は、優先度の高い順に「面積」、「明度」、「温度」、「色彩」、「円形度」及び「テクスチャ」である。図9の変化率のベクトルの成分は、これらの特徴量の変化率をこの順に並べたものである。すなわち、例えば、図9の1行目のレコードにおいて、(面積の変化率,明度の変化率,・・・)=(+0%,+0%,・・・)となっている。変化率のベクトルが、すべての特徴量の変化率についての成分を有するとは限らない。例えば、脳について「面積」及び「明度」だけを問題にする場合、その他の特徴量は記憶されない。この場合、変化率は、(面積の変化率,明度の変化率,温度の変化率,色彩の変化率,・・・)=(+0%,+0%,*,*,・・・)となる。「*」は、値が存在しないことを示す。
The change rate in the change rate column 225 is a vector having the change rate of each feature amount as a component. In FIG. 8, the feature amounts for the part name “brain” are “area”, “lightness”, “temperature”, “color”, “circularity”, and “texture” in descending order of priority. The change rate vector components in FIG. 9 are obtained by arranging the change rates of these feature amounts in this order. That is, for example, in the record in the first row of FIG. 9, (area change rate, brightness change rate,...) = (+ 0%, + 0%,...). The change rate vector does not necessarily have components for the change rates of all feature quantities. For example, when only “area” and “brightness” are considered for the brain, other feature values are not stored. In this case, the change rate is (area change rate, lightness change rate, temperature change rate, color change rate,...) = (+ 0%, + 0%, *, *,...) . “*” Indicates that no value exists.
変化量226の変化量は、各特徴量の変化の絶対量を成分に有するベクトルである。変化率と同様に、例えば、図9の1行目のレコードにおいて、(面積の変化量,明度の変化量,・・・)=(+0,+0,・・・)となっている。「*」についても、変化率と同様である。
疾病名欄227の疾病名は、医師が、診断画像IDが特定する医用画像、変化率及び変化量を参照したうえで、自身の見解にも基づいて診断した疾病の名称である。医師の目から見てその部位に疾病が存在しない場合は、「(該当なし)」が記憶される。
診断時点欄228の診断時点は、医師が診断した時点の年月日である。 The change amount of thechange amount 226 is a vector having the absolute amount of change of each feature amount as a component. Similar to the rate of change, for example, in the record in the first row of FIG. 9, (area change amount, brightness change amount,...) = (+ 0, +0,...). “*” Is the same as the rate of change.
The disease name in thedisease name column 227 is the name of the disease diagnosed by the doctor based on his / her opinion after referring to the medical image, change rate, and change amount specified by the diagnostic image ID. When there is no disease at the site as seen from the doctor's eyes, “(not applicable)” is stored.
The diagnosis time point in the diagnosistime point column 228 is the date when the doctor made a diagnosis.
疾病名欄227の疾病名は、医師が、診断画像IDが特定する医用画像、変化率及び変化量を参照したうえで、自身の見解にも基づいて診断した疾病の名称である。医師の目から見てその部位に疾病が存在しない場合は、「(該当なし)」が記憶される。
診断時点欄228の診断時点は、医師が診断した時点の年月日である。 The change amount of the
The disease name in the
The diagnosis time point in the diagnosis
図9の3行目~6行目のレコードと、図7に注目すると以下のことがわかる。
・患者IDが「P002」である患者「小泉二郎」は、脳に異常があると自覚している。
・「小泉二郎」は、医師「D002」の治療を4回受けている。その4回の年月日は、「20120415」、「20120515」、「20120615」及び「20120715」である。
・医師「D002」は、最初の診断時点「20120415」において、医療画像「I101」及び「I102」を比較している。医療画像「I101」は、最初の診断時点よりも前の時点「20120315」において取得されたものである。小泉二郎は、最初の診断時点において医用画像「I101」を医師「D002」に持ち込んでいる。そして、医療画像「I102」は、医師「D002」が自ら、撮像装置「M004」を使用して、最初の診断時点に取得したものである。 By paying attention to the records in the third to sixth lines in FIG. 9 and FIG. 7, the following can be understood.
The patient “Jiro Koizumi” whose patient ID is “P002” is aware that there is an abnormality in the brain.
・ "Jiro Koizumi" has been treated by doctor "D002" four times. The four dates are “2012415”, “201220515”, “2012615”, and “20120715”.
The doctor “D002” compares the medical images “I101” and “I102” at the first diagnosis time “2012415”. The medical image “I101” is acquired at a time point “20120315” before the first diagnosis time point. Jiro Koizumi has brought the medical image “I101” to the doctor “D002” at the time of the first diagnosis. The medical image “I102” is acquired by the doctor “D002” himself at the first diagnosis time using the imaging device “M004”.
・患者IDが「P002」である患者「小泉二郎」は、脳に異常があると自覚している。
・「小泉二郎」は、医師「D002」の治療を4回受けている。その4回の年月日は、「20120415」、「20120515」、「20120615」及び「20120715」である。
・医師「D002」は、最初の診断時点「20120415」において、医療画像「I101」及び「I102」を比較している。医療画像「I101」は、最初の診断時点よりも前の時点「20120315」において取得されたものである。小泉二郎は、最初の診断時点において医用画像「I101」を医師「D002」に持ち込んでいる。そして、医療画像「I102」は、医師「D002」が自ら、撮像装置「M004」を使用して、最初の診断時点に取得したものである。 By paying attention to the records in the third to sixth lines in FIG. 9 and FIG. 7, the following can be understood.
The patient “Jiro Koizumi” whose patient ID is “P002” is aware that there is an abnormality in the brain.
・ "Jiro Koizumi" has been treated by doctor "D002" four times. The four dates are “2012415”, “201220515”, “2012615”, and “20120715”.
The doctor “D002” compares the medical images “I101” and “I102” at the first diagnosis time “2012415”. The medical image “I101” is acquired at a time point “20120315” before the first diagnosis time point. Jiro Koizumi has brought the medical image “I101” to the doctor “D002” at the time of the first diagnosis. The medical image “I102” is acquired by the doctor “D002” himself at the first diagnosis time using the imaging device “M004”.
・医師「D002」は、その後3度の診断時点に、その都度撮像装置「M004」を使用して医用画像を取得し、取得した画像「I103」、「I104」及び「I105」を、医用画像「I101」と比較している。
・脳の「面積」については、変化率「-1%」が継続し、変化量「-5」が継続している。これらの数値は、「変化期間1ヶ月」の変化率(量)に換算されたものである。結局、月間に変化率では「-1%」ずつ、変化量では「-5cm2」ずつ、脳の面積が収縮し続けていることになる。
・脳の「明度」については、変化率が「+4%,-4%,+6%,-2%」のように推移し、変化量が「+8,-8,+12%,-4%」のように推移している。結局、明度は、大きく増加、減少の振幅を繰り返しながら、傾向的には増加している。
・医師「D002」は、最初の診断時点以降一貫して「軽度認知障害」であるとの診断を下している。 The doctor “D002” acquires a medical image using the imaging device “M004” each time three times after that, and obtains the acquired images “I103”, “I104”, and “I105” as medical images. It is compared with “I101”.
-Regarding the “area” of the brain, the rate of change “−1%” continues and the amount of change “−5” continues. These numerical values are converted into the change rate (amount) of “change period 1 month”. Eventually, the brain area continues to contract by “−1%” for the rate of change by month and by “−5 cm 2 ” for the amount of change.
-Regarding the “brightness” of the brain, the rate of change changes as “+ 4%, −4%, + 6%, −2%”, and the amount of change is “+8, −8, + 12%, −4%” It has changed as follows. Eventually, the lightness tends to increase while repeating large and decreasing amplitudes.
The doctor “D002” has consistently diagnosed “mild cognitive impairment” since the first diagnosis.
・脳の「面積」については、変化率「-1%」が継続し、変化量「-5」が継続している。これらの数値は、「変化期間1ヶ月」の変化率(量)に換算されたものである。結局、月間に変化率では「-1%」ずつ、変化量では「-5cm2」ずつ、脳の面積が収縮し続けていることになる。
・脳の「明度」については、変化率が「+4%,-4%,+6%,-2%」のように推移し、変化量が「+8,-8,+12%,-4%」のように推移している。結局、明度は、大きく増加、減少の振幅を繰り返しながら、傾向的には増加している。
・医師「D002」は、最初の診断時点以降一貫して「軽度認知障害」であるとの診断を下している。 The doctor “D002” acquires a medical image using the imaging device “M004” each time three times after that, and obtains the acquired images “I103”, “I104”, and “I105” as medical images. It is compared with “I101”.
-Regarding the “area” of the brain, the rate of change “−1%” continues and the amount of change “−5” continues. These numerical values are converted into the change rate (amount) of “
-Regarding the “brightness” of the brain, the rate of change changes as “+ 4%, −4%, + 6%, −2%”, and the amount of change is “+8, −8, + 12%, −4%” It has changed as follows. Eventually, the lightness tends to increase while repeating large and decreasing amplitudes.
The doctor “D002” has consistently diagnosed “mild cognitive impairment” since the first diagnosis.
(類型)
図10に沿って、時系列グラフの類型を説明する。図9における3行目~6行目のレコードは、患者「P002」についてのレコードである。これらのレコードが、図10の時系列グラフ231及び232に対応している。図9の3行目~6行目のレコードの変化率欄225に記憶されているそれぞれのベクトルの1番目(最も左)の成分に注目する。当該成分は、脳の面積の変化率を示しており、上のレコードから順に、すなわち時系列で、「-1%」、「-1%」、「-1%」及び「-1%」である。この時系列の推移をグラフ化したものが、図10の時系列グラフ231である。同様に、図9の3行目~6行目のレコードの変化率欄225に記憶されているそれぞれのベクトルの(左から)2番目の成分に注目する。当該成分は、脳の明度の変化率を示しており、上のレコードから順に、すなわち時系列で、「+4%」、「-4%」、「+6%」及び「-2%」である。この時系列の推移をグラフ化したものが、図10の時系列グラフ232である。 (Type)
A type of time-series graph will be described with reference to FIG. The records in the third to sixth lines in FIG. 9 are records for the patient “P002”. These records correspond to the time series graphs 231 and 232 in FIG. Attention is paid to the first (leftmost) component of each vector stored in the change rate column 225 of the records in the third to sixth lines in FIG. The component indicates the rate of change of the area of the brain, and in order from the top record, that is, in time series, “−1%”, “−1%”, “−1%” and “−1%” is there. A graph showing the transition of the time series is a time series graph 231 in FIG. Similarly, attention is focused on the second component (from the left) of each vector stored in the change rate column 225 of the records in the third to sixth lines in FIG. The component indicates the change rate of the lightness of the brain, and is “+ 4%”, “−4%”, “+ 6%”, and “−2%” in order from the top record, that is, in time series. A graph showing the transition of this time series is a time series graph 232 of FIG.
図10に沿って、時系列グラフの類型を説明する。図9における3行目~6行目のレコードは、患者「P002」についてのレコードである。これらのレコードが、図10の時系列グラフ231及び232に対応している。図9の3行目~6行目のレコードの変化率欄225に記憶されているそれぞれのベクトルの1番目(最も左)の成分に注目する。当該成分は、脳の面積の変化率を示しており、上のレコードから順に、すなわち時系列で、「-1%」、「-1%」、「-1%」及び「-1%」である。この時系列の推移をグラフ化したものが、図10の時系列グラフ231である。同様に、図9の3行目~6行目のレコードの変化率欄225に記憶されているそれぞれのベクトルの(左から)2番目の成分に注目する。当該成分は、脳の明度の変化率を示しており、上のレコードから順に、すなわち時系列で、「+4%」、「-4%」、「+6%」及び「-2%」である。この時系列の推移をグラフ化したものが、図10の時系列グラフ232である。 (Type)
A type of time-series graph will be described with reference to FIG. The records in the third to sixth lines in FIG. 9 are records for the patient “P002”. These records correspond to the
図9における7行目~10行目のレコードは、患者「P003」についてのレコードである。これらのレコードが、図10の時系列グラフ233及び234に対応している。図9の7行目~10行目のレコードの変化率欄225に記憶されているそれぞれのベクトルの1番目(最も左)の成分に注目する。当該成分は、肺の結節数の変化率を示しており、上のレコードから順に、すなわち時系列で、「+3%」、「+3%」、「+4%」及び「+4%」である。この時系列の推移をグラフ化したものが、図10の時系列グラフ233である。同様に、図9の7行目~10行目のレコードの変化率欄225に記憶されているそれぞれのベクトルの(左から)2番目の成分に注目する。当該成分は、肺の明度分散の変化率を示しており、上のレコードから順に、すなわち時系列で、「+2%」、「+2%」、「+3%」及び「+3%」である。この時系列の推移をグラフ化したものが、図10の時系列グラフ234である。
The records in the seventh to tenth lines in FIG. 9 are records for the patient “P003”. These records correspond to the time series graphs 233 and 234 of FIG. Attention is paid to the first (leftmost) component of each vector stored in the change rate column 225 of the records in the seventh to tenth lines in FIG. This component indicates the rate of change in the number of nodules in the lung, and is “+ 3%”, “+ 3%”, “+ 4%”, and “+ 4%” in order from the top record, that is, in time series. A graph showing the transition of this time series is a time series graph 233 in FIG. Similarly, attention is focused on the second component (from the left) of each vector stored in the change rate column 225 of the records in the seventh to tenth rows in FIG. This component indicates the change rate of lightness dispersion of the lung, and is “+ 2%”, “+ 2%”, “+ 3%”, and “+ 3%” in order from the top record, that is, in time series. A graph showing the transition of this time series is a time series graph 234 in FIG.
以上では、変化率をグラフ化する例を説明した。しかしながら、同様に、変化量をグラフ化することも可能である。次に、これらの時系列グラフを、その形状及び位置等に基づいてグループ分け(パターン化)することを考える。そのグループ分けの一例を「類型一覧」35として示す。
In the above, an example of graphing the rate of change has been described. However, similarly, it is also possible to graph the amount of change. Next, consider grouping (patterning) these time series graphs based on their shapes and positions. An example of the grouping is shown as a “type list” 35.
(類型一覧)
図10の類型一覧35においては、類型欄241に記憶された類型に関連付けて、符号の推移欄242には符号の推移が、増減傾向欄243には増減傾向が、時系列グラフの例欄244には時系列グラフの例が記憶されている。
類型欄241の類型は、類型を一意に識別する識別子である。類型とは、ここでは「符号の推移」及び「増減傾向」の組合せである。
符号の推移欄242の符号の推移は、変化率の符号がどのように変化するかを示している。
増減傾向欄243の増減傾向は、変化率の水準が傾向的にどのように推移するかを示している。
時系列グラフの例欄244の時系列グラフの例は、類型に該当する時系列グラフの符号である。時系列グラフ231は、類型「a」に属し、時系列グラフ232は、類型「b」に属し、時系列グラフ233及び234は、いずれも類型「c」に属することがわかる。 (Type list)
In thetype list 35 of FIG. 10, in association with the types stored in the type column 241, the code transition column 242 shows the code transition, the increase / decrease trend column 243 shows the increase / decrease trend, and the time series graph example column 244 An example of a time series graph is stored in.
The type in thetype column 241 is an identifier that uniquely identifies the type. Here, the type is a combination of “sign transition” and “increase / decrease tendency”.
The sign transition in thesign transition column 242 indicates how the sign of the change rate changes.
The increase / decrease trend in the increase / decreasetrend column 243 indicates how the level of the change rate tends to change.
The example of the time series graph in the time seriesgraph example column 244 is a code of the time series graph corresponding to the type. It can be seen that the time series graph 231 belongs to the type “a”, the time series graph 232 belongs to the type “b”, and the time series graphs 233 and 234 both belong to the type “c”.
図10の類型一覧35においては、類型欄241に記憶された類型に関連付けて、符号の推移欄242には符号の推移が、増減傾向欄243には増減傾向が、時系列グラフの例欄244には時系列グラフの例が記憶されている。
類型欄241の類型は、類型を一意に識別する識別子である。類型とは、ここでは「符号の推移」及び「増減傾向」の組合せである。
符号の推移欄242の符号の推移は、変化率の符号がどのように変化するかを示している。
増減傾向欄243の増減傾向は、変化率の水準が傾向的にどのように推移するかを示している。
時系列グラフの例欄244の時系列グラフの例は、類型に該当する時系列グラフの符号である。時系列グラフ231は、類型「a」に属し、時系列グラフ232は、類型「b」に属し、時系列グラフ233及び234は、いずれも類型「c」に属することがわかる。 (Type list)
In the
The type in the
The sign transition in the
The increase / decrease trend in the increase / decrease
The example of the time series graph in the time series
以上で説明した符号の推移及び増減傾向の組合せはあくまでも例である。これらのほかにも、時系列グラフの凹凸(2次導関数の符号)、変曲点の数、時系列グラフが横軸(変化率=0)と交差する回数、横軸との距離(振幅)、積分値(時系列グラフと横軸との間の面積)、周波数、波長、収束値(漸近線)の有無、収束値の水準、非連続な複数の曲線となる場合のこれらの時系列的な推移等の組合せが、類型として想定可能である。つまり、類型とは、一般的に、時系列グラフを数学的、物理学的に処理した結果に応じて、時系列グラフを重複なく分類できるものであればなんでもよい。
The combinations of code transitions and increase / decrease trends described above are merely examples. In addition to these, the unevenness of the time series graph (sign of second derivative), the number of inflection points, the number of times the time series graph intersects the horizontal axis (rate of change = 0), the distance from the horizontal axis (amplitude) ), Integral value (area between time series graph and horizontal axis), frequency, wavelength, presence / absence of convergence value (asymptote), level of convergence value, and time series when there are multiple discontinuous curves A combination of typical transitions can be assumed as a type. That is, the type may be anything as long as it can classify the time series graphs without duplication according to the result of mathematical and physical processing of the time series graphs.
(処理手順)
以降において本実施形態の処理手順を説明する。処理手順は2つ存在し、これらは、基本となる第1の処理手順、及び、その発展型である第2の処理手順である。罹患率評価装置1は、いずれかを実行することによって、罹患率を算出することができる。 (Processing procedure)
Hereinafter, the processing procedure of this embodiment will be described. There are two processing procedures. These are a basic first processing procedure and a second processing procedure that is an extension of the first processing procedure. The morbidityrate evaluation apparatus 1 can calculate the morbidity rate by executing one of them.
以降において本実施形態の処理手順を説明する。処理手順は2つ存在し、これらは、基本となる第1の処理手順、及び、その発展型である第2の処理手順である。罹患率評価装置1は、いずれかを実行することによって、罹患率を算出することができる。 (Processing procedure)
Hereinafter, the processing procedure of this embodiment will be described. There are two processing procedures. These are a basic first processing procedure and a second processing procedure that is an extension of the first processing procedure. The morbidity
(第1の処理手順)
図11に沿って、第1の処理手順を説明する。なお、第1の処理手順を開始する時点において、画像管理情報31、異常判定情報32及び医師診断情報33が、完成された状態で補助記憶装置15に格納されているものとする。さらに、画像管理情報31に画像IDが記憶されているすべての医用画像34が、補助記憶装置15に格納されているものとする。そして、説明の簡略化のため、罹患率評価装置1と端末装置2とが1つの筐体に纏められた構成となっているものとする。つまり、医師等のユーザは、罹患率評価装置1の入力装置12等を操作しているものとする。 (First processing procedure)
The first processing procedure will be described with reference to FIG. It is assumed that theimage management information 31, the abnormality determination information 32, and the doctor diagnosis information 33 are stored in the auxiliary storage device 15 in a completed state at the time of starting the first processing procedure. Furthermore, it is assumed that all the medical images 34 whose image IDs are stored in the image management information 31 are stored in the auxiliary storage device 15. For the sake of simplification of description, it is assumed that the morbidity rate evaluation device 1 and the terminal device 2 are combined into one housing. That is, it is assumed that a user such as a doctor is operating the input device 12 of the morbidity evaluation apparatus 1 or the like.
図11に沿って、第1の処理手順を説明する。なお、第1の処理手順を開始する時点において、画像管理情報31、異常判定情報32及び医師診断情報33が、完成された状態で補助記憶装置15に格納されているものとする。さらに、画像管理情報31に画像IDが記憶されているすべての医用画像34が、補助記憶装置15に格納されているものとする。そして、説明の簡略化のため、罹患率評価装置1と端末装置2とが1つの筐体に纏められた構成となっているものとする。つまり、医師等のユーザは、罹患率評価装置1の入力装置12等を操作しているものとする。 (First processing procedure)
The first processing procedure will be described with reference to FIG. It is assumed that the
ステップS301において、入出力制御部26は、比較対象の医用画像を取得する。具体的には、入出力制御部26は、医師等のユーザが、入力装置12を介して患者ID、部位名及び医用画像を入力するのを受け付ける。ここで入力される医用画像は、現在の医用画像(図2の符号112)であり、以降では「比較対象医用画像」と呼ぶことがある。また、ここで受け付けた患者ID及び部位名を、以降ではそれぞれ「対象患者ID」及び「対象部位名」と呼ぶことがある。
In step S301, the input / output control unit 26 acquires a medical image to be compared. Specifically, the input / output control unit 26 accepts that a user such as a doctor inputs a patient ID, a part name, and a medical image via the input device 12. The medical image input here is the current medical image (reference numeral 112 in FIG. 2), and may be referred to as a “comparison medical image” hereinafter. In addition, the patient ID and the part name received here may be hereinafter referred to as “target patient ID” and “target part name”, respectively.
ステップS302において、入出力制御部26は、比較基準の医用画像を取得する。具体的には、入出力制御部26は、第1に、対象患者ID及び対象部位名を検索キーとして、画像管理情報31(図7)を検索し、該当したレコードのうち撮像時点が最も新しいレコードを取得する。
入出力制御部26は、第2に、ステップS302の「第1」において取得したレコードの画像IDを有する医用画像を、補助記憶装置15から取得する。補助記憶装置15に格納されているすべての医用画像には、画像IDが付されているものとする。ここで取得された医用画像を、以降では「比較基準医用画像」と呼ぶことがある。 In step S <b> 302, the input /output control unit 26 acquires a medical image for comparison reference. Specifically, the input / output control unit 26 first searches the image management information 31 (FIG. 7) using the target patient ID and the target part name as search keys, and the imaging point of time is the latest among the corresponding records. Get a record.
Second, the input /output control unit 26 acquires from the auxiliary storage device 15 a medical image having the image ID of the record acquired in “first” in step S302. Assume that all medical images stored in the auxiliary storage device 15 are assigned image IDs. The medical image acquired here may be referred to as a “comparison reference medical image” hereinafter.
入出力制御部26は、第2に、ステップS302の「第1」において取得したレコードの画像IDを有する医用画像を、補助記憶装置15から取得する。補助記憶装置15に格納されているすべての医用画像には、画像IDが付されているものとする。ここで取得された医用画像を、以降では「比較基準医用画像」と呼ぶことがある。 In step S <b> 302, the input /
Second, the input /
ステップS303において、相対位置補正部21は、医用画像の位置合わせを行う。ここで一旦図2に戻って、比較基準医用画像111及び比較対象医用画像112に注目する。両者の画像は、対象となった患者及び部位が同じであるが、それらの画像を取得した撮像装置が異なっている場合もある。さらに、両者の画像が同じ撮像装置で取得されたものであったとしても、それぞれの撮像時点における撮像装置の設定条件、撮像環境等が異なる場合もある。すると、両者の画像は、そのままの状態で比較することができなくなる。そこで、両者の画像を重ね合わせて差分を取得する(符号113)前段階として、両者の画像の位置合わせをすることが必要になる。
In step S303, the relative position correction unit 21 aligns the medical image. Here, returning to FIG. 2, attention is paid to the comparison reference medical image 111 and the comparison target medical image 112. Both images have the same target patient and part, but there are cases in which the imaging devices that acquired these images are different. Furthermore, even if both images are acquired by the same imaging device, the setting conditions, imaging environment, and the like of the imaging device at the time of each imaging may be different. Then, both images cannot be compared as they are. Therefore, it is necessary to align the images of both images as a step before obtaining the difference by superimposing both images (reference numeral 113).
具体的には、相対位置補正部21は、第1に、比較基準医用画像のなかから、骨格等の経時変化の少ない点を2つ選択する。このような2点をどのように選択するかは、部位によって異なる。脳の医用画像の場合は、このような2点は、例えば、頭骨の重心111a(図2)及び頭骨の頂点111b(図2)である。以降、脳の場合を例にして説明を続ける。
相対位置補正部21は、第2に、比較対象医用画像のなかから、ステップS303の「第1」において選択した2つの点に対応する点(図2の点112a及び112b)を選択する。
相対位置補正部21は、第3に、比較対象医用画像と比較基準医用画像とを同一平面に重ねて置く。そして、点112aが点111aに重なり、かつ、点112bが点111bに重なるように、比較対象医用画像を全体的に縮小又は拡大する。このようにして縮小又は拡大された比較対象医用画像を、以降では「位置補正後比較対象医用画像」と呼ぶことがある。 Specifically, the relativeposition correction unit 21 first selects two points having a small temporal change such as a skeleton from the comparative reference medical images. How to select such two points differs depending on the part. In the case of a medical image of the brain, such two points are, for example, the center of gravity 111a (FIG. 2) of the skull and the vertex 111b (FIG. 2) of the skull. Hereinafter, the description will be continued by taking the case of the brain as an example.
Second, the relativeposition correction unit 21 selects points ( points 112a and 112b in FIG. 2) corresponding to the two points selected in “first” in step S303 from the comparison target medical images.
Thirdly, the relativeposition correction unit 21 places the comparison target medical image and the comparison reference medical image on the same plane. Then, the comparison target medical image is entirely reduced or enlarged so that the point 112a overlaps the point 111a and the point 112b overlaps the point 111b. The comparison target medical image reduced or enlarged in this way may be hereinafter referred to as a “position corrected comparison target medical image”.
相対位置補正部21は、第2に、比較対象医用画像のなかから、ステップS303の「第1」において選択した2つの点に対応する点(図2の点112a及び112b)を選択する。
相対位置補正部21は、第3に、比較対象医用画像と比較基準医用画像とを同一平面に重ねて置く。そして、点112aが点111aに重なり、かつ、点112bが点111bに重なるように、比較対象医用画像を全体的に縮小又は拡大する。このようにして縮小又は拡大された比較対象医用画像を、以降では「位置補正後比較対象医用画像」と呼ぶことがある。 Specifically, the relative
Second, the relative
Thirdly, the relative
ステップS304において、差分画像算出部22は、比較すべき特徴量を決定する。具体的には、差分画像算出部22は、第1に、対象部位名を検索キーとして異常判定情報32(図8)を検索し、該当したすべてのレコードを出力装置13に表示する。
差分画像算出部22は、第2に、ユーザが、ステップS304の「第1」において表示したレコードの特徴量のうちから、入力装置12を介して1又は複数の特徴量(のカテゴリ)を選択するのを受け付ける。このとき、差分画像算出部22は、ユーザが特徴量のカテゴリの数を入力するのを受け付けてもよい。例えば「2」が入力された場合、差分画像算出部22は、異常判定情報32のうち、対象部位名を有し、優先度が「2」以下であるレコードの特徴量(「面積」及び「明度」)が選択されたものと看做す。ここでは「面積」のみが選択されたものとして以降の説明を続ける。ここで選択された特徴量を、以降では「選択特徴量」と呼ぶことがある。
差分画像算出部22は、第3に、ユーザが入力装置12を介して「変化率」及び「変化量」のうちのいずれかを選択するのを受け付ける。ここでは「変化率」が選択されたものとして以降の説明を続ける。 In step S304, the differenceimage calculation unit 22 determines a feature amount to be compared. Specifically, the difference image calculation unit 22 first searches the abnormality determination information 32 (FIG. 8) using the target part name as a search key, and displays all corresponding records on the output device 13.
Second, the differenceimage calculation unit 22 selects one or a plurality of feature quantities (categories) via the input device 12 from the feature quantities of the record displayed in “first” in step S304. Accept to do. At this time, the difference image calculation unit 22 may accept that the user inputs the number of feature quantity categories. For example, when “2” is input, the difference image calculation unit 22 includes the feature amount (“area” and “area” of the record having the target part name in the abnormality determination information 32 and the priority is “2” or less. It is assumed that “brightness”) is selected. Here, the following description will be continued assuming that only “area” is selected. The feature amount selected here may be hereinafter referred to as “selected feature amount”.
Thirdly, the differenceimage calculation unit 22 accepts that the user selects one of “change rate” and “change amount” via the input device 12. Here, the following description will be continued assuming that “change rate” is selected.
差分画像算出部22は、第2に、ユーザが、ステップS304の「第1」において表示したレコードの特徴量のうちから、入力装置12を介して1又は複数の特徴量(のカテゴリ)を選択するのを受け付ける。このとき、差分画像算出部22は、ユーザが特徴量のカテゴリの数を入力するのを受け付けてもよい。例えば「2」が入力された場合、差分画像算出部22は、異常判定情報32のうち、対象部位名を有し、優先度が「2」以下であるレコードの特徴量(「面積」及び「明度」)が選択されたものと看做す。ここでは「面積」のみが選択されたものとして以降の説明を続ける。ここで選択された特徴量を、以降では「選択特徴量」と呼ぶことがある。
差分画像算出部22は、第3に、ユーザが入力装置12を介して「変化率」及び「変化量」のうちのいずれかを選択するのを受け付ける。ここでは「変化率」が選択されたものとして以降の説明を続ける。 In step S304, the difference
Second, the difference
Thirdly, the difference
ステップS305において、差分画像算出部22は、差分画像を作成する。具体的には、差分画像算出部22は、第1に、比較基準医用画像及び位置補正後比較対象医用画像を重ね合わせ、和集合領域内の任意の画素について、比較対象医用画像の画素値から、比較基準医用画像の画素値を減算する。ここで、「和集合領域」とは、比較基準医用画像における脳の輪郭内領域と、位置補正後比較対象医用画像における脳の輪郭内領域との和集合部分(いずれかが該当する部分)である。差分画像算出部22は、当該処理を、和集合領域内のすべての位置にある画素について実行してもよい。また、和集合領域において、左から右へさらに上から下へ、1番目、2番目、3番目、・・・のように画素の位置を特定した場合において、例えば「10の整数倍」番目の位置の画素についてのみ処理(間引き処理)を行ってもよい。
In step S305, the difference image calculation unit 22 creates a difference image. Specifically, the difference image calculation unit 22 first superimposes the comparison reference medical image and the post-position correction comparison target medical image, and calculates any pixel in the union area from the pixel value of the comparison target medical image. Then, the pixel value of the comparison reference medical image is subtracted. Here, the “union area” is the union part of the brain contour area in the comparative reference medical image and the brain outline area in the post-position correction comparison target medical image (the part to which either corresponds). is there. The difference image calculation unit 22 may execute the process for pixels at all positions in the union area. Further, in the union region, when the pixel position is specified as the first, second, third,... From left to right and further from top to bottom, for example, the “integer multiple of 10” th Processing (thinning-out processing) may be performed only for the pixel at the position.
差分画像算出部22は、第2に、ステップS305の「第1」の減算結果がある閾値を超える画素を特定する。通常、脳の組織が撮像されている画素の画素値と、そうでない(脳内空間の)画素の画素値との間には有意な差が存在する。
差分画像算出部22は、第3に、ステップS305の「第2」において特定した画素の画素値を所定の画素値(たとえば「白」を表す画素値)とし、その他の画素の画素値を他の所定の画素値(たとえば「黒」を表す画素値)とする差分画像を作成する。当該差分画像によれば、ユーザは、部位のどの箇所が縮小又は拡大しているかを容易に視認できる。 Second, the differenceimage calculation unit 22 identifies pixels that exceed a certain threshold value as a result of the “first” subtraction in step S305. Usually, there is a significant difference between the pixel value of a pixel in which brain tissue is imaged and the pixel value of a pixel that is not (in the brain space).
Third, the differenceimage calculation unit 22 sets the pixel value of the pixel specified in “second” in step S305 as a predetermined pixel value (for example, a pixel value representing “white”), and sets the pixel values of other pixels as other values. A difference image having a predetermined pixel value (for example, a pixel value representing “black”) is created. According to the difference image, the user can easily visually recognize which part of the part is reduced or enlarged.
差分画像算出部22は、第3に、ステップS305の「第2」において特定した画素の画素値を所定の画素値(たとえば「白」を表す画素値)とし、その他の画素の画素値を他の所定の画素値(たとえば「黒」を表す画素値)とする差分画像を作成する。当該差分画像によれば、ユーザは、部位のどの箇所が縮小又は拡大しているかを容易に視認できる。 Second, the difference
Third, the difference
ステップS306において、変化率算出部23は、変化率等を算出する。具体的には、変化率算出部23は、第1に、比較基準医用画像の画素のうち、脳の輪郭内の領域に属する画素の数を数え、さらに、その数に対して所定の換算係数を乗算した結果を、面積「p」とする。
変化率算出部23は、第2に、比較対象医用画像の画素のうち、脳の輪郭内の領域に属する画素の数を数え、さらに、その数に対して当該換算係数を乗算した結果を、面積「q」とする。
変化率算出部23は、第3に、変化率((q-p)/p×100)を算出する。なお、ステップS304の「第3」において「変化量」受け付けた場合は、変化率算出部23は、変化量(q-p)を算出する。
変化率算出部23は、第4に、比較基準医用画像の撮像時点と比較対象医用画像の撮像時点の日数の差分を用いて、ステップS306の「第3」において算出した変化率を、変化期間における変化率に換算する。例えば、日数の差分が「50日」であり、選択特徴量に対応する「変化期間」が1ヶ月である場合、ステップS306の「第3」において算出した変化率に「30/50」を乗算する。 In step S306, the changerate calculation unit 23 calculates the change rate and the like. Specifically, the change rate calculation unit 23 first counts the number of pixels belonging to the region within the outline of the brain among the pixels of the comparative reference medical image, and further calculates a predetermined conversion coefficient for the number. The area “p” is the result of multiplying.
Secondly, the changerate calculation unit 23 counts the number of pixels belonging to the region within the outline of the brain among the pixels of the comparison target medical image, and further multiplies the number by the conversion coefficient, The area is “q”.
Third, the changerate calculation unit 23 calculates the change rate ((q−p) / p × 100). When “change amount” is received in “third” in step S304, the change rate calculation unit 23 calculates the change amount (q−p).
Fourth, the rate-of-change calculating unit 23 uses the difference between the number of days when the comparative reference medical image is captured and the time when the comparative target medical image is captured to calculate the rate of change calculated in “third” in step S306. Convert to the rate of change. For example, when the difference in the number of days is “50 days” and the “change period” corresponding to the selected feature amount is one month, the change rate calculated in “third” in step S306 is multiplied by “30/50”. To do.
変化率算出部23は、第2に、比較対象医用画像の画素のうち、脳の輪郭内の領域に属する画素の数を数え、さらに、その数に対して当該換算係数を乗算した結果を、面積「q」とする。
変化率算出部23は、第3に、変化率((q-p)/p×100)を算出する。なお、ステップS304の「第3」において「変化量」受け付けた場合は、変化率算出部23は、変化量(q-p)を算出する。
変化率算出部23は、第4に、比較基準医用画像の撮像時点と比較対象医用画像の撮像時点の日数の差分を用いて、ステップS306の「第3」において算出した変化率を、変化期間における変化率に換算する。例えば、日数の差分が「50日」であり、選択特徴量に対応する「変化期間」が1ヶ月である場合、ステップS306の「第3」において算出した変化率に「30/50」を乗算する。 In step S306, the change
Secondly, the change
Third, the change
Fourth, the rate-of-
ステップS307において、異常有無判定部24は、異常の有無を判定する。具体的には、異常有無判定部24は、第1に、対象部位名及び選択特徴量を検索キーとして、異常判定情報32(図8)を検索し、該当したレコードの正常変化率範囲を取得する。なお、ステップS304の「第3」において「変化量」を受け付けた場合は、異常有無判定部24は、正常変化量範囲を取得する。
異常有無判定部24は、第2に、ステップS306の「第4」において換算した変化率が、ステップS307の「第1」において取得した正常変化率範囲内にあるか否かを判定し、範囲内にある場合は判定結果「正常」を生成し、範囲内にない場合は判定結果「異常」を生成する。 In step S307, the abnormality presence /absence determination unit 24 determines the presence / absence of an abnormality. Specifically, the abnormality presence / absence determination unit 24 first searches the abnormality determination information 32 (FIG. 8) using the target part name and the selected feature amount as a search key, and acquires the normal change rate range of the corresponding record. To do. If “change amount” is received in “third” in step S304, the abnormality presence / absence determination unit 24 acquires a normal change amount range.
Secondly, the abnormality presence /absence determination unit 24 determines whether or not the change rate converted in “fourth” in step S306 is within the normal change rate range acquired in “first” in step S307. If it is within the range, the determination result “normal” is generated, and if it is not within the range, the determination result “abnormal” is generated.
異常有無判定部24は、第2に、ステップS306の「第4」において換算した変化率が、ステップS307の「第1」において取得した正常変化率範囲内にあるか否かを判定し、範囲内にある場合は判定結果「正常」を生成し、範囲内にない場合は判定結果「異常」を生成する。 In step S307, the abnormality presence /
Secondly, the abnormality presence /
ステップS308において、罹患率算出部25は、罹患率を算出する。具体的には、罹患率算出部25は、第1に、医師診断情報33(図9)から、以下の条件1及び条件2をすべて満たすレコードを取得する。
(条件1)部位名(欄224)が対象部位名に一致する。
(条件2)選択特徴量に対応する変化率(欄225)が、ステップS306の「第4」において換算した変化率に一致する。又は、完全に一致しないまでも所定の誤差範囲内に含まれる。
いま、対象部位名が「脳」であり、選択特徴量が「面積」であり、ステップS306の「第4」において換算した変化率が「-1%」であるとする。すると、図9の3行目~6行目及び11行目のレコードが取得される。 In step S308, the morbidity rate calculation unit 25 calculates the morbidity rate. Specifically, the morbidity rate calculation unit 25 first acquires records satisfying all of the following conditions 1 and 2 from the doctor diagnosis information 33 (FIG. 9).
(Condition 1) The site name (column 224) matches the target site name.
(Condition 2) The change rate (column 225) corresponding to the selected feature amount matches the change rate converted in “fourth” in step S306. Or even if it does not completely match, it is included within a predetermined error range.
Now, assume that the target region name is “brain”, the selected feature amount is “area”, and the change rate converted in “fourth” in step S306 is “−1%”. Then, the records in the third to sixth lines and the eleventh line in FIG. 9 are acquired.
(条件1)部位名(欄224)が対象部位名に一致する。
(条件2)選択特徴量に対応する変化率(欄225)が、ステップS306の「第4」において換算した変化率に一致する。又は、完全に一致しないまでも所定の誤差範囲内に含まれる。
いま、対象部位名が「脳」であり、選択特徴量が「面積」であり、ステップS306の「第4」において換算した変化率が「-1%」であるとする。すると、図9の3行目~6行目及び11行目のレコードが取得される。 In step S308, the morbidity rate calculation unit 25 calculates the morbidity rate. Specifically, the morbidity rate calculation unit 25 first acquires records satisfying all of the following
(Condition 1) The site name (column 224) matches the target site name.
(Condition 2) The change rate (column 225) corresponding to the selected feature amount matches the change rate converted in “fourth” in step S306. Or even if it does not completely match, it is included within a predetermined error range.
Now, assume that the target region name is “brain”, the selected feature amount is “area”, and the change rate converted in “fourth” in step S306 is “−1%”. Then, the records in the third to sixth lines and the eleventh line in FIG. 9 are acquired.
罹患率算出部25は、第2に、ステップS308の「第1」において取得したすべてのレコードの疾病名を取得する。そして、取得した疾病名ごとに、取得したレコードの数を保持する。ここでは、「(軽度認知障害,4),(認知症,1)」が保持されることになる。
罹患率算出部25は、第3に、「条件1」のみを満たすレコードの数(対象部位レコード数)を数える。ここでは、対象部位レコード数は「7」である。
罹患率算出部25は、第4に、ステップS308の「第1」において取得したすべてのレコードの疾病名ごとに、その疾病名のレコードの数を対象部位レコード数で除算した値(罹患率)を保持する。ここでは、「(軽度認知障害,57%),(認知症,14%)」が保持されることになる。「57%」は、4/7×100の計算結果であり、「14%」は、1/7×100の計算結果である。 Secondly, the morbidity rate calculation unit 25 acquires disease names of all the records acquired in “first” in step S308. And the number of the acquired records is hold | maintained for every acquired disease name. Here, “(mild cognitive impairment, 4), (dementia, 1)” is retained.
Thirdly, the morbidity rate calculation unit 25 counts the number of records satisfying only “condition 1” (number of target part records). Here, the number of target part records is “7”.
Fourthly, the morbidity rate calculation unit 25 divides the number of records of disease names by the number of target part records (morbidity rate) for each disease name of all records acquired in “first” in step S308. Hold. Here, “(mild cognitive impairment, 57%), (dementia, 14%)” is retained. “57%” is a calculation result of 4/7 × 100, and “14%” is a calculation result of 1/7 × 100.
罹患率算出部25は、第3に、「条件1」のみを満たすレコードの数(対象部位レコード数)を数える。ここでは、対象部位レコード数は「7」である。
罹患率算出部25は、第4に、ステップS308の「第1」において取得したすべてのレコードの疾病名ごとに、その疾病名のレコードの数を対象部位レコード数で除算した値(罹患率)を保持する。ここでは、「(軽度認知障害,57%),(認知症,14%)」が保持されることになる。「57%」は、4/7×100の計算結果であり、「14%」は、1/7×100の計算結果である。 Secondly, the morbidity rate calculation unit 25 acquires disease names of all the records acquired in “first” in step S308. And the number of the acquired records is hold | maintained for every acquired disease name. Here, “(mild cognitive impairment, 4), (dementia, 1)” is retained.
Thirdly, the morbidity rate calculation unit 25 counts the number of records satisfying only “
Fourthly, the morbidity rate calculation unit 25 divides the number of records of disease names by the number of target part records (morbidity rate) for each disease name of all records acquired in “first” in step S308. Hold. Here, “(mild cognitive impairment, 57%), (dementia, 14%)” is retained. “57%” is a calculation result of 4/7 × 100, and “14%” is a calculation result of 1/7 × 100.
ステップS309において、入出力制御部26は、診断結果を表示する。具体的には、入出力制御部26は、診断結果表示画面51a(図13)を出力装置13に表示し、診断結果表示画面51aの以下の欄にそれぞれ以下の情報を表示する。
・患者ID欄131:対象患者ID
・患者氏名欄132:対象患者IDが特定する患者氏名
・部位名欄133:対象部位名
・「前回」欄134a:比較基準医用画像
・前回時点欄134b:比較基準医用画像の撮像時点
・「今回」欄135a:位置補正後比較対象医用画像
・今回時点欄135b:比較対象医用画像の撮像時点
・「差分」欄136:差分画像 In step S309, the input /output control unit 26 displays the diagnosis result. Specifically, the input / output control unit 26 displays the diagnosis result display screen 51a (FIG. 13) on the output device 13, and displays the following information in the following columns of the diagnosis result display screen 51a.
Patient ID column 131: Target patient ID
-Patient name column 132: Patient name specified by the target patient ID-Site name column 133: Target site name-"Previous"column 134a: Comparison reference medical image-Previous time column 134b: Imaging time of comparison reference medical image-"This time ”Column 135a: comparison-target medical image after position correction • current time column 135b: imaging time of comparison-target medical image •“ difference ”column 136: difference image
・患者ID欄131:対象患者ID
・患者氏名欄132:対象患者IDが特定する患者氏名
・部位名欄133:対象部位名
・「前回」欄134a:比較基準医用画像
・前回時点欄134b:比較基準医用画像の撮像時点
・「今回」欄135a:位置補正後比較対象医用画像
・今回時点欄135b:比較対象医用画像の撮像時点
・「差分」欄136:差分画像 In step S309, the input /
Patient ID column 131: Target patient ID
-Patient name column 132: Patient name specified by the target patient ID-Site name column 133: Target site name-"Previous"
判定結果表137は、特徴量欄137a、変化率欄137b、変化量欄137c及び判定結果欄137dを有する。特徴量欄137aには、対象部位名に対応する特徴量がすべて表示される。そして、入出力制御部26は、選択特徴量を有する行の変化率欄137b(又は変化量欄137c)に、ステップS306の「第4」において換算した変化率(又は変化量)を表示する。さらに、判定結果欄137dに、ステップS307の「第2」において生成した判定結果を表示する。なお、「*」は、その欄について処理が実行されなかったことを示している。
The determination result table 137 includes a feature amount column 137a, a change rate column 137b, a change amount column 137c, and a determination result column 137d. In the feature amount column 137a, all feature amounts corresponding to the target part names are displayed. Then, the input / output control unit 26 displays the change rate (or change amount) converted in “fourth” in step S306 in the change rate column 137b (or change amount column 137c) of the row having the selected feature amount. Furthermore, the determination result generated in the “second” in step S307 is displayed in the determination result column 137d. Note that “*” indicates that no processing was performed for the column.
罹患率表138は、疾病名欄138a、罹患率欄138b及び確定欄138cを有する。入出力制御部26は、ステップS308の「第4」において保持した「(軽度認知障害,57%),(認知症,14%)」のような疾病名と罹患率の組合せを、疾病名欄138a及び罹患率欄138bに表示する。
The morbidity rate table 138 has a disease name column 138a, a morbidity rate column 138b, and a confirmation column 138c. The input / output control unit 26 selects a combination of the disease name and the morbidity such as “(mild cognitive impairment, 57%), (dementia, 14%)” held in “fourth” in step S308, and displays the disease name column. 138a and the morbidity column 138b.
ステップS310において、入出力制御部26は、診断結果を登録する。具体的には、入出力制御部26は、第1に、医師等のユーザが、罹患率表138のいずれかの行の確定欄138cに表示されているチェックボックスにチェックマークを入力し、「確定結果登録」ボタン139を押下するのを受け付ける。医師等のユーザは、比較基準医用画像134a、位置補正後比較対象画像135a、差分画像136及び判定結果表137を確認し、自身の見解に基いてチェックマークを入力する。罹患率表138の罹患率が最も高い行にチェックマークが入力されなければならない訳ではない。さらに、罹患率が表示されている疾病名のうちに適当であると判断できる疾病名が表示されていない場合もある。この場合、ユーザは、疾病名欄138aの二重線の下の領域から適当であると思われる疾病名を選択する。そして、二重線の下のチェックボックスにチェックマークを入力し、「確定結果登録」ボタン139を押下する。なお、ユーザが、いずれのチェックボックスにもチェックマークを入力することなく「確定結果登録」ボタン139を押下した場合、入出力制御部26は、疾病名「(該当なし)」が選択されたものと看做す。
In step S310, the input / output control unit 26 registers the diagnosis result. Specifically, in the input / output control unit 26, first, a user such as a doctor inputs a check mark in a check box displayed in the confirmation column 138c of any row of the morbidity rate table 138, and “ It is accepted that the “determined result registration” button 139 is pressed. A user such as a doctor confirms the comparative reference medical image 134a, the post-position correction comparison target image 135a, the difference image 136, and the determination result table 137, and inputs a check mark based on his / her own opinion. A check mark does not have to be entered in the row with the highest morbidity in the morbidity table 138. Furthermore, there may be cases where no disease name that can be determined to be appropriate is displayed among the disease names for which the morbidity rate is displayed. In this case, the user selects a disease name that seems to be appropriate from the area under the double line in the disease name column 138a. Then, a check mark is entered in the check box below the double line, and the “Registration result registration” button 139 is pressed. In addition, when the user presses the “confirmation result registration” button 139 without inputting a check mark in any of the check boxes, the input / output control unit 26 selects the disease name “(not applicable)” I think.
入出力制御部26は、第2に、医師診断情報33(図9)の新たなレコードを作成し、当該新たなレコードの以下の欄にそれぞれ以下の情報を記憶する。
・患者ID欄221:対象患者ID
・医師ID欄223:ユーザ自身の医師ID
・診断画像ID欄223:比較基準医用画像の画像ID、及び、新たに採番された比較対象医用画像の画像ID
・部位名欄224:対象部位名
・変化率欄225(又は変化量欄226)の選択特徴量に対応する成分の位置:ステップS306の「第4」において換算した変化率(又は変化量)
・変化率欄225(又は変化量欄226)のその他の成分の位置:「*」
・疾病名欄227:入力されたチェックマークに対応する疾病名又は「(該当なし)」
・診断時点欄228:現時点の年月日
その後、第1の処理手順を終了する。 Secondly, the input /output control unit 26 creates a new record of the doctor diagnosis information 33 (FIG. 9), and stores the following information in the following columns of the new record.
・ Patient ID column 221: Target patient ID
Doctor ID column 223: User's own doctor ID
Diagnosis image ID column 223: Image ID of the comparison reference medical image, and image ID of the newly assigned comparison target medical image
Part name column 224: Position of the component corresponding to the selected feature amount in the target part name / change rate column 225 (or change amount column 226): Change rate (or change amount) converted in “fourth” in step S306
-Position of other components in the change rate column 225 (or change amount column 226): "*"
-Disease name column 227: Disease name corresponding to the input check mark or “(Not applicable)”
Diagnosis time column 228: Current date and time Then, the first processing procedure is terminated.
・患者ID欄221:対象患者ID
・医師ID欄223:ユーザ自身の医師ID
・診断画像ID欄223:比較基準医用画像の画像ID、及び、新たに採番された比較対象医用画像の画像ID
・部位名欄224:対象部位名
・変化率欄225(又は変化量欄226)の選択特徴量に対応する成分の位置:ステップS306の「第4」において換算した変化率(又は変化量)
・変化率欄225(又は変化量欄226)のその他の成分の位置:「*」
・疾病名欄227:入力されたチェックマークに対応する疾病名又は「(該当なし)」
・診断時点欄228:現時点の年月日
その後、第1の処理手順を終了する。 Secondly, the input /
・ Patient ID column 221: Target patient ID
Doctor ID column 223: User's own doctor ID
Diagnosis image ID column 223: Image ID of the comparison reference medical image, and image ID of the newly assigned comparison target medical image
Part name column 224: Position of the component corresponding to the selected feature amount in the target part name / change rate column 225 (or change amount column 226): Change rate (or change amount) converted in “fourth” in step S306
-Position of other components in the change rate column 225 (or change amount column 226): "*"
-Disease name column 227: Disease name corresponding to the input check mark or “(Not applicable)”
Diagnosis time column 228: Current date and time Then, the first processing procedure is terminated.
(第2の処理手順)
図12に沿って、第2の処理手順を説明する。なお、第2の処理手順を開始する時点において、第1の処理手順と同じ前提が成立しているものとする。 (Second processing procedure)
The second processing procedure will be described with reference to FIG. It is assumed that the same premise as that of the first processing procedure is established when the second processing procedure is started.
図12に沿って、第2の処理手順を説明する。なお、第2の処理手順を開始する時点において、第1の処理手順と同じ前提が成立しているものとする。 (Second processing procedure)
The second processing procedure will be described with reference to FIG. It is assumed that the same premise as that of the first processing procedure is established when the second processing procedure is started.
ステップS401において、入出力制御部26は、比較対象の医用画像を取得する。ステップS401の処理は、第1の処理手順のステップS301と同じである。
In step S401, the input / output control unit 26 acquires a medical image to be compared. The processing in step S401 is the same as step S301 in the first processing procedure.
ステップS402において、入出力制御部26は、比較基準の医用画像を取得する。具体的には、入出力制御部26は、第1に、対象患者ID及び対象部位名を検索キーとして、画像管理情報31(図7)を検索し、該当したレコードのうち撮像時点が新しい順に所定の数だけレコードを取得する。ここでは、所定の数は「3」であるとして以降の説明を続ける。
入出力制御部26は、第2に、ステップS402の「第1」において取得したレコードの画像IDを有する医用画像を、補助記憶装置15から取得する。補助記憶装置15に格納されているすべての医用画像には、画像IDが付されているものとする。ここで取得された医用画像のうち最も撮像時点が古いものを、以降では「比較基準医用画像」と呼び、それ以外のもの(2つ)を「中間医用画像」と呼ぶことがある。 In step S <b> 402, the input /output control unit 26 acquires a medical image for comparison reference. Specifically, the input / output control unit 26 first searches the image management information 31 (FIG. 7) using the target patient ID and the target part name as search keys, and the imaging time points of the corresponding records are in order from the newest. Get a predetermined number of records. Here, the following description will be continued on the assumption that the predetermined number is “3”.
Secondly, the input /output control unit 26 acquires from the auxiliary storage device 15 a medical image having the image ID of the record acquired in “first” in step S <b> 402. Assume that all medical images stored in the auxiliary storage device 15 are assigned image IDs. Of the medical images acquired here, the one with the oldest imaging time may be referred to as a “comparison reference medical image”, and the other (two) may be referred to as “intermediate medical images”.
入出力制御部26は、第2に、ステップS402の「第1」において取得したレコードの画像IDを有する医用画像を、補助記憶装置15から取得する。補助記憶装置15に格納されているすべての医用画像には、画像IDが付されているものとする。ここで取得された医用画像のうち最も撮像時点が古いものを、以降では「比較基準医用画像」と呼び、それ以外のもの(2つ)を「中間医用画像」と呼ぶことがある。 In step S <b> 402, the input /
Secondly, the input /
ステップS403において、相対位置補正部21は、医用画像の位置合わせを行う。ステップS403の処理は、第1の処理手順のステップS303と同じである。ただし、相対位置補正部21は、「中間医用画像」についても「比較基準医用画像」に対する位置合わせを行い、「位置補正後中間医用画像」を作成するものとする。
In step S403, the relative position correction unit 21 aligns the medical image. The processing in step S403 is the same as step S303 in the first processing procedure. However, it is assumed that the relative position correction unit 21 aligns the “intermediate medical image” with respect to the “comparison reference medical image” and creates the “intermediate medical image after position correction”.
ステップS404において、差分画像算出部22は、比較すべき特徴量を決定する。ステップS404の処理は、第1の処理手順のステップS304と同じである。
In step S404, the difference image calculation unit 22 determines a feature amount to be compared. The processing in step S404 is the same as step S304 in the first processing procedure.
ステップS405において、差分画像算出部22は、差分画像を作成する。ステップS405の処理は、第1の処理手順のステップS305と同じである。ただし、差分画像算出部22は、以下のすべての差分画像を作成するものとする。
・「比較基準医用画像」と「位置補正後中間医用画像のうち撮像時点が早いもの」との差分画像
・「位置補正後中間医用画像のうち撮像時点が早いもの」と「位置補正後中間医用画像のうち撮像時点が遅いもの」との差分画像
・「位置補正後中間医用画像のうち撮像時点が遅いもの」と「位置補正後比較対象医用画像」との差分画像 In step S405, the differenceimage calculation unit 22 creates a difference image. The processing in step S405 is the same as step S305 in the first processing procedure. However, the difference image calculation part 22 shall produce all the following difference images.
-Difference image between "Comparison standard medical image" and "Intermediate medical image after position correction with earlier imaging time"-"Intermediate medical image after position correction with earlier imaging time" and "Intermediate medical after position correction" Difference image between “images with late imaging time” and “difference image between“ positional corrected intermediate medical images with late imaging time ”and“ position corrected comparative medical images ”
・「比較基準医用画像」と「位置補正後中間医用画像のうち撮像時点が早いもの」との差分画像
・「位置補正後中間医用画像のうち撮像時点が早いもの」と「位置補正後中間医用画像のうち撮像時点が遅いもの」との差分画像
・「位置補正後中間医用画像のうち撮像時点が遅いもの」と「位置補正後比較対象医用画像」との差分画像 In step S405, the difference
-Difference image between "Comparison standard medical image" and "Intermediate medical image after position correction with earlier imaging time"-"Intermediate medical image after position correction with earlier imaging time" and "Intermediate medical after position correction" Difference image between “images with late imaging time” and “difference image between“ positional corrected intermediate medical images with late imaging time ”and“ position corrected comparative medical images ”
ステップS406において、変化率算出部23は、変化率等を算出する。ステップS406の処理は、第1の処理手順のステップS306と同じである。ただし、変化率算出部23は、以下の変化率(又は変化量)をすべて算出するものとする。
・「中間医用画像のうち撮像時点が早いもの」の「比較基準医用画像」に対する変化率(又は変化量)
・「中間医用画像のうち撮像時点が遅いもの」の「比較基準医用画像」に対する変化率(又は変化量)
・「比較対象医用画像」の「比較基準医用画像」に対する変化率(又は変化量)
ここでは、変化率算出部23は、撮像時点の異なる3つの医用画像について、基準となる医用画像との変化率を取得していることになる。もちろん、撮像時点の異なる4つ以上の医用画像について、基準となる医用画像との変化率を取得することも可能である。 In step S406, the changerate calculation unit 23 calculates the change rate and the like. The processing in step S406 is the same as step S306 in the first processing procedure. However, the change rate calculation unit 23 calculates all the following change rates (or changes).
・ Change rate (or change amount) of “intermediate medical image with the earlier imaging time point” relative to “comparative reference medical image”
・ Change rate (or amount of change) of “intermediate medical image with late imaging time” relative to “comparative reference medical image”
-Rate of change (or amount of change) of “comparison medical image” relative to “comparison reference medical image”
Here, the rate-of-change calculating unit 23 acquires the rate of change from the reference medical image for three medical images at different imaging points. Of course, it is also possible to acquire the rate of change from the reference medical image for four or more medical images at different imaging time points.
・「中間医用画像のうち撮像時点が早いもの」の「比較基準医用画像」に対する変化率(又は変化量)
・「中間医用画像のうち撮像時点が遅いもの」の「比較基準医用画像」に対する変化率(又は変化量)
・「比較対象医用画像」の「比較基準医用画像」に対する変化率(又は変化量)
ここでは、変化率算出部23は、撮像時点の異なる3つの医用画像について、基準となる医用画像との変化率を取得していることになる。もちろん、撮像時点の異なる4つ以上の医用画像について、基準となる医用画像との変化率を取得することも可能である。 In step S406, the change
・ Change rate (or change amount) of “intermediate medical image with the earlier imaging time point” relative to “comparative reference medical image”
・ Change rate (or amount of change) of “intermediate medical image with late imaging time” relative to “comparative reference medical image”
-Rate of change (or amount of change) of “comparison medical image” relative to “comparison reference medical image”
Here, the rate-of-
ステップS407において、異常有無判定部24は、異常の有無を判定する。具体的には、異常有無判定部24は、第1に、対象部位名及び選択特徴量を検索キーとして、異常判定情報32(図8)を検索し、該当したレコードの正常変化率範囲を取得する。なお、ステップS404(S304)の「第3」において「変化量」を受け付けた場合は、異常有無判定部24は、正常変化量範囲を取得する。
異常有無判定部24は、第2に、ステップS406(S306)の「第4」において換算したすべての変化率が、ステップS407の「第1」において取得した正常変化率範囲内にあるか否かを判定し、すべての変化率が範囲内にある場合は判定結果「正常」を生成し、それ以外の場合は判定結果「異常」を生成する。 In step S407, the abnormality presence /absence determination unit 24 determines the presence / absence of an abnormality. Specifically, the abnormality presence / absence determination unit 24 first searches the abnormality determination information 32 (FIG. 8) using the target part name and the selected feature amount as a search key, and acquires the normal change rate range of the corresponding record. To do. When “change amount” is received in “third” in step S404 (S304), the abnormality determination unit 24 acquires a normal change amount range.
Secondly, the abnormality presence /absence determination unit 24 determines whether or not all the change rates converted in “fourth” in step S406 (S306) are within the normal change rate range acquired in “first” in step S407. If all the change rates are within the range, the determination result “normal” is generated. Otherwise, the determination result “abnormal” is generated.
異常有無判定部24は、第2に、ステップS406(S306)の「第4」において換算したすべての変化率が、ステップS407の「第1」において取得した正常変化率範囲内にあるか否かを判定し、すべての変化率が範囲内にある場合は判定結果「正常」を生成し、それ以外の場合は判定結果「異常」を生成する。 In step S407, the abnormality presence /
Secondly, the abnormality presence /
ステップS408において、罹患率算出部25は、過去の診断例を分類する。具体的には、罹患率算出部25は、第1に、医師診断情報33(図9)から、以下の条件3~条件5をすべて満たすレコードを取得する。
(条件3)部位名(欄224)が対象部位名に一致する。
(条件4)選択特徴量に対応する変化率(「*」でないもの)が、変化率欄225に記憶されている。
(条件5)患者IDが対象患者IDではない。 In step S408, the morbidity rate calculation unit 25 classifies past diagnosis examples. Specifically, the morbidity rate calculation unit 25 first acquires records that satisfy all of the followingconditions 3 to 5 from the doctor diagnosis information 33 (FIG. 9).
(Condition 3) The site name (column 224) matches the target site name.
(Condition 4) A change rate (not “*”) corresponding to the selected feature amount is stored in thechange rate column 225.
(Condition 5) The patient ID is not the target patient ID.
(条件3)部位名(欄224)が対象部位名に一致する。
(条件4)選択特徴量に対応する変化率(「*」でないもの)が、変化率欄225に記憶されている。
(条件5)患者IDが対象患者IDではない。 In step S408, the morbidity rate calculation unit 25 classifies past diagnosis examples. Specifically, the morbidity rate calculation unit 25 first acquires records that satisfy all of the following
(Condition 3) The site name (column 224) matches the target site name.
(Condition 4) A change rate (not “*”) corresponding to the selected feature amount is stored in the
(Condition 5) The patient ID is not the target patient ID.
罹患率算出部25は、第2に、ステップS408の「第1」において取得したレコードを患者IDごとにソートし、患者IDごとのレコード群を作成する。
罹患率算出部25は、第3に、ステップS408の「第2」において作成したレコード群のうち、そのレコード群に属するレコードの数が所定の数に満たないものを削除する。この場合の所定の数は、例えば「4」である。つまり、「4」以上のレコードがあれば、それらのレコードに基づく変化率の時系列の推移は、有意なものとして扱い得る。 Secondly, the morbidity rate calculation unit 25 sorts the records acquired in “first” in step S408 for each patient ID, and creates a record group for each patient ID.
Thirdly, the morbidity rate calculation unit 25 deletes the record group created in “second” in step S408, in which the number of records belonging to the record group is less than the predetermined number. The predetermined number in this case is “4”, for example. That is, if there are “4” or more records, the time-series transition of the rate of change based on those records can be treated as significant.
罹患率算出部25は、第3に、ステップS408の「第2」において作成したレコード群のうち、そのレコード群に属するレコードの数が所定の数に満たないものを削除する。この場合の所定の数は、例えば「4」である。つまり、「4」以上のレコードがあれば、それらのレコードに基づく変化率の時系列の推移は、有意なものとして扱い得る。 Secondly, the morbidity rate calculation unit 25 sorts the records acquired in “first” in step S408 for each patient ID, and creates a record group for each patient ID.
Thirdly, the morbidity rate calculation unit 25 deletes the record group created in “second” in step S408, in which the number of records belonging to the record group is less than the predetermined number. The predetermined number in this case is “4”, for example. That is, if there are “4” or more records, the time-series transition of the rate of change based on those records can be treated as significant.
罹患率算出部25は、第4に、ステップS408の「第3」において削除されずに残ったレコード群に基づいて、その患者についての選択特徴量の時系列グラフを作成する。つまり、罹患率算出部25は、例えば、対象部位「脳」及び選択特徴量「面積」についての変化率の時系列グラフ(例えば、図10の符号231参照)を、患者IDごとに作成することになる。ここで、時系列グラフを作成する方法は、ステップS406において説明した方法に準ずる。
Fourthly, the morbidity rate calculation unit 25 creates a time-series graph of the selected feature amount for the patient based on the record group that remains without being deleted in “third” in step S408. That is, the morbidity rate calculation unit 25 creates, for example, a time-series graph of the change rate for the target region “brain” and the selected feature amount “area” (for example, see reference numeral 231 in FIG. 10) for each patient ID. become. Here, the method of creating the time series graph is in accordance with the method described in step S406.
罹患率算出部25は、第5に、複数の類型を作成し、ステップS408の「第4」において作成した時系列グラフを、作成した類型で分類する。そして、時系列グラフの患者ID、類型及び疾病名を相互に関連付けて一時的に保持する。類型とは、時系列グラフを数学的、物理学的に任意の方法で処理した結果に応じて、時系列グラフを重複なく分類する場合のそれぞれのパターンを意味する(図10に沿って前記した)。このとき一時的に保持される情報は、例えば「(P001,類型d,軽度認知障害),(P002,類型e,認知症),(P003,類型f,脳腫瘍),(P004,類型g,脳膜炎),(P006,類型d,軽度認知障害),(P007,類型f,脳腫瘍),(P009,類型g,脳膜炎),・・・」である。以降では、「(患者ID,類型,疾病名)」を「分類済情報」と呼ぶことがある。1つの分類済情報が1つの時系列グラフに対応する。
Fifthly, the morbidity rate calculation unit 25 creates a plurality of types, and classifies the time series graph created in “fourth” in step S408 by the created type. Then, the patient ID, type, and disease name of the time series graph are temporarily associated with each other. The type means each pattern when the time series graphs are classified without duplication according to the result of processing the time series graphs mathematically and physically by an arbitrary method (as described above with reference to FIG. 10). ). Information temporarily stored at this time is, for example, “(P001, type d, mild cognitive impairment), (P002, type e, dementia), (P003, type f, brain tumor), (P004, type g, meningitis). ), (P006, type d, mild cognitive impairment), (P007, type f, brain tumor), (P009, type g, meningitis),. Hereinafter, “(patient ID, type, disease name)” may be referred to as “classified information”. One classified information corresponds to one time series graph.
ステップS409において、罹患率算出部25は、比較対象の医用画像に至る画像の変化の推移を分類する。具体的には、罹患率算出部25は、第1に、ステップS406において算出した複数の変化率に基づいて、比較基準医用画像から中間医用画像を経て比較対象医用画像に至る(対象患者IDの患者についての)変化率の時系列グラフを作成する。
罹患率算出部25は、第2に、ステップS409の「第1」において作成した時系列グラフが、ステップS408の「第5」において作成した類型のうちのいずれに該当するかを決定する。このとき決定した類型を、以降「患者類型」と呼ぶことがある。 In step S <b> 409, the morbidity rate calculation unit 25 classifies the transition of the image change leading to the comparison target medical image. Specifically, the morbidity rate calculating unit 25 first reaches the comparison target medical image from the comparison reference medical image through the intermediate medical image based on the plurality of change rates calculated in step S406 (the target patient ID of the target patient ID). Create a time series graph of the rate of change (for the patient).
Secondly, the morbidity rate calculation unit 25 determines which of the types created in “fifth” in step S408 the time-series graph created in “first” in step S409 corresponds to. The type determined at this time may be hereinafter referred to as “patient type”.
罹患率算出部25は、第2に、ステップS409の「第1」において作成した時系列グラフが、ステップS408の「第5」において作成した類型のうちのいずれに該当するかを決定する。このとき決定した類型を、以降「患者類型」と呼ぶことがある。 In step S <b> 409, the morbidity rate calculation unit 25 classifies the transition of the image change leading to the comparison target medical image. Specifically, the morbidity rate calculating unit 25 first reaches the comparison target medical image from the comparison reference medical image through the intermediate medical image based on the plurality of change rates calculated in step S406 (the target patient ID of the target patient ID). Create a time series graph of the rate of change (for the patient).
Secondly, the morbidity rate calculation unit 25 determines which of the types created in “fifth” in step S408 the time-series graph created in “first” in step S409 corresponds to. The type determined at this time may be hereinafter referred to as “patient type”.
ステップS410において、罹患率算出部25は、罹患率を算出する。具体的には、罹患率算出部25は、第1に、ステップS408の「第5」において保持した分類済情報のうち、患者類型を有するものの数を、疾病名ごとに数える。そして、数えた数を疾病名に関連付けて一時的に記憶する。このとき一時的に保持される情報は、例えば「(軽度認知障害,8),(認知症,4),(脳膜炎,2),・・・」である。
In step S410, the morbidity rate calculation unit 25 calculates the morbidity rate. Specifically, the morbidity rate calculation unit 25 first counts, for each disease name, the number of items having patient types among the classified information held in “fifth” in step S408. Then, the counted number is temporarily stored in association with the disease name. Information temporarily stored at this time is, for example, “(mild cognitive impairment, 8), (dementia, 4), (meningitis, 2),...”.
罹患率算出部25は、第2に、ステップS410の「第1」において数えた疾病名ごとの数(8,4,2,・・・)を、患者類型を有する分類済情報の総数で除算し、その結果である百分率を、疾病名に関連付けて一時的に保持する。いま、患者類型を有する分類済情報の総数が「20」であったとする。すると、前記の例では、罹患率算出部25は、「(軽度認知障害,40%),(認知症,20%),(脳膜炎,10%),・・・」を保持することになる。「40%」は、8/20×100の計算結果であり、「20%」は、4/20×100の計算結果であり、「10%」は、2/20×100の計算結果である。
Secondly, the morbidity rate calculation unit 25 divides the number (8, 4, 2,...) For each disease name counted in “first” in step S410 by the total number of classified information having patient types. The resulting percentage is temporarily stored in association with the disease name. Assume that the total number of classified information having patient types is “20”. Then, in the above example, the morbidity rate calculating unit 25 holds “(mild cognitive impairment, 40%), (dementia, 20%), (meningitis, 10%),...”. “40%” is a calculation result of 8/20 × 100, “20%” is a calculation result of 4/20 × 100, and “10%” is a calculation result of 2/20 × 100. .
ステップS411において、入出力制御部26は、診断結果を表示する。具体的には、入出力制御部26は、診断結果表示画面51b(図14)を出力装置13に表示し、診断結果表示画面51bの以下の欄にそれぞれ以下の情報を表示する。
・患者ID欄131:対象患者ID
・患者氏名欄132:対象患者IDが特定する患者氏名
・部位名欄133:対象部位名
・「基準」欄140a:比較基準医用画像
・「前々回」欄140b:位置補正後中間医用画像のうち撮像時点が早いもの
・「前回」欄140c:位置補正後中間医用画像のうち撮像時点が遅いもの
・「今回」欄140d:位置補正後比較対象医用画像
・基準時点欄141a:比較基準医用画像の撮像時点
・前々回時点欄141b:中間医用画像のうち撮像時点が早いものの撮像時点
・前回時点欄141c:中間医用画像のうち撮像時点が遅いものの撮像時点
・今回時点欄141d:比較対象医用画像の撮像時点
・欄142a:比較基準医用画像と、位置補正後中間医用画像のうち撮像時点が早いものとの差分画像
・欄142b:位置補正後中間医用画像のうち撮像時点が早いものと、位置補正後中間医用画像のうち撮像時点が遅いものとの差分画像
・欄142c:位置補正後中間医用画像のうち撮像時点が遅いものと、位置補正後比較対象医用画像との差分画像
・欄143:ステップS409の「第1」において作成した時系列グラフ In step S411, the input /output control unit 26 displays the diagnosis result. Specifically, the input / output control unit 26 displays the diagnosis result display screen 51b (FIG. 14) on the output device 13, and displays the following information in the following columns of the diagnosis result display screen 51b.
Patient ID column 131: Target patient ID
-Patient name column 132: Patient name specified by the target patient ID-Site name column 133: Target site name-"Reference" column 140a: Comparison reference medical image-"Previous reference" column 140b: Imaged among intermediate medical images after position correction “Previous” column 140c: Interim medical image after position correction with late imaging time • “Current” column 140d: Medical image to be compared after position correction • Reference time column 141a: Imaging of comparative reference medical image Time point / previoustime point column 141b: Imaging time point of the intermediate medical image whose imaging time point is early ・ Previous time point column 141c: Imaging time point of the intermediate medical image whose imaging time point is slow / Current time point column 141d: Imaging time point of the comparison medical image Column 142a: Difference image between comparison reference medical image and intermediate medical image after position correction, which has an earlier imaging time point. Column 142b: Intermediate medical image after position correction That is, the difference image between the one with the earlier imaging time point and the intermediate medical image after the position correction with the later imaging time point / column 142c: the intermediate medical image after the position correction with the later imaging point in time, Difference image with image / field 143: Time series graph created in “first” in step S409
・患者ID欄131:対象患者ID
・患者氏名欄132:対象患者IDが特定する患者氏名
・部位名欄133:対象部位名
・「基準」欄140a:比較基準医用画像
・「前々回」欄140b:位置補正後中間医用画像のうち撮像時点が早いもの
・「前回」欄140c:位置補正後中間医用画像のうち撮像時点が遅いもの
・「今回」欄140d:位置補正後比較対象医用画像
・基準時点欄141a:比較基準医用画像の撮像時点
・前々回時点欄141b:中間医用画像のうち撮像時点が早いものの撮像時点
・前回時点欄141c:中間医用画像のうち撮像時点が遅いものの撮像時点
・今回時点欄141d:比較対象医用画像の撮像時点
・欄142a:比較基準医用画像と、位置補正後中間医用画像のうち撮像時点が早いものとの差分画像
・欄142b:位置補正後中間医用画像のうち撮像時点が早いものと、位置補正後中間医用画像のうち撮像時点が遅いものとの差分画像
・欄142c:位置補正後中間医用画像のうち撮像時点が遅いものと、位置補正後比較対象医用画像との差分画像
・欄143:ステップS409の「第1」において作成した時系列グラフ In step S411, the input /
Patient ID column 131: Target patient ID
-Patient name column 132: Patient name specified by the target patient ID-Site name column 133: Target site name-"Reference" column 140a: Comparison reference medical image-"Previous reference" column 140b: Imaged among intermediate medical images after position correction “Previous” column 140c: Interim medical image after position correction with late imaging time • “Current” column 140d: Medical image to be compared after position correction • Reference time column 141a: Imaging of comparative reference medical image Time point / previous
判定結果表137については、図13についての説明がそのままあてはまる。しかしながら、変化率(又は変化量)は、下限及び上限の組合せ(時系列グラフの上下の振れ幅を示す)で表示される。罹患率表138についても、図13についての説明がそのままあてはまる。
For the determination result table 137, the description of FIG. 13 is applied as it is. However, the rate of change (or amount of change) is displayed as a combination of a lower limit and an upper limit (indicating the vertical fluctuation width of the time series graph). With respect to the morbidity rate table 138, the description of FIG.
ステップS412において、入出力制御部26は、診断結果を登録する。具体的には、入出力制御部26は、第1に、第1の処理手順のステップS310の「第1」及び「第2の」の処理と同じ処理を実行する。
In step S412, the input / output control unit 26 registers the diagnosis result. Specifically, the input / output control unit 26 first executes the same processing as the “first” and “second” processing in step S310 of the first processing procedure.
入出力制御部26は、第2に、医師診断情報33(図9)から、対象患者IDを有するレコードを取得する。そして、取得したレコードの疾病名を、入力されたチェックマークに対応する疾病名又は「(該当なし)」に更新して上書きする。医師診断情報33に対象患者IDを有するレコードが存在しない場合は、なにもしない。
その後、第2の処理手順を終了する。 Secondly, the input /output control unit 26 acquires a record having the target patient ID from the doctor diagnosis information 33 (FIG. 9). Then, the disease name of the acquired record is updated and overwritten with the disease name corresponding to the input check mark or “(not applicable)”. If there is no record having the target patient ID in the doctor diagnosis information 33, nothing is done.
Thereafter, the second processing procedure is terminated.
その後、第2の処理手順を終了する。 Secondly, the input /
Thereafter, the second processing procedure is terminated.
(変形例1)
第1の処理手順のステップS304の「第2」において、複数の「選択特徴量」(カテゴリ)が選択された場合の処理は以下の通りである。
(1)差分画像算出部22等は、ステップS305~S308の処理を、選択特徴量ごとに繰り返す。
(2)入出力制御部26は、ステップS309の処理については、以下を除いて、前記したステップS309の処理内容と同じ処理を実行する。
・「差分」欄136(図13)において、複数の選択特徴量についての差分画像を表示する。「面積」の差分画像(5秒間)→「明度」の差分画像(5秒間)→・・・のようにスライド型式で表示してもよい。
・判定結果表137の選択特徴量のそれぞれを有するすべての行に変化率(又は変化量)及び判定結果を表示する。
・罹患率欄138bにおいて、罹患率を、「(面積,明度,温度,色彩,・・・)=(20%,15%,*,10%,・・・)」のように、選択特徴量に関連付けて表示する。
(3)入出力制御部26は、ステップS310の処理については、前記したステップS310の処理内容と同じ処理を実行する。 (Modification 1)
Processing in the case where a plurality of “selected feature values” (categories) are selected in “second” in step S304 of the first processing procedure is as follows.
(1) The differenceimage calculation unit 22 and the like repeat the processing of steps S305 to S308 for each selected feature amount.
(2) The input /output control unit 26 executes the same process as the process of step S309 described above, except for the following, for the process of step S309.
In the “difference” column 136 (FIG. 13), difference images for a plurality of selected feature amounts are displayed. A difference image of “area” (5 seconds) → a difference image of “lightness” (5 seconds) →...
The change rate (or change amount) and the determination result are displayed in all rows having each of the selected feature amounts in the determination result table 137.
In themorbidity rate column 138b, the morbidity rate is selected as follows: “(area, brightness, temperature, color,...) = (20%, 15%, *, 10%,...)” Display in association with.
(3) The input /output control unit 26 executes the same processing as the processing content of step S310 described above for the processing of step S310.
第1の処理手順のステップS304の「第2」において、複数の「選択特徴量」(カテゴリ)が選択された場合の処理は以下の通りである。
(1)差分画像算出部22等は、ステップS305~S308の処理を、選択特徴量ごとに繰り返す。
(2)入出力制御部26は、ステップS309の処理については、以下を除いて、前記したステップS309の処理内容と同じ処理を実行する。
・「差分」欄136(図13)において、複数の選択特徴量についての差分画像を表示する。「面積」の差分画像(5秒間)→「明度」の差分画像(5秒間)→・・・のようにスライド型式で表示してもよい。
・判定結果表137の選択特徴量のそれぞれを有するすべての行に変化率(又は変化量)及び判定結果を表示する。
・罹患率欄138bにおいて、罹患率を、「(面積,明度,温度,色彩,・・・)=(20%,15%,*,10%,・・・)」のように、選択特徴量に関連付けて表示する。
(3)入出力制御部26は、ステップS310の処理については、前記したステップS310の処理内容と同じ処理を実行する。 (Modification 1)
Processing in the case where a plurality of “selected feature values” (categories) are selected in “second” in step S304 of the first processing procedure is as follows.
(1) The difference
(2) The input /
In the “difference” column 136 (FIG. 13), difference images for a plurality of selected feature amounts are displayed. A difference image of “area” (5 seconds) → a difference image of “lightness” (5 seconds) →...
The change rate (or change amount) and the determination result are displayed in all rows having each of the selected feature amounts in the determination result table 137.
In the
(3) The input /
(変形例2)
第2の処理手順のステップS404(S304)の「第2」において、複数の「選択特徴量」(カテゴリ)が選択された場合の処理は以下の通りである。
(1)差分画像算出部22等は、ステップS405~S410の処理を、選択特徴量ごとに繰り返す。
(2)入出力制御部26は、ステップS411の処理については、以下を除いて、前記したステップS411の処理内容と同じ処理を実行する。
・「差分」欄142a、142b及び142c(図14)において、複数の選択特徴量についての差分画像を表示する。スライド型式で表示してもよい。
・欄143において、複数の選択特徴量についての時系列グラフを表示する。スライド型式で表示してもよい。
・判定結果表137の選択特徴量のそれぞれを有するすべての行に変化率(又は変化量)の上限及び下限の組合せ並びに判定結果を表示する。
・罹患率欄138bにおいて、罹患率を、「(面積,明度,温度,色彩,・・・)=(20%,15%,*,10%,・・・)」のように、選択特徴量に関連付けて表示する。
(3)入出力制御部26は、ステップS412の処理については、前記したステップS412の処理内容と同じ処理を実行する。 (Modification 2)
In the “second” of step S404 (S304) of the second processing procedure, the processing when a plurality of “selected feature amounts” (categories) are selected is as follows.
(1) The differenceimage calculation unit 22 and the like repeat the processing of steps S405 to S410 for each selected feature amount.
(2) The input /output control unit 26 executes the same process as the process of step S411 described above, except for the following, for the process of step S411.
In the “difference” columns 142a, 142b, and 142c (FIG. 14), difference images for a plurality of selected feature amounts are displayed. You may display by a slide type.
In thecolumn 143, a time series graph for a plurality of selected feature amounts is displayed. You may display by a slide type.
The combination of the upper limit and the lower limit of the change rate (or the change amount) and the determination result are displayed in all rows having each of the selected feature values in the determination result table 137.
In themorbidity rate column 138b, the morbidity rate is selected as follows: “(area, brightness, temperature, color,...) = (20%, 15%, *, 10%,...)” Display in association with.
(3) The input /output control unit 26 executes the same processing as the processing content of step S412 described above for the processing of step S412.
第2の処理手順のステップS404(S304)の「第2」において、複数の「選択特徴量」(カテゴリ)が選択された場合の処理は以下の通りである。
(1)差分画像算出部22等は、ステップS405~S410の処理を、選択特徴量ごとに繰り返す。
(2)入出力制御部26は、ステップS411の処理については、以下を除いて、前記したステップS411の処理内容と同じ処理を実行する。
・「差分」欄142a、142b及び142c(図14)において、複数の選択特徴量についての差分画像を表示する。スライド型式で表示してもよい。
・欄143において、複数の選択特徴量についての時系列グラフを表示する。スライド型式で表示してもよい。
・判定結果表137の選択特徴量のそれぞれを有するすべての行に変化率(又は変化量)の上限及び下限の組合せ並びに判定結果を表示する。
・罹患率欄138bにおいて、罹患率を、「(面積,明度,温度,色彩,・・・)=(20%,15%,*,10%,・・・)」のように、選択特徴量に関連付けて表示する。
(3)入出力制御部26は、ステップS412の処理については、前記したステップS412の処理内容と同じ処理を実行する。 (Modification 2)
In the “second” of step S404 (S304) of the second processing procedure, the processing when a plurality of “selected feature amounts” (categories) are selected is as follows.
(1) The difference
(2) The input /
In the “difference”
In the
The combination of the upper limit and the lower limit of the change rate (or the change amount) and the determination result are displayed in all rows having each of the selected feature values in the determination result table 137.
In the
(3) The input /
(実施形態の効果)
本実施形態の罹患率評価装置1は、以下の効果を奏する。
(1)罹患率評価装置1は、受け付けた特徴量の差分を使用して過去の診断例を検索する。このとき、特徴量のカテゴリの数を限定すれば、過去の診断例の医用画像についても、受け付ける医用画像についても高画質であることが求められない。したがって、定期健康診断等のような、必ずしも高画質を要求し得ない大量データを有効に利用できる。さらに、罹患率評価装置1は、差分を算出する。したがって、同一の撮像機器3が撮像した医用画像を継続使用すれば、撮像機器固有の計測誤差(画像の歪み等)を消去することができる。
(2)罹患率評価装置1は、差分の「率」と「量」のいずれか又は両者を使用する。したがって、特徴量のカテゴリに応じて多面的な罹患率の評価が可能になる。 (Effect of embodiment)
Themorbidity evaluation apparatus 1 of the present embodiment has the following effects.
(1) The morbidityrate evaluation apparatus 1 searches past diagnosis examples using the received difference between the feature amounts. At this time, if the number of feature quantity categories is limited, it is not required that the medical image of the past diagnosis example and the received medical image have high image quality. Therefore, a large amount of data that cannot necessarily require high image quality, such as a periodic health checkup, can be used effectively. Furthermore, the morbidity evaluation apparatus 1 calculates a difference. Therefore, if medical images captured by the same imaging device 3 are continuously used, measurement errors (such as image distortion) unique to the imaging devices can be eliminated.
(2) Themorbidity evaluation apparatus 1 uses either or both of the “rate” and “amount” of the difference. Therefore, multifaceted morbidity evaluation can be performed according to the feature quantity category.
本実施形態の罹患率評価装置1は、以下の効果を奏する。
(1)罹患率評価装置1は、受け付けた特徴量の差分を使用して過去の診断例を検索する。このとき、特徴量のカテゴリの数を限定すれば、過去の診断例の医用画像についても、受け付ける医用画像についても高画質であることが求められない。したがって、定期健康診断等のような、必ずしも高画質を要求し得ない大量データを有効に利用できる。さらに、罹患率評価装置1は、差分を算出する。したがって、同一の撮像機器3が撮像した医用画像を継続使用すれば、撮像機器固有の計測誤差(画像の歪み等)を消去することができる。
(2)罹患率評価装置1は、差分の「率」と「量」のいずれか又は両者を使用する。したがって、特徴量のカテゴリに応じて多面的な罹患率の評価が可能になる。 (Effect of embodiment)
The
(1) The morbidity
(2) The
(3)罹患率評価装置1は、診断結果を、医師診断情報33としてフィードバックする。したがって、使用回数が増加するほど、医用画像の撮像の都度発生するランダムな計測誤差の影響が相対的に小さくなり、診断精度が向上する。
(4)罹患率評価装置1は、特徴量のカテゴリに応じて「異常」又は「正常」の判定を行う。したがって、どのカテゴリの特徴量に大きな変化が生じているかを容易に知ることができる。
(5)罹患率評価装置1は、異なる3以上の時点での変化の推移を使用して診断例を検索する。したがって、診断結果がより長期的な視点を反映したものになり、患者の受診心理に対しても好影響を及ぼす。 (3) Themorbidity evaluation apparatus 1 feeds back the diagnosis result as doctor diagnosis information 33. Therefore, as the number of uses increases, the influence of random measurement errors that occur each time a medical image is captured becomes relatively small, and the diagnostic accuracy improves.
(4) Themorbidity evaluation apparatus 1 determines “abnormal” or “normal” in accordance with the feature quantity category. Therefore, it is possible to easily know which category has a large change in the feature amount.
(5) Themorbidity evaluation apparatus 1 searches for a diagnosis example using transitions of changes at three or more different time points. Therefore, the diagnosis result reflects a longer-term viewpoint and has a positive effect on the patient's consultation psychology.
(4)罹患率評価装置1は、特徴量のカテゴリに応じて「異常」又は「正常」の判定を行う。したがって、どのカテゴリの特徴量に大きな変化が生じているかを容易に知ることができる。
(5)罹患率評価装置1は、異なる3以上の時点での変化の推移を使用して診断例を検索する。したがって、診断結果がより長期的な視点を反映したものになり、患者の受診心理に対しても好影響を及ぼす。 (3) The
(4) The
(5) The
(6)罹患率評価装置1は、複数のカテゴリの特徴量を使用する。したがって、部位や疾病の特性に即した特徴量を柔軟かつ機動的に使用することができる。
(7)罹患率評価装置1は、差分画像を表示する。したがって、差分の変化を容易に視認することができる。
(8)罹患率評価装置1は、差分を所定の長さの期間についての差分に換算する。したがって、差分は、部位、疾病及び特徴量のカテゴリに応じて、感覚的に理解し易く、かつ、比較し易いものになる。
(9)罹患率評価装置1は、医用画像の位置合わせを行う。したがって、設定条件や撮像環境が異なる医用画像同士の比較が可能になる。 (6) Themorbidity evaluation apparatus 1 uses feature amounts of a plurality of categories. Therefore, it is possible to flexibly and flexibly use a feature amount that matches the characteristics of the part or disease.
(7) Themorbidity evaluation apparatus 1 displays a difference image. Therefore, the difference change can be easily visually recognized.
(8) Themorbidity evaluation apparatus 1 converts the difference into a difference for a period of a predetermined length. Therefore, the difference is easy to understand sensibly and is easy to compare according to the category of the region, disease, and feature amount.
(9) Themorbidity evaluation apparatus 1 performs alignment of medical images. Therefore, it is possible to compare medical images with different setting conditions and imaging environments.
(7)罹患率評価装置1は、差分画像を表示する。したがって、差分の変化を容易に視認することができる。
(8)罹患率評価装置1は、差分を所定の長さの期間についての差分に換算する。したがって、差分は、部位、疾病及び特徴量のカテゴリに応じて、感覚的に理解し易く、かつ、比較し易いものになる。
(9)罹患率評価装置1は、医用画像の位置合わせを行う。したがって、設定条件や撮像環境が異なる医用画像同士の比較が可能になる。 (6) The
(7) The
(8) The
(9) The
なお、本発明は前記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、前記した実施例は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、前記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。 In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. In practice, it may be considered that almost all the components are connected to each other.
また、前記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウエアで実現してもよい。また、前記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウエアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。 In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.
Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files that realize each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. In practice, it may be considered that almost all the components are connected to each other.
1 罹患率評価装置
2 端末装置
3 撮像装置
4 ネットワーク
11 中央制御装置(制御部)
12 入力装置
13 出力装置
14 主記憶装置(記憶部)
15 補助記憶装置(記憶部)
16 通信装置
21 相対位置補正部
22 差分画像算出部
23 変化率算出部
24 異常有無判定部
25 罹患率算出部
26 入出力制御部
31 画像管理情報
32 異常判定情報
33 医師診断情報
34 医用画像
51a、51b 診断結果表示画面 DESCRIPTION OFSYMBOLS 1 Incidence rate evaluation apparatus 2 Terminal apparatus 3 Imaging apparatus 4 Network 11 Central control apparatus (control part)
12Input device 13 Output device 14 Main storage device (storage unit)
15 Auxiliary storage device (storage unit)
16communication device 21 relative position correction unit 22 differential image calculation unit 23 change rate calculation unit 24 abnormality presence / absence determination unit 25 morbidity rate calculation unit 26 input / output control unit 31 image management information 32 abnormality determination information 33 doctor diagnosis information 34 medical image 51a, 51b Diagnosis result display screen
2 端末装置
3 撮像装置
4 ネットワーク
11 中央制御装置(制御部)
12 入力装置
13 出力装置
14 主記憶装置(記憶部)
15 補助記憶装置(記憶部)
16 通信装置
21 相対位置補正部
22 差分画像算出部
23 変化率算出部
24 異常有無判定部
25 罹患率算出部
26 入出力制御部
31 画像管理情報
32 異常判定情報
33 医師診断情報
34 医用画像
51a、51b 診断結果表示画面 DESCRIPTION OF
12
15 Auxiliary storage device (storage unit)
16
Claims (11)
- 身体の部位に関連付けて、前記部位を撮像した撮像時点の異なる2つの画像の差分と、疾病名と、が記憶される診断情報を格納する記憶部、及び、
ユーザが診断対象となる前記部位を入力するのを受け付ける入力部と、
前記ユーザが画像の特徴量のカテゴリを入力するのを受け付ける差分画像算出部と、
前記受け付けたカテゴリについて、診断対象者の診断対象となる部位を撮像した撮像時点の異なる2つの画像の差分を算出する変化率算出部と、
診断対象となる前記部位と、前記算出した差分とを検索キーとして、前記診断情報を検索し、該当するレコードの疾病名を取得し、前記該当したレコードの数が前記部位を有するレコードの数に対して占める比率に基づいて罹患率を算出する罹患率算出部と、
前記取得した疾病名ごとに、前記算出した罹患率を表示する出力部と、
を有する制御部
を備えることを特徴とする罹患率評価装置。 A storage unit that stores diagnostic information in which a difference between two images at different imaging points in time when the part is imaged and a disease name are stored in association with a part of the body, and
An input unit that accepts a user to input the part to be diagnosed;
A difference image calculation unit that receives the user inputting the category of the feature amount of the image;
For the received category, a change rate calculation unit that calculates a difference between two images at different imaging time points when imaging a site to be diagnosed by a diagnosis subject,
The diagnosis information is searched by using the part to be diagnosed and the calculated difference as a search key, the disease name of the corresponding record is obtained, and the number of the corresponding records is the number of records having the part. A morbidity rate calculation unit that calculates the morbidity rate based on the ratio of
For each acquired disease name, an output unit that displays the calculated morbidity rate;
A morbidity evaluation apparatus comprising: a control unit having: - 前記差分は、
前記部位を撮像した撮像時点の異なる2つの画像から取得される値の変化量及び/又は絶対量であること、
を特徴とする請求項1に記載の罹患率評価装置。 The difference is
A change amount and / or an absolute amount of a value acquired from two different images at the time of imaging when imaging the part;
The morbidity evaluation apparatus according to claim 1, wherein: - 前記制御部は、
前記受け付けた部位と、前記算出した差分と、前記取得した疾病名とを有するレコードを前記診断情報の新たなレコードとして加えること、
を特徴とする請求項2に記載の罹患率評価装置。 The controller is
Adding a record having the accepted site, the calculated difference, and the acquired disease name as a new record of the diagnostic information;
The morbidity evaluation apparatus according to claim 2, wherein: - 前記記憶部は、
前記部位及び前記カテゴリに関連付けて、前記差分が正常であると診断される数値範囲が記憶される判定情報を格納し、
前記制御部は、
前記診断対象となる部位と、前記受け付けたカテゴリと、前記算出した差分とを検索キーとして、前記判定情報を検索し、該当するレコードの数値範囲を取得し、
前記取得した数値範囲に前記算出した差分が含まれるか否かに応じて、前記診断対象となる部位が正常であるか否かを判定すること、
を特徴とする請求項3に記載の罹患率評価装置。 The storage unit
In association with the part and the category, storing determination information in which a numerical range in which the difference is diagnosed as normal is stored,
The controller is
Using the part to be diagnosed, the received category, and the calculated difference as a search key, search the determination information, and obtain the numerical range of the corresponding record,
Determining whether the site to be diagnosed is normal according to whether or not the calculated difference is included in the acquired numerical range;
The morbidity evaluation apparatus according to claim 3. - 前記差分は、
撮像時点の異なる3つ以上の前記画像の差分の推移を時系列で示すものであること、
を特徴とする請求項4に記載の罹患率評価装置。 The difference is
Showing the transition of the difference between three or more images at different time points in time series,
The morbidity rate evaluation apparatus according to claim 4. - 前記受け付けたカテゴリは、
複数のカテゴリであり、
前記制御部は、
前記複数のカテゴリについて、前記罹患率を算出すること、
を特徴とする請求項5に記載の罹患率評価装置。 The accepted categories are:
Multiple categories,
The controller is
Calculating the morbidity rate for the plurality of categories;
The morbidity evaluation device according to claim 5. - 前記制御部は、
前記診断対象となる部位を撮像した撮像時点の異なる2つの画像の差分のみが表示された画像を表示すること、
を特徴とする請求項6に記載の罹患率評価装置。 The controller is
Displaying an image in which only the difference between two different images taken at the time of imaging of the part to be diagnosed is displayed;
The morbidity evaluation device according to claim 6. - 前記制御部は、
前記算出した差分を、
所定の長さの期間についての差分に換算すること、
を特徴とする請求項7に記載の罹患率評価装置。 The controller is
The calculated difference is
Converting to a difference for a period of a given length,
The morbidity evaluation device according to claim 7. - 前記制御部は、
2組の対応点同士を重ね合わせることによって、前記診断対象となる部位を撮像した撮像時点の異なる2つの画像の位置合わせを行うこと、
を特徴とする請求項8に記載の罹患率評価装置。 The controller is
Aligning two images at different imaging time points when imaging the region to be diagnosed by superimposing two sets of corresponding points;
The morbidity evaluation apparatus according to claim 8. - 制御部は、
入力装置を介してユーザが画像の特徴量のカテゴリと、診断対象となる身体の部位を入力するのを受け付け、
前記受け付けたカテゴリについて、診断対象者の診断対象となる部位を撮像した撮像時点の異なる2つの画像の差分を算出し、
診断対象となる前記部位と、前記算出した差分とを検索キーとして、前記部位に関連付けて、前記部位を撮像した撮像時点の異なる2つの画像の差分と、疾病名と、が記憶される診断情報を検索し、該当する疾病名を取得し、
前記該当したレコードの数が前記部位を有するレコードの数に対して占める比率に基づいて罹患率を算出し、
前記取得した疾病名ごとに、前記算出した罹患率を表示すること、
を特徴とする、前記制御部を備える罹患率評価装置の罹患率評価方法。 The control unit
Accepting the user to input the feature category of the image and the body part to be diagnosed via the input device,
For the received category, calculate a difference between two images at different imaging time points when imaging a site to be diagnosed by the diagnostic subject,
Diagnostic information in which a difference between two images at different imaging points in time when the part is imaged and a disease name are stored in association with the part using the part to be diagnosed and the calculated difference as a search key To get the name of the disease,
Calculate the morbidity based on the ratio of the number of applicable records to the number of records having the part,
Displaying the calculated morbidity rate for each acquired disease name;
The morbidity evaluation method of the morbidity evaluation apparatus provided with the said control part characterized by these. - 罹患率評価装置の記憶部に対して、
身体の部位に関連付けて、前記部位を撮像した撮像時点の異なる2つの画像の差分と、疾病名と、が記憶される診断情報を格納させ、
前記罹患率評価装置の制御部に対して、
ユーザが画像の特徴量のカテゴリと、診断対象となる前記部位を入力するのを受け付け、
前記受け付けたカテゴリについて、診断対象者の診断対象となる部位を撮像した撮像時点の異なる2つの画像の差分を算出し、
診断対象となる前記部位と、前記算出した差分とを検索キーとして、前記診断情報を検索し、該当するレコードの疾病名を取得し、
前記該当したレコードの数が前記部位を有するレコードの数に対して占める比率に基づいて罹患率を算出し、
前記取得した疾病名ごとに、前記算出した罹患率を表示する処理を実行させること、
を特徴とする前記罹患率評価装置を機能させるための罹患率評価プログラム。 For the storage unit of the morbidity assessment device,
In association with the body part, the difference between two images taken at different times when the part was imaged and the disease name are stored, and diagnostic information is stored.
For the control unit of the morbidity evaluation device,
Accepting the user to input the feature category of the image and the part to be diagnosed,
For the received category, calculate a difference between two images at different imaging time points when imaging a site to be diagnosed by the diagnostic subject,
Using the part to be diagnosed and the calculated difference as a search key, search the diagnostic information, obtain the disease name of the corresponding record,
Calculate the morbidity based on the ratio of the number of applicable records to the number of records having the part,
For each acquired disease name, causing the calculated morbidity to be displayed,
A morbidity evaluation program for causing the morbidity evaluation apparatus to function.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2013/072856 WO2015029135A1 (en) | 2013-08-27 | 2013-08-27 | Incidence rate evaluation device, incidence rate evaluation method, and incidence rate evaluation program |
JP2015533822A JP6208243B2 (en) | 2013-08-27 | 2013-08-27 | Morbidity assessment device, morbidity assessment method, and morbidity assessment program |
TW103125674A TWI524198B (en) | 2013-08-27 | 2014-07-28 | A morbidity assessment device, a morbidity assessment method, and a morbidity assessment program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2013/072856 WO2015029135A1 (en) | 2013-08-27 | 2013-08-27 | Incidence rate evaluation device, incidence rate evaluation method, and incidence rate evaluation program |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2015029135A1 true WO2015029135A1 (en) | 2015-03-05 |
Family
ID=52585754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/072856 WO2015029135A1 (en) | 2013-08-27 | 2013-08-27 | Incidence rate evaluation device, incidence rate evaluation method, and incidence rate evaluation program |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6208243B2 (en) |
TW (1) | TWI524198B (en) |
WO (1) | WO2015029135A1 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106294751A (en) * | 2016-08-10 | 2017-01-04 | 依据数据(湖南)科技有限公司 | Abnormal examination based on key word network correlation analysis report automatic identifying method |
JP2017046814A (en) * | 2015-08-31 | 2017-03-09 | キヤノン株式会社 | Information processing device, image processing device, information processing system, information processing method, and program |
WO2019003749A1 (en) * | 2017-06-30 | 2019-01-03 | 富士フイルム株式会社 | Medical image processing device, method, and program |
JP2019037541A (en) * | 2017-08-25 | 2019-03-14 | 株式会社Aze | Medical image processing apparatus, control method for medical image processing apparatus, and program |
GB2569427A (en) * | 2017-10-13 | 2019-06-19 | Optellum Ltd | System, method and apparatus for assisting a determination of medical images |
WO2021060461A1 (en) * | 2019-09-25 | 2021-04-01 | 富士フイルム株式会社 | Image processing device, method, and program |
JP2021099607A (en) * | 2019-12-20 | 2021-07-01 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Information processing apparatus, information processing method, and program |
US11158054B2 (en) | 2017-08-28 | 2021-10-26 | Fujifilm Corporation | Medical image processing apparatus, medical image processing method, and medical image processing program |
US11200674B2 (en) | 2018-10-29 | 2021-12-14 | Canon Kabushiki Kaisha | Image processing apparatus, method, and storage medium for enabling user to REC0GNT7E change over time represented by substraction image |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109949274B (en) | 2019-02-25 | 2020-12-25 | 腾讯科技(深圳)有限公司 | Image processing method, device and system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002230518A (en) * | 2000-11-29 | 2002-08-16 | Fujitsu Ltd | Diagnosis support program, computer readable recording medium recorded with diagnosis support program, diagnosis support device and diagnosis support method |
JP2004288047A (en) * | 2003-03-24 | 2004-10-14 | Fujitsu Ltd | Medical examination support system and medical examination support program |
JP2007279942A (en) * | 2006-04-05 | 2007-10-25 | Fujifilm Corp | Similar case retrieval device, similar case retrieval method and program |
JP2009095550A (en) * | 2007-10-18 | 2009-05-07 | Canon Inc | Diagnosis support apparatus, method for controlling diagnosis support apparatus, and program of the same |
JP2011092685A (en) * | 2009-09-30 | 2011-05-12 | Fujifilm Corp | Diagnosis support system, diagnostic support program and diagnostic support method |
JP2013025723A (en) * | 2011-07-25 | 2013-02-04 | Panasonic Corp | Similar case search device and interpretation knowledge extraction device |
-
2013
- 2013-08-27 JP JP2015533822A patent/JP6208243B2/en not_active Expired - Fee Related
- 2013-08-27 WO PCT/JP2013/072856 patent/WO2015029135A1/en active Application Filing
-
2014
- 2014-07-28 TW TW103125674A patent/TWI524198B/en not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002230518A (en) * | 2000-11-29 | 2002-08-16 | Fujitsu Ltd | Diagnosis support program, computer readable recording medium recorded with diagnosis support program, diagnosis support device and diagnosis support method |
JP2004288047A (en) * | 2003-03-24 | 2004-10-14 | Fujitsu Ltd | Medical examination support system and medical examination support program |
JP2007279942A (en) * | 2006-04-05 | 2007-10-25 | Fujifilm Corp | Similar case retrieval device, similar case retrieval method and program |
JP2009095550A (en) * | 2007-10-18 | 2009-05-07 | Canon Inc | Diagnosis support apparatus, method for controlling diagnosis support apparatus, and program of the same |
JP2011092685A (en) * | 2009-09-30 | 2011-05-12 | Fujifilm Corp | Diagnosis support system, diagnostic support program and diagnostic support method |
JP2013025723A (en) * | 2011-07-25 | 2013-02-04 | Panasonic Corp | Similar case search device and interpretation knowledge extraction device |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017046814A (en) * | 2015-08-31 | 2017-03-09 | キヤノン株式会社 | Information processing device, image processing device, information processing system, information processing method, and program |
US10304182B2 (en) | 2015-08-31 | 2019-05-28 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and recording medium |
US10650516B2 (en) | 2015-08-31 | 2020-05-12 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and recording medium |
CN106294751A (en) * | 2016-08-10 | 2017-01-04 | 依据数据(湖南)科技有限公司 | Abnormal examination based on key word network correlation analysis report automatic identifying method |
WO2019003749A1 (en) * | 2017-06-30 | 2019-01-03 | 富士フイルム株式会社 | Medical image processing device, method, and program |
JPWO2019003749A1 (en) * | 2017-06-30 | 2020-05-21 | 富士フイルム株式会社 | Medical image processing apparatus, method and program |
US11216945B2 (en) | 2017-06-30 | 2022-01-04 | Fujifilm Corporation | Image processing for calculation of amount of change of brain |
JP2019037541A (en) * | 2017-08-25 | 2019-03-14 | 株式会社Aze | Medical image processing apparatus, control method for medical image processing apparatus, and program |
JP7140477B2 (en) | 2017-08-25 | 2022-09-21 | キヤノンメディカルシステムズ株式会社 | MEDICAL IMAGE PROCESSING APPARATUS, CONTROL METHOD OF MEDICAL IMAGE PROCESSING APPARATUS, AND PROGRAM |
US11158054B2 (en) | 2017-08-28 | 2021-10-26 | Fujifilm Corporation | Medical image processing apparatus, medical image processing method, and medical image processing program |
GB2569427B (en) * | 2017-10-13 | 2021-12-15 | Optellum Ltd | System, method and apparatus for assisting a determination of medical images |
GB2569427A (en) * | 2017-10-13 | 2019-06-19 | Optellum Ltd | System, method and apparatus for assisting a determination of medical images |
US11594005B2 (en) | 2017-10-13 | 2023-02-28 | Optellum Limited | System, method and apparatus for assisting a determination of medical images |
US11200674B2 (en) | 2018-10-29 | 2021-12-14 | Canon Kabushiki Kaisha | Image processing apparatus, method, and storage medium for enabling user to REC0GNT7E change over time represented by substraction image |
WO2021060461A1 (en) * | 2019-09-25 | 2021-04-01 | 富士フイルム株式会社 | Image processing device, method, and program |
JP2021099607A (en) * | 2019-12-20 | 2021-07-01 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Information processing apparatus, information processing method, and program |
JP7451170B2 (en) | 2019-12-20 | 2024-03-18 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Information processing device, information processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JPWO2015029135A1 (en) | 2017-03-02 |
JP6208243B2 (en) | 2017-10-04 |
TW201518967A (en) | 2015-05-16 |
TWI524198B (en) | 2016-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6208243B2 (en) | Morbidity assessment device, morbidity assessment method, and morbidity assessment program | |
US10540763B2 (en) | Systems and methods for matching, naming, and displaying medical images | |
US9271651B2 (en) | System and method for integrated quantifiable detection, diagnosis and monitoring of disease using patient related time trend data | |
Niemeijer et al. | Retinopathy online challenge: automatic detection of microaneurysms in digital color fundus photographs | |
US8934685B2 (en) | System and method for analyzing and visualizing local clinical features | |
US7634121B2 (en) | Method and system for rule-based comparison study matching to customize a hanging protocol | |
US8010381B2 (en) | System and method for disease diagnosis from patient structural deviation data | |
JP6027065B2 (en) | Similar image search device, method of operating similar image search device, and similar image search program | |
US11195610B2 (en) | Priority alerts based on medical information | |
US9053213B2 (en) | Interactive optimization of scan databases for statistical testing | |
US20110129131A1 (en) | System and method for integrated quantifiable detection, diagnosis and monitoring of disease using population related time trend data and disease profiles | |
US20110129129A1 (en) | System and method for integrated quantifiable detection, diagnosis and monitoring of disease using population related data for determining a disease signature | |
CN110598722B (en) | Multi-modal neuroimaging data automatic information fusion system | |
WO2015146520A1 (en) | Similar medical case search device, similar medical case search method, and similar medical case search program | |
WO2018116727A1 (en) | Similar case search device, method for operation and program for operation thereof, and similar case search system | |
US20110129130A1 (en) | System and method for integrated quantifiable detection, diagnosis and monitoring of disease using population related time trend data | |
JP2015203920A (en) | Similar case retrieval system, similar case retrieval method and program | |
JP5732015B2 (en) | Graph creating apparatus, graph creating method, and graph creating program | |
JP6054295B2 (en) | Clinical status timeline | |
US20200111558A1 (en) | Information processing apparatus, medical image display apparatus, and storage medium | |
CN111681749A (en) | Pathology department standardized work management and diagnosis consultation system and method | |
Venson et al. | Diagnostic concordance between mobile interfaces and conventional workstations for emergency imaging assessment | |
Cai et al. | Image quality assessment on CT reconstruction images: Task-specific vs. general quality assessment | |
Nesso et al. | RAFIKI: Retrieval-based application for imaging and knowledge investigation | |
US20230343462A1 (en) | Medical information processing system, medical information processing method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13892614 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2015533822 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 13892614 Country of ref document: EP Kind code of ref document: A1 |