Nothing Special   »   [go: up one dir, main page]

WO2023175862A1 - 屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体 - Google Patents

屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体 Download PDF

Info

Publication number
WO2023175862A1
WO2023175862A1 PCT/JP2022/012413 JP2022012413W WO2023175862A1 WO 2023175862 A1 WO2023175862 A1 WO 2023175862A1 JP 2022012413 W JP2022012413 W JP 2022012413W WO 2023175862 A1 WO2023175862 A1 WO 2023175862A1
Authority
WO
WIPO (PCT)
Prior art keywords
refractive index
image
area
index distribution
processing target
Prior art date
Application number
PCT/JP2022/012413
Other languages
English (en)
French (fr)
Inventor
鈴木良政
渡部智史
藤井信太朗
Original Assignee
株式会社エビデント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エビデント filed Critical 株式会社エビデント
Priority to PCT/JP2022/012413 priority Critical patent/WO2023175862A1/ja
Priority to JP2024507370A priority patent/JPWO2023175862A1/ja
Publication of WO2023175862A1 publication Critical patent/WO2023175862A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/27Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands using photo-electric detection ; circuits for computing concentration
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence

Definitions

  • the present invention relates to a refractive index distribution generation device, a refractive index distribution generation method, a refractive index distribution generation system, and a recording medium.
  • Non-Patent Document 1 A technique for estimating the refractive index distribution of a specimen using computational imaging is disclosed in Non-Patent Document 1.
  • a specimen placed on glass is illuminated with epi-illumination.
  • the two lights incident on the objective lens are detected by an image sensor.
  • One type of light is the light that is scattered by the specimen and then reflected by the glass.
  • the other light is the light that is later reflected by the glass and then scattered by the specimen.
  • both of the two lights incident on the objective lens are lights reflected by glass.
  • the intensity of light reflected by glass is very low. Therefore, for thick specimens, it is difficult to estimate the refractive index distribution with high accuracy.
  • the present invention has been made in view of these problems, and provides a refractive index distribution generation device, a refractive index distribution generation method, and a refractive index distribution generation method that can improve the accuracy of refractive index distribution even in thick specimens.
  • the purpose is to provide a distribution generation system and a recording medium.
  • a refractive index distribution generation device includes the following: A processor composed of hardware, a memory composed of hardware, and The processor is Execute refractive index distribution generation processing to generate a refractive index distribution corresponding to the image to be processed,
  • the refractive index distribution generation process is an input process of inputting from a memory an image to be processed, first refractive index information indicating the refractive index of the first structure, and second refractive index information indicating the refractive index of the second structure different from the first structure;
  • the refractive index distribution generation system includes: an observation optical system that forms an optical image of the specimen; an image sensor that captures an optical image; A refractive index distribution generating device according to claim 1 is provided.
  • the refractive index distribution generation system includes: A processor composed of hardware, a memory composed of hardware, and The processor is Execute refractive index distribution generation processing to generate a refractive index distribution corresponding to the image to be processed,
  • the refractive index distribution generation process is Input processing of inputting from memory an image to be processed, first refractive index information indicating the refractive index of the first structure, and second refractive index information indicating the refractive index of the second structure different from the first structure.
  • the setting process is a first setting process of setting a refractive index based on the first refractive index information at a position corresponding to the first image area of the processing target image based on the signal strength of a unit pixel of the processing target image; a second setting process of setting a refractive index based on the second refractive index information to a position corresponding to an image area different from the first image area of the processing target image;
  • the first image area is an image area corresponding to the first structure,
  • a unit pixel is composed of one pixel or multiple pixels,
  • the processor executes refractive index distribution generation processing using the image taken of the specimen as the processing target image,
  • the processor executes machine learning processing to learn the AI model, Machine learning processing trains an AI model with multiple datasets,
  • the dataset includes an image to be processed and training data corresponding to the image to be processed,
  • the training data is characterized by being a refractive index distribution generated by a refractive index distribution generation process.
  • the refractive index distribution generation method includes: A method for generating a refractive index distribution corresponding to an image to be processed, the method comprising: inputting an image to be processed, first refractive index information indicating the refractive index of the first structure, and second refractive index information indicating the refractive index of the second structure different from the first structure; setting a refractive index based on first refractive index information at a position corresponding to a first image area of the processing target image based on the signal intensity of a unit pixel of the processing target image; setting a refractive index based on second refractive index information at a position corresponding to an image area different from the first image area of the image to be processed;
  • the first image area is an image area corresponding to the first structure,
  • a unit pixel is composed of one pixel or multiple pixels,
  • the image to be processed is characterized in that it is an image obtained by photographing a specimen.
  • a recording medium includes: A computer-readable recording medium recording a program for generating a specimen image, an input process of inputting from a memory an image to be processed, first refractive index information indicating the refractive index of the first structure, and second refractive index information indicating the refractive index of the second structure different from the first structure; Execute a setting process for setting each refractive index that makes up the refractive index distribution, In the setting process, a first setting process of setting a refractive index based on the first refractive index information at a position corresponding to the first image area of the processing target image based on the signal strength of a unit pixel of the processing target image; performing a second setting process of setting a refractive index based on the second refractive index information to a position corresponding to an image area different from the first image area of the image to be processed;
  • the first image area is an image area corresponding to the first structure,
  • a unit pixel is composed of one pixel or multiple pixels
  • a refractive index distribution generation device a refractive index distribution generation method, a refractive index distribution generation system, and a recording medium that can improve the accuracy of refractive index distribution even for thick samples.
  • FIG. 1 is a diagram showing a refractive index distribution generation device and a microscope system according to the present embodiment. It is a figure which shows the image of a specimen, an optical image, an optical image, and an XY image group.
  • FIG. 3 is a diagram showing a processing target image and a refractive index distribution image. It is a flowchart of processing performed by a processor.
  • FIG. 3 is a diagram showing a processing target image and a refractive index distribution image. It is a flowchart of processing performed by a processor.
  • FIG. 3 is a diagram showing an image to be processed. It is a flowchart of processing performed by a processor.
  • FIG. 3 is a diagram showing a processing target image and a refractive index distribution image.
  • FIG. 3 is a diagram showing an image to be processed.
  • FIG. 3 is a diagram showing an image to be processed. It is a flowchart of processing performed by a processor.
  • FIG. 3 is a diagram showing an image to be processed. It is a flowchart of processing performed by a processor. It is a flowchart of processing performed by a processor. It is a figure which shows a specimen, an optical image, and a 1st image. It is a figure which shows a 1st image, a refractive index image, a 1st area, and an area group. It is a diagram showing an area group.
  • FIG. 3 is a diagram showing wavefront propagation. It is a figure which shows a refractive index image, a PSF image, a 1st image, and a recovery image. It is a flowchart of processing performed by a processor.
  • FIG. 3 is a diagram showing training processing.
  • FIG. 1 is a diagram showing a specimen image generation system according to the present embodiment.
  • the refractive index distribution generation device of this embodiment uses an optical image of a specimen.
  • An optical image of the specimen can be obtained by forming an optical image of the specimen with an observation optical system and photographing the optical image of the specimen with an image sensor. Since the specimen is a three-dimensional object, the optical image of the specimen can be represented as an XY image, an XZ image, and a YZ image.
  • the optical axis of the observation optical system is the Z-axis
  • the axis perpendicular to the Z-axis is the X-axis
  • the axis perpendicular to both the Z-axis and the X-axis is the Y-axis.
  • the XY cross section is a plane including the X axis and the Y axis.
  • the XY image is an image in the XY cross section.
  • the XZ cross section is a plane including the X axis and the Z axis.
  • the XZ image is an image in the XZ cross section.
  • the YZ cross section is a plane including the Y axis and the Z axis.
  • the YZ image is an image in the YZ cross section.
  • the refractive index distribution generation device of this embodiment includes a processor configured with hardware and a memory configured with hardware, and the processor is configured to generate a refractive index distribution that generates a refractive index distribution corresponding to an image to be processed. Execute processing.
  • the refractive index distribution generation process stores an image to be processed, first refractive index information indicating the refractive index of the first structure, and second refractive index information indicating the refractive index of the second structure different from the first structure, into a memory. and a setting process for setting each refractive index constituting the refractive index distribution.
  • the setting process includes a first setting process of setting a refractive index based on the first refractive index information at a position corresponding to a first image area of the process target image based on the signal strength of a unit pixel of the process target image; 2.
  • the first image area is an image area corresponding to the first structure
  • the unit pixel is composed of one pixel or a plurality of pixels
  • the processor generates a refractive index distribution using an image of the specimen as a processing target image. Execute processing.
  • FIG. 1 is a diagram showing a refractive index distribution generation device and a microscope system according to the present embodiment.
  • FIG. 1(a) is a diagram showing a refractive index distribution generation device of this embodiment.
  • FIG. 1(b) is a diagram showing the microscope system.
  • the refractive index distribution generation device 1 includes a memory 2 and a processor 3.
  • the memory 2 stores an image to be processed, first refractive index information, and second refractive index information.
  • the first refractive index information is information indicating the refractive index of the first structure.
  • the second refractive index information is information indicating the refractive index of the second structure.
  • the second structure is different from the first structure.
  • the image to be processed is an image obtained by photographing a specimen.
  • the processing target image can be generated from, for example, a plurality of XY images (hereinafter referred to as "XY image group"). Each XY image in the XY image group is an optical image of the specimen.
  • the refractive index distribution generation device 1 In order to generate an image to be processed by the refractive index distribution generation device 1, it is necessary to input a group of XY images to the refractive index distribution generation device 1.
  • the XY image group is input to the refractive index distribution generation device 1 via the input section 4.
  • the XY image can be acquired with a microscope system, for example.
  • the microscope system 10 includes a microscope 20 and a processing device 30.
  • the microscope 20 includes a main body 21 , an objective lens 22 , a stage 23 , an epi-illumination device 24 , an imaging unit 25 , and a controller 26 .
  • the processing device 30 includes an input section 31, a memory 32, a processor 33, and an output section 34.
  • a specimen 27 is placed on the stage 23.
  • an optical image of the specimen 27 is formed on the image plane of the observation optical system.
  • the objective lens 22 the imaging lens, and the lens of the imaging unit 25 form an observation optical system.
  • the objective lens 22 and the imaging lens form an observation optical system.
  • the imaging unit 25 has an imaging element. An image of the optical image is obtained by photographing the optical image formed on the image plane with an image sensor.
  • the optical image formed on the image plane is an optical image of the XY cross section of the specimen 27. Therefore, the optical image is an XY image.
  • the objective lens 22 and the stage 23 can be relatively moved along the optical axis of the observation optical system.
  • the movement of the objective lens 22 or the movement of the stage 23 can be performed by the controller 26.
  • Specimen 27 is a thick specimen. Therefore, by relatively moving the objective lens 22 and the stage 23, XY images can be acquired for a plurality of cross sections. The XY image group will be explained.
  • FIG. 2 is a diagram showing a specimen, an optical image, an image of the optical image, and an XY image group.
  • FIG. 2(a) is a diagram showing a specimen.
  • FIG. 2(b), FIG. 2(c), and FIG. 2(d) are diagrams showing an optical image and an image of the optical image.
  • FIG. 2(e) is a diagram showing an XY image group.
  • the specimen 40 since the specimen 40 is a three-dimensional object, it can be represented by multiple block layers.
  • the specimen 40 is divided into seven block layers in the Z-axis direction. However, the number of block layers is not limited to seven.
  • Sample OZ1 represents the block layer at one end
  • sample OZ7 represents the block layer at the other end.
  • Each block layer represents an XY cross section of the specimen 40.
  • the block layers from specimen OZ1 to specimen OZ7 are sequentially positioned on the focal plane of the observation optical system 41.
  • the optical image is a plane
  • the optical image is represented by a block layer for ease of viewing.
  • the image of the optical image is also represented by a block layer.
  • the specimen 40 and the observation optical system 41 are relatively moved along the optical axis 42.
  • the specimen 40 is not moved, but the observation optical system 41 is relatively moved along the optical axis 42.
  • an optical image IZ1 is formed.
  • an optical image PZ1 is obtained.
  • an optical image IZ4 is formed.
  • an optical image PZ4 is obtained.
  • an optical image IZ7 is formed.
  • an optical image PZ7 is obtained.
  • Image PZ1, image PZ4, and image PZ7 are XY images. Two block layers are located between image PZ1 and image PZ4. Further, two block layers are also located between the image PZ4 and the image PZ7. Assuming that the images of these block layers are respectively image PZ2, image PZ3, image PZ5, and image PZ6, image PZ2, image PZ3, image PZ5, and image PZ6 are also XY images.
  • FIG. 2(e) shows a three-dimensional XY image group 43.
  • the XY image group 43 has brightness information in each of the X-axis direction, Y-axis direction, and Z-axis direction. Therefore, an XY image, an XZ image, and a YZ image can be generated from the XY image group 43.
  • the image to be processed is generated from a group of XY images. Therefore, the XY image, the XZ image, and the YZ image can all be used as images to be processed.
  • a plurality of objective lenses can be attached to the revolver.
  • the magnification of the objective lens can be changed.
  • Rotation of the revolver can be performed using the controller 26.
  • the XY image is output from the imaging unit 25 and input to the processing device 30.
  • An XY image group is obtained from the plurality of XY images. After the XY image group is input to the input section 31, it is stored in the memory 32. The XY image group is output from the output unit 34. Therefore, the XY image group can be input to the refractive index distribution generation device 1.
  • the XY image group is stored in the memory 2.
  • the processor 3 executes refractive index distribution generation processing.
  • the refractive index distribution generation process a refractive index distribution corresponding to the processing target image is generated.
  • FIG. 3 is a diagram showing a processing target image and a refractive index distribution image.
  • FIG. 3(a) is a diagram showing an image to be processed.
  • FIG. 3(b) is a diagram showing a part of the processing target image.
  • FIG. 3(c) is a diagram showing a part of the refractive index distribution image.
  • FIG. 3(d) is a diagram showing a refractive index distribution image.
  • FIG. 3(a) shows an image to be processed.
  • the specimen has a first structure and a second structure.
  • the first structure and the second structure may be adjacent to each other, or another structure may be located between the first structure and the second structure.
  • the first structure is stained with a fluorescent dye.
  • the second structure is not stained with fluorescent dye.
  • the fluorescence image of the first structure is formed by fluorescence having a wavelength ⁇ 1. Since the second structure is not stained with a fluorescent dye, no fluorescent image of the second structure is formed.
  • the processing target image 50 is an optical image of the specimen.
  • the image to be processed 50 is an image acquired through an optical filter (hereinafter referred to as "optical filter F ⁇ 1") that transmits only fluorescence of wavelength ⁇ 1.
  • optical filter F ⁇ 1 optical filter
  • the processing target image 50 has a first image area 51 and a second image area 52.
  • the first image area 51 is an image area corresponding to the light transmitted through the optical filter F ⁇ 1. Since the light forming the fluorescence image of the first structure is fluorescence of wavelength ⁇ 1, it is transmitted through the optical filter F ⁇ 1. Therefore, the first image area 51 is an image area corresponding to the first structure. Since the processing target image 50 includes a plurality of images of the first structure, the processing target image 50 has a plurality of first image regions 51.
  • the second image area 52 is an image area corresponding to light that has not passed through the optical filter F ⁇ 1. Structures other than the first structure are defined as structure group A. Structure group A includes the second structure. Since no fluorescent image of the second structure is formed, no light is transmitted through the optical filter F ⁇ 1. Therefore, the second image area 52 is an image area corresponding to the structure group A. Since the structure group A is different from the first structure, the second image area 52 is different from the first image area 51.
  • FIG. 4 is a flowchart of the processing performed by the processor.
  • the processor 3 executes refractive index distribution generation processing.
  • the refractive index distribution generation process includes input processing and setting processing.
  • Step S100 input processing is performed.
  • Step S100 includes step S101, step S102, and step S103.
  • step S101 an image to be processed is input from memory.
  • step S102 first refractive index information is input from memory.
  • step S103 second refractive index information is input from memory.
  • the first refractive index information is information indicating the refractive index of the first structure.
  • the second refractive index information is information indicating the refractive index of the second structure.
  • step S200 a setting process is executed.
  • each refractive index making up the refractive index distribution is set.
  • Step S200 includes step S201 and step S202.
  • step S201 a first setting process is executed.
  • a refractive index based on the first refractive index information is set at a position corresponding to a first image area of the processing target image based on the signal strength of a unit pixel of the processing target image.
  • a unit pixel is composed of one pixel or multiple pixels.
  • step S202 a second setting process is executed.
  • a refractive index based on the second refractive index information is set at a position corresponding to an image area different from the first image area of the processing target image.
  • FIG. 3(b) shows an enlarged image of a part of the processing target image, the signal strength in the Z-axis direction, and the signal strength in the X-axis direction.
  • the first image area is represented by an ellipse for ease of viewing. However, in reality, the first image area has a complex shape.
  • the processing target image 60 has a first image area 61 and a second image area 62.
  • the second image area 62 is different from the first image area 61.
  • the first image area 61 is the first image area 51 in FIG. 3(a). Since the first image area 51 is an image area corresponding to the first structure, the first image area 61 is an image area corresponding to the first structure.
  • the second image area 62 is the second image area 52 in FIG. 3(a). Since the second image area 52 is an image area corresponding to the structure group A, the second image area 62 is an image area corresponding to the structure group A.
  • the first image area 61 can be determined based on the signal intensity of the unit pixel of the image to be processed 60.
  • a unit pixel is composed of one pixel or multiple pixels. When the unit pixel is one pixel, the first image area 61 is determined based on the intensity signal of one pixel. When the unit pixel is a plurality of pixels, the first image region 61 is determined based on the intensity signals of the plurality of pixels.
  • a signal intensity greater than zero is used as the signal intensity of a unit pixel.
  • ⁇ Z and ⁇ X indicate a region of a unit pixel having a signal intensity greater than zero.
  • the signal intensity is greater than zero.
  • the second image area 62 is an area excluding the first image area 61. Therefore, in the unit pixels forming the second image area 62, the signal strength is zero.
  • the position of the first image area 61 is determined from the position of the ellipse. Since the second image area 62 is an area excluding the first image area 61, the position of the second image area 62 can be determined if the position of the first image area 61 is determined.
  • the refractive index is set.
  • the image to be processed is an optical image of the specimen. Since the optical image of the specimen is an image formed from brightness information, it is not possible to set the refractive index. Therefore, the refractive index may be set using an image other than the processing target image, for example, a refractive index distribution image.
  • FIG. 3(c) shows an enlarged image of a part of the refractive index distribution image, the refractive index distribution in the Z-axis direction, and the refractive index distribution in the X-axis direction.
  • the refractive index distribution image 70 has a first refractive index region 71 and a second refractive index region 72.
  • the refractive index distribution image 70 is an image expressed by refractive index, it is possible to set the refractive index based on the first refractive index information and the refractive index based on the second refractive index information.
  • an area for setting the refractive index based on the first refractive index information and an area for setting the refractive index based on the second refractive index information are required.
  • the first refractive index information is information indicating the refractive index of the first structure.
  • the image area corresponding to the first structure is the first image area 61. In order to set the refractive index based on the first refractive index information, it is sufficient to find an area corresponding to the first image area 61 in the refractive index distribution image 70.
  • the second refractive index information is information indicating the refractive index of the second structure.
  • the second structure is included in structure group A.
  • the image area corresponding to structure group A is the second image area 62. In order to set the refractive index based on the second refractive index information, it is sufficient to find an area corresponding to the second image area 62 in the refractive index distribution image 70.
  • the first refractive index area 71 is an area corresponding to the first image area 61. Therefore, the refractive index based on the first refractive index information may be set in the first refractive index region 71.
  • the second refractive index region 72 is a region corresponding to the second image region 62. Since the second image area 62 is an image area corresponding to the structural group A, the second refractive index area 72 is an image area corresponding to the structural group A. Structure group A includes the second structure. Therefore, a refractive index based on the second refractive index information may be set in the second refractive index region 72.
  • the first refractive index region 71 corresponds to the first image region 61.
  • the position of the first image area 61 is determined based on the signal intensity of the unit pixel of the processing target image 60. Therefore, the position of the first refractive index region 71 may be determined based on the signal intensity of the unit pixel of the processing target image 60.
  • a refractive index based on the first refractive index information may be set at the position obtained in this manner.
  • the second refractive index region 72 corresponds to the second image region 62. Since the second image area 62 is an area excluding the first image area 61, once the position of the first refractive index area 71 is determined, the position of the second refractive index area 72 can be determined. A refractive index based on the second refractive index information may be set at the position obtained in this manner.
  • a refractive index distribution image 80 is shown in FIG. 3(d).
  • the refractive index distribution image 80 has a first refractive index region 81 and a second refractive index region 82.
  • the refractive index distribution image 80 is an image corresponding to the processing target image 50.
  • the processing target image 50 has a plurality of first image regions 51 . Therefore, the refractive index distribution image 80 also has a plurality of first refractive index regions 81.
  • the processor 3 performs refractive index distribution generation processing using the processing target image 50.
  • the image to be processed 50 is an image obtained by photographing an optical image of a specimen.
  • the processor 3 executes refractive index distribution generation processing using an image of the specimen as a processing target image.
  • the refractive index distribution generation device of this embodiment can improve the accuracy of refractive index distribution even for thick specimens.
  • specimens include cell clusters.
  • a cell mass has a plurality of cells.
  • Cell adhesion molecules exist between adjacent cells.
  • Cells have a cell nucleus, cytoplasm, and cell membrane.
  • the specimen is a cell mass, the specimen has a cell nucleus, cytoplasm, cell membrane, and cell adhesion molecules.
  • the specimen has a first structure and a second structure.
  • the first structure is the cell nucleus
  • the second structure is the cytoplasm.
  • Cell structures other than the cell nucleus are defined as cell structure group A.
  • Cell structure group A includes cytoplasm, cell membrane, and cell adhesion molecules.
  • the structure group A is structures other than the first structure and includes the second structure.
  • Cell structure group A is a cell structure other than the cell nucleus and includes cytoplasm. Therefore, when the specimen is a cell mass, cell structure group A corresponds to structure group A.
  • the first image area 51 is an image area corresponding to the first structure. Since the first structure is a cell nucleus, the first image area 51 represents an image area corresponding to a plurality of cell nuclei.
  • the second image area 52 is an image area corresponding to the structure group A. Since the cell structure group A corresponds to the structure group A, the second image area 52 represents the image area corresponding to the cell structure group A.
  • the refractive index of the cell nucleus may be set in the first refractive index region 81. Since the cell structure group A corresponds to the structure group A, the refractive index of the cell structure group A may be set in the second refractive index region 82. As described above, the cell structure group A includes a cytoplasm, a cell membrane, and a cell adhesion molecule. Since the cell membrane region and the cell adhesion molecule region are narrow, the second refractive index region 82 may be set to the refractive index of the cytoplasm.
  • the specimen may be other than a biological specimen.
  • the specimen may be a foreign object or solder on a semiconductor substrate.
  • the refractive index distribution generation device of this embodiment can improve the accuracy of refractive index distribution in foreign matter and solder on a semiconductor substrate.
  • the first setting process includes setting the first refraction at a position corresponding to a first image area composed of first unit pixels having a signal intensity value larger than a threshold value among unit pixels.
  • the second setting process sets a refractive index based on the second refractive index information at a position corresponding to an image area composed of second unit pixels whose signal strength value is less than or equal to a threshold value among the unit pixels. It is preferable to set a refractive index based on
  • FIG. 5 is a diagram showing a processing target image and a refractive index distribution image.
  • FIG. 5(a) is a diagram showing an image to be processed.
  • FIG. 5(b) is a diagram showing a part of the processing target image.
  • FIG. 5(c) is a diagram showing a part of the refractive index distribution image.
  • FIG. 5(d) is a diagram showing a refractive index distribution image. Since FIG. 5(a) is the same as FIG. 3(a), description of FIG. 5(a) will be omitted.
  • a refractive index based on the first refractive index information is set at a position corresponding to a first image area made up of first unit pixels whose signal strength value is larger than a threshold value among the unit pixels.
  • a refractive index based on the second refractive index information is set at a position corresponding to an image area made up of second unit pixels whose signal strength value is equal to or less than the threshold value among the unit pixels.
  • FIG. 5(b) shows an enlarged image of a part of the processing target image, the signal strength in the Z-axis direction, and the signal strength in the X-axis direction.
  • the first image area is represented by an ellipse for ease of viewing. However, in reality, the first image area has a complex shape.
  • the processing target image 90 has a first image area 91 and a second image area 92.
  • the second image area 92 is different from the first image area 91.
  • the first image area 91 is the first image area 51 in FIG. 5(a). Since the first image area 51 is an image area corresponding to the first structure, the first image area 91 is an image area corresponding to the first structure.
  • the second image area 92 is the second image area 52 in FIG. 5(a). Since the second image area 52 is an image area corresponding to the structure group A, the second image area 92 is an image area corresponding to the structure group A.
  • the first image area 91 can be determined based on the signal intensity of the first unit pixel.
  • a signal intensity greater than the threshold value ITH among the signal intensities of the unit pixels is used as the signal intensity of the first unit pixel.
  • ⁇ Z1 and ⁇ X1 indicate the area of the first unit pixel.
  • the second image area 92 can be determined based on the signal intensity of the second unit pixel.
  • the signal intensity below the threshold value ITH among the signal intensities of the unit pixels is used as the signal intensity of the second unit pixel.
  • ⁇ Z2 and ⁇ X2 indicate the area of the second unit pixel.
  • the position of the first image area 91 is determined from the position of the ellipse. Since the second image area 92 is an area excluding the first image area 91, the position of the second image area 92 can be determined if the position of the first image area 91 is determined.
  • the refractive index setting may be performed using an image other than the processing target image, for example, a refractive index distribution image.
  • FIG. 5(c) shows an enlarged image of a part of the refractive index distribution image, the refractive index distribution in the Z-axis direction, and the refractive index distribution in the X-axis direction.
  • the refractive index distribution image 100 has a first refractive index region 101 and a second refractive index region 102.
  • the refractive index distribution image 100 is an image expressed by a refractive index, it is possible to set a refractive index based on the first refractive index information and a refractive index based on the second refractive index information.
  • a refractive index based on the first refractive index information and a refractive index based on the second refractive index information are required.
  • the first refractive index information is information indicating the refractive index of the first structure.
  • the image area corresponding to the first structure is the first image area 91. In order to set the refractive index based on the first refractive index information, it is sufficient to find an area corresponding to the first image area 91 in the refractive index distribution image 100.
  • the second refractive index information is information indicating the refractive index of the second structure.
  • the second structure is included in structure group A.
  • the image area corresponding to structure group A is the second image area 92. In order to set the refractive index based on the second refractive index information, it is sufficient to find an area corresponding to the second image area 92 in the refractive index distribution image 100.
  • the first refractive index area 101 is an area corresponding to the first image area 91. Therefore, the refractive index based on the first refractive index information may be set in the first refractive index region 101.
  • the first refractive index region 102 is a region corresponding to the second image region 92. Since the second image area 92 is an image area corresponding to the structural group A, the second refractive index area 102 is an image area corresponding to the structural group A. Structure group A includes the second structure. Therefore, a refractive index based on the second refractive index information may be set in the second refractive index region 102.
  • the first refractive index region 101 corresponds to the first image region 91.
  • the position of the first image region 91 is determined based on the signal strength of a unit pixel of the processing target image 90, that is, the signal strength greater than the threshold value ITH. Therefore, the position of the first refractive index region 101 may be determined based on the signal intensity greater than the threshold value ITH.
  • a refractive index based on the first refractive index information may be set at the position obtained in this manner.
  • the second refractive index region 102 corresponds to the second image region 92.
  • the position of the second image area 92 is determined based on the signal intensity of the unit pixel of the processing target image 90, that is, the signal intensity that is equal to or less than the threshold value ITH. Therefore, the position of the second refractive index region 102 may be determined based on the signal intensity below the threshold value ITH.
  • a refractive index based on the second refractive index information may be set at the position obtained in this manner.
  • a refractive index distribution image 110 is shown in FIG. 5(d).
  • the refractive index distribution image 110 has a first refractive index region 111 and a second refractive index region 112.
  • the refractive index distribution image 110 is an image corresponding to the processing target image 50.
  • the processing target image 50 has a plurality of first image regions 51 . Therefore, the refractive index distribution image 110 also has a plurality of first refractive index regions 111.
  • a refractive index distribution generation process is performed using the processing target image 50.
  • the image to be processed 50 is an image obtained by photographing an optical image of a specimen.
  • the processor 3 executes refractive index distribution generation processing using an image of the specimen as a processing target image.
  • the refractive index distribution generation process includes a first correction process that improves the brightness at a deep position of the specimen relative to the brightness at a shallow position of the specimen. It is preferable that the first setting process sets the refractive index based on the first refractive index information based on the signal strength of the unit pixel of the processing target image in which the brightness at a deep position has been improved.
  • the processing target image is an image in which the depth of the specimen increases along the direction from one end to the other end, and one end is on the opposite side of the other end across the center of the processing target image.
  • FIG. 6 is a flowchart of the processing performed by the processor. Descriptions of processes that are the same as those shown in FIG. 4 will be omitted.
  • the refractive index distribution generation process includes an input process, a first setting process, a second setting process, and a first correction process.
  • the first correction process is executed before executing the first setting process.
  • a first correction process is performed.
  • the image to be processed in the first correction process is an image in which the depth of the specimen increases in the direction from one end to the other end. One end is on the opposite side of the other end across the center of the image to be processed.
  • the brightness at the deep position of the specimen is improved compared to the brightness at the shallow position of the specimen.
  • FIG. 7 is a diagram showing an image to be processed.
  • FIG. 7A is a diagram showing the processing target image in the first pre-correction state.
  • FIG. 7(b) is a diagram showing the signal strength in the state before the first correction.
  • FIG. 7C is a diagram showing the processing target image in the first post-correction state.
  • FIG. 7(d) is a diagram showing the signal strength in the state after the first correction.
  • the first pre-correction state is a state before the first correction process is performed.
  • the first post-correction state is a state after performing the first correction process.
  • the side closest to the observation optical system is the top side of the specimen, and the side far from the observation optical system is the bottom side of the specimen.
  • the processing target image 120 is an XZ image
  • the right end of the processing target image 120 represents an image of the top surface of the specimen
  • the left end of the image represents an image of the bottom surface of the specimen.
  • the depth of the specimen increases from the right edge of the image to the left edge of the image.
  • the processing target image 120 has a first image area 121 and a second image area 122.
  • the depth from the top of the specimen increases toward the left edge of the image.
  • the first image area 121 is located to the left of the second image area 122. Therefore, the first image area 121 is located deeper than the second image area 122.
  • the processing target image 120 shown in FIG. 7(a) is an image in the first pre-correction state. Since this is a state before the first correction process is performed, in the processing target image 120, the brightness of the first image area 121 is darker than the brightness of the second image area 122. Since brightness is expressed by signal intensity, the signal intensity of the first image area 121 is smaller than the signal intensity of the second image area 122, as shown in FIG. 7(b).
  • the brightness of the first image area 121 and the brightness of the second image area 122 are each drawn with uniform brightness. However, as shown in FIG. 7B, the brightness of the first image area 121 and the brightness of the second image area 122 are not uniform.
  • the processing target image 130 shown in FIG. 7(c) is an image in the first corrected state.
  • the processing target image 130 has a first image area 131 and a second image area 132.
  • the first image area 131 corresponds to the first image area 121
  • the second image area 132 corresponds to the second image area 121 .
  • the brightness of the first image area 131 is the same as the brightness of the second image area 132 in the image to be processed 130. Since brightness is expressed by signal intensity, the signal intensity of the first image area 131 is the same as the signal intensity of the second image area 132, as shown in FIG. 7(d). The brightness of the first image area 131 and the brightness of the second image area 132 are not uniform.
  • step S110 ends, step S201 is executed.
  • Step S201 is a first setting process. Since the first correction process has been performed, the first setting process is performed on the processing target image 130. In the first setting process, the refractive index is set based on the signal strength of the unit pixel of the processing target image 130.
  • the processing target image 130 is a processing target image with improved brightness in deep positions. Therefore, in step S201, the refractive index is set based on the signal strength of the unit pixel of the processing target image in which the brightness at a deep position has been improved.
  • the first image area is drawn as an ellipse for convenience.
  • the first image area actually has a complicated shape.
  • the refractive index distribution generation process includes a second correction process of correcting the first refractive index information and generating corrected refractive index information based on the signal strength of the first unit pixel.
  • the second correction process includes correction refraction in which the refractive index corresponding to the first unit pixel whose signal strength is less than the maximum signal strength is smaller than the refractive index corresponding to the unit pixel having the maximum signal strength among the first unit pixels. It is preferable that the refractive index information is generated and the first setting process sets the refractive index indicated by the corrected refractive index information at a position corresponding to the first image area.
  • FIG. 8 is a flowchart of the processing performed by the processor. Descriptions of processes that are the same as those shown in FIG. 4 will be omitted.
  • the refractive index distribution generation process includes an input process, a first setting process, a second setting process, and a second correction process.
  • the second correction process is executed before executing the first setting process.
  • step S120 a second correction process is performed.
  • the first refractive index information is corrected based on the signal strength of the first unit pixel, and corrected refractive index information is generated.
  • FIG. 9 is a diagram showing a processing target image and a refractive index distribution image.
  • FIG. 9(a) is a diagram showing an image to be processed.
  • FIG. 9(b) is a diagram showing a part of the processing target image.
  • FIG. 9(c) is a diagram showing a part of the refractive index distribution image.
  • FIG. 9(d) is a diagram showing a refractive index distribution image.
  • 9(a) is the same as FIG. 5(a)
  • FIG. 9(b) is the same as FIG. 5(b), so a description of FIGS. 9(a) and 9(b) will be omitted.
  • the first unit pixel is a pixel that has a signal intensity greater than the threshold value ITH among the signal intensities of the unit pixels. As shown in FIG. 9(b), the first image area 91 can be determined based on the signal intensity of the first unit pixel.
  • ⁇ Z1 and ⁇ X1 indicate the area of the first unit pixel.
  • the first unit pixel region includes a unit pixel with a maximum signal strength and a unit pixel with a signal strength less than the maximum signal strength.
  • corrected refractive index information is generated.
  • the signal strength Imax is the maximum signal strength in the region of the first unit pixel.
  • the signal strength ITH is the threshold signal strength.
  • the refractive index n1 is smaller than the refractive index n2.
  • the refractive index n1 is made to correspond to the signal intensity ITH
  • the refractive index n2 is made to correspond to the signal intensity Imax.
  • step S120 ends, step S201 is executed.
  • step S201 a first setting process is executed.
  • the refractive index is set.
  • the refractive index setting may be performed using an image other than the processing target image, for example, a refractive index distribution image.
  • FIG. 9(c) shows an enlarged image of a part of the refractive index distribution image, the refractive index distribution in the Z-axis direction, and the refractive index distribution in the X-axis direction.
  • the refractive index distribution image 140 has a first refractive index region 141 and a second refractive index region 142.
  • the refractive index distribution image 140 is an image expressed by a refractive index, it is possible to set a refractive index based on corrected refractive index information. In order to set the refractive index, an area for setting the refractive index based on the corrected refractive index information is required.
  • the corrected refractive index information is information obtained by correcting the first refractive index information.
  • the first refractive index information is information indicating the refractive index of the first structure.
  • the image area corresponding to the first structure is the first image area 91. In order to set the refractive index based on the corrected refractive index information, it is sufficient to find an area corresponding to the first image area 91 in the refractive index distribution image 140.
  • the first refractive index area 141 is an area corresponding to the first image area 91.
  • the second refractive index area 142 is an area corresponding to the second image area 92. Therefore, a refractive index based on the corrected refractive index information may be set in the first refractive index region 141.
  • the first refractive index region 141 corresponds to the first image region 91.
  • the position of the first image region 91 is determined based on the signal strength of a unit pixel of the processing target image 90, that is, the signal strength greater than the threshold value ITH. Therefore, the position of the first refractive index region 141 may be determined based on the signal strength greater than the threshold value ITH.
  • a refractive index based on the corrected refractive index information may be set at the position obtained in this manner.
  • a refractive index distribution image 150 is shown in FIG. 9(d).
  • the refractive index distribution image 150 has a first refractive index region 151 and a second refractive index region 152.
  • the refractive index distribution image 150 is an image corresponding to the processing target image 50.
  • the processing target image 50 has a plurality of first image regions 51 . Therefore, the refractive index distribution image 150 also has a plurality of first refractive index regions 151.
  • the first refractive index region 71 can be represented by a refractive index between n1 and n2.
  • the refractive index distribution generation process includes a first correction process that improves the brightness at a deep position of the specimen relative to the brightness at a shallow position of the specimen. It is preferable that the first setting process corrects the first refractive index information corresponding to the first image area of the processing target image in which the brightness at a deep position has been improved to generate corrected refractive index information.
  • the processing target image is an image in which the depth of the specimen increases along the direction from one end to the other end, and one end is on the opposite side of the other end across the center of the processing target image.
  • FIG. 10 is a flowchart of the processing performed by the processor. Descriptions of processes that are the same as those shown in FIGS. 6 and 8 will be omitted.
  • step S110 a first correction process is performed.
  • the brightness of the first image area that is deep from the top surface is improved relative to the brightness of the first image area that is shallow from the top surface. As a result, a first image area with improved brightness is obtained.
  • step S120 is executed.
  • step S120 a second correction process is performed.
  • the first correction process a first image area with improved brightness is obtained. Therefore, in the second correction process, the first refractive index information corresponding to the first image area whose brightness has been improved is corrected, and corrected refractive index information is generated.
  • step S201 is executed.
  • step S201 a first setting process is executed. Corrected refractive index information is generated in the second correction process. Therefore, in the first setting process, the refractive index indicated by the corrected refractive index information is set at the position corresponding to the first image area after the brightness has been improved.
  • the first setting process sets the refractive index indicated by the first refractive index information at a position corresponding to a first image area constituted by a first unit pixel. .
  • FIG. 11 is a diagram showing an image to be processed.
  • FIG. 11A is a diagram showing a processing target image before processing.
  • FIG. 11(b) is a diagram showing a part of the processing target image before processing.
  • FIG. 11(c) is a diagram showing a part of the processing target image after processing.
  • FIG. 11(d) is a diagram showing the processed image after processing.
  • 11(a) is the same as FIG. 3(a)
  • FIG. 11(b) is the same as FIG. 3(b), so a description of FIGS. 11(a) and 11(b) will be omitted.
  • the first image area 91 and the second image area 92 are each represented by signal intensities of various sizes. Therefore, binarization processing is performed on the processing target image 90.
  • the first image area 161 and the second image area 162 are each represented by a signal intensity of one magnitude.
  • the signal strength in the first image area 161 is greater than the signal strength in the second image area 162.
  • a processing target image 170 is obtained as shown in FIG. 11(d).
  • the processing target image 170 all the first image areas 171 and second image areas 172 have been binarized.
  • the refractive index indicated by the first refractive index information is set at a position corresponding to the binarized first image area 171.
  • the refractive index distribution generation process includes a first correction process that improves the brightness at a deep position of the specimen relative to the brightness at a shallow position of the specimen. It is preferable that the first setting process sets the refractive index indicated by the first refractive index information at a position corresponding to the first image area of the processing target image where the brightness at a deep position has been improved.
  • the processing target image is an image in which the depth of the specimen increases along the direction from one end to the other end, and one end is on the opposite side of the other end across the center of the processing target image.
  • Step S110 may be executed before executing the binarization process.
  • step S110 a first correction process is performed.
  • step S201 is executed.
  • step S201 a first setting process is executed.
  • the refractive index indicated by the first refractive index information is set at a position corresponding to the binarized first image area.
  • the first correction process improves the brightness of the image area closer to the other end.
  • the accuracy of the refractive index distribution of the sample can be improved.
  • the input process inputs third refractive index information indicating the refractive index of the third structure from the memory, and the setting process inputs the refractive index based on the third refractive index information.
  • the second setting process includes setting a position corresponding to a third image area of the processing target image based on the signal intensity and color information of a unit pixel of the processing target image, and the second setting process sets second refractive index information at a position corresponding to a third image area of the processing target image.
  • the refractive index based on the refractive index at a position corresponding to an image area different from the first image area of the image to be processed, and at a position corresponding to an image area different from the third image area of the image to be processed.
  • the third image area is an image area corresponding to the third structure.
  • FIG. 12 is a diagram showing an image to be processed.
  • FIG. 12(a) is a diagram showing the first image area.
  • FIG. 12(b) is a diagram showing the third image area.
  • the specimen has a first structure, a second structure, and a third structure.
  • the first structure and the third structure are stained with a fluorescent dye.
  • the second structure is not stained with fluorescent dye.
  • the fluorescence image of the first structure is formed by fluorescence having a wavelength ⁇ 1. Since the second structure is not stained with a fluorescent dye, no fluorescent image of the second structure is formed. Since the third structure is stained with a fluorescent dye, a fluorescent image of the third structure is formed. The fluorescent dye that stained the third structure is different from the fluorescent dye that stained the first structure. The fluorescence image of the third structure is formed by fluorescence of wavelength ⁇ 3.
  • the processing target image 180 shown in FIG. 12(a) is an optical image of the specimen.
  • the image to be processed 180 is an image acquired through an optical filter F ⁇ 1.
  • the processing target image 180 has a first image area 181 and an image area 182.
  • the first image area 181 is an image area corresponding to the light transmitted through the optical filter F ⁇ 1. Since the light forming the fluorescence image of the first structure is fluorescence of wavelength ⁇ 1, it is transmitted through the optical filter F ⁇ 1. Therefore, the first image area 181 is an image area corresponding to the first structure. Since the processing target image 180 includes a plurality of images of the first structure, the processing target image 180 has a plurality of first image regions 181.
  • the image area 182 is an image area corresponding to light that has not passed through the optical filter F ⁇ 1.
  • Structures other than the first structure are defined as structure group B.
  • Structure group B includes a second structure and a third structure. Since no fluorescent image of the second structure is formed, no light is transmitted through the optical filter F ⁇ 1. Since the light forming the fluorescence image of the third structure is fluorescence of wavelength ⁇ 3, it does not pass through the optical filter F ⁇ 1. Therefore, the image area 182 is an image area corresponding to structure group B. Since the structure group B is different from the first structure, the image region 182 is different from the first image region 181.
  • the processing target image 190 shown in FIG. 12(b) is an optical image of the specimen.
  • the image to be processed 190 is an image acquired through an optical filter (hereinafter referred to as "optical filter F ⁇ 3") that transmits only fluorescence of wavelength ⁇ 3.
  • optical filter F ⁇ 3 an optical filter that transmits only fluorescence of wavelength ⁇ 3.
  • the processing target image 190 has a third image area 191 and an image area 192.
  • the third image area 191 is an image area corresponding to the light transmitted through the optical filter F ⁇ 3. Since the light forming the fluorescence image of the third structure is fluorescence having a wavelength ⁇ 3, it is transmitted through the optical filter F ⁇ 3. Therefore, the third image area 191 is an image area corresponding to the third structure.
  • the image area 192 is an image area corresponding to light that has not passed through the optical filter F ⁇ 3.
  • Structures other than the third structure are defined as structure group C.
  • Structure group C includes a first structure and a second structure. Since the light forming the fluorescence image of the first structure is fluorescence of wavelength ⁇ 1, it does not pass through the optical filter F ⁇ 3. Since no fluorescent image of the second structure is formed, no light is transmitted through the optical filter F ⁇ 3. Therefore, the image area 192 is an image area corresponding to the structure group C. Since the structure group C is different from the third structure, the image area 192 is different from the third image area 191.
  • FIG. 13 is a flowchart of the processing performed by the processor. Descriptions of the same processes as those shown in FIG. 3 will be omitted.
  • step S100 input processing is performed.
  • Step S100 includes step S101, step S102, step S103, and step S104.
  • step S104 third refractive index information is input from memory.
  • the third refractive index information is information indicating the refractive index of the third structure.
  • step S200 a setting process is executed.
  • each refractive index making up the refractive index distribution is set.
  • Step S200 includes step S201, step S203, and step S204.
  • step S203 a third setting process is executed.
  • a refractive index based on the third refractive index information is set at a position corresponding to the third image area of the processing target image based on the signal strength and color information of a unit pixel of the processing target image.
  • step S204 a second setting process is executed.
  • the refractive index based on the second refractive index information is set at a position corresponding to an image area different from the first image area of the processing target image, and at a position corresponding to an image area different from the third image area of the processing target image. set to the corresponding position.
  • a signal intensity greater than zero is used as the signal intensity of a unit pixel.
  • the signal intensity is greater than zero.
  • the image area 182 is an area excluding the first image area 181. Therefore, in the unit pixels forming the image area 182, the signal strength is zero.
  • a signal intensity greater than zero is used as the signal intensity of a unit pixel.
  • the signal intensity is greater than zero.
  • the image area 192 is an area excluding the third image area 191. Therefore, in the unit pixels forming the image area 192, the signal strength is zero.
  • the predetermined aggregate be an aggregate with a shape close to a circle and a shape close to an ellipse. Since the first image area 181 is an area represented by a predetermined aggregate, the position of the first image area 181 is determined from the position of the predetermined aggregate. Since the image area 182 is an area excluding the first image area 181, the position of the image area 182 can be determined if the position of the first image area 181 is determined.
  • the position of the third image area 191 can be determined from the position of the mesh pattern. Since the image area 192 is an area excluding the third image area 191, the position of the image area 192 can be determined if the position of the third image area 191 is determined.
  • the refractive index is set.
  • the image to be processed is an optical image of the specimen. Since the optical image of the specimen is an image formed from brightness information, the refractive index may be set using, for example, a refractive index distribution image.
  • the refractive index distribution image is an image expressed in refractive index
  • an area for setting the refractive index based on the first refractive index information, an area for setting the refractive index based on the second refractive index information, and an area for setting the refractive index based on the third refractive index information are required. is necessary.
  • the first refractive index information is information indicating the refractive index of the first structure.
  • the image area corresponding to the first structure is the first image area 181. In order to set the refractive index based on the first refractive index information, it is sufficient to find an area corresponding to the first image area 181 in the refractive index distribution image.
  • the third refractive index information is information indicating the refractive index of the third structure.
  • the image area corresponding to the third structure is the third image area 191. In order to set the refractive index based on the third refractive index information, it is sufficient to find an area corresponding to the third image area 191 in the refractive index distribution image.
  • the second refractive index information is information indicating the refractive index of the second structure.
  • the second structure is included in structure group B and structure group C.
  • the image area corresponding to structure group B is image area 182
  • the image area corresponding to structure group C is image area 192.
  • structure group B includes the third structure
  • structure group C includes the first structure. Therefore, in order to obtain the image area including the second structure, the third image area 191 may be removed from the image area 182 or the first image area 181 may be removed from the image area 192.
  • the area remaining after the exclusion (hereinafter referred to as "remaining area A") includes an image area corresponding to the second structure. In order to set the refractive index based on the second refractive index information, it is sufficient to find an area corresponding to the remaining area A in the refractive index distribution image.
  • the position of the area corresponding to the first image area 181, the position of the area corresponding to the remaining area A, and the area corresponding to the third image area 191 must be set. It is necessary to find the position of
  • the position of the first image area 181 is determined based on the signal intensity of the unit pixel of the image to be processed 180. Therefore, the position of the area corresponding to the first image area 181 may be determined based on the signal intensity of the unit pixel of the processing target image 180.
  • a refractive index based on the first refractive index information may be set at the position obtained in this manner.
  • the position of the third image area 191 is determined based on the signal intensity of the unit pixel of the image to be processed 190. Therefore, the position of the area corresponding to the third image area 191 may be determined based on the signal intensity of the unit pixel of the processing target image 190.
  • a refractive index based on the third refractive index information may be set at the position obtained in this manner.
  • the area corresponding to the remaining area A is found by excluding the area corresponding to the first image area 181 and the area corresponding to the third image area 191 in the refractive index distribution image. Therefore, the position corresponding to the remaining area A may be determined based on the position of the area corresponding to the first image area 181 and the position of the area corresponding to the third image area 191.
  • a refractive index based on the second refractive index information may be set at the position obtained in this manner.
  • a color image sensor or a monochrome image sensor can be used as the image sensor.
  • the light that forms the fluorescent image of the third structure is the fluorescent light of wavelength ⁇ 3
  • the light that forms the fluorescent image of the first structure is the fluorescent light of wavelength ⁇ 1. Since the wavelength ⁇ 3 is different from the wavelength ⁇ 1, the color of the fluorescent image of the third structure and the color of the fluorescent image of the first structure are different.
  • the fluorescent image of the third structure and the fluorescent image of the first structure can be distinguished by color. Therefore, the position corresponding to the third image area of the image to be processed can be determined based on the color information.
  • the fluorescent image of the third structure and the fluorescent image of the first structure cannot be distinguished by color.
  • the third image area is an image area corresponding to the light transmitted through the optical filter F ⁇ 3
  • the first image area is an image area corresponding to the light transmitted through the optical filter F ⁇ 1.
  • the color of optical filter F ⁇ 3 is different from the color of optical filter F ⁇ 1.
  • the fluorescent image of the third structure and the fluorescent image of the first structure can be distinguished by the color of the optical filter. Therefore, the position corresponding to the third image area of the image to be processed can be determined based on the color information.
  • the input process inputs fourth refractive index information indicating the refractive index of the medium surrounding the specimen from the memory, and the refractive index distribution generation process identifies the boundary between the specimen and the medium.
  • the setting process preferably includes a third setting process of setting a refractive index based on the fourth refractive index information to a position corresponding to the fourth image area of the processing target image.
  • the fourth image area is an image area corresponding to the medium.
  • FIG. 14 is a diagram showing an image to be processed.
  • FIG. 14(a) is a diagram showing the first image area.
  • FIG. 14(b) is a diagram showing the fourth image area.
  • the specimen has a first structure and a second structure.
  • the specimen is surrounded by a medium, such as a culture medium.
  • the first structure is stained with a fluorescent dye.
  • the second structure and medium are not stained with fluorescent dye.
  • the fluorescence image of the first structure is formed by fluorescence having a wavelength ⁇ 1. Since the second structure and the medium are not stained with a fluorescent dye, no fluorescent image of the second structure and medium is formed.
  • the processing target image 200 shown in FIG. 12(a) is an optical image of a specimen.
  • the processing target image 200 is an image acquired through an optical filter F ⁇ 1.
  • the processing target image 200 has a first image area 201 and an image area 202.
  • the first image area 201 is an image area corresponding to the light transmitted through the optical filter F ⁇ 1. Since the light forming the fluorescence image of the first structure is fluorescence of wavelength ⁇ 1, it is transmitted through the optical filter F ⁇ 1. Therefore, the first image area 201 is an image area corresponding to the first structure. Since the image to be processed 200 includes a plurality of images of the first structure, the image to be processed 200 has a plurality of first image regions 201 .
  • the image area 202 is an image area corresponding to light that has not passed through the optical filter F ⁇ 1. Since a fluorescence image of structure group A and a fluorescence image of the medium are not formed, no light passes through the optical filter F ⁇ 1. Therefore, the image area 202 is an image area corresponding to the structure group A and the medium. The image area 202 is different from the first image area 201 because the structure group A and the medium are different from the first structure.
  • the processing target image 210 shown in FIG. 12(b) is an optical image of the medium.
  • the optical image of the medium can be estimated from a bright field image, for example.
  • the processing target image 210 has a fourth image area 211 and an image area 212.
  • the fourth image area 211 is an image area corresponding to the medium.
  • Image area 212 is an image area corresponding to the specimen.
  • the outer edge of the image area 212 can be considered to represent the general shape of the entire specimen.
  • FIG. 15 is a flowchart of the processing performed by the processor. Descriptions of the same processes as those shown in FIG. 3 will be omitted.
  • step S100 input processing is performed.
  • Step S100 includes step S101, step S102, step S103, and step S105.
  • step S105 fourth refractive index information is input from the memory.
  • the fourth refractive index information is information indicating the refractive index of the medium surrounding the specimen.
  • step S130 specific processing is executed.
  • the identification process the boundary between the specimen and the medium is identified.
  • step S200 is executed.
  • step S200 a setting process is executed.
  • each refractive index making up the refractive index distribution is set.
  • Step S200 includes step S201, step S202, and step S205.
  • step S205 a fourth setting process is executed.
  • the refractive index based on the fourth refractive index information is set at a position corresponding to the fourth image area of the processing target image.
  • a signal intensity greater than zero is used as the signal intensity of a unit pixel.
  • the signal intensity is greater than zero.
  • the image area 202 is an area excluding the first image area 201. Therefore, in the unit pixels forming the image area 202, the signal strength is zero.
  • the position of the first image area 201 is determined from the position of the predetermined aggregate. Since the image area 202 is an area excluding the first image area 201, the position of the image area 202 can be determined if the position of the first image area 201 is determined.
  • the position of the fourth image area 211 is determined from the position of the boundary. Since the image area 212 is an area excluding the fourth image area 211, the position of the image area 212 can be determined if the position of the fourth image area 211 is determined.
  • the refractive index is set.
  • the image to be processed is an optical image of the specimen. Since the optical image of the specimen is an image formed from brightness information, the refractive index may be set using, for example, a refractive index distribution image.
  • the refractive index distribution image is an image expressed in refractive index
  • an area for setting the refractive index based on the first refractive index information, an area for setting the refractive index based on the second refractive index information, and an area for setting the refractive index based on the fourth refractive index information are required. is necessary.
  • the first refractive index information is information indicating the refractive index of the first structure.
  • the image area corresponding to the first structure is the first image area 201. In order to set the refractive index based on the first refractive index information, it is sufficient to find a region corresponding to the first image region 201 in the refractive index distribution image.
  • the fourth refractive index information is information indicating the refractive index of the medium.
  • the image area corresponding to the medium is the fourth image area 211. In order to set the refractive index based on the fourth refractive index information, it is sufficient to find an area corresponding to the fourth image area 211 in the refractive index distribution image.
  • the second refractive index information is information indicating the refractive index of the second structure.
  • the second structure is included in structure group A.
  • the image area including structure group A is image area 202. However, in the image area 202, it is not possible to distinguish between the image area corresponding to the structure group A and the image area corresponding to the medium.
  • the image area corresponding to the medium is the fourth image area 211.
  • the image area corresponding to the first structure is the first image area 201. Therefore, in order to obtain an image area including the second structure, it is sufficient to remove the first image area 201 and the fourth image area 211 from the image area 202.
  • the area remaining after the exclusion (hereinafter referred to as "remaining area B") includes an image area corresponding to the second structure. In order to set the refractive index based on the second refractive index information, it is sufficient to find a region corresponding to the remaining region B in the refractive index distribution image.
  • the position of the area corresponding to the first image area 201, the position of the area corresponding to the residual area B, and the area corresponding to the fourth image area 211 must be set. It is necessary to find the position of
  • the position of the first image area 201 is determined based on the signal intensity of the unit pixel of the image 200 to be processed. Therefore, the position of the area corresponding to the first image area 201 may be determined based on the signal intensity of the unit pixel of the processing target image 200.
  • a refractive index based on the first refractive index information may be set at the position obtained in this manner.
  • the position of the fourth image area 211 is determined based on the boundary between the specimen and the medium in the processing target image 210. Therefore, the position of the area corresponding to the fourth image area 211 may be determined based on the boundary between the specimen and the medium in the processing target image 210.
  • a refractive index based on the fourth refractive index information may be set at the position obtained in this manner.
  • the area corresponding to the residual area B is found by excluding the area corresponding to the first image area 201 and the area corresponding to the fourth image area 211 in the refractive index distribution image. Therefore, the position corresponding to the remaining area B is determined from the position of the area corresponding to the first image area 201 and the position of the area corresponding to the fourth image area 211.
  • a refractive index based on the second refractive index information may be set at the position obtained in this manner.
  • the first refractive index information and the second refractive index information are refractive index information regarding the compositional structure of cells.
  • the accuracy of the refractive index distribution of the sample can be improved.
  • the first refractive index information is the refractive index information of the cell nucleus
  • the second refractive index information is the refractive index information of the cell membrane
  • the accuracy of the refractive index distribution of the sample can be improved.
  • the third refractive index information is refractive index information of cell adhesion molecules.
  • the accuracy of the refractive index distribution of the sample can be improved.
  • the fourth refractive index information is refractive index information of the cell culture solution.
  • the accuracy of the refractive index distribution of the sample can be improved.
  • the processor preferably executes image generation processing to generate a processed image corresponding to the image to be processed.
  • Image generation processing includes a division process that divides the image to be processed into multiple small image areas, and a point spread intensity distribution calculation process that uses the refractive index distribution of the image to be processed to calculate a point spread intensity distribution for each small image area.
  • a small image generation process that generates a small image for each small image area using the point spread intensity distribution for each small image area, and a synthesis process that combines the small images for each small image area to generate a processed image.
  • a synthesis process that combines the small images for each small image area to generate a processed image.
  • the point spread intensity distribution calculation process is performed for each small image area on the fifth image located within the range in which the wavefront propagates on the processing target image starting from the small image area.
  • a point spread intensity distribution is calculated using a refractive index distribution set at a position corresponding to the area, and the fifth image area is a sixth image area obtained by extending the small image area in a predetermined direction for each small image area. It is preferable to include image areas outside the range of .
  • the predetermined direction is a direction from the specimen toward the observation optical system among the optical axis directions of the observation optical system modeled in the calculation process.
  • the processing target image 50 in FIG. 3(a) is an image of an XZ cross section.
  • the right end of the image represents an image of the top surface of the specimen
  • the left end of the image represents an image of the bottom surface of the specimen.
  • the depth of the specimen increases from the right edge of the image to the left edge of the image.
  • the first image area 51 represents an image area corresponding to a plurality of cell nuclei.
  • the shape of the cell nucleus is a sphere
  • the shape of the XZ cross section is a circle. Therefore, the shape of the XZ cross section of a cell nucleus is originally a circle regardless of the depth from the top surface.
  • the shape of the first image area 51 becomes more deformed from a circle as the depth from the top surface increases.
  • the image of the optical image is obtained by photographing the optical image.
  • the fact that image quality has deteriorated in the optical image means that the optical image has deteriorated.
  • the optical image is preferably a point image.
  • the optical system In order for a point image to be formed, the optical system must be an aberration-free optical system (hereinafter referred to as an "ideal optical system"), and all of the light emitted from the point light source must be incident on the optical system. It is.
  • the size of the optical system is finite, it is not possible to input all the light emitted from the point light source into the optical system. In this case, the optical image is affected by diffraction. As a result, even if the optical system is an ideal optical system, a point image is not formed, but a spread image is formed. An image with a spread is called a point spread intensity distribution.
  • the optical image is expressed by the following equation (1) using a point spread intensity distribution.
  • I O*PSF (1) here, I is an optical image, O is the specimen; PSF is point spread intensity distribution, * is convolution, It is.
  • equation (1) expresses that the optical image is obtained through a filter called the point spread intensity distribution.
  • Deterioration in the optical image means that the filter, that is, the point spread intensity distribution, has characteristics (hereinafter referred to as "deterioration characteristics") that cause deformation, decrease in sharpness, and decrease in brightness. It means that there is.
  • equation (1) is expressed by equation (2) below.
  • FI FO ⁇ OTF (2) here, FI is Fourier transform of optical image, FO is the Fourier transform of the sample, OTF is optical transfer function, It is.
  • OTF is a Fourier transform of a point spread intensity distribution. If the point spread intensity distribution has deterioration characteristics, the OTF also has deterioration characteristics.
  • formula (2) When formula (2) is transformed, formula (2) is expressed by the following formula (3).
  • FO FI/OTF (3)
  • FO can be determined. Then, O can be obtained by performing an inverse Fourier transform on FO. O is a specimen. This operation is called deconvolution.
  • the image to be processed 50 is an optical image of a cell nucleus.
  • the processing target image 50 only the cell nucleus is imaged. Therefore, when deconvolution is performed using the processing target image 50 and the OTF image, only the image of the cell nucleus is obtained.
  • the specimen Since the specimen is a cell mass, it has multiple cytoplasms and multiple cell nuclei. However, in the processing target image 50, even if deconvolution is performed, only an image of the cell nucleus can be obtained. Since an image of the cytoplasm cannot be obtained, it is difficult to say that the specimen has been obtained. The specimen is found by performing deconvolution, but whether or not the specimen is found depends on the optical image.
  • equation (1) represents that the optical image is an image obtained through a filter called point spread intensity distribution.
  • I can be regarded as an optical image whose image quality has deteriorated
  • O can be regarded as an optical image before its image quality has deteriorated.
  • equation (3) represents that an optical image before the image quality deteriorates is generated from an optical image whose image quality has deteriorated.
  • an optical image whose image quality has deteriorated will be referred to as a "degraded image.”
  • the image of the optical image before the image quality deteriorated has undergone image recovery in the image whose image quality has deteriorated. Therefore, the optical image before the image quality deteriorates is called a "recovered image.”
  • n1 be the refractive index on the outside of the specimen
  • n2 be the refractive index on the inside of the specimen.
  • the ideal shape is the shape of the point spread intensity distribution of the ideal optical system.
  • the refractive index between the focusing plane and the ideal optical system matches a predetermined refractive index.
  • first state a state where the specimen is away from the focal plane. Since the optical system does not move, the top surface of the specimen reaches the focal plane. In this state (hereinafter referred to as "first state"), only a space with a refractive index of n1 exists between the focusing surface and the optical system. When a point light source is placed on the focal plane, a point spread intensity distribution in the first state is obtained.
  • the refractive index between the focusing surface and the optical system is n1.
  • the predetermined refractive index is n1
  • the point spread intensity distribution in the first state is obtained based only on the predetermined refractive index. Therefore, the shape of the point spread intensity distribution in the first state is the same as the ideal shape.
  • second state a space with a refractive index of n1 and a space with a refractive index of n2 are located between the focusing surface and the optical system.
  • a point light source is placed on the focal plane, a point spread intensity distribution in the second state is obtained.
  • the refractive index between the focusing surface and the optical system is determined by n1 and n2. Since the predetermined refractive index is n1, n2 is not a predetermined refractive index. In this case, the point spread intensity distribution in the second state is obtained based on a predetermined refractive index and a non-predetermined refractive index. Therefore, the shape of the point spread intensity distribution in the second state is different from the ideal shape.
  • the shape of the point spread intensity distribution changes depending on the width of the space where the refractive index is n2. Therefore, when calculating the point spread intensity distribution, the refractive index distribution in the specimen must be appropriately considered.
  • the refractive index distribution generation device of this embodiment since the image to be processed is a degraded image, it is only necessary to generate a recovered image from the image to be processed. In the restored image, the shape of the first image area is the same regardless of the depth from the top surface. Therefore, a refractive index distribution can be generated more accurately.
  • the restored image In order to generate a restored image, it is necessary to obtain a point spread intensity distribution. In calculating the point spread intensity distribution, the refractive index distribution in the specimen must be appropriately considered.
  • the process of generating a restored image will be explained. In the description of the process of generating a restored image, the restored image will be referred to as a sample image. Further, the restored image is an image after image restoration has been performed (post-processed image).
  • the process of generating a restored image is performed by the processor 3.
  • the processing performed by the processor 3 will be explained.
  • the first image is used.
  • the first image is the processing target image.
  • FIG. 16 is a flowchart of the processing performed by the processor.
  • FIG. 17 is a diagram showing a specimen, an optical image, and a first image.
  • FIG. 17(a) is a diagram showing a specimen and an optical image three-dimensionally.
  • FIG. 17(b) is a diagram showing an XZ cross section of the specimen.
  • FIG. 17(c) is a diagram showing the first image.
  • FIG. 17(d) is a diagram showing the XZ cross section of the specimen and the first image.
  • Components that are the same as those in FIG. 2(a) are given the same numbers, and explanations thereof will be omitted.
  • the first image is generated from the XY image group.
  • the XY image group is obtained from multiple optical images. As shown in FIG. 17(a), when the observation optical system 221 is moved along the optical axis 222 without moving the specimen 220, a plurality of optical images are formed.
  • an optical image IZ1 of the specimen OZ1 is formed.
  • an optical image IZ7 of specimen OZ7 is formed.
  • An optical image 230 is formed by optical images from optical image IZ1 to optical image IZ7. By photographing the optical image 230, an XY image group can be obtained.
  • An XY image, an XZ image, and a YZ image can be generated from the XY image group. Any of the XY image, XZ image, and YZ image can be used as the first image. Assume that an XZ image is stored in memory as the first image.
  • step S300 a first acquisition process is executed.
  • a first image is acquired from memory.
  • the first image is an optical image in the XZ cross section of the specimen.
  • FIG. 17(b) shows an XZ cross section of the specimen 240.
  • Specimen 240 is a cell mass.
  • a cell cluster is formed of multiple cells.
  • Each cell in the specimen 240 has a cytoplasm 241 and a cell nucleus 242.
  • FIG. 17(c) shows the first image acquired from the memory.
  • the first image 250 is a fluorescent image.
  • specimen 240 only cell nuclei 242 are stained with fluorescence.
  • the first image 250 includes only the image 251 of the cell nucleus.
  • step S310 is executed.
  • step S310 division processing is performed.
  • the acquired first image is divided into a plurality of areas.
  • the first image 250 is divided into 11 areas in both the X-axis direction and the Z-axis direction. Each area is a small image region.
  • observation optical system and light rays are illustrated for convenience in order to show the correspondence between the specimen 240 and the first image 250.
  • the observation optical system 221' is a virtual optical system, and has the same optical specifications as the observation optical system 221.
  • the top and bottom of the optical image of the specimen are opposite to the top and bottom of the specimen. Since the first image 250 is an image, it can be turned upside down when the first image 250 is generated. Therefore, in FIG. 17(d), the top and bottom of the specimen 240 and the top and bottom of the first image 250 match.
  • step S320 is executed.
  • step S320 a second acquisition process is executed.
  • the refractive index distribution of the specimen is acquired from the memory. Acquisition of the refractive index distribution will be described later.
  • step S330 is executed.
  • step S330 calculation processing is executed.
  • the calculation process is a point spread intensity distribution calculation process.
  • a point spread intensity distribution is calculated for each of the divided areas using the obtained refractive index distribution.
  • the point spread intensity distribution of the first area is calculated using the refractive index distribution of each area included in the area group. Therefore, it is necessary to determine the first area and area group.
  • FIG. 18 is a diagram showing the first image, refractive index image, first area, and area group.
  • FIG. 18(a) is a diagram showing a first image, a refractive index image, and a first area.
  • FIG. 18(b) is a diagram showing a first example of the area group.
  • FIG. 18(c) is a diagram showing a second example of the area group.
  • the first area is the target area for calculating the point spread intensity distribution.
  • the first image 250 is divided into a plurality of areas. Therefore, the first area and area group are determined by the areas in the first image 250.
  • the first image 250 is an optical image of the specimen.
  • the image of the optical image of the specimen has information on brightness, but does not have information on refractive index distribution. Since the point spread intensity distribution is calculated using the refractive index distribution of the area group, the first image 250 is not suitable for calculating the point spread intensity distribution.
  • the first area can be determined, but the area group cannot be determined.
  • the refractive index distribution can be represented as an image.
  • the refractive index distribution of the specimen can be represented by a plurality of distribution images (hereinafter referred to as "distribution image group").
  • the distribution image group represents the refractive index distribution of the specimen. Therefore, an image corresponding to the first image (hereinafter referred to as a "refractive index image”) is obtained from the distribution image group.
  • the point spread intensity distribution is calculated using the refractive index distribution. Since the refractive index image is an image of the refractive index distribution, the refractive index image is suitable for calculating the point spread intensity distribution.
  • the refractive index image may be stored in the memory 2, and the refractive index image may be read from the memory 2 when executing the calculation process. Since the first image is an XZ image, the refractive index image is an image of the XZ cross section.
  • the first image 250 is divided into multiple areas. Therefore, as shown in FIG. 18(a), the refractive index image 260 is also divided into a plurality of areas.
  • the refractive index image 260 is divided into 11 areas in both the X-axis direction and the Z-axis direction. For ease of viewing, only cell nuclei are illustrated in refractive index image 260.
  • the top and bottom of the refractive index image 260 and the top and bottom of the first image 250 match. Furthermore, in order to show the correspondence between the refractive index image 260 and the first image 250, the observation optical system 221' and light rays are illustrated for convenience.
  • the area corresponding to the area 252 is the area 261.
  • the area corresponding to area 253 is area 262.
  • the area corresponding to area 254 is area 263.
  • the refractive index image 260 is suitable for calculating a point spread intensity distribution. Therefore, the first area and area group are determined using the refractive index image 260.
  • FIG. 18(b) shows an area 261, an observation optical system 221', a light beam 270, and an optical axis 271 of the observation optical system. Since no rays are emitted from the image, ray 270 is a virtual ray.
  • the first area in the first image 250 is area 252.
  • the area corresponding to area 252 is area 261 in refractive index image 260. Therefore, in the refractive index image 260, the area 261 is the first area.
  • the area group and predetermined direction are defined as follows.
  • the area group is composed of a plurality of areas that are inside a range from which light rays are emitted in a predetermined direction, starting from the first area, and includes areas that are outside the range that is an extension of the first area in a predetermined direction.
  • the predetermined direction in the first image is the direction in which the observation optical system exists among the optical axis directions of the virtual observation optical system.
  • the first area and area group are determined using the refractive index image 260. Therefore, in the above regulations, the first image is replaced with a refractive index image.
  • the area group and predetermined direction are defined as follows.
  • the area group consists of a plurality of areas that are inside the range in which light rays radiate in a predetermined direction, starting from the first area, and areas that are outside the range that is an extension of the first area in the predetermined direction.
  • the predetermined direction of the refractive index image is the direction in which the virtual observation optical system exists among the optical axis directions of the observation optical system.
  • the side closer to the observation optical system 221' is the top side of the specimen, and the side farther from the observation optical system 221' is the bottom side of the specimen.
  • Area 261 is located at a location intersecting optical axis 271 on upper surface 260a.
  • a light ray 270 is emitted from the area 261.
  • a light beam 270 emitted from the area 261 enters the observation optical system 221'.
  • the light ray 270 is light that enters the observation optical system 221'.
  • the light incident on the observation optical system 221' is determined by the object-side numerical aperture of the observation optical system 221'.
  • optical information is stored in the memory 2.
  • the optical information includes information on the numerical aperture of the objective lens.
  • the numerical aperture of the objective lens can be considered as the object-side numerical aperture of the observation optical system 221'. Therefore, the light ray 270 can be specified from the numerical aperture of the objective lens.
  • a predetermined direction 272 and a predetermined outward direction 273 are illustrated.
  • the predetermined direction 272 and the predetermined outward direction 273 are optical axis directions of the observation optical system 221'.
  • the observation optical system 221' is located in a predetermined direction 272, but the observation optical system 221' is not located in a predetermined outer direction 273.
  • the two light rays 270 are rays of radiation emitted from the area 261.
  • the area of the refractive index image 260 is not located inside the range between the two light rays 270. Therefore, at the location of area 261, the number of areas in the area group is zero.
  • FIG. 18(c) An area 263, a center area 264, a peripheral area 265, and a peripheral area 266 are shown. Components that are the same as those in FIG. 18(b) are given the same numbers, and their explanations will be omitted.
  • the area group is the fifth image region.
  • the central area is the sixth image area.
  • the peripheral area is an image area outside the range of the sixth image area.
  • the first area in the first image 250 is area 254.
  • the area corresponding to area 254 is area 263 in refractive index image 260. Therefore, in the refractive index image 260, the area 263 is the first area.
  • the area 263 is located at a location intersecting the optical axis 271 on the bottom surface 260b.
  • a light beam 270 and a light beam 274 are emitted from the area 263.
  • Light rays 270 and 274 emitted from area 263 enter observation optical system 221'.
  • the light ray 274 is a virtual light ray.
  • Two light rays 270 and two light rays 274 are light rays emitted from the area 263. If the scattering of light in the specimen is very small, the light rays emitted from area 263 are represented by two rays 270. A center area 264 and a peripheral area 265 are located inside the range sandwiched between the two light rays 270. A center area 264 and a peripheral area 265 form an area group. Areas intersected by ray 270 are considered to be included in the area group.
  • the central area 264 and the peripheral area 265 each consist of a plurality of areas. Therefore, the area group is composed of a plurality of areas.
  • the center area 264 is located in a range that extends the area 263 toward the predetermined direction 272.
  • the peripheral area 265 is located outside the central area 264.
  • the light rays emitted from area 263 are represented by two rays 274.
  • a central area 264, a peripheral area 265, and a peripheral area 266 are located inside the range sandwiched between the two light rays 274. Therefore, the area 264, the peripheral area 265, and the side area 266 form an area group. Areas intersected by ray 274 are considered to be included in the area group.
  • the central area 264, the peripheral area 265, and the peripheral area 266 are each composed of a plurality of areas. Therefore, the area group is composed of a plurality of areas.
  • FIG. 19 is a diagram showing the area group.
  • FIG. 19(a) is a diagram showing a third example of the area group.
  • FIG. 19(b) is a diagram showing a fourth example of the area group.
  • area 267 is the first area. Area 267 is located at a location intersecting optical axis 271 between the top and bottom surfaces.
  • the light rays emitted from area 267 are represented by two rays 270.
  • a center area 264 and a peripheral area 265 are located inside the range sandwiched between the two light rays 270.
  • a center area 264 and a peripheral area 265 form an area group. Comparing the third example and the second example, the third example has fewer areas in the area group.
  • the light rays emitted from area 267 are represented by two rays 274.
  • a central area 264, a peripheral area 265, and a peripheral area 266 are located inside the range sandwiched between the two light rays 274.
  • a center area 264, a peripheral area 265, and a peripheral area 266 form an area group.
  • area 268 is the first area. Area 268 is located away from optical axis 271 on the bottom surface.
  • the light rays emitted from area 268 are represented by two rays 270.
  • a center area 264 and a peripheral area 265 are located inside the range sandwiched between the two light rays 270.
  • a center area 264 and a peripheral area 265 form an area group. Comparing the fourth example and the second example, the fourth example has fewer areas in the area group.
  • the light rays emitted from area 268 are represented by two rays 274.
  • a central area 264, a peripheral area 265, and a peripheral area 266 are located inside the range sandwiched between the two light rays 274.
  • a center area 264, a peripheral area 265, and a peripheral area 266 form an area group.
  • the number of areas in the area group is zero. Therefore, the refractive index distribution of each area included in the area group is not used in the calculation process.
  • the point spread intensity distribution is calculated using the refractive index of the space between the refractive index image 260 and the observation optical system 221'. Calculations when the number of areas in the area group is zero are also included in the calculations in the calculation process.
  • areas located outside the surrounding area 266 are not included in the area group. Therefore, these areas are not used for calculating the point spread intensity distribution. However, these areas may be used to calculate the point spread intensity distribution. That is, the point spread intensity distribution may be calculated by regarding all areas located closer to the predetermined direction 272 than the first area as an area group.
  • the first area is the target area for calculating the point spread intensity distribution. Therefore, by changing the target area of the first area, the point spread intensity distribution can be calculated for each of the divided areas.
  • the point spread intensity distribution of the first area is calculated using the refractive index distribution of each area included in the area group.
  • the first area in the first image 250 is the area 254 in the second example.
  • area 263 corresponds to area 254.
  • the area group is composed of a central area 264 and a peripheral area 265, or a central area 264, a peripheral area 265, and a peripheral area 266.
  • the point spread intensity distribution of the area 263 is calculated using the refractive index distribution of each area that makes up the central area 264 and the refractive index distribution of each area that makes up the peripheral area 265, or the central area 264 is configured.
  • the point spread intensity distribution of the area 263 is calculated using the refractive index distribution of each area forming the surrounding area 265, the refractive index distribution of each area forming the surrounding area 266, and the refractive index distribution of each area forming the surrounding area 266.
  • the point spread intensity distribution of the area 263 may be treated as the point spread intensity distribution of the area 254 in the first image 250.
  • Area 254 is the first area in first image 250.
  • Each area of the first image 250 already has information about the brightness of the optical image of the specimen. Therefore, apart from the first image 250, an image having a point spread intensity distribution (hereinafter referred to as a "PSF image”) is generated.
  • PSF image point spread intensity distribution
  • FIG. 20 is a diagram showing the first image, refractive index image, and PSF image.
  • FIG. 20(a) is a diagram showing the first image and the refractive index image.
  • FIG. 20(b) is a diagram showing a refractive index image and a PSF image. Since FIG. 20(a) is the same diagram as FIG. 18(a), description thereof will be omitted.
  • the first image 250 is divided into multiple areas. Therefore, as shown in FIG. 20(b), the PSF image 280 is also divided into a plurality of areas.
  • the PSF image 280 is divided into 11 areas in both the X-axis direction and the Z-axis direction.
  • each area of the PSF image 280 has a point spread intensity distribution of the area corresponding to the first area of the first image 250.
  • the point spread intensity distribution is illustrated only in a part of the area.
  • step S340 is executed.
  • a first generation process is executed.
  • the first generation process is a small image generation process.
  • a second image corresponding to each area is generated using the point spread intensity distribution calculated for each area.
  • the second image is a small image.
  • FIG. 21 is a diagram showing the first image, the second image, and the third image.
  • FIG. 21(a) is a diagram showing the first image and the second image.
  • FIG. 21(b) is a diagram showing the first image and the third image.
  • FIG. 21(a) shows a partial area of the first image, a partial area of the PSF image, and a second image group.
  • Area DEG is a part of the first image 250. Area DEG is formed of area DEG1, area DEG2, area DEG3, area DEG4, area DEG5, and area DEG6.
  • Area PSF is a part of the PSF image 280 and corresponds to area DEG. Area PSF is formed of area PSF1, area PSF2, area PSF3, area PSF4, area PSF5, and area PSF6.
  • the second image group REC is images of areas corresponding to area DEG and area PSF.
  • the second image group REC is formed of a second image REC1, a second image REC2, a second image REC3, a second image REC4, a second image REC5, and a second image REC6.
  • the image in area DEG1 is the first image.
  • the image of area PSF1 is a point spread intensity distribution.
  • a second image REC1 is generated from the image of area DEG1 and the image of area PSF1.
  • step S350 is executed.
  • mask processing for example, there is processing to blur the periphery of an image.
  • a third image is generated.
  • the process of generating the third image is a compositing process.
  • the third image is an image corresponding to the first image.
  • second images corresponding to each area are combined.
  • the third image is the processed image.
  • a first image 250 and a third image 290 are shown in FIG. 21(b).
  • the third image 290 is generated by combining the second images.
  • the second image is generated based on the first image 250
  • the third image is generated based on the second image. Therefore, third image 290 is an image corresponding to first image 250.
  • the shape of the cell nucleus is an ellipse.
  • the shape of the cell nucleus is a circle. Therefore, the specimen image generation device 1 can generate a recovered image with high image quality from a degraded image.
  • the influence from one of the second images may be halved at the boundary between the two images.
  • FIG. 22 is a diagram showing the first image and the third image.
  • FIG. 22(a) is a diagram showing the first image.
  • FIG. 22(b) is a diagram showing the third image.
  • the right end of the image represents the image of the top surface of the specimen
  • the left end of the image represents the image of the bottom surface of the specimen.
  • the image quality is higher in the third image than in the first image over the entire range from the top to the bottom of the specimen.
  • the area group is determined by the range of light emitted from the first area.
  • the light emitted from the first area passes through the area group and enters the observation optical system. Then, a point spread intensity distribution is obtained by the light emitted from the observation optical system.
  • the light emitted from the first area can be obtained by setting a point light source in the first area.
  • a wavefront whose wave source is the point light source is emitted from the point light source. If this wavefront is set as the first wavefront, the point spread intensity distribution in the first area can be calculated using the first wavefront.
  • the second wavefront is calculated using the first wavefront and the refractive index distribution corresponding to each area included in the area group, and the intensity corresponding to the third wavefront is calculated using the calculated second wavefront.
  • the point spread intensity distribution of the first area is calculated using the calculated intensity distribution.
  • the second wavefront is a wavefront that has propagated through the sample in a predetermined direction
  • the third wavefront is a wavefront at the position of the focusing plane of the virtual observation optical system.
  • FIG. 23 is a diagram showing wavefront propagation. Components that are the same as those in FIG. 18(c) are given the same reference numerals, and explanations thereof will be omitted.
  • a refractive index distribution is used to calculate the point spread intensity distribution. Therefore, the description will be made using the refractive index image 260.
  • area 263 corresponds to the first area. Therefore, the area 263 is located at the focal plane FP. Further, a point light source 300 is set in the area 263.
  • a first wavefront WF1 is emitted from the point light source 300.
  • the first wavefront WF1 propagates from the area 263 toward the upper surface 301 of the refractive index image 260.
  • Top surface 301 is the outer edge of the specimen.
  • An observation optical system 302 is located on the upper surface 301 side. Therefore, the first wavefront WF1 propagates in a predetermined direction.
  • the observation optical system 302 is a virtual optical system, and is formed by, for example, an objective lens 303 and an imaging lens 304.
  • the optical specifications of the observation optical system 302 are the same as those of the observation optical system 221.
  • Optical specifications, such as magnification and numerical aperture, can be obtained based on various information.
  • the first wavefront WF1 propagates through the area group and reaches the upper surface 301.
  • a second wavefront WF2 is emitted from the upper surface 301.
  • the second wavefront WF2 is a wavefront after propagating through the area group.
  • the area group is formed by a central area 264 and a peripheral area 265. Therefore, the second wavefront WF2 can be calculated using the refractive index distribution of each area included in the area group.
  • the focusing plane FP and the image plane IP are conjugate.
  • a wavefront at the focal plane FP is required.
  • the second wavefront WF2 is located on the upper surface 301.
  • a third wavefront WF3 can be obtained as a wavefront at the focal plane FP.
  • the imaging optical system 302 forms a Fourier optical system.
  • the point spread intensity distribution 305 corresponding to the imaging plane of the third wavefront WF3 can be calculated using the pupil function of the imaging optical system 302.
  • the calculation formula is shown below. In the calculation formula, WF3 represents the third wavefront, P represents the pupil function of the imaging optical system 132, U 135 represents the wavefront on the image plane, and I 135 represents the intensity distribution on the image plane.
  • the object model is replaced with multiple thin layers. Then, the image of the object model is calculated by sequentially calculating the wavefront changes as the light passes through each layer.
  • the beam propagation method is disclosed, for example, in "High-resolution 3D refractive index microscopy of multiple-scattering samples from intensity images" Optica, Vol. 6, No. 9, pp. 1211-1219 (2019).
  • the specimen image generation device of this embodiment performs image generation processing, so even if the image to be processed is a degraded image, the image can be restored with high accuracy. As a result, the accuracy of the refractive index distribution of the sample can be improved.
  • the size of the area groups differs between FIG. 23 and FIG. 18(c).
  • the range of the surrounding area 265 in FIG. 23 is wider than the sum of the surrounding area 265 and the surrounding area 266 in FIG. 18(c).
  • the point spread intensity distribution is calculated by considering all areas located on the side in a predetermined direction from the first area as an area group.
  • the point spread intensity distribution 305 it is preferable to use all the refractive index distributions of all the areas that make up the area group.
  • area 263 is the first area
  • the refractive index distributions of all areas located between area 263 and upper surface 301 are used.
  • the point spread intensity distribution can be calculated more accurately.
  • the processor executes the refractive index distribution generation process and the image generation process using the processed image as the processing target image.
  • FIG. 24 is a diagram showing a refractive index image, a PSF image, a first image (degraded image), and a restored image. These images are images in the process of generating a restored image (hereinafter referred to as "recovery process").
  • Each image in the image group 400 is a refractive index image.
  • the image group 400 includes a refractive index image 400a, a refractive index image 400b, and a refractive index image 400c.
  • Each image in image group 410 is a PSF image.
  • the image group 410 includes a PSF image 410a and a PSF image 410b.
  • Each image in the image group 420 is a first image.
  • the image group 420 includes a first image 420a and a first image 420b.
  • Each image in image group 430 is a restored image.
  • the image group 430 includes a restored image 430a and a restored image 430b.
  • Images of cell nuclei are shown in image group 400, image group 410, image group 420, and image group 430. For ease of viewing, the number of cell nuclei is reduced and their shapes are drawn large.
  • the images in each image group are XZ cross-sectional images. Furthermore, the right end of the image is the top surface of the specimen, and the left end of the image is the bottom surface of the specimen.
  • a PSF image 410a is obtained from the refractive index image 400a.
  • a recovered image 430a is obtained from the first image 420a and the PSF image 410a. Since the first image 420a is a degraded image, a recovered image 430a can be obtained from the degraded image by performing recovery processing.
  • the outer shape of the cell nucleus located deeper from the top surface is closer to a circle than in the first image 420a.
  • the outline of the cell nucleus can be extracted from the recovered image 430a. Based on the extracted outline, a first image 420b and a refractive index image 400b can be generated.
  • a PSF image 410b is obtained from the refractive index image 400b.
  • a recovered image 430b is obtained from the first image 420b and the PSF image 410b. Since the first image 420b is a degraded image, a recovered image 430b can be obtained from the degraded image by performing recovery processing.
  • the outer shape of the cell nucleus located deeper from the top surface is closer to a circle than in the first image 420b.
  • the outline of the cell nucleus can be extracted from the recovered image 430a.
  • a refractive index image 400c can be generated based on the extracted outline.
  • the outer shape of the cell nucleus located deep from the top surface becomes closer to a circle.
  • Each image in the image group 400 is a refractive index image.
  • a refractive index image is generated from a group of distribution images.
  • the refractive index distribution of the specimen is represented by a plurality of images.
  • refractive index distribution generation processing is performed.
  • a refractive index distribution image is used.
  • a refractive index distribution image is an image represented by a refractive index.
  • a refractive index based on the specimen is set in the refractive index distribution image.
  • the refractive index image in the recovery process and the refractive index distribution image in the refractive index distribution generation process both represent the refractive index of the specimen. Therefore, if each image in the image group 400 is regarded as a refractive index distribution image, the refractive index distribution generation apparatus of this embodiment is equipped with a recovery process, so that it can be used for thick specimens. However, the accuracy of the refractive index distribution can be further improved.
  • the input process involves inputting a second processing target image obtained by photographing a second sample from the memory, and the processor executes a refractive index determination process to determine the refractive index of the first structure. It is preferable to do so.
  • the refractive index determination process includes a refractive index distribution calculation process that calculates the refractive index distribution of the second sample from the plurality of second processing target images, and a seventh image corresponding to the first structure in the second processing target images.
  • the input process includes a second specifying process for specifying the area, and a third specifying process for specifying a refractive index corresponding to the seventh image area among the refractive indices forming the refractive index distribution of the second sample, and the input process includes:
  • the refractive index of the first structure determined in the refractive index determination process is input from memory.
  • the image to be processed is stored in the memory 2.
  • the image to be processed can be acquired by the microscope system 20.
  • the microscope system 20 can acquire a second processing target image.
  • FIG. 25 is a flowchart of the processing performed by the processor.
  • the processor 3 executes a refractive index determination process.
  • the refractive index determination process is performed before inputting the first refractive index information from the memory.
  • step S400 the second processing target image is input from the memory.
  • the second processing target image is an image obtained by photographing the second specimen.
  • the second sample is the same as the sample used when acquiring the image to be processed.
  • the second processing target image may be obtained using the same observation method as the processing target image, or may be obtained using a different observation method from the processing target image.
  • a fluorescence image, a stained image, and a phase contrast image can be used as the second processing target image.
  • step S410 refractive index determination processing is performed.
  • the refractive index of the first structure is determined.
  • Step S410 includes step S411, step S412, step S413, and step S414.
  • step S411 refractive index distribution calculation processing is executed.
  • the refractive index distribution of the second sample is calculated from the plurality of second processing target images.
  • the refractive index distribution calculation process can be performed by computational imaging.
  • Estimation of refractive index distribution by computational imaging will be explained.
  • an optical image of the specimen and an optical image of the estimated specimen are used.
  • the optical image of the estimated specimen can be obtained by simulation using a virtual optical system. Since the sample is a three-dimensional object, the estimated sample is also a three-dimensional object.
  • the optical image of the estimated specimen is represented by a plurality of estimated XY images (hereinafter referred to as "estimated XY image group").
  • the refractive index distribution of the specimen can be represented by the above-mentioned group of distribution images.
  • the refractive index distribution of the estimated sample can be represented by a plurality of estimated distribution images (hereinafter referred to as "estimated distribution image group").
  • the processor 3 estimates the estimated distribution image group by computational imaging. In the estimation, a comparison is made between the XY image group and the estimated XY image group. Specifically, the refractive index value in the estimated distribution image group is changed so that the difference between the XY image group and the estimated XY image group becomes smaller.
  • step S411 ends, step S412 is executed.
  • step S412 a second identification process is performed.
  • a seventh image area corresponding to the first structure is specified in the second processing target image.
  • step S413 a third identification process is executed.
  • the refractive index corresponding to the seventh image area is specified among the refractive indices forming the refractive index distribution of the second sample.
  • step S414 the refractive index is input into the memory. This refractive index is the refractive index corresponding to the seventh image area.
  • step S414 ends, step S102 is executed.
  • the first refractive index information is input from the memory.
  • the memory stores the refractive index corresponding to the seventh image area.
  • the refractive index corresponding to the seventh image area is the refractive index of the first structure determined in the refractive index determination process. Therefore, the refractive index of the first structure determined in the refractive index determination process is input from the memory.
  • the processing target image used to specify the seventh image area is different from the processing target image used to specify the first image area.
  • the refractive index corresponding to the seventh image area is the refractive index estimated by computational imaging. Since both the seventh image area and the first image area are image areas corresponding to the first structure, the refractive index corresponding to the seventh image area can be used as the refractive index corresponding to the first image area.
  • the maximum depth of the second sample is preferably less than 50 ⁇ m, and the minimum depth of the sample is preferably 50 ⁇ m or more.
  • the refractive index distribution generation system of this embodiment includes an observation optical system that forms an optical image of a specimen, an image sensor that takes an optical image, and the refractive index distribution generation apparatus according to claim 1.
  • the accuracy of the refractive index distribution can be improved even for thick specimens.
  • the refractive index distribution generation system of this embodiment includes a processor configured with hardware and a memory configured with hardware, and the processor is configured to generate a refractive index distribution that generates a refractive index distribution corresponding to an image to be processed.
  • the refractive index distribution generation process includes an image to be processed, first refractive index information indicating the refractive index of the first structure, and a second refractive index indicating the refractive index of the second structure different from the first structure.
  • the method includes an input process for inputting information from a memory, and a setting process for setting each refractive index constituting the refractive index distribution.
  • the setting process includes a first setting process of setting a refractive index based on the first refractive index information at a position corresponding to a first image area of the process target image based on the signal strength of a unit pixel of the process target image; 2.
  • the first image area is an image area corresponding to the first structure
  • the unit pixel is composed of one pixel or a plurality of pixels
  • the processor generates a refractive index distribution using an image of the specimen as a processing target image. Execute processing.
  • the processor executes machine learning processing to learn the AI model, the machine learning processing trains the AI model with a plurality of datasets, the datasets include a processing target image and training data corresponding to the processing target image,
  • the training data is a refractive index distribution generated by the refractive index distribution generation process.
  • a refractive index distribution image is generated from the processing target image.
  • the image to be processed is a degraded image, and the refractive index distribution image is a restored image. If the refractive index distribution image is regarded as training data, the processing target image and the refractive index distribution image can be used as data for machine learning.
  • the image to be processed will be referred to as the image before being enhanced, and the refractive index distribution image will be referred to as the enhanced image.
  • the enhanced image can be generated using an AI model trained with supervised machine learning (hereinafter referred to as "supervised ML”).
  • supervised ML supervised machine learning
  • An AI model provides a computer system with the ability to execute tasks without explicitly programming by performing inference processing based on patterns found through data analysis during training processing.
  • the AI model Before performing inference processing, the AI model can be trained continuously or periodically.
  • Supervised ML AI models include algorithms that train on existing sample data and training data and make predictions about new data. Training data is also called teacher data.
  • Such algorithms operate by building an AI model from sample and training data to make data-driven predictions or decisions that are expressed as outcomes.
  • supervised ML learns a function that most closely approximates the relationship between input and output when sample data and training data are input, and when the learned AI model performs inference processing, new data input sometimes implementing the same function and producing corresponding output.
  • supervised ML algorithms include Logistic Regression (LR), Naive Bayes, Random Forests (RF), Neural Networks (NN), Deep Neural Networks (DNN), Matrix Factorization, and Support Vector Machines. (SVM), etc.
  • LR Logistic Regression
  • RF Random Forests
  • NN Neural Networks
  • DNN Deep Neural Networks
  • SVM Support Vector Machines.
  • the training process of this embodiment can execute supervised ML processing.
  • the training process trains or learns the AI model.
  • FIG. 26 is a diagram showing the training process.
  • the dataset includes an image before enhancement and an image after enhancement.
  • the image before enhancement is sample data.
  • the enhanced images are training data or teacher data corresponding to the sample data.
  • sample data is shown as image 1, image 2, and so on.
  • the improved images are training data 1, training data 2, and so on.
  • optimal parameters for generating estimated data from sample data are searched for and updated using, for example, a loss function.
  • Estimated data is generated for the input sample data, the difference between the generated estimated data and training is evaluated using a loss function, and a parameter that minimizes the value of the loss function is searched for.
  • the inference processing when new data to be inferred is input to the trained AI model, the inference processing that outputs the inference data can be executed.
  • the image before enhancement is input to the input layer of the AI model, and propagated to the output layer through the AI model.
  • an improved image can be generated from an image before improvement.
  • FIG. 27 is a diagram showing the specimen image generation system of this embodiment.
  • FIG. 27(a) is a diagram showing a first example of a specimen image generation system.
  • FIG. 27(b) is a diagram showing a second example of the specimen image generation system.
  • FIG. 27(c) is a diagram showing a third example of the specimen image generation system.
  • the specimen image generation system 500 is configured only with the specimen image generation device of this embodiment.
  • the processor 3 (hereinafter referred to as "first processor") of the sample image generation device can execute training processing and inference processing.
  • the specimen image generation device 1 can include a first processor and a second processor.
  • the second processor is a different processor than the first processor.
  • the second processor can perform training processing and inference processing.
  • the specimen image generation device 1 can include a first processor, a second processor, and a third processor.
  • the third processor is different from the first processor and the second processor.
  • the second processor can perform training processing, and the third processor can perform inference processing.
  • the memory 2 of the sample image generation device 1 stores an image before improvement used in the training process, an improved image, and an image before improvement used in the inference process.
  • a specimen image generation system 510 is configured with the specimen image generation device 1 of this embodiment and a learning inference device 520.
  • the learning inference device 520 includes a memory 521 and a processor 522.
  • the learning and inference device 520 can perform training processing and inference processing.
  • learning inference device 520 includes memory and one or more processors.
  • Inference processing can be executed on the same processor as training processing.
  • the inference process may be executed by a different processor than the training process.
  • the memory 521 of the learning and inference device stores an image before improvement used in the training process, an improved image, and an image before improvement used in the inference process.
  • the specimen image generation system 530 includes the specimen image generation device 1 of the present embodiment, a learning device 540, and an inference device 550. has been done.
  • the learning device 540 executes training processing
  • the inference device 550 executes inference processing.
  • the learning device 540 includes a memory 541 and a processor 542.
  • the inference device 550 includes a memory 551 and a processor 552.
  • a processor 542 of the learning device 540 can perform a training process, and a processor 552 of the inference device 550 can perform an inference process.
  • the memory 541 of the learning device 540 stores images before and after improvement that are used in the training process.
  • the memory 551 of the inference device 550 stores images before enhancement used in inference processing.
  • the above-described learning inference device 510 and learning device 540 input data used in training processing from the image generation device 1 via communication or via a recording medium such as a USB memory, and store the data in the memory provided in each device. .
  • the accuracy of the refractive index distribution can be improved even for thick specimens.
  • the refractive index distribution generation method of the present embodiment is a method of generating a refractive index distribution corresponding to an image to be processed, which includes: an image to be processed, first refractive index information indicating a refractive index of a first structure, and a first refractive index distribution corresponding to an image to be processed. input second refractive index information indicating a refractive index of a second structure different from the structure, and place a refractive index based on the first refractive index information at a position corresponding to the first image area of the processing target image.
  • the refractive index is set based on the signal strength of a unit pixel of the image, and the refractive index based on the second refractive index information is set at a position corresponding to an image area different from the first image area of the processing target image.
  • the first image area is an image area corresponding to the first structure
  • the unit pixel is composed of one pixel or a plurality of pixels
  • the processing target image is an image obtained by photographing a specimen.
  • the refractive index distribution generation method of this embodiment it is possible to improve the accuracy of the refractive index distribution even for a thick specimen.
  • the recording medium of this embodiment is a computer-readable recording medium that records a program for generating a specimen image, and includes an image to be processed, first refractive index information indicating the refractive index of the first structure, and a first refractive index information indicating the refractive index of the first structure.
  • the setting process includes a first setting process of setting a refractive index based on the first refractive index information at a position corresponding to a first image area of the process target image based on the signal strength of a unit pixel of the process target image; 2.
  • a second setting process of setting the refractive index based on the refractive index information at a position corresponding to an image area different from the first image area of the processing target image is executed, and an image of the specimen is set as the processing target image, Executes refractive index distribution generation processing.
  • the first image area is an image area corresponding to the first structure, and the unit pixel is composed of one pixel or a plurality of pixels.
  • the present invention is suitable for a refractive index distribution generation device, a refractive index distribution generation method, a refractive index distribution generation system, and a recording medium that can improve the accuracy of refractive index distribution even for thick samples.
  • the recording medium of this embodiment it is possible to improve the accuracy of the refractive index distribution even for a thick specimen.
  • Specimen image generation device 1 Specimen image generation device 2 Memory 3 Processor 4 Input section 10 Microscope system 20 Microscope 21 Main body 22 Objective lens 23 Stage 24 Epi-illumination device 25 Imaging unit 26 Controller 27 Specimen 30 Processing device 31 Input section 32 Memory 33 Processor 34 Output section 40 Specimen 41 Observation optical system 42 Optical axis 43 XY image group 50, 60, processing target image 51, 61, first image area 52, 62, second image area 70, 80, refractive index distribution image 71, 81, first refractive index Regions 72, 82, second refractive index region 90 processing target image 91 first image region 92 second image region 100, 110 refractive index distribution image 101, 111 first refractive index region 102, 112 second refractive index region 120, 130 Image to be processed 121, 131 First image area 122, 132 Second image area 140, 150 Refractive index distribution image 141, 151 First refractive index area 142, 152 Second refractive index area 160, 1

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Microscoopes, Condenser (AREA)

Abstract

厚い標本であっても、屈折率分布の精度を向上させることができる屈折率分布生成装置を提供する。 屈折率分布生成装置は、プロセッサと、メモリと、備え、プロセッサは、処理対象画像に対応する屈折率分布を生成する屈折率分布生成処理を実行する。屈折率分布生成処理は、処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、メモリから入力する入力処理と、屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を含む。設定処理は、第1屈折率情報に基づく屈折率を、処理対象画像の第1画像領域に対応する位置に、信号強度に基づいて設定する第1設定処理と、第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を含む。第1画像領域は、第1構造に対応する画像領域である。

Description

屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体
 本発明は、屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体に関する。
 コンピュテーショナルイメージングを用いて標本の屈折率分布を推定する技術が、非特許文献1に開示されている。この推定技術では、ガラス上に載置された標本を、落射照明によって照明している。そして、対物レンズに入射する2つの光を、撮像素子で検出している。一方の光は、標本で散乱された後、ガラスで反射された光である。他方の光は、後、ガラスで反射された後、標本で散乱された光である。
A. Matlock, A. Sentenac, P. C. Chaumet, J. Yi, and L. Tian, "Inverse scattering for reflection intensity phase microscopy," Biomed. Opt. Express 11(2), 911-926 (2020)
 推定技術では、対物レンズに入射する2つの光は、共に、ガラスで反射された光である。ガラスで反射された光では、光の強度が非常に小さい。そのため、厚い標本では、高い精度で屈折率分布を推定することが困難である。
 本発明は、このような課題に鑑みてなされたものであって、厚い標本であっても、屈折率分布の精度を向上させることができる屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の少なくとも幾つかの実施形態に係る屈折率分布生成装置は、
 ハードウェアで構成されるプロセッサと、ハードウェアで構成されるメモリと、備え、
 プロセッサは、
 処理対象画像に対応する屈折率分布を生成する屈折率分布生成処理を実行し、
 屈折率分布生成処理は、
 処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、メモリから入力する入力処理と、
 屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を含み、
 設定処理は、
 第1屈折率情報に基づく屈折率を、処理対象画像の第1画像領域に対応する位置に、処理対象画像の単位画素の信号強度に基づいて設定する第1設定処理と、
 第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を含み、
 第1画像領域は、第1構造に対応する画像領域であり、
 単位画素は、1つの画素又は複数の画素で構成され、
 プロセッサは、標本を撮影した画像を処理対象画像として、屈折率分布生成処理を実行することを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る屈折率分布生成システムは、
 標本の光学像を形成する観察光学系と、
 光学像を撮影する撮像素子と、
 請求項1に記載の屈折率分布生成装置と、を有することを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る屈折率分布生成システムは、
 ハードウェアで構成されるプロセッサと、ハードウェアで構成されるメモリと、備え、
 プロセッサは、
 処理対象画像に対応する屈折率分布を生成する屈折率分布生成処理を実行し、
 屈折率分布生成処理は、
 処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、及び、第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、メモリから入力する入力処理と、
 屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を含み、
 設定処理は、
 第1屈折率情報に基づく屈折率を、処理対象画像の第1画像領域に対応する位置に、処理対象画像の単位画素の信号強度に基づいて設定する第1設定処理と、
 第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を含み、
 第1画像領域は、第1構造に対応する画像領域であり、
 単位画素は、1つの画素又は複数の画素で構成され、
 プロセッサは、標本を撮影した画像を処理対象画像として、屈折率分布生成処理を実行し、
 プロセッサは、AIモデルを学習させる機械学習処理を実行し、
 機械学習処理は、複数のデータセットでAIモデルを学習させ、
 データセットは、処理対象画像と処理対象画像に対応するトレーニングデータを含み、
 トレーニングデータは、屈折率分布生成処理で生成した屈折率分布であることを特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る屈折率分布生成方法は、
 処理対象画像に対応する屈折率分布を生成する方法であって、
 処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、入力し、
 第1屈折率情報に基づく屈折率を、処理対象画像の第1画像領域に対応する位置に、処理対象画像の単位画素の信号強度に基づいて設定し、
 第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定し、
 第1画像領域は、第1構造に対応する画像領域であり、
 単位画素は、1つの画素又は複数の画素で構成され、
 処理対象画像は、標本を撮影した画像であること特徴とする。
 また、本発明の少なくとも幾つかの実施形態に係る記録媒体は、
 標本画像を生成するためのプログラムを記録したコンピュータ読取可能な記録媒体であって、
 処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、メモリから入力する入力処理と、
 屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を実行させ、
 設定処理において、
 第1屈折率情報に基づく屈折率を、処理対象画像の第1画像領域に対応する位置に、処理対象画像の単位画素の信号強度に基づいて設定する第1設定処理と、
 第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を実行させ、
 第1画像領域は、第1構造に対応する画像領域であり、
 単位画素は、1つの画素又は複数の画素で構成され、
 標本を撮影した画像を処理対象画像として、屈折率分布生成処理を実行させることを特徴する。
 本発明によれば、厚い標本であっても、屈折率分布の精度を向上させることができる屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体を提供することができる。
本実施形態の屈折率分布生成装置と顕微鏡システムを示す図である。 標本、光学像、光学像の画像及びXY画像群を示す図である。 処理対象画像と屈折率分布画像を示す図である。 プロセッサで行われる処理のフローチャートである。 処理対象画像と屈折率分布画像を示す図である。 プロセッサで行われる処理のフローチャートである。 処理対象画像を示す図である。 プロセッサで行われる処理のフローチャートである。 処理対象画像と屈折率分布画像を示す図である。 プロセッサで行われる処理のフローチャートである。 処理対象画像を示す図である。 処理対象画像を示す図である。 プロセッサで行われる処理のフローチャートである。 処理対象画像を示す図である。 プロセッサで行われる処理のフローチャートである。 プロセッサで行われる処理のフローチャートである。 標本、光学像、及び第1画像を示す図である。 第1画像、屈折率画像、第1エリア及びエリア群を示す図である。 エリア群を示す図である。 第1画像、屈折率画像及びPSF画像を示す図である。 第1画像、第2画像及び第3画像を示す図である。 第1画像と第3画像を示す図である。 波面の伝搬を示す図である。 屈折率画像、PSF画像、第1画像及び回復画像を示す図である。 プロセッサで行われる処理のフローチャートである。 トレーニング処理を示す図である。 本実施形態の標本画像生成システムを示す図である。
 実施例の説明に先立ち、本発明のある態様にかかる実施形態の作用効果を説明する。なお、本実施形態の作用効果を具体的に説明するに際しては、具体的な例を示して説明することになる。しかし、後述する実施例の場合と同様に、それらの例示される態様はあくまでも本発明に含まれる態様のうちの一部に過ぎず、その態様には数多くのバリエーションが存在する。したがって、本発明は例示される態様に限定されるものではない。
 本実施形態の屈折率分布生成装置では、標本の光学像の画像を用いる。観察光学系で標本の光学像を形成し、標本の光学像を撮像素子で撮影することで、標本の光学像の画像を取得することができる。標本は3次元物体なので、標本の光学像の画像は、XY画像、XZ画像及びYZ画で表すことができる。
 観察光学系の光軸をZ軸とし、Z軸と直交する軸をX軸とし、Z軸とX軸の両方と直交する軸をY軸とする。XY断面は、X軸とY軸を含む平面である。XY画像は、XY断面における画像である。XZ断面は、X軸とZ軸を含む平面である。XZ画像は、XZ断面における画像である。YZ断面は、Y軸とZ軸を含む平面である。YZ画像は、YZ断面における画像である。
 本実施形態の屈折率分布生成装置は、ハードウェアで構成されるプロセッサと、ハードウェアで構成されるメモリと、備え、プロセッサは、処理対象画像に対応する屈折率分布を生成する屈折率分布生成処理を実行する。屈折率分布生成処理は、処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、メモリから入力する入力処理と、屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を含む。設定処理は、第1屈折率情報に基づく屈折率を、処理対象画像の第1画像領域に対応する位置に、処理対象画像の単位画素の信号強度に基づいて設定する第1設定処理と、第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を含む。第1画像領域は、第1構造に対応する画像領域であり、単位画素は、1つの画素又は複数の画素で構成され、プロセッサは、標本を撮影した画像を処理対象画像として、屈折率分布生成処理を実行する。
 図1は、本実施形態の屈折率分布生成装置と顕微鏡システムを示す図である。図1(a)は、本実施形態の屈折率分布生成装置を示す図である。図1(b)は、顕微鏡システムを示す図である。
 図1(a)に示すように、屈折率分布生成装置1は、メモリ2と、プロセッサ3、とを備える。メモリ2には、処理対象画像と、第1屈折率情報と、第2屈折率情報と、が保存されている。第1屈折率情報は、第1構造の屈折率を示す情報である。第2屈折率情報は、第2構造の屈折率を示す情報である。第2構造は、第1構造とは異なる。
 処理対象画像は、標本を撮影して得られた画像である。処理対象画像は、例えば、複数のXY画像(以下、「XY画像群」という)から生成することができる。XY画像群における各々のXY画像は、標本の光学像の画像である。
 屈折率分布生成装置1で処理対象画像を生成するためには、XY画像群を屈折率分布生成装置1に入力する必要がある。XY画像群の屈折率分布生成装置1への入力は、入力部4を介して行われる。XY画像は、例えば、顕微鏡システムで取得することができる。
 図1(b)に示すように、顕微鏡システム10は、顕微鏡20と、処理装置30と、を有する。顕微鏡20は、本体21と、対物レンズ22と、ステージ23と、落射照明装置24と、撮像ユニット25と、コントローラー26と、を有する。処理装置30は、入力部31と、メモリ32と、プロセッサ33と、出力部34を有する。
 ステージ23上に、標本27が載置されている。顕微鏡20では、観察光学系の像面に、標本27の光学像が形成される。撮像ユニット25にレンズが配置されている場合、対物レンズ22、結像レンズ及び撮像ユニット25のレンズで、観察光学系が形成される。撮像ユニット25にレンズが配置されていない場合、対物レンズ22と結像レンズで、観察光学系が形成される。
 撮像ユニット25は、撮像素子を有する。像面に形成された光学像を撮像素子で撮影することで、光学像の画像が取得される。像面に形成された光学像は、標本27のXY断面の光学像である。よって、光学像の画像はXY画像である。
 対物レンズ22とステージ23は、観察光学系の光軸に沿って相対的に移動させることができる。対物レンズ22の移動又はステージ23の移動は、コントローラー26で行うことができる。標本27は厚い標本である。よって、対物レンズ22とステージ23を相対的に移動させることで、複数の断面についてXY画像を取得することができる。XY画像群について説明する。
 図2は、標本、光学像、光学像の画像及びXY画像群を示す図である。図2(a)は、標本を示す図である。図2(b)、図2(c)及び図2(d)は、光学像と光学像の画像を示す図である。図2(e)は、XY画像群を示す図である。
 図2(a)に示すように、標本40は3次元物体なので、複数のブロック層で表すことができる。図2(a)では、Z軸方向で、標本40は7つのブロック層に分けられている。ただし、ブロック層の数は7に限られない。標本OZ1は一端のブロック層を表し、標本OZ7は他端のブロック層を表している。各ブロック層は、標本40のXY断面を表している。
 標本40の光学像の形成では、標本OZ1から標本OZ7までのブロック層を、順番に観察光学系41の合焦面に位置させる。光学像は平面であるが、見易さのために、光学像をブロック層で表す。また、光学像をブロック層で表しているため、光学像の画像もブロック層で表す。
 標本40の光学像の形成では、標本40と観察光学系41を光軸42に沿って相対的に移動させる。ここでは、標本40は移動させず、観察光学系41を光軸42に沿って相対的に移動させている。
 図2(b)に示すように、観察光学系41の合焦面に標本OZ1が位置している場合、光学像IZ1が形成される。光学像IZ1を撮像素子で撮影することで、光学像の画像PZ1が取得される。
 図2(c)に示すように、観察光学系41の合焦面に標本OZ4が位置している場合、光学像IZ4が形成される。光学像IZ4を撮像素子で撮影することで、光学像の画像PZ4が取得される。
 図2(d)に示すように、観察光学系41の合焦面に標本OZ7が位置している場合、光学像IZ7が形成される。光学像IZ7を撮像素子で撮影することで、光学像の画像PZ7が取得される。
 画像PZ1、画像PZ4及び画像PZ7は、XY画像である。画像PZ1と画像PZ4の間には2つのブロック層が位置している。また、画像PZ4と画像PZ7の間にも2つのブロック層が位置している。これらのブロック層の画像を、各々、画像PZ2、画像PZ3、画像PZ5及び画像PZ6とすると、画像PZ2、画像PZ3、画像PZ5及び画像PZ6もXY画像である。
 画像PZ1から画像PZ7までの全ての画像はXY画像なので、これらの画像からXY画像群が得られる。また、これらの画像を光軸42の方向に積み重ねることで、立体的なXY画像群が得られる。
 図2(e)には、立体的なXY画像群43が示されている。XY画像群43は、X軸方向、Y軸方向及びZ軸方向の各々で、明るさの情報を有する。よって、XY画像群43から、XY画像、XZ画像及びYZ画像を生成することができる。
 上述のように、処理対象画像は、XY画像群から生成される。よって、XY画像、XZ画像及びYZ画像は、いずれも処理対象画像として用いることができる。
 図1(b)に戻って説明を続ける。顕微鏡20では、複数の対物レンズをレボルバーに装着することができる。レボルバーを回転させることで、対物レンズの倍率を変更することができる。レボルバーの回転は、コントローラー26で行うことができる。
 XY画像は撮像ユニット25から出力され、処理装置30に入力される。複数のXY画像から、XY画像群が得られる。XY画像群は入力部31に入力された後、メモリ32に保存される。XY画像群は、出力部34から出力される。よって、XY画像群を、屈折率分布生成装置1に入力することができる。XY画像群は、メモリ2に保存される。
 屈折率分布生成装置1では、プロセッサ3によって、屈折率分布生成処理が実行される。屈折率分布生成処理では、処理対象画像に対応する屈折率分布が生成される。
 図3は、処理対象画像と屈折率分布画像を示す図である。図3(a)は、処理対象画像を示す図である。図3(b)は、処理対象画像の一部を示す図である。図3(c)は、屈折率分布画像の一部を示す図である。図3(d)は、屈折率分布画像を示す図である。
 図3(a)には、処理対象画像が示されている。標本は、第1構造と、第2構造と、を有する。第1構造と第2構造は隣接していても、第1構造と第2構造の間に別の構造が位置していても良い。第1構造は、蛍光色素で染色されている。第2構造は、蛍光色素で染色されていない。
 第1構造は蛍光色素で染色されているので、第1構造の蛍光像が形成される。第1構造の蛍光像は、波長λ1の蛍光で形成されている。第2構造は蛍光色素で染色されていないので、第2構造の蛍光像は形成されない。
 処理対象画像50は、標本の光学像の画像である。処理対象画像50は、波長λ1の蛍光だけを透過する光学フィルタ(以下、「光学フィルタFλ1」という)を介して取得された画像である。処理対象画像50は、第1画像領域51と、第2画像領域52と、を有する。
 第1画像領域51は、光学フィルタFλ1を透過した光に対応する画像領域である。第1構造の蛍光像を形成する光は波長λ1の蛍光なので、光学フィルタFλ1を透過する。よって、第1画像領域51は、第1構造に対応する画像領域である。処理対象画像50には、第1構造の画像が複数含まれているので、処理対象画像50は、複数の第1画像領域51を有する。
 第2画像領域52は、光学フィルタFλ1を透過しなかった光に対応する画像領域である。第1構造以外の構造を構造群Aとする。構造群Aは、第2構造を含む。第2構造の蛍光像は形成されないので、光学フィルタFλ1を透過する光が存在しない。よって、第2画像領域52は、構造群Aに対応する画像領域である。構造群Aは第1構造と異なるので、第2画像領域52は第1画像領域51と異なる。
 図4は、プロセッサで行われる処理のフローチャートである。プロセッサ3では、屈折率分布生成処理が実行される。屈折率分布生成処理は、入力処理と、設定処理と、を含む。
 ステップS100では、入力処理が実行される。ステップS100は、ステップS101と、ステップS102と、ステップS103と、を有する。
 ステップS101では、処理対象画像がメモリから入力される。ステップS102では、第1屈折率情報がメモリから入力される。ステップS103では、第2屈折率情報がメモリから入力される。第1屈折率情報は、第1構造の屈折率を示す情報である。第2屈折率情報は、第2構造の屈折率を示す情報である。ステップS100が終了すると、ステップS200が実行される。
 ステップS200では、設定処理が実行される。設定処理では、屈折率分布を構成するそれぞれの屈折率が設定される。ステップS200は、ステップS201と、ステップS202と、を有する。
 ステップS201では、第1設定処理が実行される。第1設定処理では、第1屈折率情報に基づく屈折率が、処理対象画像の第1画像領域に対応する位置に、処理対象画像の単位画素の信号強度に基づいて設定される。単位画素は、1つの画素又は複数の画素で構成されている。ステップS201が終了すると、ステップS202が実行される。
 ステップS202では、第2設定処理が実行される。第2設定処理では、第2屈折率情報に基づく屈折率が、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定される。
 図3(b)には、処理対象画像の一部を拡大した画像、Z軸方向の信号強度及びX軸方向の信号強度が示されている。図3(b)では、見易さのために、第1画像領域は楕円で表されている。しかしながら、実際には、第1画像領域は複雑な形状をしている。
 処理対象画像60は、第1画像領域61と、第2画像領域62と、を有する。第2画像領域62は第1画像領域61と異なる。
 第1画像領域61は、図3(a)における第1画像領域51である。第1画像領域51は第1構造に対応する画像領域なので、第1画像領域61は第1構造に対応する画像領域である。第2画像領域62は、図3(a)における第2画像領域52である。第2画像領域52は構造群Aに対応する画像領域なので、第2画像領域62は構造群Aに対応する画像領域である。
 第1画像領域61は、処理対象画像60の単位画素の信号強度に基づいて求めることができる。単位画素は、1つの画素又は複数の画素で構成されている。単位画素が1つの画素の場合、1つの画素の強度信号に基づいて第1画像領域61が求まる。単位画素が複数の画素の場合、複数の画素の強度信号に基づいて第1画像領域61が求まる。
 処理対象画像60では、単位画素の信号強度として、ゼロよりも大きい信号強度が用いられている。図3(b)において、ΔZとΔXは、ゼロよりも大きい信号強度を有する単位画素の領域を示している。
 第1画像領域61を形成する単位画素では、信号強度はゼロよりも大きい。第2画像領域62は、第1画像領域61を除いた領域である。よって、第2画像領域62を形成する単位画素では、信号強度はゼロである。
 第1画像領域61は楕円で示される領域なので、第1画像領域61の位置は楕円の位置から求まる。第2画像領域62は第1画像領域61を除いた領域なので、第1画像領域61の位置が求まれば第2画像領域62の位置が求まる。
 第1設定処理と第2設定処理では、屈折率が設定される。処理対象画像は、標本の光学像の画像である。標本の光学像の画像は明るさの情報で形成された画像なので、屈折率を設定することはできない。そのため、屈折率の設定は、処理対象画像とは別の画像、例えば、屈折率分布画像で行えば良い。
 図3(c)には、屈折率分布画像の一部を拡大した画像、Z軸方向の屈折率分布及びX軸方向の屈折率分布が示されている。屈折率分布画像70は、第1屈折率領域71と、第2屈折率領域72と、を有する。
 屈折率分布画像70は屈折率で表される画像なので、第1屈折率情報に基づく屈折率と第2屈折率情報に基づく屈折率を設定することができる。屈折率を設定するためには、第1屈折率情報に基づく屈折率を設定する領域と、第2屈折率情報に基づく屈折率を設定する領域が必要である。
 第1屈折率情報は、第1構造の屈折率を示す情報である。第1構造に対応する画像領域は、第1画像領域61である。第1屈折率情報に基づく屈折率を設定するためには、屈折率分布画像70において、第1画像領域61と対応する領域を求めれば良い。
 第2屈折率情報は、第2構造の屈折率を示す情報である。第2構造は、構造群Aに含まれている。構造群Aに対応する画像領域は、第2画像領域62である。第2屈折率情報に基づく屈折率を設定するためには、屈折率分布画像70において、第2画像領域62と対応する領域を求めれば良い。
 図3(c)では、第1屈折率領域71が、第1画像領域61と対応する領域である。よって、第1屈折率領域71に、第1屈折率情報に基づく屈折率を設定すれば良い。
 また、第2屈折率領域72が、第2画像領域62と対応する領域である。第2画像領域62は構造群Aに対応する画像領域なので、第2屈折率領域72は構造群Aに対応する画像領域である。構造群Aには、第2構造が含まれている。よって、第2屈折率領域72に、第2屈折率情報に基づく屈折率を設定すれば良い。
 第1屈折率領域71に第1屈折率情報に基づく屈折率を設定するためには、第1屈折率領域71の位置を求める必要がある。第1屈折率領域71は、第1画像領域61と対応している。第1画像領域61の位置は、処理対象画像60の単位画素の信号強度に基づいて求まる。よって、第1屈折率領域71の位置は、処理対象画像60の単位画素の信号強度に基づいて求めれば良い。このようにして求めた位置に、第1屈折率情報に基づく屈折率を設定すれば良い。
 第2屈折率領域72に第2屈折率情報に基づく屈折率を設定するためには、第2屈折率領域72の位置を求める必要がある。第2屈折率領域72は、第2画像領域62と対応している。第2画像領域62は第1画像領域61を除いた領域なので、第1屈折率領域71の位置が求まれば第2屈折率領域72の位置が求まる。このようにして求めた位置に、第2屈折率情報に基づく屈折率を設定すれば良い。
図3(d)には、屈折率分布画像80が示されている。屈折率分布画像80は、第1屈折率領域81と、第2屈折率領域82と、を有する。屈折率分布画像80は、処理対象画像50と対応する画像である。処理対象画像50は、複数の第1画像領域51を複数有する。よって、屈折率分布画像80も、第1屈折率領域81を複数有する。
 プロセッサ3では、処理対象画像50を用いて、屈折率分布生成処理が実施される。処理対象画像50は、標本の光学像を撮影した画像である。プロセッサ3では、標本を撮影した画像を処理対象画像として、屈折率分布生成処理が実行される。その結果、本実施形態の屈折率分布生成装置では、厚い標本であっても、屈折率分布の精度を向上させることができる。
 標本としては、例えば、細胞塊がある。細胞塊は、複数の細胞を有する。隣り合う細胞の間には、細胞接着分子が存在する、細胞は、細胞核と、細胞質と、細胞膜と、を有する。標本が細胞塊の場合、標本は、細胞核と、細胞質と、細胞膜と、細胞接着分子と、を有する。
 標本は、第1構造と、第2構造と、を有する。第1構造を細胞核とし、第2構造を細胞質とする。細胞核以外の細胞構造を、細胞構造群Aとする。細胞構造群Aは、細胞質と、細胞膜と、細胞接着分子と、を含む。
 上述のように、構造群Aは第1構造以外の構造であって、第2構造を含む。細胞構造群Aは、細胞核以外の細胞構造であって、細胞質を含む。よって、標本が細胞塊の場合、細胞構造群Aが構造群Aに該当する。
 細胞核だけが蛍光色素で染色されている場合、細胞核の蛍光像が形成される。細胞塊は複数の細胞核を有するので、複数の蛍光像が形成される。第1画像領域51は、第1構造に対応する画像領域である。第1構造は細胞核なので、第1画像領域51は、複数の細胞核に対応する画像領域を表している。
 細胞構造群Aは蛍光色素で染色されていないので、蛍光像が形成されない。第2画像領域52は、構造群Aに対応する画像領域である。細胞構造群Aが構造群Aに該当するので、第2画像領域52は、細胞構造群Aに対応する画像領域を表している。
 第1構造は細胞核なので、第1屈折率領域81に、細胞核の屈折率を設定すれば良い。構造群Aには細胞構造群Aが該当するので、第2屈折率領域82に、細胞構造群Aの屈折率を設定すれば良い。上述のように、細胞構造群Aは、細胞質と、細胞膜と、細胞接着分子と、を有する。細胞膜の領域と細胞接着分子の領域は狭いので、第2屈折率領域82には細胞質の屈折率を設定すれば良い。
 標本は生物標本以外であっても良い。例えば、標本は、半導体基板上の異物やハンダでも良い。本実施形態の屈折率分布生成装置では、半導体基板上の異物やハンダにおいて、屈折率分布の精度を向上させることができる。
 本実施形態の屈折率分布生成装置では、第1設定処理は、単位画素のうち、信号強度値が閾値より大きい第1単位画素で構成される第1画像領域に対応する位置に、第1屈折率情報に基づく屈折率を設定し、第2設定処理は、単位画素のうち、信号強度値が閾値以下の第2単位画素で構成される画像領域に対応する位置に、第2屈折率情報に基づく屈折率を設定することが好ましい。
 図5は、処理対象画像と屈折率分布画像を示す図である。図5(a)は、処理対象画像を示す図である。図5(b)は、処理対象画像の一部を示す図である。図5(c)は、屈折率分布画像の一部を示す図である。図5(d)は、屈折率分布画像を示す図である。図5(a)は図3(a)と同じなので、図5(a)については説明を省略する。
 第1設定処理では、単位画素のうち、信号強度値が閾値より大きい第1単位画素で構成される第1画像領域に対応する位置に、第1屈折率情報に基づく屈折率が設定される。
 第2設定処理では、単位画素のうち、信号強度値が閾値以下の第2単位画素で構成される画像領域に対応する位置に、第2屈折率情報に基づく屈折率が設定される。
 図5(b)には、処理対象画像の一部を拡大した画像、Z軸方向の信号強度及びX軸方向の信号強度が示されている。図5(b)では、見易さのために、第1画像領域は楕円で表されている。しかしながら、実際には、第1画像領域は複雑な形状をしている。
 処理対象画像90は、第1画像領域91と、第2画像領域92と、を有する。第2画像領域92は第1画像領域91と異なる。
 第1画像領域91は、図5(a)における第1画像領域51である。第1画像領域51は第1構造に対応する画像領域なので、第1画像領域91は第1構造に対応する画像領域である。第2画像領域92は、図5(a)における第2画像領域52である。第2画像領域52は構造群Aに対応する画像領域なので、第2画像領域92は構造群Aに対応する画像領域である。
 第1画像領域91は、第1単位画素の信号強度に基づいて求めることができる。処理対象画像90では、第1単位画素の信号強度として、単位画素の信号強度のうち、閾値ITHより大きい信号強度が用いられている。図5(b)において、ΔZ1とΔX1は、第1単位画素の領域を示している。
 第2画像領域92は、第2単位画素の信号強度に基づいて求めることができる。処理対象画像90では、第2単位画素の信号強度として、単位画素の信号強度のうち、閾値ITH以下の信号強度が用いられている。図5(b)において、ΔZ2とΔX2は、第2単位画素の領域を示している。
 第1画像領域91は楕円で示される領域なので、第1画像領域91の位置は楕円の位置から求まる。第2画像領域92は第1画像領域91を除いた領域なので、第1画像領域91の位置が求まれば第2画像領域92の位置が求まる。
 第1設定処理と第2設定処理では、屈折率が設定される。上述のように、屈折率の設定は、処理対象画像とは別の画像、例えば、屈折率分布画像で行えば良い。
 図5(c)には、屈折率分布画像の一部を拡大した画像、Z軸方向の屈折率分布及びX軸方向の屈折率分布が示されている。屈折率分布画像100は、第1屈折率領域101と、第2屈折率領域102と、を有する。
 屈折率分布画像100は屈折率で表される画像なので、第1屈折率情報に基づく屈折率と第2屈折率情報に基づく屈折率を設定することができる。屈折率を設定するためには、第1屈折率情報に基づく屈折率を設定する領域と、第2屈折率情報に基づく屈折率を設定する領域が必要である。
 第1屈折率情報は、第1構造の屈折率を示す情報である。第1構造に対応する画像領域は、第1画像領域91である。第1屈折率情報に基づく屈折率を設定するためには、屈折率分布画像100において、第1画像領域91と対応する領域を求めれば良い。
 第2屈折率情報は、第2構造の屈折率を示す情報である。第2構造は、構造群Aに含まれている。構造群Aに対応する画像領域は、第2画像領域92である。第2屈折率情報に基づく屈折率を設定するためには、屈折率分布画像100において、第2画像領域92と対応する領域を求めれば良い。
 図5(c)では、第1屈折率領域101が、第1画像領域91と対応する領域である。よって、第1屈折率領域101に、第1屈折率情報に基づく屈折率を設定すれば良い。
 また、第1屈折率領域102が、第2画像領域92と対応する領域である。第2画像領域92は構造群Aに対応する画像領域なので、第2屈折率領域102は構造群Aに対応する画像領域である。構造群Aには、第2構造が含まれている。よって、第2屈折率領域102に、第2屈折率情報に基づく屈折率を設定すれば良い。
 第1屈折率領域101に第1屈折率情報に基づく屈折率を設定するためには、第1屈折率領域101の位置を求める必要がある。第1屈折率領域101は、第1画像領域91と対応している。第1画像領域91の位置は、処理対象画像90の単位画素の信号強度、すなわち、閾値ITHよりも大きい信号強度に基づいて求まる。よって、第1屈折率領域101の位置は、閾値ITHよりも大きい信号強度に基づいて求めれば良い。このようにして求めた位置に、第1屈折率情報に基づく屈折率を設定すれば良い。
 第2屈折率領域102に第2屈折率情報に基づく屈折率を設定するためには、第2屈折率領域102の位置を求める必要がある。第2屈折率領域102は、第2画像領域92と対応している。第2画像領域92の位置は、処理対象画像90の単位画素の信号強度、すなわち、閾値ITH以下の信号強度に基づいて求まる。よって、第2屈折率領域102の位置は、閾値ITH以下の信号強度に基づいて求めれば良い。このようにして求めた位置に、第2屈折率情報に基づく屈折率を設定すれば良い。
図5(d)には、屈折率分布画像110が示されている。屈折率分布画像110は、第1屈折率領域111と、第2屈折率領域112と、を有する。屈折率分布画像110は、処理対象画像50と対応する画像である。処理対象画像50は、複数の第1画像領域51を複数有する。よって、屈折率分布画像110も、第1屈折率領域111を複数有する。
 プロセッサ3では、処理対象画像50を用いて、折率分布生成処理が実施される。処理対象画像50は、標本の光学像を撮影した画像である。プロセッサ3では、標本を撮影した画像を処理対象画像として、屈折率分布生成処理が実行される。
 本実施形態の屈折率分布生成装置では、屈折率分布生成処理は、標本の深さが浅い位置の明るさに対して標本の深さが深い位置の明るさを向上させる第1補正処理を含み、第1設定処理は、深い位置の明るさが向上した処理対象画像の単位画素の信号強度に基づいて、第1屈折率情報に基づく屈折率を設定することが好ましい。処理対象画像は、一端から他端に向かう方向に沿って、標本の深さが深くなる画像であり、一端は、処理対象画像の中心を挟んで他端と反対側にある。
 図6は、プロセッサで行われる処理のフローチャートである。図4に示す処理と同じ処理については、説明を省略する。
 屈折率分布生成処理は、入力処理と、第1設定処理と、第2設定処理と、第1補正処理と、を含む。第1補正処理は、第1設定処理を実行する前に実行される。
 ステップS110では、第1補正処理が実行される。第1補正処理における処理対象画像は、一端から他端に向かう方向に沿って、標本の深さが深くなる画像である。一端は、処理対象画像の中心を挟んで他端と反対側にある。第1補正処理では、標本の深さが浅い位置の明るさに対して、標本の深さが深い位置の明るさが向上している。
 図7は、処理対象画像を示す図である。図7(a)は、第1補正前状態の処理対象画像を示す図である。図7(b)は、第1補正前状態の信号強度を示す図である。図7(c)は、第1補正後状態の処理対象画像を示す図である。図7(d)は、第1補正後状態の信号強度を示す図である。第1補正前状態は、第1補正処理を実施する前の状態である。第1補正後状態は、第1補正処理を実施した後の状態である。
 観察光学系に近い側を標本の上面側とし、観察光学系から遠い側を標本の底面側とする。処理対象画像120はXZ画像なので、処理対象画像120では、画像の右端は標本の上面の画像を表し、画像の左端は標本の底面の画像を表している。画像の右端から画像の左端に向かって、標本の深さが深くなる。処理対象画像120は、第1画像領域121と、第2画像領域122と、を有する。
 画像の左端に向かうほど、標本の上面からの深さは深くなる。図7(a)に示すように、第1画像領域121は、第2画像領域122よりも左側に位置している。よって、第1画像領域121は、第2画像領域122よりも深くに位置している。
 図7(a)に示す処理対象画像120は、第1補正前状態の画像である。第1補正処理を実施する前の状態なので、処理対象画像120では、第1画像領域121の明るさは、第2画像領域122の明るさよりも暗い。明るさは信号強度で表されるので、図7(b)に示すように、第1画像領域121の信号強度は、第2画像領域122の信号強度よりも小さい。
 図7(a)では、見易さのために、第1画像領域121の明るさと第2画像領域122の明るさは、各々、均一な明るさで描かれている。しかしながら、図7(b)に示すように、第1画像領域121の明るさと第2画像領域122の明るさは、各々、均一ではない。
 図7(c)に示す処理対象画像130は、第1補正後状態の画像である。処理対象画像130は、第1画像領域131と、第2画像領域132と、を有する。第1画像領域131は第1画像領域121に対応し、第2画像領域132は第2画像領域121に対応している。
 第1補正処理を実施した後の状態なので、処理対象画像130では、第1画像領域131の明るさは、第2画像領域132の明るさと同じである。明るさは信号強度で表されるので、図7(d)に示すように、第1画像領域131の信号強度は、第2画像領域132の信号強度と同じである。第1画像領域131の明るさと第2画像領域132の明るさは、各々、均一ではない。
 第1画像領域131の深さは、第2画像領域132の深さよりも深い。処理対象画像130では、標本の深さが浅い位置の明るさに対して、標本の深さが深い位置の明るさが向上している。ステップS110が終了すると、ステップS201が実行される。
 ステップS201は、第1設定処理である。第1補正処理が実行されているので、第1設定処理は、処理対象画像130に対して実施される。第1設定処理では、処理対象画像130の単位画素の信号強度に基づいて、屈折率が設定される。
 処理対象画像130は、深い位置の明るさが向上した処理対象画像である。よって、ステップS201では、深い位置の明るさが向上した処理対象画像の単位画素の信号強度に基づいて、屈折率が設定されている。
 処理対象画像120と処理対象画像130では、便宜的に、第1画像領は楕円で描かれている。ただし、処理対象画像50の第1画像領域の形状から明らかなように、実際には、第1画像領域の形状は複雑な形状である。
 本実施形態の屈折率分布生成装置では、屈折率分布生成処理は、第1単位画素の信号強度に基づいて、第1屈折率情報を補正し、補正屈折率情報を生成する第2補正処理を含み、第2補正処理は、信号強度が最大信号強度未満の第1単位画素に対応する屈折率が、第1単位画素のうち、最大信号強度の単位画素に対応する屈折率よりも小さい補正屈折率情報を生成し、第1設定処理は、第1画像領域に対応する位置に、補正屈折率情報が示す屈折率を設定することが好ましい。
 図8は、プロセッサで行われる処理のフローチャートである。図4に示す処理と同じ処理については、説明を省略する。
 屈折率分布生成処理は、入力処理と、第1設定処理と、第2設定処理と、第2補正処理と、を含む。第2補正処理は、第1設定処理を実行する前に実行される。
 ステップS120では、第2補正処理が実行される。第2補正処理では、第1単位画素の信号強度に基づいて、第1屈折率情報を補正し、補正屈折率情報が生成される。
 図9は、処理対象画像と屈折率分布画像を示す図である。図9(a)は、処理対象画像を示す図である。図9(b)は、処理対象画像の一部を示す図である。図9(c)は、屈折率分布画像の一部を示す図である。図9(d)は、屈折率分布画像を示す図である。図9(a)は図5(a)と同じで、図9(b)は図5(b)と同じなので、図9(a)と図9(b)については説明を省略する。
 第1単位画素は、単位画素の信号強度のうち、閾値ITHより大きい信号強度を持つ画素である。図9(b)に示すように、第1画像領域91は、第1単位画素の信号強度に基づいて求めることができる。
 図9(b)において、ΔZ1とΔX1は、第1単位画素の領域を示している。第1単位画素の領域は、信号強度が最大の単位画素と、信号強度が最大信号強度未満の単位画素を含む。
 第2補正処理では、補正屈折率情報が生成される。補正屈折率情報の生成では、信号強度Imax、信号強度ITH、屈折率n1及び屈折率n2が用いられる。信号強度Imaxは、第1単位画素の領域における最大信号強度である。信号強度ITHは、閾値の信号強度である。また、屈折率n1は屈折率n2よりも小さい。
 補正屈折率情報の生成では、屈折率n1を信号強度ITHに対応させ、屈折率n2を信号強度Imaxに対応させる。このような対応付けを行うと、屈折率n1から屈折率n2までの間の屈折率と信号強度ITHから信号強度Imaxまでの間の信号強度を、一対一に対応させることができる。その結果、補正屈折率情報を、屈折率n1から屈折率n2までの間の屈折率で表わすことができる。
 例えば、第1屈折率情報では、屈折率の情報が屈折率n2だけで形成されているとする。この場合、第1屈折率情報における屈折率の数は1つである。これに対して、補正屈折率情報における屈折率は複数である。よって、補正屈折率情報は、細やかな屈折率で第1屈折率情報が補正された情報と見なすことができる。ステップS120が終了すると、ステップS201が実行される。
 ステップS201では、第1設定処理が実行される。第1設定処理では、屈折率が設定される。上述のように、屈折率の設定は、処理対象画像とは別の画像、例えば、屈折率分布画像で行えば良い。
 図9(c)には、屈折率分布画像の一部を拡大した画像、Z軸方向の屈折率分布及びX軸方向の屈折率分布が示されている。屈折率分布画像140は、第1屈折率領域141と、第2屈折率領域142と、を有する。
 屈折率分布画像140は屈折率で表される画像なので、補正屈折率情報に基づく屈折率を設定することができる。屈折率を設定するためには、補正屈折率情報に基づく屈折率を設定する領域を設定する領域が必要である。
 補正屈折率情報は、第1屈折率情報を補正した情報である。第1屈折率情報は、第1構造の屈折率を示す情報である。第1構造に対応する画像領域は、第1画像領域91である。補正屈折率情報に基づく屈折率を設定するためには、屈折率分布画像140において、第1画像領域91と対応する領域を求めれば良い。
 図9(c)では、第1屈折率領域141が、第1画像領域91と対応する領域である。また、第2屈折率領域142が、第2画像領域92と対応する領域である。よって、第1屈折率領域141に、補正屈折率情報に基づく屈折率を設定すれば良い。
 第1屈折率領域141に補正屈折率情報基づく屈折率を設定するためには、第1屈折率領域141の位置を求める必要がある。第1屈折率領域141は、第1画像領域91と対応している。第1画像領域91の位置は、処理対象画像90の単位画素の信号強度、すなわち、閾値ITHよりも大きい信号強度に基づいて求まる。よって、第1屈折率領域141の位置は、閾値ITHよりも大きい信号強度に基づいて求めれば良い。このようにして求めた位置に、補正屈折率情報に基づく屈折率を設定すれば良い。
図9(d)には、屈折率分布画像150が示されている。屈折率分布画像150は、第1屈折率領域151と、第2屈折率領域152と、を有する。屈折率分布画像150は、処理対象画像50と対応する画像である。処理対象画像50は、複数の第1画像領域51を複数有する。よって、屈折率分布画像150も、第1屈折率領域151を複数有する。
 信号強度ITHがゼロの場合、図3(c)に示す第1屈折率領域71に、補正屈折率情報に基づく屈折率が設定される。この場合、第1屈折率領域71は、屈折率n1から屈折率n2までの間の屈折率で表わすことができる。
 本実施形態の屈折率分布生成装置では、屈折率分布生成処理は、標本の深さが浅い位置の明るさに対して標本の深さが深い位置の明るさを向上させる第1補正処理を含み、第1設定処理は、深い位置の明るさが向上した処理対象画像の第1画像領域に対応する第1屈折率情報を補正し、補正屈折率情報を生成することが好ましい。処理対象画像は、一端から他端に向かう方向に沿って、標本の深さが深くなる画像であり、一端は、処理対象画像の中心を挟んで他端と反対側にある。
 図10は、プロセッサで行われる処理のフローチャートである。図6と図8に示す処理と同じ処理については、説明を省略する。
 ステップS110では、第1補正処理が実行される。第1補正処理では、上面からの深さが浅い第1画像領域の明るさに対して、上面からの深さが深い第1画像領域の明るさを向上している。その結果、明るささが向上した後の第1画像領域が得られる。ステップS110が終了すると、ステップS120が実行される。
 ステップS120では、第2補正処理が実行される。第1補正処理で、明るささが向上した後の第1画像領域が得られる。よって、第2補正処理では、明るさが向上した後の第1画像領域に対応する第1屈折率情報が補正され、補正屈折率情報が生成される。ステップS120が終了すると、ステップS201が実行される。
 ステップS201では、第1設定処理が実行される。第2補正処理で、補正屈折率情報が生成されている。よって、第1設定処理では、明るさが向上した後の第1画像領域に対応する位置に、補正屈折率情報が示す屈折率が設定される。
 本実施形態の屈折率分布生成装置では、第1設定処理は、第1単位画素で構成される第1画像領域に対応する位置に、第1屈折率情報が示す屈折率を設定することが好ましい。
 図11は、処理対象画像を示す図である。図11(a)は、処理前の処理対象画像を示す図である。図11(b)は、処理前の処理対象画像の一部を示す図である。図11(c)は、処理後の処理対象画像の一部を示す図である。図11(d)は、処理後の処理対象画像を示す図である。図11(a)は図3(a)と同じで、図11(b)は図3(b)と同じなので、図11(a)と図11(b)については説明を省略する。
 図11(b)に示すように、処理対象画像90では、第1画像領域91と第2画像領域92は、各々、様々な大きさの信号強度で表されている。そこで、処理対象画像90に対して2値化処理を実行する。
 その結果、図11(c)に示すように、処理対象画像160では、第1画像領域161と第2画像領域162は、各々、1つの大きさの信号強度で表される。第1画像領域161における信号強度は、第2画像領域162における信号強度よりも大きい。
 処理対象画像全体に2値化処理を実行することで、図11(d)に示すように、処理対象画像170が得られる。処理対象画像170では、全ての第1画像領域171と第2画像領域172が2値化されている。
 第1設定処理では、2値化された第1画像領域171に対応する位置に、第1屈折率情報が示す屈折率が設定される。
 本実施形態の屈折率分布生成装置では、屈折率分布生成処理は、標本の深さが浅い位置の明るさに対して標本の深さが深い位置の明るさを向上させる第1補正処理を含み、第1設定処理は、深い位置の明るさが向上した処理対象画像の第1画像領域に対応する位置に、第1屈折率情報が示す屈折率を設定することが好ましい。処理対象画像は、一端から他端に向かう方向に沿って、標本の深さが深くなる画像であり、一端は、処理対象画像の中心を挟んで他端と反対側にある。
 2値化処理の実行前に、ステップS110を実行しても良い。ステップS110では、第1補正処理が実行される。2値化処理が終了すると、ステップS201が実行される。
 ステップS201では、第1設定処理が実行される。第1設定処理では、2値化された第1画像領域に対応する位置に、第1屈折率情報が示す屈折率が設定される。
 本実施形態の屈折率分布生成装置では、第1補正処理は、他端に近い画像領域ほど、明るさをより向上させることが好ましい。
 標本の屈折率分布の精度を、向上させることができる。
 本実施形態の屈折率分布生成装置では、入力処理は、第3構造の屈折率を示す第3屈折率情報を、メモリから入力し、設定処理は、第3屈折率情報に基づく屈折率を、処理対象画像の第3画像領域に対応する位置に、処理対象画像の単位画素の信号強度と色情報とに基づいて設定する第3設定処理を含み、第2設定処理は、第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置で、かつ、処理対象画像の第3画像領域と異なる画像領域に対応する位置に設定することが好ましい。第3画像領域は、第3構造に対応する画像領域である。
 図12は、処理対象画像を示す図である。図12(a)は、第1画像領域を示す図である。図12(b)は、第3画像領域を示す図である。
 標本は、第1構造と、第2構造と、第3構造と、を有する。第1構造と第3構造は、蛍光色素で染色されている。第2構造は、蛍光色素で染色されていない。
 第1構造は蛍光色素で染色されているので、第1構造の蛍光像が形成される。第1構造の蛍光像は、波長λ1の蛍光で形成されている。第2構造は蛍光色素で染色されていないので、第2構造の蛍光像は形成されない。第3構造は蛍光色素で染色されているので、第3構造の蛍光像が形成される。第3構造を染色した蛍光色素は、第1構造を染色した蛍光色素と異なる。第3構造の蛍光像は、波長λ3の蛍光で形成されている。
 図12(a)に示す処理対象画像180は、標本の光学像の画像である。処理対象画像180は、光学フィルタFλ1を介して取得された画像である。処理対象画像180は、第1画像領域181と、画像領域182と、を有する。
 第1画像領域181は、光学フィルタFλ1を透過した光に対応する画像領域である。第1構造の蛍光像を形成する光は波長λ1の蛍光なので、光学フィルタFλ1を透過する。よって、第1画像領域181は、第1構造に対応する画像領域である。処理対象画像180には、第1構造の画像が複数含まれているので、処理対象画像180は、複数の第1画像領域181を有する。
 画像領域182は、光学フィルタFλ1を透過しなかった光に対応する画像領域である。第1構造以外の構造を構造群Bとする。構造群Bは、第2構造と第3構造を含む。第2構造の蛍光像は形成されないので、光学フィルタFλ1を透過する光が存在しない。第3構造の蛍光像を形成する光は波長λ3の蛍光なので、光学フィルタFλ1を透過しない。よって、画像領域182は、構造群Bに対応する画像領域である。構造群Bは第1構造と異なるので、画像領域182は第1画像領域181と異なる。
 図12(b)に示す処理対象画像190は、標本の光学像の画像である。処理対象画像190は、波長λ3の蛍光だけを透過する光学フィルタ以下、「光学フィルタFλ3」という)を介して取得された画像である。処理対象画像190は、第3画像領域191と、画像領域192と、を有する。
 第3画像領域191は、光学フィルタFλ3を透過した光に対応する画像領域である。第3構造の蛍光像を形成する光は波長λ3の蛍光なので、光学フィルタFλ3を透過する。よって、第3画像領域191は、第3構造に対応する画像領域である。
 画像領域192は、光学フィルタFλ3を透過しなかった光に対応する画像領域である。第3構造以外の構造を構造群Cとする。構造群Cは、第1構造と第2構造を含む。第1構造の蛍光像を形成する光は波長λ1の蛍光なので、光学フィルタFλ3を透過しない。第2構造の蛍光像は形成されないので、光学フィルタFλ3を透過する光が存在しない。よって、画像領域192は、構造群Cに対応する画像領域である。構造群Cは第3構造と異なるので、画像領域192は第3画像領域191と異なる。
 図13は、プロセッサで行われる処理のフローチャートである。図3に示す処理と同じ処理については、説明を省略する。
 ステップS100では、入力処理が実行される。ステップS100は、ステップS101と、ステップS102と、ステップS103と、ステップS104と、を有する。ステップS104では、第3屈折率情報がメモリから入力される。第3屈折率情報は、第3構造の屈折率を示す情報である。ステップS100が終了すると、ステップS200が実行される。
 ステップS200では、設定処理が実行される。設定処理では、屈折率分布を構成するそれぞれの屈折率が設定される。ステップS200は、ステップS201と、ステップS203と、ステップS204と、を有する。
 ステップS203では、第3設定処理が実行される。第3設定処理では、第3屈折率情報に基づく屈折率が、処理対象画像の第3画像領域に対応する位置に、処理対象画像の単位画素の信号強度と色情報とに基づいて設定される。
 ステップS204では、第2設定処理が実行される。第2設定処理では、第2屈折率情報に基づく屈折率が、処理対象画像の第1画像領域と異なる画像領域に対応する位置で、かつ、処理対象画像の第3画像領域と異なる画像領域に対応する位置に設定される。
 処理対象画像180では、単位画素の信号強度として、ゼロよりも大きい信号強度が用いられている。第1画像領域181を形成する単位画素では、信号強度はゼロよりも大きい。画像領域182は、第1画像領域181を除いた領域である。よって、画像領域182を形成する単位画素では、信号強度はゼロである。
 処理対象画像190では、単位画素の信号強度として、ゼロよりも大きい信号強度が用いられている。第3画像領域191を形成する単位画素では、信号強度はゼロよりも大きい。画像領域192は、第3画像領域191を除いた領域である。よって、画像領域192を形成する単位画素では、信号強度はゼロである。
 所定の集合体を、円に近い形状と楕円に近い形状の集合体とする。第1画像領域181は所定の集合体で示される領域なので、第1画像領域181の位置は所定の集合体の位置から求まる。画像領域182は第1画像領域181を除いた領域なので、第1画像領域181の位置が求まれば画像領域182の位置が求まる。
 第3画像領域191は網目模様で示される領域なので、第3画像領域191の位置は網目模様の位置から求まる。画像領域192は第3画像領域191を除いた領域なので、第3画像領域191の位置が求まれば画像領域192の位置が求まる。
 第1設定処理、第2設定処理及び第3設定処理では、屈折率が設定される。処理対象画像は、標本の光学像の画像である。標本の光学像の画像は明るさの情報で形成された画像なので、屈折率の設定は、例えば、屈折率分布画像で行えば良い。
 屈折率分布画像は屈折率で表された画像なので、第1屈折率情報に基づく屈折率、第2屈折率情報に基づく屈折率及び第3屈折率情報に基づく屈折率を設定することができる。屈折率を設定するためには、第1屈折率情報に基づく屈折率を設定する領域、第2屈折率情報に基づく屈折率を設定する領域及び第3屈折率情報に基づく屈折率を設定する領域が必要である。
 第1屈折率情報は、第1構造の屈折率を示す情報である。第1構造に対応する画像領域は、第1画像領域181である。第1屈折率情報に基づく屈折率を設定するためには、屈折率分布画像において、第1画像領域181と対応する領域を求めれば良い。
 第3屈折率情報は、第3構造の屈折率を示す情報である。第3構造に対応する画像領域は、第3画像領域191である。第3屈折率情報に基づく屈折率を設定するためには、屈折率分布画像において、第3画像領域191と対応する領域を求めれば良い。
 第2屈折率情報は、第2構造の屈折率を示す情報である。第2構造は、構造群Bと構造群Cに含まれている。構造群Bに対応する画像領域は画像領域182で、構造群Cに対応する画像領域は画像領域192である。
 ただし、構造群Bには第3構造が含まれ、構造群Cには第1構造が含まれている。よって、第2構造を含む画像領域を求めるには、画像領域182から第3画像領域191を除くか、又は画像領域192から第1画像領域181を除けば良い。除外によって残った領域(以下、「残存領域A」という)は、第2構造に対応する画像領域を含んでいる。第2屈折率情報に基づく屈折率を設定するためには、屈折率分布画像において、残存領域Aと対応する領域を求めれば良い。
 屈折率分布画像に屈折率情報に基づく屈折率を設定するためには、第1画像領域181と対応する領域の位置、残存領域Aと対応する領域の位置及び第3画像領域191と対応する領域の位置を求める必要がある。
 第1画像領域181の位置は、処理対象画像180の単位画素の信号強度に基づいて求まる。よって、第1画像領域181と対応する領域の位置は、処理対象画像180の単位画素の信号強度に基づいて求めれば良い。このようにして求めた位置に、第1屈折率情報に基づく屈折率を設定すれば良い。
 第3画像領域191の位置は、処理対象画像190の単位画素の信号強度に基づいて求まる。よって、第3画像領域191と対応する領域の位置は、処理対象画像190の単位画素の信号強度に基づいて求めれば良い。このようにして求めた位置に、第3屈折率情報に基づく屈折率を設定すれば良い。
 残存領域Aと対応する領域は、屈折率分布画像において、第1画像領域181と対応する領域と、第3画像領域191と対応する領域を除外することで求まる。よって、残存領域Aと対応する位置は、第1画像領域181と対応する領域の位置と、第3画像領域191と対応する領域の位置に基づいて求めれば良い。このようにして求めた位置に、第2屈折率情報に基づく屈折率を設定すれば良い。
 撮像素子として、カラーイメージセンサ又はモノクロイメージセンサを用いることができる。上述のように、第3構造の蛍光像を形成する光は波長λ3の蛍光で、第1構造の蛍光像を形成する光は波長λ1の蛍光である。波長λ3は波長λ1と異なるので、第3構造の蛍光像の色と第1構造の蛍光像の色は異なる。
 撮像素子としてカラーイメージセンサを用いた場合、第3構造の蛍光像と第1構造の蛍光像は色で区別することができる。よって、処理対象画像の第3画像領域に対応する位置は、色情報に基づいて求めることができる。
 撮像素子としてモノクロメージセンサを用いた場合、第3構造の蛍光像と第1構造の蛍光像は色で区別することができない。上述のように、第3画像領域は光学フィルタFλ3を透過した光に対応する画像領域で、第1画像領域は光学フィルタFλ1を透過した光に対応する画像領域である。光学フィルタFλ3の色は、光学フィルタFλ1の色と異なる。この場合、第3構造の蛍光像と第1構造の蛍光像は、光学フィルタの色で区別することができる。よって、処理対象画像の第3画像領域に対応する位置は、色情報に基づいて求めることができる。
 本実施形態の屈折率分布生成装置では、入力処理は、標本を取り囲む媒体の屈折率を示す第4屈折率情報をメモリから入力し、屈折率分布生成処理は、標本と媒体との境界を特定する特定処理を含み、設定処理は、第4屈折率情報に基づく屈折率を、処理対象画像の第4画像領域に対応する位置に設定する第3設定処理を含むことが好ましい。第4画像領域は、媒体に対応する画像領域である。
 図14は、処理対象画像を示す図である。図14(a)は、第1画像領域を示す図である。図14(b)は、第4画像領域を示す図である。
 標本は、第1構造と、第2構造と、を有する。標本は、媒体、例えば培養液で囲まれている。第1構造は、蛍光色素で染色されている。第2構造と媒体は、蛍光色素で染色されていない。
 第1構造は蛍光色素で染色されているので、第1構造の蛍光像が形成される。第1構造の蛍光像は、波長λ1の蛍光で形成されている。第2構造と媒体は蛍光色素で染色されていないので、第2構造の蛍光像と媒体の蛍光像は形成されない。
 図12(a)に示す処理対象画像200は、標本の光学像の画像である。処理対象画像200は、光学フィルタFλ1を介して取得された画像である。処理対象画像200は、第1画像領域201と、画像領域202と、を有する。
 第1画像領域201は、光学フィルタFλ1を透過した光に対応する画像領域である。第1構造の蛍光像を形成する光は波長λ1の蛍光なので、光学フィルタFλ1を透過する。よって、第1画像領域201は、第1構造に対応する画像領域である。処理対象画像200には、第1構造の画像が複数含まれているので、処理対象画像200は、複数の第1画像領域201を有する。
 画像領域202は、光学フィルタFλ1を透過しなかった光に対応する画像領域である。構造群Aの蛍光像と媒体の蛍光像は形成されないので、光学フィルタFλ1を透過する光が存在しない。よって、画像領域202は、構造群Aと媒体に対応する画像領域である。構造群Aと媒体は第1構造と異なるので、画像領域202は第1画像領域201と異なる。
 図12(b)に示す処理対象画像210は、媒体の光学像の画像である。図12(b)では、見易さのために、2つの領域が2値化されている。媒体の光学像は、例えば、明視野画像から推定することができる。
 処理対象画像210は、第4画像領域211と、画像領域212と、を有する。第4画像領域211は、媒体に対応する画像領域である。画像領域212は、標本に対応する画像領域である。画像領域212の外縁は、標本全体の概略形状を表していると見なすことができる。
 図15は、プロセッサで行われる処理のフローチャートである。図3に示す処理と同じ処理については、説明を省略する。
 ステップS100では、入力処理が実行される。ステップS100は、ステップS101と、ステップS102と、ステップS103と、ステップS105と、を有する。ステップS105では、第4屈折率情報がメモリから入力される。第4屈折率情報は、標本を取り囲む媒体の屈折率を示す情報である。ステップS100が終了すると、ステップS130が実行される。
 ステップS130では、特定処理が実行される。特定処理では、標本と媒体との境界が特定される。ステップS130が終了すると、ステップS200が実行される。
 ステップS200では、設定処理が実行される。設定処理では、屈折率分布を構成するそれぞれの屈折率が設定される。ステップS200は、ステップS201と、ステップS202と、ステップS205と、を有する。
 ステップS205では、第4設定処理が実行される。第4設定処理では、第4屈折率情報に基づく屈折率が、処理対象画像の第4画像領域に対応する位置に設定される。
 処理対象画像200では、単位画素の信号強度として、ゼロよりも大きい信号強度が用いられている。第1画像領域201を形成する単位画素では、信号強度はゼロよりも大きい。画像領域202は、第1画像領域201を除いた領域である。よって、画像領域202を形成する単位画素では、信号強度はゼロである。
 第1画像領域201は所定の集合体で示される領域なので、第1画像領域201の位置は所定の集合体の位置から求まる。画像領域202は第1画像領域201を除いた領域なので、第1画像領域201の位置が求まれば画像領域202の位置が求まる。
 第4画像領域211は標本と媒体との境界の外側の領域なので、第4画像領域211の位置は境界の位置から求まる。画像領域212は第4画像領域211を除いた領域なので、第4画像領域211の位置が求まれば画像領域212の位置が求まる。
 第1設定処理、第2設定処理及び第4設定処理では、屈折率が設定される。処理対象画像は、標本の光学像の画像である。標本の光学像の画像は明るさの情報で形成された画像なので、屈折率の設定は、例えば、屈折率分布画像で行えば良い。
 屈折率分布画像は屈折率で表された画像なので、第1屈折率情報に基づく屈折率、第2屈折率情報に基づく屈折率及び第4屈折率情報に基づく屈折率を設定することができる。屈折率を設定するためには、第1屈折率情報に基づく屈折率を設定する領域、第2屈折率情報に基づく屈折率を設定する領域及び第4屈折率情報に基づく屈折率を設定する領域が必要である。
 第1屈折率情報は、第1構造の屈折率を示す情報である。第1構造に対応する画像領域は、第1画像領域201である。第1屈折率情報に基づく屈折率を設定するためには、屈折率分布画像において、第1画像領域201と対応する領域を求めれば良い。
 第4屈折率情報は、媒体の屈折率を示す情報である。媒体に対応する画像領域は、第4画像領域211である。第4屈折率情報に基づく屈折率を設定するためには、屈折率分布画像において、第4画像領域211と対応する領域を求めれば良い。
 第2屈折率情報は、第2構造の屈折率を示す情報である。第2構造は、構造群Aに含まれている。構造群Aを含む画像領域は画像領域202である。ただし、画像領域202において、構造群Aに対応する画像領域と媒体に対応する画像領域を区別することができない。
 媒体に対応する画像領域は、第4画像領域211である。第1構造に対応する画像領域は、第1画像領域201である。よって、第2構造を含む画像領域を求めるには、画像領域202から第1画像領域201と第4画像領域211除けば良い。除外によって残った領域(以下、「残存領域B」という)は、第2構造に対応する画像領域を含んでいる。第2屈折率情報に基づく屈折率を設定するためには、屈折率分布画像において、残存領域Bと対応する領域を求めれば良い。
 屈折率分布画像に屈折率情報に基づく屈折率を設定するためには、第1画像領域201と対応する領域の位置、残存領域Bと対応する領域の位置及び第4画像領域211と対応する領域の位置を求める必要がある。
 第1画像領域201の位置は、処理対象画像200の単位画素の信号強度に基づいて求まる。よって、第1画像領域201と対応する領域の位置は、処理対象画像200の単位画素の信号強度に基づいて求めれば良い。このようにして求めた位置に、第1屈折率情報に基づく屈折率を設定すれば良い。
 第4画像領域211の位置は、処理対象画像210における標本と媒体との境界に基づいて求まる。よって、第4画像領域211と対応する領域の位置は、処理対象画像210における標本と媒体との境界に基づいて求めれば良い。このようにして求めた位置に、第4屈折率情報に基づく屈折率を設定すれば良い。
 残存領域Bと対応する領域は、屈折率分布画像において、第1画像領域201と対応する領域と、第4画像領域211と対応する領域を除外することで求まる。よって、残存領域Bと対応する位置は、第1画像領域201と対応する領域の位置と、第4画像領域211と対応する領域の位置から求まる。このようにして求めた位置に、第2屈折率情報に基づく屈折率を設定すれば良い。
 本実施形態の屈折率分布生成装置では、第1屈折率情報と第2屈折率情報は、細胞の組成構造に関する屈折率情報であることが好ましい。
 標本の屈折率分布の精度を、向上させることができる。
 本実施形態の屈折率分布生成装置では、第1屈折率情報は、細胞核の屈折率情報であり、第2屈折率情報は、細胞膜の屈折率情報ある
 標本の屈折率分布の精度を、向上させることができる。
 本実施形態の屈折率分布生成装置では、第3屈折率情報は、細胞接着分子の屈折率情報であることが好ましい。
 標本の屈折率分布の精度を、向上させることができる。
 本実施形態の屈折率分布生成装置では、第4屈折率情報は、細胞培養液の屈折率情報あることが好ましい。
 標本の屈折率分布の精度を、向上させることができる。
 本実施形態の屈折率分布生成装置では、プロセッサは、処理対象画像に対応する処理後画像を生成する画像生成処理を実行することが好ましい。画像生成処理は、処理対象画像を、複数の小画像領域に分割する分割処理と、処理対象画像の屈折率分布を用い、小画像領域毎に点像強度分布を算出する点像強度分布算出処理と、小画像領域毎の点像強度分布を用い、小画像領域毎に小画像を生成する小画像生成処理と、小画像領域毎の小画像を合成し、処理後画像を生成する合成処理と、を含むことが好ましい。
 また、本実施形態の屈折率分布生成装置では、点像強度分布算出処理は、小画像領域毎に、小画像領域を起点に処理対象画像上を波面が伝播する範囲内に位置する第5画像領域に対応する位置に設定された屈折率分布を用いて、点像強度分布を算出し、第5画像領域は、小画像領域毎に、小画像領域を、所定方向に延長した第6画像領域の範囲外にある画像領域を含むことが好ましい。所定方向は、算出処理でモデル化する観察光学系の光軸方向のうち、標本から観察光学系に向かう方向である。
 図3(a)における処理対象画像50は、XZ断面の画像である。処理対象画像50では、画像の右端は標本の上面の画像を表し、画像の左端は標本の底面の画像を表している。画像の右端から画像の左端に向かって、標本の深さが深くなる。
 第1画像領域51は、複数の細胞核に対応する画像領域を表している。細胞核の形状が球の場合、XZ断面の形状は円である。よって、本来、細胞核のXZ断面の形状は、上面からの深さに関係なく円である。しかしながら、実際には、第1画像領域51の形状は、上面からの深さが深くなるほど円からの変形が大きくなっている。
 このように、処理対象画像50では、第1画像領域51の全てで、変形、鮮鋭度の低下及び明るさの低下が生じている。変形、鮮鋭度の低下及び明るさの低下を画質の劣化とすると、処理対象画像50では、画質の劣化が生じている。
 光学像の画像は、光学像の撮影によって得られる。光学像の画像で画質の劣化が生じているということは、光学像で劣化が生じているということである。
 標本が点光源の場合、光学像は点像であることが望ましい。点像が形成されるためには、光学系が無収差の光学系(以下、「理想光学系」という)で、且つ点光源から出た光の全てが光学系に入射していることが必要である。
 しかしながら、光学系の大きさは有限であるため、点光源から出た光の全てを光学系に入射させることはできない。この場合、光学像は回折の影響を受ける。その結果、光学系が理想光学系であっても点像は形成されず、広がりを持つ像が形成される。広がりを持つ像は、点像強度分布と呼ばれる。
 光学像は、点像強度分布を用いて以下の式(1)で表される。
 I=O*PSF   (1)
 ここで、
 Iは光学像、
 Oは標本、
 PSFは点像強度分布、
 *はコンボリューション、
である。
 点像強度分布を光学的なフィルタと見なすと、式(1)は、光学像が点像強度分布というフィルタを介して得られること表している。光学像で劣化が生じているということは、フィルタ、すなわち、点像強度分布が、変形、鮮鋭度の低下、及び明るさの低下を生じる特性(以下、「劣化特性」とする)を持っているということになる。
 周波数空間では、式(1)は以下の式(2)で表される。
 FI=FO×OTF   (2)
 ここで、
 FIは光学像のフーリエ変換、
 FOは標本のフーリエ変換、
 OTFは光学伝達関数、
である。
 OTFは、点像強度分布のフーリエ変換である。点像強度分布が劣化特性を持っている場合、OTFも劣化特性を持つ。
 式(2)を変形すると、式(2)は以下の式(3)で表される。
 FO=FI/OTF   (3)
 FIとOTFを求めることができれば、FOを求めることができる。そして、FOを逆フーリエ変換することで、Oを求めることができる。Oは標本である。この演算は、デコンボリューションとよばれる。
 処理対象画像50は、細胞核の光学像の画像である。処理対象画像50では、細胞核だけが画像化されている。そのため、処理対象画像50とOTFの画像を用いてデコンボリューションを行うと、細胞核の画像だけが求まる。
 標本は細胞塊なので、複数の細胞質と複数の細胞核を有する。しかしながら、処理対象画像50では、デコンボリューションを行っても、細胞核の画像だけしか求まらない。細胞質の画像は求まらないので、標本が求まったとは言い難い。デコンボリューションを行うことで標本が求まるが、標本が求まるか否かは、光学像の画像に依存する。
 画像で考えると、式(1)は、光学像の画像が点像強度分布というフィルタを介して得られた画像であること表している。点像強度分布が劣化特性を持っている場合、Iは画質が劣化した光学像の画像と見なすことができ、Oは画質が劣化する前の光学像の画像と見なすことができる。
 この場合、式(3)は、画質が劣化した光学像の画像から、画質が劣化する前の光学像の画像が生成されること表している。以下、画質が劣化した光学像の画像を「劣化画像」という。また、画質が劣化する前の光学像の画像は、画質が劣化した画像において、画像の回復が行われたということができる。よって、画質が劣化する前の光学像の画像を「回復画像」という。
 回復画像を生成するためには、点像強度分布を求める必要がある。標本の外側の屈折率をn1とし、標本の内側の屈折率をn2とする。
 理想形状を、理想光学系の点像強度分布の形状とする。理想形状では、合焦面と理想光学系の間の屈折率が、予め決められた屈折率と一致している。
 標本を合焦面から遠ざけた状態から、標本を光学系に向かって移動させる。光学系は動かないので、標本の上面が合焦面に到達する。この状態(以下、「第1状態」という)では、合焦面と光学系の間には、屈折率がn1の空間だけが存在している。合焦面に点光源を配置すると、第1状態の点像強度分布が得られる。
 第1状態では、合焦面と光学系の間の屈折率はn1である。予め決められた屈折率をn1とすると、第1状態の点像強度分布は、予め決められた屈折率だけに基づいて得られている。よって、第1状態の点像強度分布の形状は、理想形状と同じである。
 更に標本を移動させると、合焦面が標本の内部に到達する。この状態(以下、「第2状態」という)では、合焦面と光学系の間には、屈折率がn1の空間と屈折率がn2の空間が位置している。合焦面に点光源を配置すると、第2状態の点像強度分布が得られる。
 第2状態では、合焦面と光学系の間の屈折率は、n1とn2で決まる。予め決められた屈折率はn1なので、n2は予め決められた屈折率ではない。この場合、第2状態の点像強度分布は、予め決められた屈折率と予め決められていない屈折率に基づいて得られている。よって、第2状態の点像強度分布の形状は、理想形状と異なる。
 このように、点像強度分布の形状は、屈折率がn2の空間の広さに応じて変化する。よって、点像強度分布の算出では、標本における屈折率分布を適切に考慮しなくてはならない。
 本実施形態の屈折率分布生成装置では、処理対象画像は劣化画像なので、処理対象画像から回復画像を生成できれば良い。回復画像では、第1画像領域の形状は、上面からの深さに関係なく同じである。よって、より正確に屈折率分布を生成することができる。
 回復画像を生成するためには、点像強度分布を求める必要がある。点像強度分布の算出では、標本における屈折率分布を適切に考慮しなくてはならない。回復画像を生成する処理について説明する。回復画像を生成する処理の説明では、回復画像を標本画像という。また、回復画像は、画像回復が行われた後の画像(処理後画像)である。
 回復画像を生成する処理は、プロセッサ3で行われる。プロセッサ3で行われる処理について説明する。プロセッサ3で行われる処理では、第1画像が用いられる。第1画像は、処理対象画像である。
 図16は、プロセッサで行われる処理のフローチャートである。図17は、標本、光学像、及び第1画像を示す図である。図17(a)は、標本と光学像を立体的に示す図である。図17(b)は、標本のXZ断面を示す図である。図17(c)は、第1画像を示す図である。図17(d)は、標本のXZ断面と第1画像を示す図である。図2(a)と同じ構成については同じ番号を付し、説明は省略する。
 第1画像は、XY画像群から生成される。XY画像群は、複数の光学像から得られる。図17(a)に示すように、標本220を動かさずに、観察光学系221を光軸222に沿って移動させると、複数の光学像が形成される。
 位置Z1では、標本OZ1の光学像IZ1が形成される。位置Z7では、標本OZ7の光学像IZ7が形成される。光学像IZ1から光学像IZ7までの光学像で、光学像230が形成される。光学像230を撮影することで、XY画像群を取得することができる。
 XY画像群から、XY画像、XZ画像及びYZ画像を生成することができる。XY画像、XZ画像及びYZ画像は、いずれも第1画像として用いることができる。第1画像として、XZ画像がメモリに保存されているとする。
 ステップS300では、第1取得処理を実行する。第1取得処理では、メモリから第1画像を取得する。
 第1画像は、標本のXZ断面における光学像の画像である。図17(b)には、標本240のXZ断面が示されている。標本240は細胞塊である。細胞塊は、複数の細胞で形成されている。標本240の各細胞は、細胞質241と、細胞核242と、を有する。
 図17(c)は、メモリから取得された第1画像を示している。第1画像250は蛍光像の画像である。標本240では、細胞核242だけが蛍光で染色されている。この場合、細胞核242の光学像だけが形成される。よって、第1画像250は、細胞核の画像251だけを有する。
 第1画像250は光学像の画像なので、第1画像250は劣化画像である。細胞核の形状を円とすると、細胞核の画像251では、形状は楕円になっている。テップS300が終了すると、ステップS310が実行される。
 ステップS310では、分割処理を実行する。分割処理では、取得した第1画像を複数のエリアに分割する。図17(d)に示すように、第1画像250は、X軸方向とZ軸方向の両方で、11のエリアに分割されている。各エリアが、小画像領域である。
 図17(d)では、標本240と第1画像250の対応関係を示すために、便宜的に観察光学系と光線を図示している。観察光学系221’は仮想光学系で、光学的な仕様は観察光学系221と同じである。
 光学的な結像では、標本の光学像の上下は、標本の上下と逆になる。第1画像250は画像なので、第1画像250の生成時に上下を逆にすることができる。よって、図17(d)では、標本240の上下と第1画像250の上下は一致している。
 エリア252の位置は、位置OP1と対応している。エリア253の位置は、位置OP2と対応している。ステップS310が終了すると、ステップS320が実行される。
 ステップS320では、第2取得処理を実行する。第2取得処理では、メモリから、標本の屈折率分布を取得する。屈折率分布の取得については後述する。ステップS320が終了すると、ステップS330が実行される。
 ステップS330では、算出処理を実行する。算出処理は、点像強度分布算出処理である。算出処理では、取得した屈折率分布を用いて、分割したエリアそれぞれについて点像強度分布を算出する。具体的には、第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出する。よって、第1エリアとエリア群を決定する必要がある。
 図18は、第1画像、屈折率画像、第1エリア及びエリア群を示す図である。図18(a)は、第1画像、屈折率画像及び第1エリアを示す図である。図18(b)は、エリア群の第1例を示す図である。図18(c)は、エリア群の第2例を示す図である。
 第1エリアは、点像強度分布を算出する対象のエリアである。ステップS310では、第1画像250を複数のエリアに分割している。よって、第1エリアとエリア群は、第1画像250におけるエリアで決まる。
 ただし、第1画像250は、標本の光学像の画像である。標本の光学像の画像は、明るさの情報を有するが、屈折率分布の情報は有していない。点像強度分布はエリア群の屈折率分布を用いて算出するので、第1画像250は点像強度分布の算出に適さない。第1画像250では、第1エリアは決定できるが、エリア群は決定できない。
 屈折率分布は、画像で表すことができる。この場合、標本の屈折率分布は、複数の分布画像(以下、「分布画像群」という)で表すことができる。分布画像群は、標本の屈折率分布を表している。よって、分布画像群から第1画像に対応する画像(以下、「屈折率画像」という)を取得する。点像強度分布は屈折率分布を用いて算出される。屈折率画像は屈折率分布の画像なので、屈折率画像は点像強度分布の算出に適している。
 屈折率画像はメモリ2に保存しておき、算出処理の実行時にメモリ2から屈折率画像を読み出せば良い。第1画像はXZ画像なので、屈折率画像はXZ断面の画像である。
 第1画像250は、複数のエリアに分割されている。よって、図18(a)に示すように、屈折率画像260も複数のエリアに分割されている。屈折率画像260は、X軸方向とZ軸方向の両方で、11のエリアに分割されている。見易さのために、屈折率画像260では、細胞核だけが図示されている。
 図17(d)と同じように、屈折率画像260の上下と第1画像250の上下は一致している。また、屈折率画像260と第1画像250の対応関係を示すために、便宜的に観察光学系221’と光線を図示している。
 屈折率画像260において、エリア252に対応するエリアは、エリア261である。エリア253に対応するエリアは、エリア262である。エリア254に対応するエリアは、エリア263である。
 上述のように、屈折率画像260は、点像強度分布の算出に適している。よって、屈折率画像260で、第1エリアとエリア群を決定する。
 エリア群の第1例について説明する。図18(b)には、エリア261、観察光学系221’、光線270及び観察光学系の光軸271が示されている。画像から光線が放射されることはないので、光線270は仮想的な光線である。
 第1例では、第1画像250における第1エリアは、エリア252である。エリア252に対応するエリアは、屈折率画像260ではエリア261である。よって、屈折率画像260では、エリア261が第1エリアである。
 エリア群と所定方向は、次のように規定されている。エリア群は、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含む。第1画像における所定方向は、仮想観察光学系の光軸方向のうち観察光学系が存在する方向である。
 上述のように、屈折率画像260で、第1エリアとエリア群を決定する。そこで、上記の規定において、第1画像を屈折率画像に置き換える。この場合、エリア群と所定方向は、次のように規定される。
 エリア群は、屈折率画像において、第1エリアを起点に、光線が所定方向に放射する範囲の内側にある複数のエリアで構成され、所定方向に第1エリアを延長した範囲の外側にあるエリアを含む。屈折率画像の所定方向は、観察光学系の光軸方向のうち仮想観察光学系が存在する方向である。
 屈折率画像260において、観察光学系221’に近い側を標本の上面側とし、観察光学系221’から遠い側を標本の底面側とする。エリア261は、上面260aにおいて光軸271と交差する場所に位置している。エリア261から光線270が放射される。エリア261から放射された光線270は、観察光学系221’に入射する。
 光線270は、観察光学系221’に入射する光である。観察光学系221’に入射する光は、観察光学系221’の物体側開口数で決まる。上述のように、標本画像生成装置1では、メモリ2に光学情報が保存されている。
 光学情報は、対物レンズの開口数の情報を有する。対物レンズの開口数は、観察光学系221’の物体側開口数と見なせる。よって、対物レンズの開口数から、光線270を特定することができる。
 図18(b)には、所定方向272と所定外方向273が図示されている。所定方向272と所定外方向273は、観察光学系221’の光軸方向である。観察光学系221’の光軸方向のうち、所定方向272には観察光学系221’が位置しているが、所定外方向273には観察光学系221’は位置していない。
 2つの光線270は、エリア261から放射される放射光の光線である。2つの光線270で挟まれた範囲の内側には、屈折率画像260のエリアは位置していない。よって、エリア261の位置では、エリア群におけるエリアの数はゼロである。
 エリア群の第2例について説明する。図18(c)には、エリア263、中心エリア264、周辺エリア265及び周辺エリア266が示されている。図18(b)と同じ構成については同じ番号を付し、説明は省略する。エリア群が、第5画像領域である。中央エリアが、第6画像領域である。周辺エリアが、第6画像領域の範囲外にある画像領域である。
 第2例では、第1画像250における第1エリアは、エリア254である。エリア254に対応するエリアは、屈折率画像260ではエリア263である。よって、屈折率画像260では、エリア263が第1エリアである。
 エリア263は、底面260bにおいて光軸271と交差する場所に位置している。エリア263から光線270と光線274が放射される。エリア263から放射された光線270と光線274は、観察光学系221’に入射する。光線274は仮想的な光線である。
 2つの光線270と2つの光線274は、エリア263から放射される光線である。標本における光の散乱が非常に小さい場合、エリア263から放射される光線は、2つの光線270で表される。2つの光線270で挟まれた範囲の内側には、中心エリア264と周辺エリア265が位置している。中心エリア264と周辺エリア265で、エリア群が形成されている。光線270と交差するエリアは、エリア群に含まれていると見なす。
 中心エリア264と周辺エリア265は、各々、複数のエリアで構成されている。よって、エリア群は、複数のエリアで構成されている。
 エリア群では、中心エリア264は、所定方向272に向かってエリア263を延長した範囲に位置している。周辺エリア265は、中心エリア264の外側に位置している。
 標本における光の散乱が非常に大きい場合、エリア263から放射される光線は、2つの光線274で表される。2つの光線274で挟まれた範囲の内側には、中心エリア264、周辺エリア265及び周辺エリア266が位置している。よって、エリア264、周周辺エリア265及び辺エリア266で、エリア群が形成されている。光線274と交差するエリアは、エリア群に含まれていると見なす。
 中心エリア264、周辺エリア265及び周辺エリア266は、各々、複数のエリアで構成されている。よって、エリア群は、複数のエリアで構成されている。
 図19は、エリア群を示す図である。図19(a)は、エリア群の第3例を示す図である。図19(b)は、エリア群の第4例を示す図である。
 第3例では、図19(a)に示すように、エリア267が第1エリアである。エリア267は、上面と底面の間において光軸271と交差する場所に位置している。
 標本における光の散乱が非常に小さい場合、エリア267から放射される光線は、2つの光線270で表される。2つの光線270で挟まれた範囲の内側には、中心エリア264と周辺エリア265が位置している。中心エリア264と周辺エリア265で、エリア群が形成されている。第3例と第2例を比べると、第3例の方がエリア群におけるエリアの数が少ない。
 標本における光の散乱が非常に大きい場合、エリア267から放射される光線は、2つの光線274で表される。2つの光線274で挟まれた範囲の内側には、中心エリア264、周辺エリア265及び周辺エリア266が位置している。中心エリア264、周辺エリア265及び周辺エリア266で、エリア群が形成されている。
 第4例では、図19(b)に示すように、エリア268が第1エリアである。エリア268は、底面において光軸271から離れた場所に位置している。
 標本における光の散乱が非常に小さい場、合エリア268から放射される光線は、2つの光線270で表される。2つの光線270で挟まれた範囲の内側には、中心エリア264と周辺エリア265が位置している。中心エリア264と周辺エリア265で、エリア群が形成されている。第4例と第2例を比べると、第4例の方がエリア群におけるエリアの数が少ない。
 標本における光の散乱が非常に大きい場、合エリア268から放射される光線は、2つの光線274で表される。2つの光線274で挟まれた範囲の内側には、中心エリア264、周辺エリア265及び周辺エリア266が位置している。中心エリア264、周辺エリア265及び周辺エリア266で、エリア群が形成されている。
 第1例では、エリア群におけるエリアの数はゼロである。よって、演算処理では、エリア群に含まれる各エリアの屈折率分布は用いられない。点像強度分布は、屈折率画像260と観察光学系221’の間の空間の屈折率を用いて算出される。エリア群におけるエリアの数がゼロの場合の算出も、算出処理における算出に含まれるものとする。
 第2例、第3例及び第4例では、周辺エリア266の外側に位置するエリアは、エリア群に含まれない。よって、これらのエリアは、点像強度分布の算出に用いられない。しかしながら、これらのエリアを点像強度分布の算出に用いても良い。すなわち、第1エリアよりも所定方向272側に位置する全てのエリアをエリア群と見なして、点像強度分布を算出しても良い。
 第1エリアは、点像強度分布を算出する対象のエリアである。よって、第1エリアの対象となるエリアを変えていくことで、分割したエリアそれぞれについて、点像強度分布を算出することができる。
 算出処理では、第1エリアの点像強度分布を、エリア群に含まれる各エリアの屈折率分布を用いて算出する。第1画像250における第1エリアは、第2例ではエリア254である。屈折率画像260では、エリア263がエリア254に対応する。そして、屈折率画像260では、エリア群は、中心エリア264と周辺エリア265で構成されているか、又は中心エリア264、周辺エリア265及び周辺エリア266で構成されている。
 よって、中心エリア264を構成する各エリアの屈折率分布と、周辺エリア265を構成する各エリアの屈折率分布を用いて、エリア263の点像強度分布を算出するか、又は中心エリア264を構成する各エリアの屈折率分布、周辺エリア265を構成する各エリアの屈折率分布及び周辺エリア266を構成する各エリアの屈折率分布を用いて、エリア263の点像強度分布を算出する。エリア263の点像強度分布を、第1画像250におけるエリア254の点像強度分布として扱えば良い。
 エリア254は、第1画像250における第1エリアである。第1画像250の各エリアは、標本の光学像の明るさの情報を既に有している。よって、第1画像250とは別に、点像強度分布を有する画像(以下、「PSF画像」という)が生成される。
 図20は、第1画像、屈折率画像及びPSF画像を示す図である。図20(a)は、第1画像と屈折率画像を示す図である。図20(b)は、屈折率画像とPSF画像を示す図である。図20(a)は、図18(a)と同じ図であるので、説明は省略する。
 第1画像250は、複数のエリアに分割されている。よって、図20(b)に示すように、PSF画像280も複数のエリアに分割されている。PSF画像280は、X軸方向とZ軸方向の両方で、11のエリアに分割されている。
 図20(a)と図20(b)との比較からわかるように、PSF画像280において、エリア281に対応するエリアは、エリア252である。エリア282に対応するエリアは、エリア253である。エリア283に対応するエリアは、エリア254である。よって、PSF画像280の各エリアは、第1画像250の第1エリアに対応するエリアの点像強度分布を有している。図20(b)では、一部のエリアのみ、点像強度分布が図示されている。
 図16に戻って説明する。ステップS330が終了すると、ステップS340が実行される。
 ステップS340では、第1生成処理を実行する。第1生成処理は、小画像生成処理である。第1生成処理では、エリアそれぞれについて算出した点像強度分布を用いて、エリアそれぞれに対応する第2画像を生成する。第2画像が、小画像である。
 図21は、第1画像、第2画像及び第3画像を示す図である。図21(a)は、第1画像と第2画像を示す図である。図21(b)は、第1画像と第3画像を示す図である。
 図21(a)には、第1画像の一部のエリア、PSF画像の一部のエリア及び第2画像群が示されている。
 エリアDEGは、第1画像250の一部のエリアである。エリアDEGは、エリアDEG1、エリアDEG2、エリアDEG3、エリアDEG4、エリアDEG5及びエリアDEG6で形成されている。
 エリアPSFは、PSF画像280の一部のエリアであって、エリアDEGと対応するエリアである。エリアPSFは、エリアPSF1、エリアPSF2、エリアPSF3、エリアPSF4、エリアPSF5及びエリアPSF6で形成されている。
 第2画像群RECは、エリアDEGとエリアPSFに対応するエリアの画像である。第2画像群RECは、第2画像REC1、第2画像REC2、第2画像REC3、第2画像REC4、第2画像REC5及び第2画像REC6で形成されている。
 エリアDEG1の画像は、第1画像である。エリアPSF1の画像は、点像強度分布である。エリアDEG1の画像とエリアPSF1の画像から、第2画像REC1が生成される。
 エリアDEGでは、細胞核の形状は楕円である。第2画像では、細胞核の形状は円である。よって、第1生成処理では、劣化画像から回復画像が生成される。ステップS340が終了すると、ステップS350が実行される。
 第2画像の生成では、エリアDEGの各エリアの画像に対してマスク処理を施すと良い。マスク処理としては、例えば、画像の周辺部をぼかす処理がある。
 ステップS350では、第3画像を生成する。第3画像を生成する処理は、合成処理である。第3画像は、第1画像に対応する画像である。第3画像の生成では、エリアそれぞれに対応する第2画像を合成する。第3画像が、処理後画像である。
 図21(b)には、第1画像250と第3画像290が示されている。第3画像290は、第2画像を合成することで生成される。第2画像は第1画像250に基づいて生成され、第3画像は第2画像に基づいて生成される。よって、第3画像290は、第1画像250に対応する画像である。
 第1画像250では、細胞核の形状は楕円である。第3画像290では、細胞核の形状は円である。よって、標本画像生成装置1では、劣化画像から高い画質の回復画像を生成することができる。
 第2画像の合成では、重みづけを行うと良い。隣接する2つの第2画像では、2つの画像の境界で、一方の第2画像からの影響が半分となるようにすれば良い。
 図22は、第1画像と第3画像を示す図である。図22(a)は、第1画像を示す図である。図22(b)は、第3画像を示す図である。
 画像の右端は標本の上面の画像を表し、画像の左端は標本の底面の画像を表している。標本の上面から底面の全ての範囲で、画質は第1画像よりも第3画像の方が高い。
 上述のように、点像強度分布の算出では、中心エリアの屈折率分布だけでなく、周辺エリアの屈折率分布が用いられている。よって、中心エリアの屈折率分布だけを用いる回復技術と比べると、高い正確さで点像強度分布を算出することができる。その結果、高い正確さで画像を回復することができる。
 図18(c)で説明したように、エリア群は、第1エリアを起点に放射する光の範囲で決まる。第1エリアから射出された光はエリア群を通過して、観察光学系に入射する。そして、観察光学系から射出された光によって点像強度分布が得られる。
 第1エリアを起点に放射する光は、第1エリアに点光源を設定することで得られる。点光源から、点光源を波源とする波面が射出される。この波面を第1波面とすると、第1波面を用いて、第1エリアの点像強度分布を算出することができる。
 具体的には、第1波面と、エリア群に含まれる各エリアに対応する屈折率分布を用いて、第2波面を算出し、算出した第2波面を用いて、第3波面に対応する強度分布を算出し、算出した強度分布を用いて、第1エリアの点像強度分布を算出する。第2波面は、所定方向に標本を伝播した波面であり、第3波面は、仮想観察光学系の合焦面の位置の波面である。
 図23は、波面の伝搬を示す図である。図18(c)と同じ構成については同じ番号を付し、説明は省略する。
 点像強度分布の算出には、屈折率分布が用いられる。よって、屈折率画像260を用いて説明する。屈折率画像260では、エリア263が第1エリアに対応する。よって、エリア263が合焦面FPに位置している。また、エリア263に点光源300が設定されている。
 点光源300から、第1波面WF1が射出される。第1波面WF1は、エリア263から屈折率画像260の上面301に向かって伝搬する。上面301は、標本の外縁である。上面301側には、観察光学系302が位置している。よって、第1波面WF1は、所定方向に伝搬する。
 波面の伝搬の計算は、シミュレーションで求めることができる。観察光学系302は仮想光学系で、例えば、対物レンズ303と結像レンズ304で形成されている。観察光学系302の光学的な仕様は、観察光学系221と同じである。光学的な仕様、例えば、倍率と開口数は、各種情報に基づいて取得することができる。
 第1波面WF1はエリア群を伝搬し、上面301に到達する。上面301から、第2波面WF2が出射する。第2波面WF2は、エリア群を伝搬した後の波面である。エリア群は、中心エリア264と周辺エリア265で形成されている。よって、第2波面WF2は、エリア群に含まれる各エリアの屈折率分布を用いて算出することができる。
 観察光学系302では、合焦面FPと像面IPが共役である。像面IPにおける点像強度分布305を求めるためには、合焦面FPにおける波面が必要である。第2波面WF2は、上面301に位置している。第2波面WF2を合焦面FPまで伝搬させることで、合焦面FPにおける波面として第3波面WF3を得ることができる。
 結像光学系302は、フーリエ光学系を形成している。第3波面WF3の結像面に対応する点像強度分布305は、結像光学系302の瞳関数を用いて算出することができる。算出式を以下に示す。算出式において、WF3は第3波面、Pは結像光学系132の瞳関数、U135は像面における波面、I135は像面における強度分布を表す。
Figure JPOXMLDOC01-appb-M000001
 ビーム伝搬法では、物体モデルを複数の薄い層に置き換える。そして、光が各層を通過する際の波面変化を逐次計算して、物体モデルの像を計算する。ビーム伝搬法は、例えば、"High-resolution 3D refractive index microscopy of multiple-scattering samples from intensity images" Optica, Vol. 6, No. 9, pp.1211-1219(2019)に、開示されている。
 本実施形態の標本画像生成装置では、画像生成処理が実施されるため、処理対象画像が劣化画像であっても、高い正確さで画像を回復することができる。その結果、標本の屈折率分布の精度を、向上させることができる。
 図23と図18(c)では、エリア群の広さが異なる。図23における周辺エリア265の範囲は、図18(c)における周辺エリア265と周辺エリア266を足し合わせた範囲よりも広い。図23では、第1エリアよりも所定方向側に位置する全てのエリアをエリア群と見なして、点像強度分布を算出している。
 点像強度分布305を正確に算出するためには、エリア群を構成するエリア全ての屈折率分布を全て用いることが好ましい。図23では、エリア263が第1エリアなので、エリア263から上面301までの間に位置する全てのエリアの屈折率分布を用いている。第1エリアから標本の上面までの間に位置する全てのエリアの屈折率分布を用いると、点像強度分布をより正確に算出することができる。
 本実施形態の屈折率分布生成装置では、プロセッサは、処理後画像を処理対象画像として、屈折率分布生成処理と画像生成処理を実行することが好ましい。
 図24は、屈折率画像、PSF画像、第1画像(劣化画像)及び回復画像を示す図である。これらの画像は回復画像を生成する処理(以下、「回復処理」という)における画像である。
 画像群400における各画像は、屈折率画像である。画像群400は、屈折率画像400a、屈折率画像400b及び屈折率画像400cを含む。画像群410における各画像は、PSF画像である。画像群410は、PSF画像410aと、PSF画像410bと、を含む。
 画像群420における各画像は、第1画像である。画像群420は、第1画像420aと、第1画像420bと、を含む。画像群430における各画像は、回復画像である。画像群430は、回復画像430aと、回復画像430bと、を含む。
 画像群400、画像群410、画像群420及び画像群430には、細胞核の画像が示されている。見易さのために、細胞核の数を少なくすると共に、形状を大きく描いている。各画像群の画像はXZ断面の画像である。また、画像の右端が標本の上面で、画像の左端が標本の底面である。
 屈折率画像400aから、PSF画像410aが得られる。第1画像420aとPSF画像410aから、回復画像430aが得られる。第1画像420aは劣化画像なので、回復処理を行うことで、劣化画像から回復画像430aが得られる。
 第1画像420aと回復画像430aを比較すると、回復画像430aでは、第1画像420aに比べて、上面から深くに位置する細胞核の外形が円近くなっている。
 回復画像430aから、細胞核の外形が抽出できる。抽出した外形に基づいて、第1画像420bと屈折率画像400bが生成できる。
 屈折率画像400bから、PSF画像410bが得られる。第1画像420bとPSF画像410bから、回復画像430bが得られる。第1画像420bは劣化画像なので、回復処理を行うことで、劣化画像から回復画像430bが得られる。
 第1画像420bと回復画像430bを比較すると、回復画像430bでは、第1画像420bに比べて、上面から深くに位置する細胞核の外形が円近くなっている。
 回復画像430aから、細胞核の外形が抽出できる。抽出した外形に基づいて、屈折率画像400cが生成できる。
 屈折率画像400a、屈折率画像400b及び屈折率画像400cを比較すると、回復処理が行われるたびに、上面から深くに位置する細胞核の外形が円に近づいている。
 画像群400における各画像は、屈折率画像である。屈折率画像は、分布画像群から生成される。分布画像群では、標本の屈折率分布が複数の画像で表されている。
 本実施形態の屈折率分布生成装置では、屈折率分布生成処理が行われる。屈折率分布生成処理では、屈折率分布画像が用いられる。屈折率分布画像は、屈折率で表される画像である。屈折率分布画像には、標本に基づく屈折率が設定される。
 このように、回復処理における屈折率画像と屈折率分布生成処理における屈折率分布画像は、共に標本の屈折率を表している。よって、画像群400における各画像を屈折率分布画像と見なすと、本実施形態の屈折率分布生成装置は回復処理を備えているので、本実施形態の屈折率分布生成装置では、厚い標本であっても、屈折率分布の精度をより向上させることができる。
 本実施形態の屈折率分布生成装置では、入力処理は、第2標本を撮影した第2処理対象画像をメモリから入力し、プロセッサは、第1構造の屈折率を決定する屈折率決定処理を実行することが好ましい。そして、屈折率決定処理は、複数の第2処理対象画像から、第2標本の屈折率分布を算出する屈折率分布算出処理と、第2処理対象画像において、第1構造に対応する第7画像領域を特定する第2特定処理と、第2標本の屈折率分布を構成する屈折率のうち、第7画像領域に対応する屈折率を特定する第3特定処理と、を含み、入力処理は、屈折率決定処理で決定した第1構造の屈折率をメモリから入力することが好ましい。
 上述のように、屈折率分布生成装置1では、メモリ2に処理対象画像が保存されている。処理対象画像は、顕微鏡システム20で取得することができる。顕微鏡システム20では、第2処理対象画像を取得することができる。
 図25は、プロセッサで行われる処理のフローチャートである。プロセッサ3では、屈折率決定処理が実行される。屈折率決定処理は、第1屈折率情報をメモリから入力する前に実行される。
 ステップS400では、第2処理対象画像がメモリから入力される。第2処理対象画像は、第2標本の撮影によって取得した画像である。第2標本は、処理対象画像を取得したときの標本と同じである。
 第2処理対象画像は、処理対象画像と同じ観察方法で取得しても、処理対象画像と異なる観察方法で取得しても良い。第2処理対象画像として、蛍光画像、染色画像及び位相差画像を用いることができる。
 ステップS410では、屈折率決定処理が実行される。屈折率決定処理では、第1構造の屈折率が決定される。ステップS410は、ステップS411と、ステップS412と、ステップS413と、ステップS414と、を有する。
 ステップS411では、屈折率分布算出処理が実行される。屈折率分布算出処理では、複数の第2処理対象画像から、第2標本の屈折率分布が算出される。屈折率分布算出処理は、コンピュテーショナルイメージングによって行うことができる。
 コンピュテーショナルイメージングによる屈折率分布の推定について説明する。推定では、標本の光学像と推定標本の光学像が用いられる。推定標本の光学像は、仮想光学系を用いたシミュレーションによって取得することができる。標本は3次元物体なので、推定標本も3次元物体である。この場合、推定標本の光学像は、複数の推定XY画像(以下、「推定XY画像群」という)で表される。
 標本の屈折率分布は、上述の分布画像群で表すことができる。推定標本の屈折率分布は、複数の推定分布画像(以下、「推定分布画像群」という)で表すことができる。
 プロセッサ3では、コンピュテーショナルイメージングによって、推定分布画像群の推定が行われる。推定では、XY画像群と推定XY画像群との比較が行われる。具体的には、XY画像群と推定XY画像群との違いが小さくなるように、推定分布画像群における屈折率の値が変更される。
 2つの画像の違いは、数値で表すことができる。よって、この数値が閾値よりも小さくまで、2つの画像の比較と屈折率の値の変更を繰返す。そして、この数値が閾値よりも小さくなったときの推定分布画像群を、分布画像群とする。分布画像群は、標本の屈折率分布を表している。よって、標本の屈折率分布が求まる。ステップS411が終了すると、ステップS412が実行される。
 ステップS412では、第2特定処理が実行される。第2特定処理では、第2処理対象画像において、第1構造に対応する第7画像領域が特定される。ステップS412が終了すると、ステップS413が実行される。
 ステップS413では、第3特定処理が実行される。第3特定処理では、第2標本の屈折率分布を構成する屈折率のうち、第7画像領域に対応する屈折率が特定される。ステップS413が終了すると、ステップS414が実行される。
 ステップS414では、屈折率がメモリに入力される。この屈折率は、第7画像領域に対応する屈折率である。ステップS414が終了すると、ステップS102が実行される。
 上述のように、ステップS102では、第1屈折率情報がメモリから入力される。メモリには、第7画像領域に対応する屈折率が保存されている。第7画像領域に対応する屈折率は、屈折率決定処理で決定した第1構造の屈折率である。よって、屈折率決定処理で決定した第1構造の屈折率がメモリから入力される。
 第7画像領域の特定に用いられる処理対象画像は、第1画像領域の特定に用いられる処理対象画像と異なる。第7画像領域に対応する屈折率は、コンピュテーショナルイメージングによって推定した屈折率である。第7画像領域も第1画像領域も第1構造に対応する画像領域なので、第7画像領域に対応する屈折率は、第1画像領域に対応する屈折率として用いることができる。
 本実施形態の屈折率分布生成装置では、第2標本の深さの最大は、50μm未満であり、標本の深さの最小は、50μm以上であることが好ましい。
 本実施形態の屈折率分布生成装システムは、標本の光学像を形成する観察光学系と、光学像を撮影する撮像素子と、請求項1に記載の屈折率分布生成装置と、を有する。
 屈折率分布生成システムによれば、厚い標本であっても、屈折率分布の精度を向上させることができる。
 本実施形態の屈折率分布生成システムは、ハードウェアで構成されるプロセッサと、ハードウェアで構成されるメモリと、備え、プロセッサは、処理対象画像に対応する屈折率分布を生成する屈折率分布生成処理を実行し、屈折率分布生成処理は、処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、メモリから入力する入力処理と、屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を含む。設定処理は、第1屈折率情報に基づく屈折率を、処理対象画像の第1画像領域に対応する位置に、処理対象画像の単位画素の信号強度に基づいて設定する第1設定処理と、第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を含む。第1画像領域は、第1構造に対応する画像領域であり、単位画素は、1つの画素又は複数の画素で構成され、プロセッサは、標本を撮影した画像を処理対象画像として、屈折率分布生成処理を実行する。プロセッサは、AIモデルを学習させる機械学習処理を実行し、機械学習処理は、複数のデータセットでAIモデルを学習させ、データセットは、処理対象画像と処理対象画像に対応するトレーニングデータを含み、トレーニングデータは、屈折率分布生成処理で生成した屈折率分布である。
 本実施形態の標本画像生成装置では、処理対象画像から、屈折率分布画像が生成される。処理対象画像は劣化画像で、屈折率分布画像は回復画像である。屈折率分布画像をトレーニングデータと見なすと、処理対象画像と屈折率分布画像は、機械学習のデータとして用いることができる。以下、処理対象画像を向上する前の画像とし、屈折率分布画像を向上した画像という。
 向上した画像は、教師あり機械学習(以下、「教師ありML」という)でトレーニングされたAIモデルを用いて生成することが可能である。
 AIモデルは、トレーニング処理のデータ分析で見つかったパターンに基づいて推論処理を行うことで、明示的にプログラムを行わずに、コンピュータシステムにタスクを実行する機能を提供する。
 推論処理を実行するより前に、AIモデルを継続的または定期的にトレーニング処理をすることができる。
 教師ありMLのAIモデルは、既存のサンプルデータとトレーニングデータでトレーニングし、新しいデータに関する予測を行うアルゴリズムが含まれる。トレーニングデータは、教師データともいう。
 このようなアルゴリズムは、データ駆動型の予測または結果として表される決定を行うために、サンプルデータとトレーニングデータからAIモデルを構築することによって動作する。
 教師ありMLは、トレーニング処理を実行するとき、サンプルデータとトレーニングデータを入力すると、入力と出力の関係を最も近似する関数を学習し、学習したAIモデルが推論処理を実行するとき、新しいデータ入力時に、同じ関数を実装して対応する出力を生成する。
 一般的に使用される教師ありMLアルゴリズムの例としては、ロジスティック回帰(LR)、ナイーブベイズ、ランダムフォレスト(RF)、ニューラルネットワーク(NN)、ディープニューラルネットワーク(DNN)、マトリックスファクタリゼーション、サポートベクターマシン(SVM)などがある。
 本実施例のトレーニング処理は、教師ありMLの処理を実行することができる。トレーニング処理は、AIモデルをトレーニング又は学習する。
 トレーニング処理を実行すると、AIモデルの入力レイヤーに、十分な数のデータセットが入力され、AIモデルを通じて、出力レイヤーに伝播する。
 図26は、トレーニング処理を示す図である。データセットは、向上する前の画像と、向上した画像と、を含む。向上する前の画像は、サンプルデータである。向上した画像は、サンプルデータに対応するトレーニングデータ又は教師データである。図26では、サンプルデータは、画像1、画像2等で示されている。向上した画像は、トレーニングデータ1、トレーニングデータ2等である。
 トレーニング処理では、サンプルデータから推定データを生成する最適なパラメータを、例えば、ロス関数を用いて探索し、更新する。入力されたサンプルデータに対して推定データを生成し、生成した推定データとトレーニングと差をロス関数で評価し、ロス関数の値が最も小さくなるようなパラメータを探索する。
 本実施例の推論処理は、トレーニングしたAIモデルに対して新たに推論したいデータが入力されると、推論データを出力する推論処理を実行することができる。
 推論処理を実行すると、AIモデルの入力レイヤーに、向上する前の画像を入力し、AIモデルを通じて、出力レイヤーに伝播する。
 推論処理を実行することで、向上する前の画像から向上した画像を生成することができる。
 図27は、本実施形態の標本画像生成システムを示す図である。図27(a)は、第1例の標本画像生成システムを示す図である。図27(b)は、第2例の標本画像生成システムを示す図である。図27(c)は、第3例の標本画像生成システムを示す図である。
 図27(a)に示すように、第1例の標本画像生成システムでは、標本画像生成システム500は、本実施形態の標本画像生成装置のみで構成されている。この場合、標本画像生成装置のプロセッサ3(以下、「第1のプロセッサ」という)では、トレーニング処理と推論処理を実行することができる。
 標本画像生成装置1は、第1のプロセッサと第2プロセッサを備えることができる。第2プロセッサは、第1のプロセッサと異なるプロセッサである。第2プロセッサで、トレーニング処理、推論処理を実行することができる。
 標本画像生成装置1は、第1のプロセッサ、第2プロセッサ及び第3プロセッサを備えることができる。第3プロセッサは、第1のプロセッサ及び第2プロセッサと異なるプロセッサである。第2プロセッサでトレーニング処理を実行し、第3プロセッサで推論処理を実行することができる。
 標本画像生成装置1のメモリ2は、トレーニング処理で使用する向上する前の画像と、向上した画像と、推論処理で使用する向上する前の画像と、を記憶する。
 図27(b)に示すように、第2例の標本画像生成システムでは、標本画像生成システム510は、本実施形態の標本画像生成装置1と、学習推論装置520と、で構成されている。学習推論装置520は、メモリ521と、プロセッサ522、とを備える。
 学習推論装置520では、トレーニング処理と推論処理を実行することができる。この場合、学習推論装置520は、メモリと、1つ以上のプロセッサを備える。推論処理は、トレーニング処理と同じプロセッサで実行することができる。推論処理を、トレーニング処理と異なるプロセッサで実行しても良い。
 学習推論装置のメモリ521は、トレーニング処理で使用する向上する前の画像と、向上した画像と、推論処理で使用する向上する前の画像と、を記憶する。
 図27(c)に示すように、第3例の標本画像生成システムでは、標本画像生成システム530は、本実施形態の標本画像生成装置1と、学習装置540と、推論装置550と、で構成されている。学習装置540は、トレーニング処理を実行し、推論装置550は推論処理を実行する。
 学習装置540は、メモリ541と、プロセッサ542、とを備える。推論装置550は、メモリ551と、プロセッサ552と、を備える。学習装置540のプロセッサ542は、トレーニング処理を実行することができ、推論装置550のプロセッサ552は、推論処理を実行することができる。
 学習装置540のメモリ541は、トレーニング処理で使用する向上する前の画像と、向上した画像と、を記憶する。推論装置550のメモリ551は、推論処理で使用する向上する前の画像を記憶する。
 上述した学習推論装置510と学習装置540は、トレーニング処理で使用するデータを、画像生成装置1から、通信経由で又はUSBメモリなどの記録媒体経由で入力し、それぞれの装置が備えるメモリに記憶する。
 屈折率分布生成システムによれば、厚い標本であっても、屈折率分布の精度を向上させることができる。
 本実施形態の屈折率分布生成方法は、処理対象画像に対応する屈折率分布を生成する方法であって、処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、入力し、第1屈折率情報に基づく屈折率を、処理対象画像の第1画像領域に対応する位置に、処理対象画像の単位画素の信号強度に基づいて設定し、第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定する。第1画像領域は、第1構造に対応する画像領域であり、単位画素は、1つの画素又は複数の画素で構成され、処理対象画像は、標本を撮影した画像である。
 本実施形態の屈折率分布生成方法によれば、厚い標本であっても、屈折率分布の精度を向上させることができる。
 本実施形態の記録媒体は、標本画像を生成するためのプログラムを記録したコンピュータ読取可能な記録媒体であって、処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、メモリから入力する入力処理と、屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を実行させ、設定処理において、第1屈折率情報に基づく屈折率を、処理対象画像の第1画像領域に対応する位置に、処理対象画像の単位画素の信号強度に基づいて設定する第1設定処理と、第2屈折率情報に基づく屈折率を、処理対象画像の第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を実行させ、標本を撮影した画像を処理対象画像として、屈折率分布生成処理を実行させる。第1画像領域は、第1構造に対応する画像領域であり、単位画素は、1つの画素又は複数の画素で構成される。
 本発明は、厚い標本であっても、屈折率分布の精度を向上させることができる屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体に適している。
 本実施形態の記録媒体によれば、厚い標本であっても、屈折率分布の精度を向上させることができる。
 1 標本画像生成装置
 2 メモリ
 3 プロセッサ
 4 入力部
 10 顕微鏡システム
 20 顕微鏡
 21 本体
 22 対物レンズ
 23 ステージ
 24 落射照明装置
 25 撮像ユニット
 26 コントローラー
 27 標本
 30 処理装置
 31 入力部
 32 メモリ
 33 プロセッサ
 34 出力部
 40 標本
 41 観察光学系
 42 光軸
 43 XY画像群
 50、60、 処理対象画像
 51、61、 第1画像領域
 52、62、 第2画像領域
 70、80、 屈折率分布画像
 71、81、 第1屈折率領域
 72、82、 第2屈折率領域
 90 処理対象画像
 91 第1画像領域
 92 第2画像領域
 100、110 屈折率分布画像
 101、111 第1屈折率領域
 102、112 第2屈折率領域
 120、130 処理対象画像
 121、131 第1画像領域
 122、132 第2画像領域
 140、150 屈折率分布画像
 141、151 第1屈折率領域
 142、152 第2屈折率領域
 160、170 処理対象画像
 161、171 第1画像領域
 162、172 第2画像領域
 180、190 処理対象画像
 181、 第1画像領域
 182、192 画像領域
 191 第3画像領域
 200、210 処理対象画像
 201 第1画像領域
 202、212 画像領域
 211 第3画像領域
 220 標本
 221 観察光学系
 221’ 観察光学系
 222 光軸
 230 光学像
 240 標本
 241 細胞質
 242 細胞核
 250 第1画像
 251 細胞核の画像
 252、253、254 エリア
 260 屈折率画像
 260a 上面
 26b 底面
 261、262、263、267、268 エリア
 264 中心エリア
 265、266 周辺エリア
 270、274 光線
 271 光軸
 272 所定方向
 273 所定外方向
 280 PSF画像
 281、282、283 エリア
 290 第3画像
 300 点光源
 301 上面
 302 観察光学系
 303 対物レンズ
 304 結像レンズ
 305 点像強度分布
 400、410、420、430 画像群
 400a、400b、400c 屈折率画像
 410a、410b、410c PSF画像
 420a、420b、420c 第1画像
 430a、430b 回復画像
 500、510、530 標本画像生成システム
 520 学習推論装置
 521 メモリ
 522 プロセッサ
 540 学習装置
 541 メモリ
 542 プロセッサ
 550 推論装置
 551 メモリ
 552 プロセッサ
 FP 合焦面
 DEG、PSF、REC エリア
 WF1 第1波面
 WF2 第2波面
 WF3 第3波面

Claims (23)

  1.  ハードウェアで構成されるプロセッサと、ハードウェアで構成されるメモリと、備え、
     前記プロセッサは、
     処理対象画像に対応する屈折率分布を生成する屈折率分布生成処理を実行し、
     前記屈折率分布生成処理は、
     前記処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、前記第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、前記メモリから入力する入力処理と、
     屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を含み、
     前記設定処理は、
     前記第1屈折率情報に基づく屈折率を、前記処理対象画像の第1画像領域に対応する位置に、前記処理対象画像の単位画素の信号強度に基づいて設定する第1設定処理と、
     前記第2屈折率情報に基づく屈折率を、前記処理対象画像の前記第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を含み、
     前記第1画像領域は、前記第1構造に対応する画像領域であり、
     前記単位画素は、1つの画素又は複数の画素で構成され、
     前記プロセッサは、標本を撮影した画像を前記処理対象画像として、前記屈折率分布生成処理を実行することを特徴とする屈折率分布生成装置。
  2.  前記第1設定処理は、前記単位画素のうち、信号強度値が閾値より大きい第1単位画素で構成される前記第1画像領域に対応する位置に、前記第1屈折率情報に基づく屈折率を設定し、
     前記第2設定処理は、前記単位画素のうち、信号強度値が前記閾値以下の第2単位画素で構成される画像領域に対応する位置に、前記第2屈折率情報に基づく屈折率を設定することを特徴とする請求項1に記載の屈折率分布生成装置。
  3.  前記処理対象画像は、一端から他端に向かう方向に沿って、前記標本の深さが深くなる画像であり、
     前記一端は、前記処理対象画像の中心を挟んで前記他端と反対側にあり、
     前記屈折率分布生成処理は、前記標本の深さが浅い位置の明るさに対して前記標本の深さが深い位置の明るさを向上させる第1補正処理を含み、
     前記第1設定処理は、前記深い位置の明るさが向上した前記処理対象画像の前記単位画素の信号強度に基づいて、前記第1屈折率情報に基づく屈折率を設定することを特徴とする請求項1に記載の屈折率分布生成装置。
  4.  前記屈折率分布生成処理は、前記第1単位画素の信号強度に基づいて、前記第1屈折率情報を補正し、補正屈折率情報を生成する第2補正処理を含み、
     前記第2補正処理は、前記信号強度が最大信号強度未満の前記第1単位画素に対応する屈折率が、前記第1単位画素のうち、最大信号強度の前記単位画素に対応する屈折率よりも小さい前記補正屈折率情報を生成し、
     前記第1設定処理は、前記第1画像領域に対応する位置に、前記補正屈折率情報が示す屈折率を設定することを特徴とする請求項2に記載の屈折率分布生成装置。
  5.  前記処理対象画像は、一端から他端に向かう方向に沿って、前記標本の深さが深くなる画像であり、
     前記一端は、前記処理対象画像の中心を挟んで前記他端と反対側にあり、
     前記屈折率分布生成処理は、前記標本の深さが浅い位置の明るさに対して前記標本の深さが深い位置の明るさを向上させる第1補正処理を含み、
     前記第1設定処理は、前記深い位置の明るさが向上した前記処理対象画像の前記第1画像領域に対応する前記第1屈折率情報を補正し、前記補正屈折率情報を生成することを特徴とする請求項4に記載の屈折率分布生成装置。
  6.  前記第1設定処理は、前記第1単位画素で構成される前記第1画像領域に対応する位置に、前記第1屈折率情報が示す屈折率を設定することを特徴とする請求項2に記載の屈折率分布生成装置。
  7.  前記処理対象画像は、一端から他端に向かう方向に沿って、前記標本の深さが深くなる画像であり、
     前記一端は、前記処理対象画像の中心を挟んで前記他端と反対側にあり、
     前記屈折率分布生成処理は、前記標本の深さが浅い位置の明るさに対して前記標本の深さが深い位置の明るさを向上させる第1補正処理を含み、
     前記第1設定処理は、前記深い位置の明るさが向上した前記処理対象画像の前記第1画像領域に対応する位置に、前記第1屈折率情報が示す屈折率を設定することを特徴とする請求項6に記載の屈折率分布生成装置。
  8.  前記第1補正処理は、前記他端に近い画像領域ほど、明るさをより向上させることを特徴とする請求項3、5、又は7に記載の屈折率分布生成装置。
  9.  前記入力処理は、第3構造の屈折率を示す第3屈折率情報を、前記メモリから入力し、
     前記設定処理は、前記第3屈折率情報に基づく屈折率を、前記処理対象画像の第3画像領域に対応する位置に、前記処理対象画像の前記単位画素の前記信号強度と色情報とに基づいて設定する第3設定処理を含み、
     前記第3画像領域は、前記第3構造に対応する画像領域であり、
     前記第2設定処理は、前記第2屈折率情報に基づく屈折率を、前記処理対象画像の前記第1画像領域と異なる画像領域に対応する位置で、かつ、前記処理対象画像の前記第3画像領域と異なる画像領域に対応する位置に設定することを特徴とする請求項1に記載の屈折率分布生成装置。
  10.  前記入力処理は、前記標本を取り囲む媒体の屈折率を示す第4屈折率情報を前記メモリから入力し、
     前記屈折率分布生成処理は、前記標本と前記媒体との境界を特定する特定処理を含み、
     前記設定処理は、前記第4屈折率情報に基づく屈折率を、前記処理対象画像の第4画像領域に対応する位置に設定する前記第3設定処理を含み、
     前記第4画像領域は、前記媒体に対応する画像領域であることを特徴とする請求項1に記載の屈折率分布生成装置。
  11.  前記第1屈折率情報と前記第2屈折率情報は、細胞の組成構造に関する屈折率情報であることを特徴とする請求項1に記載の屈折率分布生成装置。
  12.  前記第1屈折率情報は、細胞核の屈折率情報であり、
     前記第2屈折率情報は、細胞膜の屈折率情報あることを特徴とする請求項11に記載の屈折率分布生成装置。
  13.  前記第3屈折率情報は、細胞接着分子の屈折率情報であることを特徴とする請求項9に記載の屈折率分布生成装置。
  14.  前記第4屈折率情報は、細胞培養液の屈折率情報あることを特徴とする請求項10に記載の屈折率分布生成装置。
  15.  前記プロセッサは、前記処理対象画像に対応する処理後画像を生成する画像生成処理を実行し、
     前記画像生成処理は、
     前記処理対象画像を、複数の小画像領域に分割する分割処理と、
     前記処理対象画像の屈折率分布を用い、前記小画像領域毎に点像強度分布を算出する点像強度分布算出処理と、
     前記小画像領域毎の点像強度分布を用い、前記小画像領域毎に小画像を生成する小画像生成処理と、
     前記小画像領域毎の小画像を合成し、前記処理後画像を生成する合成処理と、を含むことを特徴とする請求項1に記載の屈折率分布生成装置。
  16.  前記点像強度分布算出処理は、前記小画像領域毎に、前記小画像領域を起点に前記処理対象画像上を波面が伝播する範囲内に位置する第5画像領域に対応する位置に設定された屈折率分布を用いて、点像強度分布を算出し、
     前記第5画像領域は、前記小画像領域毎に、前記小画像領域を、所定方向に延長した第6画像領域の範囲外にある画像領域を含み、
     前記所定方向は、前記算出処理でモデル化する観察光学系の光軸方向のうち、前記標本から前記観察光学系に向かう方向であることを特徴とする請求項15に記載の屈折率分布生成装置。
  17.  前記プロセッサは、前記処理後画像を前記処理対象画像として、前記屈折率分布生成処理と前記画像生成処理を実行することを特徴とする請求項15に記載の屈折率分布生成装置。
  18.  前記入力処理は、第2標本を撮影した第2処理対象画像を前記メモリから入力し、
     前記プロセッサは、前記第1構造の屈折率を決定する屈折率決定処理を実行し、
     前記屈折率決定処理は、
     複数の前記第2処理対象画像から、前記第2標本の屈折率分布を算出する屈折率分布算出処理と、
     前記第2処理対象画像において、前記第1構造に対応する第7画像領域を特定する第2特定処理と、
     前記第2標本の屈折率分布を構成する屈折率のうち、前記第7画像領域に対応する屈折率を特定する第3特定処理と、を含み、
     前記入力処理は、前記屈折率決定処理で決定した前記第1構造の屈折率を前記メモリから入力することを特徴とする請求項1に記載の屈折率分布生成装置。
  19.  前記第2標本の深さの最大は、50μm未満であり、
     前記標本の深さの最小は、50μm以上であることを特徴とする請求項18に記載の屈折率分布生成装置。
  20.  標本の光学像を形成する観察光学系と、
     前記光学像を撮影する撮像素子と、
     請求項1に記載の屈折率分布生成装置と、を有することを特徴とする屈折率分布生成システム。
  21.  ハードウェアで構成されるプロセッサと、ハードウェアで構成されるメモリと、備え、
     前記プロセッサは、
     処理対象画像に対応する屈折率分布を生成する屈折率分布生成処理を実行し、
     前記屈折率分布生成処理は、
     前記処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、前記第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、前記メモリから入力する入力処理と、
     屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を含み、
     前記設定処理は、
     前記第1屈折率情報に基づく屈折率を、前記処理対象画像の第1画像領域に対応する位置に、前記処理対象画像の単位画素の信号強度に基づいて設定する第1設定処理と、
     前記第2屈折率情報に基づく屈折率を、前記処理対象画像の前記第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を含み、
     前記第1画像領域は、前記第1構造に対応する画像領域であり、
     前記単位画素は、1つの画素又は複数の画素で構成され、
     前記プロセッサは、標本を撮影した画像を前記処理対象画像として、前記屈折率分布生成処理を実行し、
     前記プロセッサは、AIモデルを学習させる機械学習処理を実行し、
     前記機械学習処理は、複数のデータセットで前記AIモデルを学習させ、
     前記データセットは、前記処理対象画像と前記処理対象画像に対応するトレーニングデータを含み、
     前記トレーニングデータは、前記屈折率分布生成処理で生成した前記屈折率分布であることを特徴とする標本画像生成システム。
  22.  処理対象画像に対応する屈折率分布を生成する方法であって、
     前記処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、前記第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、入力し、
     前記第1屈折率情報に基づく屈折率を、前記処理対象画像の第1画像領域に対応する位置に、前記処理対象画像の単位画素の信号強度に基づいて設定し、
     前記第2屈折率情報に基づく屈折率を、前記処理対象画像の前記第1画像領域と異なる画像領域に対応する位置に設定し、
     前記第1画像領域は、前記第1構造に対応する画像領域であり、
     前記単位画素は、1つの画素又は複数の画素で構成され、
     前記処理対象画像は、標本を撮影した画像であることを特徴とする屈折率分布生成方法。
  23.  標本画像を生成するためのプログラムを記録したコンピュータ読取可能な記録媒体であって、
     前記処理対象画像と、第1構造の屈折率を示す第1屈折率情報と、前記第1構造とは異なる第2構造の屈折率を示す第2屈折率情報とを、前記メモリから入力する入力処理と、
     屈折率分布を構成するそれぞれの屈折率を設定する設定処理と、を実行させ、
     前記設定処理において、
     前記第1屈折率情報に基づく屈折率を、前記処理対象画像の第1画像領域に対応する位置に、前記処理対象画像の単位画素の信号強度に基づいて設定する第1設定処理と、
     前記第2屈折率情報に基づく屈折率を、前記処理対象画像の前記第1画像領域と異なる画像領域に対応する位置に設定する第2設定処理と、を実行させ、
     前記第1画像領域は、前記第1構造に対応する画像領域であり、
     前記単位画素は、1つの画素又は複数の画素で構成され、
     標本を撮影した画像を前記処理対象画像として、前記屈折率分布生成処理を実行させることを特徴するコンピュータ読取可能な記録媒体。
     
PCT/JP2022/012413 2022-03-17 2022-03-17 屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体 WO2023175862A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/012413 WO2023175862A1 (ja) 2022-03-17 2022-03-17 屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体
JP2024507370A JPWO2023175862A1 (ja) 2022-03-17 2022-03-17

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/012413 WO2023175862A1 (ja) 2022-03-17 2022-03-17 屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体

Publications (1)

Publication Number Publication Date
WO2023175862A1 true WO2023175862A1 (ja) 2023-09-21

Family

ID=88022593

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/012413 WO2023175862A1 (ja) 2022-03-17 2022-03-17 屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体

Country Status (2)

Country Link
JP (1) JPWO2023175862A1 (ja)
WO (1) WO2023175862A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002531840A (ja) * 1998-12-01 2002-09-24 イェダ リサーチ アンド デベロップメント カンパニー リミテッド コンピュータを使用した適応画像形成装置及び方法
JP2012237693A (ja) * 2011-05-13 2012-12-06 Sony Corp 画像処理装置、画像処理方法及び画像処理プログラム
WO2015178338A1 (ja) * 2014-05-21 2015-11-26 浜松ホトニクス株式会社 顕微鏡装置及び画像取得方法
JP2017026666A (ja) * 2015-07-16 2017-02-02 オリンパス株式会社 顕微鏡システム、特定方法、及び、プログラム
US20170205390A1 (en) * 2015-05-07 2017-07-20 Technology Innovation Momentum Fund (Israel) Limited Partnership Interferometric system and method for use with biological cells and organisms including sperm
US20190251330A1 (en) * 2016-06-13 2019-08-15 Nanolive Sa Method of characterizing and imaging microscopic objects
JP2021076575A (ja) * 2019-11-05 2021-05-20 トモキューブ, インコーポレーテッド 3次元屈折率映像とディープラーニングを活用したラベルフリー方式の3次元分子像生成方法および装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002531840A (ja) * 1998-12-01 2002-09-24 イェダ リサーチ アンド デベロップメント カンパニー リミテッド コンピュータを使用した適応画像形成装置及び方法
JP2012237693A (ja) * 2011-05-13 2012-12-06 Sony Corp 画像処理装置、画像処理方法及び画像処理プログラム
WO2015178338A1 (ja) * 2014-05-21 2015-11-26 浜松ホトニクス株式会社 顕微鏡装置及び画像取得方法
US20170205390A1 (en) * 2015-05-07 2017-07-20 Technology Innovation Momentum Fund (Israel) Limited Partnership Interferometric system and method for use with biological cells and organisms including sperm
JP2017026666A (ja) * 2015-07-16 2017-02-02 オリンパス株式会社 顕微鏡システム、特定方法、及び、プログラム
US20190251330A1 (en) * 2016-06-13 2019-08-15 Nanolive Sa Method of characterizing and imaging microscopic objects
JP2021076575A (ja) * 2019-11-05 2021-05-20 トモキューブ, インコーポレーテッド 3次元屈折率映像とディープラーニングを活用したラベルフリー方式の3次元分子像生成方法および装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"High-resolution 3D refractive index microscopy of multiple-scattering samples from intensity images", OPTICA, vol. 6, no. 9, 2019, pages 1211 - 1219
C. CHAUMETJ. YIL. TIAN: "Inverse scattering for reflection intensity phase microscopy", BIOMED. OPT. EXPRESS, vol. 11, no. 2, 2020, pages 911 - 926

Also Published As

Publication number Publication date
JPWO2023175862A1 (ja) 2023-09-21

Similar Documents

Publication Publication Date Title
CN111051955B (zh) 通过使用卷积神经网络来标识利用数字全息显微镜所获取的细胞图像的品质
US9952422B2 (en) Enhancing the resolution of three dimensional video images formed using a light field microscope
Shajkofci et al. Spatially-variant CNN-based point spread function estimation for blind deconvolution and depth estimation in optical microscopy
Aguet et al. Model-based 2.5-D deconvolution for extended depth of field in brightfield microscopy
US20220058776A1 (en) Systems and methods for two-dimensional fluorescence wave propagation onto surfaces using deep learning
US20230085827A1 (en) Single-shot autofocusing of microscopy images using deep learning
JP6995975B2 (ja) 判定方法
WO2014117079A1 (en) Depth of field 3d imaging slm microscope
JP6865507B2 (ja) 多能性幹細胞の無染色評価支援方法、プログラム、演算装置
CN110462484B (zh) 具有优化的照明几何结构的结构照明
EP2084668A1 (en) Reconstruction and visualization of neuronal cell structures with brigh-field mosaic microscopy
US9930241B2 (en) Image processing apparatus, image processing program, and image processing method
Wijesinghe et al. Experimentally unsupervised deconvolution for light-sheet microscopy with propagation-invariant beams
Bouchama et al. Fourier ptychographic microscopy image enhancement with bi-modal deep learning
WO2023175862A1 (ja) 屈折率分布生成装置、屈折率分布生成方法、屈折率分布生成システム及び記録媒体
CN102109329A (zh) 厚度信息获取装置、方法和程序以及显微镜
Yang et al. Transfer learning in general lensless imaging through scattering media
Murtin et al. Image processing for precise three-dimensional registration and stitching of thick high-resolution laser-scanning microscopy image stacks
Merchant et al. Three-dimensional imaging
WO2023175860A1 (ja) 標本画像生成装置、標本画像生成方法、標本画像生成システム及び記録媒体
WO2013025173A1 (en) A method and system for tracking motion of microscopic objects within a three-dimensional volume
CN115272136B (zh) 基于大数据的证件照眼镜反光消除方法、装置、介质及设备
JP7133718B2 (ja) 屈折率分布推定システム
Bouchama et al. FPM image enhancement with bi-modal deep learning
Wei et al. Blurring kernel extraction and super-resolution image reconstruction based on style generative adersarial networks

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22932136

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2024507370

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2022932136

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022932136

Country of ref document: EP

Effective date: 20241017