JP2013113818A - Image processing device, microscope system, image processing method and image processing program - Google Patents
Image processing device, microscope system, image processing method and image processing program Download PDFInfo
- Publication number
- JP2013113818A JP2013113818A JP2011263132A JP2011263132A JP2013113818A JP 2013113818 A JP2013113818 A JP 2013113818A JP 2011263132 A JP2011263132 A JP 2011263132A JP 2011263132 A JP2011263132 A JP 2011263132A JP 2013113818 A JP2013113818 A JP 2013113818A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- unit
- image processing
- continuity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Sampling And Sample Adjustment (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、顕微鏡により取得された生体組織の標本画像を処理する画像処理装置、顕微鏡システム、画像処理方法、及び画像処理プログラムに関する。 The present invention relates to an image processing apparatus, a microscope system, an image processing method, and an image processing program for processing a specimen image of a biological tissue acquired by a microscope.
従来、生体組織標本、特に病理標本においては、臓器摘出や針生検等によって得た標本を厚さ数ミクロン程度にスライスした後、様々な所見を得るために顕微鏡で拡大観察することが広く行われている。近年では、標本をスライスして得た切片標本の観察像を電子的な画像データに変換し、画像処理装置において一連の切片標本の画像を3次元的に構成して3D表示を行ったり、比較診断のために1つの画面に複数枚の画像を並べて表示することも多い。 Conventionally, in biological tissue specimens, especially pathological specimens, specimens obtained by organ excision, needle biopsy, etc. are sliced to a thickness of about several microns and then magnified with a microscope to obtain various findings. ing. In recent years, an observation image of a slice specimen obtained by slicing a specimen is converted into electronic image data, and a series of slice specimen images are three-dimensionally displayed and compared in an image processing apparatus. In many cases, a plurality of images are displayed side by side on one screen for diagnosis.
例えば、特許文献1には、複数の連続切片画像の輪郭についての位置データを取り込み、この位置データをワールド座標に変換した位置データに基づいて立体像を再構築することが開示されている。 For example, Patent Document 1 discloses that position data regarding the contours of a plurality of continuous slice images is taken and a stereoscopic image is reconstructed based on position data obtained by converting the position data into world coordinates.
特許文献2には、スライス断面像を二値化し、距離変換により骨格画像を作成し、この骨格画像に基づいて抽出した特徴点によりスライス断面像を位置合わせして3次元画像を構築することが開示されている。 In Patent Document 2, a slice cross-sectional image is binarized, a skeleton image is created by distance conversion, and a slice cross-sectional image is aligned with feature points extracted based on the skeleton image to construct a three-dimensional image. It is disclosed.
特許文献3には、連続切片画像の立体像を合成する際の前処理として、各切片画像から背景を除去することが開示されている。 Patent Document 3 discloses that a background is removed from each slice image as a preprocessing when a stereoscopic image of continuous slice images is synthesized.
生体組織標本をスライスした切片標本は、ほぼ無色透明に近いため、通常、観察に先立って染色が施される。染色手法としては多数のものが知られているが、病理標本に関しては、青紫色のヘマトキシリンと赤色のエオジンの2種の色素を使用するヘマトキシリン−エオジン染色(以下、HE染色と記す)を行うのが一般的である。HE染色が施された標本においては、細胞核や骨組織等が青紫色に染色され、細胞質や結合組織、赤血球等が赤色に染色されるので、観察者は、これらの組織構成要素を容易に視認できるようになる。それにより、観察者は、切片標本内の細胞核等の組織構成要素の大きさや位置関係等を把握することができ、切片標本の状態を形態学的に判断することが可能となる。 Since a slice specimen obtained by slicing a biological tissue specimen is almost colorless and transparent, it is usually stained prior to observation. Many methods are known as staining techniques, but for pathological specimens, hematoxylin-eosin staining (hereinafter referred to as HE staining) using two kinds of pigments of blue-violet hematoxylin and red eosin is performed. Is common. In HE-stained specimens, cell nuclei and bone tissue are stained blue-purple, and cytoplasm, connective tissue, red blood cells, etc. are stained red, so that the observer can easily see these tissue components. become able to. Thereby, the observer can grasp the size and positional relationship of tissue components such as cell nuclei in the slice specimen, and can determine the state of the slice specimen morphologically.
生体組織標本の染色に関する技術として、特許文献4には、HE染色を施した標本をマルチバンド撮像した画像に対し、各画素の画素値に基づいて当該標本画像の各位置におけるスペクトル(分光透過率)を推定すると共に、このスペクトルに基づいて当該位置における色素量を推定し、さらに、色素量分布に基づいて各位置における色素量を補正することが開示されている。 As a technique related to staining of a biological tissue specimen, Patent Document 4 discloses a spectrum (spectral transmittance) at each position of a specimen image based on the pixel value of each pixel of an image obtained by performing multiband imaging of a specimen subjected to HE staining. ), The amount of dye at the position is estimated based on this spectrum, and the amount of dye at each position is corrected based on the dye amount distribution.
ところで、1つの生体組織標本から得られた複数の切片標本は、通常、切片標本を載置するスライドガラスに貼付されたラベルの番号等により管理される。近年では、切片標本の順序を示すバーコードラベルがスライドガラスに貼付される場合もある。 By the way, a plurality of section specimens obtained from one biological tissue specimen are usually managed by the number of a label attached to a slide glass on which the section specimen is placed. In recent years, a barcode label indicating the order of the section specimens may be attached to the slide glass.
しかしながら、生体組織標本をスライスして切片標本を作成する作業は人手に負うことが多い。このため、ラベルの番号やバーコード等が適切に管理されていない場合には、各切片の連続性が不明となり、もとの生体組織標本をスライスした順序で標本画像を取得できなくなってしまう。それにより、もとの生体組織標本を正確に表す3D画像の取得が困難となったり、比較診断のために標本画像を適切な順序で並べることが困難になるという問題があった。 However, the operation of slicing a biological tissue specimen to create a slice specimen is often carried out manually. For this reason, if the label number, barcode, etc. are not properly managed, the continuity of each section becomes unclear, and the specimen images cannot be acquired in the order in which the original biological tissue specimen is sliced. As a result, there is a problem that it is difficult to obtain a 3D image that accurately represents the original biological tissue specimen, and that it is difficult to arrange specimen images in an appropriate order for comparative diagnosis.
本発明は、上記に鑑みてなされたものであって、生体組織標本の切片標本を撮像して得られた一連の標本画像に対し、もとの生体組織標本をスライスした順序に従う正確な並び順を付与することができる画像処理装置、顕微鏡システム、画像処理方法、及び画像処理プログラムを提供することを目的とする。 The present invention has been made in view of the above, and for a series of specimen images obtained by imaging a slice specimen of a biological tissue specimen, an accurate arrangement order according to the order in which the original biological tissue specimen is sliced An object of the present invention is to provide an image processing apparatus, a microscope system, an image processing method, and an image processing program.
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、生体組織標本をスライスし染色を施した複数の切片標本に対応する複数の画像に対し、該画像内の各画素の色特徴量に基づいて少なくとも1種類の組織構成要素を抽出し、該種類ごとの画像である要素画像を作成する要素画像作成部と、前記複数の画像間で、同じ種類の前記要素画像の連続性を評価する連続性評価部を有し、該連続性の評価結果に基づいて、前記複数の画像の並び順を判定する並び順判定部とを備えることを特徴とする。 In order to solve the above-mentioned problems and achieve the object, an image processing apparatus according to the present invention includes a plurality of images corresponding to a plurality of slice specimens obtained by slicing and staining a biological tissue specimen. Extracting at least one type of tissue constituent element based on the color feature amount of each pixel, and generating an element image that is an image of each type, and the same type of the element between the plurality of images It has a continuity evaluation part which evaluates the continuity of an image, and is provided with the arrangement order judgment part which judges the arrangement order of a plurality of above-mentioned images based on the evaluation result of the continuity.
上記画像処理装置は、前記複数の画像から、前記切片標本が連続すると推定される複数の画像を連続切片候補画像群として選択する画像選択部をさらに備え、前記並び順判定部は、前記連続切片候補画像群間の並び順を判定することを特徴とする。 The image processing apparatus further includes an image selection unit that selects a plurality of images estimated to be continuous from the plurality of images as a continuous section candidate image group, and the arrangement order determination unit includes the continuous section determination unit. The arrangement order between the candidate image groups is determined.
上記画像処理装置において、前記画像選択部は、前記複数の画像から輪郭を抽出する輪郭抽出部と、前記輪郭に基づいて、前記複数の画像の内の任意の画像と他の画像との間における類似判定を行う類似判定部と、前記類似判定部により、互いに類似すると判定された画像を前記連続切片候補画像群として抽出する画像抽出部とを有することを特徴とする。 In the image processing device, the image selection unit is configured to extract a contour from the plurality of images, and between an arbitrary image of the plurality of images and another image based on the contour. A similarity determination unit that performs similarity determination, and an image extraction unit that extracts, as the continuous segment candidate image group, images determined to be similar to each other by the similarity determination unit.
上記画像処理装置において、前記画像選択部は、前記複数の画像の各画像から背景を抽出する背景抽出部と、前記背景に基づいて、前記複数の画像の内の任意の画像と他の画像との間における類似判定を行う類似判定部と、前記類似判定部により、互いに類似すると判定された画像を前記連続切片候補画像群として抽出する画像抽出部とを有することを特徴とする。 In the image processing apparatus, the image selection unit includes a background extraction unit that extracts a background from each image of the plurality of images, an arbitrary image of the plurality of images, and another image based on the background. A similarity determination unit that performs similarity determination between the images, and an image extraction unit that extracts images determined to be similar to each other by the similarity determination unit as the continuous segment candidate image group.
上記画像処理装置において、前記要素画像作成部は、前記各画像内の画素の色特徴量を取得する色特徴量取得部と、前記色特徴量の分布を作成し、該分布を、前記少なくとも1種類の組織構成要素に対応する少なくとも1つのクラスに分類するクラス分類部と、各クラスに属する色特徴量に対応する画素を抽出して、前記クラス毎の画像を前記要素画像として作成するクラス別画像作成部とを有することを特徴とする。 In the image processing apparatus, the element image creation unit creates a color feature quantity acquisition unit that obtains a color feature quantity of a pixel in each image, and creates a distribution of the color feature quantity, and the distribution is defined as the at least one A class classification unit that classifies into at least one class corresponding to a type of organization component, and a pixel corresponding to a color feature amount belonging to each class, and creates an image for each class as the element image And an image creating unit.
上記画像処理装置において、前記色特徴量は、前記画像内の各画素位置に対応する標本部分における前記色素の色素量であり、前記色特徴量取得部は、前記各画像内の各画素の画素値に基づき、前記各画素位置における色成分のスペクトルを推定するスペクトル推定部と、前記色成分のスペクトルに基づいて、前記標本部分における前記色素量を推定する色素量推定部とを含み、前記クラス分類部は、前記色素量を成分とする色特徴量空間において前記色素量の分布をクラスタリングすることにより、前記色素量の分布を分類することを特徴とする。 In the image processing apparatus, the color feature amount is a pigment amount of the pigment in a sample portion corresponding to each pixel position in the image, and the color feature amount acquisition unit is a pixel of each pixel in each image. A spectrum estimation unit that estimates a spectrum of a color component at each pixel position based on a value; and a pigment amount estimation unit that estimates the pigment amount in the sample part based on a spectrum of the color component, and the class The classification unit classifies the pigment amount distribution by clustering the pigment amount distribution in a color feature amount space including the pigment amount as a component.
上記画像処理装置において、前記色特徴量取得部は、前記複数の画像間における前記色素量の分布を均質化する色素量補正部をさらに備え、前記クラス分類部は、前記色素量補正部によって補正された前記色素量の分布を分類することを特徴とする。 In the image processing apparatus, the color feature amount acquisition unit further includes a pigment amount correction unit that homogenizes a distribution of the pigment amount among the plurality of images, and the class classification unit is corrected by the pigment amount correction unit. And classifying the distribution of the dye amount.
上記画像処理装置において、前記連続性評価部は、前記組織構成要素ごとに定められた連続性評価アルゴリズムを適用することにより、前記要素画像同士の連続性の評価を行うことを特徴とする。 In the image processing apparatus, the continuity evaluation unit evaluates the continuity between the element images by applying a continuity evaluation algorithm defined for each tissue component.
上記画像処理装置において、前記連続性評価部は、前記組織構成要素の特性と、前記生体組織標本の部位と、前記所定の色素との内の少なくとも1つに基づいて前記連続性の評価を行うことを特徴とする。 In the image processing apparatus, the continuity evaluation unit performs the continuity evaluation based on at least one of the characteristics of the tissue constituent element, the site of the biological tissue specimen, and the predetermined dye. It is characterized by that.
上記画像処理装置において、前記少なくとも1種類の組織構成要素は、細胞膜、細胞質、細胞核、血管、血液、及び腔の内の少なくともいずれかを含み、前記連続性評価部は、前記細胞膜と、前記細胞核と、前記血液と、前記腔との内のいずれかに対応する要素画像に基づいて、前記連続性を評価することを特徴とする。 In the image processing apparatus, the at least one tissue constituent element includes at least one of a cell membrane, a cytoplasm, a cell nucleus, a blood vessel, blood, and a cavity, and the continuity evaluation unit includes the cell membrane and the cell nucleus. And the continuity is evaluated based on an element image corresponding to any one of the blood and the cavity.
上記画像処理装置は、前記並び順判定部による判定結果に基づいて、前記複数の画像を3次元的に構成する3次元画像構成部をさらに備えることを特徴とする。 The image processing apparatus further includes a three-dimensional image configuration unit configured to three-dimensionally configure the plurality of images based on a determination result by the arrangement order determination unit.
上記画像処理装置は、前記要素画像における前記組織構成要素の位置に基づいて、前記複数の画像間における位置合わせを行う位置合わせ部をさらに備えることを特徴とする。 The image processing apparatus further includes an alignment unit that performs alignment between the plurality of images based on the position of the tissue component in the element image.
本発明に係る顕微鏡システムは、上記画像処理装置と、体組織標本をスライスした切片に対して所定の色素により染色を施して得た複数の切片標本の観察像を生成する顕微鏡装置と、前記観察像に対応するディジタル画像を取得する画像取得部とを備えることを特徴とする。 A microscope system according to the present invention includes the image processing apparatus, a microscope apparatus that generates an observation image of a plurality of section samples obtained by staining a section obtained by slicing a body tissue specimen with a predetermined dye, and the observation And an image acquisition unit that acquires a digital image corresponding to the image.
本発明に係る画像処理方法は、生体組織標本をスライスし染色を施した複数の切片標本に対応する複数の画像に対し、該画像内の各画素の色特徴量に基づいて少なくとも1種類の組織構成要素を抽出し、該種類ごとの画像である要素画像を作成する要素画像作成ステップと、前記複数の画像間で、同じ種類の前記要素画像の連続性を評価し、該連続性の評価結果に基づいて、前記複数の画像の並び順を判定する並び順判定ステップとを含むことを特徴とする。 According to the image processing method of the present invention, for a plurality of images corresponding to a plurality of slice specimens obtained by slicing and staining a biological tissue specimen, at least one kind of tissue based on the color feature amount of each pixel in the image An element image creation step of extracting component elements and creating an element image that is an image of each type, and evaluating the continuity of the same type of the element image between the plurality of images, and the continuity evaluation result And an arrangement order determination step for determining the arrangement order of the plurality of images based on the above.
本発明に係る画像処理プログラムは、生体組織標本をスライスし染色を施した複数の切片標本に対応する複数の画像に対し、該画像内の各画素の色特徴量に基づいて少なくとも1種類の組織構成要素を抽出し、該種類ごとの画像である要素画像を作成する要素画像作成ステップと、前記複数の画像間で、同じ種類の前記要素画像の連続性を評価し、該連続性の評価結果に基づいて、前記複数の画像の並び順を判定する並び順判定ステップとをコンピュータに実行させることを特徴とする。 The image processing program according to the present invention provides at least one type of tissue based on the color feature amount of each pixel in the image, for a plurality of images corresponding to a plurality of slice samples obtained by slicing and staining a biological tissue sample. An element image creation step of extracting component elements and creating an element image that is an image of each type, and evaluating the continuity of the same type of the element image between the plurality of images, and the continuity evaluation result And causing the computer to execute an arrangement order determination step for determining the arrangement order of the plurality of images.
本発明によれば、画像内の色特徴量に基づいて抽出した組織構成画像に対応する要素画像同士の連続性に基づいて複数の画像間の並び順を判定するので、一連の画像に対し、もとの生体組織標本をスライスした順序に従う正確な並び順を付与することが可能となる。 According to the present invention, since the arrangement order between a plurality of images is determined based on the continuity between element images corresponding to the tissue composition image extracted based on the color feature amount in the image, It is possible to give an accurate arrangement order according to the order in which the original biological tissue specimen is sliced.
以下、本発明に係る画像処理装置、顕微鏡システム、画像処理方法、及び画像処理プログラムの実施の形態について、図面を参照しながら詳細に説明する。なお、これらの実施の形態により本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。 Hereinafter, embodiments of an image processing apparatus, a microscope system, an image processing method, and an image processing program according to the present invention will be described in detail with reference to the drawings. Note that the present invention is not limited to these embodiments. Moreover, in description of each drawing, the same code | symbol is attached | subjected and shown to the same part.
(実施の形態1)
図1は、本発明の実施の形態1に係る顕微鏡システムの構成を示すブロック図である。図1に示すように、実施の形態1に係る顕微鏡システム1は、標本の観察像を生成する顕微鏡装置10と、標本が載置されたスライドを該顕微鏡装置10に順次供給するスライドローダー20と、顕微鏡装置10が生成した観察像を撮像して標本画像を取得する画像取得部30と、画像取得部30が取得した標本画像を処理する画像処理装置40とを備える。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of a microscope system according to Embodiment 1 of the present invention. As shown in FIG. 1, a microscope system 1 according to Embodiment 1 includes a microscope apparatus 10 that generates an observation image of a specimen, a slide loader 20 that sequentially supplies a slide on which the specimen is placed, to the microscope apparatus 10. The image acquisition unit 30 captures an observation image generated by the microscope apparatus 10 and acquires a sample image, and the image processing apparatus 40 processes the sample image acquired by the image acquisition unit 30.
図2は、顕微鏡装置10及びスライドローダー20の構成を概略的に示す模式図である。
図2に示すように、顕微鏡装置10は、略C字形のアーム部100と、該アーム部100に取り付けられた標本ステージ101と、該標本ステージ101と対向して配置された対物レンズ102と、アーム部100に取り付けられた三眼鏡筒ユニット103と、該三眼鏡筒ユニット103を介して設けられた接眼レンズユニット104と、三眼鏡筒ユニット103に連結された結像レンズユニット105とを有する。また、結像レンズユニット105の端部には、画像取得部30が設けられている。アーム部100には、照明系として、透過照明用光源106a及び透過照明光学系106bと、落射照明用光源107a及び落射照明光学系107bと、複数の光学キューブ108a、108bを切換可能に保持するキューブユニット108とが設けられている。このような顕微鏡装置10には、画像処理装置40の制御の下で、顕微鏡装置10の各部に制御信号を出力する顕微鏡コントローラ110が接続されている。
FIG. 2 is a schematic diagram schematically showing the configuration of the microscope apparatus 10 and the slide loader 20.
As shown in FIG. 2, the microscope apparatus 10 includes a substantially C-shaped arm unit 100, a sample stage 101 attached to the arm unit 100, an objective lens 102 arranged to face the sample stage 101, It has a trinocular tube unit 103 attached to the arm unit 100, an eyepiece unit 104 provided via the trinocular tube unit 103, and an imaging lens unit 105 connected to the trinocular tube unit 103. An image acquisition unit 30 is provided at the end of the imaging lens unit 105. The arm unit 100 includes, as an illumination system, a transmission illumination light source 106a and a transmission illumination optical system 106b, an epi-illumination light source 107a and an epi-illumination optical system 107b, and a cube that holds a plurality of optical cubes 108a and 108b in a switchable manner. Unit 108 is provided. Such a microscope apparatus 10 is connected to a microscope controller 110 that outputs a control signal to each part of the microscope apparatus 10 under the control of the image processing apparatus 40.
標本ステージ101には、標本ステージ101を3次元的に移動させる駆動装置101aが設けられている。駆動装置101aは、顕微鏡コントローラ110の制御の下で標本ステージ101を対物レンズの光軸方向(Z方向)に変化させることにより、焦点合わせを行う。また、駆動装置101aは、顕微鏡コントローラ110の制御の下で標本ステージ101をXY平面内で移動させることにより、対物レンズ102の視野を変化させる。 The specimen stage 101 is provided with a driving device 101a that moves the specimen stage 101 three-dimensionally. The driving device 101a performs focusing by changing the specimen stage 101 in the optical axis direction (Z direction) of the objective lens under the control of the microscope controller 110. The driving device 101a changes the field of view of the objective lens 102 by moving the sample stage 101 in the XY plane under the control of the microscope controller 110.
対物レンズ102は、倍率が互いに異なる複数の対物レンズ(例えば、対物レンズ102’)を保持可能なレボルバ109に取り付けられている。このレボルバ109を回転させて、標本ステージ101と対向する対物レンズ102、102’を変更することにより、視野内の画像の倍率を変化させることができる。 The objective lens 102 is attached to a revolver 109 that can hold a plurality of objective lenses (for example, the objective lens 102 ′) having different magnifications. By rotating the revolver 109 and changing the objective lenses 102 and 102 ′ facing the sample stage 101, the magnification of the image in the field of view can be changed.
三眼鏡筒ユニット103は、対物レンズ102から入射した標本SPの観察光を、画像取得部30の方向と接眼レンズユニット104の方向とに分岐する。接眼レンズユニット104は、ユーザが標本SPを直接観察するためのものである。 The trinocular tube unit 103 branches the observation light of the specimen SP incident from the objective lens 102 into the direction of the image acquisition unit 30 and the direction of the eyepiece unit 104. The eyepiece unit 104 is for the user to directly observe the specimen SP.
結像レンズユニット105には、複数のズームレンズと、これらのズームレンズの位置を変化させる駆動部(いずれも図示せず)とを含むズーム部が設けられている。ズーム部は、顕微鏡コントローラ110の制御の下でズームレンズの位置を調整することにより、撮像視野内の撮像対象を拡大又は縮小させる。 The imaging lens unit 105 is provided with a zoom unit including a plurality of zoom lenses and a drive unit (none of which is shown) that changes the positions of these zoom lenses. The zoom unit adjusts the position of the zoom lens under the control of the microscope controller 110 to enlarge or reduce the imaging target in the imaging field.
透過照明光学系106bは、透過照明用光源106aから出射した透過照明光を集光して観察光路Lの方向に導く種々の光学部材(コレクタレンズ、フィルタユニット、視野絞り、シャッタ、開口絞り、コンデンサ光学素子ユニット、トップレンズユニット等)を含む。一方、落射照明光学系107bは、落射照明用光源107aから出射した落射照明光を集光して観察光路Lの方向に導く種々の光学部材(フィルタユニット、シャッタ、視野絞り、開口絞り等)を含む。 The transmission illumination optical system 106b collects various illumination members (collector lens, filter unit, field stop, shutter, aperture stop, condenser) that collect the transmission illumination light emitted from the transmission illumination light source 106a and guide it in the direction of the observation optical path L. Optical element unit, top lens unit, etc.). On the other hand, the epi-illumination optical system 107b collects various optical members (filter unit, shutter, field stop, aperture stop, etc.) that collect the epi-illumination light emitted from the epi-illumination light source 107a and guide it in the direction of the observation optical path L. Including.
キューブユニット108は、内部に複数の光学キューブ108a、108bを備え、例えば透過明視野観察や蛍光観察といった各種検鏡法に応じて、観察光路L上に配置される光学キューブを切り替える。 The cube unit 108 includes a plurality of optical cubes 108a and 108b, and switches the optical cube arranged on the observation optical path L according to various spectroscopic methods such as transmission bright field observation and fluorescence observation.
スライドローダー20は、標本が載置された標本スライドSP1、SP2、…を収納して標本ステージ101との間で運搬する運搬装置である。スライドローダー20には、画像処理装置40の制御の下で動作するローダー制御部210が接続されている。スライドローダー20は、ローダー制御部210の制御により、顕微鏡コントローラ110の制御の下で位置を変化させる標本ステージ101の動きと連動して、観察対象の標本スライドSP1、SP2、…を順次供給すると共に、観察済みの標本スライドSP1、SP2、…を回収する。また、スライドローダー20には、バーコードリーダ220が設けられている。バーコードリーダ220は、顕微鏡装置10に供給される標本スライドに貼付されたバーコードラベルを読み取り、読み取り信号を画像処理装置40に送信する。それにより、画像処理装置40において、顕微鏡装置10で観察中の標本スライドと画像取得部30が撮像した標本画像の画像データとが対応付けられる。 The slide loader 20 is a transport device that stores the sample slides SP1, SP2,... On which the sample is placed and transports it between the sample stage 101. A loader control unit 210 that operates under the control of the image processing apparatus 40 is connected to the slide loader 20. The slide loader 20 sequentially supplies specimen slides SP1, SP2,... To be observed in conjunction with the movement of the specimen stage 101 whose position is changed under the control of the microscope controller 110 under the control of the loader control unit 210. .. Collected specimen slides SP1, SP2,... The slide loader 20 is provided with a barcode reader 220. The barcode reader 220 reads a barcode label attached to a specimen slide supplied to the microscope apparatus 10 and transmits a read signal to the image processing apparatus 40. Thereby, in the image processing apparatus 40, the specimen slide being observed by the microscope apparatus 10 is associated with the image data of the specimen image captured by the image acquisition unit 30.
画像取得部30は、例えばCCD等の撮像素子を含み、各画素において互いに異なる複数の波長帯域(バンド)における画素レベル(画素値)を持つカラー画像を撮像可能なマルチバンドカメラによって実現される。画像取得部30は、対物レンズ102にから出射し、結像レンズユニット105を介して入射した光(観察光)を受光し、観察光に対応する画像データを生成して画像処理装置40に出力する。なお、本実施の形態ではマルチバンドカメラを使用しているが、マルチバンドカメラを使用せずに、一般的に使用されるRGBカメラと、該RGBカメラとは別体の色測定用のセンサとを設け、センサ及びRGBカメラの画像の両方を使用して、色特徴を取得(スペクトルや色素量を推定)する構成としても良い。例えば、特開2011−99823号公報に記載された顕微鏡システムのような構成としても良い。 The image acquisition unit 30 includes an imaging element such as a CCD, for example, and is realized by a multiband camera that can capture color images having pixel levels (pixel values) in a plurality of different wavelength bands (bands) in each pixel. The image acquisition unit 30 receives light (observation light) emitted from the objective lens 102 and incident through the imaging lens unit 105, generates image data corresponding to the observation light, and outputs the image data to the image processing device 40. To do. Although a multiband camera is used in this embodiment, an RGB camera that is generally used without using a multiband camera, and a color measurement sensor that is separate from the RGB camera, It is good also as a structure which obtains a color characteristic (estimates a spectrum and pigment amount) using both the image of a sensor and an RGB camera. For example, it is good also as a structure like the microscope system described in Unexamined-Japanese-Patent No. 2011-99823.
画像処理装置40は、当該画像処理装置40に対する指示や情報の入力を受け付ける入力部41と、画像取得部30から出力された顕微鏡画像の入力を受け付けるインタフェースである画像入力部42と、顕微鏡画像やその他の情報を表示する表示部43と、記憶部44と、顕微鏡画像に対して所定の画像処理を施す演算部45と、これらの各部の動作及び画像取得部30の動作を制御する制御部46とを備える。 The image processing apparatus 40 includes an input unit 41 that receives an instruction and information input to the image processing apparatus 40, an image input unit 42 that is an interface that receives an input of a microscope image output from the image acquisition unit 30, a microscope image, A display unit 43 that displays other information, a storage unit 44, a calculation unit 45 that performs predetermined image processing on the microscope image, and a control unit 46 that controls the operations of these units and the operation of the image acquisition unit 30. With.
入力部41は、キーボード、各種ボタン、各種スイッチ等の入力デバイスや、マウスやタッチパネル等のポインティングデバイスを含み、これらのデバイスを介して入力された信号を受け付けて制御部46に入力する。 The input unit 41 includes input devices such as a keyboard, various buttons, and various switches, and pointing devices such as a mouse and a touch panel. The input unit 41 receives signals input via these devices and inputs them to the control unit 46.
表示部43は、例えば、LCD(Liquid Crystal Display)やEL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の表示装置によって実現され、制御部46から出力された制御信号に従って、各種画面を表示する。 The display unit 43 is realized by a display device such as an LCD (Liquid Crystal Display), an EL (Electro Luminescence) display, or a CRT (Cathode Ray Tube) display, and displays various screens according to control signals output from the control unit 46. indicate.
記憶部44は、更新記録可能なフラッシュメモリ、RAM、ROM等の半導体メモリや、内蔵若しくはデータ通信端子で接続されたハードディスク、MO、CD−R、DVD−R等の記録媒体及び該記録媒体に記録された情報を読み取る読取装置等によって実現される。記憶部44は、画像取得部30から出力された画像データや、演算部45及び制御部46がそれぞれ実行する各種プログラムや各種設定情報を記憶する。具体的には、記憶部44は、画像取得部30が撮像した一連の切片標本に対応する標本画像に対し、もとの生体組織標本をスライスした順序に従う正確な並び順を付与する画像処理プログラム441を記憶する。また、記憶部44は、画像処理プログラム441を実行する際に用いられる種々のデータ(例えば、HE染色が施された標準標本における色素量分布等の教師データ、各種色素に関する情報、演算式及び係数等)を記憶する。 The storage unit 44 includes update-recordable flash memory, RAM, ROM, and other semiconductor memories, a built-in hard disk connected via a data communication terminal, MO, CD-R, DVD-R, and the like, and the recording medium. This is realized by a reading device or the like that reads recorded information. The storage unit 44 stores image data output from the image acquisition unit 30, various programs executed by the calculation unit 45 and the control unit 46, and various setting information. Specifically, the storage unit 44 assigns an accurate arrangement order according to the order in which the original biological tissue specimens are sliced to the specimen images corresponding to the series of slice specimens captured by the image acquisition unit 30. 441 is stored. The storage unit 44 also stores various data used when executing the image processing program 441 (for example, teacher data such as a dye amount distribution in a standard sample subjected to HE staining, information on various dyes, arithmetic expressions, and coefficients). Etc.).
演算部45は、記憶部44に記憶された各種プログラムを例えばCPU等のハードウェアに読み込むことにより、記憶部44に記憶された画像データに対応する一連の標本画像に対し、生体組織標本をスライスした順序に従う正確な並び順を付与する画像処理を実行する。 The calculation unit 45 reads various programs stored in the storage unit 44 into hardware such as a CPU, thereby slicing a biological tissue specimen with respect to a series of specimen images corresponding to the image data stored in the storage unit 44. The image processing for assigning an accurate arrangement order according to the order is performed.
より詳細には、演算部45は、一連の標本画像の内で、切片標本が連続すると推定される標本画像の組み合わせを、連続切片候補画像群として選択する画像選択部451と、各標本画像の色特徴量に基づいて標本画像内から少なくとも1種類の組織構成要素を抽出し、抽出した組織構成要素が種類ごとに写った画像である要素画像を作成する要素画像作成部452と、標本画像間において対応する要素画像を比較して連続性を評価する連続性評価アルゴリズム453a、453b、…を含み、この連続性の評価結果に基づいて標本画像間の並び順を判定する並び順判定部としての連続性評価部453とを有する。 More specifically, the calculation unit 45 selects an image selection unit 451 that selects a combination of sample images that are estimated to be continuous in a series of sample images as a continuous slice candidate image group, and each sample image. An element image creation unit 452 that extracts at least one type of tissue constituent element from the specimen image based on the color feature amount, creates an element image that is an image of the extracted tissue constituent element for each type, and between the specimen images , Including continuity evaluation algorithms 453a, 453b,... For comparing the corresponding element images and evaluating the continuity, and determining the arrangement order between the sample images based on the continuity evaluation result. And a continuity evaluation unit 453.
ここで、組織構成要素とは、切片標本を構成する各要素のことであり、具体的には、細胞膜、細胞質、細胞核、血管、血液、腔(管状組織の断面や細胞質の隙間)といった生体組織を構成する要素の他、切片標本を作成する際に生じた切片の皺やゆがみ、スライド内に生じた泡、スライド上に付着したゴミ等が含まれる。 Here, the tissue constituent element is each element constituting the slice specimen, and specifically, a biological tissue such as a cell membrane, a cytoplasm, a cell nucleus, a blood vessel, blood, a cavity (a cross section of a tubular tissue or a gap in the cytoplasm). In addition to the elements constituting the section, it includes the wrinkles and distortion of the section generated when preparing the section specimen, bubbles generated in the slide, dust adhering to the slide, and the like.
上記演算部45の構成の内、連続性評価部453は、組織構成要素毎に作成された連続性評価アルゴリズム453a、453b、…に従って、標本画像間の連続性を判定し、この連続性に基づき、並び順を判定する。 Of the configuration of the calculation unit 45, the continuity evaluation unit 453 determines continuity between sample images according to the continuity evaluation algorithms 453a, 453b,... Created for each tissue component, and based on this continuity. The order of arrangement is determined.
また、演算部45は、連続性評価部453による判定結果に基づいて、一連の標本画像に対して並び順を付与する並び順付与部454と、並び順が連続する標本画像間において位置合わせを行う位置合わせ部455と、各標本画像に付与された並び順に従って、一連の標本画像の並べ替えを行う並べ替え部456と、位置合わせ及び並び順が入れ替えられた一連の標本画像から3次元的な画像(以下、3D画像という)を構成する3D画像構成部457とを有する。 In addition, the calculation unit 45 performs alignment between the arrangement order providing unit 454 that assigns the arrangement order to the series of sample images and the sample images in which the arrangement order continues based on the determination result by the continuity evaluation unit 453. The alignment unit 455 to perform, a rearrangement unit 456 that rearranges a series of specimen images according to the arrangement order given to each specimen image, and a three-dimensional view from the series of specimen images in which the registration and arrangement order are changed A 3D image constructing unit 457 that constructs a simple image (hereinafter referred to as a 3D image).
図3は、画像選択部451の内部構成を示すブロック図である。図3に示すように、画像選択部451は、一連の標本画像の任意の標本画像から輪郭を抽出する輪郭抽出部451aと、抽出した輪郭を用いて、上記任意の標本画像と他の標本画像との間における類似判定を行う類似判定部451bと、この類似判定の結果に基づいて、全体形状がある程度類似していると判定される標本画像同士を連続切片候補画像群として抽出する画像抽出部451cとを有する。 FIG. 3 is a block diagram illustrating an internal configuration of the image selection unit 451. As illustrated in FIG. 3, the image selection unit 451 includes a contour extraction unit 451 a that extracts a contour from an arbitrary sample image of a series of sample images, and the arbitrary sample image and another sample image using the extracted contour. A similarity determination unit 451b that performs similarity determination between the sample images, and an image extraction unit that extracts sample images that are determined to have similar overall shapes to a certain degree based on the result of the similarity determination as a continuous segment candidate image group 451c.
また、要素画像作成部452は、標本画像内の各画素の画素値に基づき、各画素位置における色成分のスペクトル(分光透過率)を推定するスペクトル推定部452aと、色成分のスペクトルに基づいて、当該画素位置に対応する標本部分における色素量を推定する色素量推定部452bと、推定された色素量を標準標本に関する情報に基づいて補正する色素量補正部452cと、推定又は補正された色素量を成分とする色特徴量空間に色特徴量の分布を作成し、該分布を組織構成要素に対応するクラスに分類するクラス分類部452dと、各クラスに属する色特徴量に対応する画素を抽出して、クラス毎の画像を要素画像として作成するクラス別画像作成部452eとを有する。なお、スペクトル推定部452aと、色素量推定部452bと、色素量補正部452cとは、色特徴量取得部として設けられている。 Further, the element image creation unit 452 is based on a spectrum estimation unit 452a that estimates a color component spectrum (spectral transmittance) at each pixel position based on the pixel value of each pixel in the sample image, and on the basis of the color component spectrum. A pigment amount estimation unit 452b that estimates the pigment amount in the sample portion corresponding to the pixel position, a pigment amount correction unit 452c that corrects the estimated pigment amount based on information on the standard sample, and an estimated or corrected pigment A color feature amount distribution in a color feature amount space having the amount as a component, a class classification unit 452d for classifying the distribution into a class corresponding to the organization component, and a pixel corresponding to the color feature amount belonging to each class A class-specific image creation unit 452e that extracts and creates an image for each class as an element image. The spectrum estimation unit 452a, the pigment amount estimation unit 452b, and the pigment amount correction unit 452c are provided as a color feature amount acquisition unit.
制御部46は、記憶部44に記憶された各種プログラムを例えばCPU等のハードウェアに読み込むことにより実現される。制御部46は、記憶部44に記憶された各種データや入力部41から入力される各種情報に基づき、顕微鏡装置10、スライドローダー20、画像取得部30、及び画像処理装置40の各部に指示やデータの転送を行うことにより、顕微鏡システム1全体の動作を統括的に制御する。
このような画像処理装置40は、例えばパーソナルコンピュータやワークステーション等の汎用の装置によって実現される。
The control unit 46 is realized by reading various programs stored in the storage unit 44 into hardware such as a CPU. Based on various data stored in the storage unit 44 and various information input from the input unit 41, the control unit 46 instructs each unit of the microscope apparatus 10, the slide loader 20, the image acquisition unit 30, and the image processing apparatus 40. By performing the data transfer, the operation of the entire microscope system 1 is comprehensively controlled.
Such an image processing device 40 is realized by a general-purpose device such as a personal computer or a workstation.
次に、顕微鏡システム1の動作について説明する。図4は、顕微鏡システム1の動作を示すフローチャートである。
顕微鏡システム1は、生体組織標本をスライスして得た各切片標本にHE染色を施すことにより一連の切片標本を作成し、これらの一連の切片標本を撮像して得た一連の標本画像に対して、もとの生体組織標本をスライスした順序に従う正確な並び順を付与して並び替える処理を実行する。
Next, the operation of the microscope system 1 will be described. FIG. 4 is a flowchart showing the operation of the microscope system 1.
The microscope system 1 creates a series of section specimens by performing HE staining on each section specimen obtained by slicing a biological tissue specimen, and images a series of these specimen specimens to obtain a series of specimen images. Then, a process of rearranging by assigning an accurate arrangement order according to the order of slicing the original biological tissue specimen is executed.
まず、ステップS10において、画像取得部30は、スライドローダー20によって顕微鏡装置10に供給される切片標本を、標本ステージ101をXY平面内で移動させることにより対物レンズ102の視野を変化させつつマルチバンドで順次撮像し、撮像した画像をつなぎ合わせることにより、1つの切片標本全体に対応する画像(標本画像)の画像データを画像処理装置40に出力する。画像取得部30は複数の切片標本に対してこれらの動作を順次実施し、複数の標本画像を得る。画像処理装置40は、受け取った画像データを記憶部44に記憶させる。図5は、そのようにして取得された標本画像の一例を示す図である。 First, in step S10, the image acquisition unit 30 changes the field of view of the objective lens 102 by moving the specimen stage 101 within the XY plane of the slice specimen supplied to the microscope apparatus 10 by the slide loader 20, and multiband. The image data of the image (specimen image) corresponding to the entire slice specimen is output to the image processing device 40 by sequentially capturing the images and joining the captured images. The image acquisition unit 30 sequentially performs these operations on a plurality of section specimens to obtain a plurality of specimen images. The image processing apparatus 40 stores the received image data in the storage unit 44. FIG. 5 is a diagram showing an example of the specimen image acquired in this way.
なお、以下の説明においては、所謂バーチャルスライド装置に本発明を適用した例を記載するが、本発明はこれに限るものではなく、例えば、標本の1視野を撮影した画像に対して、以下の説明と同様の処理を実施してもよい。 In the following description, an example in which the present invention is applied to a so-called virtual slide device will be described, but the present invention is not limited to this. For example, for an image obtained by photographing one field of a specimen, the following is described. You may implement the process similar to description.
ステップS11において、画像選択部451は、記憶部44に記憶された画像データに対応する一連の標本画像から、連続切片候補画像群を選択する。より詳細には、輪郭抽出部451aは、任意の標本画像を抽出し、この標本画像に対してエッジ処理等の公知の輪郭抽出法を適用して、輪郭を抽出する。続いて、類似判定部451bは、抽出した輪郭をテンプレートとして、他の標本画像に対してテンプレートマッチング処理を行う。画像抽出部451cは、その際に算出した類似度が所定の閾値以上となる標本画像同士を、連続切片候補画像群として抽出する。 In step S <b> 11, the image selection unit 451 selects a continuous section candidate image group from a series of sample images corresponding to the image data stored in the storage unit 44. More specifically, the contour extraction unit 451a extracts an arbitrary sample image, and applies a known contour extraction method such as edge processing to the sample image to extract a contour. Subsequently, the similarity determination unit 451b performs template matching processing on other sample images using the extracted contour as a template. The image extraction unit 451c extracts sample images whose similarity calculated at that time is equal to or greater than a predetermined threshold as a continuous segment candidate image group.
なお、輪郭抽出部451aは、輪郭抽出する標本画像を、一連の標本画像の中からランダムに抽出しても良いし、一連の標本画像から所定の間隔で抽出しても良い。或いは、ユーザが選択した標本画像に対応する入力信号を入力部41が受け付けた場合には、輪郭抽出部451aは、その入力信号に従って標本画像を抽出しても良い。 Note that the contour extraction unit 451a may randomly extract a sample image for contour extraction from a series of sample images or may extract a sample image from a series of sample images at a predetermined interval. Alternatively, when the input unit 41 receives an input signal corresponding to the sample image selected by the user, the contour extraction unit 451a may extract the sample image according to the input signal.
続くステップS12において、要素画像作成部452は、各標本画像に対し、少なくとも1種類の組織構成要素を抽出して要素画像を作成する(参考:特開2009−14355号公報)。 In subsequent step S12, the element image creation unit 452 creates an element image by extracting at least one type of tissue constituent element for each specimen image (reference: Japanese Patent Application Laid-Open No. 2009-14355).
図6は、要素画像作成部452の詳細な動作を示すフローチャートである。
ステップS121において、スペクトル推定部452aは、標本画像内の各画素位置における各バンドの画素値を取得し、ウィナー(Wiener)推定により、各画素位置における色成分のスペクトルを推定する。
FIG. 6 is a flowchart showing the detailed operation of the element image creation unit 452.
In step S121, the spectrum estimation unit 452a acquires a pixel value of each band at each pixel position in the sample image, and estimates a color component spectrum at each pixel position by Wiener estimation.
ステップS122において、色素量推定部452bは、ステップS121において推定されたスペクトルに基づいて、各画素位置に対応する標本部分に固定された色素量を推定する。ここでは、細胞核を染色したヘマトキシリン(以下、色素Hと記す)、細胞質を染色したエオジン(以下、色素Eと記す)、及び赤血球を染色したエオジン(以下、色素Rと記す)の量を推定する。この色素量は、Lambert−Beer則に従って、画素位置xにおける波長成分λの分光透過率t(x,λ)を与える次式(1)を、複数の波長成分λに関して連立させた連立方程式を解くことによって算出される。
ステップS123において、クラス分類部452dは、ステップS122において推定した色素量(dH,dE)を成分とする色特徴量空間において色素量の分布を作成し、それらの分布をクラスタリングする。図7は、図5に示す標本画像Mの各画素位置における色素量(dH,dE)をプロットした色特徴量空間を示す図である。 In step S123, the class classification unit 452d creates a pigment amount distribution in the color feature amount space having the pigment amount (d H , d E ) estimated in step S122 as a component, and clusters these distributions. FIG. 7 is a diagram illustrating a color feature amount space in which the pigment amount (d H , d E ) at each pixel position of the sample image M illustrated in FIG. 5 is plotted.
ステップS124において、色素量補正部452cは、HE染色が施された標準標本に関する情報に基づいて色素量の分布を補正する。図8は、色素量分布の補正方法を説明する図である。色素量補正部452cは、まず、記憶部44に予め記憶されている教師データの内から、HE染色を施した標準標本を撮像して得られた画像(以下、標準画像という)における色素量分布D0と、色素量分布D0の分布範囲ΔdH及びΔdEを取得する。次いで、色素量補正部452cは、処理対象である標本画像の色素量分布D1を分布範囲ΔdH及びΔdEを対応させるべく、色素量分布D1のシフト、拡大、縮小等の処理を行う。このような処理を各標本画像に対して実行することにより、複数の標本画像間における色の分布が均質化される。 In step S124, the dye amount correction unit 452c corrects the distribution of the dye amount based on the information related to the standard specimen subjected to HE staining. FIG. 8 is a diagram for explaining a method for correcting the dye amount distribution. First, the dye amount correction unit 452c first calculates the dye amount distribution in an image (hereinafter referred to as a standard image) obtained by imaging a standard specimen subjected to HE staining from the teacher data stored in advance in the storage unit 44. D 0 and distribution ranges Δd H and Δd E of the dye amount distribution D 0 are acquired. Then, the dye amount correction unit 452c, in order to correspond to the pigment weight distribution D 1 of the specimen image to be processed distribution range [Delta] d H and [Delta] d E, performed shift pigment weight distribution D 1, enlargement, the processing such as reduction . By executing such processing for each specimen image, the color distribution among the plurality of specimen images is homogenized.
ステップS125において、クラス分類部452dは、補正済みの色素量分布をクラスタリングする。なお、クラスタリングの手法としては、分水嶺処理、階層法、k-means法、期待値最大化アルゴリズム(EMアルゴリズム)、自己組織化マップ等の公知の手法を用いることができる。それにより、図7に示すクラスタa1〜a7が得られる。 In step S125, the class classification unit 452d clusters the corrected pigment amount distribution. As a clustering method, a known method such as a water separation process, a hierarchy method, a k-means method, an expected value maximization algorithm (EM algorithm), a self-organizing map, or the like can be used. Thereby, clusters a1 to a7 shown in FIG. 7 are obtained.
さらに、クラス分類部452dは、各クラスタa1〜a7の重心位置を取得する。そして、各重心位置を標準画像の色素量分布D0におけるクラスタの重心と比較することにより、クラスタa1〜a7を、組織構成要素に対応するクラスに分類する。例えば、図7の場合、クラスタa3、a4はエオジンの色素量が多いので細胞質に対応するクラスc1と特定される。クラスタa5、a7及びクラスタa2の一部はヘマトキシリンの色素量が適度に多いので細胞核に対応するクラスc2と特定される。クラスタa1は赤血球に対応するクラスc3と特定される。クラスタa6は色素が非常に薄いので腔に対応するクラスc4と特定される。画像内に写されたゴミや皺等についてもこれらの例と同様に、クラスタとクラスとの対応づけを行うことができる。例えば、ゴミや皺や泡等は黒色に近いため、ヘマトキシリンが非常に濃いクラスタa2に一旦分類される。このクラスタa2をさらに詳細に分類することで、皺(クラスc5)、ゴミ(クラスc6)、及び細胞核のうち色素の濃い部分にそれぞれ対応するクラスを特定することができる。 Furthermore, the class classification unit 452d acquires the barycentric positions of the clusters a1 to a7. Then, by comparing each centroid position with the centroid of the cluster in the dye amount distribution D 0 of the standard image, the clusters a1 to a7 are classified into classes corresponding to the tissue constituent elements. For example, in the case of FIG. 7, the clusters a3 and a4 are identified as the class c1 corresponding to the cytoplasm because the amount of pigment of eosin is large. A part of the clusters a5, a7 and cluster a2 are identified as class c2 corresponding to the cell nucleus because the amount of hematoxylin pigment is moderately large. Cluster a1 is identified as class c3 corresponding to red blood cells. Cluster a6 is identified as class c4 corresponding to the cavity because the pigment is very thin. As with these examples, it is possible to associate clusters and classes with respect to dust, soot and the like that are captured in the image. For example, since dust, wrinkles, bubbles, and the like are nearly black, hematoxylin is once classified into a cluster a2 that is very dark. By classifying the cluster a2 in more detail, it is possible to specify classes corresponding to dark portions of the cocoon (class c5), dust (class c6), and cell nucleus, respectively.
なお、クラス分類結果による各クラスと組織構成要素との対応は一対一に限ることなく、クラス分類の方法によっては、例えば1つの組織構成要素に対応するクラスが複数存在する場合もある。これらのクラスタリング方法は組織構成要素や染色方法等によって適応的に決定すればよい。 Note that the correspondence between each class and organization component based on the class classification result is not limited to one-to-one, and depending on the class classification method, for example, there may be a plurality of classes corresponding to one organization component. These clustering methods may be determined adaptively depending on the tissue component, staining method, and the like.
ステップS126において、クラス別画像作成部452eは、各クラスに分類された色素量に対応する画素領域を標本画像から抽出することにより、クラス別(即ち、組織構成要素毎)の要素画像を作成する。 In step S126, the class-specific image creation unit 452e creates element images for each class (that is, for each tissue constituent element) by extracting a pixel region corresponding to the amount of pigment classified into each class from the sample image. .
各クラスの組織構成要素に対応する画素を抽出した画像の例を図9〜図14に示す。図9に示す要素画像M−c1は、クラスc1に対応する画素を抽出した細胞質を表す画像である。図10に示す要素画像M−c2は、クラスc2に対応する画素を抽出した細胞核を表す画像である。図11に示す要素画像M−c3は、クラスc3に対応する画素を抽出した赤血球画像である。図12に示す要素画像M−c4は、クラスc4に対応する画素を抽出した腔を表す画像である。図13に示す要素画像M−c5は、クラスc5に対応する画素を抽出した皺を表す画像である。図14に示す要素画像M−c6は、クラスc6に対応する画素を抽出したゴミを表す画像である。
この後、動作はメインルーチンに戻る。
Examples of images obtained by extracting pixels corresponding to the organizational components of each class are shown in FIGS. An element image M-c1 illustrated in FIG. 9 is an image representing the cytoplasm obtained by extracting pixels corresponding to the class c1. An element image M-c2 illustrated in FIG. 10 is an image representing a cell nucleus from which pixels corresponding to the class c2 are extracted. An element image M-c3 illustrated in FIG. 11 is a red blood cell image obtained by extracting pixels corresponding to the class c3. An element image Mc4 shown in FIG. 12 is an image representing a cavity from which pixels corresponding to the class c4 are extracted. An element image M-c5 illustrated in FIG. 13 is an image representing a bag obtained by extracting pixels corresponding to the class c5. An element image M-c6 illustrated in FIG. 14 is an image representing dust from which pixels corresponding to the class c6 are extracted.
Thereafter, the operation returns to the main routine.
ステップS13において、連続性評価部453は、複数の標本画像間における連続性を、所定のクラスの要素画像を用いて評価する。なお、この評価は、ステップS11において連続切片候補と判定された標本画像間で行われる。 In step S13, the continuity evaluation unit 453 evaluates continuity between a plurality of sample images using element images of a predetermined class. This evaluation is performed between the sample images determined as the continuous section candidates in step S11.
ここで、標本画像から抽出された各組織構成要素は、その組織構成要素の種類ごとの特性や、もとの生体組織標本の部位や、切片標本を染色した色素等に応じた特徴を有している。例えば、細胞核や赤血球のサイズは非常に小さいので、隣接する切片標本間において同じ断面形状が現れることはまれである。反対に、細胞質、血管、腔等のサイズは、比較的大きいので、隣接する切片標本間において類似した断面形状が現れることが多い。また、しわやゴミは切片標本を作成する際に個別に生じているので、隣接する切片標本間における連続性の評価に用いることができない。 Here, each tissue component extracted from the specimen image has characteristics according to the characteristics of each type of tissue component, the site of the original biological tissue specimen, the dye that stains the section specimen, etc. ing. For example, since cell nuclei and red blood cells are very small in size, the same cross-sectional shape rarely appears between adjacent section samples. On the other hand, since the sizes of cytoplasm, blood vessels, cavities, etc. are relatively large, a similar cross-sectional shape often appears between adjacent section samples. In addition, since wrinkles and dust are individually generated when preparing a section sample, it cannot be used for evaluation of continuity between adjacent section samples.
連続性評価部453が保有する連続性評価アルゴリズム453a、453b、…は、組織構成要素の種類毎の特性や生体組織標本の部位の特徴や色素の特徴のように、予め知られている情報(これらを先見情報ともいう)に基づいて作成されている。 The continuity evaluation algorithms 453a, 453b,... Held by the continuity evaluation unit 453 are information known in advance such as characteristics for each type of tissue component, characteristics of a part of a biological tissue specimen, and characteristics of a pigment ( These are also referred to as foresight information).
以下、一例として、腔の要素画像に対して作成された連続性評価アルゴリズムを説明する。図15は、腔の要素画像に対する連続性評価アルゴリズムが適用された場合における連続性評価部453の動作を示すフローチャートである。 Hereinafter, as an example, a continuity evaluation algorithm created for an element image of a cavity will be described. FIG. 15 is a flowchart showing the operation of the continuity evaluation unit 453 when the continuity evaluation algorithm is applied to the element image of the cavity.
まず、ステップS131において、連続性評価部453は、標本画像M1、M2、M3…に対して共通に作成された要素画像から、腔の要素画像M1−c4、M2−c4、M3−c4…を選択する(図16参照)。 First, in step S131, the continuity evaluation unit 453 generates cavity element images M1-c4, M2-c4, M3-c4... From the element images created in common for the sample images M1, M2, M3. Select (see FIG. 16).
ステップS132において、連続性評価部453は、各要素画像M1−c4、M2−c4、M3−c4…から、サイズの小さい腔P1、P2、P3、…を削除する。 In step S132, the continuity evaluation unit 453 deletes the small cavities P1, P2, P3,... From the element images M1-c4, M2-c4, M3-c4.
続いて、連続性評価部453は、要素画像M1−c4、M2−c4、M3−c4…の1つひとつに対して、ステップS133〜S135の処理を行う。まず、ステップS133において、連続性評価部453は、要素画像M1−c4、M2−c4、M3−c4…のいずれかをピックアップする。続くステップS134において、連続性評価部453は、ピックアップした要素画像とそれ以外の全ての要素画像との類似度を、例えばパターンマッチング等の公知の手法を用いて算出する。そして、ステップS135において、算出した類似度を記憶部44に記憶させる。 Subsequently, the continuity evaluation unit 453 performs steps S133 to S135 for each of the element images M1-c4, M2-c4, M3-c4. First, in step S133, the continuity evaluation unit 453 picks up one of the element images M1-c4, M2-c4, M3-c4. In subsequent step S134, the continuity evaluation unit 453 calculates the similarity between the picked-up element image and all other element images using a known method such as pattern matching. In step S135, the calculated similarity is stored in the storage unit 44.
ステップS136において、連続性評価部453は、算出した全ての類似度を総合的に評価して、要素画像M1−c4、M2−c4、M3−c4…間相互の類似度が最も高くなるような並び順を検出する。その際には、全ての画像の組み合わせにおいて画像間の類似度を算出して並べ替えたり、最初に2枚のペア画像を設定し、ペア画像間の類似度を計算して並べ替えを繰り返すなど、公知のソート方法を用いる。例えば、類似度マップ、複合ソート法等の手法を用いて、要素画像M1−c4、M2−c4、M3−c4…相互のソートを行えば良い。
この後、動作はメインルーチンに戻る。
In step S136, the continuity evaluation unit 453 comprehensively evaluates all the calculated similarities so that the similarity between the element images M1-c4, M2-c4, M3-c4. Detect the sort order. In that case, the similarity between images is calculated and rearranged in all image combinations, or two pair images are first set, the similarity between the pair images is calculated, and the rearrangement is repeated. A known sorting method is used. For example, the element images M1-c4, M2-c4, M3-c4... May be sorted using a method such as a similarity map or a composite sort method.
Thereafter, the operation returns to the main routine.
ステップS14において、並び順付与部454は、ステップS16において検出された要素画像M1−c1、M2−c2、M3−c2…の並び順を、標本画像M1、M2、M3…に対して付与する。 In step S14, the arrangement order assigning unit 454 assigns the arrangement order of the element images M1-c1, M2-c2, M3-c2... Detected in step S16 to the sample images M1, M2, M3.
ステップS15において、並べ替え部456は、図17に示すように、ステップS14において付与された並び順に従って、標本画像M1、M2、…を並べ替える。例えば、図17においては、標本画像M2と標本画像M4とが入れ替えられている。 In step S15, the rearrangement unit 456 rearranges the sample images M1, M2,... According to the arrangement order assigned in step S14, as shown in FIG. For example, in FIG. 17, the sample image M2 and the sample image M4 are interchanged.
ステップS16において、位置合わせ部455は、並び順が隣接する標本画像同士(例えば、標本画像M1とM4、M4とM3、M3とM2、…)の位置合わせを、ステップS13において選択した要素画像M1−c4、M2−c4、M3−c4…における組織構成要素の位置を基準として実行する。 In step S16, the alignment unit 455 aligns the sample images that are adjacent in the arrangement order (for example, sample images M1 and M4, M4 and M3, M3 and M2,...), And the element image M1 selected in step S13. -C4, M2-c4, M3-c4...
ステップS17において、3D画像構成部457は、ステップS16において位置合わせされた標本画像を3次元的に構成した3D画像を生成する。 In step S17, the 3D image constructing unit 457 generates a 3D image in which the sample image aligned in step S16 is three-dimensionally constructed.
ステップS18において、演算部45は、標本画像M1、M2、…の並び順情報及び位置合わせ情報と、生成した3D画像とを出力する。それに応じて、制御部46は、出力された情報を記憶部44に記憶させると共に、3D画像を表示部に表示させる。 In step S18, the calculation unit 45 outputs the arrangement order information and alignment information of the specimen images M1, M2,... And the generated 3D image. In response to this, the control unit 46 stores the output information in the storage unit 44 and displays a 3D image on the display unit.
以上説明したように、実施の形態1によれば、標本画像の色特徴量に基づいて抽出され、先見情報に基づいて選択された要素画像を用いて標本画像間の連続性を評価し、その評価結果に基づいて、標本画像の並び順を判定する。そのため、切片標本の作成時に生じた切片のしわやゆがみ、或いは、泡やゴミ等の不要物の影響を受けることなく、各標本画像に対して正確な並び順を付与することができる。従って、一連の切片標本の並び順や、切片標本の撮像順が混乱してしまった場合においても、もとの生体組織標本をスライスした順序に従う正確な並び順で一連の標本画像を並べることが可能となる。 As described above, according to the first embodiment, the continuity between the sample images is evaluated using the element image extracted based on the color feature amount of the sample image and selected based on the foresight information. Based on the evaluation result, the arrangement order of the sample images is determined. Therefore, it is possible to give an accurate arrangement order to each specimen image without being affected by the wrinkles and distortion of the sections generated during the preparation of the section specimens or the influence of unnecessary objects such as bubbles and dust. Therefore, even if the order of the sequence of section specimens or the order of imaging of the section specimens is confused, it is possible to arrange the series of specimen images in an accurate order according to the order in which the original biological tissue specimen is sliced. It becomes possible.
また、実施の形態1によれば、先見情報に基づいて選択された要素画像に基づいて、標本画像間の位置合わせを行うので、切片標本の作成時に生じた切片の皺やゆがみ、或いは、泡やゴミ等の不要物の影響を受けることなく、正確な位置合わせを行うことが可能となる。従って、このように位置合わせされた一連の標本画像を用いて、もとの生体組織標本の形状等を正確に反映した3D画像を構成することが可能となる。 In addition, according to the first embodiment, the alignment between the specimen images is performed based on the element image selected based on the foresight information. Accurate alignment can be performed without being affected by unnecessary objects such as dust and dirt. Therefore, it is possible to construct a 3D image that accurately reflects the shape and the like of the original biological tissue specimen using the series of specimen images aligned in this way.
また、実施の形態1において、連続性評価部453は、画像選択部451により互いにある程度類似すると判定された連続切片候補画像同士の連続性を評価するので、演算量を低減させることが可能となる。
なお、画像選択部451は必ずしも設ける必要はなく、画像選択部451を設けない場合には、連続性評価部453は、一連の標本画像内の全ての標本画像の組み合わせについて連続性を評価すればよい。
In the first embodiment, the continuity evaluation unit 453 evaluates the continuity between the consecutive segment candidate images determined to be somewhat similar to each other by the image selection unit 451, so that the amount of calculation can be reduced. .
Note that the image selection unit 451 is not necessarily provided, and when the image selection unit 451 is not provided, the continuity evaluation unit 453 may evaluate the continuity for all combinations of sample images in a series of sample images. Good.
また、実施の形態1においては、色素量補正部により均質化された色素量の分布に基づいて要素画像を作成する。従って、切片標本の作成条件や撮像条件が異なる場合(切片標本の作成者や施設が異なる場合、染色色素のメーカーが異なる場合、撮像システム1を構成する各機器の型番が異なる場合等)においても、結果のばらつきを抑制することができる。 In the first embodiment, the element image is created based on the distribution of the pigment amount homogenized by the pigment amount correction unit. Therefore, even when the preparation conditions and imaging conditions of the section specimen are different (when the creator and facility of the section specimen are different, when the manufacturer of the staining dye is different, when the model number of each device constituting the imaging system 1 is different, etc.) , Variation in results can be suppressed.
なお、上記実施の形態1においては、腔の要素画像を用いて標本画像の連続性を評価しているが、腔以外にも、細胞膜や細胞質や血管や乳腺などのように、複数の切片にわたって存在する組織構成要素の要素画像を用いて標本画像の連続性を評価しても良い。
また、複数の組織構成要素の画像を用いて総合的に連続性を評価しても良い。
In the first embodiment, the continuity of the specimen image is evaluated using the elemental image of the cavity. In addition to the cavity, a plurality of sections such as a cell membrane, cytoplasm, blood vessel, and mammary gland are used. The continuity of the specimen image may be evaluated using an element image of an existing tissue component.
Further, continuity may be evaluated comprehensively using images of a plurality of tissue components.
(変形例1)
次に、実施の形態1の変形例1について説明する。
図18は、図1に示す画像選択部451の別の構成例を示すブロック図である。図18に示すように、画像選択部451の変形例である画像選択部471は、一連の標本画像の各々に対して二値化処理を施すことにより、背景を抽出する背景抽出部471aと、抽出された背景に基づいて、複数の標本画像間における類似判定を行う類似判定部471bと、類似判定部471bにより互いにある程度類似すると判定された複数の標本画像を連続切片候補画像群として抽出する画像抽出部471cとを有する。この場合、連続性評価部453は、画像抽出部471cによって抽出された連続切片候補画像間における連続性を評価する。
(Modification 1)
Next, Modification 1 of Embodiment 1 will be described.
FIG. 18 is a block diagram illustrating another configuration example of the image selection unit 451 illustrated in FIG. As shown in FIG. 18, an image selection unit 471 that is a modification of the image selection unit 451 performs a binarization process on each of the series of sample images, thereby extracting a background, and a background extraction unit 471a. A similarity determination unit 471b that performs similarity determination between a plurality of sample images based on the extracted background, and an image that extracts a plurality of sample images determined to be somewhat similar to each other by the similarity determination unit 471b as a continuous segment candidate image group And an extraction unit 471c. In this case, the continuity evaluation unit 453 evaluates continuity between the continuous segment candidate images extracted by the image extraction unit 471c.
(変形例2)
次に、実施の形態1の変形例2について説明する。
画像処理装置40は、並び順の入れ替え後の標本画像に対応するバーコードラベルをプリントアウトする出力装置を備えても良い。この場合、出力されたバーコードラベルを、スライドローダー20に収納されている各標本スライドSP1、SP2、…に貼付することにより、これらの標本スライドSP1、SP2、…を適切に管理することが可能となる。
(Modification 2)
Next, a second modification of the first embodiment will be described.
The image processing device 40 may include an output device that prints out a barcode label corresponding to the sample image after the arrangement order is changed. In this case, it is possible to appropriately manage the specimen slides SP1, SP2,... By attaching the output barcode labels to the specimen slides SP1, SP2,. It becomes.
(変形例3)
次に、実施の形態1の変形例3について説明する。
上記実施の形態1においては、標本画像間の連続性の評価や位置合わせを、所定の要素画像を用いて行った。しかしながら、連続性評価部453は、ゴミや皺等の組織構成要素を標本画像から除去した後の画像(以下、除去済み標本画像という)を直接用いて連続性の評価を行っても良い。同様に、位置合わせ部455は、除去済み標本画像を直接用いて位置合わせを行っても良い。さらに、3D画像構成部457も、除去済み標本画像から3D画像を構成しても良い。
(Modification 3)
Next, a third modification of the first embodiment will be described.
In the first embodiment, continuity evaluation and alignment between specimen images are performed using predetermined element images. However, the continuity evaluation unit 453 may evaluate continuity by directly using an image after removing tissue components such as dust and wrinkles from the sample image (hereinafter referred to as a removed sample image). Similarly, the alignment unit 455 may perform alignment using the removed specimen image directly. Further, the 3D image construction unit 457 may construct a 3D image from the removed specimen image.
(実施の形態2)
次に、本発明の実施の形態2について説明する。
実施の形態2においては、要素画像作成部452において作成した要素画像を、一連の標本画像から抽出した2枚の標本画像間における位置合わせに用いても良い。
(Embodiment 2)
Next, a second embodiment of the present invention will be described.
In the second embodiment, the element image created by the element image creation unit 452 may be used for alignment between two specimen images extracted from a series of specimen images.
ここで、図19に示すように、標本画像MA、MBを互いに位置合わせする場合を考える。これらの標本画像MA、MBには、各種組織構成要素(例えば、標本画像MA上の腔ma1及びゴミma2、標本画像MB上の腔mb1)が写っている。このような標本画像MA、MBを直接位置合わせすると、組織構成要素(例えば、ゴミma2)の形状や輝度によっては、互いに異なる組織構成要素同士(例えば、腔ma2に対してゴミmb1)が位置合わせされてしまう場合がある。この場合、位置合わせされた標本画像MA、MBを用いて3D画像を構成すると、もとの生体組織標本の立体形状を再現することができなくなってしまう。また、比較診断のために2枚の標本画像同士を位置合わせして重ねたり、並べたりして表示するような場合に、表示がずれて2つの画像の差分をわかりやすく表示することができなくなってしまう。 Here, as shown in FIG. 19, consider a case where the sample images M A and M B are aligned with each other. These specimen image M A, the M B, various tissue components (e.g., cavities ma1 and dust ma2 on the specimen image M A, lumen mb1 on specimen image M B) is captured. Such specimen image M A, when combined directly position M B, tissue components (e.g., dirt ma2) depending on the shape or luminance, different tissue components with each other (e.g., dust mb1 against lumen ma2) mutually It may be aligned. In this case, the aligned sample image M A, to constitute 3D image using M B, it becomes impossible to reproduce the three-dimensional shape of the original biological tissue specimen. Also, when two specimen images are aligned and overlapped or arranged for comparison diagnosis, the display is shifted and the difference between the two images cannot be displayed clearly. End up.
そこで、実施の形態2においては、図20に示すように、まず、標本画像MA、MBから、互いに対応する組織構成要素(腔ma1、mb1)の要素画像MA−c1、MB−c1を抽出し、要素画像MA−c1、MB−c1同士で位置合わせを行う。この際に用いる要素画像は、先見情報に基づいて決定すると良い。そして、位置合わせ済みの要素画像MA−c1、MB−c1を基準として、標本画像MA、MBの相対的な位置を決定する。 Therefore, in the second embodiment, as shown in FIG. 20, first, from the sample images M A and M B , element images M A -c 1 and M B − of tissue constituent elements (cavities ma 1 and mb 1) corresponding to each other. c1 is extracted, and alignment is performed between the element images M A -c1 and M B -c1. The element image used at this time may be determined based on the foresight information. Then, the alignment elements already image M A -c1, based on the M B -c1, specimen image M A, to determine the relative position of M B.
以上説明した実施の形態2によれば、任意の2枚の標本画像に対して、精度の高い位置合わせを行うことができる。従って、そのように互いに位置合わせされた一連の標本画像から3D画像を構成する場合には、もとの生体組織標本の立体形状が正確に反映された出力画像を得ることが可能となる。また、比較診断のために2枚の標本画像同士を位置合わせして重ねたり、並べたりして表示するような場合にも、正確な位置合わせが行われ、2つの画像の差分をわかりやすく表示することが可能となる。 According to the second embodiment described above, highly accurate alignment can be performed on any two specimen images. Therefore, when a 3D image is formed from a series of specimen images that are aligned with each other, an output image that accurately reflects the three-dimensional shape of the original biological tissue specimen can be obtained. In addition, when two specimen images are aligned and overlapped or displayed for comparison diagnosis, accurate alignment is performed and the difference between the two images is displayed in an easy-to-understand manner. It becomes possible to do.
以上説明した実施の形態1及び2においては、1つの生体組織標本を複数の切片にスライスした複数の切片標本を順次撮像して得られた複数の標本画像に対する画像処理について説明した。しかしながら、上記実施の形態1、2及び変形例1〜3は、厚みのある標本に対し、焦点を変化させながら撮像した複数の断面画像に対する画像処理に適用することも可能である。この場合においても、各断面画像から算出した色特徴量(色素量)分布に基づいて作成した要素画像を用いて、断面画像間の連続性を判断して並び順を決定したり、位置合わせを行うことができる。また、このような場合、顕微鏡システムにおいて自動で焦点を変えながら標本を撮像しても良いし、使用者が手動で焦点を変えながら標本を撮像しても良い。特に、手動で焦点を変えながら撮像を行う場合には、焦点の設定順序を間違えたり、ある焦点位置を間違えて飛ばしたため、後で追加撮像を行ったり、最初は荒く焦点を変えながら撮像を行い、後でより細かく焦点を変えながら撮像を行うなどすることがある。そのようなときには、取得された画像の順番と焦点位置の変動とが一定の規則で対応していないという状況が生じ得る。また、撮像中に若干標本位置がずれてしまうこともある。しかしながら、本実施の形態によれば、上記のような場合にも複数の画像の正確な並び順を自動で決定することができ、撮像の手間をより省くことができる。 In the first and second embodiments described above, the image processing for a plurality of specimen images obtained by sequentially imaging a plurality of section specimens obtained by slicing one biological tissue specimen into a plurality of sections has been described. However, Embodiments 1 and 2 and Modifications 1 to 3 can also be applied to image processing for a plurality of cross-sectional images captured while changing the focal point of a thick specimen. Even in this case, the element image created based on the color feature (pigment amount) distribution calculated from each cross-sectional image is used to determine the continuity between the cross-sectional images and determine the order of alignment, It can be carried out. In such a case, the sample may be imaged while automatically changing the focus in the microscope system, or the sample may be imaged while the user manually changes the focus. In particular, when taking an image while changing the focus manually, the focus setting order is wrong, or a certain focus position is missed, so an additional image is taken later. Sometimes, imaging is performed while changing the focus more finely. In such a case, a situation may occur in which the order of the acquired images does not correspond to a change in the focal position according to a certain rule. In addition, the sample position may be slightly shifted during imaging. However, according to the present embodiment, it is possible to automatically determine an accurate arrangement order of a plurality of images even in the above-described case, and it is possible to further save the trouble of imaging.
以上説明した実施の形態1、2及び変形例1〜3はそのままに限定されるものではなく、各実施の形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を除外して形成してもよい。あるいは、異なる実施の形態に示した構成要素を適宜組み合わせて形成してもよい。 Embodiments 1 and 2 and Modifications 1 to 3 described above are not limited as they are, and various inventions can be made by appropriately combining a plurality of components disclosed in the embodiments and modifications. Can be formed. For example, some components may be excluded from all the components shown in the embodiment. Or you may form combining the component shown in different embodiment suitably.
(付記1)
生体組織標本をスライスした切片に対して所定の色素により染色を施して得た複数の切片標本に対応する複数の画像を処理する画像処理装置であって、
前記複数の画像の各画像に対し、該画像内の各画素の色特徴量に基づいて少なくとも1種類の組織構成要素を抽出し、該組織構成要素が種類ごとに写った画像である要素画像を作成する要素画像作成部と、
前記要素画像における前記組織構成要素の位置に基づいて、前記複数の画像間における位置合わせを行う位置合わせ部と
を備えることを特徴とする画像処理装置。
(付記2)
前記要素画像作成部は、
前記各画像内の画素の色特徴量を取得する色特徴量取得部と、
前記色特徴量の分布を作成し、該分布を、前記少なくとも1種類の組織構成要素に対応する少なくとも1つのクラスに分類するクラス分類部と、
各クラスに属する色特徴量に対応する画素を抽出して、前記クラス毎の画像を前記要素画像として作成するクラス別画像作成部と、
を有することを特徴とする付記1に記載の画像処理装置。
(付記3)
前記色特徴量は、前記画像内の各画素位置に対応する標本部分における前記色素の色素量であり、
前記色特徴量取得部は、
前記各画像内の各画素の画素値に基づき、前記各画素位置における色成分のスペクトルを推定するスペクトル推定部と、
前記色成分のスペクトルに基づいて、前記標本部分における前記色素量を推定する色素量推定部と、
を含み、
前記クラス分類部は、前記色素量を成分とする色特徴量空間において前記色素量の分布をクラスタリングすることにより、前記色素量の分布を分類することを特徴とする付記2に記載の画像処理装置。
(付記4)
前記色特徴量取得部は、前記複数の画像間における前記色素量の分布を均質化する色素量補正部をさらに備え、
前記クラス分類部は、前記色素量補正部によって補正された前記色素量の分布を分類することを特徴とする付記3に記載の画像処理装置。
(付記5)
前記少なくとも1種類の組織構成要素は、細胞膜、細胞質、細胞核、血管、血液、及び腔の内のいずれかを含むことを特徴とする付記1〜4のいずれか1つに記載の画像処理装置。
(付記6)
付記1〜5のいずれか1つに記載の画像処理装置と、
生体組織標本をスライスした切片に対して所定の色素により染色を施して得た複数の切片標本の観察像を生成する顕微鏡装置と、
前記観察像に対応するディジタル画像を取得する画像取得部と、
を備えることを特徴とする顕微鏡システム。
(付記7)
前記複数の切片標本がそれぞれ載置された複数のスライドを前記顕微鏡装置に供給するスライド運搬装置をさらに備えることを特徴とする付記6に記載の顕微鏡システム。
(付記8)
生体組織標本をスライスした切片に対して所定の色素により染色を施して得た複数の切片標本に対応する複数の画像を処理する画像処理方法であって、
前記複数の画像の各画像に対し、該画像内の各画素の色特徴量に基づいて少なくとも1種類の組織構成要素を抽出し、該組織構成要素が種類ごとに写った画像である要素画像を作成する要素画像作成ステップと、
前記要素画像における前記組織構成要素の位置に基づいて、前記複数の画像間における位置合わせを行う位置合わせステップと
を含むことを特徴とする画像処理方法。
(付記9)
生体組織標本をスライスした切片に対して所定の色素により染色を施して得た複数の切片標本に対応する複数の画像を処理する画像処理プログラムであって、
前記複数の画像の各画像に対し、該画像内の各画素の色特徴量に基づいて少なくとも1種類の組織構成要素を抽出し、該組織構成要素が種類ごとに写った画像である要素画像を作成する要素画像作成ステップと、
前記要素画像における前記組織構成要素の位置に基づいて、前記複数の画像間における位置合わせを行う位置合わせステップと
をコンピュータに実行させることを特徴とする画像処理プログラム。
(Appendix 1)
An image processing apparatus that processes a plurality of images corresponding to a plurality of slice specimens obtained by staining a slice of a biological tissue specimen with a predetermined dye,
For each image of the plurality of images, at least one type of tissue component is extracted based on the color feature amount of each pixel in the image, and an element image that is an image in which the tissue component is reflected for each type is obtained. An element image creation section to be created;
An image processing apparatus comprising: an alignment unit configured to perform alignment between the plurality of images based on the position of the tissue constituent element in the element image.
(Appendix 2)
The element image creation unit
A color feature amount acquisition unit for acquiring a color feature amount of a pixel in each image;
Creating a distribution of the color feature quantity, and classifying the distribution into at least one class corresponding to the at least one type of tissue component;
Extracting pixels corresponding to the color feature amounts belonging to each class, and creating an image for each class as the element image,
The image processing apparatus according to appendix 1, characterized by comprising:
(Appendix 3)
The color feature amount is a pigment amount of the pigment in a sample portion corresponding to each pixel position in the image,
The color feature amount acquisition unit
A spectrum estimation unit that estimates a spectrum of a color component at each pixel position based on a pixel value of each pixel in each image;
A pigment amount estimation unit that estimates the pigment amount in the sample portion based on the spectrum of the color component;
Including
The image processing apparatus according to appendix 2, wherein the class classification unit classifies the pigment amount distribution by clustering the pigment amount distribution in a color feature amount space including the pigment amount as a component. .
(Appendix 4)
The color feature amount acquisition unit further includes a dye amount correction unit that homogenizes the distribution of the dye amount among the plurality of images,
The image processing apparatus according to appendix 3, wherein the class classification unit classifies the distribution of the dye amount corrected by the dye amount correction unit.
(Appendix 5)
The image processing apparatus according to any one of appendices 1 to 4, wherein the at least one type of tissue constituent element includes any one of a cell membrane, a cytoplasm, a cell nucleus, a blood vessel, blood, and a cavity.
(Appendix 6)
The image processing apparatus according to any one of appendices 1 to 5,
A microscope apparatus that generates observation images of a plurality of slice specimens obtained by staining a slice of a biological tissue specimen with a predetermined dye; and
An image acquisition unit for acquiring a digital image corresponding to the observed image;
A microscope system comprising:
(Appendix 7)
The microscope system according to appendix 6, further comprising a slide transport device that supplies a plurality of slides each having the plurality of section specimens mounted thereon to the microscope device.
(Appendix 8)
An image processing method for processing a plurality of images corresponding to a plurality of slice specimens obtained by staining a slice of a biological tissue specimen with a predetermined dye,
For each image of the plurality of images, at least one type of tissue component is extracted based on the color feature amount of each pixel in the image, and an element image that is an image in which the tissue component is reflected for each type is obtained. An element image creation step to be created;
And an alignment step of performing alignment between the plurality of images based on the position of the tissue component in the element image.
(Appendix 9)
An image processing program for processing a plurality of images corresponding to a plurality of slice specimens obtained by staining a slice obtained by slicing a biological tissue specimen with a predetermined dye,
For each image of the plurality of images, at least one type of tissue component is extracted based on the color feature amount of each pixel in the image, and an element image that is an image in which the tissue component is reflected for each type is obtained. An element image creation step to be created;
An image processing program that causes a computer to execute an alignment step of performing alignment between the plurality of images based on the position of the tissue component in the element image.
1 顕微鏡システム
10 顕微鏡装置
100 アーム部
101 標本ステージ
101a 駆動装置
102、102’ 対物レンズ
103 三眼鏡筒ユニット
104 接眼レンズユニット
105 結像レンズユニット
106a 透過照明用光源
106b 透過照明光学系
107a 落射照明用光源
107b 落射照明光学系
108 キューブユニット
108a、108b 光学キューブ
109 レボルバ
110 顕微鏡コントローラ
20 スライドローダー
210 ローダー制御部
220 バーコードリーダ
30 画像取得部
40 画像処理装置
41 入力部
42 画像入力部
43 表示部
44 記憶部
45 演算部
441 画像処理プログラム
451 画像選択部
451a 輪郭抽出部
451b 類似判定部
451c 画像抽出部
452 要素画像作成部
452a スペクトル推定部
452b 色素量推定部
452c 色素量補正部
452d クラス分類部
452e クラス別画像作成部
453 連続性評価部
453a、453b、… 連続性評価アルゴリズム
454 並び順付与部
455 位置合わせ部
456 並べ替え部
457 3D画像構成部
46 制御部
471 画像選択部
471a 背景抽出部
471b 類似判定部
471c 画像抽出部
DESCRIPTION OF SYMBOLS 1 Microscope system 10 Microscope apparatus 100 Arm part 101 Sample stage 101a Drive apparatus 102,102 'Objective lens 103 Trinocular tube unit 104 Eyepiece unit 105 Imaging lens unit 106a Light source for transmitted illumination 106b Transmitted illumination optical system 107a Light source for incident illumination 107b Epi-illumination optical system 108 Cube unit 108a, 108b Optical cube 109 Revolver 110 Microscope controller 20 Slide loader 210 Loader control unit 220 Bar code reader 30 Image acquisition unit 40 Image processing device 41 Input unit 42 Image input unit 43 Display unit 44 Storage unit 45 arithmetic unit 441 image processing program 451 image selection unit 451a contour extraction unit 451b similarity determination unit 451c image extraction unit 452 element image creation unit 452a Couttle estimation unit 452b Dye amount estimation unit 452c Dye amount correction unit 452d Class classification unit 452e Class-specific image creation unit 453 Continuity evaluation unit 453a, 453b,... 457 3D image construction unit 46 control unit 471 image selection unit 471a background extraction unit 471b similarity determination unit 471c image extraction unit
Claims (15)
前記複数の画像間で、同じ種類の前記要素画像の連続性を評価する連続性評価部を有し、該連続性の評価結果に基づいて、前記複数の画像の並び順を判定する並び順判定部と、
を備えることを特徴とする画像処理装置。 For a plurality of images corresponding to a plurality of slice samples obtained by slicing and staining a biological tissue sample, at least one type of tissue component is extracted based on the color feature amount of each pixel in the image, and for each type An element image creation unit for creating an element image that is an image of
Arrangement order determination that includes a continuity evaluation unit that evaluates the continuity of the same type of element images between the plurality of images, and that determines the arrangement order of the plurality of images based on the continuity evaluation result And
An image processing apparatus comprising:
前記並び順判定部は、前記連続切片候補画像群間の並び順を判定することを特徴とする請求項1に記載の画像処理装置。 An image selection unit that selects a plurality of images that are estimated to be continuous from the plurality of images as a continuous section candidate image group;
The image processing apparatus according to claim 1, wherein the arrangement order determination unit determines an arrangement order between the consecutive segment candidate image groups.
前記複数の画像から輪郭を抽出する輪郭抽出部と、
前記輪郭に基づいて、前記複数の画像の内の任意の画像と他の画像との間における類似判定を行う類似判定部と、
前記類似判定部により、互いに類似すると判定された画像を前記連続切片候補画像群として抽出する画像抽出部と、
を有することを特徴とする請求項2に記載の画像処理装置。 The image selection unit
A contour extraction unit that extracts a contour from the plurality of images;
A similarity determination unit that performs similarity determination between an arbitrary image of the plurality of images and another image based on the contour;
An image extraction unit that extracts images determined to be similar to each other by the similarity determination unit as the continuous segment candidate image group;
The image processing apparatus according to claim 2, further comprising:
前記複数の画像の各画像から背景を抽出する背景抽出部と、
前記背景に基づいて、前記複数の画像の内の任意の画像と他の画像との間における類似判定を行う類似判定部と、
前記類似判定部により、互いに類似すると判定された画像を前記連続切片候補画像群として抽出する画像抽出部と、
を有することを特徴とする請求項2に記載の画像処理装置。 The image selection unit
A background extraction unit that extracts a background from each of the plurality of images;
A similarity determination unit that performs similarity determination between an arbitrary image of the plurality of images and another image based on the background;
An image extraction unit that extracts images determined to be similar to each other by the similarity determination unit as the continuous segment candidate image group;
The image processing apparatus according to claim 2, further comprising:
前記各画像内の画素の色特徴量を取得する色特徴量取得部と、
前記色特徴量の分布を作成し、該分布を、前記少なくとも1種類の組織構成要素に対応する少なくとも1つのクラスに分類するクラス分類部と、
各クラスに属する色特徴量に対応する画素を抽出して、前記クラス毎の画像を前記要素画像として作成するクラス別画像作成部と、
を有することを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。 The element image creation unit
A color feature amount acquisition unit for acquiring a color feature amount of a pixel in each image;
Creating a distribution of the color feature quantity, and classifying the distribution into at least one class corresponding to the at least one type of tissue component;
Extracting pixels corresponding to the color feature amounts belonging to each class, and creating an image for each class as the element image,
The image processing apparatus according to claim 1, wherein the image processing apparatus includes:
前記色特徴量取得部は、
前記各画像内の各画素の画素値に基づき、前記各画素位置における色成分のスペクトルを推定するスペクトル推定部と、
前記色成分のスペクトルに基づいて、前記標本部分における前記色素量を推定する色素量推定部と、
を含み、
前記クラス分類部は、前記色素量を成分とする色特徴量空間において前記色素量の分布をクラスタリングすることにより、前記色素量の分布を分類することを特徴とする請求項5に記載の画像処理装置。 The color feature amount is a pigment amount of the pigment in a sample portion corresponding to each pixel position in the image,
The color feature amount acquisition unit
A spectrum estimation unit that estimates a spectrum of a color component at each pixel position based on a pixel value of each pixel in each image;
A pigment amount estimation unit that estimates the pigment amount in the sample portion based on the spectrum of the color component;
Including
6. The image processing according to claim 5, wherein the class classification unit classifies the pigment amount distribution by clustering the pigment amount distribution in a color feature amount space including the pigment amount as a component. apparatus.
前記クラス分類部は、前記色素量補正部によって補正された前記色素量の分布を分類することを特徴とする請求項6に記載の画像処理装置。 The color feature amount acquisition unit further includes a dye amount correction unit that homogenizes the distribution of the dye amount among the plurality of images,
The image processing apparatus according to claim 6, wherein the class classification unit classifies the distribution of the dye amount corrected by the dye amount correction unit.
前記連続性評価部は、前記細胞膜と、前記細胞核と、前記血液と、前記腔との内のいずれかに対応する要素画像に基づいて、前記連続性を評価することを特徴とする請求項8又は9に記載の画像処理装置。 The at least one tissue component includes at least one of a cell membrane, cytoplasm, cell nucleus, blood vessel, blood, and cavity;
9. The continuity evaluation unit evaluates the continuity based on an element image corresponding to any one of the cell membrane, the cell nucleus, the blood, and the cavity. Or the image processing apparatus according to 9.
生体組織標本をスライスした切片に対して所定の色素により染色を施して得た複数の切片標本の観察像を生成する顕微鏡装置と、
前記観察像に対応するディジタル画像を取得する画像取得部と、
を備えることを特徴とする顕微鏡システム。 The image processing apparatus according to any one of claims 1 to 12,
A microscope apparatus that generates observation images of a plurality of slice specimens obtained by staining a slice of a biological tissue specimen with a predetermined dye; and
An image acquisition unit for acquiring a digital image corresponding to the observed image;
A microscope system comprising:
前記複数の画像間で、同じ種類の前記要素画像の連続性を評価し、該連続性の評価結果に基づいて、前記複数の画像の並び順を判定する並び順判定ステップと、
を含むことを特徴とする画像処理方法。 For a plurality of images corresponding to a plurality of slice samples obtained by slicing and staining a biological tissue sample, at least one type of tissue component is extracted based on the color feature amount of each pixel in the image, and for each type An element image creation step of creating an element image that is an image of
An arrangement order determination step for evaluating the continuity of the same kind of element images between the plurality of images and determining the arrangement order of the plurality of images based on the evaluation result of the continuity;
An image processing method comprising:
前記複数の画像間で、同じ種類の前記要素画像の連続性を評価し、該連続性の評価結果に基づいて、前記複数の画像の並び順を判定する並び順判定ステップと、
をコンピュータに実行させることを特徴とする画像処理プログラム。 For a plurality of images corresponding to a plurality of slice samples obtained by slicing and staining a biological tissue sample, at least one type of tissue component is extracted based on the color feature amount of each pixel in the image, and for each type An element image creation step of creating an element image that is an image of
An arrangement order determination step for evaluating the continuity of the same kind of element images between the plurality of images and determining the arrangement order of the plurality of images based on the evaluation result of the continuity;
An image processing program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011263132A JP2013113818A (en) | 2011-11-30 | 2011-11-30 | Image processing device, microscope system, image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011263132A JP2013113818A (en) | 2011-11-30 | 2011-11-30 | Image processing device, microscope system, image processing method and image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013113818A true JP2013113818A (en) | 2013-06-10 |
Family
ID=48709464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011263132A Pending JP2013113818A (en) | 2011-11-30 | 2011-11-30 | Image processing device, microscope system, image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013113818A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017117462A (en) * | 2015-12-21 | 2017-06-29 | キヤノン株式会社 | Physical registration of images acquired by fourier ptychography |
JP2018529145A (en) * | 2015-07-17 | 2018-10-04 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Alignment of histopathology images |
US20220067938A1 (en) * | 2020-08-25 | 2022-03-03 | SCREEN Holdings Co., Ltd. | Specimen analysis method and image processing method |
US12159401B2 (en) | 2019-07-24 | 2024-12-03 | Saitama Medical University | Estimator learning device, estimator learning method, and estimator learning program |
-
2011
- 2011-11-30 JP JP2011263132A patent/JP2013113818A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018529145A (en) * | 2015-07-17 | 2018-10-04 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | Alignment of histopathology images |
JP2017117462A (en) * | 2015-12-21 | 2017-06-29 | キヤノン株式会社 | Physical registration of images acquired by fourier ptychography |
US12159401B2 (en) | 2019-07-24 | 2024-12-03 | Saitama Medical University | Estimator learning device, estimator learning method, and estimator learning program |
US20220067938A1 (en) * | 2020-08-25 | 2022-03-03 | SCREEN Holdings Co., Ltd. | Specimen analysis method and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8199997B2 (en) | Feature dependent extended depth of focusing on semi-transparent biological specimens | |
JP6053327B2 (en) | Microscope system, specimen image generation method and program | |
US20070031056A1 (en) | System for and method of focusing in automated microscope systems | |
US8326014B2 (en) | Methods and systems for processing biological specimens utilizing multiple wavelengths | |
JP6120675B2 (en) | Microscope system, image generation method and program | |
US11810280B2 (en) | Enhanced extended depth of focusing on biological samples | |
JP2024019639A (en) | Microscope system, program, and projection image generation method | |
JP2013174823A (en) | Image processing device, microscope system and image processing method | |
WO2017150194A1 (en) | Image processing device, image processing method, and program | |
EP1807724A2 (en) | Optically enhanced digital imaging system | |
US9406118B2 (en) | Stain image color correcting apparatus, method, and system | |
JP2005331394A (en) | Image processor | |
JP2010156612A (en) | Image processing device, image processing program, image processing method, and virtual microscope system | |
JP2013113818A (en) | Image processing device, microscope system, image processing method and image processing program | |
US20200074628A1 (en) | Image processing apparatus, imaging system, image processing method and computer readable recoding medium | |
JP2008304205A (en) | Spectral characteristics estimation apparatus and spectral characteristics estimation program | |
CN115629072A (en) | Bone marrow smear image analysis and diagnosis method and pathological section scanner device | |
US8929639B2 (en) | Image processing apparatus, image processing method, image processing program, and virtual microscope system | |
Fan | Methods for rapid and high quality acquisition of whole slide images | |
AU2012244307A1 (en) | Methods and systems for processing biological specimens utilizing multiple wavelengths |