JP7546390B2 - Information processing device and information processing system - Google Patents
Information processing device and information processing system Download PDFInfo
- Publication number
- JP7546390B2 JP7546390B2 JP2020117121A JP2020117121A JP7546390B2 JP 7546390 B2 JP7546390 B2 JP 7546390B2 JP 2020117121 A JP2020117121 A JP 2020117121A JP 2020117121 A JP2020117121 A JP 2020117121A JP 7546390 B2 JP7546390 B2 JP 7546390B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- specimen
- cut
- tissue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 87
- 210000001519 tissue Anatomy 0.000 claims description 248
- 238000013507 mapping Methods 0.000 claims description 110
- 238000003860 storage Methods 0.000 claims description 49
- 210000004877 mucosa Anatomy 0.000 claims description 16
- 230000003902 lesion Effects 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 12
- 210000004876 tela submucosa Anatomy 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 10
- 206010028980 Neoplasm Diseases 0.000 claims description 9
- 230000006870 function Effects 0.000 description 261
- 238000010586 diagram Methods 0.000 description 65
- 238000012545 processing Methods 0.000 description 44
- 238000000034 method Methods 0.000 description 32
- 238000012986 modification Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 19
- 230000008859 change Effects 0.000 description 18
- 238000003384 imaging method Methods 0.000 description 17
- 239000003550 marker Substances 0.000 description 17
- 230000008569 process Effects 0.000 description 17
- 230000005484 gravity Effects 0.000 description 16
- 230000007170 pathology Effects 0.000 description 13
- 238000013135 deep learning Methods 0.000 description 12
- 239000011521 glass Substances 0.000 description 12
- 238000010827 pathological analysis Methods 0.000 description 8
- 210000001035 gastrointestinal tract Anatomy 0.000 description 5
- 238000012015 optical character recognition Methods 0.000 description 5
- 201000011510 cancer Diseases 0.000 description 4
- 230000001174 ascending effect Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000001575 pathological effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012323 Endoscopic submucosal dissection Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000010186 staining Methods 0.000 description 2
- 208000003200 Adenoma Diseases 0.000 description 1
- 206010001233 Adenoma benign Diseases 0.000 description 1
- 208000009956 adenocarcinoma Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000002350 laparotomy Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Investigating Or Analysing Materials By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本明細書及び図面に開示の実施形態は、情報処理装置および情報処理システムに関する。 The embodiments disclosed in this specification and the drawings relate to an information processing device and an information processing system.
従来、病理学の分野等において、検体である組織片の全体が撮像された検体画像と、該検体から切り出された標本組織が検体画像よりも高倍率で撮像された標本画像とを、デジタルデータとして保存する技術が知られている。このような病理検体画像および標本画像は、例えば、医師による病理組織診断に使用される。 In the field of pathology and the like, there is known a technique for storing, as digital data, a specimen image in which an entire tissue slice serving as a specimen is captured, and a specimen image in which a tissue specimen cut out from the specimen is captured at a higher magnification than the specimen image. Such pathological specimen images and specimen images are used, for example, by doctors for pathological tissue diagnosis.
本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、検体画像に描出された検体における標本組織の切り出し位置と、標本画像に描出された標本組織上の病巣領域等の興味領域との対応関係を、医師等が把握することを容易にすることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 One of the problems that the embodiments disclosed in this specification and the drawings attempt to solve is to make it easier for doctors and other such personnel to grasp the correspondence between the cut-out position of the specimen tissue in the specimen depicted in the specimen image and the region of interest, such as a lesion region, on the specimen tissue depicted in the specimen image. However, the problems that the embodiments disclosed in this specification and the drawings attempt to solve are not limited to the above problem. Problems corresponding to the effects of each configuration shown in the embodiments described below can also be positioned as other problems.
実施形態に係る情報処理装置は、取得部と、組織領域認識部と、興味領域認識部と、切り出し位置認識部と、対応付け部と、マッピング部と、表示制御部とを備える。取得部は、検体の全体が撮像された画像である第1の画像と、検体から切り出された少なくとも1つの標本組織が第1の画像よりも高倍率で撮像された画像である第2の画像と、を取得する。組織領域認識部は、第2の画像から、標本組織が描出された組織領域を認識する。興味領域認識部は、組織領域に含まれる興味領域を認識する。切り出し位置認識部は、第1の画像における標本組織の切り出し位置を認識する。対応付け部は、第1の画像における切り出し位置と、第2の画像における組織領域とを対応付ける。マッピング部は、切り出し位置と組織領域との対応付けに基づいて、第2の画像の興味領域と、第1の画像において興味領域に相当する対象領域とをマッピングする。表示制御部は、マッピング部によって興味領域と対象領域とがマッピングされた第1の画像および第2の画像を対応付けて、それぞれ別個の画像として表示部の同一画面上に表示させ、第1の画像上の切り出し位置と、切り出し位置から切り出された標本組織の第2の画像上の表示位置とを対応付けて表示させる。 The information processing device according to the embodiment includes an acquisition unit, a tissue region recognition unit, a region of interest recognition unit, an excision position recognition unit, a correspondence unit, a mapping unit , and a display control unit . The acquisition unit acquires a first image, which is an image of an entire specimen, and a second image, which is an image of at least one specimen tissue excised from the specimen at a higher magnification than the first image. The tissue region recognition unit recognizes a tissue region in which the specimen tissue is depicted from the second image. The region of interest recognition unit recognizes a region of interest included in the tissue region. The excision position recognition unit recognizes an excision position of the specimen tissue in the first image. The correspondence unit associates the excision position in the first image with the tissue region in the second image. The mapping unit maps the region of interest in the second image with a target region corresponding to the region of interest in the first image based on the correspondence between the excision position and the tissue region. The display control unit associates the first image and the second image, in which the region of interest and the target region have been mapped by the mapping unit, and displays them as separate images on the same screen of the display unit, and associates the cut-out position on the first image with the display position on the second image of the specimen tissue cut out from the cut-out position.
以下、図面を参照しながら、情報処理装置および情報処理システムの実施形態について詳細に説明する。 Below, embodiments of an information processing device and an information processing system will be described in detail with reference to the drawings.
図1は、実施形態に係る情報処理システムSの全体構成の一例を示す図である。図1に示すように、情報処理システムSは、情報処理装置100と、検体画像保管装置201と、標本画像保管装置202とを備える。情報処理装置100は、院内LAN(Local Area Network)等のネットワーク300を介して検体画像保管装置201および標本画像保管装置202と通信可能に接続している。
FIG. 1 is a diagram showing an example of the overall configuration of an information processing system S according to an embodiment. As shown in FIG. 1, the information processing system S includes an
なお、情報処理システムSは、さらに、病院情報システム(HIS:Hospital Information System)、臨床検査システム(LIS:Laboratory Information System)、及び放射線情報システム(RIS:Radiology Information System)等を含んでも良い。あるいは、情報処理システムSは、病院情報システムの一部であっても良い。また、情報処理システムSは、さらに、PC(Personal Computer)やタブレット端末等の端末装置を含んでも良い。 The information processing system S may further include a hospital information system (HIS), a laboratory information system (LIS), a radiology information system (RIS), etc. Alternatively, the information processing system S may be part of a hospital information system. The information processing system S may further include a terminal device such as a personal computer (PC) or a tablet terminal.
情報処理システムSは、例えば、病院等の医療機関、大学等の研究機関、または検査センター等に設けられる。また、情報処理システムSを構成する装置の一部または全てが、クラウド環境に設けられても良い。 The information processing system S is provided, for example, in a medical institution such as a hospital, a research institute such as a university, or an examination center. In addition, some or all of the devices constituting the information processing system S may be provided in a cloud environment.
検体画像保管装置201は、検体画像を保管する装置である。検体画像は、検体である組織片の全体が撮像された画像である。また、検体画像は、例えば、デジタルカメラ等の撮像装置によって撮像されたデジタル画像とする。検体画像は、本実施形態における第1の画像の一例である。
The specimen
本実施形態においては、検体は、患者の身体や、動物等から採取された一部組織とする。例えば、検体は、内視鏡的粘膜下層はく離術(Endoscopic Submucosal Dissection: ESD)によって切除された消化器の粘膜および粘膜下層であるが、これに限定されるものではなく、開腹手術等によって切除された組織片であっても良い。 In this embodiment, the specimen is a portion of tissue collected from a patient's body, an animal, etc. For example, the specimen is the mucosa and submucosa of the digestive tract removed by endoscopic submucosal dissection (ESD), but is not limited thereto, and may be a piece of tissue removed by laparotomy, etc.
標本画像保管装置202は、標本画像を保管する装置である。標本画像は、検体である組織片から切り出された標本組織の撮像画像である。より詳細には、標本画像は、検体である組織片から切り出された少なくとも1つの標本組織が、検体画像よりも高倍率で撮像された画像である。例えば、標本画像は、スライドガラスに載せられた標本組織全体またはその一部を高精度にデジタル画像化したWSI(Whole Slide Imaging)である。また、標本画像は、電子顕微鏡で撮像された顕微鏡写真、あるいはその他の手法で撮像された画像であっても良い。標本画像は、本実施形態における第2の画像の一例である。 The specimen image storage device 202 is a device that stores specimen images. A specimen image is a captured image of a specimen tissue cut out from a tissue slice that is a specimen. More specifically, a specimen image is an image of at least one specimen tissue cut out from a tissue slice that is a specimen, captured at a higher magnification than the specimen image. For example, a specimen image is a whole slide imaging (WSI) in which the entire specimen tissue or a part of it placed on a glass slide is digitally imaged with high precision. The specimen image may also be a micrograph captured by an electron microscope, or an image captured by other techniques. The specimen image is an example of a second image in this embodiment.
検体画像保管装置201および標本画像保管装置202は、例えばサーバ装置またはPC等である。なお、検体画像保管装置201および標本画像保管装置202を総称して画像保管装置と呼んでも良い。また、図1では検体画像保管装置201と標本画像保管装置202とを、別個の装置として記載したが、検体画像保管装置201と標本画像保管装置202とは一体の装置として構成されても良い。また、検体画像保管装置201、標本画像保管装置202、および情報処理装置100が、一体の装置として構成されても良い。
The specimen
図2は、実施形態に係る検体画像51および標本画像61について説明する図である。例えば、診断医によって患者Pから採取された検体5は、病理診断のために、病理医または検査技師に移送される。この際、病理診断の依頼(オーダー)毎に、病理番号が採番される。また、病理診断の対象となる検体ごとに、異なる検体番号が採番される。なお、1回の病理診断の依頼において、診断対象の検体が複数ある場合には、1つの病理番号に、複数の検体番号が対応付けられる。以下、本実施形態においては、病理医または検査技師を病理医等という。
Figure 2 is a diagram illustrating a sample image 51 and a
なお、本実施形態における情報処理装置100が実行する処理は、必ずしも病理診断を目的としなくても良い。例えば、研究機関による研究、または医療機関から委託されて病理学的検査を行う検査センターにおける報告書の作成を目的としても良い。
The processing performed by the
また、検体5がデジタルカメラ等によって撮像された検体画像51の識別情報として、検体画像IDが付与される。検体画像IDは、検体画像51の付帯情報として登録されても良い。また、検体画像51の撮像対象である検体5の病理番号、検体5の検体番号、検体5の取得元の患者Pの患者ID、検体画像51の撮像日時等の検体画像51に関する情報が、検体画像51の付帯情報として登録されても良い。また、検体画像ID、およびその他の検体画像51に関する情報は、検体画像51上に文字情報として描出されても良い。 A specimen image ID is assigned as identification information for the specimen image 51 obtained by capturing an image of the specimen 5 using a digital camera or the like. The specimen image ID may be registered as additional information for the specimen image 51. Information related to the specimen image 51, such as the pathology number of the specimen 5 that is the subject of the image of the specimen image 51, the specimen number of the specimen 5, the patient ID of the patient P from whom the specimen 5 was obtained, and the image date and time of the specimen image 51, may be registered as additional information for the specimen image 51. The specimen image ID and other information related to the specimen image 51 may be displayed as text information on the specimen image 51.
病理医等は、検体5から標本組織6a~6eを切り出し、染色等の処理を施した後、例えば、標本組織6a~6eの断面を撮像装置側に向けてスライドガラス7に載置する。以下、個々の標本組織6a~6eを区別しない場合は、単に標本組織6という。標本組織6は、例えば、検体5が薄切りされた切片であるが、これに限定されるものではない。
The pathologist or the like cuts out the specimen tissues 6a-6e from the specimen 5, and after performing processing such as staining, places, for example, the cross-sections of the specimen tissues 6a-6e on the
なお、図2では一例として、標本組織6は断面を撮像装置側に向けた状態で撮像されるが、載置の向きはこれに限定されるものではない。例えば、標本組織6は、検体画像51の撮像時の検体5と同じ向きで、撮像されても良い。
In FIG. 2, as an example, the
スライドガラス7に載置された標本組織6を撮像したWSI等の画像が、標本画像61である。標本画像61の識別情報として、標本画像IDが付与される。なお、図2では、1つの検体5から切り出された標本組織6a~6eが、1つのスライドガラス7に載置されているが、複数のスライドガラス7に分けて載置されても良い。標本画像61はスライドガラス7毎に撮像されるため、標本組織6a~6eが複数のスライドガラス7に分けて載置された場合は、複数の標本画像61が撮像される。この場合、標本画像61毎に、異なる標本画像IDが付与される。
A WSI image or the like of the
標本画像IDは、標本画像61の付帯情報として登録されても良い。また、標本画像61の撮像対象である標本組織の取得元である検体5の病理番号、検体5の検体番号、検体5の取得元の患者Pの患者ID、標本画像61の撮像日時等の標本画像61に関する情報が、標本画像61の付帯情報として登録されても良い。また、標本画像ID、およびその他の標本画像61に関する情報は、標本画像61上に文字情報として描出されても良い。
The specimen image ID may be registered as additional information of the
図1に戻り、情報処理装置100は、例えばサーバ装置またはPC等であり、NWインタフェース110と、記憶回路120と、入力インタフェース130と、ディスプレイ140と、処理回路150とを有する。
Returning to FIG. 1, the
NWインタフェース110は、処理回路150に接続されており、情報処理装置100と検体画像保管装置201または標本画像保管装置202との間で行われる各種データの伝送および通信を制御する。NWインタフェース110は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
The NW interface 110 is connected to the processing circuit 150 and controls the transmission and communication of various data between the
記憶回路120は、処理回路150で使用される各種の情報を予め記憶する。また、記憶回路120は、各種のプログラムを記憶する。 The memory circuitry 120 prestores various types of information to be used by the processing circuitry 150. The memory circuitry 120 also stores various programs.
入力インタフェース130は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。入力インタフェース130は、処理回路150に接続されており、操作者から受け取った入力操作を電気信号へ変換し処理回路150へと出力する。なお、本明細書において入力インタフェースはマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路150へ出力する電気信号の処理回路も入力インタフェース130の例に含まれる。
The
ディスプレイ140は、液晶ディスプレイや有機EL(Organic Electro-Luminescence: OEL)ディスプレイ等である。なお、入力インタフェース130とディスプレイ140とは統合しても良い。例えば、入力インタフェース130とディスプレイ140とは、タッチパネルによって実現されても良い。ディスプレイ140は、本実施形態における表示部の一例である。
The display 140 is a liquid crystal display, an organic electro-luminescence (OEL) display, or the like. The
処理回路150は、記憶回路120からプログラムを読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。本実施形態の処理回路150は、取得機能151と、受付機能152と、組織領域認識機能153と、興味領域認識機能154と、切り出し位置認識機能155と、対応付け機能156と、マッピング機能157と、表示制御機能158と、送信機能159と、切り出し位置設定機能160とを備える。取得機能151は、取得部の一例である。受付機能152は、受付部の一例である。組織領域認識機能153は、組織領域認識部の一例である。興味領域認識機能154は、興味領域認識部の一例である。切り出し位置認識機能155は、切り出し位置認識部の一例である。対応付け機能156は、対応付け部の一例である。マッピング機能157は、マッピング部の一例である。表示制御機能158は、表示制御部の一例である。送信機能159は、送信部の一例である。切り出し位置設定機能160は、切り出し位置設定部の一例である。
The processing circuit 150 is a processor that reads out a program from the memory circuit 120 and executes it to realize a function corresponding to each program. The processing circuit 150 of this embodiment includes an
ここで、例えば、処理回路150の構成要素である取得機能151、受付機能152、組織領域認識機能153、興味領域認識機能154、切り出し位置認識機能155、対応付け機能156、マッピング機能157、表示制御機能158、送信機能159、および切り出し位置設定機能160の各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路120に記憶されている。処理回路150は、プロセッサである。例えば、処理回路150は、プログラムを記憶回路120から読み出し、実行することで各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路150は、図1の処理回路150内に示された各機能を有することとなる。なお、図1においては単一のプロセッサにて取得機能151、受付機能152、組織領域認識機能153、興味領域認識機能154、切り出し位置認識機能155、対応付け機能156、マッピング機能157、表示制御機能158、送信機能159、および切り出し位置設定機能160にて行われる処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路150を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、図1においては単一の記憶回路120が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路150は個別の記憶回路から対応するプログラムを読み出す構成としても構わない。
Here, for example, each processing function of the components of the processing circuit 150, namely, the
上記説明では、「プロセッサ」が各機能に対応するプログラムを記憶回路から読み出して実行する例を説明したが、実施形態はこれに限定されない。「プロセッサ」という文言は、例えば、CPU(Central Processing Unit )、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device :CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサが例えばCPUである場合、プロセッサは記憶回路に保存されたプログラムを読み出して実行することで機能を実現する。一方、プロセッサがASICである場合、記憶回路120にプログラムを保存する代わりに、当該機能がプロセッサの回路内に論理回路として直接組み込まれる。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 In the above description, an example was described in which the "processor" reads out and executes a program corresponding to each function from a storage circuit, but the embodiment is not limited to this. The term "processor" refers to circuits such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an Application Specific Integrated Circuit (ASIC), a programmable logic device (e.g., a Simple Programmable Logic Device (SPLD), a Complex Programmable Logic Device (CPLD), and a Field Programmable Gate Array (FPGA)). When the processor is, for example, a CPU, the processor realizes the function by reading out and executing a program stored in a storage circuit. On the other hand, when the processor is an ASIC, instead of storing a program in the storage circuit 120, the function is directly incorporated as a logic circuit in the circuit of the processor. Note that each processor in this embodiment is not limited to being configured as a single circuit for each processor, and may be configured as a single processor by combining multiple independent circuits to realize the function. Additionally, multiple components in FIG. 1 may be integrated into a single processor to achieve the functions.
取得機能151は、検体画像保管装置201から、検体画像51を取得する。また、取得機能151は、標本画像保管装置202から、標本画像61を取得する。なお、検体画像51および標本画像61の取得元は、検体画像保管装置201および標本画像保管装置202に限定されるものではない。
The
取得対象の検体画像51および標本画像61は、例えば、受付機能152が受け付けたユーザの操作によって指定される。情報処理装置100のユーザは、病理医等である。
The specimen image 51 and the
ユーザは、例えば、病理番号、患者ID、検体番号、または撮像日等のいずれか、またはこれらの組み合わせを入力することにより、取得対象の検体画像51または標本画像61を指定する。また、一の病理番号には1以上の検体番号および検体画像IDが対応付けられ、一の検体番号には1以上の標本画像IDが対応付けられる。このため、ユーザが一の病理診断の依頼を処理するために一の病理番号を入力した場合、1以上の検体画像51および1以上の標本画像61が取得される。
The user specifies the sample image 51 or
また、ユーザは、検体画像保管装置201に保存された検体画像51のリストから、所望の検体画像51を選択しても良い。リストは、病理番号等の検体画像51に関する情報が文字情報で表された一覧であっても良いし、検体画像51が画像として表示された一覧であっても良い。この場合、取得機能151は、ユーザによって選択された検体画像51の検体番号と同じ検体番号に対応付けられた標本画像61を標本画像保管装置202から取得する。
The user may also select a desired specimen image 51 from a list of specimen images 51 stored in the specimen
なお、検体画像51または標本画像61の取得のタイミングは、ユーザの操作に限定されるものではなく、例えば、標本画像保管装置202に標本画像61が保存されたタイミングであっても良い。
The timing of acquiring the specimen image 51 or
なお、本実施形態では、取得機能151が検体画像51および標本画像61を取得するものとして説明するが、検体画像51を取得する機能と、標本画像61を取得する機能とは、それぞれ別個の機能として構成されても良い。
In this embodiment, the
受付機能152は、入力インタフェース130を介して、ユーザによる各種の操作を受け付ける。例えば、受付機能152は、ユーザによる検体画像51における切り出し位置の指定を受け付ける。また、受付機能152は、検体画像51における切り出し位置と、標本画像61における組織領域との対応付けを修正するユーザの操作を受け付ける。なお、切り出し位置および組織領域については後述する。
The
組織領域認識機能153は、標本画像61から、標本組織6が描出された組織領域を認識する。
The tissue area recognition function 153 recognizes the tissue area in which the
図3は、実施形態に係る標本画像61の一例を示す図である。図3の左側の図は、標本組織6a~6cが描出された標本画像61である。標本画像61には、背景として映り込んだスライドガラス7と、標本組織6a~6cとが描出される。
Figure 3 is a diagram showing an example of a
図3に示す例では、標本組織6a~6cは断面を撮像装置側に向けて撮像されている。検体5が消化器の粘膜および粘膜下層である場合、標本画像61の上方が、標本組織6a~6cの粘膜側であり、標本画像61の下方が、標本組織6a~6cの粘膜下層側となる。
In the example shown in FIG. 3, the specimen tissues 6a to 6c are imaged with their cross sections facing the imaging device. When the specimen 5 is the mucosa and submucosa of the digestive tract, the top of the
組織領域認識機能153は、画像処理によって、標本画像61から標本組織6a~6cが描出された領域である組織領域62a~62cを認識する。図3の右側の図は、左側の図に示す標本画像61から、組織領域認識機能153が組織領域62a~62cを認識した結果を示す図である。組織領域認識機能153は、標本画像61において、標本組織6a~6cが描出された領域に含まれる画素の座標を特定することにより、組織領域62a~62cを認識する。以下、組織領域62a~62cを区別しない場合には、単に組織領域62という。
The tissue area recognition function 153 uses image processing to recognize tissue areas 62a-62c, which are areas in which specimen tissues 6a-6c are depicted in the
なお、図3の右側の図では、説明のために、組織領域62の輪郭線を表示しているが、組織領域62の輪郭線は、描出されなくとも良い。また、ユーザの操作によって、組織領域62の輪郭線の表示または非表示が選択可能であっても良い。 In addition, in the diagram on the right side of FIG. 3, the contour of the tissue region 62 is displayed for the purpose of explanation, but the contour of the tissue region 62 does not have to be depicted. In addition, the user may be able to select whether to display or hide the contour of the tissue region 62.
標本画像61から組織領域62を認識する手法は特に限定されるものではないが、例えば、組織領域認識機能153は、画素レベルで類似する領域をグルーピングしていくことで候補領域を選出するSelective Searchのようなルールベースによる画像処理を採用しても良い。
The method for recognizing the tissue region 62 from the
または、標本画像61から組織領域62を認識する手法として、深層学習(Deep Learning)等の機械学習による画像処理を採用しても良い。深層学習を採用する場合には、組織領域認識機能153は、記憶回路120に記憶された学習済みモデルに標本画像61を入力し、学習済みモデルから出力される組織領域62の認識結果を取得する。組織領域62の認識処理に使用される学習済みモデルは、複数の標本画像61と、複数の標本画像61における組織領域62との対応関係が学習されたモデルである。なお、学習済みモデルは、組織領域認識機能153に組み込まれていても良い。
Alternatively, image processing using machine learning such as deep learning may be employed as a method for recognizing the tissue region 62 from the
図1に戻り、興味領域認識機能154は、標本画像61から、組織領域62に含まれる興味領域を認識する。
Returning to FIG. 1, the region of interest recognition function 154 recognizes a region of interest contained in the tissue region 62 from the
興味領域は、標本組織6のうち、病理診断において重要視される特定の組織である。一例として、興味領域は、標本組織6のうちの病巣部位である。病巣部位は、例えば、腺腫や腺がんなどの腫瘍領域である。
The region of interest is a specific tissue in the
また、興味領域は、腫瘍、粘膜、粘膜筋板、粘膜下層、または固有筋層のうちのいずれかの組織を含むものであっても良い。粘膜、粘膜筋板、粘膜下層、または固有筋層は、腫瘍のない正常領域であり、腫瘍の計測等に利用される。興味領域には、いずれか一の組織が含まれても良いし、複数種類の組織が含まれても良い。 The region of interest may also include any one of the following tissues: tumor, mucosa, muscularis mucosa, submucosa, or muscularis proper. The mucosa, muscularis mucosa, submucosa, or muscularis proper are normal regions that are free of tumors and are used for measuring tumors, etc. The region of interest may include any one of the following tissues, or may include multiple types of tissue.
図4は、実施形態に係る興味領域63の一例を示す図である。図4の左側の図は、標本組織6が描出された標本画像61である。標本画像61には、組織領域62が認識されている。
Figure 4 is a diagram showing an example of a region of interest 63 according to an embodiment. The diagram on the left side of Figure 4 is a
図4の右側の図は、左側の図に示す標本画像61から、興味領域認識機能154が興味領域63を認識した結果を示す図である。図4の右側の図に示すように、組織領域62のうち、興味領域63が描出された画像領域に含まれる画素の座標を特定することにより、興味領域63が描出された画像領域を認識する。
The diagram on the right side of Figure 4 shows the result of region of interest recognition function 154 recognizing region of interest 63 from
なお、図4の右側の図では、説明のために、興味領域63の輪郭線を表示しているが、興味領域63の輪郭線は、描出されなくとも良い。また、ユーザの操作によって、興味領域63の輪郭線の表示または非表示が選択可能であっても良い。 In addition, in the diagram on the right side of FIG. 4, the contour of the region of interest 63 is displayed for the purpose of explanation, but the contour of the region of interest 63 does not have to be drawn. In addition, the user may be able to select whether to display or hide the contour of the region of interest 63.
標本画像61から興味領域63を認識する手法は特に限定されるものではないが、Selective Searchのようなルールベースによる画像処理を採用しても良い。
The method for recognizing the region of interest 63 from the
または、標本画像61から興味領域63を認識する手法として、深層学習(Deep Learning)等の機械学習による画像処理を採用しても良い。
Alternatively, image processing using machine learning such as deep learning may be used as a method for recognizing the region of interest 63 from the
図5は、実施形態に係る深層学習による興味領域63の認識処理を説明する図である。深層学習を採用する場合には、興味領域認識機能154は、図5に示すように、記憶回路120に記憶された学習済みモデル90に標本画像61を入力し、学習済みモデル90から出力される興味領域63の認識結果を取得する。興味領域63の認識結果は、例えば、標本画像61における興味領域63の範囲を示す座標情報である。
FIG. 5 is a diagram illustrating the recognition process of the region of interest 63 by deep learning according to the embodiment. When deep learning is employed, the region of interest recognition function 154 inputs the
興味領域63の認識処理に使用される学習済みモデル90は、例えば、複数の標本画像61と、複数の標本画像61における興味領域63との対応関係が学習されたモデルである。なお、学習済みモデル90は、興味領域認識機能154に組み込まれていても良い。
The trained
図1に戻り、切り出し位置認識機能155は、検体画像51における標本組織6の切り出し位置を認識する。切り出し位置とは、検体5から、標本組織6が切り出された位置である。また、本実施形態において、単に切り出し位置という場合には、検体画像51に描出された検体5上の切り出し位置のことをいう。
Returning to FIG. 1, the cut-out position recognition function 155 recognizes the cut-out position of the
図6は、実施形態に係る切り出し位置の一例を示す図である。検体5が消化器の粘膜および粘膜下層である場合、検体5は、粘膜側を撮像装置に向けた状態で撮像されているものとする。 Figure 6 is a diagram showing an example of an excision position according to an embodiment. When the specimen 5 is the mucosa and submucosa of the digestive tract, the specimen 5 is imaged with the mucosa facing the imaging device.
図6に示す例では、検体画像51上に引かれた切り出し線53a~53fに、切り出し位置ID“1”~“6”がそれぞれ付与されている。切り出し線53a~53fは、検体5から標本組織6を切り出すY方向の位置を示す。以下、個々の切り出し線53a~53fを特に区別しない場合には、単に切り出し線53という。
In the example shown in FIG. 6, cut-out lines 53a-53f drawn on the specimen image 51 are assigned cut-out position IDs "1"-"6", respectively. The cut-out lines 53a-53f indicate the Y-direction positions at which the
1つの検体画像51当たりの切り出し線53の数は特に限定されるものではないが、例えば、本実施形態においては、1つの検体画像51当たり1本以上の切り出し線53が引かれているものとする。 The number of cutout lines 53 per sample image 51 is not particularly limited, but for example, in this embodiment, one or more cutout lines 53 are drawn per sample image 51.
図6の左側の図に示す切り出し線53および切り出し位置IDは、後述の切り出し位置設定機能160によって設定されたものとする。切り出し線53および切り出し位置IDの設定方法の詳細については、後述する。 The cut-out line 53 and cut-out position ID shown in the left diagram of FIG. 6 are set by the cut-out position setting function 160, which will be described later. Details of how to set the cut-out line 53 and the cut-out position ID will be described later.
例えば、切り出し位置設定機能160によって記憶回路120に、検体画像51の検体画像IDと、検体画像51上の切り出し線53の座標と、切り出し位置IDとが対応付けられた切り出し位置情報が保存されている。切り出し位置認識機能155は、記憶回路120から、切り出し位置情報を読み出して、検体画像51上の切り出し線53の位置、および各切り出し線53の切り出し位置IDを特定する。切り出し位置情報は、検体画像51の付帯情報として、検体画像51に対応付けられて記憶されていても良い。 For example, the cut-out position setting function 160 stores cut-out position information in the memory circuitry 120, which associates the sample image ID of the sample image 51, the coordinates of the cut-out lines 53 on the sample image 51, and the cut-out position ID. The cut-out position recognition function 155 reads out the cut-out position information from the memory circuitry 120 and identifies the positions of the cut-out lines 53 on the sample image 51 and the cut-out position IDs of each cut-out line 53. The cut-out position information may be stored in association with the sample image 51 as supplementary information of the sample image 51.
また、切り出し位置認識機能155は、検体画像51における検体領域52を認識する。検体領域52は、検体画像51上で検体5が描出された画像領域である。検体領域52を認識する手法は特に限定されるものではないが、Selective Searchのようなルールベースによる画像処理を採用しても良いし、深層学習等の機械学習による画像処理を採用しても良い。また、検体画像51の背景画像が予め定められている場合は、切り出し位置認識機能155は、検体画像51から該背景画像を削除して残った画像領域を、検体領域52として認識しても良い。 The cut-out position recognition function 155 also recognizes the specimen area 52 in the specimen image 51. The specimen area 52 is an image area in which the specimen 5 is depicted on the specimen image 51. The method for recognizing the specimen area 52 is not particularly limited, but rule-based image processing such as Selective Search may be adopted, or image processing using machine learning such as deep learning may be adopted. Furthermore, if the background image of the specimen image 51 is predetermined, the cut-out position recognition function 155 may delete the background image from the specimen image 51 and recognize the remaining image area as the specimen area 52.
図6の中央の図は、切り出し位置認識機能155が検体画像51から認識した検体領域52の一例である。 The central diagram in Figure 6 is an example of a specimen region 52 recognized from a specimen image 51 by the cut-out position recognition function 155.
また、切り出し位置認識機能155は、特定した切り出し線53および切り出し位置IDと、認識した検体領域52とに基づいて、切り出し線53を補正する。具体的には、切り出し位置認識機能155は、切り出し線53のうち、検体領域52からはみ出る部分を削除することにより、切り出し線53の幅を、検体領域52の幅に揃える。ここでは、検体領域52の幅および切り出し線53の幅は、検体領域52および切り出し線53の図6のX方向の長さのことをいう。 Furthermore, the cut-out position recognition function 155 corrects the cut-out line 53 based on the identified cut-out line 53 and cut-out position ID, and the recognized specimen region 52. Specifically, the cut-out position recognition function 155 aligns the width of the cut-out line 53 with the width of the specimen region 52 by deleting the portion of the cut-out line 53 that protrudes from the specimen region 52. Here, the width of the specimen region 52 and the width of the cut-out line 53 refer to the lengths of the specimen region 52 and the cut-out line 53 in the X direction in FIG. 6.
補正後の切り出し線53は、検体画像51に描出された検体5から標本組織6が切り出された切り出し位置を表す。
The corrected cut-out line 53 represents the cut-out position where the
なお、切り出し位置の認識の手法は、上述の例に限定されるものではない。例えば、切り出し位置認識機能155は、検体画像51に描出された線画像または文字情報から、切り出し位置を認識しても良い。文字情報は、例えば、組織片を切り出す位置の指示や切り出した位置の記録等の情報である。文字情報を認識する手段は、例えばOCR(Optical Character Recognition/Reader、光学的文字認識)でも良い。また、線画像または文字情報は、検体画像51自体に描出されたものに限定されず、検体画像51と対応付けられた帳票等に記載されたものでも良い。 The method for recognizing the excision position is not limited to the above example. For example, the excision position recognition function 155 may recognize the excision position from a line image or text information drawn in the specimen image 51. The text information is, for example, information such as an instruction for the position to excision the tissue piece or a record of the excision position. The means for recognizing the text information may be, for example, OCR (Optical Character Recognition/Reader). Furthermore, the line image or text information is not limited to that drawn in the specimen image 51 itself, but may be written on a form or the like associated with the specimen image 51.
また、図6では、標本組織6が切り出される前の検体5を撮像した検体画像51から切り出し位置を認識しているが、切り出し位置認識機能155は、標本組織6が切り出された後の検体5を撮像した検体画像51から切り出し位置を、画像処理によって認識しても良い。また、この場合、切り出し位置認識機能155は、所定の運用ルールに基づいて、切り出し位置に切り出し位置IDを付与する。
In addition, in FIG. 6, the excision position is recognized from the specimen image 51 obtained by capturing an image of the specimen 5 before the
所定の運用ルールは、例えば、“検体画像51の上方から、1から昇順に切り出し位置IDを付与する”等である。所定の運用ルールは、標本組織6の切り出し順、およびスライドガラス7への標本組織6の配置順を規定する運用ルールである。該運用ルールは、情報処理装置100が設けられた医療機関または検査センター固有の運用ルールでも良い。この場合、受付機能152が、ユーザによって入力された運用ルールを受け付け、予め記憶回路120に保存しておくものとしても良い。あるいは、例えば、ユーザによる設定の前に、複数の運用ルールが記憶回路120に登録されており、ユーザが、複数の運用ルールのうち、採用する一の運用ルールを選択可能な構成を採用しても良い。
The predetermined operation rule is, for example, "assigning cut-out position IDs in ascending order starting from 1 from the top of the specimen image 51". The predetermined operation rule is an operation rule that specifies the order in which the
図1に戻り、対応付け機能156は、検体画像51における切り出し位置と、該切り出し位置から切り出された標本組織6が描出された標本画像61における組織領域62とを対応付ける。
Returning to FIG. 1, the
図7は、本実施形態に係る切り出し位置と組織領域62との対応付けの一例を示す図である。図7に示すように、対応付け機能156は、切り出し位置認識機能155によって認識された切り出し位置と、切り出し位置から切り出された組織領域62とを1対1で対応付ける。
Figure 7 is a diagram showing an example of the association between the cut-out position and the tissue region 62 according to this embodiment. As shown in Figure 7, the
より詳細には、対応付け機能156は、標本画像61に含まれる個々の組織領域62に、標本領域IDを付与する。対応付け機能156は、例えば、“標本画像61の上方から、1から昇順に標本領域IDを付与する”等の運用ルールに基づいて、標本領域IDを付与する。また、図7のように、1つの検体画像51に対して、複数の標本画像61a,61bが対応付けられる場合は、対応付け機能156は、複数の標本画像61a,61bのうち、撮像日時が早い順に、標本領域IDを付与する。
More specifically, the
標本領域IDの付与に用いられる運用ルールは、切り出し位置認識機能155の説明の際に述べた運用ルールと同様に、標本組織6の切り出し順、およびスライドガラス7への標本組織6の配置順を規定する運用ルールである。
The operational rules used to assign specimen region IDs are the same as those described in the explanation of the excision position recognition function 155, and are operational rules that stipulate the order in which the
このため、標本画像61における個々の組織領域62に付与された標本領域IDは、基本的に、該組織領域62に描出された標本組織が切り取られた切り取り位置の切り取り位置IDと一致する。対応付け機能156は、切り出し位置IDと、該切り出し位置IDと同じ番号の標本領域IDとを対応付ける。図7に示す例では、検体画像51における切り出し位置ID“1”~“6”の切り出し位置と、標本画像61における標本領域ID“1”~“6”の組織領域62とがそれぞれ対応付けられる。
For this reason, the specimen area ID assigned to each tissue area 62 in the
なお、標本領域IDを付与する手法は上述の例に限定されるものではない。図8は、本実施形態に係る標本画像61に描出されたラベル71の一例を示す図である。例えば、図8に示すように、標本画像61に描出されたラベル71に、標本組織6が切り出された位置を示す切り出し位置IDまたは標本領域IDが記載されている場合、対応付け機能156は、OCR等の手法によって該切り出し位置IDを認識する。
The method of assigning the specimen area ID is not limited to the above example. FIG. 8 is a diagram showing an example of a
また、ユーザが、ディスプレイ140に表示されたGUI(Graphical User Interface)から、標本領域IDを入力する操作を行っても良い。また、対応付け機能156によって付与された標本組織IDに誤りがある場合、ユーザがGUIから標本領域IDを変更する操作を行っても良い。この場合、受付機能152が、ユーザによる標本領域IDの入力、または変更の操作を受け付ける。対応付け機能156は、受け付けられたユーザの操作に基づいて、切り出し位置と組織領域62との対応付けを修正する。
The user may also input a specimen area ID from a GUI (Graphical User Interface) displayed on the display 140. If the specimen tissue ID assigned by the
図9は、本実施形態に係る標本領域IDの設定操作画面141の一例を示す図である。設定操作画面141は、GUIの一種である。設定操作画面141の表示処理は、後述の表示制御機能158が実行する。設定操作画面141には、検体画像51と、該検体画像51と対応付けられた標本画像61とが含まれる。
Figure 9 is a diagram showing an example of a specimen area ID setting operation screen 141 according to this embodiment. The setting operation screen 141 is a type of GUI. The display process of the setting operation screen 141 is performed by a
図9に示すように、リストボックス60等によって、ユーザが、標本領域IDを入力または変更可能であっても良い。 As shown in FIG. 9, a list box 60 or the like may allow the user to input or change the specimen area ID.
また、例えば、ユーザがマウスまたはスタイラスペン等で画面上の番号修正ボタン80を押下した場合に、対応付け機能156によって設定された切り出し位置IDおよび標本領域IDが表示される。なお、対応付け機能156によって標本領域IDがまだ設定されていない場合には、標本領域IDは表示されなくとも良い。
For example, when the user presses the number correction button 80 on the screen with a mouse or a stylus pen, the cut-out position ID and specimen area ID set by the
例えば、ユーザが切り出し位置IDの数字または切り出し線53を押下すると、該切り出し位置IDと同じ番号の標本領域IDを設定可能な組織領域62が選択可能に表示される。選択の手法は、例えば、ドロップボックスや、ラジオボタン等である。 For example, when the user presses the number of the cut-out position ID or the cut-out line 53, the tissue region 62 for which a specimen region ID with the same number as the cut-out position ID can be set is displayed for selection. Selection methods include, for example, a drop box or radio buttons.
また、ユーザが切り出し位置IDの数字または切り出し線53を押下した後にクリックした組織領域62が、該切り出し位置IDと対応付けられても良い。 In addition, the tissue area 62 that the user clicks on after pressing the cut-out position ID number or the cut-out line 53 may be associated with the cut-out position ID.
また、ユーザが切り出し位置IDの数字または切り出し線53を、組織領域62にドラッグアンドドロップすること、またはユーザが組織領域62を切り出し位置IDの数字または切り出し線53にドラッグアンドドロップすることによって、切り出し位置IDと組織領域62とが対応付けられても良い。例示した操作は一例であり、検体画像51における切り出し位置と、該切り出し位置から切り出された標本組織6が描出された標本画像61における組織領域62とを対応付ける手法および対応付けを変更する手法は、これらに限定されるものではない。
The excision position ID and the tissue region 62 may be associated by the user dragging and dropping the number of the excision position ID or the excision line 53 onto the tissue region 62, or by the user dragging and dropping the tissue region 62 onto the number of the excision position ID or the excision line 53. The illustrated operations are merely examples, and the methods of associating the excision position in the specimen image 51 with the tissue region 62 in the
また、切り出し後に標本組織6が分割された場合など、切り出し位置の数よりも、組織領域62の数の方が多い場合、対応付け機能156は、余った組織領域62には自動的にアスタリスク等の記号を仮の標本領域IDとして付与しても良い。この場合、ユーザが、手動で標本領域IDを修正しても良い。また、切り出し後に標本組織6が分割された場合に、分割された標本組織6に合わせて、検体画像51の切り出し線53を、ユーザが分割しても良い。
In addition, when the number of tissue regions 62 is greater than the number of excision positions, such as when the
図1に戻り、マッピング機能157は、対応付け機能156による切り出し位置と組織領域62との対応付けに基づいて、標本画像61の興味領域63と、検体画像51において標本画像61の興味領域63に相当する対象領域とをマッピングする。
Returning to FIG. 1, the
図10は、本実施形態に係るマッピングの一例を示す図である。マッピング機能157は、標本画像61に描出された興味領域63の範囲を、切り出し位置IDおよび標本領域IDに基づいて、標本画像61に対応付ける。また、マッピング機能157は、興味領域63を含む組織領域62に対応付けられた切り出し位置の近傍に、対象領域54を表す図形を描画する。図形は、例えば線分でも良いし、矩形等であっても良い。
Figure 10 is a diagram showing an example of mapping according to this embodiment. The
より詳細には、マッピング機能157は、興味領域63を含む組織領域62に対応付けられた切り出し位置を示す切り出し線53の、標本組織6が切り出された側に、対象領域54を表す図形を描画する。例えば、切り出し位置ID“2”に対応付けられた標本領域ID“2”の組織領域62bには、興味領域63aと興味領域63bが含まれる。組織領域62bに描出された標本組織6が、切り出し線53bの上方から切り出されたものである場合、マッピング機能157は、検体画像51における切り出し位置ID“2”が付与された切り出し線53bの上方に、興味領域63aに対応する対象領域54aと、興味領域63bに対応する対象領域54bとを描画する。
More specifically, the
また、切り出し位置ID“3”に対応付けられた標本領域ID“3”の組織領域62bには、興味領域63cが含まれる。マッピング機能157は、検体画像51における切り出し位置ID“3”が付与された切り出し線53cの上方に、興味領域63cに対応する対象領域54cを描画する。以下、個々の対象領域54a~54cを特に区別しない場合には、単に対象領域54という。
Tissue region 62b with specimen region ID "3" associated with cut-out position ID "3" includes region of interest 63c.
図10では、対象領域54を線形的に描画したが、描画の態様はこれに限定されるものではない。 In FIG. 10, the target area 54 is drawn linearly, but the drawing manner is not limited to this.
なお、切り出し線53の上方と下方のいずれに対象領域54をマッピングするかは、標本組織6がスライドガラス7に載置される際の切断面の向きに応じて異なる。マッピング機能157は、例えば、運用ルールに基づいて、切り出し線53の上方と下方のいずれに対象領域54をマッピングするかを決定する。あるいは、切り出し線53の上方と下方のいずれに対象領域54をマッピングするかユーザが選択可能であっても良い。また、マッピング機能157は、切り出し線53に重畳して対象領域54を描画しても良い。
Whether the target region 54 is mapped above or below the cut-out line 53 depends on the orientation of the cut surface when the
また、標本画像61は検体画像51よりも高倍率で撮像されているため、マッピング機能157は、興味領域63に対応する対象領域54を検体画像51に描画する際、興味領域63の縮尺を、検体画像51に合わせて補正する。
In addition, since the
具体的には、マッピング機能157は、検体画像51の切り出し位置における検体領域52の寸法と、切り出し位置に対応する組織領域62の寸法と、の差異に基づいて、興味領域63の寸法を補正する。マッピング機能157は、寸法を補正した興味領域63を、検体画像51上の対象領域54にマッピングする。検体領域52の寸法とは、より具体的には、検体画像51の幅方向における検体領域52の長さ、つまり検体領域52の幅である。また、組織領域62の寸法とは、より具体的には、検体領域52の幅方向と同じ方向における組織領域62の長さである。
Specifically, the
マッピング機能157は、例えば(1)式によって、補正後の対象領域54の寸法および位置を算出する。
The
(1)式のiは検体画像51の切り出し位置IDおよび標本画像61の標本領域IDである。Rmacro,iは、切り出し位置ID“i”に対応付けられた対象領域54の範囲を示す。Rmicro,iは、標本画像61上における標本領域ID“i”に対応付けられた興味領域63の範囲である。対象領域54の範囲および興味領域63の範囲は、検体画像51または標本画像61上の座標で表される。lmacro,iは、検体画像51における切り出し位置ID“i”に対応付けられた補正後の切り出し線53のX方向の長さ(幅)である。また、lmicro,iは、標本画像61上における組織領域62のX方向の長さ(幅)である。また、offsetは、補正後の組織領域62を対象領域54として検体画像51上に描画するための移動量である。例えば、offsetは、切り出し位置ID“i”に対応付けられた補正後の切り出し線53の左端部の座標である。
In formula (1), i is the cut-out position ID of the specimen image 51 and the specimen area ID of the
なお、標本画像61を撮像した顕微鏡の倍率と、検体画像51を撮像したデジタルカメラの倍率とが特定可能な場合、マッピング機能157は、該倍率の差に基づいて、切り出し線53のX方向の長さ(幅)を補正しても良い。
In addition, if the magnification of the microscope that captured the
また、標本画像61上の組織領域62は、必ずしも検体画像51の切り出し線53と同じ向きに並んでいるとは限らないため、マッピング機能157は、検体画像51のX方向(幅方向)に相当する組織領域62の方向を、組織領域62の重心の並びに基づいて特定する。
In addition, since the tissue regions 62 on the
図11は、実施形態に係る標本画像における組織領域の重心群の並びの一例を示す図である。重心65a~65cは、それぞれ、組織領域62a~62cに含まれる各画素の分布の中心である。例えば、重心65a~65cの座標は、それぞれ、組織領域62a~62cに含まれる各画素の座標の平均値である。 Figure 11 is a diagram showing an example of an arrangement of centers of gravity of tissue regions in a specimen image according to an embodiment. Centers of gravity 65a to 65c are the centers of distribution of the pixels contained in tissue regions 62a to 62c, respectively. For example, the coordinates of centers of gravity 65a to 65c are the average values of the coordinates of the pixels contained in tissue regions 62a to 62c, respectively.
マッピング機能157は、重心65a~65cの並ぶ方向を判定し、重心65a~65cが並ぶ方向をY軸方向、重心65a~65cが並ぶ方向に垂直な方向をX軸方向(幅方向)と認識する。マッピング機能157は、認識したX軸方向にそって、組織領域62のX方向の長さ(幅)L1を求める。X軸方向(幅方向)は、基準軸方向ともいう。
The
図11では、標本画像61における組織領域62が並ぶ方向は、検体画像51における切り出し線53と略同じ方向であるが、組織領域62が並ぶ方向はこれに限定されるものではない。図12は、実施形態に係る標本画像における組織領域62の重心群の並びの他の一例を示す図である。図12に示すように、組織領域62が、標本画像61の縦方向に並ぶ場合もある。この場合、マッピング機能157は、重心65a~65cが並ぶ方向に基づいて、標本画像61の縦方向を、組織領域62の幅方向と判定する。
In FIG. 11, the direction in which the tissue regions 62 are arranged in the
なお、重心65a~65cの並ぶ方向の求め方は、例えば、座標群におけるX座標およびY座標の分散の比の算出、または主成分分析等を採用しても良い。具体的には、マッピング機能157は、重心65a~65cの座標を主成分分析し、第一主成分方向と垂直な方向を基準軸方向としても良い。また、マッピング機能157は、第一主成分と第二主成分の寸法の比が閾値よりも大きい場合は、重心65a~65cの並ぶ方向を判定できないことを、後述の表示制御機能158に通知しても良い。この場合、表示制御機能158は、ユーザが基準軸方向を入力可能なGUI等の画面を表示しても良い。第一主成分と第二主成分の寸法の比の閾値は、例えば0.8とするが、これに限定されるものではない。
The direction in which the centers of gravity 65a to 65c are arranged may be determined by, for example, calculating the ratio of the variance of the X-coordinate and the Y-coordinate in the coordinate group, or by principal component analysis. Specifically, the
また、マッピング機能157は、“重心65a~65cが標本画像61の縦方向に並ぶ場合は、組織領域62の幅の計測は標本画像61の横方向を基準とする”、“重心65a~65cが標本画像61の横方向に並ぶ場合は、組織領域62の幅の計測は標本画像61の縦方向を基準とする”というように規則に従って組織領域62のX方向の長さ(幅)L1を求めても良い。この場合、重心65a~65cが斜めに並んでいる場合、または、重心65a~65cの並びに一定の方向性が無い場合は、ユーザが基準軸方向を入力するものとする。
The
なお、本実施形態では、マッピング機能157が対象領域54を描画するとしたが、マッピング機能157は単に検体画像51上の対象領域54の座標を特定するだけでも良い。
In this embodiment, the
図1に戻り、表示制御機能158は、ディスプレイ140に、GUI等の種々の画面を表示させる。また、表示制御機能158は、マッピング機能157によって興味領域63と対象領域54とがマッピングされた検体画像51および標本画像61を対応付けてディスプレイ140に表示させる。
Returning to FIG. 1, the
図13は、本実施形態に係るマッピング表示画面142の一例を示す図である。例えば、図13に示すように、表示制御機能158は、検体画像51と、該検体画像51に描出された検体5から切り出された標本組織6が撮像された標本画像61a,61bとを、マッピング表示画面142として、一画面上に表示する。また、表示制御機能158は、マッピング機能157によって検体画像51上にマッピングされた対象領域54を、例えば線形の図形として表示する。対象領域54の表示態様およびマッピング表示画面142の態様は、これに限定されるものではない。
Figure 13 is a diagram showing an example of a mapping display screen 142 according to this embodiment. For example, as shown in Figure 13, the
図14は、本実施形態に係るマッピング表示画面142の他の一例を示す図である。図14に示す画像610は、標本画像61のうち、ユーザによって選択された検体画像51上の切り出し線53が示す切り出し位置に対応付けられた組織領域62が描出された部分が切り出された画像である。例えば、表示制御機能158は、図14に示すように、検体画像51上の切り出し位置ごとに、該切り出し位置に対応付けられた組織領域62を表示しても良い。
FIG. 14 is a diagram showing another example of the mapping display screen 142 according to this embodiment. The image 610 shown in FIG. 14 is an image obtained by cutting out a portion of the
また、図15は、本実施形態に係るマッピング表示画面142の他の一例を示す図である。検体画像51と標本画像61とは同じ大きさで表示されていなくとも良い。例えば、ユーザが標本画像61を選択した場合には、表示制御機能158は、図15に示すように、標本画像61を拡大して表示し、検体画像51は標本画像61よりも小さく表示する。また、ユーザが検体画像51を選択した場合には、表示制御機能158は、検体画像51を拡大して表示し、標本画像61は検体画像51よりも小さく表示する。
Also, FIG. 15 is a diagram showing another example of the mapping display screen 142 according to this embodiment. The specimen image 51 and the
また、マッピング表示画面142は、ユーザによるマッピングの変更または切り出し線53の変更等の各種の変更操作の受け付けが可能な操作画面を兼ねていても良い。 The mapping display screen 142 may also serve as an operation screen that can accept various change operations by the user, such as changing the mapping or changing the cut-out line 53.
また、ユーザは、操作画面上で変更した結果を、保存または出力する操作をすることができる。例えば、図15に示す保存ボタン81をユーザが押下した場合には、ユーザによる変更後の状態で、マッピングや、切り出し線53等の情報が、検体画像51および標本画像61と対応付けられて記憶回路120に保存される。
The user can also perform an operation to save or output the results of the changes made on the operation screen. For example, when the user presses the save button 81 shown in FIG. 15, information such as mapping and cutout line 53 is stored in the memory circuitry 120 in the state after the user's changes, in association with the specimen image 51 and the
また、図15に示す出力ボタン82をユーザが押下した場合には、マッピング後の検体画像51および標本画像61が出力される。出力先は、記憶回路120内の任意の保存先でも良いし、ネットワーク300を介して情報処理装置100と接続する他の情報処理装置であっても良い。他の情報処理装置は、例えば、HIS、LIS、RIS等を構成する情報処理装置であるが、これらに限定されるものではない。出力先が情報処理装置100外である場合は、ユーザによって出力対象として指定されたマッピング後の検体画像51および標本画像61は、後述の送信機能159によって、出力先に送信されるものとする。
When the user presses the output button 82 shown in FIG. 15, the sample image 51 and
また、本実施形態では、表示制御機能158は、情報処理装置100のディスプレイ140にマッピング表示画面142や、その他のGUIが表示させるものとしたが、ネットワーク300を介して情報処理装置100と接続するPCやタブレット端末等の端末装置のディスプレイに、マッピング表示画面142や、その他のGUIが表示させても良い。この場合、PCやタブレット端末等の端末装置のディスプレイが、表示部の一例となる。
In addition, in this embodiment, the
図1に戻り、送信機能159は、マッピング機能157によって興味領域63に相当すると対象領域54がマッピングされた検体画像51を外部装置に送信する。
Returning to FIG. 1, the
マッピング機能157によって興味領域63に相当すると対象領域54がマッピングされた検体画像51とは、検体画像51上に対象領域54を示す図形が描画された画像である。また、マッピング機能157によって興味領域63に相当すると対象領域54がマッピングされた検体画像51は、検体画像51の付帯情報として、対象領域54の位置および寸法が登録された画像データであっても良い。
The sample image 51 on which the target area 54 corresponding to the region of interest 63 has been mapped by the
また、この際、送信機能159は、検体画像51に対応付けられた標本画像61も、検体画像51と共に外部装置に送信しても良い。この場合、検体画像51および標本画像61には、切り出し位置情報およびマッピングの情報が対応付けられているものとする。
In addition, at this time, the
送信先の外部装置は、例えば、ネットワーク300を介して情報処理装置100と接続する他の情報処理装置である。他の情報処理装置は、例えば、HIS、LIS、RIS等を構成する情報処理装置であるが、これらに限定されるものではない。なお、送信機能159は、マッピング機能157によって興味領域63と対象領域54とがマッピングされた検体画像51および標本画像61を自動的に送信するものとしても良いし、ユーザによって指定された検体画像51または標本画像61を送信しても良い。
The external device to which the data is to be sent is, for example, another information processing device connected to the
切り出し位置設定機能160は、ユーザによる切り出し位置の指定に基づいて、検体画像51に切り出し位置を設定する。ユーザによる切り出し位置の指定は、受付機能152によって受け付けられる。
The cut-out position setting function 160 sets the cut-out position in the sample image 51 based on the cut-out position specified by the user. The cut-out position specified by the user is accepted by the
図16は、本実施形態に係る切り出し位置の設定画面143の一例を示す図である。切り出し位置の設定画面143は、表示制御機能158によってディスプレイ140に表示される。切り出し位置の設定画面143には、標本組織6が切り出される前の検体画像51が表示される。
Figure 16 is a diagram showing an example of the cut-out position setting screen 143 according to this embodiment. The cut-out position setting screen 143 is displayed on the display 140 by the
図16に示すように、ユーザが、切り出し位置の設定画面143に表示された検体画像51上で、マウス等の操作によって切り出し線53を描画すると、切り出し位置設定機能160は、検体画像51上の切り出し線53の座標を、切り出し位置として記録する。また、切り出し位置設定機能160は、各切り出し線53に、運用ルールに基づいて、切り出し位置IDを付与する。例えば、切り出し位置設定機能160は、検体画像51の上方から昇順に、切り出し位置IDを付与する。 As shown in FIG. 16, when a user draws an excision line 53 on the sample image 51 displayed on the excision position setting screen 143 by operating a mouse or the like, the excision position setting function 160 records the coordinates of the excision line 53 on the sample image 51 as the excision position. In addition, the excision position setting function 160 assigns an excision position ID to each excision line 53 based on the operation rules. For example, the excision position setting function 160 assigns excision position IDs in ascending order from the top of the sample image 51.
切り出し線53は、検体画像51の幅方向と平行でなくとも良く、ユーザによって任意の角度で設定可能である。また、切り出し位置設定機能160は、例えば、検体画像51の幅方向に対する切り出し線53のなす角θが閾値未満の場合には、切り出し線53の上方を標本組織6が採取される方向と認識し、なす角θが閾値以上の場合には、切り出し線53の下方を標本組織6が採取される方向と認識しても良い。なす角θの閾値は、例えば270度するが、これに限定されるものではない。なお、図16において、なす角θが開始位置を示すために記載した検体画像51の幅方向と平行な線は、実際には切り出し位置の設定画面143上に表示されなくとも良い。
The cut-out line 53 does not have to be parallel to the width direction of the specimen image 51, and can be set at any angle by the user. In addition, the cut-out position setting function 160 may recognize the upper side of the cut-out line 53 as the direction in which the
また、切り出し位置設定機能160は、所定のガイドラインに従って、一定の間隔で切り出し線53を自動的に設定しても良い。 The cut-out position setting function 160 may also automatically set cut-out lines 53 at regular intervals according to predetermined guidelines.
切り出し線53が設定された検体画像51は、例えば、ユーザの操作によって記憶回路120に保存される。切り出し線53が設定された検体画像51とは、切り出し位置情報と対応付けられた検体画像51である。切り出し位置情報は、検体画像51の検体画像IDと、検体画像51上の切り出し線53の座標と、切り出し位置IDとが対応付けられた情報である。切り出し位置情報は、検体画像51の付帯情報として1つの画像データ内に登録されても良いし、別個のデータファイルとして保存されても良い。また、切り出し線53が設定された検体画像51の保存先は記憶回路120に限定されるものではなく、検体画像保管装置201でも良い。切り出し位置情報は、アノテーション情報(正解情報)ともいう。
The sample image 51 with the cutout line 53 set is stored in the memory circuit 120, for example, by a user operation. The sample image 51 with the cutout line 53 set is the sample image 51 associated with cutout position information. The cutout position information is information in which the sample image ID of the sample image 51, the coordinates of the cutout line 53 on the sample image 51, and the cutout position ID are associated with each other. The cutout position information may be registered in one image data as additional information of the sample image 51, or may be stored as a separate data file. In addition, the storage destination of the sample image 51 with the cutout line 53 set is not limited to the memory circuit 120, and may be the sample
切り出し線53が設定された検体画像51に基づいて、病理医等が、検体5から標本組織6を切り出し、標本組織6に染色等の処理を施した後、標本画像61を撮像する。
Based on the specimen image 51 with the cut-out line 53 set, the pathologist or the like cuts out the
また、切り出し位置設定機能160は、検体5から標本組織6を切り出す前だけではなく、切り出した後に、検体画像51の切り出し位置と標本画像61の組織領域62の対応付けの修正の際に、ユーザによる切り出し位置の分割等の操作を受け付けても良い。
The cut-out position setting function 160 may also accept operations such as dividing the cut-out position by the user when correcting the correspondence between the cut-out position of the specimen image 51 and the tissue area 62 of the
図17は、本実施形態に係る切り出し位置の分割の一例を示す図である。例えば、表示制御機能158によってディスプレイ140に表示された操作画面146上で、ユーザが分割ボタン86を押下した場合、切り出し線53の分割位置を示すマーカ97が、検体画像51上に表示される。ユーザは、マウス等の操作によってマーカ97を移動させることにより、分割位置を設定可能である。切り出し線53が分割された場合、切り出し位置IDは、分割された切り出し線ごとに枝番で表される。
Figure 17 is a diagram showing an example of the division of the cut-out position according to this embodiment. For example, when the user presses the division button 86 on the operation screen 146 displayed on the display 140 by the
図18は、本実施形態に係る切り出し線53が分割された場合における切り出し位置IDの一例を示す図である。図18に示す例では、3本目の切り出し線53が、切り出し線531と、切り出し線532とに分割されたものとする。この場合、切り出し位置設定機能160は、切り出し線531に切り出し位置ID“3-1”、切り出し線532に切り出し位置ID“3-2”を設定する。また、この場合、切り出し線531と、切り出し線532に対応する組織領域62c、組織領域62dの組織領域IDも、上述の対応付け機能156またはユーザの操作によって“3-1”、“3-2”に変更される。なお、切り出し線53の分割は、標本画像61の撮像前に、予め実施されても良い。
Figure 18 is a diagram showing an example of the cut-out position ID when the cut-out line 53 according to this embodiment is divided. In the example shown in Figure 18, the third cut-out line 53 is divided into cut-out line 531 and cut-out line 532. In this case, the cut-out position setting function 160 sets the cut-out position ID "3-1" for the cut-out line 531 and the cut-out position ID "3-2" for the cut-out line 532. In this case, the tissue region IDs of the tissue region 62c and tissue region 62d corresponding to the cut-out line 531 and the cut-out line 532 are also changed to "3-1" and "3-2" by the above-mentioned
なお、本実施形態においては、切り出し位置設定機能160は、情報処理装置100の機能の一例として説明したが、切り出し位置設定機能160は、情報処理装置100とは異なる装置に備えられても良い。
In this embodiment, the cut-out position setting function 160 has been described as an example of a function of the
次に、以上のように構成された情報処理装置100で実行される切り出し位置の設定処理の流れについて説明する。
Next, we will explain the flow of the cut-out position setting process executed by the
図19は、本実施形態に係る切り出し位置の設定処理の流れの一例を示すフローチャートである。このフローチャートの処理の前提として、検体画像51がデジタルカメラ等によって撮像されて、検体画像保管装置201に保存されているものとする。
Figure 19 is a flowchart showing an example of the flow of the cut-out position setting process according to this embodiment. The process of this flowchart is premised on the assumption that the sample image 51 has been captured by a digital camera or the like and stored in the sample
まず、受付機能152は、ユーザによる検体画像51を指定する操作を受け付ける(S1)。ユーザは、例えば、病理番号、患者ID、検体番号、または撮像日等のいずれか、またはこれらの組み合わせを入力することにより、取得対象の検体画像51を指定する。また、ユーザは、検体画像保管装置201に保存された検体画像51のリストから、所望の検体画像51を選択しても良い。
First, the
そして、取得機能151は、ユーザによって指定された検体画像51を、検体画像保管装置201から取得する(S2)。ここで、表示制御機能158は、検体画像51を含む切り出し位置の設定画面143を、ディスプレイ140に表示させる。
Then, the
また、受付機能152は、ユーザによる検体画像51における切り出し位置を指定する操作を受け付ける(S3)。ユーザによる検体画像51における切り出し位置を指定する操作は、例えば、切り出し位置の設定画面143において、切り出し線53を検体画像51上に描画する操作である。
The
切り出し位置設定機能160は、ユーザによって指定された切り出し位置に、例えば運用ルールに基づいて、切り出し位置IDを付与する(S4)。 The cut-out position setting function 160 assigns a cut-out position ID to the cut-out position specified by the user, for example, based on operational rules (S4).
また、受付機能152は、ユーザによる切り出し位置の変更操作を受け付けたか否かを判定する(S5)。
The
受付機能152がユーザによる切り出し位置の変更操作を受け付けたと判定した場合(S5“Yes”)、切り出し位置設定機能160は、変更操作に基づいて、切り出し位置を変更する(S6)。また、切り出し位置の変更だけではなく、切り出し線を分割するユーザの操作を受け付けた場合にも、切り出し位置設定機能160は、ユーザの操作に基づいて、切り出し線を分割する。そして、S5の処理に戻る。
When the
受付機能152は、ユーザによる切り出し位置の変更操作を受け付けていないと判定した場合(S5“No”)、ユーザによる切り出し位置の保存操作を受け付けたか否かを判定する(S7)。受付機能152は、ユーザによる切り出し位置の保存操作を受け付けていないと判定した場合(S7“No”)、S5の処理に戻る。
If the
また、受付機能152がユーザによる切り出し位置の保存操作を受け付けたと判定した場合(S7“Yes”)、切り出し位置設定機能160は、切り出し位置付きの検体画像51、つまり切り出し位置情報と対応付けられた検体画像51を、記憶回路120に保存する(S8)。なお、切り出し位置設定機能160は、切り出し位置付きの検体画像51を、送信機能159を介して、検体画像保管装置201に送信しても良い。ここで、このフローチャートの処理は終了する。
If the
次に、本実施形態に係る検体画像51と標本画像61のマッピング処理の流れについて説明する。
Next, we will explain the flow of the mapping process for the specimen image 51 and the
図20は、本実施形態に係る検体画像51と標本画像61のマッピング処理の流れの一例を示すフローチャートである。このフローチャートの処理の前提として、検体画像51および標本画像61が撮像されて、検体画像保管装置201および標本画像保管装置202に保存されているものとする。また、検体画像51の切り出し位置の設定を情報処理装置100の切り出し位置設定機能160が行った場合には、検体画像51は、情報処理装置100の記憶回路120に保存されていても良い。
Figure 20 is a flowchart showing an example of the flow of the mapping process of the sample image 51 and the
まず、受付機能152は、ユーザによる検体画像51および標本画像61を指定する操作を受け付ける(S101)。例えば、ユーザは、ユーザは、例えば、病理番号、患者ID、検体番号、または撮像日等のいずれか、またはこれらの組み合わせを入力することにより、取得対象の検体画像51および標本画像61を指定する。また、ユーザは、検体画像保管装置201に保存された検体画像51のリストから、所望の検体画像51を選択しても良い。この場合、選択された検体画像51と同じ検体番号に対応付けられた標本画像61が、自動的に選択される。
First, the
そして、取得機能151は、取得対象として指定された検体画像51を検体画像保管装置201から取得する(S102)。なお、検体画像51が記憶回路120に保存されている場合には、取得機能151は、記憶回路120から取得対象として指定された検体画像51を記憶回路120から取得する。
Then, the
また、取得機能151は、取得対象として指定された標本画像61を標本画像保管装置202から取得する(S103)。
The
次に、組織領域認識機能153は、取得された標本画像61から、深層学習等によって組織領域62を認識する(S104)。
Next, the tissue area recognition function 153 recognizes the tissue area 62 from the acquired
また、興味領域認識機能154は、取得された標本画像61から、深層学習等によって興味領域63を認識する(S105)。
In addition, the region of interest recognition function 154 recognizes a region of interest 63 from the acquired
次に、切り出し位置認識機能155は、取得された検体画像51から、切り出し位置を認識する(S106)。例えば、検体画像51の切り出し線53および切り出し位置IDが切り出し位置設定機能160によって設定されたものである場合には、切り出し位置認識機能155は、検体画像51に対応付けられた切り出し位置情報から、切り出し線53および切り出し位置IDを特定する。また、検体画像51の切り出し線53および切り出し位置IDが切り出し位置設定機能160によって設定されていない場合は、例えば、切り出し位置認識機能155は、OCRや所定の運用ルール等に基づいて、切り出し線53および切り出し位置IDを特定する。そして、切り出し位置認識機能155は、検体画像51における検体領域52を認識し、特定した切り出し線53および切り出し位置IDと、認識した検体領域52とに基づいて、切り出し線53を補正することにより、検体画像51における切り出し位置を認識する。 Next, the cut-out position recognition function 155 recognizes the cut-out position from the acquired sample image 51 (S106). For example, if the cut-out line 53 and the cut-out position ID of the sample image 51 are set by the cut-out position setting function 160, the cut-out position recognition function 155 identifies the cut-out line 53 and the cut-out position ID from the cut-out position information associated with the sample image 51. Also, if the cut-out line 53 and the cut-out position ID of the sample image 51 are not set by the cut-out position setting function 160, for example, the cut-out position recognition function 155 identifies the cut-out line 53 and the cut-out position ID based on OCR or a predetermined operation rule. Then, the cut-out position recognition function 155 recognizes the sample region 52 in the sample image 51, and recognizes the cut-out position in the sample image 51 by correcting the cut-out line 53 based on the identified cut-out line 53 and the cut-out position ID and the recognized sample region 52.
次に、対応付け機能156は、標本画像61の組織領域62と検体画像51の切り出し位置とを対応付ける(S107)。例えば、対応付け機能156は、運用ルールに基づいて、組織領域62に組織領域IDを設定する。対応付け機能156は、該組織領域IDと切り出し位置の切り出し位置IDとを1対1の関係で対応付ける。
Next, the
次に、マッピング機能157は、標本画像61の組織領域62の含まれる興味領域63を、検体画像51にマッピングする(S108)。例えばマッピング機能157は、検体画像51上で興味領域63に対応する画像範囲である対象領域54に、対象領域54を示す図形を描画する。ここで、表示制御機能158は、例えば図13で説明したマッピング表示画面142をディスプレイ140に表示させる。
Next, the
そして、受付機能152は、ユーザによる対応付けの変更操作を受け付けたか否かを判定する(S109)。受付機能152は、ユーザによる対応付けの変更操作を受け付けたと判定した場合(S109“Yes”)、ユーザの操作に基づいて、組織領域IDまたは切り出し位置IDを変更することによって対応付けを変更する(S110)。その後、S109の処理に戻る。
Then, the
そして、受付機能152は、ユーザによる対応付けの変更操作を受け付けていないと判定した場合(S109“No”)、ユーザによる保存操作を受け付けたか否かを判定する(S111)。受付機能152は、ユーザによる対応付けの変更操作を受け付けていないと判定した場合(S111“No”)、S109の処理に戻る。
If the
受付機能152がユーザによる保存操作を受け付けたと判定した場合(S111“Yes”)、マッピング機能157は、マッピング処理済みの検体画像51と標本画像61とを対応付けて記憶回路120に保存する(S112)。
When the
このように、本実施形態の情報処理装置100は、検体画像51における切り出し位置と、該切り出し位置から切り出された標本組織6が描出された標本画像61における組織領域62とを対応付けると共に、標本画像61の興味領域63と、検体画像51において標本画像61の興味領域63に相当する対象領域54とをマッピングする。このため、本実施形態の情報処理装置100によれば、検体画像51に描出された検体5における標本組織6の切り出し位置と、標本画像61に描出された標本組織6上の病巣領域等の興味領域63との対応関係を、医師等が把握することを容易にすることができる。
In this way, the
例えば、従来、病理医等が病理診断のレポートを作成する際に、検体の一部組織を顕微鏡等で拡大して目視しながら、該一部組織に含まれる興味領域に対応する検体画像の領域を目視で把握し、把握した結果を手作業で検体画像上に記入する作業を行う場合があった。このような作業では、病理医等が、興味領域と検体画像との対応関係を高精度に把握することが困難な場合があった。また、興味領域を書き写すために顕微鏡と検体画像を交互に確認するため、作業の負荷が高くなる場合があった。これに対して、本実施形態の情報処理装置100は、検体画像51上に標本画像61の興味領域63に相当する対象領域54をマッピングするため、病理医等が、興味領域と検体画像との対応関係を高精度に把握することを可能にする。
For example, in the past, when a pathologist or the like prepared a pathology diagnosis report, the pathologist or the like would enlarge and visually inspect a portion of the tissue of the specimen using a microscope or the like, visually grasp the area of the specimen image corresponding to the region of interest contained in the portion of the tissue, and manually write the grasped result on the specimen image. In such a task, it may be difficult for the pathologist or the like to grasp the correspondence between the region of interest and the specimen image with high accuracy. In addition, since the pathologist or the like must alternate between checking the microscope and the specimen image to transcribe the region of interest, the workload may be high. In contrast, the
また、本実施形態の情報処理装置100は、興味領域63と対象領域54とがマッピングされた検体画像51および標本画像61を対応付けてディスプレイ140に表示させる。このため、本実施形態の情報処理装置100によれば、標本画像61に描出された標本組織6上の病巣領域等の興味領域63との対応関係を、医師等が視覚的に把握することができる。
The
また、本実施形態の情報処理装置100は、検体画像51における切り出し位置と、標本画像61における組織領域62との対応付けを修正するユーザの操作を受け付け、受け付けられたユーザの操作に基づいて、切り出し位置と組織領域62との対応付けを修正する。このため、本実施形態の情報処理装置100によれば、スライドガラス7に標本組織6が載置された位置が運用ルール通りではない場合であっても、ユーザの操作によって切り出し位置と、組織領域62との対応付けを柔軟に修正することができる。
The
また、本実施形態の情報処理装置100は、ユーザによる検体画像51における切り出し位置の指定を受け付け、受け付けられた切り出し位置に基づいて、検体画像51に切り出し位置を設定する。このため、本実施形態の情報処理装置100によれば、ユーザの所望の位置に切り出し位置を設定することができるとともに、切り出し位置と組織領域62との対応付けの際に、切り出し位置を正確に特定することが可能になる。
The
また、本実施形態の情報処理装置100は、検体画像51の切り出し位置における検体領域52の寸法と、組織領域62の寸法と、の差異に基づいて、興味領域63の寸法を補正し、寸法を補正した興味領域63を検体画像51上の対象領域54にマッピングする。このため、本実施形態の情報処理装置100によれば、標本画像61と検体画像51との縮尺の差異を補正して、検体画像51上の興味領域63に相当する位置を対象領域54として表せるため、検体5における興味領域63の位置および範囲を、医師等が高精度に把握することができる。
In addition, the
また、本実施形態の情報処理装置100は、興味領域63を含む組織領域62に対応付けられた切り出し位置の近傍に、対象領域54を表す図形を描画する。このため、本実施形態の情報処理装置100によれば、標本画像61で認識された興味領域63の検体5における位置および範囲を、医師等が視覚的に把握することができる。
In addition, the
さらに、本実施形態の情報処理装置100は、興味領域63を含む組織領域62に対応付けられた切り出し位置を示す切り出し線53の、標本組織6が切り出された側に、対象領域54を表す図形を描画する。このため、本実施形態の情報処理装置100によれば、標本画像61から認識された興味領域63が、切り出し線53のいずれの側に位置するのかを、医師等が容易に把握することができる。
Furthermore, the
また、本実施形態の情報処理装置100は、複数の標本画像と、複数の標本画像において病巣部位が描出された画像領域との対応関係が学習された学習済みモデル90に標本画像61を入力し、学習済みモデル90から出力された画像領域を、興味領域63が描出された画像領域として認識する。このため、本実施形態の情報処理装置100によれば、医師等が標本画像上に手動で興味領域の範囲を記入する等の作業を削減し、効率的に興味領域63を特定することができる。
In addition, the
また、本実施形態の情報処理装置100は、興味領域63に相当する対象領域54がマッピングされた検体画像51を外部装置に送信する。このため、本実施形態の情報処理装置100によれば、検体画像51における対象領域54のマッピング結果を、HIS等の外部装置に登録することができる。
The
なお、本実施形態において説明した学習済みモデル90は、ユーザのフィードバックを取得することにより、学習済みモデル90の内部アルゴリズムをさらに更新する「自己学習するモデル」を含むものとする。また、学習済みモデル90だけではなく、本実施形態において説明した他の学習済みモデルについても、「自己学習するモデル」を含むものとする。また、学習済みモデル90およびその他の本実施形態において説明した学習済みモデルは、ASIC、FPGA等の集積回路によって構築されても良い。また、学習済みモデル90およびその他の本実施形態において説明した学習済みモデルの代わりに、数式モデル、ルックアップテーブル、またはデータベース等が適用されても良い。
The trained
なお、本実施形態においてマッピング機能157が実行するものとして説明した処理は、表示制御機能158が実行しても良い。例えば、対象領域54を表す図形が描画された画像を予め生成および保存しておくのではなく、ディスプレイ140に表示する際に、表示制御機能158が対象領域54を表す図形を一時的に表示させても良い。
The processing described in this embodiment as being executed by the
(変形例1)
上述の実施形態においては、マッピング機能157は、標本画像61の興味領域63に対応する検体画像51の対象領域54を表す図形を、検体画像51上に描画していた。本変形例においては、マッピング機能157は、興味領域63に複数種類の組織が含まれる場合には、組織の種類ごとに、検体画像51上の対象領域54を、異なる表示態様で描画する。
(Variation 1)
In the above embodiment, the
例えば、上述の実施形態で説明したように、興味領域63は、腫瘍、粘膜、粘膜筋板、粘膜下層、または固有筋層のうち、いずれか一の組織が含まれても良いし、複数種類の組織が含まれても良い。 For example, as described in the above embodiment, the region of interest 63 may include any one of the following tissues: tumor, mucosa, muscularis mucosa, submucosa, or muscularis propria, or may include multiple types of tissue.
図21は、変形例1に係る対象領域54の表示態様の一例を示す図である。図21の上段に示すように、標本画像61の組織領域62には、3つの興味領域63g,63x,63hが含まれる。このうち、興味領域63gおよび興味領域63hが良性腫瘍であり、興味領域63xは悪性腫瘍である。つまり、興味領域63gおよび興味領域63hは同じ種類の組織であるが、興味領域63xは興味領域63gおよび興味領域63hとは異なる種類の組織である。
Figure 21 is a diagram showing an example of the display mode of the target region 54 according to the first modification. As shown in the upper part of Figure 21, the tissue region 62 of the
興味領域認識機能154は、Selective Searchのようなルールベースによる画像処理または深層学習等によって、興味領域63g,63x,63hのそれぞれの組織の種類を認識する。例えば、興味領域認識機能154は、興味領域63gおよび興味領域63hが良性腫瘍であること、および、興味領域63xが悪性腫瘍であることを認識する。 The region of interest recognition function 154 recognizes the tissue type of each of the regions of interest 63g, 63x, and 63h by rule-based image processing such as Selective Search or deep learning. For example, the region of interest recognition function 154 recognizes that the regions of interest 63g and 63h are benign tumors and that the region of interest 63x is a malignant tumor.
マッピング機能157は、興味領域認識機能154による興味領域63の組織の種類の認識結果に基づいて、興味領域63に複数種類の組織が含まれるか否かを判定する。マッピング機能157は、興味領域63に複数種類の組織が含まれる場合には、組織の種類ごとに、検体画像51上の対象領域54を表す図形を、異なる表示態様で描画する。
The
例えば、図21に示す表示例1~3では、マッピング機能157は、興味領域63g,63hに対応する対象領域54g,54hと、興味領域63xに対応する対象領域54xとを異なる表示態様で描写する。例えば、マッピング機能157は、対象領域54g,54hと対象領域54xとを、異なる色の線分で表示する。なお、表示態様の差異は、これに限定されるものではない。
For example, in display examples 1 to 3 shown in FIG. 21, the
また、表示例1では、マッピング機能157は、対象領域54xを、対象領域54g,54hに重畳して表示させている。悪性腫瘍の方が良性腫瘍よりも病理診断における優先度が高いため、マッピング機能157は、このような描画により、対象領域54xが対象領域54g,54hで隠れることを回避する。なお、描画の際の優先度は、興味領域認識機能154が決定するものとしても良い。また、ユーザによる優先度を変更する操作によって、描画の際の優先度が変更されても良い。
In addition, in display example 1, the
また、表示例2では、マッピング機能157は、対象領域54x,54g,54hを表す線分の位置をずらして描画する。これにより、全ての対象領域54x,54g,54hに対応する線分が、検体画像51上に表示される。
In addition, in display example 2, the
また、表示例3では、マッピング機能157は、対象領域54xを表す線分の太さと、対象領域54g,54hを表す線分の太さとを変更して描画する。これにより、全ての対象領域54x,54g,54hに対応する線分が、検体画像51上に表示される。
In addition, in display example 3, the
表示例1~3のうち、いずれの態様で検体画像51上の対象領域54を表す図形が描画されるかは、例えばユーザが選択可能であっても良いし、予め定められていてもよい。 Which of the display examples 1 to 3 in which the figure representing the target area 54 on the sample image 51 is drawn may be selectable by the user, for example, or may be predetermined.
(変形例2)
また、上述の実施形態では、マッピング機能157は、興味領域63に相当する対象領域54を検体画像51上にマッピングしたが、マッピングの対象はこれに限定されるものではない。
(Variation 2)
In the above embodiment, the
図22は、変形例2に係るマーカ66,56の一例を示す図である。本変形例においては、受付機能152は、図22の上段に示すように、標本画像61上で、例えば注意を要する箇所にマーカ66を入力するユーザの操作を受け付ける。
Fig. 22 is a diagram showing an example of markers 66, 56 according to Modification 2. In this modification, the
マッピング機能157は、標本画像61上に記載されたマーカ66に相当する検体画像51上の位置を特定し、特定した位置に、マーカ56を描画する。このような処理により、マッピング機能157は、標本画像61上に記載されたマーカ66を、検体画像51上にマッピングする。
The
標本画像61上に記載されたマーカ66に相当する検体画像51上の位置は、例えば、標本画像61上でマーカ66が描出された画素の代表座標に対応する検体画像51上の座標である。代表座標は、標本画像61上でマーカ66が描出された複数の画素の座標群のうちのいずれか一の点を示す座標である。例えば、図22に示すようにマーカ66の形状が三角形である場合は、三角形の先端部の座標が代表座標となる。また、マーカ66の形状が円形である場合は、円形の中心の座標が代表座標となる。また、(1)式で説明したように、補正後の切り出し線53の左端部の座標を基準にオフセットされても良い。
The position on the specimen image 51 corresponding to the marker 66 written on the
本変形例の情報処理装置100によれば、標本画像61上で、注意を要する箇所が、検体画像51においてどの位置に相当するのかを、医師等が容易に把握することができる。
According to the
なお、本変形例ではマーカ56はユーザが入力するものとしたが、マーカ56は自動的に設定されても良い。例えば、興味領域認識機能154が、Selective Searchのようなルールベースによる画像処理または深層学習等によって、注意を要すると認識した領域に、マーカ56を設定しても良い。注意を要する領域とは、例えば、悪性腫瘍が血管に達している領域等であるが、これに限定されるものではない。また、マーカ56が示す箇所は、興味領域63内でも良いし、興味領域63外でも良い。 In this modified example, the marker 56 is input by the user, but the marker 56 may be set automatically. For example, the region of interest recognition function 154 may set the marker 56 in a region that is recognized as requiring attention by rule-based image processing such as Selective Search or deep learning. A region requiring attention is, for example, a region where a malignant tumor has reached a blood vessel, but is not limited to this. Furthermore, the location indicated by the marker 56 may be inside or outside the region of interest 63.
(変形例3)
上述の実施形態では、情報処理装置100は、ユーザによる切り出し位置等の変更操作を受け付け可能であることを説明した。さらに、情報処理装置100は、興味領域63の寸法を修正するユーザの操作を受け付け可能であっても良い。
(Variation 3)
In the above embodiment, it has been described that the
図23は、変形例3に係るレンジバー91~93の長さの変更操作の一例を示す図である。レンジバー91~93は、組織領域62に含まれる興味領域63の幅および幅方向の位置を示す。なお、図23では、興味領域63の輪郭線は非表示としているが、レンジバー91~93だけではなく、興味領域63の輪郭線も表示されても良い。 Figure 23 is a diagram showing an example of an operation for changing the length of range bars 91 to 93 according to Modification Example 3. Range bars 91 to 93 indicate the width and widthwise position of a region of interest 63 included in a tissue region 62. Note that in Figure 23, the contour of the region of interest 63 is not displayed, but the contour of the region of interest 63 may be displayed in addition to the range bars 91 to 93.
受付機能152は、例えば、ユーザがマウスのポインタ9等でレンジバー91~93の端部をドラッグアンドドロップすることにより、レンジバー91~93の長さおよび位置を変更する操作を受け付ける。レンジバー91~93の長さおよび位置を変更する操作は、興味領域63の寸法を補正するユーザの操作の一例である。
The
マッピング機能157は、ユーザによって補正された興味領域63の寸法に基づいて、検体画像51上の対象領域54の寸法を変更する。
The
図24は、変形例3に係る操作画面144の一例を示す図である。操作画面144は、表示制御機能158によって表示される。操作画面144は、例えば、検体画像51および標本画像61を含む。また、例えば、受付機能152が、興味領域修正ボタン83を押下するユーザの操作を受け付けた場合、表示制御機能158は、レンジバー94、95を操作画面144上に表示する。
FIG. 24 is a diagram showing an example of an operation screen 144 relating to variant example 3. The operation screen 144 is displayed by the
図24に示すレンジバー94が対応づけられた興味領域63は、検体画像51上の対象領域54aに対応する。この場合、ユーザの操作によってレンジバー94の長さが変更された場合、マッピング機能157は、検体画像51上の対象領域54aの幅を変更する。
The region of interest 63 associated with the range bar 94 shown in FIG. 24 corresponds to the target region 54a on the sample image 51. In this case, when the length of the range bar 94 is changed by a user operation, the
なお、図23、図24では、興味領域63の幅および幅方向の位置のみを変更していたが、幅方向と垂直に交差する方向の興味領域63の長さについても、ユーザが変更可能であっても良い。例えば、図23では、標本組織6の断面が撮像されているが、検体5が消化器の粘膜および粘膜下層である場合、標本画像61の縦方向、つまり粘膜および粘膜下層の深さ方向について、興味領域63の範囲をユーザが変更または新規に設定可能であっても良い。
23 and 24, only the width and widthwise position of the region of interest 63 are changed, but the user may also be able to change the length of the region of interest 63 in a direction perpendicular to the widthwise direction. For example, in FIG. 23, a cross section of the
また、興味領域63の寸法を補正するユーザの操作は、レンジバー91~93を変更する操作に限定されるものではなく、ピクセル単位、または一定の大きさの画像領域単位で興味領域63の寸法をユーザが指定可能であっても良い。また、興味領域63の寸法の修正だけではなく、ユーザによる興味領域63の削除も可能であっても良い。 Furthermore, the user's operation to correct the dimensions of the region of interest 63 is not limited to the operation of changing the range bars 91-93, but may be able to specify the dimensions of the region of interest 63 in units of pixels or in units of image regions of a certain size. Furthermore, in addition to modifying the dimensions of the region of interest 63, the user may also be able to delete the region of interest 63.
(変形例4)
また、情報処理装置100は、ユーザの操作に応じて、興味領域63の面積、最長幅、または深さ方向の長さ等の数値情報を、検体画像51または標本画像61に表示しても良い。
(Variation 4)
Furthermore, the
図25は、変形例4に係る操作画面145の一例を示す図である。操作画面145は、検体画像51および標本画像61を含む。例えば、受付機能152が、長さ計測ボタン84を押下するユーザの操作を受け付けた後に、いずれかの組織領域62を選択するユーザの操作を受け付けたとする。この場合、表示制御機能158は、選択された組織領域62における興味領域63の最長幅の数値を表示する。
FIG. 25 is a diagram showing an example of an operation screen 145 according to Modification Example 4. The operation screen 145 includes a specimen image 51 and a
例えば、表示制御機能158は、標本画像61上の興味領域63の最長幅と、標本画像61を撮像した撮像装置の拡大率とに基づいて、実際の興味領域63の最長幅を算出し、算出結果を表示するものとする。
For example, the
なお、最長幅の算出は、興味領域認識機能154が実行するものとしても良い。また、興味領域63の面積、最長幅、または深さ方向の長さ等の数値情報は、表示制御機能158によって表示されるのではなく、マッピング機能157によって検体画像51または標本画像61上に描画されるものとしても良い。
The calculation of the maximum width may be performed by the region of interest recognition function 154. Furthermore, numerical information such as the area, maximum width, or depth of the region of interest 63 may be drawn on the specimen image 51 or the
なお、図25では、表示制御機能158が標本画像61上に数値情報を表示したが、検体画像51上に数値情報を表示しても良い。
In FIG. 25, the
(変形例5)
また、医療機関等における運用ルールによっては、標本組織6の撮像面の切り出し位置対する位置が、切り出し位置によって異なる場合がある。
(Variation 5)
Furthermore, depending on the operating rules of a medical institution or the like, the position of the imaging plane of the
図26は、変形例5に係る切り出し位置と組織領域62の関係の一例を示す図である。図26に示す切り出し位置ID“1”~“3”については、切り出し位置の上方が組織領域62i~62kに対応する。また、切り出し位置ID“4”については、切り出し位置の下方が組織領域62lに対応する。図26では、切り出し位置ID“4”が切り出し位置の下方が組織領域62lに対応することを、切り出し位置IDを示す番号“4”を上下反転させて表しているが、当該表示は必須ではない。また、他の手法によって、切り出し位置の上方と下方のいずれが組織領域62に対応するかが表されても良い。 Figure 26 is a diagram showing an example of the relationship between the cut-out positions and tissue regions 62 according to variant example 5. For cut-out position IDs "1" to "3" shown in Figure 26, the upper part of the cut-out position corresponds to tissue regions 62i to 62k. For cut-out position ID "4", the lower part of the cut-out position corresponds to tissue region 62l. In Figure 26, the number "4" indicating the cut-out position ID is inverted upside down to show that the lower part of the cut-out position for cut-out position ID "4" corresponds to tissue region 62l, but this display is not essential. Also, it may be shown by other methods whether the upper or lower part of the cut-out position corresponds to tissue region 62.
また、例えば、切り出し位置ID“4”の上方から、さらに標本組織6が切り取られた場合、1つの切り出し位置ID“4”に上方と下方の2つ分の標本領域IDが対応付けられても良い。この場合、上方と下方の2つ分の標本領域IDは、例えば、“4-1”、“4-2”のように枝番で表される。
For example, if a
(変形例6)
上述の実施形態では、検体画像51は検体5の表面が上方から撮像された画像であり、標本画像61は検体5から切り出された標本組織6の断面が高倍率で撮像された画像であるものとしたが、撮像方向は、これらに限定されるものではない。
(Variation 6)
In the above-described embodiment, the specimen image 51 is an image of the surface of the specimen 5 captured from above, and the
例えば、検体画像51は検体5の断面が撮像された画像であっても良い。この場合、マッピング機能157は、標本画像61において認識された興味領域63の輪郭に相当する範囲を、対象領域54として、検体画像51にマッピングしても良い。
For example, the specimen image 51 may be an image of a cross section of the specimen 5. In this case, the
図27は、変形例6に係る検体画像51および標本画像61の一例を示す図である。図27に示す検体画像51および標本画像61は、共に検体5の断面を撮像面とする画像である。このため、マッピング機能157は、標本画像61における興味領域63の輪郭を、検体画像51の倍率に合わせて補正した結果を、対象領域54として、検体画像51にマッピングする。本変形例によれば、検体画像51および標本画像61において検体5の撮像方向が同じ向きである場合には、興味領域63を幅方向の長さ等の一次元情報にすることなく、より高精度に検体画像51上にマッピングすることができる。
Figure 27 is a diagram showing an example of a specimen image 51 and a
(変形例7)
マッピング機能157は、さらに、標本画像61における興味領域63の深さ方向の長さに応じて、検体画像51上の対象領域54を、異なる態様で描画しても良い。
(Variation 7)
The
図28は、変形例7に係る検体画像51に対する興味領域63の深さ情報のマッピングの一例を示す図である。例えば、マッピング機能157は、興味領域63における検体5の深さ方向の長さに応じて、ヒートマップのように表示態様を変更した対象領域54を描画する。例えば、興味領域63における検体5の深さ方向の長さが長いほど、マッピング機能157は、対象領域54の色が濃くなるように描画しても良い。また、マッピング機能157は、興味領域63における検体5の深さ方向の長さが長いほど、対象領域54の色が赤色に近づくように、異なる色のグラデーションで対象領域54を表示しても良い。
Figure 28 is a diagram showing an example of mapping of depth information of the region of interest 63 for the sample image 51 according to the seventh modification. For example, the
マッピング機能157は、例えば、標本画像61内の相対的な長さの差異に応じて、対象領域54の表示態様が異なるように描画しても良い。
The
また、興味領域認識機能154が、標本画像61を撮像した顕微鏡の拡大率に基づいて、興味領域63の実際の深さ方向の長さを算出しても良い。この場合、マッピング機能157は、算出された興味領域63の実際の深さ方向の長さの絶対値に応じて、対象領域54の表示態様が異なるように描画しても良い。
The region of interest recognition function 154 may also calculate the actual depth length of the region of interest 63 based on the magnification of the microscope that captured the
また、マッピング機能157は、上述の実施形態において、(1)式によって興味領域63の寸法を補正し、補正結果を対象領域54の寸法として認識した手法と同様に、検体画像51の切り出し位置における検体領域52の幅方向の長さと、標本画像61における切り出し位置に対応する組織領域62の幅方向の長さと、の差異から検体画像51と標本画像61の幅方向の倍率を算出し、算出した倍率を、興味領域63の深さ方向の長さに乗算した値に応じて、対象領域54の表示態様が異なるように描画しても良い。
In addition, similar to the method in the above embodiment in which the dimensions of the region of interest 63 are corrected using equation (1) and the correction result is recognized as the dimensions of the target region 54, the
本変形例に寄れば、興味領域63に描出された病巣組織等の相対的または絶対的な深さが検体画像51上に表示されるため、医師等が病理診断をする際の参考情報を提示することができる。 In this modified example, the relative or absolute depth of the lesion tissue depicted in the region of interest 63 is displayed on the specimen image 51, providing reference information for doctors and others to use when making a pathological diagnosis.
(変形例8)
また、マッピング機能157は、標本画像61に描出された標本組織6の表面の起伏を、検体画像51に描写しても良い。例えば、検体5が消化器の粘膜および粘膜下層である場合に、標本組織6の断面を撮像した標本画像61によって検体5の粘膜表面の起伏が特定可能である。
(Variation 8)
Furthermore, the
マッピング機能157は、当該起伏の相対的または絶対的な高低差を、検体5の面膜面側を撮像面として撮像された検体画像51上に、等高線等によって描画する。なお、描画の手法は等高線に限定されるものではなく、ヒートマップのように色のグラデーションによって高低差を表すものであっても良い。
The
(変形例9)
また、上述の実施形態では、ユーザが任意の位置に、切り出し線53を設定していたが、情報処理装置100は、ユーザが切り出し線53を設定する際の支援をしても良い。
(Variation 9)
In the above embodiment, the user sets the cut-out line 53 at an arbitrary position. However, the
図29は、変形例9に係る切り出し位置の設定画面143の一例を示す図である。切り出し位置設定機能160は、例えば、Selective Searchのようなルールベースによる画像処理または深層学習によって、検体画像51において病巣が含まれる可能性の高い領域を推定する。表示制御機能158は、切り出し位置設定機能160によって推定された領域を、切り出し位置の設定画面143上に表示させる。図29に示す領域500は、検体画像51において病巣が含まれる可能性の高い領域の一例である。
FIG. 29 is a diagram showing an example of the cut-out position setting screen 143 relating to the ninth modified example. The cut-out position setting function 160 estimates an area in the specimen image 51 that is likely to contain a lesion, for example, by rule-based image processing such as selective search or deep learning. The
本変形例の情報処理装置100によれば、ユーザが、病巣が含まれる可能性の高い領域500の断面を取得できるように、切り出し位置を設定することを、支援することができる。
The
(変形例10)
また、上述の実施形態では、情報処理装置100から、マッピング処理後の検体画像51等を外部装置に送信するものとしたが、情報処理装置100の記憶回路120に保存されたマッピング処理後の検体画像51に対する外部装置のアクセスを許可しても良い。例えば、外部装置がPC等である場合、該PCを使用するユーザは、記憶回路120に保存されたマッピング処理後の検体画像51を、該PCのディスプレイ140で閲覧することができる。また、情報処理装置100の記憶回路120に保存されたマッピング処理後の検体画像51等を、外部装置にダウンロードすることを許可しても良い。
(Variation 10)
In the above embodiment, the sample image 51 after mapping processing and the like are transmitted from the
以上説明した少なくとも1つの実施形態によれば、検体画像51に描出された検体5における標本組織6の切り出し位置と、標本画像61に描出された標本組織6上の病巣領域等の興味領域63との対応関係を、医師等が把握することを容易にすることができる。
According to at least one of the embodiments described above, it is possible to easily allow a doctor or the like to grasp the correspondence between the cut-out position of the
いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, modifications, and combinations of embodiments can be made without departing from the spirit of the invention. These embodiments and their modifications are within the scope of the invention and its equivalents as set forth in the claims, as well as the scope and spirit of the invention.
5 検体
6,6a~6e 標本組織
51 検体画像
52 検体領域
53,53a~53f,531,532 切り出し線
54,54a~54c,54g,54h,54x 対象領域
56,66 マーカ
61,61a,61b 標本画像
62,62a~62f,62i~62l,621,622 組織領域
63,63a~63c,63g,63h,63x 興味領域
65a~65c 重心
91~94 レンジバー
100 情報処理装置
110 NWインタフェース
120 記憶回路
130 入力インタフェース
140 ディスプレイ
141 設定操作画面
142 マッピング表示画面
143 切り出し位置の設定画面
144~146 操作画面
150 処理回路
151 取得機能
152 受付機能
153 組織領域認識機能
154 興味領域認識機能
155 切り出し位置認識機能
156 対応付け機能
157 マッピング機能
158 表示制御機能
159 送信機能
160 切り出し位置設定機能
201 検体画像保管装置
202 標本画像保管装置
300 ネットワーク
P 患者
S 情報処理システム
5
Claims (15)
前記第2の画像から、前記標本組織が描出された組織領域を認識する組織領域認識部と、
前記組織領域に含まれる興味領域を認識する興味領域認識部と、
前記第1の画像における前記標本組織の切り出し位置を認識する切り出し位置認識部と、
前記第1の画像における前記切り出し位置と、前記第2の画像における前記組織領域とを対応付ける対応付け部と、
前記切り出し位置と前記組織領域との対応付けに基づいて、前記第2の画像の前記興味領域と、前記第1の画像において前記興味領域に相当する対象領域とをマッピングするマッピング部と、
前記マッピング部によって前記興味領域と前記対象領域とがマッピングされた前記第1の画像および前記第2の画像を対応付けて、それぞれ別個の画像として表示部の同一画面上に表示させ、前記第1の画像上の前記切り出し位置と、前記切り出し位置から切り出された前記標本組織の前記第2の画像上の表示位置とを対応付けて表示させる表示制御部と、
を備える情報処理装置。 an acquisition unit that acquires a first image, which is an image of an entire specimen, and a second image, which is an image of at least one specimen tissue cut out from the specimen, at a higher magnification than the first image;
a tissue area recognition unit that recognizes a tissue area in which the sample tissue is depicted from the second image;
a region of interest recognition unit for recognizing a region of interest included in the tissue region;
an excision position recognition unit that recognizes an excision position of the sample tissue in the first image;
a correspondence unit that corresponds the cut-out position in the first image with the tissue region in the second image;
a mapping unit that maps the region of interest in the second image to a target region corresponding to the region of interest in the first image based on the correspondence between the extraction position and the tissue region;
a display control unit that causes the first image and the second image, in which the region of interest and the target region are mapped by the mapping unit, to correspond to each other and display them as separate images on the same screen of a display unit, and that causes the cut-out position on the first image to correspond to a display position on the second image of the sample tissue cut out from the cut-out position;
An information processing device comprising:
前記対応付け部は、前記受付部によって受け付けられた前記ユーザの操作に基づいて、前記切り出し位置と前記組織領域との対応付けを修正する、
請求項1に記載の情報処理装置。 a receiving unit that receives a user's operation to correct the correspondence between the extraction position in the first image and the tissue region in the second image,
The associating unit corrects the association between the cut-out position and the tissue region based on the user's operation accepted by the accepting unit.
The information processing device according to claim 1 .
前記受付部によって受け付けられた前記切り出し位置の指定に基づいて、前記第1の画像に切り出し位置を設定する切り出し位置設定部と、をさらに備える、
請求項1または2に記載の情報処理装置。 a receiving unit that receives a user's designation of the cut-out position in the first image;
a cut-out position setting unit that sets a cut-out position in the first image based on the designation of the cut-out position accepted by the accepting unit,
3. The information processing device according to claim 1 or 2 .
請求項1から3のいずれか1項に記載の情報処理装置。 the mapping unit corrects a size of the region of interest based on a difference between a size of a specimen region in which the specimen is depicted at the cut-out position of the first image and a size of the tissue region corresponding to the cut-out position, and maps the region of interest with the corrected size onto the target region.
The information processing device according to claim 1 .
請求項1から4のいずれか1項に記載の情報処理装置。 The mapping unit draws a figure representing the target region in the vicinity of the extraction position associated with the tissue region including the region of interest.
The information processing device according to claim 1 .
請求項1から4のいずれか1項に記載の情報処理装置。 the mapping unit draws a figure representing the target region on a side of a cut-out line indicating the cut-out position associated with the tissue region including the region of interest, where the sample tissue is cut out;
The information processing device according to claim 1 .
前記マッピング部は、前記ユーザによって補正された前記興味領域の寸法に基づいて前記対象領域の寸法を変更する、
請求項1から6のいずれか1項に記載の情報処理装置。 a reception unit that receives a user's operation to correct a dimension of the region of interest,
The mapping unit changes a size of the target region based on a size of the region of interest corrected by the user.
The information processing device according to claim 1 .
前記興味領域認識部は、複数の標本画像と、前記複数の標本画像において病巣部位が描出された画像領域との対応関係が学習された学習済みモデルに前記第2の画像を入力し、前記学習済みモデルから出力された画像領域を、前記興味領域が描出された画像領域として認識する、
請求項1から7のいずれか1項に記載の情報処理装置。 the region of interest is a lesion site in the specimen tissue,
The region of interest recognition unit inputs the second image to a trained model in which a correspondence relationship between a plurality of specimen images and an image region in which a lesion site is depicted in the plurality of specimen images is trained, and recognizes an image region output from the trained model as an image region in which the region of interest is depicted.
The information processing device according to claim 1 .
請求項1から8のいずれか1項に記載の情報処理装置。 The mapping unit renders the target region in the first image in a different manner depending on a length of the region of interest in the second image in a depth direction of the specimen.
The information processing device according to claim 1 .
前記マッピング部は、前記興味領域に複数種類の組織が含まれる場合には、前記組織の種類ごとに、前記第1の画像における前記対象領域を、異なる表示態様で描画する、
請求項1から9のいずれか1項に記載の情報処理装置。 the region of interest comprises any of the following tissues: a tumor, a mucosa, a muscularis mucosa, a submucosa, or a muscularis propria;
When the region of interest includes a plurality of types of tissue, the mapping unit renders the target region in the first image in a different display manner for each type of tissue.
The information processing device according to claim 1 .
請求項1から10のいずれか1項に記載の情報処理装置。 A transmission unit that transmits the first image onto which the target region corresponding to the region of interest is mapped by the mapping unit to an external device.
The information processing device according to claim 1 .
請求項1から11のいずれか1項に記載の情報処理装置。The information processing device according to claim 1 .
前記表示制御部は、前記第1の画像上の前記切り出し位置ごとに、前記第2の画像のうち該切り出し位置に対応付けられた前記組織領域が描出された部分が切り出された画像を表示する、
請求項1から11のいずれか1項に記載の情報処理装置。 the first image includes a plurality of the cropping positions;
the display control unit displays, for each of the cut-out positions on the first image, an image in which a portion of the second image in which the tissue region corresponding to the cut-out position is depicted is cut out.
The information processing device according to claim 1 .
請求項1から11のいずれか1項に記載の情報処理装置。The information processing device according to claim 1 .
前記画像保管装置は、
検体の全体が撮像された画像である第1の画像と、前記検体から切り出された少なくとも1つの標本組織が前記第1の画像よりも高倍率で撮像された画像である第2の画像とを保管し、
前記情報処理装置は、
前記画像保管装置から、前記第1の画像と前記第2の画像とを取得する取得部と、
前記第2の画像から、前記標本組織が描出された組織領域を認識する組織領域認識部と、
前記組織領域に含まれる興味領域を認識する興味領域認識部と、
前記第1の画像における前記標本組織の切り出し位置を認識する切り出し位置認識部と、
前記第1の画像における前記切り出し位置と、前記第2の画像における前記組織領域とを対応付ける対応付け部と、
前記切り出し位置と前記組織領域との対応付けに基づいて、前記第2の画像の前記興味領域と、前記第1の画像において前記興味領域に相当する対象領域とをマッピングするマッピング部と、
前記マッピング部によって前記興味領域と前記対象領域とがマッピングされた前記第1の画像および前記第2の画像を対応付けて、それぞれ別個の画像として表示部の同一画面上に表示させ、前記第1の画像上の前記切り出し位置と、前記切り出し位置から切り出された前記標本組織の前記第2の画像上の表示位置とを対応付けて表示させる表示制御部と、を備える、
情報処理システム。 An information processing system including an image storage device and an information processing device,
The image storage device includes:
A first image is an image of the entire specimen, and a second image is an image of at least one specimen tissue cut out from the specimen and captured at a higher magnification than the first image;
The information processing device includes:
an acquisition unit that acquires the first image and the second image from the image storage device;
a tissue area recognition unit that recognizes a tissue area in which the sample tissue is depicted from the second image;
a region of interest recognition unit for recognizing a region of interest included in the tissue region;
an excision position recognition unit that recognizes an excision position of the sample tissue in the first image;
a correspondence unit that corresponds the cut-out position in the first image with the tissue region in the second image;
a mapping unit that maps the region of interest in the second image to a target region corresponding to the region of interest in the first image based on the correspondence between the extraction position and the tissue region;
a display control unit that causes the first image and the second image, in which the region of interest and the target region are mapped by the mapping unit, to be associated with each other and to be displayed as separate images on the same screen of a display unit, and causes the cut-out position on the first image to be associated with a display position on the second image of the sample tissue cut out from the cut-out position.
Information processing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020117121A JP7546390B2 (en) | 2020-07-07 | 2020-07-07 | Information processing device and information processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020117121A JP7546390B2 (en) | 2020-07-07 | 2020-07-07 | Information processing device and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022014659A JP2022014659A (en) | 2022-01-20 |
JP7546390B2 true JP7546390B2 (en) | 2024-09-06 |
Family
ID=80782904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020117121A Active JP7546390B2 (en) | 2020-07-07 | 2020-07-07 | Information processing device and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7546390B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276545A (en) | 1999-03-29 | 2000-10-06 | Hitachi Ltd | Pathological image system |
JP2011137780A (en) | 2010-01-04 | 2011-07-14 | Nec Corp | Image diagnosis method, image diagnosis device, and image diagnosis program |
JP2013165953A (en) | 2012-01-20 | 2013-08-29 | Canon Inc | Image processing apparatus and image processing method |
JP2015087167A (en) | 2013-10-29 | 2015-05-07 | キヤノン株式会社 | Image processing method and image processing system |
JP2019000340A (en) | 2017-06-15 | 2019-01-10 | 一般社団法人白亜会 | Pathological diagnosis support apparatus |
-
2020
- 2020-07-07 JP JP2020117121A patent/JP7546390B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000276545A (en) | 1999-03-29 | 2000-10-06 | Hitachi Ltd | Pathological image system |
JP2011137780A (en) | 2010-01-04 | 2011-07-14 | Nec Corp | Image diagnosis method, image diagnosis device, and image diagnosis program |
JP2013165953A (en) | 2012-01-20 | 2013-08-29 | Canon Inc | Image processing apparatus and image processing method |
JP2015087167A (en) | 2013-10-29 | 2015-05-07 | キヤノン株式会社 | Image processing method and image processing system |
JP2019000340A (en) | 2017-06-15 | 2019-01-10 | 一般社団法人白亜会 | Pathological diagnosis support apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2022014659A (en) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110517758B (en) | Display device and image display method using the same | |
US7194118B1 (en) | System for optically sectioning and mapping surgically excised tissue | |
US9373181B2 (en) | System and method for enhanced viewing of rib metastasis | |
JP5995449B2 (en) | Information processing apparatus and control method thereof | |
JP6886260B2 (en) | Image processing equipment, its control method, and programs | |
US11344281B2 (en) | Ultrasound visual protocols | |
JP5442542B2 (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program | |
CN106232010A (en) | For detecting the system and method for trachea | |
EP3806101A1 (en) | Training data collecting device, training data collecting method and program, training system, trained model, and endoscope image processing device | |
JP2012073179A (en) | Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support and recording medium with control program recorded thereon | |
US11344371B2 (en) | Visualization of three-dimensional image data on a two-dimensional image | |
CN113490842A (en) | Information processing apparatus, information processing method, and information processing system | |
US20210319881A1 (en) | Medical system, medical apparatus, and medical method | |
CN110993067A (en) | Medical image labeling system | |
JP5121399B2 (en) | Image display device | |
JP6258084B2 (en) | Medical image display device, medical image display system, and medical image display program | |
JP7546390B2 (en) | Information processing device and information processing system | |
CN105447870A (en) | Extraction method and apparatus for body tissues in medical image | |
US20230329805A1 (en) | Pointer tool for endoscopic surgical procedures | |
US20220020208A1 (en) | Measurement method, measurement device, and recording medium | |
CN114494465B (en) | Automatic scanning-oriented tissue pathological section detection target positioning method and device | |
US20220409324A1 (en) | Systems and methods for telestration with spatial memory | |
JP7431592B2 (en) | Image processing device, image processing system, and image processing method | |
JP2022162437A (en) | Information processing apparatus, information processing method, and program | |
JP4635077B2 (en) | Computer-aided diagnosis device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201202 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7546390 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |