Nothing Special   »   [go: up one dir, main page]

JP7546390B2 - Information processing device and information processing system - Google Patents

Information processing device and information processing system Download PDF

Info

Publication number
JP7546390B2
JP7546390B2 JP2020117121A JP2020117121A JP7546390B2 JP 7546390 B2 JP7546390 B2 JP 7546390B2 JP 2020117121 A JP2020117121 A JP 2020117121A JP 2020117121 A JP2020117121 A JP 2020117121A JP 7546390 B2 JP7546390 B2 JP 7546390B2
Authority
JP
Japan
Prior art keywords
image
region
specimen
cut
tissue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020117121A
Other languages
Japanese (ja)
Other versions
JP2022014659A (en
Inventor
学 高松
直子 津山
賢吾 竹内
秀謙 溝部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japanese Foundation for Cancer Research
Canon Medical Systems Corp
Original Assignee
Japanese Foundation for Cancer Research
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japanese Foundation for Cancer Research, Canon Medical Systems Corp filed Critical Japanese Foundation for Cancer Research
Priority to JP2020117121A priority Critical patent/JP7546390B2/en
Publication of JP2022014659A publication Critical patent/JP2022014659A/en
Application granted granted Critical
Publication of JP7546390B2 publication Critical patent/JP7546390B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本明細書及び図面に開示の実施形態は、情報処理装置および情報処理システムに関する。 The embodiments disclosed in this specification and the drawings relate to an information processing device and an information processing system.

従来、病理学の分野等において、検体である組織片の全体が撮像された検体画像と、該検体から切り出された標本組織が検体画像よりも高倍率で撮像された標本画像とを、デジタルデータとして保存する技術が知られている。このような病理検体画像および標本画像は、例えば、医師による病理組織診断に使用される。 In the field of pathology and the like, there is known a technique for storing, as digital data, a specimen image in which an entire tissue slice serving as a specimen is captured, and a specimen image in which a tissue specimen cut out from the specimen is captured at a higher magnification than the specimen image. Such pathological specimen images and specimen images are used, for example, by doctors for pathological tissue diagnosis.

特開2019-000340号公報JP 2019-000340 A 特開2019-095853号公報JP 2019-095853 A

本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、検体画像に描出された検体における標本組織の切り出し位置と、標本画像に描出された標本組織上の病巣領域等の興味領域との対応関係を、医師等が把握することを容易にすることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置づけることもできる。 One of the problems that the embodiments disclosed in this specification and the drawings attempt to solve is to make it easier for doctors and other such personnel to grasp the correspondence between the cut-out position of the specimen tissue in the specimen depicted in the specimen image and the region of interest, such as a lesion region, on the specimen tissue depicted in the specimen image. However, the problems that the embodiments disclosed in this specification and the drawings attempt to solve are not limited to the above problem. Problems corresponding to the effects of each configuration shown in the embodiments described below can also be positioned as other problems.

実施形態に係る情報処理装置は、取得部と、組織領域認識部と、興味領域認識部と、切り出し位置認識部と、対応付け部と、マッピング部と、表示制御部とを備える。取得部は、検体の全体が撮像された画像である第1の画像と、検体から切り出された少なくとも1つの標本組織が第1の画像よりも高倍率で撮像された画像である第2の画像と、を取得する。組織領域認識部は、第2の画像から、標本組織が描出された組織領域を認識する。興味領域認識部は、組織領域に含まれる興味領域を認識する。切り出し位置認識部は、第1の画像における標本組織の切り出し位置を認識する。対応付け部は、第1の画像における切り出し位置と、第2の画像における組織領域とを対応付ける。マッピング部は、切り出し位置と組織領域との対応付けに基づいて、第2の画像の興味領域と、第1の画像において興味領域に相当する対象領域とをマッピングする。表示制御部は、マッピング部によって興味領域と対象領域とがマッピングされた第1の画像および第2の画像を対応付けて、それぞれ別個の画像として表示部の同一画面上に表示させ、第1の画像上の切り出し位置と、切り出し位置から切り出された標本組織の第2の画像上の表示位置とを対応付けて表示させる。 The information processing device according to the embodiment includes an acquisition unit, a tissue region recognition unit, a region of interest recognition unit, an excision position recognition unit, a correspondence unit, a mapping unit , and a display control unit . The acquisition unit acquires a first image, which is an image of an entire specimen, and a second image, which is an image of at least one specimen tissue excised from the specimen at a higher magnification than the first image. The tissue region recognition unit recognizes a tissue region in which the specimen tissue is depicted from the second image. The region of interest recognition unit recognizes a region of interest included in the tissue region. The excision position recognition unit recognizes an excision position of the specimen tissue in the first image. The correspondence unit associates the excision position in the first image with the tissue region in the second image. The mapping unit maps the region of interest in the second image with a target region corresponding to the region of interest in the first image based on the correspondence between the excision position and the tissue region. The display control unit associates the first image and the second image, in which the region of interest and the target region have been mapped by the mapping unit, and displays them as separate images on the same screen of the display unit, and associates the cut-out position on the first image with the display position on the second image of the specimen tissue cut out from the cut-out position.

図1は、実施形態に係る情報処理システムの全体構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of an overall configuration of an information processing system according to an embodiment. 図2は、実施形態に係る検体画像および標本画像について説明する図である。FIG. 2 is a diagram illustrating a sample image and a specimen image according to the embodiment. 図3は、実施形態に係る標本画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of a specimen image according to the embodiment. 図4は、実施形態に係る興味領域の一例を示す図である。FIG. 4 is a diagram illustrating an example of a region of interest according to the embodiment. 図5は、実施形態に係る深層学習による興味領域の認識処理を説明する図である。FIG. 5 is a diagram illustrating a process of recognizing a region of interest by deep learning according to an embodiment. 図6は、実施形態に係る切り出し位置の一例を示す図である。FIG. 6 is a diagram illustrating an example of a cut-out position according to the embodiment. 図7は、実施形態に係る切り出し位置と組織領域との対応付けの一例を示す図である。FIG. 7 is a diagram showing an example of association between extraction positions and tissue regions according to the embodiment. 図8は、実施形態に係る標本画像に描出されたラベルの一例を示す図である。FIG. 8 is a diagram illustrating an example of a label depicted in a specimen image according to the embodiment. 図9は、実施形態に係る標本領域IDの設定操作画面の一例を示す図である。FIG. 9 is a diagram showing an example of a specimen region ID setting operation screen according to the embodiment. 図10は、実施形態に係るマッピングの一例を示す図である。FIG. 10 is a diagram illustrating an example of mapping according to the embodiment. 図11は、実施形態に係る標本画像における組織領域の重心群の並びの一例を示す図である。FIG. 11 is a diagram showing an example of an arrangement of centers of gravity of tissue regions in a specimen image according to the embodiment. 図12は、実施形態に係る標本画像における組織領域の重心群の並びの他の一例を示す図である。FIG. 12 is a diagram showing another example of an arrangement of the centroids of tissue regions in a specimen image according to the embodiment. 図13は、実施形態に係るマッピング表示画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a mapping display screen according to the embodiment. 図14は、実施形態に係るマッピング表示画面の他の一例を示す図である。FIG. 14 is a diagram showing another example of the mapping display screen according to the embodiment. 図15は、実施形態に係るマッピング表示画面の他の一例を示す図である。FIG. 15 is a diagram showing another example of the mapping display screen according to the embodiment. 図16は、実施形態に係る切り出し位置の設定画面の一例を示す図である。FIG. 16 is a diagram showing an example of a setting screen for the cut-out position according to the embodiment. 図17は、実施形態に係る切り出し位置の分割の一例を示す図である。FIG. 17 is a diagram illustrating an example of division of the cut-out position according to the embodiment. 図18は、実施形態に係る切り出し線が分割された場合における切り出し位置IDの一例を示す図である。FIG. 18 is a diagram illustrating an example of an extraction position ID when the extraction line is divided according to the embodiment. 図19は、実施形態に係る切り出し位置の設定処理の流れの一例を示すフローチャートである。FIG. 19 is a flowchart showing an example of the flow of the cut-out position setting process according to the embodiment. 図20は、実施形態に係る検体画像と標本画像のマッピング処理の流れの一例を示すフローチャートである。FIG. 20 is a flowchart showing an example of the flow of a mapping process between a sample image and a specimen image according to the embodiment. 図21は、変形例1に係る対象領域の表示態様の一例を示す図である。FIG. 21 is a diagram showing an example of a display mode of a target region according to the first modification. 図22は、変形例2に係るマーカの一例を示す図である。FIG. 22 is a diagram showing an example of a marker according to the second modification. 図23は、変形例3に係るレンジバーの長さの変更操作の一例を示す図である。FIG. 23 is a diagram showing an example of an operation for changing the length of the range bar according to the third modification. 図24は、変形例3に係る操作画面の一例を示す図である。FIG. 24 is a diagram showing an example of an operation screen according to the third modification. 図25は、変形例4に係る操作画面の一例を示す図である。FIG. 25 is a diagram showing an example of an operation screen according to the fourth modification. 図26は、変形例5に係る切り出し位置と組織領域の関係の一例を示す図である。FIG. 26 is a diagram showing an example of the relationship between the extraction position and the tissue region according to the fifth modification. 図27は、変形例6に係る検体画像および標本画像の一例を示す図である。FIG. 27 is a diagram showing an example of a specimen image and a sample image according to the sixth modification. 図28は、変形例7に係る検体画像に対する興味領域の深さ情報のマッピングの一例を示す図である。FIG. 28 is a diagram showing an example of mapping of depth information of a region of interest for a sample image according to Modification Example 7. 図29は、変形例9に係る切り出し位置の設定画面の一例を示す図である。FIG. 29 is a diagram showing an example of a cut-out position setting screen according to the ninth modification.

以下、図面を参照しながら、情報処理装置および情報処理システムの実施形態について詳細に説明する。 Below, embodiments of an information processing device and an information processing system will be described in detail with reference to the drawings.

図1は、実施形態に係る情報処理システムSの全体構成の一例を示す図である。図1に示すように、情報処理システムSは、情報処理装置100と、検体画像保管装置201と、標本画像保管装置202とを備える。情報処理装置100は、院内LAN(Local Area Network)等のネットワーク300を介して検体画像保管装置201および標本画像保管装置202と通信可能に接続している。 FIG. 1 is a diagram showing an example of the overall configuration of an information processing system S according to an embodiment. As shown in FIG. 1, the information processing system S includes an information processing device 100, a sample image storage device 201, and a specimen image storage device 202. The information processing device 100 is communicatively connected to the sample image storage device 201 and the specimen image storage device 202 via a network 300 such as an in-hospital LAN (Local Area Network).

なお、情報処理システムSは、さらに、病院情報システム(HIS:Hospital Information System)、臨床検査システム(LIS:Laboratory Information System)、及び放射線情報システム(RIS:Radiology Information System)等を含んでも良い。あるいは、情報処理システムSは、病院情報システムの一部であっても良い。また、情報処理システムSは、さらに、PC(Personal Computer)やタブレット端末等の端末装置を含んでも良い。 The information processing system S may further include a hospital information system (HIS), a laboratory information system (LIS), a radiology information system (RIS), etc. Alternatively, the information processing system S may be part of a hospital information system. The information processing system S may further include a terminal device such as a personal computer (PC) or a tablet terminal.

情報処理システムSは、例えば、病院等の医療機関、大学等の研究機関、または検査センター等に設けられる。また、情報処理システムSを構成する装置の一部または全てが、クラウド環境に設けられても良い。 The information processing system S is provided, for example, in a medical institution such as a hospital, a research institute such as a university, or an examination center. In addition, some or all of the devices constituting the information processing system S may be provided in a cloud environment.

検体画像保管装置201は、検体画像を保管する装置である。検体画像は、検体である組織片の全体が撮像された画像である。また、検体画像は、例えば、デジタルカメラ等の撮像装置によって撮像されたデジタル画像とする。検体画像は、本実施形態における第1の画像の一例である。 The specimen image storage device 201 is a device that stores specimen images. The specimen image is an image of the entire tissue piece that is the specimen. The specimen image is a digital image captured by an imaging device such as a digital camera. The specimen image is an example of a first image in this embodiment.

本実施形態においては、検体は、患者の身体や、動物等から採取された一部組織とする。例えば、検体は、内視鏡的粘膜下層はく離術(Endoscopic Submucosal Dissection: ESD)によって切除された消化器の粘膜および粘膜下層であるが、これに限定されるものではなく、開腹手術等によって切除された組織片であっても良い。 In this embodiment, the specimen is a portion of tissue collected from a patient's body, an animal, etc. For example, the specimen is the mucosa and submucosa of the digestive tract removed by endoscopic submucosal dissection (ESD), but is not limited thereto, and may be a piece of tissue removed by laparotomy, etc.

標本画像保管装置202は、標本画像を保管する装置である。標本画像は、検体である組織片から切り出された標本組織の撮像画像である。より詳細には、標本画像は、検体である組織片から切り出された少なくとも1つの標本組織が、検体画像よりも高倍率で撮像された画像である。例えば、標本画像は、スライドガラスに載せられた標本組織全体またはその一部を高精度にデジタル画像化したWSI(Whole Slide Imaging)である。また、標本画像は、電子顕微鏡で撮像された顕微鏡写真、あるいはその他の手法で撮像された画像であっても良い。標本画像は、本実施形態における第2の画像の一例である。 The specimen image storage device 202 is a device that stores specimen images. A specimen image is a captured image of a specimen tissue cut out from a tissue slice that is a specimen. More specifically, a specimen image is an image of at least one specimen tissue cut out from a tissue slice that is a specimen, captured at a higher magnification than the specimen image. For example, a specimen image is a whole slide imaging (WSI) in which the entire specimen tissue or a part of it placed on a glass slide is digitally imaged with high precision. The specimen image may also be a micrograph captured by an electron microscope, or an image captured by other techniques. The specimen image is an example of a second image in this embodiment.

検体画像保管装置201および標本画像保管装置202は、例えばサーバ装置またはPC等である。なお、検体画像保管装置201および標本画像保管装置202を総称して画像保管装置と呼んでも良い。また、図1では検体画像保管装置201と標本画像保管装置202とを、別個の装置として記載したが、検体画像保管装置201と標本画像保管装置202とは一体の装置として構成されても良い。また、検体画像保管装置201、標本画像保管装置202、および情報処理装置100が、一体の装置として構成されても良い。 The specimen image storage device 201 and the specimen image storage device 202 are, for example, a server device or a PC. The specimen image storage device 201 and the specimen image storage device 202 may be collectively referred to as an image storage device. Although the specimen image storage device 201 and the specimen image storage device 202 are shown as separate devices in FIG. 1, the specimen image storage device 201 and the specimen image storage device 202 may be configured as an integrated device. The specimen image storage device 201, the specimen image storage device 202, and the information processing device 100 may be configured as an integrated device.

図2は、実施形態に係る検体画像51および標本画像61について説明する図である。例えば、診断医によって患者Pから採取された検体5は、病理診断のために、病理医または検査技師に移送される。この際、病理診断の依頼(オーダー)毎に、病理番号が採番される。また、病理診断の対象となる検体ごとに、異なる検体番号が採番される。なお、1回の病理診断の依頼において、診断対象の検体が複数ある場合には、1つの病理番号に、複数の検体番号が対応付けられる。以下、本実施形態においては、病理医または検査技師を病理医等という。 Figure 2 is a diagram illustrating a sample image 51 and a specimen image 61 according to an embodiment. For example, a sample 5 collected from a patient P by a diagnostician is transferred to a pathologist or a laboratory technician for pathological diagnosis. At this time, a pathology number is assigned for each request (order) for pathological diagnosis. Also, a different specimen number is assigned for each specimen to be the subject of pathological diagnosis. Note that, when there are multiple specimens to be diagnosed in one request for pathological diagnosis, multiple specimen numbers are associated with one pathology number. Hereinafter, in this embodiment, a pathologist or a laboratory technician is referred to as a pathologist, etc.

なお、本実施形態における情報処理装置100が実行する処理は、必ずしも病理診断を目的としなくても良い。例えば、研究機関による研究、または医療機関から委託されて病理学的検査を行う検査センターにおける報告書の作成を目的としても良い。 The processing performed by the information processing device 100 in this embodiment does not necessarily have to be aimed at pathological diagnosis. For example, it may be aimed at research by a research institute, or at the creation of a report at an examination center that performs pathological examinations on behalf of a medical institution.

また、検体5がデジタルカメラ等によって撮像された検体画像51の識別情報として、検体画像IDが付与される。検体画像IDは、検体画像51の付帯情報として登録されても良い。また、検体画像51の撮像対象である検体5の病理番号、検体5の検体番号、検体5の取得元の患者Pの患者ID、検体画像51の撮像日時等の検体画像51に関する情報が、検体画像51の付帯情報として登録されても良い。また、検体画像ID、およびその他の検体画像51に関する情報は、検体画像51上に文字情報として描出されても良い。 A specimen image ID is assigned as identification information for the specimen image 51 obtained by capturing an image of the specimen 5 using a digital camera or the like. The specimen image ID may be registered as additional information for the specimen image 51. Information related to the specimen image 51, such as the pathology number of the specimen 5 that is the subject of the image of the specimen image 51, the specimen number of the specimen 5, the patient ID of the patient P from whom the specimen 5 was obtained, and the image date and time of the specimen image 51, may be registered as additional information for the specimen image 51. The specimen image ID and other information related to the specimen image 51 may be displayed as text information on the specimen image 51.

病理医等は、検体5から標本組織6a~6eを切り出し、染色等の処理を施した後、例えば、標本組織6a~6eの断面を撮像装置側に向けてスライドガラス7に載置する。以下、個々の標本組織6a~6eを区別しない場合は、単に標本組織6という。標本組織6は、例えば、検体5が薄切りされた切片であるが、これに限定されるものではない。 The pathologist or the like cuts out the specimen tissues 6a-6e from the specimen 5, and after performing processing such as staining, places, for example, the cross-sections of the specimen tissues 6a-6e on the slide glass 7 facing the imaging device. Hereinafter, when there is no need to distinguish between the individual specimen tissues 6a-6e, they will simply be referred to as specimen tissue 6. The specimen tissue 6 is, for example, a thin slice of the specimen 5, but is not limited to this.

なお、図2では一例として、標本組織6は断面を撮像装置側に向けた状態で撮像されるが、載置の向きはこれに限定されるものではない。例えば、標本組織6は、検体画像51の撮像時の検体5と同じ向きで、撮像されても良い。 In FIG. 2, as an example, the specimen tissue 6 is imaged with its cross section facing the imaging device, but the orientation of the specimen is not limited to this. For example, the specimen tissue 6 may be imaged in the same orientation as the specimen 5 when the specimen image 51 is captured.

スライドガラス7に載置された標本組織6を撮像したWSI等の画像が、標本画像61である。標本画像61の識別情報として、標本画像IDが付与される。なお、図2では、1つの検体5から切り出された標本組織6a~6eが、1つのスライドガラス7に載置されているが、複数のスライドガラス7に分けて載置されても良い。標本画像61はスライドガラス7毎に撮像されるため、標本組織6a~6eが複数のスライドガラス7に分けて載置された場合は、複数の標本画像61が撮像される。この場合、標本画像61毎に、異なる標本画像IDが付与される。 A WSI image or the like of the specimen tissue 6 placed on the glass slide 7 is the specimen image 61. A specimen image ID is assigned as identification information for the specimen image 61. Note that in FIG. 2, the specimen tissues 6a-6e cut from one specimen 5 are placed on one glass slide 7, but they may be placed separately on multiple glass slides 7. Since the specimen image 61 is imaged for each glass slide 7, if the specimen tissues 6a-6e are placed separately on multiple glass slides 7, multiple specimen images 61 are imaged. In this case, a different specimen image ID is assigned to each specimen image 61.

標本画像IDは、標本画像61の付帯情報として登録されても良い。また、標本画像61の撮像対象である標本組織の取得元である検体5の病理番号、検体5の検体番号、検体5の取得元の患者Pの患者ID、標本画像61の撮像日時等の標本画像61に関する情報が、標本画像61の付帯情報として登録されても良い。また、標本画像ID、およびその他の標本画像61に関する情報は、標本画像61上に文字情報として描出されても良い。 The specimen image ID may be registered as additional information of the specimen image 61. In addition, information related to the specimen image 61, such as the pathology number of the specimen 5 from which the specimen tissue that is the subject of the imaging of the specimen image 61 was obtained, the specimen number of the specimen 5, the patient ID of the patient P from which the specimen 5 was obtained, and the imaging date and time of the specimen image 61, may be registered as additional information of the specimen image 61. In addition, the specimen image ID and other information related to the specimen image 61 may be depicted as text information on the specimen image 61.

図1に戻り、情報処理装置100は、例えばサーバ装置またはPC等であり、NWインタフェース110と、記憶回路120と、入力インタフェース130と、ディスプレイ140と、処理回路150とを有する。 Returning to FIG. 1, the information processing device 100 is, for example, a server device or a PC, and has a network interface 110, a memory circuit 120, an input interface 130, a display 140, and a processing circuit 150.

NWインタフェース110は、処理回路150に接続されており、情報処理装置100と検体画像保管装置201または標本画像保管装置202との間で行われる各種データの伝送および通信を制御する。NWインタフェース110は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。 The NW interface 110 is connected to the processing circuit 150 and controls the transmission and communication of various data between the information processing device 100 and the specimen image storage device 201 or the specimen image storage device 202. The NW interface 110 is realized by a network card, a network adapter, a NIC (Network Interface Controller), etc.

記憶回路120は、処理回路150で使用される各種の情報を予め記憶する。また、記憶回路120は、各種のプログラムを記憶する。 The memory circuitry 120 prestores various types of information to be used by the processing circuitry 150. The memory circuitry 120 also stores various programs.

入力インタフェース130は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。入力インタフェース130は、処理回路150に接続されており、操作者から受け取った入力操作を電気信号へ変換し処理回路150へと出力する。なお、本明細書において入力インタフェースはマウス、キーボードなどの物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路150へ出力する電気信号の処理回路も入力インタフェース130の例に含まれる。 The input interface 130 is realized by a trackball, a switch button, a mouse, a keyboard, a touchpad that performs input operations by touching the operation surface, a touch screen that integrates a display screen and a touchpad, a non-contact input circuit using an optical sensor, and a voice input circuit. The input interface 130 is connected to the processing circuit 150, and converts input operations received from an operator into electrical signals and outputs them to the processing circuit 150. Note that in this specification, the input interface is not limited to those that have physical operating parts such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives electrical signals corresponding to input operations from an external input device provided separately from the device and outputs these electrical signals to the processing circuit 150 is also included as an example of the input interface 130.

ディスプレイ140は、液晶ディスプレイや有機EL(Organic Electro-Luminescence: OEL)ディスプレイ等である。なお、入力インタフェース130とディスプレイ140とは統合しても良い。例えば、入力インタフェース130とディスプレイ140とは、タッチパネルによって実現されても良い。ディスプレイ140は、本実施形態における表示部の一例である。 The display 140 is a liquid crystal display, an organic electro-luminescence (OEL) display, or the like. The input interface 130 and the display 140 may be integrated. For example, the input interface 130 and the display 140 may be realized by a touch panel. The display 140 is an example of a display unit in this embodiment.

処理回路150は、記憶回路120からプログラムを読み出し、実行することで各プログラムに対応する機能を実現するプロセッサである。本実施形態の処理回路150は、取得機能151と、受付機能152と、組織領域認識機能153と、興味領域認識機能154と、切り出し位置認識機能155と、対応付け機能156と、マッピング機能157と、表示制御機能158と、送信機能159と、切り出し位置設定機能160とを備える。取得機能151は、取得部の一例である。受付機能152は、受付部の一例である。組織領域認識機能153は、組織領域認識部の一例である。興味領域認識機能154は、興味領域認識部の一例である。切り出し位置認識機能155は、切り出し位置認識部の一例である。対応付け機能156は、対応付け部の一例である。マッピング機能157は、マッピング部の一例である。表示制御機能158は、表示制御部の一例である。送信機能159は、送信部の一例である。切り出し位置設定機能160は、切り出し位置設定部の一例である。 The processing circuit 150 is a processor that reads out a program from the memory circuit 120 and executes it to realize a function corresponding to each program. The processing circuit 150 of this embodiment includes an acquisition function 151, a reception function 152, a tissue area recognition function 153, an area of interest recognition function 154, a cut-out position recognition function 155, a matching function 156, a mapping function 157, a display control function 158, a transmission function 159, and a cut-out position setting function 160. The acquisition function 151 is an example of an acquisition unit. The reception function 152 is an example of a reception unit. The tissue area recognition function 153 is an example of a tissue area recognition unit. The area of interest recognition function 154 is an example of an area of interest recognition unit. The cut-out position recognition function 155 is an example of a cut-out position recognition unit. The matching function 156 is an example of a matching unit. The mapping function 157 is an example of a mapping unit. The display control function 158 is an example of a display control unit. The transmission function 159 is an example of a transmission unit. The cut-out position setting function 160 is an example of a cut-out position setting unit.

ここで、例えば、処理回路150の構成要素である取得機能151、受付機能152、組織領域認識機能153、興味領域認識機能154、切り出し位置認識機能155、対応付け機能156、マッピング機能157、表示制御機能158、送信機能159、および切り出し位置設定機能160の各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路120に記憶されている。処理回路150は、プロセッサである。例えば、処理回路150は、プログラムを記憶回路120から読み出し、実行することで各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路150は、図1の処理回路150内に示された各機能を有することとなる。なお、図1においては単一のプロセッサにて取得機能151、受付機能152、組織領域認識機能153、興味領域認識機能154、切り出し位置認識機能155、対応付け機能156、マッピング機能157、表示制御機能158、送信機能159、および切り出し位置設定機能160にて行われる処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路150を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、図1においては単一の記憶回路120が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路150は個別の記憶回路から対応するプログラムを読み出す構成としても構わない。 Here, for example, each processing function of the components of the processing circuit 150, namely, the acquisition function 151, the reception function 152, the tissue area recognition function 153, the area of interest recognition function 154, the cut-out position recognition function 155, the association function 156, the mapping function 157, the display control function 158, the transmission function 159, and the cut-out position setting function 160, is stored in the memory circuit 120 in the form of a program executable by a computer. The processing circuit 150 is a processor. For example, the processing circuit 150 realizes a function corresponding to each program by reading and executing the program from the memory circuit 120. In other words, the processing circuit 150 in the state in which each program has been read has each function shown in the processing circuit 150 of FIG. 1. In FIG. 1, the processing functions performed by the acquisition function 151, the reception function 152, the tissue area recognition function 153, the area of interest recognition function 154, the cut-out position recognition function 155, the association function 156, the mapping function 157, the display control function 158, the transmission function 159, and the cut-out position setting function 160 are described as being realized by a single processor, but the processing circuit 150 may be configured to be realized by combining multiple independent processors and each processor executing a program. Also, in FIG. 1, the single storage circuit 120 is described as storing a program corresponding to each processing function, but the processing circuit 150 may be configured to read out the corresponding program from each storage circuit by distributing multiple storage circuits.

上記説明では、「プロセッサ」が各機能に対応するプログラムを記憶回路から読み出して実行する例を説明したが、実施形態はこれに限定されない。「プロセッサ」という文言は、例えば、CPU(Central Processing Unit )、GPU(Graphics Processing Unit)、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device :CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサが例えばCPUである場合、プロセッサは記憶回路に保存されたプログラムを読み出して実行することで機能を実現する。一方、プロセッサがASICである場合、記憶回路120にプログラムを保存する代わりに、当該機能がプロセッサの回路内に論理回路として直接組み込まれる。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成し、その機能を実現するようにしてもよい。さらに、図1における複数の構成要素を1つのプロセッサへ統合してその機能を実現するようにしてもよい。 In the above description, an example was described in which the "processor" reads out and executes a program corresponding to each function from a storage circuit, but the embodiment is not limited to this. The term "processor" refers to circuits such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), an Application Specific Integrated Circuit (ASIC), a programmable logic device (e.g., a Simple Programmable Logic Device (SPLD), a Complex Programmable Logic Device (CPLD), and a Field Programmable Gate Array (FPGA)). When the processor is, for example, a CPU, the processor realizes the function by reading out and executing a program stored in a storage circuit. On the other hand, when the processor is an ASIC, instead of storing a program in the storage circuit 120, the function is directly incorporated as a logic circuit in the circuit of the processor. Note that each processor in this embodiment is not limited to being configured as a single circuit for each processor, and may be configured as a single processor by combining multiple independent circuits to realize the function. Additionally, multiple components in FIG. 1 may be integrated into a single processor to achieve the functions.

取得機能151は、検体画像保管装置201から、検体画像51を取得する。また、取得機能151は、標本画像保管装置202から、標本画像61を取得する。なお、検体画像51および標本画像61の取得元は、検体画像保管装置201および標本画像保管装置202に限定されるものではない。 The acquisition function 151 acquires a sample image 51 from the sample image storage device 201. The acquisition function 151 also acquires a specimen image 61 from the specimen image storage device 202. Note that the source of acquisition of the sample image 51 and the specimen image 61 is not limited to the sample image storage device 201 and the specimen image storage device 202.

取得対象の検体画像51および標本画像61は、例えば、受付機能152が受け付けたユーザの操作によって指定される。情報処理装置100のユーザは、病理医等である。 The specimen image 51 and the specimen image 61 to be acquired are specified, for example, by a user operation accepted by the reception function 152. The user of the information processing device 100 is a pathologist or the like.

ユーザは、例えば、病理番号、患者ID、検体番号、または撮像日等のいずれか、またはこれらの組み合わせを入力することにより、取得対象の検体画像51または標本画像61を指定する。また、一の病理番号には1以上の検体番号および検体画像IDが対応付けられ、一の検体番号には1以上の標本画像IDが対応付けられる。このため、ユーザが一の病理診断の依頼を処理するために一の病理番号を入力した場合、1以上の検体画像51および1以上の標本画像61が取得される。 The user specifies the sample image 51 or specimen image 61 to be acquired by, for example, inputting a pathology number, a patient ID, a specimen number, or an imaging date, or a combination of these. Furthermore, one pathology number is associated with one or more specimen numbers and specimen image IDs, and one specimen number is associated with one or more specimen image IDs. Therefore, when a user inputs a pathology number to process a request for a pathology diagnosis, one or more sample images 51 and one or more specimen images 61 are acquired.

また、ユーザは、検体画像保管装置201に保存された検体画像51のリストから、所望の検体画像51を選択しても良い。リストは、病理番号等の検体画像51に関する情報が文字情報で表された一覧であっても良いし、検体画像51が画像として表示された一覧であっても良い。この場合、取得機能151は、ユーザによって選択された検体画像51の検体番号と同じ検体番号に対応付けられた標本画像61を標本画像保管装置202から取得する。 The user may also select a desired specimen image 51 from a list of specimen images 51 stored in the specimen image storage device 201. The list may be a list in which information about the specimen image 51, such as the pathology number, is expressed as text information, or a list in which the specimen image 51 is displayed as an image. In this case, the acquisition function 151 acquires from the specimen image storage device 202 a specimen image 61 associated with the same specimen number as the specimen number of the specimen image 51 selected by the user.

なお、検体画像51または標本画像61の取得のタイミングは、ユーザの操作に限定されるものではなく、例えば、標本画像保管装置202に標本画像61が保存されたタイミングであっても良い。 The timing of acquiring the specimen image 51 or specimen image 61 is not limited to a user operation, but may be, for example, the timing when the specimen image 61 is saved in the specimen image storage device 202.

なお、本実施形態では、取得機能151が検体画像51および標本画像61を取得するものとして説明するが、検体画像51を取得する機能と、標本画像61を取得する機能とは、それぞれ別個の機能として構成されても良い。 In this embodiment, the acquisition function 151 is described as acquiring the specimen image 51 and the specimen image 61, but the function of acquiring the specimen image 51 and the function of acquiring the specimen image 61 may be configured as separate functions.

受付機能152は、入力インタフェース130を介して、ユーザによる各種の操作を受け付ける。例えば、受付機能152は、ユーザによる検体画像51における切り出し位置の指定を受け付ける。また、受付機能152は、検体画像51における切り出し位置と、標本画像61における組織領域との対応付けを修正するユーザの操作を受け付ける。なお、切り出し位置および組織領域については後述する。 The reception function 152 receives various operations by the user via the input interface 130. For example, the reception function 152 receives a cut-out position in the specimen image 51 specified by the user. The reception function 152 also receives a user operation to correct the correspondence between the cut-out position in the specimen image 51 and the tissue area in the specimen image 61. The cut-out position and tissue area will be described later.

組織領域認識機能153は、標本画像61から、標本組織6が描出された組織領域を認識する。 The tissue area recognition function 153 recognizes the tissue area in which the specimen tissue 6 is depicted from the specimen image 61.

図3は、実施形態に係る標本画像61の一例を示す図である。図3の左側の図は、標本組織6a~6cが描出された標本画像61である。標本画像61には、背景として映り込んだスライドガラス7と、標本組織6a~6cとが描出される。 Figure 3 is a diagram showing an example of a specimen image 61 according to an embodiment. The diagram on the left side of Figure 3 is a specimen image 61 in which specimen tissues 6a to 6c are depicted. In the specimen image 61, the slide glass 7 reflected as the background and the specimen tissues 6a to 6c are depicted.

図3に示す例では、標本組織6a~6cは断面を撮像装置側に向けて撮像されている。検体5が消化器の粘膜および粘膜下層である場合、標本画像61の上方が、標本組織6a~6cの粘膜側であり、標本画像61の下方が、標本組織6a~6cの粘膜下層側となる。 In the example shown in FIG. 3, the specimen tissues 6a to 6c are imaged with their cross sections facing the imaging device. When the specimen 5 is the mucosa and submucosa of the digestive tract, the top of the specimen image 61 is the mucosa side of the specimen tissues 6a to 6c, and the bottom of the specimen image 61 is the submucosa side of the specimen tissues 6a to 6c.

組織領域認識機能153は、画像処理によって、標本画像61から標本組織6a~6cが描出された領域である組織領域62a~62cを認識する。図3の右側の図は、左側の図に示す標本画像61から、組織領域認識機能153が組織領域62a~62cを認識した結果を示す図である。組織領域認識機能153は、標本画像61において、標本組織6a~6cが描出された領域に含まれる画素の座標を特定することにより、組織領域62a~62cを認識する。以下、組織領域62a~62cを区別しない場合には、単に組織領域62という。 The tissue area recognition function 153 uses image processing to recognize tissue areas 62a-62c, which are areas in which specimen tissues 6a-6c are depicted in the specimen image 61. The diagram on the right side of Figure 3 shows the result of tissue area recognition function 153 recognizing tissue areas 62a-62c from the specimen image 61 shown in the diagram on the left side. The tissue area recognition function 153 recognizes tissue areas 62a-62c by identifying the coordinates of pixels contained in the areas in which specimen tissues 6a-6c are depicted in the specimen image 61. Hereinafter, when there is no need to distinguish between tissue areas 62a-62c, they will simply be referred to as tissue area 62.

なお、図3の右側の図では、説明のために、組織領域62の輪郭線を表示しているが、組織領域62の輪郭線は、描出されなくとも良い。また、ユーザの操作によって、組織領域62の輪郭線の表示または非表示が選択可能であっても良い。 In addition, in the diagram on the right side of FIG. 3, the contour of the tissue region 62 is displayed for the purpose of explanation, but the contour of the tissue region 62 does not have to be depicted. In addition, the user may be able to select whether to display or hide the contour of the tissue region 62.

標本画像61から組織領域62を認識する手法は特に限定されるものではないが、例えば、組織領域認識機能153は、画素レベルで類似する領域をグルーピングしていくことで候補領域を選出するSelective Searchのようなルールベースによる画像処理を採用しても良い。 The method for recognizing the tissue region 62 from the specimen image 61 is not particularly limited, but for example, the tissue region recognition function 153 may employ rule-based image processing such as Selective Search, which selects candidate regions by grouping similar regions at the pixel level.

または、標本画像61から組織領域62を認識する手法として、深層学習(Deep Learning)等の機械学習による画像処理を採用しても良い。深層学習を採用する場合には、組織領域認識機能153は、記憶回路120に記憶された学習済みモデルに標本画像61を入力し、学習済みモデルから出力される組織領域62の認識結果を取得する。組織領域62の認識処理に使用される学習済みモデルは、複数の標本画像61と、複数の標本画像61における組織領域62との対応関係が学習されたモデルである。なお、学習済みモデルは、組織領域認識機能153に組み込まれていても良い。 Alternatively, image processing using machine learning such as deep learning may be employed as a method for recognizing the tissue region 62 from the specimen image 61. When deep learning is employed, the tissue region recognition function 153 inputs the specimen image 61 to a trained model stored in the memory circuitry 120, and obtains the recognition result of the tissue region 62 output from the trained model. The trained model used in the recognition process of the tissue region 62 is a model in which the correspondence between multiple specimen images 61 and the tissue regions 62 in the multiple specimen images 61 has been learned. The trained model may be incorporated into the tissue region recognition function 153.

図1に戻り、興味領域認識機能154は、標本画像61から、組織領域62に含まれる興味領域を認識する。 Returning to FIG. 1, the region of interest recognition function 154 recognizes a region of interest contained in the tissue region 62 from the specimen image 61.

興味領域は、標本組織6のうち、病理診断において重要視される特定の組織である。一例として、興味領域は、標本組織6のうちの病巣部位である。病巣部位は、例えば、腺腫や腺がんなどの腫瘍領域である。 The region of interest is a specific tissue in the specimen tissue 6 that is considered important in pathological diagnosis. As an example, the region of interest is a lesion site in the specimen tissue 6. The lesion site is, for example, a tumor region such as an adenoma or adenocarcinoma.

また、興味領域は、腫瘍、粘膜、粘膜筋板、粘膜下層、または固有筋層のうちのいずれかの組織を含むものであっても良い。粘膜、粘膜筋板、粘膜下層、または固有筋層は、腫瘍のない正常領域であり、腫瘍の計測等に利用される。興味領域には、いずれか一の組織が含まれても良いし、複数種類の組織が含まれても良い。 The region of interest may also include any one of the following tissues: tumor, mucosa, muscularis mucosa, submucosa, or muscularis proper. The mucosa, muscularis mucosa, submucosa, or muscularis proper are normal regions that are free of tumors and are used for measuring tumors, etc. The region of interest may include any one of the following tissues, or may include multiple types of tissue.

図4は、実施形態に係る興味領域63の一例を示す図である。図4の左側の図は、標本組織6が描出された標本画像61である。標本画像61には、組織領域62が認識されている。 Figure 4 is a diagram showing an example of a region of interest 63 according to an embodiment. The diagram on the left side of Figure 4 is a specimen image 61 in which specimen tissue 6 is depicted. A tissue region 62 is recognized in the specimen image 61.

図4の右側の図は、左側の図に示す標本画像61から、興味領域認識機能154が興味領域63を認識した結果を示す図である。図4の右側の図に示すように、組織領域62のうち、興味領域63が描出された画像領域に含まれる画素の座標を特定することにより、興味領域63が描出された画像領域を認識する。 The diagram on the right side of Figure 4 shows the result of region of interest recognition function 154 recognizing region of interest 63 from specimen image 61 shown in the diagram on the left side. As shown in the diagram on the right side of Figure 4, the image region in which region of interest 63 is depicted is recognized by identifying the coordinates of pixels contained in the image region in tissue region 62 in which region of interest 63 is depicted.

なお、図4の右側の図では、説明のために、興味領域63の輪郭線を表示しているが、興味領域63の輪郭線は、描出されなくとも良い。また、ユーザの操作によって、興味領域63の輪郭線の表示または非表示が選択可能であっても良い。 In addition, in the diagram on the right side of FIG. 4, the contour of the region of interest 63 is displayed for the purpose of explanation, but the contour of the region of interest 63 does not have to be drawn. In addition, the user may be able to select whether to display or hide the contour of the region of interest 63.

標本画像61から興味領域63を認識する手法は特に限定されるものではないが、Selective Searchのようなルールベースによる画像処理を採用しても良い。 The method for recognizing the region of interest 63 from the specimen image 61 is not particularly limited, but rule-based image processing such as Selective Search may be used.

または、標本画像61から興味領域63を認識する手法として、深層学習(Deep Learning)等の機械学習による画像処理を採用しても良い。 Alternatively, image processing using machine learning such as deep learning may be used as a method for recognizing the region of interest 63 from the specimen image 61.

図5は、実施形態に係る深層学習による興味領域63の認識処理を説明する図である。深層学習を採用する場合には、興味領域認識機能154は、図5に示すように、記憶回路120に記憶された学習済みモデル90に標本画像61を入力し、学習済みモデル90から出力される興味領域63の認識結果を取得する。興味領域63の認識結果は、例えば、標本画像61における興味領域63の範囲を示す座標情報である。 FIG. 5 is a diagram illustrating the recognition process of the region of interest 63 by deep learning according to the embodiment. When deep learning is employed, the region of interest recognition function 154 inputs the specimen image 61 to the trained model 90 stored in the memory circuitry 120 as shown in FIG. 5, and obtains the recognition result of the region of interest 63 output from the trained model 90. The recognition result of the region of interest 63 is, for example, coordinate information indicating the range of the region of interest 63 in the specimen image 61.

興味領域63の認識処理に使用される学習済みモデル90は、例えば、複数の標本画像61と、複数の標本画像61における興味領域63との対応関係が学習されたモデルである。なお、学習済みモデル90は、興味領域認識機能154に組み込まれていても良い。 The trained model 90 used in the recognition process of the region of interest 63 is, for example, a model that has learned the correspondence between multiple specimen images 61 and the regions of interest 63 in the multiple specimen images 61. The trained model 90 may be incorporated into the region of interest recognition function 154.

図1に戻り、切り出し位置認識機能155は、検体画像51における標本組織6の切り出し位置を認識する。切り出し位置とは、検体5から、標本組織6が切り出された位置である。また、本実施形態において、単に切り出し位置という場合には、検体画像51に描出された検体5上の切り出し位置のことをいう。 Returning to FIG. 1, the cut-out position recognition function 155 recognizes the cut-out position of the specimen tissue 6 in the specimen image 51. The cut-out position is the position where the specimen tissue 6 is cut out from the specimen 5. In this embodiment, the cut-out position simply refers to the cut-out position on the specimen 5 depicted in the specimen image 51.

図6は、実施形態に係る切り出し位置の一例を示す図である。検体5が消化器の粘膜および粘膜下層である場合、検体5は、粘膜側を撮像装置に向けた状態で撮像されているものとする。 Figure 6 is a diagram showing an example of an excision position according to an embodiment. When the specimen 5 is the mucosa and submucosa of the digestive tract, the specimen 5 is imaged with the mucosa facing the imaging device.

図6に示す例では、検体画像51上に引かれた切り出し線53a~53fに、切り出し位置ID“1”~“6”がそれぞれ付与されている。切り出し線53a~53fは、検体5から標本組織6を切り出すY方向の位置を示す。以下、個々の切り出し線53a~53fを特に区別しない場合には、単に切り出し線53という。 In the example shown in FIG. 6, cut-out lines 53a-53f drawn on the specimen image 51 are assigned cut-out position IDs "1"-"6", respectively. The cut-out lines 53a-53f indicate the Y-direction positions at which the specimen tissue 6 is cut out from the specimen 5. Hereinafter, when there is no need to distinguish between the individual cut-out lines 53a-53f, they will simply be referred to as cut-out lines 53.

1つの検体画像51当たりの切り出し線53の数は特に限定されるものではないが、例えば、本実施形態においては、1つの検体画像51当たり1本以上の切り出し線53が引かれているものとする。 The number of cutout lines 53 per sample image 51 is not particularly limited, but for example, in this embodiment, one or more cutout lines 53 are drawn per sample image 51.

図6の左側の図に示す切り出し線53および切り出し位置IDは、後述の切り出し位置設定機能160によって設定されたものとする。切り出し線53および切り出し位置IDの設定方法の詳細については、後述する。 The cut-out line 53 and cut-out position ID shown in the left diagram of FIG. 6 are set by the cut-out position setting function 160, which will be described later. Details of how to set the cut-out line 53 and the cut-out position ID will be described later.

例えば、切り出し位置設定機能160によって記憶回路120に、検体画像51の検体画像IDと、検体画像51上の切り出し線53の座標と、切り出し位置IDとが対応付けられた切り出し位置情報が保存されている。切り出し位置認識機能155は、記憶回路120から、切り出し位置情報を読み出して、検体画像51上の切り出し線53の位置、および各切り出し線53の切り出し位置IDを特定する。切り出し位置情報は、検体画像51の付帯情報として、検体画像51に対応付けられて記憶されていても良い。 For example, the cut-out position setting function 160 stores cut-out position information in the memory circuitry 120, which associates the sample image ID of the sample image 51, the coordinates of the cut-out lines 53 on the sample image 51, and the cut-out position ID. The cut-out position recognition function 155 reads out the cut-out position information from the memory circuitry 120 and identifies the positions of the cut-out lines 53 on the sample image 51 and the cut-out position IDs of each cut-out line 53. The cut-out position information may be stored in association with the sample image 51 as supplementary information of the sample image 51.

また、切り出し位置認識機能155は、検体画像51における検体領域52を認識する。検体領域52は、検体画像51上で検体5が描出された画像領域である。検体領域52を認識する手法は特に限定されるものではないが、Selective Searchのようなルールベースによる画像処理を採用しても良いし、深層学習等の機械学習による画像処理を採用しても良い。また、検体画像51の背景画像が予め定められている場合は、切り出し位置認識機能155は、検体画像51から該背景画像を削除して残った画像領域を、検体領域52として認識しても良い。 The cut-out position recognition function 155 also recognizes the specimen area 52 in the specimen image 51. The specimen area 52 is an image area in which the specimen 5 is depicted on the specimen image 51. The method for recognizing the specimen area 52 is not particularly limited, but rule-based image processing such as Selective Search may be adopted, or image processing using machine learning such as deep learning may be adopted. Furthermore, if the background image of the specimen image 51 is predetermined, the cut-out position recognition function 155 may delete the background image from the specimen image 51 and recognize the remaining image area as the specimen area 52.

図6の中央の図は、切り出し位置認識機能155が検体画像51から認識した検体領域52の一例である。 The central diagram in Figure 6 is an example of a specimen region 52 recognized from a specimen image 51 by the cut-out position recognition function 155.

また、切り出し位置認識機能155は、特定した切り出し線53および切り出し位置IDと、認識した検体領域52とに基づいて、切り出し線53を補正する。具体的には、切り出し位置認識機能155は、切り出し線53のうち、検体領域52からはみ出る部分を削除することにより、切り出し線53の幅を、検体領域52の幅に揃える。ここでは、検体領域52の幅および切り出し線53の幅は、検体領域52および切り出し線53の図6のX方向の長さのことをいう。 Furthermore, the cut-out position recognition function 155 corrects the cut-out line 53 based on the identified cut-out line 53 and cut-out position ID, and the recognized specimen region 52. Specifically, the cut-out position recognition function 155 aligns the width of the cut-out line 53 with the width of the specimen region 52 by deleting the portion of the cut-out line 53 that protrudes from the specimen region 52. Here, the width of the specimen region 52 and the width of the cut-out line 53 refer to the lengths of the specimen region 52 and the cut-out line 53 in the X direction in FIG. 6.

補正後の切り出し線53は、検体画像51に描出された検体5から標本組織6が切り出された切り出し位置を表す。 The corrected cut-out line 53 represents the cut-out position where the specimen tissue 6 is cut out from the specimen 5 depicted in the specimen image 51.

なお、切り出し位置の認識の手法は、上述の例に限定されるものではない。例えば、切り出し位置認識機能155は、検体画像51に描出された線画像または文字情報から、切り出し位置を認識しても良い。文字情報は、例えば、組織片を切り出す位置の指示や切り出した位置の記録等の情報である。文字情報を認識する手段は、例えばOCR(Optical Character Recognition/Reader、光学的文字認識)でも良い。また、線画像または文字情報は、検体画像51自体に描出されたものに限定されず、検体画像51と対応付けられた帳票等に記載されたものでも良い。 The method for recognizing the excision position is not limited to the above example. For example, the excision position recognition function 155 may recognize the excision position from a line image or text information drawn in the specimen image 51. The text information is, for example, information such as an instruction for the position to excision the tissue piece or a record of the excision position. The means for recognizing the text information may be, for example, OCR (Optical Character Recognition/Reader). Furthermore, the line image or text information is not limited to that drawn in the specimen image 51 itself, but may be written on a form or the like associated with the specimen image 51.

また、図6では、標本組織6が切り出される前の検体5を撮像した検体画像51から切り出し位置を認識しているが、切り出し位置認識機能155は、標本組織6が切り出された後の検体5を撮像した検体画像51から切り出し位置を、画像処理によって認識しても良い。また、この場合、切り出し位置認識機能155は、所定の運用ルールに基づいて、切り出し位置に切り出し位置IDを付与する。 In addition, in FIG. 6, the excision position is recognized from the specimen image 51 obtained by capturing an image of the specimen 5 before the specimen tissue 6 is excised, but the excision position recognition function 155 may recognize the excision position from the specimen image 51 obtained by capturing an image of the specimen 5 after the specimen tissue 6 has been excised by image processing. In this case, the excision position recognition function 155 assigns an excision position ID to the excision position based on a predetermined operational rule.

所定の運用ルールは、例えば、“検体画像51の上方から、1から昇順に切り出し位置IDを付与する”等である。所定の運用ルールは、標本組織6の切り出し順、およびスライドガラス7への標本組織6の配置順を規定する運用ルールである。該運用ルールは、情報処理装置100が設けられた医療機関または検査センター固有の運用ルールでも良い。この場合、受付機能152が、ユーザによって入力された運用ルールを受け付け、予め記憶回路120に保存しておくものとしても良い。あるいは、例えば、ユーザによる設定の前に、複数の運用ルールが記憶回路120に登録されており、ユーザが、複数の運用ルールのうち、採用する一の運用ルールを選択可能な構成を採用しても良い。 The predetermined operation rule is, for example, "assigning cut-out position IDs in ascending order starting from 1 from the top of the specimen image 51". The predetermined operation rule is an operation rule that specifies the order in which the specimen tissues 6 are cut out and the order in which the specimen tissues 6 are arranged on the slide glass 7. The operation rule may be an operation rule specific to the medical institution or testing center in which the information processing device 100 is installed. In this case, the reception function 152 may receive the operation rule input by the user and store it in the memory circuitry 120 in advance. Alternatively, for example, a configuration may be adopted in which multiple operation rules are registered in the memory circuitry 120 before the user sets it, and the user can select one operation rule to adopt from the multiple operation rules.

図1に戻り、対応付け機能156は、検体画像51における切り出し位置と、該切り出し位置から切り出された標本組織6が描出された標本画像61における組織領域62とを対応付ける。 Returning to FIG. 1, the matching function 156 matches the cut-out position in the specimen image 51 with the tissue area 62 in the specimen image 61 depicting the specimen tissue 6 cut out from the cut-out position.

図7は、本実施形態に係る切り出し位置と組織領域62との対応付けの一例を示す図である。図7に示すように、対応付け機能156は、切り出し位置認識機能155によって認識された切り出し位置と、切り出し位置から切り出された組織領域62とを1対1で対応付ける。 Figure 7 is a diagram showing an example of the association between the cut-out position and the tissue region 62 according to this embodiment. As shown in Figure 7, the association function 156 associates the cut-out position recognized by the cut-out position recognition function 155 with the tissue region 62 cut out from the cut-out position on a one-to-one basis.

より詳細には、対応付け機能156は、標本画像61に含まれる個々の組織領域62に、標本領域IDを付与する。対応付け機能156は、例えば、“標本画像61の上方から、1から昇順に標本領域IDを付与する”等の運用ルールに基づいて、標本領域IDを付与する。また、図7のように、1つの検体画像51に対して、複数の標本画像61a,61bが対応付けられる場合は、対応付け機能156は、複数の標本画像61a,61bのうち、撮像日時が早い順に、標本領域IDを付与する。 More specifically, the association function 156 assigns a specimen area ID to each tissue area 62 included in the specimen image 61. The association function 156 assigns specimen area IDs based on an operational rule such as, for example, "assign specimen area IDs in ascending order from 1 from the top of the specimen image 61." Furthermore, as shown in FIG. 7, when multiple specimen images 61a, 61b are associated with one specimen image 51, the association function 156 assigns specimen area IDs to the multiple specimen images 61a, 61b in the order of the earliest image capture date and time.

標本領域IDの付与に用いられる運用ルールは、切り出し位置認識機能155の説明の際に述べた運用ルールと同様に、標本組織6の切り出し順、およびスライドガラス7への標本組織6の配置順を規定する運用ルールである。 The operational rules used to assign specimen region IDs are the same as those described in the explanation of the excision position recognition function 155, and are operational rules that stipulate the order in which the specimen tissues 6 are excised and the order in which the specimen tissues 6 are placed on the slide glass 7.

このため、標本画像61における個々の組織領域62に付与された標本領域IDは、基本的に、該組織領域62に描出された標本組織が切り取られた切り取り位置の切り取り位置IDと一致する。対応付け機能156は、切り出し位置IDと、該切り出し位置IDと同じ番号の標本領域IDとを対応付ける。図7に示す例では、検体画像51における切り出し位置ID“1”~“6”の切り出し位置と、標本画像61における標本領域ID“1”~“6”の組織領域62とがそれぞれ対応付けられる。 For this reason, the specimen area ID assigned to each tissue area 62 in the specimen image 61 basically matches the cut-out position ID of the cut-out position where the specimen tissue depicted in the tissue area 62 was cut out. The association function 156 associates the cut-out position ID with the specimen area ID having the same number as the cut-out position ID. In the example shown in FIG. 7, the cut-out positions with cut-out position IDs "1" to "6" in the specimen image 51 are associated with the tissue areas 62 with specimen area IDs "1" to "6" in the specimen image 61, respectively.

なお、標本領域IDを付与する手法は上述の例に限定されるものではない。図8は、本実施形態に係る標本画像61に描出されたラベル71の一例を示す図である。例えば、図8に示すように、標本画像61に描出されたラベル71に、標本組織6が切り出された位置を示す切り出し位置IDまたは標本領域IDが記載されている場合、対応付け機能156は、OCR等の手法によって該切り出し位置IDを認識する。 The method of assigning the specimen area ID is not limited to the above example. FIG. 8 is a diagram showing an example of a label 71 depicted in a specimen image 61 according to this embodiment. For example, as shown in FIG. 8, if an excision position ID or a specimen area ID indicating the position from which the specimen tissue 6 was excised is written on the label 71 depicted in the specimen image 61, the association function 156 recognizes the excision position ID by a method such as OCR.

また、ユーザが、ディスプレイ140に表示されたGUI(Graphical User Interface)から、標本領域IDを入力する操作を行っても良い。また、対応付け機能156によって付与された標本組織IDに誤りがある場合、ユーザがGUIから標本領域IDを変更する操作を行っても良い。この場合、受付機能152が、ユーザによる標本領域IDの入力、または変更の操作を受け付ける。対応付け機能156は、受け付けられたユーザの操作に基づいて、切り出し位置と組織領域62との対応付けを修正する。 The user may also input a specimen area ID from a GUI (Graphical User Interface) displayed on the display 140. If the specimen tissue ID assigned by the association function 156 is incorrect, the user may also change the specimen area ID from the GUI. In this case, the reception function 152 accepts the input or change of the specimen area ID by the user. The association function 156 corrects the association between the excision position and the tissue area 62 based on the accepted user operation.

図9は、本実施形態に係る標本領域IDの設定操作画面141の一例を示す図である。設定操作画面141は、GUIの一種である。設定操作画面141の表示処理は、後述の表示制御機能158が実行する。設定操作画面141には、検体画像51と、該検体画像51と対応付けられた標本画像61とが含まれる。 Figure 9 is a diagram showing an example of a specimen area ID setting operation screen 141 according to this embodiment. The setting operation screen 141 is a type of GUI. The display process of the setting operation screen 141 is performed by a display control function 158, which will be described later. The setting operation screen 141 includes a specimen image 51 and a specimen image 61 associated with the specimen image 51.

図9に示すように、リストボックス60等によって、ユーザが、標本領域IDを入力または変更可能であっても良い。 As shown in FIG. 9, a list box 60 or the like may allow the user to input or change the specimen area ID.

また、例えば、ユーザがマウスまたはスタイラスペン等で画面上の番号修正ボタン80を押下した場合に、対応付け機能156によって設定された切り出し位置IDおよび標本領域IDが表示される。なお、対応付け機能156によって標本領域IDがまだ設定されていない場合には、標本領域IDは表示されなくとも良い。 For example, when the user presses the number correction button 80 on the screen with a mouse or a stylus pen, the cut-out position ID and specimen area ID set by the association function 156 are displayed. Note that if the specimen area ID has not yet been set by the association function 156, the specimen area ID does not need to be displayed.

例えば、ユーザが切り出し位置IDの数字または切り出し線53を押下すると、該切り出し位置IDと同じ番号の標本領域IDを設定可能な組織領域62が選択可能に表示される。選択の手法は、例えば、ドロップボックスや、ラジオボタン等である。 For example, when the user presses the number of the cut-out position ID or the cut-out line 53, the tissue region 62 for which a specimen region ID with the same number as the cut-out position ID can be set is displayed for selection. Selection methods include, for example, a drop box or radio buttons.

また、ユーザが切り出し位置IDの数字または切り出し線53を押下した後にクリックした組織領域62が、該切り出し位置IDと対応付けられても良い。 In addition, the tissue area 62 that the user clicks on after pressing the cut-out position ID number or the cut-out line 53 may be associated with the cut-out position ID.

また、ユーザが切り出し位置IDの数字または切り出し線53を、組織領域62にドラッグアンドドロップすること、またはユーザが組織領域62を切り出し位置IDの数字または切り出し線53にドラッグアンドドロップすることによって、切り出し位置IDと組織領域62とが対応付けられても良い。例示した操作は一例であり、検体画像51における切り出し位置と、該切り出し位置から切り出された標本組織6が描出された標本画像61における組織領域62とを対応付ける手法および対応付けを変更する手法は、これらに限定されるものではない。 The excision position ID and the tissue region 62 may be associated by the user dragging and dropping the number of the excision position ID or the excision line 53 onto the tissue region 62, or by the user dragging and dropping the tissue region 62 onto the number of the excision position ID or the excision line 53. The illustrated operations are merely examples, and the methods of associating the excision position in the specimen image 51 with the tissue region 62 in the specimen image 61 depicting the specimen tissue 6 excised from the excision position and the methods of changing the association are not limited to these.

また、切り出し後に標本組織6が分割された場合など、切り出し位置の数よりも、組織領域62の数の方が多い場合、対応付け機能156は、余った組織領域62には自動的にアスタリスク等の記号を仮の標本領域IDとして付与しても良い。この場合、ユーザが、手動で標本領域IDを修正しても良い。また、切り出し後に標本組織6が分割された場合に、分割された標本組織6に合わせて、検体画像51の切り出し線53を、ユーザが分割しても良い。 In addition, when the number of tissue regions 62 is greater than the number of excision positions, such as when the specimen tissue 6 is divided after excision, the association function 156 may automatically assign a symbol such as an asterisk to the remaining tissue regions 62 as a provisional specimen region ID. In this case, the user may manually correct the specimen region ID. In addition, when the specimen tissue 6 is divided after excision, the user may divide the excision line 53 of the specimen image 51 to match the divided specimen tissue 6.

図1に戻り、マッピング機能157は、対応付け機能156による切り出し位置と組織領域62との対応付けに基づいて、標本画像61の興味領域63と、検体画像51において標本画像61の興味領域63に相当する対象領域とをマッピングする。 Returning to FIG. 1, the mapping function 157 maps the region of interest 63 in the specimen image 61 to a target region in the specimen image 51 that corresponds to the region of interest 63 in the specimen image 61 based on the correspondence between the cut-out position and the tissue region 62 by the correspondence function 156.

図10は、本実施形態に係るマッピングの一例を示す図である。マッピング機能157は、標本画像61に描出された興味領域63の範囲を、切り出し位置IDおよび標本領域IDに基づいて、標本画像61に対応付ける。また、マッピング機能157は、興味領域63を含む組織領域62に対応付けられた切り出し位置の近傍に、対象領域54を表す図形を描画する。図形は、例えば線分でも良いし、矩形等であっても良い。 Figure 10 is a diagram showing an example of mapping according to this embodiment. The mapping function 157 associates the range of the region of interest 63 depicted in the specimen image 61 with the specimen image 61 based on the cut-out position ID and the specimen area ID. The mapping function 157 also draws a figure representing the target area 54 near the cut-out position associated with the tissue area 62 that includes the region of interest 63. The figure may be, for example, a line segment or a rectangle.

より詳細には、マッピング機能157は、興味領域63を含む組織領域62に対応付けられた切り出し位置を示す切り出し線53の、標本組織6が切り出された側に、対象領域54を表す図形を描画する。例えば、切り出し位置ID“2”に対応付けられた標本領域ID“2”の組織領域62bには、興味領域63aと興味領域63bが含まれる。組織領域62bに描出された標本組織6が、切り出し線53bの上方から切り出されたものである場合、マッピング機能157は、検体画像51における切り出し位置ID“2”が付与された切り出し線53bの上方に、興味領域63aに対応する対象領域54aと、興味領域63bに対応する対象領域54bとを描画する。 More specifically, the mapping function 157 draws a figure representing the target region 54 on the side of the cut-out line 53 indicating the cut-out position associated with the tissue region 62 including the region of interest 63, where the specimen tissue 6 is cut out. For example, the tissue region 62b of the specimen region ID "2" associated with the cut-out position ID "2" includes the region of interest 63a and the region of interest 63b. If the specimen tissue 6 depicted in the tissue region 62b is cut out from above the cut-out line 53b, the mapping function 157 draws the target region 54a corresponding to the region of interest 63a and the target region 54b corresponding to the region of interest 63b above the cut-out line 53b to which the cut-out position ID "2" is assigned in the specimen image 51.

また、切り出し位置ID“3”に対応付けられた標本領域ID“3”の組織領域62bには、興味領域63cが含まれる。マッピング機能157は、検体画像51における切り出し位置ID“3”が付与された切り出し線53cの上方に、興味領域63cに対応する対象領域54cを描画する。以下、個々の対象領域54a~54cを特に区別しない場合には、単に対象領域54という。 Tissue region 62b with specimen region ID "3" associated with cut-out position ID "3" includes region of interest 63c. Mapping function 157 draws target region 54c corresponding to region of interest 63c above cut-out line 53c with cut-out position ID "3" in specimen image 51. Hereinafter, when there is no need to distinguish between individual target regions 54a to 54c, they will simply be referred to as target region 54.

図10では、対象領域54を線形的に描画したが、描画の態様はこれに限定されるものではない。 In FIG. 10, the target area 54 is drawn linearly, but the drawing manner is not limited to this.

なお、切り出し線53の上方と下方のいずれに対象領域54をマッピングするかは、標本組織6がスライドガラス7に載置される際の切断面の向きに応じて異なる。マッピング機能157は、例えば、運用ルールに基づいて、切り出し線53の上方と下方のいずれに対象領域54をマッピングするかを決定する。あるいは、切り出し線53の上方と下方のいずれに対象領域54をマッピングするかユーザが選択可能であっても良い。また、マッピング機能157は、切り出し線53に重畳して対象領域54を描画しても良い。 Whether the target region 54 is mapped above or below the cut-out line 53 depends on the orientation of the cut surface when the specimen tissue 6 is placed on the slide glass 7. The mapping function 157 determines whether the target region 54 is mapped above or below the cut-out line 53, for example, based on an operational rule. Alternatively, the user may be able to select whether the target region 54 is mapped above or below the cut-out line 53. The mapping function 157 may also draw the target region 54 superimposed on the cut-out line 53.

また、標本画像61は検体画像51よりも高倍率で撮像されているため、マッピング機能157は、興味領域63に対応する対象領域54を検体画像51に描画する際、興味領域63の縮尺を、検体画像51に合わせて補正する。 In addition, since the specimen image 61 is captured at a higher magnification than the specimen image 51, when the mapping function 157 draws the target area 54 corresponding to the region of interest 63 in the specimen image 51, the scale of the region of interest 63 is corrected to match the scale of the specimen image 51.

具体的には、マッピング機能157は、検体画像51の切り出し位置における検体領域52の寸法と、切り出し位置に対応する組織領域62の寸法と、の差異に基づいて、興味領域63の寸法を補正する。マッピング機能157は、寸法を補正した興味領域63を、検体画像51上の対象領域54にマッピングする。検体領域52の寸法とは、より具体的には、検体画像51の幅方向における検体領域52の長さ、つまり検体領域52の幅である。また、組織領域62の寸法とは、より具体的には、検体領域52の幅方向と同じ方向における組織領域62の長さである。 Specifically, the mapping function 157 corrects the dimensions of the region of interest 63 based on the difference between the dimensions of the specimen region 52 at the cut-out position of the specimen image 51 and the dimensions of the tissue region 62 corresponding to the cut-out position. The mapping function 157 maps the region of interest 63 with the corrected dimensions onto the target region 54 on the specimen image 51. More specifically, the dimensions of the specimen region 52 are the length of the specimen region 52 in the width direction of the specimen image 51, that is, the width of the specimen region 52. More specifically, the dimensions of the tissue region 62 are the length of the tissue region 62 in the same direction as the width direction of the specimen region 52.

マッピング機能157は、例えば(1)式によって、補正後の対象領域54の寸法および位置を算出する。 The mapping function 157 calculates the dimensions and position of the corrected target area 54, for example, using equation (1).

Figure 0007546390000001
Figure 0007546390000001

(1)式のiは検体画像51の切り出し位置IDおよび標本画像61の標本領域IDである。Rmacro,iは、切り出し位置ID“i”に対応付けられた対象領域54の範囲を示す。Rmicro,iは、標本画像61上における標本領域ID“i”に対応付けられた興味領域63の範囲である。対象領域54の範囲および興味領域63の範囲は、検体画像51または標本画像61上の座標で表される。lmacro,iは、検体画像51における切り出し位置ID“i”に対応付けられた補正後の切り出し線53のX方向の長さ(幅)である。また、lmicro,iは、標本画像61上における組織領域62のX方向の長さ(幅)である。また、offsetは、補正後の組織領域62を対象領域54として検体画像51上に描画するための移動量である。例えば、offsetは、切り出し位置ID“i”に対応付けられた補正後の切り出し線53の左端部の座標である。 In formula (1), i is the cut-out position ID of the specimen image 51 and the specimen area ID of the specimen image 61. R macro,i indicates the range of the target area 54 associated with the cut-out position ID "i". R micro,i is the range of the region of interest 63 associated with the specimen area ID "i" on the specimen image 61. The range of the target area 54 and the range of the region of interest 63 are expressed by the coordinates on the specimen image 51 or the specimen image 61. l macro,i is the length (width) in the X direction of the corrected cut-out line 53 associated with the cut-out position ID "i" on the specimen image 51. Also, l micro,i is the length (width) in the X direction of the tissue area 62 on the specimen image 61. Also, offset is the amount of movement for drawing the corrected tissue area 62 as the target area 54 on the specimen image 51. For example, the offset is the coordinate of the left end of the corrected cut-out line 53 associated with the cut-out position ID "i".

なお、標本画像61を撮像した顕微鏡の倍率と、検体画像51を撮像したデジタルカメラの倍率とが特定可能な場合、マッピング機能157は、該倍率の差に基づいて、切り出し線53のX方向の長さ(幅)を補正しても良い。 In addition, if the magnification of the microscope that captured the specimen image 61 and the magnification of the digital camera that captured the specimen image 51 can be identified, the mapping function 157 may correct the length (width) of the cutout line 53 in the X direction based on the difference in magnification.

また、標本画像61上の組織領域62は、必ずしも検体画像51の切り出し線53と同じ向きに並んでいるとは限らないため、マッピング機能157は、検体画像51のX方向(幅方向)に相当する組織領域62の方向を、組織領域62の重心の並びに基づいて特定する。 In addition, since the tissue regions 62 on the specimen image 61 are not necessarily aligned in the same direction as the cut-out line 53 of the specimen image 51, the mapping function 157 identifies the direction of the tissue regions 62 that corresponds to the X direction (width direction) of the specimen image 51 based on the arrangement of the centers of gravity of the tissue regions 62.

図11は、実施形態に係る標本画像における組織領域の重心群の並びの一例を示す図である。重心65a~65cは、それぞれ、組織領域62a~62cに含まれる各画素の分布の中心である。例えば、重心65a~65cの座標は、それぞれ、組織領域62a~62cに含まれる各画素の座標の平均値である。 Figure 11 is a diagram showing an example of an arrangement of centers of gravity of tissue regions in a specimen image according to an embodiment. Centers of gravity 65a to 65c are the centers of distribution of the pixels contained in tissue regions 62a to 62c, respectively. For example, the coordinates of centers of gravity 65a to 65c are the average values of the coordinates of the pixels contained in tissue regions 62a to 62c, respectively.

マッピング機能157は、重心65a~65cの並ぶ方向を判定し、重心65a~65cが並ぶ方向をY軸方向、重心65a~65cが並ぶ方向に垂直な方向をX軸方向(幅方向)と認識する。マッピング機能157は、認識したX軸方向にそって、組織領域62のX方向の長さ(幅)L1を求める。X軸方向(幅方向)は、基準軸方向ともいう。 The mapping function 157 determines the direction in which the centers of gravity 65a to 65c are aligned, and recognizes the direction in which the centers of gravity 65a to 65c are aligned as the Y-axis direction, and the direction perpendicular to the direction in which the centers of gravity 65a to 65c are aligned as the X-axis direction (width direction). The mapping function 157 determines the length (width) L1 in the X-direction of the tissue region 62 along the recognized X-axis direction. The X-axis direction (width direction) is also called the reference axis direction.

図11では、標本画像61における組織領域62が並ぶ方向は、検体画像51における切り出し線53と略同じ方向であるが、組織領域62が並ぶ方向はこれに限定されるものではない。図12は、実施形態に係る標本画像における組織領域62の重心群の並びの他の一例を示す図である。図12に示すように、組織領域62が、標本画像61の縦方向に並ぶ場合もある。この場合、マッピング機能157は、重心65a~65cが並ぶ方向に基づいて、標本画像61の縦方向を、組織領域62の幅方向と判定する。 In FIG. 11, the direction in which the tissue regions 62 are arranged in the specimen image 61 is substantially the same as the cut-out line 53 in the sample image 51, but the direction in which the tissue regions 62 are arranged is not limited to this. FIG. 12 is a diagram showing another example of the arrangement of the centroids of the tissue regions 62 in a specimen image according to an embodiment. As shown in FIG. 12, the tissue regions 62 may be arranged in the vertical direction of the specimen image 61. In this case, the mapping function 157 determines that the vertical direction of the specimen image 61 is the width direction of the tissue regions 62 based on the direction in which the centroids 65a to 65c are arranged.

なお、重心65a~65cの並ぶ方向の求め方は、例えば、座標群におけるX座標およびY座標の分散の比の算出、または主成分分析等を採用しても良い。具体的には、マッピング機能157は、重心65a~65cの座標を主成分分析し、第一主成分方向と垂直な方向を基準軸方向としても良い。また、マッピング機能157は、第一主成分と第二主成分の寸法の比が閾値よりも大きい場合は、重心65a~65cの並ぶ方向を判定できないことを、後述の表示制御機能158に通知しても良い。この場合、表示制御機能158は、ユーザが基準軸方向を入力可能なGUI等の画面を表示しても良い。第一主成分と第二主成分の寸法の比の閾値は、例えば0.8とするが、これに限定されるものではない。 The direction in which the centers of gravity 65a to 65c are arranged may be determined by, for example, calculating the ratio of the variance of the X-coordinate and the Y-coordinate in the coordinate group, or by principal component analysis. Specifically, the mapping function 157 may perform principal component analysis on the coordinates of the centers of gravity 65a to 65c, and may set the direction perpendicular to the first principal component direction as the reference axis direction. If the ratio of the dimensions of the first principal component to the second principal component is greater than a threshold, the mapping function 157 may notify the display control function 158 described below that the direction in which the centers of gravity 65a to 65c are arranged cannot be determined. In this case, the display control function 158 may display a screen such as a GUI that allows the user to input the reference axis direction. The threshold for the ratio of the dimensions of the first principal component to the second principal component is, for example, 0.8, but is not limited to this.

また、マッピング機能157は、“重心65a~65cが標本画像61の縦方向に並ぶ場合は、組織領域62の幅の計測は標本画像61の横方向を基準とする”、“重心65a~65cが標本画像61の横方向に並ぶ場合は、組織領域62の幅の計測は標本画像61の縦方向を基準とする”というように規則に従って組織領域62のX方向の長さ(幅)L1を求めても良い。この場合、重心65a~65cが斜めに並んでいる場合、または、重心65a~65cの並びに一定の方向性が無い場合は、ユーザが基準軸方向を入力するものとする。 The mapping function 157 may also determine the length (width) L1 in the X-direction of the tissue region 62 according to rules such as "if the centers of gravity 65a-65c are aligned vertically in the specimen image 61, the measurement of the width of the tissue region 62 is based on the horizontal direction of the specimen image 61" and "if the centers of gravity 65a-65c are aligned horizontally in the specimen image 61, the measurement of the width of the tissue region 62 is based on the vertical direction of the specimen image 61." In this case, if the centers of gravity 65a-65c are aligned diagonally or if the centers of gravity 65a-65c are aligned without a fixed directionality, the user is to input the reference axis direction.

なお、本実施形態では、マッピング機能157が対象領域54を描画するとしたが、マッピング機能157は単に検体画像51上の対象領域54の座標を特定するだけでも良い。 In this embodiment, the mapping function 157 draws the target area 54, but the mapping function 157 may simply identify the coordinates of the target area 54 on the sample image 51.

図1に戻り、表示制御機能158は、ディスプレイ140に、GUI等の種々の画面を表示させる。また、表示制御機能158は、マッピング機能157によって興味領域63と対象領域54とがマッピングされた検体画像51および標本画像61を対応付けてディスプレイ140に表示させる。 Returning to FIG. 1, the display control function 158 causes the display 140 to display various screens such as a GUI. The display control function 158 also causes the display 140 to display the specimen image 51 and the sample image 61, in which the region of interest 63 and the target region 54 have been mapped by the mapping function 157, in association with each other.

図13は、本実施形態に係るマッピング表示画面142の一例を示す図である。例えば、図13に示すように、表示制御機能158は、検体画像51と、該検体画像51に描出された検体5から切り出された標本組織6が撮像された標本画像61a,61bとを、マッピング表示画面142として、一画面上に表示する。また、表示制御機能158は、マッピング機能157によって検体画像51上にマッピングされた対象領域54を、例えば線形の図形として表示する。対象領域54の表示態様およびマッピング表示画面142の態様は、これに限定されるものではない。 Figure 13 is a diagram showing an example of a mapping display screen 142 according to this embodiment. For example, as shown in Figure 13, the display control function 158 displays the sample image 51 and sample images 61a and 61b, which are images of sample tissue 6 cut out from the sample 5 depicted in the sample image 51, on one screen as the mapping display screen 142. The display control function 158 also displays the target area 54 mapped on the sample image 51 by the mapping function 157 as, for example, a linear figure. The display form of the target area 54 and the form of the mapping display screen 142 are not limited to this.

図14は、本実施形態に係るマッピング表示画面142の他の一例を示す図である。図14に示す画像610は、標本画像61のうち、ユーザによって選択された検体画像51上の切り出し線53が示す切り出し位置に対応付けられた組織領域62が描出された部分が切り出された画像である。例えば、表示制御機能158は、図14に示すように、検体画像51上の切り出し位置ごとに、該切り出し位置に対応付けられた組織領域62を表示しても良い。 FIG. 14 is a diagram showing another example of the mapping display screen 142 according to this embodiment. The image 610 shown in FIG. 14 is an image obtained by cutting out a portion of the specimen image 61 in which a tissue region 62 corresponding to the cut-out position indicated by the cut-out line 53 on the specimen image 51 selected by the user is depicted. For example, the display control function 158 may display the tissue region 62 corresponding to each cut-out position on the specimen image 51 as shown in FIG. 14.

また、図15は、本実施形態に係るマッピング表示画面142の他の一例を示す図である。検体画像51と標本画像61とは同じ大きさで表示されていなくとも良い。例えば、ユーザが標本画像61を選択した場合には、表示制御機能158は、図15に示すように、標本画像61を拡大して表示し、検体画像51は標本画像61よりも小さく表示する。また、ユーザが検体画像51を選択した場合には、表示制御機能158は、検体画像51を拡大して表示し、標本画像61は検体画像51よりも小さく表示する。 Also, FIG. 15 is a diagram showing another example of the mapping display screen 142 according to this embodiment. The specimen image 51 and the specimen image 61 do not have to be displayed at the same size. For example, when the user selects the specimen image 61, the display control function 158 displays the specimen image 61 in an enlarged manner as shown in FIG. 15, and the specimen image 51 is displayed smaller than the specimen image 61. Also, when the user selects the specimen image 51, the display control function 158 displays the specimen image 51 in an enlarged manner, and the specimen image 61 is displayed smaller than the specimen image 51.

また、マッピング表示画面142は、ユーザによるマッピングの変更または切り出し線53の変更等の各種の変更操作の受け付けが可能な操作画面を兼ねていても良い。 The mapping display screen 142 may also serve as an operation screen that can accept various change operations by the user, such as changing the mapping or changing the cut-out line 53.

また、ユーザは、操作画面上で変更した結果を、保存または出力する操作をすることができる。例えば、図15に示す保存ボタン81をユーザが押下した場合には、ユーザによる変更後の状態で、マッピングや、切り出し線53等の情報が、検体画像51および標本画像61と対応付けられて記憶回路120に保存される。 The user can also perform an operation to save or output the results of the changes made on the operation screen. For example, when the user presses the save button 81 shown in FIG. 15, information such as mapping and cutout line 53 is stored in the memory circuitry 120 in the state after the user's changes, in association with the specimen image 51 and the sample image 61.

また、図15に示す出力ボタン82をユーザが押下した場合には、マッピング後の検体画像51および標本画像61が出力される。出力先は、記憶回路120内の任意の保存先でも良いし、ネットワーク300を介して情報処理装置100と接続する他の情報処理装置であっても良い。他の情報処理装置は、例えば、HIS、LIS、RIS等を構成する情報処理装置であるが、これらに限定されるものではない。出力先が情報処理装置100外である場合は、ユーザによって出力対象として指定されたマッピング後の検体画像51および標本画像61は、後述の送信機能159によって、出力先に送信されるものとする。 When the user presses the output button 82 shown in FIG. 15, the sample image 51 and specimen image 61 after mapping are output. The output destination may be any storage destination in the memory circuit 120, or may be another information processing device connected to the information processing device 100 via the network 300. The other information processing device may be, for example, an information processing device constituting an HIS, LIS, RIS, etc., but is not limited to these. When the output destination is outside the information processing device 100, the sample image 51 and specimen image 61 after mapping designated as the output target by the user are transmitted to the output destination by the transmission function 159 described below.

また、本実施形態では、表示制御機能158は、情報処理装置100のディスプレイ140にマッピング表示画面142や、その他のGUIが表示させるものとしたが、ネットワーク300を介して情報処理装置100と接続するPCやタブレット端末等の端末装置のディスプレイに、マッピング表示画面142や、その他のGUIが表示させても良い。この場合、PCやタブレット端末等の端末装置のディスプレイが、表示部の一例となる。 In addition, in this embodiment, the display control function 158 displays the mapping display screen 142 or other GUI on the display 140 of the information processing device 100, but the mapping display screen 142 or other GUI may also be displayed on a display of a terminal device such as a PC or tablet terminal connected to the information processing device 100 via the network 300. In this case, the display of the terminal device such as a PC or tablet terminal is an example of a display unit.

図1に戻り、送信機能159は、マッピング機能157によって興味領域63に相当すると対象領域54がマッピングされた検体画像51を外部装置に送信する。 Returning to FIG. 1, the transmission function 159 transmits to an external device the sample image 51 on which the target region 54 has been mapped by the mapping function 157 as corresponding to the region of interest 63.

マッピング機能157によって興味領域63に相当すると対象領域54がマッピングされた検体画像51とは、検体画像51上に対象領域54を示す図形が描画された画像である。また、マッピング機能157によって興味領域63に相当すると対象領域54がマッピングされた検体画像51は、検体画像51の付帯情報として、対象領域54の位置および寸法が登録された画像データであっても良い。 The sample image 51 on which the target area 54 corresponding to the region of interest 63 has been mapped by the mapping function 157 is an image in which a figure indicating the target area 54 is drawn on the sample image 51. In addition, the sample image 51 on which the target area 54 corresponding to the region of interest 63 has been mapped by the mapping function 157 may be image data in which the position and dimensions of the target area 54 are registered as supplementary information of the sample image 51.

また、この際、送信機能159は、検体画像51に対応付けられた標本画像61も、検体画像51と共に外部装置に送信しても良い。この場合、検体画像51および標本画像61には、切り出し位置情報およびマッピングの情報が対応付けられているものとする。 In addition, at this time, the transmission function 159 may also transmit the specimen image 61 associated with the specimen image 51 to the external device together with the specimen image 51. In this case, it is assumed that the specimen image 51 and the specimen image 61 are associated with cut-out position information and mapping information.

送信先の外部装置は、例えば、ネットワーク300を介して情報処理装置100と接続する他の情報処理装置である。他の情報処理装置は、例えば、HIS、LIS、RIS等を構成する情報処理装置であるが、これらに限定されるものではない。なお、送信機能159は、マッピング機能157によって興味領域63と対象領域54とがマッピングされた検体画像51および標本画像61を自動的に送信するものとしても良いし、ユーザによって指定された検体画像51または標本画像61を送信しても良い。 The external device to which the data is to be sent is, for example, another information processing device connected to the information processing device 100 via the network 300. The other information processing device is, for example, an information processing device constituting an HIS, LIS, RIS, etc., but is not limited to these. The sending function 159 may automatically send the specimen image 51 and the specimen image 61 in which the region of interest 63 and the target region 54 have been mapped by the mapping function 157, or may send the specimen image 51 or the specimen image 61 specified by the user.

切り出し位置設定機能160は、ユーザによる切り出し位置の指定に基づいて、検体画像51に切り出し位置を設定する。ユーザによる切り出し位置の指定は、受付機能152によって受け付けられる。 The cut-out position setting function 160 sets the cut-out position in the sample image 51 based on the cut-out position specified by the user. The cut-out position specified by the user is accepted by the reception function 152.

図16は、本実施形態に係る切り出し位置の設定画面143の一例を示す図である。切り出し位置の設定画面143は、表示制御機能158によってディスプレイ140に表示される。切り出し位置の設定画面143には、標本組織6が切り出される前の検体画像51が表示される。 Figure 16 is a diagram showing an example of the cut-out position setting screen 143 according to this embodiment. The cut-out position setting screen 143 is displayed on the display 140 by the display control function 158. The cut-out position setting screen 143 displays the specimen image 51 before the specimen tissue 6 is cut out.

図16に示すように、ユーザが、切り出し位置の設定画面143に表示された検体画像51上で、マウス等の操作によって切り出し線53を描画すると、切り出し位置設定機能160は、検体画像51上の切り出し線53の座標を、切り出し位置として記録する。また、切り出し位置設定機能160は、各切り出し線53に、運用ルールに基づいて、切り出し位置IDを付与する。例えば、切り出し位置設定機能160は、検体画像51の上方から昇順に、切り出し位置IDを付与する。 As shown in FIG. 16, when a user draws an excision line 53 on the sample image 51 displayed on the excision position setting screen 143 by operating a mouse or the like, the excision position setting function 160 records the coordinates of the excision line 53 on the sample image 51 as the excision position. In addition, the excision position setting function 160 assigns an excision position ID to each excision line 53 based on the operation rules. For example, the excision position setting function 160 assigns excision position IDs in ascending order from the top of the sample image 51.

切り出し線53は、検体画像51の幅方向と平行でなくとも良く、ユーザによって任意の角度で設定可能である。また、切り出し位置設定機能160は、例えば、検体画像51の幅方向に対する切り出し線53のなす角θが閾値未満の場合には、切り出し線53の上方を標本組織6が採取される方向と認識し、なす角θが閾値以上の場合には、切り出し線53の下方を標本組織6が採取される方向と認識しても良い。なす角θの閾値は、例えば270度するが、これに限定されるものではない。なお、図16において、なす角θが開始位置を示すために記載した検体画像51の幅方向と平行な線は、実際には切り出し位置の設定画面143上に表示されなくとも良い。 The cut-out line 53 does not have to be parallel to the width direction of the specimen image 51, and can be set at any angle by the user. In addition, the cut-out position setting function 160 may recognize the upper side of the cut-out line 53 as the direction in which the specimen tissue 6 is collected when the angle θ of the cut-out line 53 with respect to the width direction of the specimen image 51 is less than a threshold value, and may recognize the lower side of the cut-out line 53 as the direction in which the specimen tissue 6 is collected when the angle θ is equal to or greater than the threshold value. The threshold value of the angle θ is, for example, 270 degrees, but is not limited to this. In FIG. 16, the line parallel to the width direction of the specimen image 51, which is drawn to indicate the start position of the angle θ, may not actually be displayed on the cut-out position setting screen 143.

また、切り出し位置設定機能160は、所定のガイドラインに従って、一定の間隔で切り出し線53を自動的に設定しても良い。 The cut-out position setting function 160 may also automatically set cut-out lines 53 at regular intervals according to predetermined guidelines.

切り出し線53が設定された検体画像51は、例えば、ユーザの操作によって記憶回路120に保存される。切り出し線53が設定された検体画像51とは、切り出し位置情報と対応付けられた検体画像51である。切り出し位置情報は、検体画像51の検体画像IDと、検体画像51上の切り出し線53の座標と、切り出し位置IDとが対応付けられた情報である。切り出し位置情報は、検体画像51の付帯情報として1つの画像データ内に登録されても良いし、別個のデータファイルとして保存されても良い。また、切り出し線53が設定された検体画像51の保存先は記憶回路120に限定されるものではなく、検体画像保管装置201でも良い。切り出し位置情報は、アノテーション情報(正解情報)ともいう。 The sample image 51 with the cutout line 53 set is stored in the memory circuit 120, for example, by a user operation. The sample image 51 with the cutout line 53 set is the sample image 51 associated with cutout position information. The cutout position information is information in which the sample image ID of the sample image 51, the coordinates of the cutout line 53 on the sample image 51, and the cutout position ID are associated with each other. The cutout position information may be registered in one image data as additional information of the sample image 51, or may be stored as a separate data file. In addition, the storage destination of the sample image 51 with the cutout line 53 set is not limited to the memory circuit 120, and may be the sample image storage device 201. The cutout position information is also called annotation information (correct answer information).

切り出し線53が設定された検体画像51に基づいて、病理医等が、検体5から標本組織6を切り出し、標本組織6に染色等の処理を施した後、標本画像61を撮像する。 Based on the specimen image 51 with the cut-out line 53 set, the pathologist or the like cuts out the specimen tissue 6 from the specimen 5, performs processing such as staining on the specimen tissue 6, and then captures the specimen image 61.

また、切り出し位置設定機能160は、検体5から標本組織6を切り出す前だけではなく、切り出した後に、検体画像51の切り出し位置と標本画像61の組織領域62の対応付けの修正の際に、ユーザによる切り出し位置の分割等の操作を受け付けても良い。 The cut-out position setting function 160 may also accept operations such as dividing the cut-out position by the user when correcting the correspondence between the cut-out position of the specimen image 51 and the tissue area 62 of the specimen image 61 not only before the specimen tissue 6 is cut out from the specimen 5 but also after the cut-out.

図17は、本実施形態に係る切り出し位置の分割の一例を示す図である。例えば、表示制御機能158によってディスプレイ140に表示された操作画面146上で、ユーザが分割ボタン86を押下した場合、切り出し線53の分割位置を示すマーカ97が、検体画像51上に表示される。ユーザは、マウス等の操作によってマーカ97を移動させることにより、分割位置を設定可能である。切り出し線53が分割された場合、切り出し位置IDは、分割された切り出し線ごとに枝番で表される。 Figure 17 is a diagram showing an example of the division of the cut-out position according to this embodiment. For example, when the user presses the division button 86 on the operation screen 146 displayed on the display 140 by the display control function 158, a marker 97 indicating the division position of the cut-out line 53 is displayed on the sample image 51. The user can set the division position by moving the marker 97 by operating the mouse or the like. When the cut-out line 53 is divided, the cut-out position ID is represented by a sub-number for each divided cut-out line.

図18は、本実施形態に係る切り出し線53が分割された場合における切り出し位置IDの一例を示す図である。図18に示す例では、3本目の切り出し線53が、切り出し線531と、切り出し線532とに分割されたものとする。この場合、切り出し位置設定機能160は、切り出し線531に切り出し位置ID“3-1”、切り出し線532に切り出し位置ID“3-2”を設定する。また、この場合、切り出し線531と、切り出し線532に対応する組織領域62c、組織領域62dの組織領域IDも、上述の対応付け機能156またはユーザの操作によって“3-1”、“3-2”に変更される。なお、切り出し線53の分割は、標本画像61の撮像前に、予め実施されても良い。 Figure 18 is a diagram showing an example of the cut-out position ID when the cut-out line 53 according to this embodiment is divided. In the example shown in Figure 18, the third cut-out line 53 is divided into cut-out line 531 and cut-out line 532. In this case, the cut-out position setting function 160 sets the cut-out position ID "3-1" for the cut-out line 531 and the cut-out position ID "3-2" for the cut-out line 532. In this case, the tissue region IDs of the tissue region 62c and tissue region 62d corresponding to the cut-out line 531 and the cut-out line 532 are also changed to "3-1" and "3-2" by the above-mentioned association function 156 or the user's operation. The cut-out line 53 may be divided in advance before the specimen image 61 is captured.

なお、本実施形態においては、切り出し位置設定機能160は、情報処理装置100の機能の一例として説明したが、切り出し位置設定機能160は、情報処理装置100とは異なる装置に備えられても良い。 In this embodiment, the cut-out position setting function 160 has been described as an example of a function of the information processing device 100, but the cut-out position setting function 160 may be provided in a device other than the information processing device 100.

次に、以上のように構成された情報処理装置100で実行される切り出し位置の設定処理の流れについて説明する。 Next, we will explain the flow of the cut-out position setting process executed by the information processing device 100 configured as described above.

図19は、本実施形態に係る切り出し位置の設定処理の流れの一例を示すフローチャートである。このフローチャートの処理の前提として、検体画像51がデジタルカメラ等によって撮像されて、検体画像保管装置201に保存されているものとする。 Figure 19 is a flowchart showing an example of the flow of the cut-out position setting process according to this embodiment. The process of this flowchart is premised on the assumption that the sample image 51 has been captured by a digital camera or the like and stored in the sample image storage device 201.

まず、受付機能152は、ユーザによる検体画像51を指定する操作を受け付ける(S1)。ユーザは、例えば、病理番号、患者ID、検体番号、または撮像日等のいずれか、またはこれらの組み合わせを入力することにより、取得対象の検体画像51を指定する。また、ユーザは、検体画像保管装置201に保存された検体画像51のリストから、所望の検体画像51を選択しても良い。 First, the reception function 152 receives an operation by the user to specify a sample image 51 (S1). The user specifies the sample image 51 to be acquired by inputting, for example, a pathology number, a patient ID, a sample number, or an imaging date, or a combination of these. The user may also select a desired sample image 51 from a list of sample images 51 stored in the sample image storage device 201.

そして、取得機能151は、ユーザによって指定された検体画像51を、検体画像保管装置201から取得する(S2)。ここで、表示制御機能158は、検体画像51を含む切り出し位置の設定画面143を、ディスプレイ140に表示させる。 Then, the acquisition function 151 acquires the sample image 51 specified by the user from the sample image storage device 201 (S2). Here, the display control function 158 causes the display 140 to display the cut-out position setting screen 143 including the sample image 51.

また、受付機能152は、ユーザによる検体画像51における切り出し位置を指定する操作を受け付ける(S3)。ユーザによる検体画像51における切り出し位置を指定する操作は、例えば、切り出し位置の設定画面143において、切り出し線53を検体画像51上に描画する操作である。 The reception function 152 also receives an operation by the user to specify an excision position in the sample image 51 (S3). The operation by the user to specify an excision position in the sample image 51 is, for example, an operation to draw an excision line 53 on the sample image 51 on the excision position setting screen 143.

切り出し位置設定機能160は、ユーザによって指定された切り出し位置に、例えば運用ルールに基づいて、切り出し位置IDを付与する(S4)。 The cut-out position setting function 160 assigns a cut-out position ID to the cut-out position specified by the user, for example, based on operational rules (S4).

また、受付機能152は、ユーザによる切り出し位置の変更操作を受け付けたか否かを判定する(S5)。 The reception function 152 also determines whether or not a user operation to change the cut-out position has been received (S5).

受付機能152がユーザによる切り出し位置の変更操作を受け付けたと判定した場合(S5“Yes”)、切り出し位置設定機能160は、変更操作に基づいて、切り出し位置を変更する(S6)。また、切り出し位置の変更だけではなく、切り出し線を分割するユーザの操作を受け付けた場合にも、切り出し位置設定機能160は、ユーザの操作に基づいて、切り出し線を分割する。そして、S5の処理に戻る。 When the reception function 152 determines that a user operation to change the cut-out position has been received (S5 "Yes"), the cut-out position setting function 160 changes the cut-out position based on the change operation (S6). In addition to changing the cut-out position, when a user operation to divide the cut-out line is received, the cut-out position setting function 160 also divides the cut-out line based on the user operation. Then, the process returns to S5.

受付機能152は、ユーザによる切り出し位置の変更操作を受け付けていないと判定した場合(S5“No”)、ユーザによる切り出し位置の保存操作を受け付けたか否かを判定する(S7)。受付機能152は、ユーザによる切り出し位置の保存操作を受け付けていないと判定した場合(S7“No”)、S5の処理に戻る。 If the reception function 152 determines that the user's operation to change the cut-out position has not been accepted (S5 "No"), it determines whether the user's operation to save the cut-out position has been accepted (S7). If the reception function 152 determines that the user's operation to save the cut-out position has not been accepted (S7 "No"), it returns to the processing of S5.

また、受付機能152がユーザによる切り出し位置の保存操作を受け付けたと判定した場合(S7“Yes”)、切り出し位置設定機能160は、切り出し位置付きの検体画像51、つまり切り出し位置情報と対応付けられた検体画像51を、記憶回路120に保存する(S8)。なお、切り出し位置設定機能160は、切り出し位置付きの検体画像51を、送信機能159を介して、検体画像保管装置201に送信しても良い。ここで、このフローチャートの処理は終了する。 If the reception function 152 determines that the user's operation to save the cut-out position has been received (S7 "Yes"), the cut-out position setting function 160 stores the sample image 51 with the cut-out position, i.e., the sample image 51 associated with the cut-out position information, in the memory circuit 120 (S8). The cut-out position setting function 160 may transmit the sample image 51 with the cut-out position to the sample image storage device 201 via the transmission function 159. At this point, the processing of this flowchart ends.

次に、本実施形態に係る検体画像51と標本画像61のマッピング処理の流れについて説明する。 Next, we will explain the flow of the mapping process for the specimen image 51 and the sample image 61 according to this embodiment.

図20は、本実施形態に係る検体画像51と標本画像61のマッピング処理の流れの一例を示すフローチャートである。このフローチャートの処理の前提として、検体画像51および標本画像61が撮像されて、検体画像保管装置201および標本画像保管装置202に保存されているものとする。また、検体画像51の切り出し位置の設定を情報処理装置100の切り出し位置設定機能160が行った場合には、検体画像51は、情報処理装置100の記憶回路120に保存されていても良い。 Figure 20 is a flowchart showing an example of the flow of the mapping process of the sample image 51 and the specimen image 61 according to this embodiment. As a premise for the processing of this flowchart, it is assumed that the sample image 51 and the specimen image 61 have been captured and stored in the sample image storage device 201 and the specimen image storage device 202. In addition, if the cut-out position setting function 160 of the information processing device 100 sets the cut-out position of the sample image 51, the sample image 51 may be stored in the memory circuit 120 of the information processing device 100.

まず、受付機能152は、ユーザによる検体画像51および標本画像61を指定する操作を受け付ける(S101)。例えば、ユーザは、ユーザは、例えば、病理番号、患者ID、検体番号、または撮像日等のいずれか、またはこれらの組み合わせを入力することにより、取得対象の検体画像51および標本画像61を指定する。また、ユーザは、検体画像保管装置201に保存された検体画像51のリストから、所望の検体画像51を選択しても良い。この場合、選択された検体画像51と同じ検体番号に対応付けられた標本画像61が、自動的に選択される。 First, the reception function 152 receives an operation by the user to specify a sample image 51 and a specimen image 61 (S101). For example, the user specifies the sample image 51 and the specimen image 61 to be acquired by inputting, for example, a pathology number, a patient ID, a specimen number, or an imaging date, or a combination of these. The user may also select a desired sample image 51 from a list of sample images 51 stored in the sample image storage device 201. In this case, a specimen image 61 associated with the same specimen number as the selected sample image 51 is automatically selected.

そして、取得機能151は、取得対象として指定された検体画像51を検体画像保管装置201から取得する(S102)。なお、検体画像51が記憶回路120に保存されている場合には、取得機能151は、記憶回路120から取得対象として指定された検体画像51を記憶回路120から取得する。 Then, the acquisition function 151 acquires the sample image 51 designated as the acquisition target from the sample image storage device 201 (S102). Note that, if the sample image 51 is stored in the memory circuitry 120, the acquisition function 151 acquires the sample image 51 designated as the acquisition target from the memory circuitry 120.

また、取得機能151は、取得対象として指定された標本画像61を標本画像保管装置202から取得する(S103)。 The acquisition function 151 also acquires the specimen image 61 specified as the acquisition target from the specimen image storage device 202 (S103).

次に、組織領域認識機能153は、取得された標本画像61から、深層学習等によって組織領域62を認識する(S104)。 Next, the tissue area recognition function 153 recognizes the tissue area 62 from the acquired specimen image 61 by deep learning or the like (S104).

また、興味領域認識機能154は、取得された標本画像61から、深層学習等によって興味領域63を認識する(S105)。 In addition, the region of interest recognition function 154 recognizes a region of interest 63 from the acquired specimen image 61 by deep learning or the like (S105).

次に、切り出し位置認識機能155は、取得された検体画像51から、切り出し位置を認識する(S106)。例えば、検体画像51の切り出し線53および切り出し位置IDが切り出し位置設定機能160によって設定されたものである場合には、切り出し位置認識機能155は、検体画像51に対応付けられた切り出し位置情報から、切り出し線53および切り出し位置IDを特定する。また、検体画像51の切り出し線53および切り出し位置IDが切り出し位置設定機能160によって設定されていない場合は、例えば、切り出し位置認識機能155は、OCRや所定の運用ルール等に基づいて、切り出し線53および切り出し位置IDを特定する。そして、切り出し位置認識機能155は、検体画像51における検体領域52を認識し、特定した切り出し線53および切り出し位置IDと、認識した検体領域52とに基づいて、切り出し線53を補正することにより、検体画像51における切り出し位置を認識する。 Next, the cut-out position recognition function 155 recognizes the cut-out position from the acquired sample image 51 (S106). For example, if the cut-out line 53 and the cut-out position ID of the sample image 51 are set by the cut-out position setting function 160, the cut-out position recognition function 155 identifies the cut-out line 53 and the cut-out position ID from the cut-out position information associated with the sample image 51. Also, if the cut-out line 53 and the cut-out position ID of the sample image 51 are not set by the cut-out position setting function 160, for example, the cut-out position recognition function 155 identifies the cut-out line 53 and the cut-out position ID based on OCR or a predetermined operation rule. Then, the cut-out position recognition function 155 recognizes the sample region 52 in the sample image 51, and recognizes the cut-out position in the sample image 51 by correcting the cut-out line 53 based on the identified cut-out line 53 and the cut-out position ID and the recognized sample region 52.

次に、対応付け機能156は、標本画像61の組織領域62と検体画像51の切り出し位置とを対応付ける(S107)。例えば、対応付け機能156は、運用ルールに基づいて、組織領域62に組織領域IDを設定する。対応付け機能156は、該組織領域IDと切り出し位置の切り出し位置IDとを1対1の関係で対応付ける。 Next, the association function 156 associates the tissue region 62 of the specimen image 61 with the cut-out position of the specimen image 51 (S107). For example, the association function 156 sets a tissue region ID to the tissue region 62 based on the operation rules. The association function 156 associates the tissue region ID with the cut-out position ID of the cut-out position in a one-to-one relationship.

次に、マッピング機能157は、標本画像61の組織領域62の含まれる興味領域63を、検体画像51にマッピングする(S108)。例えばマッピング機能157は、検体画像51上で興味領域63に対応する画像範囲である対象領域54に、対象領域54を示す図形を描画する。ここで、表示制御機能158は、例えば図13で説明したマッピング表示画面142をディスプレイ140に表示させる。 Next, the mapping function 157 maps the region of interest 63 that includes the tissue region 62 of the specimen image 61 onto the specimen image 51 (S108). For example, the mapping function 157 draws a figure indicating the target region 54 in the target region 54, which is an image range on the specimen image 51 that corresponds to the region of interest 63. Here, the display control function 158 causes the display 140 to display, for example, the mapping display screen 142 described in FIG. 13.

そして、受付機能152は、ユーザによる対応付けの変更操作を受け付けたか否かを判定する(S109)。受付機能152は、ユーザによる対応付けの変更操作を受け付けたと判定した場合(S109“Yes”)、ユーザの操作に基づいて、組織領域IDまたは切り出し位置IDを変更することによって対応付けを変更する(S110)。その後、S109の処理に戻る。 Then, the reception function 152 judges whether or not an operation to change the association by the user has been accepted (S109). When the reception function 152 judges that an operation to change the association by the user has been accepted (S109 "Yes"), the reception function 152 changes the association by changing the tissue area ID or the cut-out position ID based on the user's operation (S110). Then, the process returns to S109.

そして、受付機能152は、ユーザによる対応付けの変更操作を受け付けていないと判定した場合(S109“No”)、ユーザによる保存操作を受け付けたか否かを判定する(S111)。受付機能152は、ユーザによる対応付けの変更操作を受け付けていないと判定した場合(S111“No”)、S109の処理に戻る。 If the reception function 152 determines that a user-initiated operation to change the association has not been accepted (S109 "No"), it determines whether a user-initiated save operation has been accepted (S111). If the reception function 152 determines that a user-initiated operation to change the association has not been accepted (S111 "No"), it returns to the process of S109.

受付機能152がユーザによる保存操作を受け付けたと判定した場合(S111“Yes”)、マッピング機能157は、マッピング処理済みの検体画像51と標本画像61とを対応付けて記憶回路120に保存する(S112)。 When the reception function 152 determines that a save operation by the user has been received (S111 "Yes"), the mapping function 157 associates the mapped sample image 51 and specimen image 61 and saves them in the memory circuitry 120 (S112).

このように、本実施形態の情報処理装置100は、検体画像51における切り出し位置と、該切り出し位置から切り出された標本組織6が描出された標本画像61における組織領域62とを対応付けると共に、標本画像61の興味領域63と、検体画像51において標本画像61の興味領域63に相当する対象領域54とをマッピングする。このため、本実施形態の情報処理装置100によれば、検体画像51に描出された検体5における標本組織6の切り出し位置と、標本画像61に描出された標本組織6上の病巣領域等の興味領域63との対応関係を、医師等が把握することを容易にすることができる。 In this way, the information processing device 100 of this embodiment corresponds the cut-out position in the specimen image 51 to the tissue region 62 in the specimen image 61 in which the specimen tissue 6 cut out from the cut-out position is depicted, and maps the region of interest 63 in the specimen image 61 to the target region 54 in the specimen image 51 that corresponds to the region of interest 63 in the specimen image 61. Therefore, according to the information processing device 100 of this embodiment, it is possible for a doctor or the like to easily grasp the correspondence between the cut-out position of the specimen tissue 6 in the specimen 5 depicted in the specimen image 51 and the region of interest 63, such as a lesion region, on the specimen tissue 6 depicted in the specimen image 61.

例えば、従来、病理医等が病理診断のレポートを作成する際に、検体の一部組織を顕微鏡等で拡大して目視しながら、該一部組織に含まれる興味領域に対応する検体画像の領域を目視で把握し、把握した結果を手作業で検体画像上に記入する作業を行う場合があった。このような作業では、病理医等が、興味領域と検体画像との対応関係を高精度に把握することが困難な場合があった。また、興味領域を書き写すために顕微鏡と検体画像を交互に確認するため、作業の負荷が高くなる場合があった。これに対して、本実施形態の情報処理装置100は、検体画像51上に標本画像61の興味領域63に相当する対象領域54をマッピングするため、病理医等が、興味領域と検体画像との対応関係を高精度に把握することを可能にする。 For example, in the past, when a pathologist or the like prepared a pathology diagnosis report, the pathologist or the like would enlarge and visually inspect a portion of the tissue of the specimen using a microscope or the like, visually grasp the area of the specimen image corresponding to the region of interest contained in the portion of the tissue, and manually write the grasped result on the specimen image. In such a task, it may be difficult for the pathologist or the like to grasp the correspondence between the region of interest and the specimen image with high accuracy. In addition, since the pathologist or the like must alternate between checking the microscope and the specimen image to transcribe the region of interest, the workload may be high. In contrast, the information processing device 100 of this embodiment maps the target region 54 corresponding to the region of interest 63 of the specimen image 61 onto the specimen image 51, enabling the pathologist or the like to grasp the correspondence between the region of interest and the specimen image with high accuracy.

また、本実施形態の情報処理装置100は、興味領域63と対象領域54とがマッピングされた検体画像51および標本画像61を対応付けてディスプレイ140に表示させる。このため、本実施形態の情報処理装置100によれば、標本画像61に描出された標本組織6上の病巣領域等の興味領域63との対応関係を、医師等が視覚的に把握することができる。 The information processing device 100 of this embodiment also displays the specimen image 51 and the specimen image 61, in which the region of interest 63 and the target region 54 are mapped, in correspondence with each other on the display 140. Therefore, according to the information processing device 100 of this embodiment, a doctor or the like can visually grasp the correspondence between the region of interest 63 depicted in the specimen image 61, such as a lesion region on the specimen tissue 6.

また、本実施形態の情報処理装置100は、検体画像51における切り出し位置と、標本画像61における組織領域62との対応付けを修正するユーザの操作を受け付け、受け付けられたユーザの操作に基づいて、切り出し位置と組織領域62との対応付けを修正する。このため、本実施形態の情報処理装置100によれば、スライドガラス7に標本組織6が載置された位置が運用ルール通りではない場合であっても、ユーザの操作によって切り出し位置と、組織領域62との対応付けを柔軟に修正することができる。 The information processing device 100 of this embodiment also accepts a user operation to correct the correspondence between the cut-out position in the specimen image 51 and the tissue region 62 in the specimen image 61, and corrects the correspondence between the cut-out position and the tissue region 62 based on the accepted user operation. Therefore, according to the information processing device 100 of this embodiment, even if the position at which the specimen tissue 6 is placed on the slide glass 7 does not follow the operational rules, the correspondence between the cut-out position and the tissue region 62 can be flexibly corrected by the user's operation.

また、本実施形態の情報処理装置100は、ユーザによる検体画像51における切り出し位置の指定を受け付け、受け付けられた切り出し位置に基づいて、検体画像51に切り出し位置を設定する。このため、本実施形態の情報処理装置100によれば、ユーザの所望の位置に切り出し位置を設定することができるとともに、切り出し位置と組織領域62との対応付けの際に、切り出し位置を正確に特定することが可能になる。 The information processing device 100 of this embodiment also accepts a cut-out position in the sample image 51 designated by the user, and sets the cut-out position in the sample image 51 based on the accepted cut-out position. Therefore, according to the information processing device 100 of this embodiment, it is possible to set the cut-out position at a position desired by the user, and it is also possible to accurately identify the cut-out position when associating the cut-out position with the tissue region 62.

また、本実施形態の情報処理装置100は、検体画像51の切り出し位置における検体領域52の寸法と、組織領域62の寸法と、の差異に基づいて、興味領域63の寸法を補正し、寸法を補正した興味領域63を検体画像51上の対象領域54にマッピングする。このため、本実施形態の情報処理装置100によれば、標本画像61と検体画像51との縮尺の差異を補正して、検体画像51上の興味領域63に相当する位置を対象領域54として表せるため、検体5における興味領域63の位置および範囲を、医師等が高精度に把握することができる。 In addition, the information processing device 100 of this embodiment corrects the dimensions of the region of interest 63 based on the difference between the dimensions of the specimen region 52 at the cut-out position of the specimen image 51 and the dimensions of the tissue region 62, and maps the region of interest 63 with the corrected dimensions to the target region 54 on the specimen image 51. Therefore, according to the information processing device 100 of this embodiment, the difference in scale between the specimen image 61 and the specimen image 51 can be corrected, and the position corresponding to the region of interest 63 on the specimen image 51 can be represented as the target region 54, so that a doctor or the like can grasp the position and range of the region of interest 63 in the specimen 5 with high accuracy.

また、本実施形態の情報処理装置100は、興味領域63を含む組織領域62に対応付けられた切り出し位置の近傍に、対象領域54を表す図形を描画する。このため、本実施形態の情報処理装置100によれば、標本画像61で認識された興味領域63の検体5における位置および範囲を、医師等が視覚的に把握することができる。 In addition, the information processing device 100 of this embodiment draws a figure representing the target region 54 near the cut-out position associated with the tissue region 62 including the region of interest 63. Therefore, according to the information processing device 100 of this embodiment, a doctor or the like can visually grasp the position and range in the specimen 5 of the region of interest 63 recognized in the specimen image 61.

さらに、本実施形態の情報処理装置100は、興味領域63を含む組織領域62に対応付けられた切り出し位置を示す切り出し線53の、標本組織6が切り出された側に、対象領域54を表す図形を描画する。このため、本実施形態の情報処理装置100によれば、標本画像61から認識された興味領域63が、切り出し線53のいずれの側に位置するのかを、医師等が容易に把握することができる。 Furthermore, the information processing device 100 of this embodiment draws a figure representing the target region 54 on the side of the cut-out line 53 indicating the cut-out position associated with the tissue region 62 including the region of interest 63, where the specimen tissue 6 is cut out. Therefore, according to the information processing device 100 of this embodiment, a doctor or the like can easily grasp on which side of the cut-out line 53 the region of interest 63 recognized from the specimen image 61 is located.

また、本実施形態の情報処理装置100は、複数の標本画像と、複数の標本画像において病巣部位が描出された画像領域との対応関係が学習された学習済みモデル90に標本画像61を入力し、学習済みモデル90から出力された画像領域を、興味領域63が描出された画像領域として認識する。このため、本実施形態の情報処理装置100によれば、医師等が標本画像上に手動で興味領域の範囲を記入する等の作業を削減し、効率的に興味領域63を特定することができる。 In addition, the information processing device 100 of this embodiment inputs the specimen image 61 to a trained model 90 that has learned the correspondence between multiple specimen images and image regions in which lesion sites are depicted in the multiple specimen images, and recognizes the image region output from the trained model 90 as the image region in which the region of interest 63 is depicted. Therefore, the information processing device 100 of this embodiment can reduce the work of a doctor or the like manually writing the range of the region of interest on the specimen image, and can efficiently identify the region of interest 63.

また、本実施形態の情報処理装置100は、興味領域63に相当する対象領域54がマッピングされた検体画像51を外部装置に送信する。このため、本実施形態の情報処理装置100によれば、検体画像51における対象領域54のマッピング結果を、HIS等の外部装置に登録することができる。 The information processing device 100 of this embodiment also transmits the sample image 51 onto which the target region 54 corresponding to the region of interest 63 is mapped to an external device. Therefore, according to the information processing device 100 of this embodiment, the mapping result of the target region 54 in the sample image 51 can be registered in an external device such as an HIS.

なお、本実施形態において説明した学習済みモデル90は、ユーザのフィードバックを取得することにより、学習済みモデル90の内部アルゴリズムをさらに更新する「自己学習するモデル」を含むものとする。また、学習済みモデル90だけではなく、本実施形態において説明した他の学習済みモデルについても、「自己学習するモデル」を含むものとする。また、学習済みモデル90およびその他の本実施形態において説明した学習済みモデルは、ASIC、FPGA等の集積回路によって構築されても良い。また、学習済みモデル90およびその他の本実施形態において説明した学習済みモデルの代わりに、数式モデル、ルックアップテーブル、またはデータベース等が適用されても良い。 The trained model 90 described in this embodiment includes a "self-learning model" that further updates the internal algorithm of the trained model 90 by obtaining user feedback. In addition to the trained model 90, the other trained models described in this embodiment also include "self-learning models". The trained model 90 and other trained models described in this embodiment may be constructed using integrated circuits such as ASICs and FPGAs. Instead of the trained model 90 and other trained models described in this embodiment, a mathematical model, a lookup table, a database, or the like may be applied.

なお、本実施形態においてマッピング機能157が実行するものとして説明した処理は、表示制御機能158が実行しても良い。例えば、対象領域54を表す図形が描画された画像を予め生成および保存しておくのではなく、ディスプレイ140に表示する際に、表示制御機能158が対象領域54を表す図形を一時的に表示させても良い。 The processing described in this embodiment as being executed by the mapping function 157 may be executed by the display control function 158. For example, instead of generating and saving in advance an image in which a figure representing the target area 54 is drawn, the display control function 158 may temporarily display the figure representing the target area 54 when displaying it on the display 140.

(変形例1)
上述の実施形態においては、マッピング機能157は、標本画像61の興味領域63に対応する検体画像51の対象領域54を表す図形を、検体画像51上に描画していた。本変形例においては、マッピング機能157は、興味領域63に複数種類の組織が含まれる場合には、組織の種類ごとに、検体画像51上の対象領域54を、異なる表示態様で描画する。
(Variation 1)
In the above embodiment, the mapping function 157 draws, on the sample image 51, a figure representing the target region 54 of the sample image 51 corresponding to the region of interest 63 of the specimen image 61. In this modified example, when the region of interest 63 includes multiple types of tissue, the mapping function 157 draws the target region 54 on the sample image 51 in a different display mode for each type of tissue.

例えば、上述の実施形態で説明したように、興味領域63は、腫瘍、粘膜、粘膜筋板、粘膜下層、または固有筋層のうち、いずれか一の組織が含まれても良いし、複数種類の組織が含まれても良い。 For example, as described in the above embodiment, the region of interest 63 may include any one of the following tissues: tumor, mucosa, muscularis mucosa, submucosa, or muscularis propria, or may include multiple types of tissue.

図21は、変形例1に係る対象領域54の表示態様の一例を示す図である。図21の上段に示すように、標本画像61の組織領域62には、3つの興味領域63g,63x,63hが含まれる。このうち、興味領域63gおよび興味領域63hが良性腫瘍であり、興味領域63xは悪性腫瘍である。つまり、興味領域63gおよび興味領域63hは同じ種類の組織であるが、興味領域63xは興味領域63gおよび興味領域63hとは異なる種類の組織である。 Figure 21 is a diagram showing an example of the display mode of the target region 54 according to the first modification. As shown in the upper part of Figure 21, the tissue region 62 of the specimen image 61 includes three regions of interest 63g, 63x, and 63h. Of these, the regions of interest 63g and 63h are benign tumors, and the region of interest 63x is a malignant tumor. In other words, the regions of interest 63g and 63h are the same type of tissue, but the region of interest 63x is a different type of tissue from the regions of interest 63g and 63h.

興味領域認識機能154は、Selective Searchのようなルールベースによる画像処理または深層学習等によって、興味領域63g,63x,63hのそれぞれの組織の種類を認識する。例えば、興味領域認識機能154は、興味領域63gおよび興味領域63hが良性腫瘍であること、および、興味領域63xが悪性腫瘍であることを認識する。 The region of interest recognition function 154 recognizes the tissue type of each of the regions of interest 63g, 63x, and 63h by rule-based image processing such as Selective Search or deep learning. For example, the region of interest recognition function 154 recognizes that the regions of interest 63g and 63h are benign tumors and that the region of interest 63x is a malignant tumor.

マッピング機能157は、興味領域認識機能154による興味領域63の組織の種類の認識結果に基づいて、興味領域63に複数種類の組織が含まれるか否かを判定する。マッピング機能157は、興味領域63に複数種類の組織が含まれる場合には、組織の種類ごとに、検体画像51上の対象領域54を表す図形を、異なる表示態様で描画する。 The mapping function 157 determines whether the region of interest 63 includes multiple types of tissues based on the recognition result of the tissue type of the region of interest 63 by the region of interest recognition function 154. If the region of interest 63 includes multiple types of tissues, the mapping function 157 draws a figure representing the target region 54 on the specimen image 51 in a different display mode for each type of tissue.

例えば、図21に示す表示例1~3では、マッピング機能157は、興味領域63g,63hに対応する対象領域54g,54hと、興味領域63xに対応する対象領域54xとを異なる表示態様で描写する。例えば、マッピング機能157は、対象領域54g,54hと対象領域54xとを、異なる色の線分で表示する。なお、表示態様の差異は、これに限定されるものではない。 For example, in display examples 1 to 3 shown in FIG. 21, the mapping function 157 depicts the target regions 54g, 54h corresponding to the regions of interest 63g, 63h, and the target region 54x corresponding to the region of interest 63x in different display modes. For example, the mapping function 157 displays the target regions 54g, 54h and the target region 54x with line segments of different colors. Note that the difference in display mode is not limited to this.

また、表示例1では、マッピング機能157は、対象領域54xを、対象領域54g,54hに重畳して表示させている。悪性腫瘍の方が良性腫瘍よりも病理診断における優先度が高いため、マッピング機能157は、このような描画により、対象領域54xが対象領域54g,54hで隠れることを回避する。なお、描画の際の優先度は、興味領域認識機能154が決定するものとしても良い。また、ユーザによる優先度を変更する操作によって、描画の際の優先度が変更されても良い。 In addition, in display example 1, the mapping function 157 displays the target region 54x superimposed on the target regions 54g and 54h. Because malignant tumors have a higher priority in pathological diagnosis than benign tumors, the mapping function 157 prevents the target region 54x from being hidden by the target regions 54g and 54h by drawing it in this manner. Note that the priority at the time of drawing may be determined by the region of interest recognition function 154. Furthermore, the priority at the time of drawing may be changed by an operation by the user to change the priority.

また、表示例2では、マッピング機能157は、対象領域54x,54g,54hを表す線分の位置をずらして描画する。これにより、全ての対象領域54x,54g,54hに対応する線分が、検体画像51上に表示される。 In addition, in display example 2, the mapping function 157 shifts the positions of the line segments representing the target regions 54x, 54g, and 54h. As a result, the line segments corresponding to all of the target regions 54x, 54g, and 54h are displayed on the sample image 51.

また、表示例3では、マッピング機能157は、対象領域54xを表す線分の太さと、対象領域54g,54hを表す線分の太さとを変更して描画する。これにより、全ての対象領域54x,54g,54hに対応する線分が、検体画像51上に表示される。 In addition, in display example 3, the mapping function 157 changes and draws the line segment representing the target area 54x and the line segments representing the target areas 54g and 54h. As a result, the line segments corresponding to all of the target areas 54x, 54g, and 54h are displayed on the sample image 51.

表示例1~3のうち、いずれの態様で検体画像51上の対象領域54を表す図形が描画されるかは、例えばユーザが選択可能であっても良いし、予め定められていてもよい。 Which of the display examples 1 to 3 in which the figure representing the target area 54 on the sample image 51 is drawn may be selectable by the user, for example, or may be predetermined.

(変形例2)
また、上述の実施形態では、マッピング機能157は、興味領域63に相当する対象領域54を検体画像51上にマッピングしたが、マッピングの対象はこれに限定されるものではない。
(Variation 2)
In the above embodiment, the mapping function 157 maps the target region 54 corresponding to the region of interest 63 onto the sample image 51, but the target of mapping is not limited to this.

図22は、変形例2に係るマーカ66,56の一例を示す図である。本変形例においては、受付機能152は、図22の上段に示すように、標本画像61上で、例えば注意を要する箇所にマーカ66を入力するユーザの操作を受け付ける。 Fig. 22 is a diagram showing an example of markers 66, 56 according to Modification 2. In this modification, the reception function 152 receives a user operation to input a marker 66 on a portion of the specimen image 61 that requires attention, for example, as shown in the upper part of Fig. 22.

マッピング機能157は、標本画像61上に記載されたマーカ66に相当する検体画像51上の位置を特定し、特定した位置に、マーカ56を描画する。このような処理により、マッピング機能157は、標本画像61上に記載されたマーカ66を、検体画像51上にマッピングする。 The mapping function 157 identifies a position on the specimen image 51 that corresponds to the marker 66 drawn on the specimen image 61, and draws the marker 56 at the identified position. Through this process, the mapping function 157 maps the marker 66 drawn on the specimen image 61 onto the specimen image 51.

標本画像61上に記載されたマーカ66に相当する検体画像51上の位置は、例えば、標本画像61上でマーカ66が描出された画素の代表座標に対応する検体画像51上の座標である。代表座標は、標本画像61上でマーカ66が描出された複数の画素の座標群のうちのいずれか一の点を示す座標である。例えば、図22に示すようにマーカ66の形状が三角形である場合は、三角形の先端部の座標が代表座標となる。また、マーカ66の形状が円形である場合は、円形の中心の座標が代表座標となる。また、(1)式で説明したように、補正後の切り出し線53の左端部の座標を基準にオフセットされても良い。 The position on the specimen image 51 corresponding to the marker 66 written on the specimen image 61 is, for example, coordinates on the specimen image 51 corresponding to the representative coordinates of the pixel where the marker 66 is drawn on the specimen image 61. The representative coordinates are coordinates indicating any one of the coordinates of the multiple pixels where the marker 66 is drawn on the specimen image 61. For example, as shown in FIG. 22, if the shape of the marker 66 is triangular, the coordinates of the tip of the triangle are the representative coordinates. Also, if the shape of the marker 66 is circular, the coordinates of the center of the circle are the representative coordinates. Also, as explained in equation (1), the offset may be based on the coordinates of the left end of the corrected cut-out line 53.

本変形例の情報処理装置100によれば、標本画像61上で、注意を要する箇所が、検体画像51においてどの位置に相当するのかを、医師等が容易に把握することができる。 According to the information processing device 100 of this modified example, a doctor or the like can easily grasp which position on the specimen image 51 corresponds to the area requiring attention on the specimen image 61.

なお、本変形例ではマーカ56はユーザが入力するものとしたが、マーカ56は自動的に設定されても良い。例えば、興味領域認識機能154が、Selective Searchのようなルールベースによる画像処理または深層学習等によって、注意を要すると認識した領域に、マーカ56を設定しても良い。注意を要する領域とは、例えば、悪性腫瘍が血管に達している領域等であるが、これに限定されるものではない。また、マーカ56が示す箇所は、興味領域63内でも良いし、興味領域63外でも良い。 In this modified example, the marker 56 is input by the user, but the marker 56 may be set automatically. For example, the region of interest recognition function 154 may set the marker 56 in a region that is recognized as requiring attention by rule-based image processing such as Selective Search or deep learning. A region requiring attention is, for example, a region where a malignant tumor has reached a blood vessel, but is not limited to this. Furthermore, the location indicated by the marker 56 may be inside or outside the region of interest 63.

(変形例3)
上述の実施形態では、情報処理装置100は、ユーザによる切り出し位置等の変更操作を受け付け可能であることを説明した。さらに、情報処理装置100は、興味領域63の寸法を修正するユーザの操作を受け付け可能であっても良い。
(Variation 3)
In the above embodiment, it has been described that the information processing device 100 can accept a user's operation to change the cropping position, etc. Furthermore, the information processing device 100 may be capable of accepting a user's operation to modify the dimensions of the region of interest 63.

図23は、変形例3に係るレンジバー91~93の長さの変更操作の一例を示す図である。レンジバー91~93は、組織領域62に含まれる興味領域63の幅および幅方向の位置を示す。なお、図23では、興味領域63の輪郭線は非表示としているが、レンジバー91~93だけではなく、興味領域63の輪郭線も表示されても良い。 Figure 23 is a diagram showing an example of an operation for changing the length of range bars 91 to 93 according to Modification Example 3. Range bars 91 to 93 indicate the width and widthwise position of a region of interest 63 included in a tissue region 62. Note that in Figure 23, the contour of the region of interest 63 is not displayed, but the contour of the region of interest 63 may be displayed in addition to the range bars 91 to 93.

受付機能152は、例えば、ユーザがマウスのポインタ9等でレンジバー91~93の端部をドラッグアンドドロップすることにより、レンジバー91~93の長さおよび位置を変更する操作を受け付ける。レンジバー91~93の長さおよび位置を変更する操作は、興味領域63の寸法を補正するユーザの操作の一例である。 The reception function 152 receives an operation to change the length and position of the range bars 91 to 93, for example, by the user dragging and dropping the end of the range bars 91 to 93 with the mouse pointer 9 or the like. The operation to change the length and position of the range bars 91 to 93 is an example of a user operation to correct the dimensions of the region of interest 63.

マッピング機能157は、ユーザによって補正された興味領域63の寸法に基づいて、検体画像51上の対象領域54の寸法を変更する。 The mapping function 157 changes the dimensions of the target region 54 on the specimen image 51 based on the dimensions of the region of interest 63 corrected by the user.

図24は、変形例3に係る操作画面144の一例を示す図である。操作画面144は、表示制御機能158によって表示される。操作画面144は、例えば、検体画像51および標本画像61を含む。また、例えば、受付機能152が、興味領域修正ボタン83を押下するユーザの操作を受け付けた場合、表示制御機能158は、レンジバー94、95を操作画面144上に表示する。 FIG. 24 is a diagram showing an example of an operation screen 144 relating to variant example 3. The operation screen 144 is displayed by the display control function 158. The operation screen 144 includes, for example, a specimen image 51 and a specimen image 61. Also, for example, when the reception function 152 receives a user operation of pressing the region of interest correction button 83, the display control function 158 displays range bars 94 and 95 on the operation screen 144.

図24に示すレンジバー94が対応づけられた興味領域63は、検体画像51上の対象領域54aに対応する。この場合、ユーザの操作によってレンジバー94の長さが変更された場合、マッピング機能157は、検体画像51上の対象領域54aの幅を変更する。 The region of interest 63 associated with the range bar 94 shown in FIG. 24 corresponds to the target region 54a on the sample image 51. In this case, when the length of the range bar 94 is changed by a user operation, the mapping function 157 changes the width of the target region 54a on the sample image 51.

なお、図23、図24では、興味領域63の幅および幅方向の位置のみを変更していたが、幅方向と垂直に交差する方向の興味領域63の長さについても、ユーザが変更可能であっても良い。例えば、図23では、標本組織6の断面が撮像されているが、検体5が消化器の粘膜および粘膜下層である場合、標本画像61の縦方向、つまり粘膜および粘膜下層の深さ方向について、興味領域63の範囲をユーザが変更または新規に設定可能であっても良い。 23 and 24, only the width and widthwise position of the region of interest 63 are changed, but the user may also be able to change the length of the region of interest 63 in a direction perpendicular to the widthwise direction. For example, in FIG. 23, a cross section of the specimen tissue 6 is imaged, but if the specimen 5 is the mucosa and submucosa of the digestive tract, the user may be able to change or newly set the range of the region of interest 63 in the vertical direction of the specimen image 61, i.e., the depth direction of the mucosa and submucosa.

また、興味領域63の寸法を補正するユーザの操作は、レンジバー91~93を変更する操作に限定されるものではなく、ピクセル単位、または一定の大きさの画像領域単位で興味領域63の寸法をユーザが指定可能であっても良い。また、興味領域63の寸法の修正だけではなく、ユーザによる興味領域63の削除も可能であっても良い。 Furthermore, the user's operation to correct the dimensions of the region of interest 63 is not limited to the operation of changing the range bars 91-93, but may be able to specify the dimensions of the region of interest 63 in units of pixels or in units of image regions of a certain size. Furthermore, in addition to modifying the dimensions of the region of interest 63, the user may also be able to delete the region of interest 63.

(変形例4)
また、情報処理装置100は、ユーザの操作に応じて、興味領域63の面積、最長幅、または深さ方向の長さ等の数値情報を、検体画像51または標本画像61に表示しても良い。
(Variation 4)
Furthermore, the information processing device 100 may display numerical information such as the area, maximum width, or depth of the region of interest 63 on the specimen image 51 or the specimen image 61 in response to a user operation.

図25は、変形例4に係る操作画面145の一例を示す図である。操作画面145は、検体画像51および標本画像61を含む。例えば、受付機能152が、長さ計測ボタン84を押下するユーザの操作を受け付けた後に、いずれかの組織領域62を選択するユーザの操作を受け付けたとする。この場合、表示制御機能158は、選択された組織領域62における興味領域63の最長幅の数値を表示する。 FIG. 25 is a diagram showing an example of an operation screen 145 according to Modification Example 4. The operation screen 145 includes a specimen image 51 and a specimen image 61. For example, the reception function 152 receives a user operation to press the length measurement button 84, and then receives a user operation to select one of the tissue regions 62. In this case, the display control function 158 displays the numerical value of the longest width of the region of interest 63 in the selected tissue region 62.

例えば、表示制御機能158は、標本画像61上の興味領域63の最長幅と、標本画像61を撮像した撮像装置の拡大率とに基づいて、実際の興味領域63の最長幅を算出し、算出結果を表示するものとする。 For example, the display control function 158 calculates the maximum width of the actual region of interest 63 based on the maximum width of the region of interest 63 on the specimen image 61 and the magnification ratio of the imaging device that captured the specimen image 61, and displays the calculation result.

なお、最長幅の算出は、興味領域認識機能154が実行するものとしても良い。また、興味領域63の面積、最長幅、または深さ方向の長さ等の数値情報は、表示制御機能158によって表示されるのではなく、マッピング機能157によって検体画像51または標本画像61上に描画されるものとしても良い。 The calculation of the maximum width may be performed by the region of interest recognition function 154. Furthermore, numerical information such as the area, maximum width, or depth of the region of interest 63 may be drawn on the specimen image 51 or the sample image 61 by the mapping function 157, rather than being displayed by the display control function 158.

なお、図25では、表示制御機能158が標本画像61上に数値情報を表示したが、検体画像51上に数値情報を表示しても良い。 In FIG. 25, the display control function 158 displays the numerical information on the specimen image 61, but the numerical information may also be displayed on the sample image 51.

(変形例5)
また、医療機関等における運用ルールによっては、標本組織6の撮像面の切り出し位置対する位置が、切り出し位置によって異なる場合がある。
(Variation 5)
Furthermore, depending on the operating rules of a medical institution or the like, the position of the imaging plane of the sample tissue 6 relative to the cut-out position may differ depending on the cut-out position.

図26は、変形例5に係る切り出し位置と組織領域62の関係の一例を示す図である。図26に示す切り出し位置ID“1”~“3”については、切り出し位置の上方が組織領域62i~62kに対応する。また、切り出し位置ID“4”については、切り出し位置の下方が組織領域62lに対応する。図26では、切り出し位置ID“4”が切り出し位置の下方が組織領域62lに対応することを、切り出し位置IDを示す番号“4”を上下反転させて表しているが、当該表示は必須ではない。また、他の手法によって、切り出し位置の上方と下方のいずれが組織領域62に対応するかが表されても良い。 Figure 26 is a diagram showing an example of the relationship between the cut-out positions and tissue regions 62 according to variant example 5. For cut-out position IDs "1" to "3" shown in Figure 26, the upper part of the cut-out position corresponds to tissue regions 62i to 62k. For cut-out position ID "4", the lower part of the cut-out position corresponds to tissue region 62l. In Figure 26, the number "4" indicating the cut-out position ID is inverted upside down to show that the lower part of the cut-out position for cut-out position ID "4" corresponds to tissue region 62l, but this display is not essential. Also, it may be shown by other methods whether the upper or lower part of the cut-out position corresponds to tissue region 62.

また、例えば、切り出し位置ID“4”の上方から、さらに標本組織6が切り取られた場合、1つの切り出し位置ID“4”に上方と下方の2つ分の標本領域IDが対応付けられても良い。この場合、上方と下方の2つ分の標本領域IDは、例えば、“4-1”、“4-2”のように枝番で表される。 For example, if a specimen tissue 6 is further excised from above the excision position ID "4", two specimen area IDs, one above and one below, may be associated with one excision position ID "4". In this case, the two specimen area IDs, one above and one below, are represented by sub-numbers, for example, "4-1" and "4-2".

(変形例6)
上述の実施形態では、検体画像51は検体5の表面が上方から撮像された画像であり、標本画像61は検体5から切り出された標本組織6の断面が高倍率で撮像された画像であるものとしたが、撮像方向は、これらに限定されるものではない。
(Variation 6)
In the above-described embodiment, the specimen image 51 is an image of the surface of the specimen 5 captured from above, and the specimen image 61 is an image of a cross-section of the specimen tissue 6 excised from the specimen 5 captured at high magnification, but the imaging directions are not limited to these.

例えば、検体画像51は検体5の断面が撮像された画像であっても良い。この場合、マッピング機能157は、標本画像61において認識された興味領域63の輪郭に相当する範囲を、対象領域54として、検体画像51にマッピングしても良い。 For example, the specimen image 51 may be an image of a cross section of the specimen 5. In this case, the mapping function 157 may map the range corresponding to the outline of the region of interest 63 recognized in the specimen image 61 onto the specimen image 51 as the target region 54.

図27は、変形例6に係る検体画像51および標本画像61の一例を示す図である。図27に示す検体画像51および標本画像61は、共に検体5の断面を撮像面とする画像である。このため、マッピング機能157は、標本画像61における興味領域63の輪郭を、検体画像51の倍率に合わせて補正した結果を、対象領域54として、検体画像51にマッピングする。本変形例によれば、検体画像51および標本画像61において検体5の撮像方向が同じ向きである場合には、興味領域63を幅方向の長さ等の一次元情報にすることなく、より高精度に検体画像51上にマッピングすることができる。 Figure 27 is a diagram showing an example of a specimen image 51 and a specimen image 61 according to the sixth modification. The specimen image 51 and the specimen image 61 shown in Figure 27 are both images in which the cross section of the specimen 5 is the imaging plane. For this reason, the mapping function 157 corrects the outline of the region of interest 63 in the specimen image 61 to match the magnification of the specimen image 51, and maps the result onto the specimen image 51 as the target region 54. According to this modification, when the imaging direction of the specimen 5 is the same in the specimen image 51 and the specimen image 61, the region of interest 63 can be mapped onto the specimen image 51 with higher accuracy without converting it into one-dimensional information such as the width length.

(変形例7)
マッピング機能157は、さらに、標本画像61における興味領域63の深さ方向の長さに応じて、検体画像51上の対象領域54を、異なる態様で描画しても良い。
(Variation 7)
The mapping function 157 may further render the target region 54 on the specimen image 51 in different manners depending on the depth direction length of the region of interest 63 in the specimen image 61 .

図28は、変形例7に係る検体画像51に対する興味領域63の深さ情報のマッピングの一例を示す図である。例えば、マッピング機能157は、興味領域63における検体5の深さ方向の長さに応じて、ヒートマップのように表示態様を変更した対象領域54を描画する。例えば、興味領域63における検体5の深さ方向の長さが長いほど、マッピング機能157は、対象領域54の色が濃くなるように描画しても良い。また、マッピング機能157は、興味領域63における検体5の深さ方向の長さが長いほど、対象領域54の色が赤色に近づくように、異なる色のグラデーションで対象領域54を表示しても良い。 Figure 28 is a diagram showing an example of mapping of depth information of the region of interest 63 for the sample image 51 according to the seventh modification. For example, the mapping function 157 draws the target region 54 with the display mode changed like a heat map according to the depth length of the sample 5 in the region of interest 63. For example, the mapping function 157 may draw the target region 54 so that the color becomes darker as the depth length of the sample 5 in the region of interest 63 becomes longer. Furthermore, the mapping function 157 may display the target region 54 with a gradation of different colors so that the color of the target region 54 approaches red as the depth length of the sample 5 in the region of interest 63 becomes longer.

マッピング機能157は、例えば、標本画像61内の相対的な長さの差異に応じて、対象領域54の表示態様が異なるように描画しても良い。 The mapping function 157 may, for example, draw the target area 54 in a different display manner depending on the relative length difference within the specimen image 61.

また、興味領域認識機能154が、標本画像61を撮像した顕微鏡の拡大率に基づいて、興味領域63の実際の深さ方向の長さを算出しても良い。この場合、マッピング機能157は、算出された興味領域63の実際の深さ方向の長さの絶対値に応じて、対象領域54の表示態様が異なるように描画しても良い。 The region of interest recognition function 154 may also calculate the actual depth length of the region of interest 63 based on the magnification of the microscope that captured the specimen image 61. In this case, the mapping function 157 may draw the target region 54 so that the display mode differs depending on the absolute value of the calculated actual depth length of the region of interest 63.

また、マッピング機能157は、上述の実施形態において、(1)式によって興味領域63の寸法を補正し、補正結果を対象領域54の寸法として認識した手法と同様に、検体画像51の切り出し位置における検体領域52の幅方向の長さと、標本画像61における切り出し位置に対応する組織領域62の幅方向の長さと、の差異から検体画像51と標本画像61の幅方向の倍率を算出し、算出した倍率を、興味領域63の深さ方向の長さに乗算した値に応じて、対象領域54の表示態様が異なるように描画しても良い。 In addition, similar to the method in the above embodiment in which the dimensions of the region of interest 63 are corrected using equation (1) and the correction result is recognized as the dimensions of the target region 54, the mapping function 157 may calculate the widthwise magnification of the specimen image 51 and the specimen image 61 from the difference between the widthwise length of the specimen region 52 at the cut-out position of the specimen image 51 and the widthwise length of the tissue region 62 corresponding to the cut-out position in the specimen image 61, and draw the display mode of the target region 54 so that it differs depending on the value obtained by multiplying the depthwise length of the region of interest 63 by the calculated magnification.

本変形例に寄れば、興味領域63に描出された病巣組織等の相対的または絶対的な深さが検体画像51上に表示されるため、医師等が病理診断をする際の参考情報を提示することができる。 In this modified example, the relative or absolute depth of the lesion tissue depicted in the region of interest 63 is displayed on the specimen image 51, providing reference information for doctors and others to use when making a pathological diagnosis.

(変形例8)
また、マッピング機能157は、標本画像61に描出された標本組織6の表面の起伏を、検体画像51に描写しても良い。例えば、検体5が消化器の粘膜および粘膜下層である場合に、標本組織6の断面を撮像した標本画像61によって検体5の粘膜表面の起伏が特定可能である。
(Variation 8)
Furthermore, the mapping function 157 may depict the undulations of the surface of the specimen tissue 6 depicted in the specimen image 61 in the specimen image 51. For example, when the specimen 5 is the mucosa and submucosa of the digestive tract, the undulations of the mucosal surface of the specimen 5 can be identified by the specimen image 61 obtained by capturing a cross section of the specimen tissue 6.

マッピング機能157は、当該起伏の相対的または絶対的な高低差を、検体5の面膜面側を撮像面として撮像された検体画像51上に、等高線等によって描画する。なお、描画の手法は等高線に限定されるものではなく、ヒートマップのように色のグラデーションによって高低差を表すものであっても良い。 The mapping function 157 plots the relative or absolute height difference of the undulations using contour lines or the like on the specimen image 51 captured using the membrane side of the specimen 5 as the imaging surface. Note that the plotting method is not limited to contour lines, and the height difference may be represented by a color gradation, such as a heat map.

(変形例9)
また、上述の実施形態では、ユーザが任意の位置に、切り出し線53を設定していたが、情報処理装置100は、ユーザが切り出し線53を設定する際の支援をしても良い。
(Variation 9)
In the above embodiment, the user sets the cut-out line 53 at an arbitrary position. However, the information processing device 100 may support the user when setting the cut-out line 53 .

図29は、変形例9に係る切り出し位置の設定画面143の一例を示す図である。切り出し位置設定機能160は、例えば、Selective Searchのようなルールベースによる画像処理または深層学習によって、検体画像51において病巣が含まれる可能性の高い領域を推定する。表示制御機能158は、切り出し位置設定機能160によって推定された領域を、切り出し位置の設定画面143上に表示させる。図29に示す領域500は、検体画像51において病巣が含まれる可能性の高い領域の一例である。 FIG. 29 is a diagram showing an example of the cut-out position setting screen 143 relating to the ninth modified example. The cut-out position setting function 160 estimates an area in the specimen image 51 that is likely to contain a lesion, for example, by rule-based image processing such as selective search or deep learning. The display control function 158 displays the area estimated by the cut-out position setting function 160 on the cut-out position setting screen 143. The area 500 shown in FIG. 29 is an example of an area in the specimen image 51 that is likely to contain a lesion.

本変形例の情報処理装置100によれば、ユーザが、病巣が含まれる可能性の高い領域500の断面を取得できるように、切り出し位置を設定することを、支援することができる。 The information processing device 100 of this modified example can assist the user in setting the cut-out position so that a cross-section of the area 500 that is likely to contain a lesion can be obtained.

(変形例10)
また、上述の実施形態では、情報処理装置100から、マッピング処理後の検体画像51等を外部装置に送信するものとしたが、情報処理装置100の記憶回路120に保存されたマッピング処理後の検体画像51に対する外部装置のアクセスを許可しても良い。例えば、外部装置がPC等である場合、該PCを使用するユーザは、記憶回路120に保存されたマッピング処理後の検体画像51を、該PCのディスプレイ140で閲覧することができる。また、情報処理装置100の記憶回路120に保存されたマッピング処理後の検体画像51等を、外部装置にダウンロードすることを許可しても良い。
(Variation 10)
In the above embodiment, the sample image 51 after mapping processing and the like are transmitted from the information processing device 100 to an external device, but the external device may be permitted to access the sample image 51 after mapping processing stored in the memory circuitry 120 of the information processing device 100. For example, if the external device is a PC or the like, a user of the PC can view the sample image 51 after mapping processing stored in the memory circuitry 120 on the display 140 of the PC. In addition, the sample image 51 after mapping processing and the like stored in the memory circuitry 120 of the information processing device 100 may be permitted to be downloaded to an external device.

以上説明した少なくとも1つの実施形態によれば、検体画像51に描出された検体5における標本組織6の切り出し位置と、標本画像61に描出された標本組織6上の病巣領域等の興味領域63との対応関係を、医師等が把握することを容易にすることができる。 According to at least one of the embodiments described above, it is possible to easily allow a doctor or the like to grasp the correspondence between the cut-out position of the specimen tissue 6 in the specimen 5 depicted in the specimen image 51 and the region of interest 63, such as a lesion region, on the specimen tissue 6 depicted in the specimen image 61.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, modifications, and combinations of embodiments can be made without departing from the spirit of the invention. These embodiments and their modifications are within the scope of the invention and its equivalents as set forth in the claims, as well as the scope and spirit of the invention.

5 検体
6,6a~6e 標本組織
51 検体画像
52 検体領域
53,53a~53f,531,532 切り出し線
54,54a~54c,54g,54h,54x 対象領域
56,66 マーカ
61,61a,61b 標本画像
62,62a~62f,62i~62l,621,622 組織領域
63,63a~63c,63g,63h,63x 興味領域
65a~65c 重心
91~94 レンジバー
100 情報処理装置
110 NWインタフェース
120 記憶回路
130 入力インタフェース
140 ディスプレイ
141 設定操作画面
142 マッピング表示画面
143 切り出し位置の設定画面
144~146 操作画面
150 処理回路
151 取得機能
152 受付機能
153 組織領域認識機能
154 興味領域認識機能
155 切り出し位置認識機能
156 対応付け機能
157 マッピング機能
158 表示制御機能
159 送信機能
160 切り出し位置設定機能
201 検体画像保管装置
202 標本画像保管装置
300 ネットワーク
P 患者
S 情報処理システム
5 Specimen 6, 6a to 6e Specimen tissue 51 Specimen image 52 Specimen region 53, 53a to 53f, 531, 532 Crop line 54, 54a to 54c, 54g, 54h, 54x Target region 56, 66 Marker 61, 61a, 61b Specimen image 62, 62a to 62f, 62i to 62l, 621, 622 Tissue region 63, 63a to 63c, 63g, 63h, 63x Region of interest 65a to 65c Center of gravity 91 to 94 Range bar 100 Information processing device 110 NW interface 120 Memory circuit 130 Input interface 140 Display 141 Setting operation screen 142 Mapping display screen 143 Crop position setting screen 144 to 146 Operation screen 150 Processing circuit 151 Acquisition function 152 Reception function 153 Tissue area recognition function 154 Area of interest recognition function 155 Extraction position recognition function 156 Correspondence function 157 Mapping function 158 Display control function 159 Transmission function 160 Extraction position setting function 201 Sample image storage device 202 Specimen image storage device 300 Network P Patient S Information processing system

Claims (15)

検体の全体が撮像された画像である第1の画像と、前記検体から切り出された少なくとも1つの標本組織が前記第1の画像よりも高倍率で撮像された画像である第2の画像と、を取得する取得部と、
前記第2の画像から、前記標本組織が描出された組織領域を認識する組織領域認識部と、
前記組織領域に含まれる興味領域を認識する興味領域認識部と、
前記第1の画像における前記標本組織の切り出し位置を認識する切り出し位置認識部と、
前記第1の画像における前記切り出し位置と、前記第2の画像における前記組織領域とを対応付ける対応付け部と、
前記切り出し位置と前記組織領域との対応付けに基づいて、前記第2の画像の前記興味領域と、前記第1の画像において前記興味領域に相当する対象領域とをマッピングするマッピング部と、
前記マッピング部によって前記興味領域と前記対象領域とがマッピングされた前記第1の画像および前記第2の画像を対応付けて、それぞれ別個の画像として表示部の同一画面上に表示させ、前記第1の画像上の前記切り出し位置と、前記切り出し位置から切り出された前記標本組織の前記第2の画像上の表示位置とを対応付けて表示させる表示制御部と、
を備える情報処理装置。
an acquisition unit that acquires a first image, which is an image of an entire specimen, and a second image, which is an image of at least one specimen tissue cut out from the specimen, at a higher magnification than the first image;
a tissue area recognition unit that recognizes a tissue area in which the sample tissue is depicted from the second image;
a region of interest recognition unit for recognizing a region of interest included in the tissue region;
an excision position recognition unit that recognizes an excision position of the sample tissue in the first image;
a correspondence unit that corresponds the cut-out position in the first image with the tissue region in the second image;
a mapping unit that maps the region of interest in the second image to a target region corresponding to the region of interest in the first image based on the correspondence between the extraction position and the tissue region;
a display control unit that causes the first image and the second image, in which the region of interest and the target region are mapped by the mapping unit, to correspond to each other and display them as separate images on the same screen of a display unit, and that causes the cut-out position on the first image to correspond to a display position on the second image of the sample tissue cut out from the cut-out position;
An information processing device comprising:
前記第1の画像における前記切り出し位置と、前記第2の画像における前記組織領域との対応付けを修正するユーザの操作を受け付ける受付部、をさらに備え、
前記対応付け部は、前記受付部によって受け付けられた前記ユーザの操作に基づいて、前記切り出し位置と前記組織領域との対応付けを修正する、
請求項に記載の情報処理装置。
a receiving unit that receives a user's operation to correct the correspondence between the extraction position in the first image and the tissue region in the second image,
The associating unit corrects the association between the cut-out position and the tissue region based on the user's operation accepted by the accepting unit.
The information processing device according to claim 1 .
ユーザによる前記第1の画像における前記切り出し位置の指定を受け付ける受付部と、
前記受付部によって受け付けられた前記切り出し位置の指定に基づいて、前記第1の画像に切り出し位置を設定する切り出し位置設定部と、をさらに備える、
請求項1または2に記載の情報処理装置。
a receiving unit that receives a user's designation of the cut-out position in the first image;
a cut-out position setting unit that sets a cut-out position in the first image based on the designation of the cut-out position accepted by the accepting unit,
3. The information processing device according to claim 1 or 2 .
前記マッピング部は、前記第1の画像の前記切り出し位置における前記検体が描出された検体領域の寸法と、前記切り出し位置に対応する前記組織領域の寸法と、の差異に基づいて前記興味領域の寸法を補正し、寸法を補正した前記興味領域を、前記対象領域にマッピングする、
請求項1からのいずれか1項に記載の情報処理装置。
the mapping unit corrects a size of the region of interest based on a difference between a size of a specimen region in which the specimen is depicted at the cut-out position of the first image and a size of the tissue region corresponding to the cut-out position, and maps the region of interest with the corrected size onto the target region.
The information processing device according to claim 1 .
前記マッピング部は、前記興味領域を含む前記組織領域に対応付けられた前記切り出し位置の近傍に、前記対象領域を表す図形を描画する、
請求項1からのいずれか1項に記載の情報処理装置。
The mapping unit draws a figure representing the target region in the vicinity of the extraction position associated with the tissue region including the region of interest.
The information processing device according to claim 1 .
前記マッピング部は、前記興味領域を含む前記組織領域に対応付けられた前記切り出し位置を示す切り出し線の、前記標本組織が切り出された側に、前記対象領域を表す図形を描画する、
請求項1からのいずれか1項に記載の情報処理装置。
the mapping unit draws a figure representing the target region on a side of a cut-out line indicating the cut-out position associated with the tissue region including the region of interest, where the sample tissue is cut out;
The information processing device according to claim 1 .
前記興味領域の寸法を補正するユーザの操作を受け付ける受付部、をさらに備え、
前記マッピング部は、前記ユーザによって補正された前記興味領域の寸法に基づいて前記対象領域の寸法を変更する、
請求項1からのいずれか1項に記載の情報処理装置。
a reception unit that receives a user's operation to correct a dimension of the region of interest,
The mapping unit changes a size of the target region based on a size of the region of interest corrected by the user.
The information processing device according to claim 1 .
前記興味領域は、前記標本組織のうちの病巣部位であり、
前記興味領域認識部は、複数の標本画像と、前記複数の標本画像において病巣部位が描出された画像領域との対応関係が学習された学習済みモデルに前記第2の画像を入力し、前記学習済みモデルから出力された画像領域を、前記興味領域が描出された画像領域として認識する、
請求項1からのいずれか1項に記載の情報処理装置。
the region of interest is a lesion site in the specimen tissue,
The region of interest recognition unit inputs the second image to a trained model in which a correspondence relationship between a plurality of specimen images and an image region in which a lesion site is depicted in the plurality of specimen images is trained, and recognizes an image region output from the trained model as an image region in which the region of interest is depicted.
The information processing device according to claim 1 .
前記マッピング部は、前記第2の画像における前記興味領域の、前記検体の深さ方向の長さに応じて、前記第1の画像における前記対象領域を、異なる態様で描画する、
請求項1からのいずれか1項に記載の情報処理装置。
The mapping unit renders the target region in the first image in a different manner depending on a length of the region of interest in the second image in a depth direction of the specimen.
The information processing device according to claim 1 .
前記興味領域は、腫瘍、粘膜、粘膜筋板、粘膜下層、または固有筋層のうちのいずれかの組織を含み、
前記マッピング部は、前記興味領域に複数種類の組織が含まれる場合には、前記組織の種類ごとに、前記第1の画像における前記対象領域を、異なる表示態様で描画する、
請求項1からのいずれか1項に記載の情報処理装置。
the region of interest comprises any of the following tissues: a tumor, a mucosa, a muscularis mucosa, a submucosa, or a muscularis propria;
When the region of interest includes a plurality of types of tissue, the mapping unit renders the target region in the first image in a different display manner for each type of tissue.
The information processing device according to claim 1 .
前記マッピング部によって前記興味領域に相当する前記対象領域がマッピングされた前記第1の画像を外部装置に送信する送信部、をさらに備える、
請求項1から10のいずれか1項に記載の情報処理装置。
A transmission unit that transmits the first image onto which the target region corresponding to the region of interest is mapped by the mapping unit to an external device.
The information processing device according to claim 1 .
前記表示制御部は、前記第1の画像と、前記第1の画像に描出された前記検体から切り出された前記標本組織が撮像された前記第2の画像とを、前記表示部の一画面上に表示し、前記第1の画像上にマッピングされた前記対象領域を線形の図形として表示する、the display control unit displays the first image and the second image in which the sample tissue cut out from the specimen depicted in the first image is captured on one screen of the display unit, and displays the target region mapped on the first image as a linear figure.
請求項1から11のいずれか1項に記載の情報処理装置。The information processing device according to claim 1 .
前記第1の画像は、複数の前記切り出し位置を含み、
前記表示制御部は、前記第1の画像上の前記切り出し位置ごとに、前記第2の画像のうち該切り出し位置に対応付けられた前記組織領域が描出された部分が切り出された画像を表示する、
請求項1から11のいずれか1項に記載の情報処理装置。
the first image includes a plurality of the cropping positions;
the display control unit displays, for each of the cut-out positions on the first image, an image in which a portion of the second image in which the tissue region corresponding to the cut-out position is depicted is cut out.
The information processing device according to claim 1 .
前記表示制御部は、ユーザが前記第1の画像を選択した場合には前記第1の画像を前記第2の画像よりも大きく表示し、前記ユーザが前記第2の画像を選択した場合には前記第2の画像を前記第1の画像よりも大きく表示する、the display control unit, when a user selects the first image, displays the first image larger than the second image, and when the user selects the second image, displays the second image larger than the first image.
請求項1から11のいずれか1項に記載の情報処理装置。The information processing device according to claim 1 .
画像保管装置と、情報処理装置とを備えた情報処理システムであって、
前記画像保管装置は、
検体の全体が撮像された画像である第1の画像と、前記検体から切り出された少なくとも1つの標本組織が前記第1の画像よりも高倍率で撮像された画像である第2の画像とを保管し、
前記情報処理装置は、
前記画像保管装置から、前記第1の画像と前記第2の画像とを取得する取得部と、
前記第2の画像から、前記標本組織が描出された組織領域を認識する組織領域認識部と、
前記組織領域に含まれる興味領域を認識する興味領域認識部と、
前記第1の画像における前記標本組織の切り出し位置を認識する切り出し位置認識部と、
前記第1の画像における前記切り出し位置と、前記第2の画像における前記組織領域とを対応付ける対応付け部と、
前記切り出し位置と前記組織領域との対応付けに基づいて、前記第2の画像の前記興味領域と、前記第1の画像において前記興味領域に相当する対象領域とをマッピングするマッピング部と、
前記マッピング部によって前記興味領域と前記対象領域とがマッピングされた前記第1の画像および前記第2の画像を対応付けて、それぞれ別個の画像として表示部の同一画面上に表示させ、前記第1の画像上の前記切り出し位置と、前記切り出し位置から切り出された前記標本組織の前記第2の画像上の表示位置とを対応付けて表示させる表示制御部と、を備える、
情報処理システム。
An information processing system including an image storage device and an information processing device,
The image storage device includes:
A first image is an image of the entire specimen, and a second image is an image of at least one specimen tissue cut out from the specimen and captured at a higher magnification than the first image;
The information processing device includes:
an acquisition unit that acquires the first image and the second image from the image storage device;
a tissue area recognition unit that recognizes a tissue area in which the sample tissue is depicted from the second image;
a region of interest recognition unit for recognizing a region of interest included in the tissue region;
an excision position recognition unit that recognizes an excision position of the sample tissue in the first image;
a correspondence unit that corresponds the cut-out position in the first image with the tissue region in the second image;
a mapping unit that maps the region of interest in the second image to a target region corresponding to the region of interest in the first image based on the correspondence between the extraction position and the tissue region;
a display control unit that causes the first image and the second image, in which the region of interest and the target region are mapped by the mapping unit, to be associated with each other and to be displayed as separate images on the same screen of a display unit, and causes the cut-out position on the first image to be associated with a display position on the second image of the sample tissue cut out from the cut-out position.
Information processing system.
JP2020117121A 2020-07-07 2020-07-07 Information processing device and information processing system Active JP7546390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020117121A JP7546390B2 (en) 2020-07-07 2020-07-07 Information processing device and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020117121A JP7546390B2 (en) 2020-07-07 2020-07-07 Information processing device and information processing system

Publications (2)

Publication Number Publication Date
JP2022014659A JP2022014659A (en) 2022-01-20
JP7546390B2 true JP7546390B2 (en) 2024-09-06

Family

ID=80782904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020117121A Active JP7546390B2 (en) 2020-07-07 2020-07-07 Information processing device and information processing system

Country Status (1)

Country Link
JP (1) JP7546390B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276545A (en) 1999-03-29 2000-10-06 Hitachi Ltd Pathological image system
JP2011137780A (en) 2010-01-04 2011-07-14 Nec Corp Image diagnosis method, image diagnosis device, and image diagnosis program
JP2013165953A (en) 2012-01-20 2013-08-29 Canon Inc Image processing apparatus and image processing method
JP2015087167A (en) 2013-10-29 2015-05-07 キヤノン株式会社 Image processing method and image processing system
JP2019000340A (en) 2017-06-15 2019-01-10 一般社団法人白亜会 Pathological diagnosis support apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276545A (en) 1999-03-29 2000-10-06 Hitachi Ltd Pathological image system
JP2011137780A (en) 2010-01-04 2011-07-14 Nec Corp Image diagnosis method, image diagnosis device, and image diagnosis program
JP2013165953A (en) 2012-01-20 2013-08-29 Canon Inc Image processing apparatus and image processing method
JP2015087167A (en) 2013-10-29 2015-05-07 キヤノン株式会社 Image processing method and image processing system
JP2019000340A (en) 2017-06-15 2019-01-10 一般社団法人白亜会 Pathological diagnosis support apparatus

Also Published As

Publication number Publication date
JP2022014659A (en) 2022-01-20

Similar Documents

Publication Publication Date Title
CN110517758B (en) Display device and image display method using the same
US7194118B1 (en) System for optically sectioning and mapping surgically excised tissue
US9373181B2 (en) System and method for enhanced viewing of rib metastasis
JP5995449B2 (en) Information processing apparatus and control method thereof
JP6886260B2 (en) Image processing equipment, its control method, and programs
US11344281B2 (en) Ultrasound visual protocols
JP5442542B2 (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support, and recording medium recording the control program
CN106232010A (en) For detecting the system and method for trachea
EP3806101A1 (en) Training data collecting device, training data collecting method and program, training system, trained model, and endoscope image processing device
JP2012073179A (en) Pathological diagnosis support device, pathological diagnosis support method, control program for pathological diagnosis support and recording medium with control program recorded thereon
US11344371B2 (en) Visualization of three-dimensional image data on a two-dimensional image
CN113490842A (en) Information processing apparatus, information processing method, and information processing system
US20210319881A1 (en) Medical system, medical apparatus, and medical method
CN110993067A (en) Medical image labeling system
JP5121399B2 (en) Image display device
JP6258084B2 (en) Medical image display device, medical image display system, and medical image display program
JP7546390B2 (en) Information processing device and information processing system
CN105447870A (en) Extraction method and apparatus for body tissues in medical image
US20230329805A1 (en) Pointer tool for endoscopic surgical procedures
US20220020208A1 (en) Measurement method, measurement device, and recording medium
CN114494465B (en) Automatic scanning-oriented tissue pathological section detection target positioning method and device
US20220409324A1 (en) Systems and methods for telestration with spatial memory
JP7431592B2 (en) Image processing device, image processing system, and image processing method
JP2022162437A (en) Information processing apparatus, information processing method, and program
JP4635077B2 (en) Computer-aided diagnosis device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240827

R150 Certificate of patent or registration of utility model

Ref document number: 7546390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150