JP7401157B1 - 支援システム、支援装置、被支援装置 - Google Patents
支援システム、支援装置、被支援装置 Download PDFInfo
- Publication number
- JP7401157B1 JP7401157B1 JP2023543415A JP2023543415A JP7401157B1 JP 7401157 B1 JP7401157 B1 JP 7401157B1 JP 2023543415 A JP2023543415 A JP 2023543415A JP 2023543415 A JP2023543415 A JP 2023543415A JP 7401157 B1 JP7401157 B1 JP 7401157B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- annotation
- instructor
- instruction content
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000002131 composite material Substances 0.000 claims abstract description 86
- 238000001514 detection method Methods 0.000 claims abstract description 39
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 30
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 30
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 17
- 238000010586 diagram Methods 0.000 description 32
- 239000000203 mixture Substances 0.000 description 25
- 230000005540 biological transmission Effects 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 239000011521 glass Substances 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 210000003811 finger Anatomy 0.000 description 4
- 238000001356 surgical procedure Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010287 polarization Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002674 endoscopic surgery Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/24—Use of tools
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Surgery (AREA)
- Educational Administration (AREA)
- Life Sciences & Earth Sciences (AREA)
- Educational Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Biomedical Technology (AREA)
- Robotics (AREA)
- Heart & Thoracic Surgery (AREA)
- Entrepreneurship & Innovation (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明は上記事情に鑑みてなされたものであり、遠隔地にいる指導者が施術者に適切な支援を行えるような支援システムを提供することを目的とする。
[1-1.支援システムの概要]
図1は、支援システム1を説明する図である。図2は、内視鏡画像50を示す図である。図3は、内視鏡画像50に手モデル画像51を重畳した合成画像53を示す図である。図4は、内視鏡画像50に手モデル画像51およびアノテーション画像52を重畳した合成画像54を示す図である。図5は、内視鏡画像50にアノテーション画像52を重畳した合成画像55を示す図である。
なお、手モデル画像51およびアノテーション画像52は、実際には3D(3次元)画像であるが、図3~図5では2D(2次元)画像として示している。また、内視鏡画像50は、3D画像であっても2D画像であってもよいが、図2~図5では2D画像として示している。
なお、3Dモニタ12および3Dモニタ21は、例えば、奇数列のラインに右回転円偏光フィルタが重ねられ、偶数列のラインに左回転円偏光フィルタが重ねられている。
同様に、指導者6は、偏光メガネ7を装着して3Dモニタ21を視認したときに、右眼には奇数列のラインの画像だけが見え、左眼には偶数列のラインの画像だけが見える。
すなわち、指導側装置3では、図3に示すような内視鏡画像50に手モデル画像51が重畳された合成画像53を3Dモニタ21に表示する。
これにより、指導者6は、内視鏡画像50に対する自身の手の動きを手モデル画像51によって3次元で確認しながら、指示内容を入力することができる。
これにより、指導者6は、内視鏡画像50に対する自身の指示内容をアノテーション画像52によって3次元で確認することができる。
これにより、施術者4は、3Dモニタ12に表示された指導者6の指示内容を3次元で確認しながら患者5に対する施術を行うことができる。
図6は、施術側装置2の構成の一例を示すブロック図である。図6に示すように、施術側装置2は、内視鏡11および3Dモニタ12に加え、CPU(Central Processing Unit)13、ROM(Read Only Memory)14、RAM(Random Access Memory)15、GPU(Graphics Processing Unit)16を備えるコンピュータを含んだ構成である。
ここで指示内容情報CIは、操作入力で指定された座標、線種、色彩、線幅などの情報を含んでいる。
そして、画像合成部32は、合成画像55の画像データ(以下、施術側合成画像データCd1と表記する)をデータ送信部33および3Dモニタ12に出力する。
なお、画像合成部32は、3D画像データPd1が入力されていない場合、合成画像55を生成することなく、内視鏡画像データIdをデータ送信部33および3Dモニタ12に出力する。
なお、画像合成部43は、3D画像データPd2が入力されていない場合、合成画像53、54を生成することなく、内視鏡画像データIdを3Dモニタ21に出力する。
第1の実施形態における支援システム1の詳細について図8を参照して説明する。
まず、施術側装置2は、内視鏡11により得られた内視鏡画像データIdが画像合成部32に入力される。
画像合成部43は、3D画像データPd2が画像生成部42から入力されていない場合、内視鏡画像データIdを3Dモニタ21に出力する。
画像生成部42は、3次元位置検出部22から入力された位置情報PIに基づいて、図9に示すように、3次元仮想空間60上に指導者6の手を模した手モデル63(ポリゴン)を配置する。また、3次元仮想空間60には、右眼に対応する位置に右眼用仮想カメラ61を配置するとともに、左眼に対応する位置に左眼用仮想カメラ62を配置する。
そして、画像生成部42は、手モデル画像51の3D画像データPd2を画像合成部43に出力する。
そして、画像生成部42は、手モデル画像51およびアノテーション画像52の3D画像データPd2を画像合成部43に出力する。
そして、画像生成部31は、アノテーション画像52の3D画像データPd1を画像合成部32に出力する。
ずれが生じた場合、指導者6は、例えば図15で示すようなアノテーション画像52のずれを3Dモニタ21上で確認することができる。
例えば、図15に示すように、3D画像データPd2に基づくアノテーション画像52を破線で表示させることで、施術側合成画像データCd1(3D画像データPd1)に基づくアノテーション画像52の表示(実線)と区別して3Dモニタ21上に表示させることができる。
この場合、3Dモニタ21には表示座標のずれにより図15のような画像が表示されることがある。
指導者6が施術者4側の3Dモニタ12の表示状況を確認するためには、3D画像データPd1、Pd2に基づく画像を異なる態様で表示させることが望ましい。
これにより、指導者6は、破線のみで表示されたアノテーション画像52の部分が、施術側装置2の3Dモニタ12に表示されていないことを確認することができる。
つまり、指導者6は、3Dモニタ21上で、自身の指示内容と、施術者4の見ている3Dモニタ12の表示内容を容易に比較できる。
また、施術側合成画像データCd1(3D画像データPd1)に基づくアノテーション画像52と、3D画像データPd2に基づくアノテーション画像52との一致しない部分を区別して表示することも考えられる。
例えば、画像生成部31は、施術者4によって操作部(不図示)に対して所定の操作が入力されると、右眼用仮想カメラ61と左眼用仮想カメラ62とを離隔するように移動させ、図16上段に示すような右眼仮想画像77および左眼仮想画像78を撮像する。そして、画像生成部31は、右眼仮想画像77および左眼仮想画像78に基づいて、図16下段に示すようなアノテーション画像52を生成する。
これにより、内視鏡画像50に対する手モデル画像51およびアノテーション画像52を3次元的に適切な位置に配置することができる。
次に、第2の実施形態について説明する。第2の実施形態における支援システム1では、施術側装置2の3Dモニタ12に手モデル画像51を表示する点で、第1の実施形態と異なる。
上述したように、支援システム1は、被支援装置(施術側装置2)と、被支援装置(施術側装置2)とは離隔して設けられる支援装置(指導側装置3)とを備える。
支援装置(指導側装置3)は、指導者6の指示内容を3次元で検出する3次元位置検出部22と、3次元位置検出部22により検出された指示内容を示す指示内容情報CIを送信するデータ送信部41とを備える。
被支援装置(施術側装置2)は、送信された指示内容情報CIに基づいて、指導者6の指示内容を示す3次元のアノテーション画像52を生成する第1画像生成部(画像生成部31)と、被支援装置(指導側装置3)により撮像された撮像画像(内視鏡画像50)に対してアノテーション画像52を合成して第1合成画像(合成画像55)を生成する第1画像合成部(画像合成部32)と、を備える。
したがって、偏光メガネ7を介して3Dモニタ12を視認する施術者4は、3次元のアノテーション画像52を視認することにより、指導者6の指示内容を3次元で(平面方向に加えて奥行方向の情報を含めて)確認することができる。すなわち、支援システム1では、指導者6の指示内容をより正確に認識することができる。
これにより、偏光メガネ7を介して3Dモニタ21を視認する指導者6は、内視鏡画像50に対する自身の手の位置を3次元で確認することができる。
これにより、偏光メガネ7を介して3Dモニタ21を視認する指導者6は、内視鏡画像50に対する自身の手の位置および指示内容を3次元で確認することができる。
これにより、施術側装置2では、合成画像55を3Dモニタ12に表示するまでの遅延時間が極めて短くすることができ、タイムラグの少ない表示を行うことができる。
これにより、施術側装置2では、内視鏡画像50に対してアノテーション画像52の奥行方向がずれて見える場合に、視差調整を行うことで、内視鏡画像50に対するアノテーション画像52の奥行方向の位置を調整することができる。かくして、施術側装置2では、指導者6の指示内容をより正確に認識することができる。
なお、本実施形態では、支援システム1の一例として、施術者4が遠隔地にいる指導者6の指示を受けながら患者5に対して施術を行うことのできる手術支援システムについて説明したが、支援システム1は、遠隔地にいる指導者6が、施術側の撮像画像を視認しながら施術者4に対して指示を行う状況に幅広く適用することが可能である。
例えば、スポーツ指導における選手と監督、教育や職業訓練などの学習支援における講師と受講者、リモート会議における発表者と傍聴者など、様々な用途に支援システム1を適用できる。
2 施術側装置
3 指導側装置
11 内視鏡
12 3Dモニタ
16 GPU
21 3Dモニタ
22 3次元位置検出部
26 GPU
31 画像生成部
32 画像合成部
33 データ送信部
41 データ送信部
42 画像生成部
43 画像合成部
Claims (6)
- 被支援装置と、前記被支援装置とは離隔して設けられる支援装置とを備える支援システムであって、
前記支援装置は、
指導者の指示内容を3次元で検出する3次元位置検出部と、
前記3次元位置検出部により検出された指示内容を示す指示内容情報を送信するデータ送信部と、を備え、
前記被支援装置は、
送信された前記指示内容情報に基づいて、前記指導者の指示内容を示す3次元のアノテーション画像を生成する第1画像生成部と、
前記被支援装置により撮像された撮像画像に対して前記アノテーション画像を合成して第1合成画像を生成する第1画像合成部と、を備え、
前記第1画像生成部は、
GPUのシェーダー処理を用いて、前記指示内容情報に基づいて右眼用アノテーション画像および左眼用アノテーション画像を生成し、前記右眼用アノテーション画像および前記左眼用アノテーション画像をラインバイライン方式で合成することにより前記アノテーション画像を生成する
支援システム。 - 前記3次元位置検出部は、前記指導者の手の位置を3次元で検出し、
前記支援装置は、
前記3次元位置検出部により検出された前記指導者の手の位置を示す位置情報に基づいて、3次元の手モデル画像を生成する第2画像生成部と、
前記被支援装置から送信された前記撮像画像に、前記手モデル画像を合成して第2合成画像を生成する第2画像合成部と、を備える
請求項1に記載の支援システム。 - 前記第2画像生成部は、前記位置情報および前記指示内容情報に基づいて、前記手モデル画像および前記アノテーション画像を生成し、
前記第2画像合成部は、前記撮像画像に前記手モデル画像および前記アノテーション画像を合成して第3合成画像を生成する
請求項2に記載の支援システム。 - 前記第1画像生成部は、
前記右眼用アノテーション画像および前記左眼用アノテーション画像の水平方向の位置をずらすことにより、前記アノテーション画像の視差調整を行う
請求項1に記載の支援システム。 - 被支援装置に離隔して設けられる支援装置であって、
指導者の手の位置および指示内容を3次元で検出する3次元位置検出部と、
前記3次元位置検出部により検出された指示内容を示す指示内容情報を送信するデータ送信部と、
前記3次元位置検出部により検出された前記指導者の手の位置を示す位置情報に基づいて、3次元の手モデル画像を生成する第2画像生成部と、
前記被支援装置から送信された撮像画像に、前記手モデル画像を合成して第2合成画像を生成する第2画像合成部と、を備え、
前記第2画像生成部は、
GPUのシェーダー処理を用いて、前記位置情報に基づいて右眼用手モデル画像および左眼用手モデル画像を生成し、前記右眼用手モデル画像および前記左眼用手モデル画像をラインバイライン方式で合成することにより前記手モデル画像を生成する
支援装置。 - 支援装置に離隔して設けられる被支援装置であって、
前記支援装置において3次元で検出された指導者の指示内容を示す指示内容情報に基づいて、前記指導者の指示内容を示す3次元のアノテーション画像を生成する第1画像生成部と、
前記被支援装置により撮像された撮像画像に対して前記アノテーション画像を合成して第1合成画像を生成する第1画像合成部と、
を備え、
前記第1画像生成部は、
GPUのシェーダー処理を用いて、前記指示内容情報に基づいて右眼用アノテーション画像および左眼用アノテーション画像を生成し、前記右眼用アノテーション画像および前記左眼用アノテーション画像をラインバイライン方式で合成することにより前記アノテーション画像を生成する
被支援装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/005122 WO2023152829A1 (ja) | 2022-02-09 | 2022-02-09 | 支援システム、支援装置、被支援装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023152829A1 JPWO2023152829A1 (ja) | 2023-08-17 |
JP7401157B1 true JP7401157B1 (ja) | 2023-12-19 |
Family
ID=87563818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023543415A Active JP7401157B1 (ja) | 2022-02-09 | 2022-02-09 | 支援システム、支援装置、被支援装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240371063A1 (ja) |
JP (1) | JP7401157B1 (ja) |
CN (1) | CN118284382A (ja) |
WO (1) | WO2023152829A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019083805A1 (en) * | 2017-10-23 | 2019-05-02 | Intuitive Surgical Operations, Inc. | SYSTEMS AND METHODS FOR PRESENTING ENHANCED REALITY ON A SCREEN OF A TELEOPERATION SYSTEM |
JP2019162339A (ja) * | 2018-03-20 | 2019-09-26 | ソニー株式会社 | 手術支援システムおよび表示方法 |
WO2020090943A1 (ja) * | 2018-10-30 | 2020-05-07 | Cyberdyne株式会社 | インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000271147A (ja) | 1999-03-19 | 2000-10-03 | Olympus Optical Co Ltd | 遠隔手術支援システム |
-
2022
- 2022-02-09 JP JP2023543415A patent/JP7401157B1/ja active Active
- 2022-02-09 CN CN202280077469.8A patent/CN118284382A/zh active Pending
- 2022-02-09 WO PCT/JP2022/005122 patent/WO2023152829A1/ja active Application Filing
-
2024
- 2024-07-16 US US18/773,703 patent/US20240371063A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019083805A1 (en) * | 2017-10-23 | 2019-05-02 | Intuitive Surgical Operations, Inc. | SYSTEMS AND METHODS FOR PRESENTING ENHANCED REALITY ON A SCREEN OF A TELEOPERATION SYSTEM |
JP2019162339A (ja) * | 2018-03-20 | 2019-09-26 | ソニー株式会社 | 手術支援システムおよび表示方法 |
WO2020090943A1 (ja) * | 2018-10-30 | 2020-05-07 | Cyberdyne株式会社 | インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム |
Also Published As
Publication number | Publication date |
---|---|
CN118284382A (zh) | 2024-07-02 |
US20240371063A1 (en) | 2024-11-07 |
JPWO2023152829A1 (ja) | 2023-08-17 |
WO2023152829A1 (ja) | 2023-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10622111B2 (en) | System and method for image registration of multiple video streams | |
US8911358B2 (en) | Endoscopic vision system | |
JP3717653B2 (ja) | 頭部搭載型画像表示装置 | |
Satava | 3-D vision technology applied to advanced minimally invasive surgery systems | |
US20220387128A1 (en) | Surgical virtual reality user interface | |
KR20080089376A (ko) | 3차원 텔레스트레이션을 제공하는 의료용 로봇 시스템 | |
CN104094162A (zh) | 动态控制沉浸或抬头显示操作的宽视场3d立体视觉平台 | |
JP5869770B2 (ja) | 視覚認知検査システム、訓練システムおよび支援システム | |
JP7373800B2 (ja) | キャリブレーションシステム、及び、瞳孔間のキャリブレーション方法 | |
JP2011010126A (ja) | 画像処理装置、画像処理方法 | |
JP5771754B2 (ja) | 立体内視鏡システム | |
JP4537916B2 (ja) | 医療用立体観察システム | |
CN115919239A (zh) | 用于3d内窥镜成像系统的成像方法和3d内窥镜成像系统 | |
JP7401157B1 (ja) | 支援システム、支援装置、被支援装置 | |
JP7393842B1 (ja) | 支援システム、支援装置、被支援装置 | |
JP3759187B2 (ja) | 両眼視機能訓練装置 | |
US20160095504A1 (en) | Stereoscopic endoscope system | |
KR20150007517A (ko) | 실감형 시각정보를 이용한 수술동작 지시방법 | |
Dunkin et al. | 3d in the minimally invasive surgery (mis) operating room: Cameras and displays in the evolution of mis | |
JP6526516B2 (ja) | 医用画像処理装置 | |
Guana | Three-Dimensional Minimally Invasive Surgery Enhances Surgeon’s Performances, Reducing Operative Time and Errors. Comparative Study in a Pediatric Surgery Setting. | |
CN118526146A (zh) | 内窥镜的显示控制方法、控制装置及显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230719 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7401157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |