Nothing Special   »   [go: up one dir, main page]

JP6323184B2 - 画像処理装置、画像処理方法、並びにプログラム - Google Patents

画像処理装置、画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP6323184B2
JP6323184B2 JP2014115769A JP2014115769A JP6323184B2 JP 6323184 B2 JP6323184 B2 JP 6323184B2 JP 2014115769 A JP2014115769 A JP 2014115769A JP 2014115769 A JP2014115769 A JP 2014115769A JP 6323184 B2 JP6323184 B2 JP 6323184B2
Authority
JP
Japan
Prior art keywords
image
surgical instrument
forceps
unit
surgical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014115769A
Other languages
English (en)
Other versions
JP2015228955A5 (ja
JP2015228955A (ja
Inventor
岳志 宮井
岳志 宮井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014115769A priority Critical patent/JP6323184B2/ja
Priority to US15/306,775 priority patent/US10827906B2/en
Priority to PCT/JP2015/002748 priority patent/WO2015186335A1/en
Priority to EP15728186.6A priority patent/EP3151719B1/en
Publication of JP2015228955A publication Critical patent/JP2015228955A/ja
Publication of JP2015228955A5 publication Critical patent/JP2015228955A5/ja
Application granted granted Critical
Publication of JP6323184B2 publication Critical patent/JP6323184B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00194Optical arrangements adapted for three-dimensional imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/402Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for positioning, e.g. centring a tool relative to a hole in the workpiece, additional detection means to correct position
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45123Electrogoniometer, neuronavigator, medical robot used by surgeon to operate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Endoscopes (AREA)

Description

本技術は、画像処理装置、画像処理方法、並びにプログラムに関する。詳しくは、術者の手間をかけずに、術者の所望する術部を映し出すことができるようにする画像処理装置、画像処理方法、並びにプログラムに関する。
内視鏡を体内に挿入し、内視鏡により、手術対象となる体内の部位(術部)を被観察部として撮像して画面に映し出し、画面を見ながら術部に処置を施す内視鏡下手術が利用されている。内視鏡下手術では、光源装置からの照明光が被観察部へ照射され、内視鏡で得られた被観察部の光学像の画像信号に、所望の信号処理が施され、被観察部の光学像の画像が画面に映し出される。
このような内視鏡下手術においては、手術を行う術者にとって最適な術部の視野(術野)を確保するために、状況に応じて、画面に映し出される被観察部の範囲や位置を適宜調整する必要がある。
しかしながら、通常、術者は、手術を行うための手術器具を両手に保持しているため、上記のような画面調整の作業を自ら迅速に行うことができない。また、術者が画面調整を目的として直接調整機器等を操作することは、術部、医療機器、および、手術室等の清浄度を確保する観点から好ましくない。
そこで、一般的には、術者がスコピスト等と呼ばれる補助者に対して指示を与えることにより、補助者が、術者からの指示に応じて調整機器を操作して、上記のような画面調整を行っている。
しかしながら、補助者を介した方法では、術者の指示が正確に伝わらず、術者が希望する画面調整を迅速に行うことが難しい場合がある。
そこで、補助者を介さずに画面調整を行う方法として、例えば、特許文献1では、輝度やコントラストが所定の期間変化しない領域に対してフォーカス制御を行うことが記載されている。
特開2011−139760号公報
しかしながら、特許文献1によると、輝度やコントラストが所定の期間変化しない領域が、術者がフォーカスを合わせたい領域であるとは限らず、誤ったフォーカスが行われてしまう可能性があった。
本開示は、このような状況に鑑みてなされたものであり、術者の手間をかけずに、術者が所望する術部に対してフォーカス制御を行えるようにするものである。
本技術の一側面の画像処理装置は、所定の間隔で配置された第1のセンサと第2のセンサから手術対象の部位を含む術野を撮像することにより得られた第1の画像と第2の画像から奥行き情報を生成する生成部と、生成された奥行き情報から視差画像を生成し、前記視差画像から直線的なエッジを検出することで、手術器具の3次元位置を検出する位置検出部と、前記手術器具の3次元位置に対応する線分を延長した延長線と前記術野との交点を、前記手術器具の操作を行う術者の注目点であると推定する注目点推定部と、前記第1の画像または前記第2の画像を用いて、前記注目点推定部により推定された前記注目点にフォーカスが合うように制御するフォーカス制御部とを備える。
前記注目点を表す所定のマークを、ディスプレイに表示させる前記第1の画像または前記第2の画像に重畳することができる。
前記フォーカス制御部は、前記術者からの指示があったとき、フォーカスの制御を行い、前記術者からの指示は、フットペダルの操作、前記手術器具に備えられているボタンの操作、または所定の言葉の発話により出されるようにすることができる。
前記フォーカス制御部は、光学ズームでピントが外れたと判断されたときにフォーカス制御を行うことができる。
前記フォーカス制御部は、顕微鏡システムにおけるアームが動いたときに、フォーカス制御を行うことができる。
前記手術器具の3次元位置に対応する線分を延長した延長線をさらに表示させるようにすることができる。
前記エッジは、前記視差画像内の輝度情報に基づいて検出されるようにすることができる。
前記エッジは、前記視差画像内の色情報に基づいて検出されるようにすることができる。
前記手術器具の3次元位置は、前記視差画像から、前記手術器具に付されたマーカを検出することで検出されるようにすることができる。
本技術の一側面の画像処理方法は、画像処理装置が、所定の間隔で配置された第1のセンサと第2のセンサから手術対象の部位を含む術野を撮像することにより得られた第1の画像と第2の画像から奥行き情報を生成し、生成された奥行き情報から視差画像を生成し、前記視差画像から直線的なエッジを検出することで、手術器具の3次元位置を検出し、前記手術器具の3次元位置に対応する線分を延長した延長線と前記術野との交点を、前記手術器具の操作を行う術者の注目点であると推定し、前記第1の画像または前記第2の画像を用いて、前記注目点推定部により推定された前記注目点にフォーカスが合うように制御する。
本技術の一側面のプログラムは、所定の間隔で配置された第1のセンサと第2のセンサから手術対象の部位を含む術野を撮像することにより得られた第1の画像と第2の画像から奥行き情報を生成し、生成された奥行き情報から視差画像を生成し、前記視差画像から直線的なエッジを検出することで、手術器具の3次元位置を検出し、前記手術器具の3次元位置に対応する線分を延長した延長線と前記術野との交点を、前記手術器具の操作を行う術者の注目点であると推定し、前記第1の画像または前記第2の画像を用いて、前記注目点推定部により推定された前記注目点にフォーカスが合うように制御するステップを含む処理をコンピュータに実行させる
本技術の一側面の画像処理装置、画像処理方法、並びにプログラムにおいては、所定の間隔で配置された第1のセンサと第2のセンサから手術対象の部位を含む術野を撮像することにより得られた第1の画像と第2の画像から奥行き情報が生成され、生成された奥行き情報から視差画像が生成され、視差画像から直線的なエッジが検出されることで、手術器具の3次元位置が検出され、手術器具の3次元位置に対応する線分を延長した延長線と術野との交点が、手術器具の操作を行う術者の注目点であると推定され、第1の画像または第2の画像を用いて、注目点推定部により推定された注目点にフォーカスが合うように制御される
本技術の一側面によれば、術者が所望する術部に対してフォーカス制御を行えるようにすることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示に係る内視鏡システムの一実施の形態の構成例を示すブロック図である。 内視鏡システムの使用状態を説明する図である。 奥行き位置の算出方法を説明する図である。 奥行き位置の算出方法を説明する図である。 鉗子の位置検出を説明する図である。 注目点の位置検出を説明する図である。 ディスプレイに表示される重畳画像の例を示す図である。 フォーカス制御について説明するためのフローチャートである。 鉗子位置検出処理の詳細を説明するフローチャートである。 注目点推定処理の詳細を説明するフローチャートである。 フォーカス制御について説明するためのフローチャートである。 本開示に係るコンピュータの一実施の形態の構成例を示すブロック図である。
以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
1.内視鏡システムの構成例
2.フォーカス処理フロー
3.他のフォーカス処理フロー
4.記録媒体について
<内視鏡システムの構成例>
図1は、本開示に係る内視鏡システムの一実施の形態の構成例を示すブロック図である。
図1の内視鏡システムは、内視鏡カメラヘッド11、CCU(カメラコントロールユニット)12、操作部13、及びディスプレイ14により構成される。
この内視鏡システムは、手術対象となる体内の部位(術部)を被観察部として撮像してディスプレイ14に映し出し、ディスプレイ14を見ながら被観察部に処置を施す内視鏡下手術で用いられる。
内視鏡下手術では、例えば、図2に示されるように、内視鏡カメラヘッド11の挿入部25と、手術器具である2本の鉗子81(81A及び81B)が、患者の体内に挿入される。内視鏡カメラヘッド11は、挿入部25の先端から光を照射して患者の術部82を照明して、2本の鉗子81及び術部82の状態を撮像する。
なおここでは、内視鏡を例にあげて説明するが、内視鏡のような医療用機器以外の機器に対しても本技術を適用できる。例えば、術部に該当する注目部位を、手術器具に該当する指示具や所定のデバイス等で何らかの処理を施す機器に対して適用できる。
内視鏡カメラヘッド11は、図1に示されるように、撮像部21、光源22、及び、フォーカスレンズ23を含んで構成される。
撮像部21は、第1撮像センサ24aと第2撮像センサ24bの2つの撮像センサ24を少なくとも有する。撮像センサ24は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどで構成され、被写体を撮像して、その結果得られる画像を生成する。撮像センサ24には、いわゆる4Kカメラと呼ばれる、水平方向×垂直方向の画素数が約4000×約2000の画素数を有する高解像度のセンサを採用することができる。2つの撮像センサ24は、左右方向に所定の間隔離れて配置されており、視点方向の異なる画像を生成し、CCU12に出力する。
本実施の形態では、2つの撮像センサ24で撮像されて得られる画像を術部画像と称する。また、本実施の形態では、第1撮像センサ24aが右側、第2撮像センサ24bが左側に配置されているものとして、第1撮像センサ24aが生成する術部画像をR画像、第2撮像センサ24bが生成する術部画像をL画像ともいう。
光源22は、例えば、ハロゲンランプ、キセノンランプ、LED (Light Emitting Diode)光源などで構成され、術部を照明するための光を出射する。
フォーカスレンズ23は、1または複数のレンズで構成されており、CCU12のフォーカス制御部46(後述する)によって駆動され、被写体からの入射光(像光)を撮像センサ24の撮像面上に結像する。
CCU12は、内視鏡カメラヘッド11の撮像部21で撮像されて得られた術部画像を処理する画像処理装置であり、奥行き情報生成部41、鉗子位置検出部42、注目点推定部43、画像重畳部44、操作制御部45、及び、フォーカス制御部46により構成されている。
撮像部21で生成され、出力されたR画像及びL画像は、CCU12の奥行き情報生成部41と画像重畳部44に供給される。また、R画像及びL画像の一方(例えば、L画像)は、フォーカス制御部46にも供給される。
奥行き情報生成部41は、供給されたR画像及びL画像から、術部画像の奥行き情報を生成する。より具体的には、奥行き情報生成部41は、供給されたR画像及びL画像を用いて、三角測量の原理により、術部画像内の各画素の奥行き方向の位置を算出する。
図3及び図4を参照して、三角測量の原理を用いた、術部画像内の各画素の奥行き位置の算出方法について説明する。
いま、第1撮像センサ24aと第2撮像センサ24bが、図3に示されるように、距離Tの間隔を開けて、横方向に並んで配置されており、第1撮像センサ24aと第2撮像センサ24bのそれぞれが、実世界上の物体Pを撮像しているものとする。
第1撮像センサ24aと第2撮像センサ24bの垂直方向の位置は同一であり、水平方向の位置だけが異なるので、第1撮像センサ24aと第2撮像センサ24bにより得られるR画像とL画像の画像内における物体Pの位置は、x座標位置のみが異なることとなる。
そこで、例えば、第1撮像センサ24aにより得られるR画像では、R画像内に映る物体Pのx座標がxであり、第2撮像センサ24bにより得られるL画像では、L画像内に映る物体Pのx座標がxであるとする。
三角測量の原理を用いると、図4に示されるように、R画像中の物体Pのx座標=xは、第1撮像センサ24aの光学中心Oと物体Pとを結んだ直線上の位置に相当する。また、L画像中の物体Pのx座標=xは、第2撮像センサ24bの光学中心Oと物体Pとを結んだ直線上の位置に相当する。
ここで、光学中心OまたはOから、R画像またはL画像の撮像平面までの距離をf、実世界の物体Pまでの距離(奥行き)をZとすると、視差dは、d=(x−x)で表される。
また、T,Z,d,fには、
Figure 0006323184
の関係が成り立つ。
従って、物体Pまでの距離Zは、式(1)を変形して、次式(2)により求めることができる。
Figure 0006323184
図1の奥行き情報生成部41は、上述した三角測量の原理を用いて、術部画像内の各画素の奥行きZを算出する。奥行き情報生成部41で算出された各画素の奥行きZは、奥行き情報として、鉗子位置検出部42と注目点推定部43のそれぞれに供給される。
鉗子位置検出部42は、奥行き情報生成部41から供給された術部画像の奥行き情報を用いて、術部画像内に映された鉗子81の位置を検出する。なお、上述したように、術部画像内には、2本の鉗子81が被写体として撮像される場合があるが、いずれか一方の鉗子81の位置が検出されればよい。どちらの鉗子81の位置を検出するかは、予め決めてもよいし、術部画像内でより検出しやすい方を検出するのでもよい。また、2本の鉗子81の位置を検出しても勿論よい。
図5を参照して、鉗子位置検出部42による鉗子81の位置検出について説明する。
初めに、鉗子位置検出部42は、奥行き情報生成部41から供給された術部画像の奥行き情報から、視差画像を生成する。視差画像とは、奥行き情報である各画素の奥行きZをグレースケールで表した画像である。
図5Aは、視差画像の例を示しており、輝度値が大きい値ほど奥行きZは小さく、術部画像中の被写体がより手前にあることを表している。
次に、鉗子位置検出部42は、生成した視差画像から、輝度値の境界となるエッジを検出する。例えば、視差画像のなかで、隣接する画素の画素値の差分が所定の値以上である画素が、エッジとして検出される。
エッジ検出成分を輝度値に基づく検出としているが、例えば、術野は、赤色が主成分であるのに対して、鉗子は、銀、白、黒などの赤とは異なる色であることが一般的である。このように術野と鉗子は、異なる色であるため、色成分情報に基づき、エッジ検出を行うことも可能である。すなわち、視差画像内の特定の色情報に基づいて、鉗子等の手術器具の3次元位置を検出するように構成することも可能である。
ここでは、輝度値を用いる場合を例にあげて説明する。図5Bは、図5Aの視差画像に対して検出されたエッジの例を示している。
次に、鉗子位置検出部42は、検出されたエッジのなかから、曲線的なエッジを除去し、一定以上の長さを有する直線的なエッジのみを検出する。
鉗子81は棒状の形状を有しているため、鉗子81のエッジとして、所定の長さ以上の直線的なエッジが存在する。そこで、鉗子位置検出部42は、検出されたエッジのなかから、鉗子81のエッジとして、一定以上の長さを有する直線的なエッジのみを検出する。
なお、鉗子位置検出部42は、鉗子81のエッジを特定する際、上記の一定以上の長さを有する直線的なエッジであるか否かの他に、検出された直線的なエッジが、術部画像の外縁部から続く直線であるか否かを判定してもよい。内視鏡カメラヘッド11の挿入部25と鉗子81が、図2に示したような位置関係にある場合、一般に、術部画像内において、鉗子81は、術部画像の外縁部から中心部へ延びるような位置で撮像されている。そのため、検出された直線的なエッジが術部画像の外縁部から続く直線であるか否かを判定することにより、鉗子81の検出精度をさらに上げることができる。
次に、鉗子位置検出部42は、検出された直線的なエッジから、撮像画像内における3次元空間上の鉗子81の位置、即ち、鉗子81の姿勢を推定する。
具体的には、鉗子位置検出部42は、図5Dに示されるように、検出された直線的なエッジから、鉗子81に対応する線分(直線)101を算出する。線分101は、例えば、検出された2本の直線的なエッジの中間線などで求めることができる。
そして、鉗子位置検出部42は、算出された線分101上の所定の2点(x,y)及び(x,y)を検出し、検出された2点の位置(x,y)及び(x,y)の奥行き位置z及びzを、供給された奥行き情報から取得する。これにより、術部画像内における鉗子81の3次元空間上の位置(x,y,z)及び(x,y,z)が特定される。
なお、術部画像内の2本の鉗子81に対応して2つの線分が検出された場合には、より手前にある方を選択するなどして、検出された2つの線分のいずれか一方を選択することができる。
図1に戻り、鉗子位置検出部42は、以上のようにして検出された鉗子81の3次元空間上の位置(x,y,z)及び(x,y,z)を、注目点推定部43に供給する。
注目点推定部43には、奥行き情報生成部41から、術部画像の奥行き情報が供給されるとともに、鉗子位置検出部42から、鉗子81の姿勢を表す3次元空間上の2点の座標(x,y,z)及び(x,y,z)が供給される。
注目点推定部43は、図6に示されるように、検出された鉗子81の位置を延長した先に、術部82の注目点Qが存在すると仮定して、3次元空間上の術部82の注目点Qの位置を推定する。術部82の注目点Qは、検出された鉗子81の姿勢を延長した延長線と、術部82の表面の交点に相当する。推定された3次元空間上の術部82の注目点Qの位置座標は、画像重畳部44に供給される。
画像重畳部44は、注目点推定部43から供給される注目点Qを中心とした所定のマーク、例えば、×印、所定の大きさの円形や四角形を、撮像部21から供給される術部画像の注目点Qを中心とした位置に重畳した重畳画像を生成し、ディスプレイ14に表示させる。
画像重畳部44に、操作制御部45から、3D表示のオンまたはオフを指定する制御情報である表示モード情報が供給されるように構成することも可能である。画像重畳部44は、表示モード情報により3D表示のオフが指定されている場合、R画像及びL画像のいずれか一方をディスプレイ14に供給し、術部画像を2D表示させる。
一方、表示モード情報により3D表示のオンが指定されている場合、画像重畳部44は、R画像及びL画像の両方をディスプレイ14に供給し、術部画像を3D表示させる。ここで、3D表示とは、R画像とL画像を交互にディスプレイ14に表示させ、R画像を術者の右眼で視認させ、L画像を術者の左眼で視認させることにより、術者が術部画像を立体的に知覚する画像表示をいう。
操作制御部45は、操作部13から供給される操作信号に基づいて、各種の制御信号を所要の各部へ供給する。例えば、操作制御部45は、操作部13で行われた注目点Qを含む領域にフォーカスを合わせるとの指示に応じて、フォーカスを合わせる指示を、フォーカス制御部46に供給する。
フォーカス制御部46は、撮像部21から供給されるL画像に基づいて、コントラスト法によるフォーカス制御を行う。具体的には、フォーカス制御部46は、内視鏡カメラヘッド11のフォーカスレンズ23を駆動し、撮像部21から供給されるL画像のコントラストを比較して、フォーカス位置を検出する。フォーカス制御部46は、注目点推定部43から、注目点Qの位置座標を取得して、注目点Qを中心とする所定の範囲内の領域をフォーカス制御対象領域としてフォーカス制御を行うことができる。
操作部13は、少なくともフットペダル61を備え、術者(操作者)からの操作を受け付け、術者が行った操作に対応する操作信号を操作制御部45に供給する。術者は、操作部13を操作することにより、例えば、ディスプレイ14に表示される注目点Qを表すマークの位置に、フォーカスを合わせる、ディスプレイ14に表示される術部画像の2D表示と3D表示の切替え、内視鏡のズーム倍率の設定、などを行うことができる。
ディスプレイ14は、例えばLCD(Liquid Crystal Display)などで構成され、画像重畳部44から供給される画像信号に基づいて、内視鏡カメラヘッド11の撮像部21で撮像された術部画像を表示する。また、重畳モードがオンに設定されている場合、ディスプレイ14は、撮像部21で撮像された術部画像、またはその述部画像に注目点推定部43で推定された注目点Qの位置を表す所定形状のマークを重畳した重畳画像を表示する。
図7は、ディスプレイ14に表示される重畳画像の例を示している。
図7の重畳画像100では、撮像部21から供給された術部画像110に、注目点Qを含む領域として決定された所定の大きさの注目領域QAが、四角形状のマークで表されている。
術部画像110には、2本の鉗子81A及び81Bが撮像されており、注目点Qは、左側の鉗子81Aの位置に基づいて推定されている。そして、重畳画像100には、推定された注目点Qと、その注目点Qを術者に認識させるためのマーク(図7では注目領域QAを表す四角形状)、及び、注目点Qの推定で計算された延長線に対応するガイド線111が表示されている。
ガイド線111が表示されるように構成した場合、ガイド線111の表示により、腹腔内の3次元距離をより直感的に認識することが可能となり、平面視においても3次元的な距離情報を術者に提示することができるようになる。
図7では、注目点Qを術者に認識させるためのマークとして四角形状を例示したが、四角形状に限らず、三角形状など、他の形状でも良い。またバツ(×)印などの形状のマークが表示されるようにしても良い。
<フォーカス処理フロー>
次に、図1の内視鏡システムにおいて、注目点Qを検出し、その注目点Qの位置にフォーカスを合わせるときの処理について図8のフローチャートを参照して説明する。なお、このような注目点Qを検出し、フォーカスを合わせるという処理(オートフォーカスの処理)を行うか否かは、術者により設定できるようにし、オートフォーカスを行うと設定されているときに、図8に示したフローチャートの処理が実行されるように構成することも可能である。
また、オートフォーカスを行うか否かの設定は、フットペダル61を操作することにより行えるように構成することも可能である。
また、図8に示したフォーカス処理フローに基づく処理は、術者が開始ボタン(フットペダル61でも良い)を操作したとき、光学ズームなどでピントが外れたと判断されたとき、などに開始されるように構成することができる。また本技術は、顕微鏡システムにも適用でき、顕微鏡システムにおけるアームが動いたときをトリガーとして、図8に示したフォーカス処理フローに基づく処理が開始されるように構成することもできる。
図8は、フォーカス処理のフローチャートを示している。図8のフォーカス処理が実行される状態では、内視鏡システムの各機器の電源が入っており、内視鏡カメラヘッド11の挿入部25や鉗子81が患者の体内に挿入され、患者の術部82が光源22により照明されている。
初めに、ステップS1において、奥行き情報生成部41は、内視鏡カメラヘッド11の撮像部21から供給されたR画像及びL画像から、術部画像の奥行き情報を生成する。より具体的には、奥行き情報生成部41は、図4を参照して説明した三角測量の原理を用いた式(2)により、術部画像内の各位置(画素)の奥行きZを算出する。奥行き情報生成部41で算出された奥行き情報は、注目点推定部43と鉗子位置検出部42のそれぞれに供給される。
ステップS1における処理は、撮像部21で撮影されている被写体表面の3次元位置を決定するための処理である。
ステップS2において、鉗子位置検出部42は、奥行き情報生成部41から供給された術部画像の奥行き情報を用いて術部画像内の鉗子81の位置を検出する鉗子位置検出処理を実行する。ステップS2における処理は、術者が持つ鉗子等の棒状の器具の3次元位置を検出するための処理である。
<鉗子位置検出処理の詳細フロー>
図9は、ステップS2で実行される鉗子位置検出処理の詳細なフローチャートを示している。
鉗子位置検出処理では、初めに、ステップS21において、鉗子位置検出部42が、奥行き情報生成部41から供給された術部画像の奥行き情報から、視差画像を生成する。
ステップS22において、鉗子位置検出部42は、生成した視差画像から、輝度値の境界となるエッジを検出する。
ステップS23において、鉗子位置検出部42は、検出されたエッジのなかから、曲線的なエッジを除去し、一定以上の長さを有する直線的なエッジのみを検出する。
ステップS24において、鉗子位置検出部42は、検出された直線的なエッジから、術部画像内における3次元空間上の鉗子81の位置を推定する。これにより、図5Dを参照して説明したように、術部画像内における鉗子81の3次元空間上の位置を示す2点の座標(x,y,z)及び(x,y,z)が決定される。
以上のようにして検出された術部画像内の鉗子81の位置(x,y,z)及び(x,y,z)は、注目点推定部43に供給され、処理は図8のステップS3に進む。
ステップS3において、注目点推定部43は、検出された鉗子81の位置を延長した先に、術部82の注目点Qが存在すると仮定して、3次元空間上の術部82の注目点Qの位置を検出する注目点推定処理を実行する。
<注目点推定処理の詳細フロー>
図10のフローチャートを参照して、図8のステップS3で実行される注目点推定処理の詳細について説明する。
初めに、ステップS41において、注目点推定部43は、鉗子位置検出部42から供給された、術部画像内における3次元空間上の鉗子81の位置(x,y,z)及び(x,y,z)を取得する。
ステップS42において、注目点推定部43は、XY平面における2点の鉗子座標(X,Y)及び(X,Y)を結ぶ線分Aの傾きaを計算する。傾きaは、以下の式で算出することができる。
=(Y−Y)/(X−X
ステップS43において、注目点推定部43は、XZ平面における2点の鉗子座標(X,Z)及び(X,Z)を結ぶ線分Bの傾きaを計算する。傾きaは、以下の式で算出することができる。
=(Z−Z)/(X−X
ステップS44において、注目点推定部43は、XY平面における線分Aを、画面中心方向に所定の長さWだけ延長したときのX座標値である座標Xを決定する。所定の長さWは、例えば、線分Aの1/N(Nは正の整数)で定義することができる。
ステップS45において、注目点推定部43は、Y=a*Xを計算し、XY平面における線分Aの延長点(X,Y)を計算する。ここで、“*”は乗算を表す。
ステップS46において、注目点推定部43は、線分Aの延長点(X,Y)のXZ平面上の奥行きZを、Z=a*Xにより計算する。ここで計算された延長点(X,Y)の奥行きZは、延長点(X,Y)の理論値に相当する。
ステップS47において、注目点推定部43は、奥行き情報生成部41から供給された奥行き情報から、線分Aの延長点(X,Y)の奥行きZを取得する。ここで、取得される延長点(X,Y)の奥行きZは、延長点(X,Y)の実値に相当する。
ステップS48において、注目点推定部43は、延長点(X,Y)の理論値である奥行きZが、実値の奥行きZよりも大きいか否かを判定する。
鉗子81に対応する線分Aを画面中心方向に所定の長さWだけ延長した延長点(X,Y)に術部82が存在しない場合とは、術部82がもっと奥の方に存在している場合である。この場合、奥行き情報から得られた延長点(X,Y)の実値の奥行きZは、理論値の奥行きZよりも大きくなる。
一方、延長点(X,Y)に実際に術部82が存在する場合には、延長点(X,Y)の理論値(奥行きZ)よりも、奥行き情報から得られた実値(奥行きZ)が手前に存在する状態となるため、延長点(X,Y)の実値の奥行きZは、理論値の奥行きZよりも小さくなる。
したがって、ステップS48では、注目点推定部43は、線分Aを所定の長さWだけ延長した延長点(X,Y)の理論値(奥行きZ)が、奥行き情報から得られた実値(奥行きZ)よりも手前に存在する状態となっているか否かを判定している。
ステップS48で、延長点(X,Y)の理論値である奥行きZが実値の奥行きZ以下である、即ち、延長点(X,Y)の理論値の奥行きZが実値の奥行きZよりも手前であると判定された場合、処理はステップS44に戻される。
処理が戻されたステップS44では、XY平面における線分Aを、現在の延長点(X,Y)よりもさらに画面中心方向に所定の長さWだけ延長した座標Xが、新たな座標Xとして決定される。そして、決定された新たな座標Xに対して、上述したステップS45乃至S48が再度実行される。
一方、ステップS48で、延長点(X,Y)の理論値である奥行きZが実値の奥行きZより大きい、即ち、延長点(X,Y)の実値の奥行きZが理論値の奥行きZよりも手前であると判定された場合、処理はステップS49に進む。
ステップS49において、注目点推定部43は、実値の奥行きZをZ座標値とする延長点(X,Y,Z)を注目点Qに決定する。
以上により図8のステップS3が終了し、処理がステップS4に進められる。
ステップS4において、推定(検出)された注目点Qが画面上に表示される。例えば、図7を参照して説明したように、注目点Qの位置に所定のマークが表示される。
ステップS5において、合焦点とする指示が出されたか否かが判断される。術者は、ディスプレイ14に表示された注目点Qを、合焦点としたい場合、操作部13のフットペダル61を操作する。このような操作が行われた場合、推定された注目点Qが合焦点とする指示が出されたと判断される。
なおここでは、フットペダル61の操作が合焦点とする指示であるとして説明したが、例えば、鉗子に取り付けられているスイッチ(不図示)が操作される、音声認識で予め設定されている言葉が発せされるなどの他の方法で、合焦点とする指示が出されるように構成することも可能である。
ステップS5において、合焦点とする指示は出されていないと判断された場合、ステップS1に処理が戻され、それ以降の処理が繰り返される。
一方で、ステップS5において、合焦点とする指示が出されたと判断された場合、ステップS6に処理が進められ、フォーカス制御部46によるフォーカス制御が行われる。フォーカス制御部46は、注目点推定部43から推定された注目点の座標位置などの情報を取得し、その情報から、注目点Qの位置にフォーカスが合うように、例えば、上記したコントラスト法により、フォーカス制御を行う。
なお、内視鏡カメラヘッド11が動き、撮影されている被写体表面の3次元位置が変化する可能性がある場合、図8に示したように、ステップS5において、合焦点とする指示は出されていないと判断された場合、ステップS1に処理が戻され、再度奥行き情報が生成され、それ以降の処理が繰り返される。
本技術は、上述した内視鏡システムの他、顕微鏡システムについても同様に適用することができる。その場合、図1の内視鏡カメラヘッド11に代えて、顕微鏡カメラヘッドが設けられ、CCU12は、顕微鏡カメラヘッドで撮像された術部画像の重畳表示処理を行うことができる。
顕微鏡システムで、顕微鏡カメラヘッドと被写体が固定され、撮影部21で撮影されている被写体表面の3次元位置が変化する可能性が低い場合、図8に示したステップS5において、合焦点とする指示は出されていないと判断された場合、ステップS2に処理が戻され、それ以降の処理が繰り返されるような構成としても良い。この場合、撮影されている被写体表面の3次元位置(奥行き情報)は、最初の1回だけ取得され、その後、その取得された奥行き情報が繰り返し利用されて処理が行われる。
なお、ステップS5において、合焦点とする指示は出されていないと判断された場合、ステップS2に処理が戻され、それ以降の処理が繰り返されるような構成とした場合であっても、例えば、所定の間隔毎にステップS1における奥行き情報の生成が行われ、奥行き情報が更新されるように構成することも可能である。
上述した鉗子位置検出処理では、術部画像の奥行き情報から視差画像を生成し、直線的なエッジを検出することにより、鉗子81を検出する例について説明したが、その他の検出方法を採用することもできる。
例えば、鉗子81の所定の2か所にマーカを付しておき、術部画像内の鉗子81の位置(x,y,z)及び(x,y,z)として、鉗子81に付された2か所のマーカを検出することができる。鉗子81の形状及び色や、鉗子81に付されているマーカの形状及び色など、施術で使用される複数種類の鉗子81の特徴を予めデータベースとして鉗子位置検出部42内のメモリに記憶させておき、指定された鉗子81の情報に基づいて、マーカの検出を行うようにすることができる。
このように、鉗子が指す方向が、術者が注目している方向であるとし、その方向に位置する被写体画像にフォーカスが合うように制御するため、術者は、鉗子等の器具から他を離すことなく、希望する部分にフォーカスを合わせることができる。よって、使い勝手の良い、操作性が向上した内視鏡システムや顕微鏡システムを提供することが可能となる。
<他のフォーカス処理フロー>
内視鏡システムのフォーカス制御に係わる他の処理について、図11に示したフローチャートを参照して説明する。
ステップS101において、鉗子位置検出部42は、術部画像内の鉗子81の位置を検出する鉗子位置検出処理を実行する。ステップS101における処理は、術者が持つ鉗子等の棒状の器具の3次元位置を検出するための処理である。ステップS101における鉗子位置検出処理は、図に示したステップS2の処理と同様に行うことが可能である。
ステップS102において、奥行き情報生成部41は、内視鏡カメラヘッド11の撮像部21から供給されたR画像及びL画像から、術部画像の奥行き情報を生成する。ステップS102における処理は、撮像部21で撮影されている被写体表面の3次元位置を決定するための処理である。ステップS102における鉗子位置検出処理は、図に示したステップS1の処理と同様に行うことが可能である。
図11に示したフローチャートに基づく処理は、図に示したフローチャートに基づく処理において、奥行き情報を生成した後、鉗子位置を検出するという流れを逆にし、鉗子位置を検出した後に、奥行き情報を生成する流れとなっている。
鉗子位置を検出することで、鉗子の先端部の延長上であり、被写体画像と交わる部分が推定できる。その推定される被写体画像の部分に対して、奥行き情報を生成するための処理が実行される。すなわち、図11に示したフローチャートの処理においては、奥行き情報を生成する領域を絞り込み、その絞り込まれた領域内から、奥行き情報が生成される。
このように、奥行き情報を生成する領域を絞り込むことで、奥行き情報を生成するために必要される処理能力や処理時間を低減させることが可能となる。
ステップS103乃至S106における処理は、図のフローチャートのステップS3乃至S6と同様に行われるため、その説明は省略する。
このように、本技術によれば、鉗子が指している部分の画像にフォーカスを合わせることができるため、操作者は手に持つ鉗子等の器具を手から離すことなく、希望する部分にフォーカスを合わせることが出来る。よって、内視鏡システムの操作性を向上させることができる。
<記録媒体について>
CCU12が実行する画像処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図12は、CCU12が実行する画像処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータでは、プログラムは、リムーバブル記録媒体211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
11 内視鏡カメラヘッド, 12 CCU, 13 操作部, 14 ディスプレイ, 21 撮像部, 24a 第1撮像センサ, 24b 第2撮像センサ, 41 奥行き情報生成部, 42 鉗子位置検出部, 43 注目点推定部, 44 画像重畳部, 45 操作制御部, 61 フットペダル, Q 注目点, QA 注目領域, 111 ガイド線, QB ズーム画像, 201 CPU, 202 ROM, 203 RAM, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ

Claims (11)

  1. 所定の間隔で配置された第1のセンサと第2のセンサから手術対象の部位を含む術野を撮像することにより得られた第1の画像と第2の画像から奥行き情報を生成する生成部と、
    生成された奥行き情報から視差画像を生成し、前記視差画像から直線的なエッジを検出することで、手術器具の3次元位置を検出する位置検出部と、
    前記手術器具の3次元位置に対応する線分を延長した延長線と前記術野との交点を、前記手術器具の操作を行う術者の注目点であると推定する注目点推定部と、
    前記第1の画像または前記第2の画像を用いて、前記注目点推定部により推定された前記注目点にフォーカスが合うように制御するフォーカス制御部と
    を備える画像処理装置。
  2. 前記注目点を表す所定のマークを、ディスプレイに表示させる前記第1の画像または前記第2の画像に重畳する
    請求項に記載の画像処理装置。
  3. 前記フォーカス制御部は、前記術者からの指示があったとき、フォーカスの制御を行い、
    前記術者からの指示は、フットペダルの操作、前記手術器具に備えられているボタンの操作、または所定の言葉の発話により出される
    請求項1または2に記載の画像処理装置。
  4. 前記フォーカス制御部は、光学ズームでピントが外れたと判断されたときにフォーカス制御を行う
    請求項1乃至3のいずれかに記載の画像処理装置。
  5. 前記フォーカス制御部は、顕微鏡システムにおけるアームが動いたときに、フォーカス制御を行う
    請求項1乃至4のいずれかに記載の画像処理装置。
  6. 前記手術器具の3次元位置に対応する線分を延長した延長線をさらに表示させる
    請求項1乃至5のいずれかに記載の画像処理装置。
  7. 前記エッジは、前記視差画像内の輝度情報に基づいて検出される
    請求項1乃至6のいずれかに記載の画像処理装置。
  8. 前記エッジは、前記視差画像内の色情報に基づいて検出される
    請求項1乃至6のいずれかに記載の画像処理装置。
  9. 前記手術器具の3次元位置は、前記視差画像から、前記手術器具に付されたマーカを検出することで検出され
    請求項1乃至6のいずれかに記載の画像処理装置。
  10. 画像処理装置が、
    所定の間隔で配置された第1のセンサと第2のセンサから手術対象の部位を含む術野を撮像することにより得られた第1の画像と第2の画像から奥行き情報を生成し、
    生成された奥行き情報から視差画像を生成し、前記視差画像から直線的なエッジを検出することで、手術器具の3次元位置を検出し、
    前記手術器具の3次元位置に対応する線分を延長した延長線と前記術野との交点を、前記手術器具の操作を行う術者の注目点であると推定し、
    前記第1の画像または前記第2の画像を用いて、前記注目点推定部により推定された前記注目点にフォーカスが合うように制御する
    画像処理方法。
  11. 所定の間隔で配置された第1のセンサと第2のセンサから手術対象の部位を含む術野を撮像することにより得られた第1の画像と第2の画像から奥行き情報を生成し、
    生成された奥行き情報から視差画像を生成し、前記視差画像から直線的なエッジを検出することで、手術器具の3次元位置を検出し、
    前記手術器具の3次元位置に対応する線分を延長した延長線と前記術野との交点を、前記手術器具の操作を行う術者の注目点であると推定し、
    前記第1の画像または前記第2の画像を用いて、前記注目点推定部により推定された前記注目点にフォーカスが合うように制御する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2014115769A 2014-06-04 2014-06-04 画像処理装置、画像処理方法、並びにプログラム Active JP6323184B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014115769A JP6323184B2 (ja) 2014-06-04 2014-06-04 画像処理装置、画像処理方法、並びにプログラム
US15/306,775 US10827906B2 (en) 2014-06-04 2015-06-01 Endoscopic surgery image processing apparatus, image processing method, and program
PCT/JP2015/002748 WO2015186335A1 (en) 2014-06-04 2015-06-01 Image processing apparatus, image processing method, and program
EP15728186.6A EP3151719B1 (en) 2014-06-04 2015-06-01 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014115769A JP6323184B2 (ja) 2014-06-04 2014-06-04 画像処理装置、画像処理方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2015228955A JP2015228955A (ja) 2015-12-21
JP2015228955A5 JP2015228955A5 (ja) 2017-02-23
JP6323184B2 true JP6323184B2 (ja) 2018-05-16

Family

ID=53373516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014115769A Active JP6323184B2 (ja) 2014-06-04 2014-06-04 画像処理装置、画像処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US10827906B2 (ja)
EP (1) EP3151719B1 (ja)
JP (1) JP6323184B2 (ja)
WO (1) WO2015186335A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112015006562T5 (de) * 2015-06-29 2018-03-22 Olympus Corporation Bildverarbeitungsvorrichtung, Endoskopsystem, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
JP6753081B2 (ja) 2016-03-09 2020-09-09 ソニー株式会社 内視鏡手術システム、画像処理方法及び医療用観察システム
JP2017164007A (ja) * 2016-03-14 2017-09-21 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、プログラム
US11653853B2 (en) 2016-11-29 2023-05-23 Biosense Webster (Israel) Ltd. Visualization of distances to walls of anatomical cavities
JPWO2018179610A1 (ja) * 2017-03-27 2020-02-06 ソニー・オリンパスメディカルソリューションズ株式会社 制御装置、内視鏡システム、処理方法およびプログラム
EP3756531B1 (en) * 2018-03-23 2023-06-07 Sony Olympus Medical Solutions Inc. Medical display control device and display control method
WO2019187502A1 (ja) * 2018-03-29 2019-10-03 ソニー株式会社 画像処理装置と画像処理方法およびプログラム
US11147629B2 (en) * 2018-06-08 2021-10-19 Acclarent, Inc. Surgical navigation system with automatically driven endoscope
US20210345856A1 (en) * 2018-10-18 2021-11-11 Sony Corporation Medical observation system, medical observation apparatus, and medical observation method
WO2020167678A1 (en) * 2019-02-12 2020-08-20 Intuitive Surgical Operations, Inc. Systems and methods for facilitating optimization of an imaging device viewpoint during an operating session of a computer-assisted operation system
US11625834B2 (en) * 2019-11-08 2023-04-11 Sony Group Corporation Surgical scene assessment based on computer vision

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3036287B2 (ja) * 1992-12-15 2000-04-24 富士ゼロックス株式会社 動画像シーン検出装置
JPH07154687A (ja) * 1993-11-29 1995-06-16 Olympus Optical Co Ltd 画像合成装置
US5649021A (en) * 1995-06-07 1997-07-15 David Sarnoff Research Center, Inc. Method and system for object detection for instrument control
DE19529950C1 (de) * 1995-08-14 1996-11-14 Deutsche Forsch Luft Raumfahrt Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie
JPH11309A (ja) * 1997-06-12 1999-01-06 Hitachi Ltd 画像処理装置
JP2006215105A (ja) * 2005-02-01 2006-08-17 Fuji Photo Film Co Ltd 撮像装置
KR100567391B1 (ko) 2005-02-04 2006-04-04 국방과학연구소 수은램프와 할로겐램프 조합 방식을 이용한 솔라 시뮬레이터
JP4980625B2 (ja) * 2006-02-21 2012-07-18 富士フイルム株式会社 体腔内観察装置
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US7794396B2 (en) * 2006-11-03 2010-09-14 Stryker Corporation System and method for the automated zooming of a surgical camera
WO2008134715A1 (en) * 2007-04-30 2008-11-06 Mobileye Technologies Ltd. Rear obstruction detection
US8264542B2 (en) * 2007-12-31 2012-09-11 Industrial Technology Research Institute Methods and systems for image processing in a multiview video system
JP5410021B2 (ja) * 2008-01-22 2014-02-05 株式会社日立メディコ 医用画像診断装置
JP5385163B2 (ja) 2010-01-06 2014-01-08 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP5535725B2 (ja) * 2010-03-31 2014-07-02 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
JP5551957B2 (ja) * 2010-03-31 2014-07-16 富士フイルム株式会社 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム
JP5380348B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2012075507A (ja) * 2010-09-30 2012-04-19 Panasonic Corp 手術用カメラ
JP2012075508A (ja) * 2010-09-30 2012-04-19 Panasonic Corp 手術用カメラ
WO2012075631A1 (en) * 2010-12-08 2012-06-14 Industrial Technology Research Institute Methods for generating stereoscopic views from monoscopic endoscope images and systems using the same
US8989448B2 (en) * 2011-03-22 2015-03-24 Morpho, Inc. Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program
JP5855358B2 (ja) * 2011-05-27 2016-02-09 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
US9204939B2 (en) * 2011-08-21 2015-12-08 M.S.T. Medical Surgery Technologies Ltd. Device and method for assisting laparoscopic surgery—rule based approach
US9081488B2 (en) * 2011-10-19 2015-07-14 Boston Scientific Neuromodulation Corporation Stimulation leadwire and volume of activation control and display interface
JP6103827B2 (ja) * 2012-06-14 2017-03-29 オリンパス株式会社 画像処理装置および立体画像観察システム
TWI517828B (zh) * 2012-06-27 2016-01-21 國立交通大學 影像追蹤系統及其影像追蹤方法
EP4186422A1 (en) * 2012-07-25 2023-05-31 Intuitive Surgical Operations, Inc. Efficient and interactive bleeding detection in a surgical system
GB2505926A (en) * 2012-09-14 2014-03-19 Sony Corp Display of Depth Information Within a Scene
JP2014147630A (ja) * 2013-02-04 2014-08-21 Canon Inc 立体内視鏡装置
JP6265627B2 (ja) * 2013-05-23 2018-01-24 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2015029318A1 (ja) * 2013-08-26 2015-03-05 パナソニックIpマネジメント株式会社 3次元表示装置および3次元表示方法
JP6458732B2 (ja) * 2013-09-10 2019-01-30 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US20150080652A1 (en) * 2013-09-18 2015-03-19 Cerner Innovation, Inc. Lesion detection and image stabilization using portion of field of view
ES2900181T3 (es) * 2014-02-27 2022-03-16 Univ Surgical Associates Inc Pantalla interactiva para cirugía
US10334227B2 (en) * 2014-03-28 2019-06-25 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging of surgical scenes from multiport perspectives
WO2015149043A1 (en) * 2014-03-28 2015-10-01 Dorin Panescu Quantitative three-dimensional imaging and printing of surgical implants
KR101599129B1 (ko) * 2014-05-20 2016-03-02 박현준 내시경 상 보이는 병변의 크기 측정 방법 및 컴퓨터 판독 가능한 기록매체
JP6381313B2 (ja) * 2014-06-20 2018-08-29 キヤノン株式会社 制御装置、制御方法、およびプログラム
WO2016088187A1 (ja) * 2014-12-02 2016-06-09 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の制御方法
WO2016088186A1 (ja) * 2014-12-02 2016-06-09 オリンパス株式会社 フォーカス制御装置、内視鏡装置及びフォーカス制御装置の制御方法

Also Published As

Publication number Publication date
JP2015228955A (ja) 2015-12-21
EP3151719B1 (en) 2021-02-17
EP3151719A1 (en) 2017-04-12
WO2015186335A1 (en) 2015-12-10
US10827906B2 (en) 2020-11-10
US20170042407A1 (en) 2017-02-16

Similar Documents

Publication Publication Date Title
JP6323184B2 (ja) 画像処理装置、画像処理方法、並びにプログラム
JP6323183B2 (ja) 画像処理装置および画像処理方法
JP5576739B2 (ja) 画像処理装置、画像処理方法、撮像装置及びプログラム
JP7226325B2 (ja) 焦点検出装置および方法、並びにプログラム
WO2017159335A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
JP6758287B2 (ja) 制御装置及び医療用撮像システム
US8708890B2 (en) Endoscope apparatus and method of measuring subject
US11426052B2 (en) Endoscopic system
JP7392654B2 (ja) 医療用観察システム、医療用観察装置及び医療用観察方法
US11822089B2 (en) Head wearable virtual image module for superimposing virtual image on real-time image
KR101818005B1 (ko) 얼굴 데이터 관리 시스템 및 그 방법
JP2017205343A (ja) 内視鏡装置、内視鏡装置の作動方法
JP2022136184A (ja) 制御装置、内視鏡システムおよび制御装置の作動方法
JP2017176773A (ja) 手術支援システム、手術支援方法、手術支援プログラム
JP2014228851A (ja) 内視鏡装置、画像取得方法および画像取得プログラム
JP2011170276A (ja) 内視鏡装置およびプログラム
CN117670971A (zh) 图像处理装置、图像处理方法和存储介质
JPWO2014208224A1 (ja) オートフォーカス装置
US20220142454A1 (en) Image processing system, image processing device, and image processing method
JP7207296B2 (ja) 撮像装置とフォーカス制御方法およびフォーカス判定方法
US20230032791A1 (en) Measuring method and a measuring device
US20230346196A1 (en) Medical image processing device and medical observation system
JPWO2018047465A1 (ja) 内視鏡装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R151 Written notification of patent or utility model registration

Ref document number: 6323184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151