Nothing Special   »   [go: up one dir, main page]

KR20120117165A - 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치 - Google Patents

3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치 Download PDF

Info

Publication number
KR20120117165A
KR20120117165A KR1020110034752A KR20110034752A KR20120117165A KR 20120117165 A KR20120117165 A KR 20120117165A KR 1020110034752 A KR1020110034752 A KR 1020110034752A KR 20110034752 A KR20110034752 A KR 20110034752A KR 20120117165 A KR20120117165 A KR 20120117165A
Authority
KR
South Korea
Prior art keywords
depth
image
shadows
photographing
light
Prior art date
Application number
KR1020110034752A
Other languages
English (en)
Inventor
최원희
임재균
이성덕
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110034752A priority Critical patent/KR20120117165A/ko
Priority to US13/275,063 priority patent/US20120262548A1/en
Publication of KR20120117165A publication Critical patent/KR20120117165A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Image Processing (AREA)
  • Endoscopes (AREA)

Abstract

본 발명에 의한 내시경 장치는, 촬영 부위에 발광 면 중 패턴 형태의 일정 부분들의 발광이 차단된 패턴 광을 선택적으로 조사하는 광 조사부; 상기 패턴광이 조사되어 상기 일정 부분들에 대응하는 그림자들이 형성된 상기 촬영 부위에 대한 영상을 검출하는 촬상부; 및 상기 촬영 부위에 형성된 그림자들의 크기에 기초하여 상기 촬영 부위의 깊이 정보가 표현된 영상을 생성하는 영상 처리부를 포함

Description

3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치{Method of generating 3-dimensional image and endoscope apparatus using the same}
3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치에 관한 것으로, 더욱 자세하게는 촬영 부위에 대한 깊이 정보를 포함하는 영상의 생성 방법 및 이를 이용하는 내시경 장치에 관한 것이다.
촬영 부위에 대한 깊이 정보를 포함하는 3차원 영상을 생성하는 내시경 장치에 관련된 기술이다. 내시경은 신체를 절개하지 않고서도 신체의 내부에 삽입되어 장기의 병변을 관찰할 수 있는 의료 기구로 오늘날 그 활용도가 높다. 내시경 장치는 과거 흑백 영상만을 제공하던 것에서부터 시작하여 영상 처리 기술의 발달에 힘입어 컬러 고해상도 영상 내지는 협대역 영상을 제공하는 수준까지 발전하였다.
이러한 내시경 장치의 발달은 보다 정확한 병변 구별력을 제공하는 것과 밀접한 연관이 있다. 따라서, 차세대 내시경 관련 기술로 가장 유력한 것이 3차원 내시경 장치이다. 기존의 내시경 장치들은 2차원의 촬영 영상만을 제공하기 때문에 병변의 정확한 검출이 어려운 문제점이 있었다. 색상은 주변 조직과 거의 유사하나 다소 돌출되어 높이가 다른 병변의 경우 2차원 영상만을 보고 이를 검출해내기가 매우 어렵기 때문이다. 이에 2차원 촬영 영상뿐만 아니라 촬영 부위의 깊이 정보까지 제공하는 3차원 내시경 장치 개발에 대한 연구는 활발히 진행되고 있다.
촬영 부위의 깊이 정보를 얻어, 보다 정확한 병변 구분력을 제공하기 위한 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치를 제공한다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 내시경 장치는, 촬영 부위에 발광 면 중 패턴 형태의 일정 부분들의 발광이 차단된 패턴 광을 조사하는 광 조사부; 상기 패턴광이 조사되어 상기 일정 부분들에 대응하는 그림자들이 형성된 상기 촬영 부위에 대한 영상을 검출하는 촬상부; 및 상기 촬영 부위에 형성된 그림자들의 크기에 기초하여 상기 촬영 부위의 깊이 정보가 표현된 영상을 생성하는 영상 처리부를 포함할 수 있다.
이때, 상기 영상 처리부는, 상기 촬영 부위에 형성된 그림자들 각각의 크기를 이용하여 상기 그림자들 각각의 깊이를 산출하는 깊이 산출부; 및 상기 그림자들 각각의 깊이를 이용하여 상기 촬영 부위의 깊이 정보가 표현된 영상을 생성하는 영상 생성부를 포함할 수 있다.
또한 이때, 상기 영상 생성부는 상기 그림자들 각각의 깊이로부터 상기 그림자들 각각이 형성된 대응 영역들 각각의 깊이를 결정하고, 상기 대응 영역들 각각의 깊이가 적용된 상기 촬영 부위에 대한 영상을 생성하는 내시경 장치.
또는 이때, 상기 영상 생성부는 상기 촬영 부위에 형성된 그림자들 중 제 1 그림자와 상기 제 1 그림자와 인접한 제 2 그림자의 깊이의 차이가 일정 범위를 벗어나는 경우, 상기 차이에 해당하는 값을 상기 제 1 그림자의 대응 영역에 표시할 수 있다.
또는 이때, 상기 영상 처리부는, 상기 촬영 부위 중 깊이를 측정하고자 하는 목표 영역을 설정하는 목표 영역 설정부; 상기 촬영 부위에 형성된 그림자들의 크기의 평균값 및 상기 목표 영역에 형성된 그림자들의 크기의 평균값을 이용하여 상기 촬영 부위 및 상기 목표 부위의 깊이를 각각 구하는 깊이 산출부; 및 상기 목표 부위의 깊이와 상기 촬영 부위의 깊이의 차이를 상기 촬영 부위에 대한 영상에 표시하는 영상 생성부를 더 포함할 수 있다.
또는 이때, 상기 그림자들의 다양한 크기에 대응되는 깊이가 미리 저장된 룩업 테이블을 더 포함하고, 상기 깊이 산출부는 상기 룩업 테이블로부터 상기 촬영 부위에 형성된 그림자들 각각의 크기에 대응하는 상기 그림자들 각각의 깊이를 읽어냄으로써 상기 그림자들 각각의 깊이를 산출할 수 있다.
또는 이때, 상기 영상 처리부는, 상기 촬영 부위에 형성된 그림자들의 크기의 평균값을 이용하여 상기 촬영 부위의 깊이를 산출하고, 상기 촬영 부위에 대한 영상의 해상도 및 상기 산출된 촬영 부위의 깊이를 이용하여 깊이 정보의 오차 범위를 결정하는 오차 범위 결정를 포함할 수 있다.
또는 이때, 상기 광 조사부는, 광을 생성하는 광 생성부; 및 상기 광 생성부에서 생성한 광을 일정 부분에서 차단하여 패턴광을 생성하는 광필터를 포함할 수 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 3차원 영상 생성 방법은, 발광 면 중 패턴 형태의 일정 부분들의 발광이 차단된 패턴광이 조사된 촬영 부위에 대한 영상을 입력받는 단계; 상기 일정 부분들에 대응하여 상기 촬영 부위에 형성된 그림자들 각각의 크기를 이용하여 상기 그림자들 각각의 깊이를 산출하는 단계; 및 상기 그림자들 각각의 깊이를 이용하여 상기 촬영 부위의 깊이 정보가 표현된 영상을 생성하는 단계를 포함할 수 있다.
이때, 상기 영상을 생성하는 단계는, 상기 그림자들 각각의 깊이로부터 상기 그림자들 각각이 형성된 대응 영역들 각각의 깊이를 결정하고, 상기 대응 영역들 각각의 깊이가 적용된 상기 촬영 부위에 대한 영상을 생성할 수 있다.
또는 이때, 상기 영상을 생성하는 단계는, 상기 촬영 부위에 형성된 그림자들 중 제1 그림자와 상기 제1 그림자와 인접한 제2 그림자의 깊이의 차이가 일정 범위를 벗어나는 경우, 상기 차이에 해당하는 값을 상기 제1 그림자의 대응 영역에 표시할 수 있다.
또는 이때, 상기 촬영 부위 중 깊이를 측정하고자 하는 목표 영역을 설정하는 단계; 및 상기 촬영 부위에 형성된 그림자들의 깊이의 평균값 및 상기 목표 영역에 형성된 그림자들의 깊이의 평균값을 구하고, 이 둘의 차이를 산출하는 단계를 더 포함하고, 상기 영상을 생성하는 단계는, 상기 차이를 상기 촬영 부위에 대한 영상에 표시할 수 있다.
또는 이때, 깊이를 산출하는 단계는, 상기 그림자들의 다양한 크기에 대응되는 깊이가 미리 저장된 룩업 테이블을 이용할 수 있다.
또는 이때, 상기 촬영 부위에 형성된 그림자들 각각의 깊이를 평균하여 상기 촬영 부위의 깊이를 산출하고, 상기 촬영 부위에 대한 영상의 해상도 및 상기 산출된 촬영 부위의 깊이를 이용하여 오차 범위를 결정하는 단계를 더 포함할 수 있다.
상기된 바에 따르면, 패턴광을 이용하여 별도의 추가적인 구성 없이 간단한 프로세싱의 조작만으로 촬영 부위에 대한 깊이 정보를 얻을 수 있다. 또한, 병변으로 의심되는 부위에 대하여 촬영 영상에 그 깊이 정보를 표시함으로써 보다 손쉬운 병변의 검출이 가능하다.
도 1은 본 발명의 일 실시예에 따른 내시경 장치(100)의 블록도이다.
도 2는 도 1의 영상 처리부(130)의 구체적인 구성을 도시한 블록도이다.
도 3은 패턴 형태의 그림자가 형성된 촬영 부위(10)를 도시한 도면이다.
도 4 및 도 5는 패턴광이 조사된 촬영 부위(10), 목표 영역(12) 및 그 위에 형성된 그림자들(1)을 도시한 도면이다.
도 6a는 본 발명의 다른 실시예에 따라 도 1의 광 조사부(110)의 구체적인 구성을 도시한 도면이다.
도 6b는 본 발명의 일 실시예에 따른 광필터(111)를 도시한 도면이다.
도 7은 도 6의 광필터(111)를 통과한 광에 의해 패턴 형태의 그림자들이 형성되는 것을 도시한 도면이다.
도 8 내지 도 10은 본 발명의 또 다른 실시예에 따른 3차원 영상 생성 방법들을 설명하기 위한 흐름도이다.
이하에서는 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 실시예들의 특징을 보다 명확히 설명하기 위하여 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명은 생략하기로 한다.
도 1은 본 발명의 일 실시예에 따른 내시경 장치(100)의 블록도이다. 도 1을 참조하면, 본 발명의 일 실시예에 따른 내시경 장치(100)는 광 조사부(110), 촬상부(120) 및 영상 처리부(130)를 포함할 수 있다.
광 조사부(110)는 내시경 촬영을 하는 촬영 부위(10)에 광을 조사하기 위한 구성으로써 일반적인 광 또는 패턴광 중 어느 하나를 선택적으로 조사할 수 있다. 광 조사부(110)의 자세한 구성은 아래의 도 6 및 도 7 부분에서 설명하기로 한다. 이때, 일반적인 광이란 촬영 부위를 조명하기 위하여 조사하는 일반적인 광원을 의미하며, 패턴광이란 일정한 패턴의 형태로 광이 차단된 광으로써 본 패턴광이 임의의 대상에 조사되었을 때 상기 패턴의 형태에 따라 그림자가 형성되는 광을 의미한다. 이하에서는 촬영 부위의 깊이 정보를 얻기 위해 광 조사부(110)가 패턴광을 조사하는 경우의 영상 처리에 대하여 설명한다.
촬상부(120)는 광 조사부(110)에 의해 패턴광이 조사되는 촬영 부위(10)에 대한 영상을 전기적인 신호로 변환할 수 있다. 본 실시예에서는 촬영 영상에 나타난 패턴 형태의 그림자들의 크기를 이용하여 깊이 정보를 산출하므로 촬상부(120)에서 촬영하는 영상의 해상도는 내시경 장치가 제공할 수 있는 깊이 정보의 정확도, 즉 오차 범위와 밀접한 연관이 있다. 따라서, 가능한 높은 해상도의 촬영 영상을 얻을 수 있는 촬상부(120)를 사용할 수록 더 정확한 깊이 정보를 얻을 수 있다.
영상 처리부(130)는 촬상부(120)에서 출력한 촬영 부위(10)의 영상에 대한 전기적인 신호을 입력 받아 이를 분석하여 촬영 부위(10)의 깊이 정보를 산출한다. 구체적으로 촬영 부위(10)상에는 패턴광이 조사되어 형성된 일정 패턴 형태의 그림자들이 존재하게 되는데 이러한 그림자들의 크기를 분석함으로써 촬영 부위(10)의 깊이는 물론 촬영 부위(10) 중 특정 영역의 깊이 등을 산출할 수 있다. 이에 대한 자세한 설명은 아래의 영상 처리부(130)의 구체적인 구성을 도시한 도 2에 대한 설명 부분에서 하기로 한다. 영상 처리부(130)는 전송 받은 영상 신호를 처리하여 디스플레이 장치(20)로 출력할 수 있다. 디스플레이 장치(20)는 영상 처리부(130)로부터 영상 신호를 입력 받아 영상을 출력하는 장치로 본 실시예에서는 내시경 장치(100)의 외부에 존재하는 별도의 장치인 것으로 가정하였는데 이와 달리 내시경 장치(100)에 포함되는 구성일 수도 있다.
도 2는 도 1의 영상 처리부(130)의 구체적인 구성을 도시한 블록도이다. 도 2를 참조하면, 본 발명의 일 실시예에 따른 내시경 장치(100)의 영상 처리부(130)는, 목표 영역 설정부(131), 깊이 산출부(132), 영상 생성부(133), 오차 범위 결정부(134) 및 룩업 테이블(135)을 포함할 수 있다.
목표 영역 설정부(131)는 촬영 부위 중에서 특히 깊이를 측정하고자 하는 목표 영역을 설정할 수 있다. 이러한 목표 영역은 사용자가 직접 설정하거나 촬영 부위(10) 중 임의의 영역이 자동으로 설정될 수도 있다. 목표 영역 설정부(131)는 영상 처리부(130)에 반드시 포함되어야 하는 구성은 아니며, 깊이 계산을 위한 연산 효율성을 고려할 때 혹은 일정 면적의 목표 영역의 평균 깊이를 구할 때 필요한 구성이다.
깊이 산출부(132)는 촬영 부위(10)의 깊이를 산출할 수 있다. 깊이를 산출하는 구체적인 방법은 다음과 같다. 촬영 부위(10)에 패턴 형태로 형성된 그림자들 각각의 크기를 이용하여 그림자들 각각의 깊이를 산출할 수 있다. 만약 목표 영역 설정부(131)에서 촬영 부위(10) 중 일부 영역을 목표 영역으로 설정한 경우라면, 목표 영역의 깊이를 산출할 수 있다. 목표 영역의 깊이를 산출하는 방법에 있어서, 목표 영역에 형성된 그림자들 각각의 크기를 이용하여 그림자들 각각의 깊이를 산출한 후 이를 평균하거나, 또는 목표 영역에 형성된 그림자들의 크기의 평균값을 구한 후 이에 대응하는 깊이를 구할 수도 있다. 이때, 그림자들의 크기로부터 깊이를 산출하기 위하여 매번 일정한 방법에 따라 계산을 할 수도 있지만 깊이 산출에 소요되는 시간을 단축시키고 불필요한 연산을 감소시키기 위하여 그림자의 크기에 대응되는 거리값이 저장된 룩업 테이블(135)을 이용하여 간편하고 신속하게 깊이를 산출할 수 있다.
영상 생성부(133)는 깊이 산출부(132)에서 출력된 깊이 정보들을 이용하여 이를 촬영 부위(10)에 대한 영상에 표현한 영상을 생성할 수 있다. 깊이 산출부(132)에서 산출한 촬영 부위(10)에 형성된 그림자들 각각의 깊이는 그림자들이 형성된 촬영 부위(10)상의 대응 영역들 각각의 깊이에 해당하므로 이를 촬영 부위의 영상에 표현한 영상을 생성할 수 있다. 촬영 부위(10)의 깊이 정보를 표현한 영상을 생성하는 방법은 여러 가지가 있을 수 있다. 예를 들어, 촬영 부위(10)에 대한 입체 영상(stereo-scopic image)을 생성할 수도 있고, 촬영 부위(10) 중 특정 영역의 깊이값을 촬영 부위(10)의 영상의 해당 영역에 표시할 수도 있다. 2차원 영상의 깊이 정보를 아는 경우 이를 이용하여 입체 영상을 생성하는 것은 3차원 영상 처리와 관련된 기술 분야에서는 일반적인 기술에 해당하므로 입체 영상의 생성에 대해서는 자세한 설명은 생략한다. 대신에, 촬영 부위(10) 중 병변일 가능성이 높은 영역이 검출되는 경우 또는 깊이를 측정하고자 하는 목표 영역을 설정한 경우 각각의 깊이값을 영상에 표시하는 방법을 이하에서 설명하기로 한다.
우선 촬영 부위(10) 중 병변일 가능성이 높은 영역이 검출되는 경우 그 깊이값을 촬영 부위(10)의 영상에 표시하는 방법은 다음과 같다. 패턴광에 의해 촬영 부위(10)에 패턴 형태로 형성된 그림자들 각각의 크기를 이용하여 그림자들 각각의 깊이를 산출한다. 이때, 그림자들의 크기로부터 깊이를 산출하기 위하여 매번 일정한 방법에 따라 계산을 할 수도 있지만 깊이 산출에 소요되는 시간을 단축시키고 불필요한 연산을 감소시키기 위하여 그림자의 크기에 대응되는 거리값이 저장된 룩업 테이블(135)을 이용하여 간편하고 신속하게 깊이를 산출할 수 있다. 촬영 부위(10)에 형성된 모든 그림자들에 대하여 깊이가 산출되면 어느 하나의 그림자를 선택하여 선택한 그림자와 인접한 그림자들 간의 깊이의 차이를 계산한다. 만약 깊이의 차이가 일정 범위를 벗어나는 경우, 즉 병변일 가능성이 높은 깊이인 것으로 판단되는 경우 촬영 부위(10) 영상의 해당 그림자에 대응되는 영역에 그 깊이값을 표시한다. 이러한 과정을 촬영 부위(10)에 형성된 모든 그림자들에 대하여 수행함으로써 촬영 부위(10)에 병변일 가능성이 높은 영역이 검출되는 경우 이를 영상에서 간단하고 명확하게 확인할 수 있다. 물론, 깊이값을 숫자로 표시하는 방식 외에 해당 영역에 알아보기 쉬운 색으로 표시하는 방법도 가능하다.
다음으로, 깊이를 측정하고자 하는 목표 영역의 깊이값을 영상에 표시하는 방법은 다음과 같다. 촬영 부위(10) 중 깊이을 측정하고자 하는 목표 영역을 설정한다. 이어서 패턴광에 의해 촬영 부위(10)에 패턴 형태로 형성된 그림자들 각각의 크기를 이용하여 그림자들 각각의 깊이를 산출하고, 촬영 부위(10)에 형성된 그림자들의 깊이의 평균값 및 목표 영역에 형성된 그림자들의 깊이의 평균값을 각각 계산한다. 계산된 촬영 부위(10)에 형성된 그림자들의 깊이의 평균값 및 목표 영역에 형성된 그림자들의 깊이의 평균값은 각각 촬영 부위(10)의 평균 깊이 및 목표 영역의 평균 깊이에 해당하는데, 상기한 방법 이외에도 촬영 부위(10) 및 목표 영역 각각에 형성된 그림자들의 크기의 평균값을 계산한 뒤 이를 이용하여 평균 깊이를 구할 수도 있다. 이때에도 역시 깊이 산출에 소요되는 시간을 단축시키고 불필요한 연산을 감소시키기 위하여 그림자의 크기에 대응되는 거리값이 저장된 룩업 테이블(135)을 이용하여 간편하고 신속하게 깊이를 산출할 수 있다. 촬영 부위(10) 및 목표 영역의 평균 깊이를 구했으면, 목표 영역의 평균 깊이로부터 촬영 부위(10)의 평균 깊이를 빼서 촬영 부위(10)에 대한 목표 영역의 깊이를 산출하고 이를 촬영 부위(10)의 영상의 목표 영역에 대응되는 부분에 표시할 수 있다. 목표 영역은 사용자가 직접 설정할 수도 있고, 자동으로 설정될 수도 있다. 이와 같이 함으로써 깊이를 알고자 하는 특정 영역에 대한 깊이값을 간편하게 구할 수 있다.
오차 범위 결정부(134)는 내시경 장치가 제공하는 깊이 정보에 발생할 수 있는 오차 범위를 결정할 수 있다. 오차 범위 결정부(134)는 깊이 산출부(132)에서 구한 촬영 부위(10)의 평균 깊이 및 촬상부(120)에서 출력한 영상 신호의 해상도를 이용하여 오차 범위를 결정할 수 있다. 예를 들어, 촬영 부위(10)의 평균 깊이가 클 수록 그리고 영상의 해상도가 낮을 수록 깊이 정보의 오차 범위는 커지게 된다. 오차 범위를 결정하기 위한 공식 등의 세부적인 사항은 일반적으로 알려진 기술에 해당하는 바 생략하기로 한다.
이상 살펴본 영상 처리부(130)의 구체적인 구성들로 인하여 패턴광이 조사된 촬영 부위(10)의 깊이 정보를 얻을 수 있다. 이하에서는 패턴광이 조사된 촬영 부위(10)의 깊이 정보를 얻는 구체적인 방법을 도면을 참조하여 설명하도록 한다.
도 3은 패턴 형태의 그림자가 형성된 촬영 부위(10)를 도시한 도면이다. 도 3을 참조하면, 촬영 부위(10)상에는 패턴 형태의 그림자들(1)이 형성된다. 각각의 그림자들은 대응 영역의 깊이에 따라 크기가 결정되므로 조금씩 크기가 다르게 형성된다. 깊이와 그림자들의 크기에 대한 관계를 설명하면, 도 1의 광 조사부(110)가 일정 지점으로부터 방사되는 형태의 광을 발생하는 광 발생부 및 광 발생부의 앞에 배치된 광필터를 이용하여 패턴광을 생성하는 경우라면 깊이가 깊어질 수록 그림자의 크기도 증가하게 된다. 한편, 도 1의 광 조사부(110)가 모든 지점에서 평행하게 진행하는 형태의 패턴광을 생성하는 경우라면 깊이에 상관 없이 그림자의 크기는 일정하게 된다. 이때는 원근감에 의해 깊이가 깊어질 수록 촬영되는 영상에는 그림자의 크기가 작아지게 된다. 이하에서는 광 조사부(110)가 방사되는 형태의 패턴광을 생성하는 경우, 즉 깊이가 깊어질 수록 그림자의 크기가 증가하는 경우를 가정하여 설명한다. 다시 도 3으로 돌아와서 살펴보면, 촬영 부위(10)에 형성된 그림자들은 모두 그 깊이에 대응되는 크기로 형성이 되므로 그림자들 각각의 크기를 이용하여 그림자들 각각의 깊이를 산출할 수 있다. 도 3의 경우 특정한 그림자(1a)를 제외한 거의 모든 그림자들(1)의 크기가 비슷하다. 따라서, 특정 그림자(1a)를 제외한 영역에서는 특이한 깊이가 검출되지 않으며 특정 그림자(1a)의 깊이는 인접한 그림자들보다 특이하게 작은 깊이를 가지게 된다. 즉, 특정 그림자(1a)가 형성된 영역은 주변에 비하여 지면 방향으로 특이하게 돌출된 부분이라는 걸 알 수 있고, 이는 병변이 가능성이 높은 영역에 해당되게 된다.
도 4 및 도 5는 패턴광이 조사된 촬영 부위(10), 목표 영역(12) 및 그 위에 형성된 그림자들(1)을 도시한 도면이다. 도 4 및 도 5에서는 비교를 쉽게 하기 위하여 목표 영역(12)에 형성된 그림자들 및 목표 영역(12)을 제외한 촬영 부위(10)에 형성된 그림자들은 각각 그 크기들이 같고, 목표 영역(12)에 형성된 그림자들과 목표 영역(12)을 제외한 촬영 부위(10)에 형성된 그림자들은 서로 크기가 다르게 도시하였다. 도 4를 참조하면, 목표 영역(12)에 형성된 그림자들은 목표 영역(12)을 제외한 촬영 부위(10)에 형성된 그림자들에 비해 그 크기가 작음을 확인할 수 있다. 즉, 목표 영역(12)은 주위의 촬영 부위(10)에 비하여 지면 방향으로 돌출된 부분이라는 걸 알 수 있다. 목표 영역(12)의 촬영 부위(10)에 대한 깊이의 근사값을 구하는 방법은 상기의 도 2에 대한 설명 부분에서 설명하였으므로 생략한다. 한편 도 5을 참조하면, 도 4와는 반대로 목표 영역(12)에 형성된 그림자들이 목표 영역(12)을 제외한 촬영 부위(10)에 형성된 그림자들에 비하여 크므로 목표 영역(12)은 지면의 반대 방향으로 함몰된 부분임을 알 수 있다.
도 6a는 본 발명의 다른 실시예에 따라 도 1의 광 조사부(110)의 구체적인 구성을 도시한 도면이다. 도 6a를 참조하면, 본 발명의 다른 실시예에 따른 광 조사부(110)는 광필터(111) 및 광 발생부(112)를 포함할 수 있다. 광 발생부(112)는 조명을 위한 일반적인 광을 발생한다. 광 발생부(112)에서 발생된 광은 광필터(111)를 통과하면서 일반적인 광 또는 패턴광 중 어느 하나가 된다. 광필터(111)는 이를 통과하는 광을 모두 통과시키거나 또는 일부 영역에서 광을 차단할 수 있다. 특히 일부 영역에서 선택적으로 광을 차단함으로써 광필터(111)를 통과한 광이 일반적인 광 또는 패턴광 중 어느 하나가 되도록 할 수 있다. 또한, 일부 영역에서 일부 파장대의 광만을 선택적으로 차단함으로써 패턴광을 생성할 수도 있다.
도 6b는 도 6a의 광필터(111)의 일 실시예를 도시한 도면이다. 도 6b를 참고하면, 광필터(111)는 광을 통과시키는 통과 영역(111a) 및 음영으로 표시되어 광을 차단하는 차단 영역(111b)을 포함함을 알 수 있다. 이때, 광필터(111)가 광필터(111)상의 임의의 일정 영역에서 광을 차단하거나 또는 통과시키도록 전환 가능한 격자 형태의 액정 필터(liquid crystal filter)인 경우 차단 영역(111b)은 모든 파장대의 광을 차단하도록 또는 적외선 파장대의 광만을 차단하도록 형성될 수 있다. 따라서, 액정 필터의 차단 영역(111b)을 조절하면서 실제 영상 촬영 및 차단 영역에 의한 패턴광으로부터 깊이 정보 추출이 가능하다. 한편, 광필터(111)상에서 차단 영역(111b)이 고정된 형태인 경우에는 차단 영역(111b)은 적외선 파장대의 광만을 차단하는 적외선 차단 필터일 수 있다. 따라서, 실제 영상 촬영 및 깊이 정보 추출이 동시에 가능하다.
도 7은 도 6a의 광필터(111)를 통과한 광에 의해 패턴 형태의 그림자들이 형성되는 것을 도시한 도면이다. 도 7을 참조하면, 광필터(111)상에 형성된 원형의 규칙적인 형태의 패턴은 광을 차단하는 영역들이다. 이와 같이 일정한 패턴의 형태로 차단 영역이 형성된 광필터(111)에 일반적인 광을 통과시킴으로써 도 7에 도시된 바와 같이 패턴광을 얻을 수 있다. 도면에 도시하지는 않았으나 광필터(111)상의 차단 영역들은 다른 패턴의 형태로 형성될 수도 있으며, 또는 차단 영역이 전혀 형성되지 않을 수도 있다. 따라서, 광필터(111)의 동작을 제어함으로써 광필터(111)를 통과한 광을 일반적인 광 또는 임의의 패턴을 갖는 패턴광으로 만들 수 있다. 이러한 선택적으로 광을 차단하는 것이 가능한 광필터(111)를 구현하기 위하여 액정 필터(liquid crystal filter)를 광필터(111)로써 사용할 수 있다. 액정 필터를 광필터(111)로 사용하는 경우 광필터(111)에 동작을 제어하기 위한 전류 신호 또는 전압 신호를 인가함으로써 광필터(111)상의 복수의 화소들 중 일부 화소들은 광을 차단시키고, 나머지 화소들은 광을 통과시키도록 할 수 있다.
도 8 내지 도 10은 본 발명의 또 다른 실시예에 따른 3차원 영상 생성 방법들을 설명하기 위한 흐름도이다.
도 8에 도시된 실시예에 대해서 설명하면, 패턴광이 조사되어 패턴 형태의 그림자들이 형성된 촬영 부위(10)에 대한 영상을 입력 받음으로써 시작된다.(S801) 영상을 입력 받는다고 표현하였지만 이는 일반적으로 영상을 변환한 전기적인 신호를 입력 받는 것을 의미한다. 촬영 부위(10)에 대한 영상을 입력 받음으로써 촬영 부위(10)에 형성된 그림자들에 대한 구체적인 분석을 수행할 수 있게 된다. S802 단계에서는 촬영 부위(10)에 형성된 그림자들 각각의 크기를 이용하여 그림자들 각각의 깊이를 산출할 수 있다. 이때, 깊이 산출에 소요되는 시간을 단축시키고 불필요한 연산을 감소시키기 위하여 그림자의 크기에 대응되는 거리값이 저장된 룩업 테이블을 이용하여 간편하고 신속하게 깊이를 산출할 수 있다. 그림자들 각각의 깊이를 산출하였으면, 이어서 그림자들이 형성된 대응 영역들 각각의 깊이를 결정할 수 있다.(S803) 그리고 이러한 대응 영역들 각각의 깊이가 적용된 촬영 부위(10)에 대한 영상을 생성(S804)함으로써 프로세스는 종료된다. 이때, 대응 영역들 각각의 깊이가 적용된 촬영 부위(10)에 대한 영상의 일 예를 들면 각각의 깊이 정보가 반영된 입체 영상을 들 수 있다. 또는, 필요한 깊이값이 숫자 등의 형태로 촬영 부위(10)에 대한 영상에 표시될 수도 있다.
도 9에 도시된 실시예에 대해서 설명하면, 패턴광이 조사된 촬영 부위에 대한 영상을 입력 받고(S901), 촬영 부위(10)에 형성된 그림자들 각각의 크기를 이용하여 그림자들 각각의 깊이를 산출한다.(S902) 상기 두 단계는 도 8의 S801 및 S802 단계에 각각 대응되므로 자세한 설명은 생략한다. 촬영 부위(10)에 형성된 그림자들 각각의 깊이를 산출하였으면, 인접한 그림자들간의 깊이의 차이가 일정 범위를 벗어나는 영역이 있는지 판단한다.(S903) 구체적으로, 촬영 부위(10)에 형성된 모든 그림자들 중 어느 하나의 그림자를 선택하여 선택된 그림자와 인접한 그림자간의 깊이의 차이를 계산한다. 그리고 이러한 과정을 모든 그림자들에 대하여 반복하여 수행한 결과 일정 범위를 벗어나는 값이 존재하는지 판단하고, 존재한다면 S904 단계로 진행하여 촬영 부위(10)에 대한 영상 중 해당 그림자가 형성된 영역에 대응되는 부분에 깊이의 차이를 표시한다. 이때, 영상에 깊이의 차이를 표시하는 방법은 깊이의 차이값을 숫자로 표시하거나 또는 일정한 색으로 표시하는 등 다양하게 있을 수 있다.
도 10에 도시된 실시예에 대해서 설명하면, S101 단계에서 패턴광이 조사된 촬영 부위(10)에 대한 영상을 입력 받는다. 그리고 촬영 부위(10) 중 깊이를 측정하고자 하는 목표 영역(12)을 설정한다.(S102) 목표 영역(12)의 설정이 완료되면, 촬영 부위(10) 및 목표 영역(12) 각각에 형성된 그림자들의 크기의 평균값을 계산함으로써 촬영 부위(10) 및 목표 영역(12)의 깊이를 산출할 수 있다.(S103) 이때, 또 다른 방법으로는 촬영 부위(10)에 형성된 모든 그림자들에 각각의 깊이를 먼저 산출하고, 촬영 부위(10) 및 목표 영역(12)에 각각 형성된 그림자들의 깊이를 평균하는 것도 가능하다. S103 단계에서 촬영 부위(10) 및 목표 영역(12)의 깊이를 각각 구했으면 촬영 부위(10)에 대한 목표 영역(12)의 깊이, 즉 목표 영역(12)의 깊이에서 촬영 부위(10)의 깊이를 뺀 값을 촬영 부위(10)에 대한 영상에 표시한다.(S104) 이때 계산된 촬영 부위(10)에 대한 목표 영역(12)의 깊이는 두 영역의 평균 깊이을 이용하여 산출한 것으로써 근사적인 값이다. 촬영 부위(10)에 대한 목표 영역(12)의 깊이를 영상에 표현하는 방법은, 촬영 부위(10)의 영상 중 목표 영역(12)에 대응되는 부분에 깊이값을 숫자로 표시하거나 또는 임의의 색으로 표시하는 등 다양하게 있을 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.
1: 그림자 10: 촬영 부위
12: 목표 영역 20: 디스플레이 장치
100: 내시경 장치 110: 광 조사부
111: 광필터 111a: 통과 영역
111b: 차단 영역 112: 광 발생부
120: 촬상부 130: 영상 처리부
131: 목표 영역 설정부 132: 깊이 산출부
133: 영상 생성부 134: 오차 범위 결정부
135: 룩업 테이블

Claims (17)

  1. 촬영 부위에 발광 면 중 패턴 형태의 일정 부분들의 발광이 차단된 패턴 광을 선택적으로 조사하는 광 조사부;
    상기 패턴광이 조사되어 상기 일정 부분들에 대응하는 그림자들이 형성된 상기 촬영 부위에 대한 영상을 검출하는 촬상부; 및
    상기 촬영 부위에 형성된 그림자들의 크기에 기초하여 상기 촬영 부위의 깊이 정보가 표현된 영상을 생성하는 영상 처리부를 포함하는 내시경 장치.
  2. 제1항에 있어서,
    상기 영상 처리부는,
    상기 촬영 부위에 형성된 그림자들 각각의 크기를 이용하여 상기 그림자들 각각의 깊이를 산출하는 깊이 산출부; 및
    상기 그림자들 각각의 깊이를 이용하여 상기 촬영 부위의 깊이 정보가 표현된 영상을 생성하는 영상 생성부를 포함하는 내시경 장치.
  3. 제2항에 있어서,
    상기 영상 생성부는 상기 그림자들 각각의 깊이로부터 상기 그림자들 각각이 형성된 대응 영역들 각각의 깊이를 결정하고, 상기 대응 영역들 각각의 깊이가 적용된 상기 촬영 부위에 대한 영상을 생성하는 내시경 장치.
  4. 제2항에 있어서,
    상기 영상 생성부는 상기 촬영 부위에 형성된 그림자들 중 제 1 그림자와 상기 제 1 그림자와 인접한 제 2 그림자의 깊이의 차이가 일정 범위를 벗어나는 경우, 상기 차이에 해당하는 값을 상기 제 1 그림자의 대응 영역에 표시하는 것을 특징으로 하는 내시경 장치.
  5. 제1항에 있어서,
    상기 영상 처리부는,
    상기 촬영 부위 중 깊이를 측정하고자 하는 목표 영역을 설정하는 목표 영역 설정부;
    상기 촬영 부위에 형성된 그림자들의 크기의 평균값 및 상기 목표 영역에 형성된 그림자들의 크기의 평균값을 이용하여 상기 촬영 부위 및 상기 목표 부위의 깊이를 각각 구하는 깊이 산출부; 및
    상기 목표 부위의 깊이와 상기 촬영 부위의 깊이의 차이를 상기 촬영 부위에 대한 영상에 표시하는 영상 생성부를 더 포함하는 것을 특징으로 하는 내시경 장치.
  6. 제1항에 있어서,
    상기 그림자들의 다양한 크기에 대응되는 깊이가 미리 저장된 룩업 테이블을 더 포함하고,
    상기 깊이 산출부는 상기 룩업 테이블로부터 상기 촬영 부위에 형성된 그림자들 각각의 크기에 대응하는 상기 그림자들 각각의 깊이를 읽어냄으로써 상기 그림자들 각각의 깊이를 산출하는 것을 특징으로 하는 내시경 장치.
  7. 제1항에 있어서,
    상기 영상 처리부는,
    상기 촬영 부위에 형성된 그림자들의 크기의 평균값을 이용하여 상기 촬영 부위의 깊이를 산출하고, 상기 촬영 부위에 대한 영상의 해상도 및 상기 산출된 촬영 부위의 깊이를 이용하여 깊이 정보의 오차 범위를 결정하는 오차 범위 결정부를 포함하는 것을 특징으로 하는 내시경 장치.
  8. 제1항에 있어서,
    상기 광 조사부는,
    광을 생성하는 광 생성부; 및
    상기 광 생성부에서 생성한 광을 일정 부분에서 차단하여 패턴광을 생성하는 광필터를 포함하는 것을 특징으로 하는 내시경 장치.
  9. 제8항에 있어서,
    상기 광필터는 임의의 일정 영역에서 광을 차단하거나 또는 통과시키도록 전환이 가능한 것을 특징으로 하는 내시경 장치.
  10. 제8항에 있어서,
    상기 광필터는 임의의 일정 영역에서 적외선 파장 대역의 광을 차단하는 것을 특징으로 하는 내시경 장치.
  11. 발광 면 중 패턴 형태의 일정 부분들의 발광이 차단된 패턴광이 조사된 촬영 부위에 대한 영상을 입력받는 단계;
    상기 일정 부분들에 대응하여 상기 촬영 부위에 형성된 그림자들 각각의 크기를 이용하여 상기 그림자들 각각의 깊이를 산출하는 단계; 및
    상기 그림자들 각각의 깊이를 이용하여 상기 촬영 부위의 깊이 정보가 표현된 영상을 생성하는 단계를 포함하는 3차원 영상 생성 방법.
  12. 제11항에 있어서,
    상기 영상을 생성하는 단계는, 상기 그림자들 각각의 깊이로부터 상기 그림자들 각각이 형성된 대응 영역들 각각의 깊이를 결정하고, 상기 대응 영역들 각각의 깊이가 적용된 상기 촬영 부위에 대한 영상을 생성하는 것을 특징으로 하는 3차원 영상 생성 방법.
  13. 제11항에 있어서,
    상기 영상을 생성하는 단계는, 상기 촬영 부위에 형성된 그림자들 중 제1 그림자와 상기 제1 그림자와 인접한 제2 그림자의 깊이의 차이가 일정 범위를 벗어나는 경우, 상기 차이에 해당하는 값을 상기 제1 그림자의 대응 영역에 표시하는 것을 특징으로 하는 3차원 영상 생성 방법.
  14. 제11항에 있어서,
    상기 촬영 부위 중 깊이를 측정하고자 하는 목표 영역을 설정하는 단계; 및
    상기 촬영 부위에 형성된 그림자들의 깊이의 평균값 및 상기 목표 영역에 형성된 그림자들의 깊이의 평균값을 구하고, 이 둘의 차이를 산출하는 단계를 더 포함하고,
    상기 영상을 생성하는 단계는, 상기 차이를 상기 촬영 부위에 대한 영상에 표시하는 것을 특징으로 하는 3차원 영상 생성 방법.
  15. 제11항에 있어서,
    깊이를 산출하는 단계는, 상기 그림자들의 다양한 크기에 대응되는 깊이가 미리 저장된 룩업 테이블을 이용하는 것을 특징으로 하는 3차원 영상 생성 방법.
  16. 제11항에 있어서,
    상기 촬영 부위에 형성된 그림자들 각각의 깊이를 평균하여 상기 촬영 부위의 깊이를 산출하고, 상기 촬영 부위에 대한 영상의 해상도 및 상기 산출된 촬영 부위의 깊이를 이용하여 오차 범위를 결정하는 단계를 더 포함하는 것을 특징으로 하는 3차원 영상 생성 방법.
  17. 제11항 내지 제16항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020110034752A 2011-04-14 2011-04-14 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치 KR20120117165A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110034752A KR20120117165A (ko) 2011-04-14 2011-04-14 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치
US13/275,063 US20120262548A1 (en) 2011-04-14 2011-10-17 Method of generating three-dimensional image and endoscopic apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110034752A KR20120117165A (ko) 2011-04-14 2011-04-14 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치

Publications (1)

Publication Number Publication Date
KR20120117165A true KR20120117165A (ko) 2012-10-24

Family

ID=47006123

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110034752A KR20120117165A (ko) 2011-04-14 2011-04-14 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치

Country Status (2)

Country Link
US (1) US20120262548A1 (ko)
KR (1) KR20120117165A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140088711A (ko) * 2013-01-03 2014-07-11 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
KR20150000259A (ko) 2013-06-24 2015-01-02 현대중공업 주식회사 인체 장기 3차원 영상 표시 시스템
KR102051074B1 (ko) * 2018-07-26 2019-12-02 샐터스 주식회사 영상 처리 장치 및 방법
KR20190136560A (ko) * 2018-05-31 2019-12-10 전자부품연구원 직접 감쇄 모델을 이용한 내시경 영상 스테레오 정합 방법 및 장치
WO2021112520A1 (ko) * 2019-12-02 2021-06-10 한국전자기술연구원 내시경 영상에 대한 깊이 추정 방법 및 장치

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11013398B2 (en) * 2013-03-13 2021-05-25 Stryker Corporation System for obtaining clear endoscope images
US10602918B2 (en) * 2013-12-31 2020-03-31 Karl Storz Imaging, Inc. Switching between white light imaging and excitation light imaging leaving last video frame displayed
CN103761761A (zh) * 2014-01-21 2014-04-30 中国科学院遥感与数字地球研究所 基于地球球体模型的海洋标量场体绘制方法
FR3034078B1 (fr) * 2015-03-27 2017-03-24 Airbus Helicopters Procede et dispositif pour signaler au sol un aeronef en vol, et aeronef muni de ce dispositif
JP2018108274A (ja) * 2017-01-04 2018-07-12 ソニー株式会社 内視鏡装置及び内視鏡装置の画像生成方法
CN107507264A (zh) * 2017-09-14 2017-12-22 中国海洋大学 支持实时裁剪操作的球面体绘制方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2318180A1 (en) * 1998-01-26 1999-07-29 Massachusetts Institute Of Technology Fluorescence imaging endoscope
US6636255B1 (en) * 1998-01-29 2003-10-21 Fuji Photo Optical Co., Ltd. Three-dimensional image scanner and heat-insulating device for optical apparatus
JP2001166810A (ja) * 1999-02-19 2001-06-22 Sanyo Electric Co Ltd 立体モデル提供装置及び方法
US6806899B1 (en) * 1999-07-17 2004-10-19 David F. Schaack Focusing systems for perspective dimensional measurements and optical metrology
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
US20040160670A1 (en) * 2003-02-14 2004-08-19 Magro Mario Joseph Device for creating and enhancing 3D images within transparent materials
US20070016078A1 (en) * 2004-12-06 2007-01-18 Hoyt Clifford C Systems and methods for in-vivo optical imaging and measurement
US8249334B2 (en) * 2006-05-11 2012-08-21 Primesense Ltd. Modeling of humanoid forms from depth maps
US20090018414A1 (en) * 2007-03-23 2009-01-15 Mehrdad Toofan Subcutanous Blood Vessels Imaging System
GB0712690D0 (en) * 2007-06-29 2007-08-08 Imp Innovations Ltd Imagee processing
US8085987B2 (en) * 2007-10-26 2011-12-27 Ahmed Shalaby Method and tool for surface texture evaluation
US8519983B2 (en) * 2007-12-29 2013-08-27 Microvision, Inc. Input device for a scanned beam display
WO2009121775A2 (de) * 2008-04-01 2009-10-08 Bauhaus-Universität Weimar Verfahren und beleuchtungsvorrichtung zur optischen kontrastverstärkung
US8717417B2 (en) * 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8599383B2 (en) * 2009-05-06 2013-12-03 The Regents Of The University Of California Optical cytometry
JP5763666B2 (ja) * 2009-11-19 2015-08-12 ザ・ジョンズ・ホプキンス・ユニバーシティー 局所センサの協調セットを使用した低コストの画像誘導ナビゲーション/介入システム
US8867803B2 (en) * 2010-04-20 2014-10-21 Eric J. Seibel Optical projection tomography microscopy (OPTM) for large specimen sizes
US20120016231A1 (en) * 2010-07-18 2012-01-19 Medical Scan Technologies, Inc. System and method for three dimensional cosmetology imaging with structured light
US8165351B2 (en) * 2010-07-19 2012-04-24 General Electric Company Method of structured light-based measurement
US20130163879A1 (en) * 2010-08-30 2013-06-27 Bk-Imaging Ltd. Method and system for extracting three-dimensional information
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US20120249422A1 (en) * 2011-03-31 2012-10-04 Smart Technologies Ulc Interactive input system and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140088711A (ko) * 2013-01-03 2014-07-11 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
KR20150000259A (ko) 2013-06-24 2015-01-02 현대중공업 주식회사 인체 장기 3차원 영상 표시 시스템
KR20190136560A (ko) * 2018-05-31 2019-12-10 전자부품연구원 직접 감쇄 모델을 이용한 내시경 영상 스테레오 정합 방법 및 장치
US10966599B2 (en) 2018-05-31 2021-04-06 Korea Electronics Technology Institute Endoscopic stereo matching method and apparatus using direct attenuation model
KR102051074B1 (ko) * 2018-07-26 2019-12-02 샐터스 주식회사 영상 처리 장치 및 방법
WO2021112520A1 (ko) * 2019-12-02 2021-06-10 한국전자기술연구원 내시경 영상에 대한 깊이 추정 방법 및 장치

Also Published As

Publication number Publication date
US20120262548A1 (en) 2012-10-18

Similar Documents

Publication Publication Date Title
KR20120117165A (ko) 3차원 영상의 생성 방법 및 이를 이용하는 내시경 장치
US20240148291A1 (en) Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
US11452455B2 (en) Skin reflectance and oiliness measurement
JP6045417B2 (ja) 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6432770B2 (ja) 画像処理装置、画像処理方法、並びにプログラム
US20150339817A1 (en) Endoscope image processing device, endoscope apparatus, image processing method, and information storage device
US20150374210A1 (en) Photometric stereo endoscopy
US11179218B2 (en) Systems and methods for multi-modal sensing of depth in vision systems for automated surgical robots
EP3616595B1 (en) Medical observation device such as a microscope or an endoscope, and method for displaying medical images
JP6005278B2 (ja) 特に透過性かつ散乱性の表面における三次元測定のためのカラーコーディング
WO2015199067A1 (ja) 画像解析装置、撮像システム、手術支援システム、画像解析方法、及び画像解析プログラム
JP2011025046A (ja) Octデータセットの画像を生成する方法およびoctシステム
JP2012143284A5 (ja) 走査型眼科撮影装置
CN117064311B (zh) 一种内窥镜图像的处理方法及内窥镜成像系统
US20160228078A1 (en) System and method for correlating object information with x-ray images
JP2010223770A (ja) 散乱体内部観察装置および散乱体内部観察方法
EP4379316A1 (en) Measuring system providing shape from shading
KR101941907B1 (ko) 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
US11771323B2 (en) Optical time-of-flight imaging methods and systems for surgical guidance and fluorescence depth estimation in tissue
US20240249408A1 (en) Systems and methods for time of flight imaging
US20240000316A1 (en) Optical time-of-flight imaging methods and systems for surgical guidance and fluorescence depth estimation in tissue
JPWO2015037055A1 (ja) 蛍光画像取得装置
KR20140077771A (ko) 거리 영상 획득 장치 및 방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid