Nothing Special   »   [go: up one dir, main page]

KR101321303B1 - 3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정 - Google Patents

3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정 Download PDF

Info

Publication number
KR101321303B1
KR101321303B1 KR1020087016488A KR20087016488A KR101321303B1 KR 101321303 B1 KR101321303 B1 KR 101321303B1 KR 1020087016488 A KR1020087016488 A KR 1020087016488A KR 20087016488 A KR20087016488 A KR 20087016488A KR 101321303 B1 KR101321303 B1 KR 101321303B1
Authority
KR
South Korea
Prior art keywords
data
delete delete
sensor
electrical signal
light
Prior art date
Application number
KR1020087016488A
Other languages
English (en)
Other versions
KR20080094663A (ko
Inventor
로저 스태트너
하워드 베일리
Original Assignee
어드밴스트 사이언티픽 컨셉츠 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 어드밴스트 사이언티픽 컨셉츠 인크. filed Critical 어드밴스트 사이언티픽 컨셉츠 인크.
Publication of KR20080094663A publication Critical patent/KR20080094663A/ko
Application granted granted Critical
Publication of KR101321303B1 publication Critical patent/KR101321303B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

본 발명은, 적은 레이저 에너지와 소수의 기계적인 이동부를 갖는 3D 초점면 어레이를 사용하여, 작은 이동 오브젝트를 추적하거나 위치조정하거나 데이터의 3D 프레임을 생성하는 것이다. 본 발명은, 3D 무비/비디오 카메라로서 사용되거나 독립된 내비게이션을 위한 데이터를 제공하기 위해 사용되는 타깃 추적을 위해서, 타깃을 지정하는 레이저의 방향을 결정하는데 사용될 수 있다.
레이저, 광학부, 추적, 초점면

Description

3D 초점면을 사용하는 레이저 범위측정과 추적 및 지정{LASER RANGING, TRACKING AND DESIGNATION USING 3-D FOCAL PLANES}
본 출원은 2005년 12월 8일 출원된 미국 예비 출원번호 60/748,690호를 우선권으로 하고 있다.
본 발명은, 3차원 오브젝트의 레이저 펄스 화상처리에 관한 것이다. 특히, 본 발명은 타깃 포착 및 추적, 충돌 회피 또는 내비게이션에 대한 기술을 구체화한 것이다.
미국 특허 번호 제5,446,529호, 제6,133,989호, 제6,414,746호에서 Stetterner 등에 의해 개시된 3D 화상처리기술은, 3차원 깊이 좌표와 함께 2D 화상의 정보 및 콘텐트를 포획(capture)하기 위해서 단일 펄스의 레이저 광의 사용을 제공하며; 이에 의해, 자체 시계(field of view)에 있어서 오브젝트 포인트의 3D 좌표가 제공된다. 이는, 자체 광원으로 플래시 부품을 사용하는 통상의 디지털 2D 카메라와 유사한 플래시 3D 화상처리로 언급되고 있다. 통상의 2D 디지털 카메라에서와 같이, 오브젝트로부터 반사된 광은 렌즈에 의해 카메라의 초점면 상에 초점이 맞춰지는데, 이 광은 분리되어 초점면 어레이(FPA)로 불리는 화소 어레이 내로 입사한다. 3D 카메라의 경우, 이들 화소는 "스마트(smart)"하므로, 반송되는 레이 저 펄스 형상 및 크기와 연관된 데이터뿐 아니라 관심 오브젝트에 대한 레이저 펄스의 비행 시간이 계산될 수 있는 데이터를 수집할 수 있다. 레이더 화상처리와 유사하기 때문에 레이저 광은 플래시 레이더로도 언급된다. 이들 플래시 3D 카메라는, 하나 이상의 화소가 시계에 걸쳐서 스캔되는 설계에 따라 개선된다. 이들 플래시 3D 카메라는, 초점면 내의 화소의 위치가 어레이 내에서의 그들의 영구적인 위치에 기인해서 자동으로 등록될 수 있으므로, 비싸고 높은 유지비용이 드는 기계적인 정밀 스캐너에 대한 필요성을 없앤다. 플래시 레이더의 추가적인 장점은, (헬리콥터의 회전 블레이드와 같은) 타깃의 부분 또는 섹션의 빠른 운동 또는 3D 카메라의 센서 플랫폼의 빠른 운동에도 불구하고 한 번의 노출로 전체 씬(scence)을 포획할 수 있는 능력이다. 전형적으로, 광이 타깃에 도달하고 센서로 되돌아가는 시간 동안, 기계적인 시스템은 충분히 빠르게 움직이지 않기 때문에, 화소 블러링(pixel blurring)의 원인이 된다. 3D 플래시 레이더 프레임의 시간 시퀀스는, 씬의 3D 무비/비디오(3-D movie/video)를 구비하여 구성된다.
본 발명은, 군사용이나, 차량 운행에 적용할 수 있는 충돌 회피 시스템, 내비게이션 시스템 및, 특히 비디오 게임의 개발에 적합한 3D 모션 픽쳐 시스템(3D motion picture systems)을 위한 장치 및 방법을 개시한다.
본 발명의 장치는, 레이저원과, 렌즈와, 3D FPA와, 3D FPA, 3D FPA로부터 추출된 데이터를 제어하여 처리하는 전자장치를 구비한다. 3D FPA 내의 각각의 화소는, 화소 내로 입사하는 광을 전자 신호로 변환하는 구조를 구비하며, 그 크기는 제시간에 샘플링되어 화소 내의 메모리에 기억된다. 또한, 각각의 화소는, 샘플링이 일어난 시간을 보고(리포트)하는 클록을 구비한다. 본 발명의 다른 실시형태는, 다양한 펄스 레이저원과 옵션의 2D 센서를 구비한다. 2D 센서 데이터는, 2차원으로 타깃을 포착하거나 추적하는데 사용될 수 있는데, 3D 데이터가 3차원으로서, 화소에 타깃 범위를 제공할 수도 있다. 또한, 2D 데이터는 3D 데이터 상에 겹쳐지거나(overlaid) 짜여져서(textured), 보다 현실적이고, 높은 해상도로 시청할 수 있는 3D 무비를 생성할 수 있게 한다.
실시형태에 있어서의 본 발명의 목적은, 정지하거나 움직이는 작은 오브젝트를 위치조정 또는 추적하거나, 풀-프레임 3D 화상을 전개하거나, 최소 레이저 에너지 또는 최소의 기계적인 운동 또는 이들 모두로 레이저 지정된 타깃을 위치조정하는 것이다.
본 발명의 다른 목적은, 충돌 회피 시스템에 풀-프레임 3D 화상을 채용하는 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은, 내비게이션 또는 탐사 시스템에 풀-프레임 3D 화상을 채용하는 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은, 3D 무비/비디오에 풀-프레임 3D 화상을 채용하는 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은, 본 발명이 위치되는 또는 레이저 스폿의 방향을 원거리 오브젝트에 위치조정하는 플랫폼을 지정하는 레이저빔의 방향을 식별하는 장치 및 방법을 제공하는 것이다.
본 장치의 장점 중에는, 기계적인 단순성을 가지며, 동작에 필요한 에너지가 적은 기술의 신규 사용에 있다. 장치의 적은 중량 및 작은 체적은, 기계적인 단순성이나, 동작에 필요한 에너지가 적은, 또는 이들 모두로부터의 추가적인 장점이 있게 한다. 본 발명의 유용성 및 그 밖의 장점은, 당업자에 있어서는 자명한 것이다.
도 1은 이동하는 오브젝트를 포착 및 추적하거나 자체의 시계 내로 오브젝트를 위치조정하기 위한 본 발명에 따른 사시도,
도 2는 자체 시계 내에 오브젝트를 위치조정하고, 센서에 입사하는 레이저 빔의 방향을 위치조정하는 3D 센서를 나타낸 도면,
도 3은 본 발명의 3D 센서 전자장치와 초점면 어레이를 나타낸 도면,
도 4는 본 발명의 3D 초점면 어레이의 도면,
도 5는 본 발명의 고감도 3D 초점면 어레이인 화상 튜브의 도면,
도 6은 본 발명의 3D 초점면 어레이 상의 유닛셀 회로도,
도 7은 본 발명의 전자 블록도이다.
3D FPA로 플래시 화상을 생성할 때, 각각의 화소는 충분한 레이저 에너지를 받아야 하며, 이에 따라 3D 화상이 생성될 수 있다. 카메라로부터의 관심 오브젝트가 멀수록, 더 많은 출력 레이저 에너지가 요구된다. 긴 범위의 시스템에 있어서, 비용 및 전력은 레이저 에너지와 관련되므로, 레이저 전력에 대한 요구를 감소 시키면 이득이 된다. 관심 오브젝트가 크기에 있어서 소수의 화소만이고, 멀리 이격되어 있고, 3D FPA의 전체 시계의 어디에도 있을 수 있으면, 이것은, 폭에 있어서 소수의 화소만이 되도록 전송된 레이저 빔을 좁히고 레이저 빔을 스캔하기 위해서 가장 경제적이다. 레이저 빔의 스캐닝은 매우 작은, 저가이고 매우 신뢰할 수 있는 검류계 스캐너만을 요구하므로, 본 발명은, 값싸고, 보다 저전력의, 경우에 따라 낮은 중량을 가지며, 작은 체적의 에너지 감소 플래시 레이더 시스템(ERFLS: Energy-Reduced Flash Ladar System)으로, 풀 플래시 레이더 시스템을 대체한다.
일 실시형태에 있어서, 2D 센서는 관심의 오브젝트를 취득하고, 추적을 위해 2D 좌표를 ERFLS로 보낸다. 본 발명의 다른 실시형태에 있어서는, 관심 오브젝트가 얇은 케이블 또는 와이어일 수 있는 충돌 회피 시스템에서와 같이, 레이저 빔이 신속하게 스캔되어 관련 시간 내에 관심 오브젝트를 발견하게 한다. 타깃 운동이 너무 빠르지 않은 본 발명의 또 다른 실시형태에 있어서는, 전체 시계에 걸쳐서 레이저 빔을 스캐닝함으로써, 전체 화상을 구축할 수 있다. 후자의 실시형태에 있어서는, 모든 화소가 어레이의 존재하는 부분에 의해 자동으로 등록되기 때문에, 화소 등록은 문제가 아니다. 그런데, 화상을 얻기 위해서, 화소가 기계적으로 스캔되는 시스템에 있어서는, 화소 등록은 문제가 된다. ERFLS 3D 프레임의 시간 시퀀스는, 플랫폼 내비게이션에 사용될 수 있는 씬의 3D 무비/비디오 양에 이른다.
한 관찰자가 펄스 레이저 빔을 사용해서 레이저 "스폿"을 오브젝트에 투사함으로써, 관심의 특정 오브젝트를 지정하는 경우가 있다. 본 출원에서는, 레이저 스폿의 2차원 좌표가 분리된 원거리의 관찰자에 의해 결정된다. 전형적으로, 원거리의 관찰자는, 레이저 스폿을 검색하는 시스템의 전체 시계에 걸쳐서, 화소나 작은 화소 어레이를 스캔한다. 화소를 스캔하는 그 밖의 기계적인 시스템에서와 같이, 이 시스템은 비싸고 높은 유지비용이 든다. 본 발명의 다른 실시형태에 있어서, 이 스캔된 기계적인 검색 시스템은 3D FPA로 대체되는데, 이는 화소 스캐너의 전체 시계 내에서 취해진다. 이 실시형태의 변형에 있어서는, 플랫폼을 위치조정하기 위한 레이저 빔의 방향을 식별하는데 3D FPA가 사용되는데, 플랫폼상에 3D FPA가 탑재된다.
동일번호로 동일 소자를 나타낸 바람직한 실시형태가 도면을 참조로 개시된다. 도 1에 묘사된 본 발명의 바람직한 실시형태는, 포착 및 추적 시스템이다. 이 시스템은, 펄스 광원(1)과, 스캐닝 미러(5a)를 포함하는 콤팩트한 스캐닝 미러 시스템(2), 3D 센서(3), 2D 포착 센서(4) 및, 데이터를 기억 및 처리하는 제어 컴퓨터(5)를 구비하여 구성된다. 본 발명이 출동 회피 또는 내비게이션 시스템으로서 사용된 그 밖의 실시형태에 있어서는, 2D 센서가 존재하거나 존재하지 않을 수 있다. 3D 센서의 시계 내의 오브젝트가 펄스 광원(1)으로부터의 광의 불량한 반사체인 경우에 더해서, 펄스 광원은 충분한 전력을 생성할 수 있으므로, 펄스 광원(1)을 냉각하기 위해서 쿨러(6)가 필요하게 된다. 쿨러가 요구되는 이러한 환경을 위해서, 쿨러(6)는 포착 및 추적 시스템의 일부가 된다. 바람직하게는, 광원은 수 나노초의 펄스 폭을 갖는 펄스를 생성하는 펄스 레이저이다. 근접 오브젝트와 함께 사용하기 위해서, 본 발명은, 펄스 광원(1)으로서 저에너지 레이저 다이오드 로부터의 펄스만을 필요로 할 수 있다. 또한, 본 발명은, 추적되는 오브젝트에 응답하는 응답 시스템(99)을 포함한다. 광원은, 전형적으로 광학부 또는 확산기 또는 이들 모두인 빔 형상 소자(1a)를 포함할 수 있다. 빔 형상 소자는 전자적으로 제어되는 미러 또는 미러들의 시스템으로서, 스캐닝 미러(5a) 내에 통합될 수 있다. 후자의 미러들은 나노기술로 조립된 미세 전자 기계적 시스템(Micro-Electro-Mechanical System)일 수 있다.
렌즈 시스템(7)과 3D 센서 하우징(8)으로 구성된 3D 센서(3)가 도 2에 도시된다. 센서 하우징(8)의 내측에는, 3D FPA(10: 도 3 참조)와 3D 센서 구동 및 출력 전자장치(9)가 있게 된다.
도 3은 3D 센서 구동 및 출력 전자장치(9)를 도시하는데, 전형적으로 이 장치는 구동 보드(11)와 출력 및 인터페이스 전자장치 보드(12)로 이루어진다. 전형적으로, 3D 초점면 어레이(FPA)(10)는 전기적, 기계적으로 구동 보드(11)에 부착되는데, 이 보드는 클록과 바이어스를 3D FPA의 판독 집적회로(ROIC) 칩(14: 도 4 참조)에 제공한다. 또한, 구동 보드(11)는 3D FPA(10)의 검출기 어레이(15)에 필요한 전압 바이어스를 제공할 수 있다. 출력 및 인터페이스 전자장치 보드는, 케이블(13)이나 트랜스미터 또는, 직접적인 기계 및 전기 접속에 의해 제어 컴퓨터 또는 컴퓨터 보드(5)에 접속된다.
도 4는 상세한 FPA(10)를 나타낸다. 일 실시형태에 있어서, FPA(10)는 광감성 검출기 어레이(15) 및 ROIC(14)로 이루어진다. 도 4는, 금속 범프(18)에 의해 전기적으로 접속된 검출기 어레이(15) 상의 대응하는 화소(17b)와 ROIC(14) 상의 대응하는 화소(17a)와 함께, 검출기 어레이(15) 및 ROIC(14)가 화소(16)로 분할되는 것을 가리킨다. 다른 모놀리식 실시형태에 있어서, 광감성 검출기 어레이(15) 및 ROIC 어레이(14) 칩은 하나의 칩으로 결합된다. 바람직한 일 실시형태에 있어서, 광감성 검출기 어레이(15)는, 단일의 저저항성 반도체 칩 상에 조립된 PIN(P-intrinsic-N)이나 NIP(N-intrinsic-P) 포토다이오드 또는 APD(avalanche photodiode) 포토다이오드이다. 다른 실시형태에 있어서, 각각의 감광성 검출기 화소(17b)는, 당업계에 공지된 판독 화소(17a: 또는 유닛셀)에 통합된다. 이 모놀리식 설계는, 금속 범프(18)로 혼성된 2개의 칩(14 및 15)의 복잡성을 없앤다.
도 5는 FPA(10)의 화상 튜브 실시형태를 나타내는데, 화상 튜브 내의 감광성 검출기 어레이(15)는 실리콘 검출기 어레이이고, 검출기 어레이(15) 및 ROIC 어레이(14)는 진공의 인클루저(enclosure) 내에 통합되며, 인클루저에서 포톤 P는 투명 윈도우(95)를 통과해서, 화상의 포토캐소드(98)와 작용하여, 포토일렉트론 e을 생성한다. 포토일렉트론은 전기장 E에 의해 검출기 어레이(15) 내로 가속되어, 검출기 어레이 내에서 충돌 이온화에 의해 증폭된 전기 신호를 생성한다. 그러면, 이 증폭된 신호는, 다른 처리 시에, 검출기 어레이 내에서 포톤-생성의 전기 신호로부터 구별할 수 있다. 화상 튜브의 경우에 있어서, 제어, 타이밍 및 바이어스 신호는, 전형적으로 핀(96)에 의해 전기적, 기계적으로 부착된 화상 튜브(97)의 헤더를 통해 구동 및 출력 전자장치(9)로 흐른다. FPA(10)의 다른 화상 튜브 실시형태에 있어서, 미세채널 플레이트는 전자 증폭 메커니즘이며, 검출기 어레이(15)에 혼성된 포토캐소드와 ROIC(14) 사이에 위치되지만, 검출기 어레이(15)는 애노드 어레이 로 대체된다. 애노드 어레이는, 증폭된 전기 신호를 미세채널 플레이트로부터 단순히 수집하고, 이들 신호를 금속 범프(18)를 통해 ROIC(14)로 보낸다. 3D FPA(10)의 다른 화상 튜브 실시형태에 있어서, 화상 튜브는 자기장 내에 위치되어, 디지콘(digicon)으로 귀결된다. 화상 튜브, 헤더, 포토캐소드, 미세채널 플레이트, 애노드 어레이 및 디지콘은 저잡음 포톤 신호 증폭의 당업자에 공지되어 있다.
ROIC 칩(14)의 각각의 ROIC 유닛셀(17a: 화소) 상의 전자 회로(17c)가 도 6에 도시된다. 각각의 유닛셀 회로(17c)는, 입력 증폭기(27), 트리거 회로(21), 지연 회로(22), 순환 셀렉터(19), 카운트 누산기(23) 및, 각각이 자체 메모리셀에 접속되는 다수의 스위치(28)를 포함한다. 출력 증폭기(25)는, 유닛셀 중 메모리셀(31) 내의 데이터를 ROIC 칩(14)을 오프하는 데이터를 구동하는 칩 출력 증폭기와 구동 및 출력 전자장치(9)로 구동시킨다. ROIC 유닛셀(17a)의 대안전인 구성에 있어서는, 클록(29)이 카운트 누산기(23)에 들어갈 수 있으며, 카운트 누산기(23)는 순환 셀렉터(19)를 구동할 수 있다. ROIC 유닛셀 회로(17c)의 대안적인 구성에 있어서, 카운트 누산기(23)와 순환 셀렉터(19)는 결합될 수 있다. 레이저 펄스 형상을 포착하지 않는 ROIC 유닛셀(17a)의 또 다른 대안적인 설계에 있어서, 순환 셀렉터(19), 스위치(28) 및 메모리셀(31)은 존재하지 않을 수 있다.
ROIC 칩(14)의 대안적인 설계에 있어서, 유닛셀(17c) 데이터는 칩을 오프로 구동하지 않지만, 데이터를 처리하는 온칩 프로세서로 구동된다. 그 다음, 처리된 데이터는 칩을 오프로 구동한다. 온칩 프로세서는 병렬 프로세서일 수 있으므로, 유닛셀의 각각의 열은 자체 프로세서를 갖게 된다. 대안적인 설계에 있어서, 열의 그룹은 그들 자체의 온칩 프로세서로 다중화될 수 있다.
시스템 전자장치의 블록도가 도 7에 도시되는데, 구동 및 출력 전자장치(9)와 마스터 컴퓨터(5)를 구비한다. 초점면 어레이(10)는, 구동을 위한 전력 및 바이어스 전압을 전력 콤포넌트(33)로부터 받는다. 전형적으로, 필드 프로그램어블 게이트 어레이(FPGA)인 매립된 컴퓨터(34)는 초점면 어레이(10) 및 메모리(35)용의 클록 신호를 생성한다. 이들은, 데이터 포착을 초기화하고, 초점면 어레이(10)로부터 출력된 로우 데이터(raw data)를 정규화하며, 클록 주파수(29) 및 지연 시간(22)과 같은 옵션을 설정하는 신호를 포함한다. 초점면 어레이(10)로부터의 데이터는, 처리를 완료하고 그 결과를 기억하며 포착된 3차원 화상을 표시하거나 응답 시스템(99)을 활성화할 수 있는 메모리(35) 및 마스터 컴퓨터(5)로 보내지기 전에 매립된 컴퓨터(34)에서 완전히 또는 부분적으로 처리된다. 다른 실시형태에 있어서, 모든 처리는 매립된 컴퓨터(34)에서 수행되며, 마스터 컴퓨터는 제거되고, 매립된 컴퓨터가 응답 시스템을 활성화한다. 마스터 컴퓨터(5)는, 조작자가 구동 및 출력 전자장치(9)와, 간접적으로는 초점면 어레이(10)와 통신하도록 허용할 수 있다.
포착 및 추적 시스템
포착 및 추적 시스템(10)은 다음과 같이 동작한다: 2D 센서(4), 전형적으로 가시 또는 적외선 센서가 포착 및 추적 시스템(100)에 대해서 운동할 수 있는 타깃을 포착한다. 전형적인 타깃은, 로켓, 박격포탄, 로켓 추진 수류탄, 탄환 및, 이 들 타깃이 발사될 때, 생성되는 초기 광 방출이다. 2D 카메라는 타깃의 2차원 x,y 좌표 위치를 직접적으로, 또는 컴퓨터(5)나 매립된 컴퓨터(34)에 의해, 2축 스캐닝 미러 시스템(2)에 전달하며, 이 시스템은 자체 미러(5a)를 좌표 x 및 y로 신속하게 배향하여, 빔 형상 소자(1a)를 통해, 미러(5a)로부터 반사된 펄스 광원(1)으로부터의 광 펄스가 타깃의 위치를 가로지르도록 한다. 펄스 광원(1)으로부터 방출된 광의 펄스는 광속으로 진행하여, 타깃을 가로지르고, 타깃으로부터 반사한다. 반사된 광은, 3D 센서(3)의 렌즈(7)에 의해 포획되고, 3D 센서의 구동 및 출력 전자장치(9)에 부착된 초점면 어레이(10) 상에 초점이 맞춰진다. 전형적으로, 타깃은 포착 및 추적을 위해 하나의 화소(16)와 대면하지만, 특히 실시형태가 충돌 회피, 내비게이션, 탐사 또는 3D 무비/비디오이면, 하나 이상과 대면할 수도 있다.
타깃으로부터 반사된 광 펄스는, 펄스 광원(1)에 의해 생성된 펄스 형상을 나타내는 전류를 검출기 화소(17b) 내에 생성한다. 이 전류는 금속 범프(18)를 통과하여, 대응하는 ROIC 유닛셀(17a)로 들어간다. 타깃은 펄스 형상을 변경할 수 있지만, 컴퓨터(34)에 매립된 컴퓨터(5) 또는 구동 및 출력 전자장치(9)에서의 처리는 펄스 형상 변경을 설명하게 된다. 검출기 화소(17b)로부터의 전류는, ROIC 유닛셀(17a) 내의 ROIC 유닛셀 회로(17c)에 입력되어, 입력 증폭기(27)에 의해 증폭된 후, 샘플링되어 메모리셀(31)에 기억된다. 바람직한 실시형태에 있어서는, 다수 존재할 수 있지만, 3개의 메모리유닛만이 도 6에 도시된다. 샘플링은 클록(18), 순환 셀렉터(19) 및 스위치(28)에 의해 수행된다. 순환 셀렉터는 메모리셀(27)과 동수의 출력을 갖는다. 각각의 기록 클록 펄스에서, 순환 셀렉터는, 입 력 증폭기(27) 출력을 하나의 메모리셀(31)에 접속하는 분리 및 독립 스위치(28)를 온으로 시프트한다. 모든 메모리셀이 채워진 후, 메모리셀은 새로운 데이터가 도착함에 따라, 오버라이트된다.
결과적으로, 메모리셀은 항상 가장 최근에 샘플링된 파형 데이터로 채워지게 된다. 전형적으로, 클록 주기는 펄스 폭보다 매우 짧으므로, 펄스 형상이 메모리셀(31) 내에 포획된다. 입력 증폭기(17)가 트랜스 임피던스 증폭기이면, 검출기(17b) 전류는 전압으로 변형되고, 메모리셀(31)은 이 전압을 샘플링하게 된다. 입력 증폭기(27)가 전류 증폭기이면, 검출기(17b) 전류는 증폭되고, 메모리셀(31)은 이 전류를 통합한다. 검출기(17b) 신호가 전압이면, 입력 증폭기(27)는 전압 증폭기일 수 있고, 메모리셀(31)은 이 전압을 샘플링한다. 순환 셀렉터(19)는 단순 시퀀스 시프트 레지스터일 수 있지만, 알고리즘에 근거할 수 있으므로, 시퀀스적이 아닐 수 있다. 하나의 바람직한 실시형태에 있어서, 샘플링은, 광 펄스가 방출될 때 시작한다. 카운트 누산기(23)는, 하나의 완전한 순환 셀렉터 사이클 후에 개시(스타트)되고, 각각의 이어지는 순환 셀렉터 사이클의 카운트를 계속 증가시킨다. 입력 증폭기(27)는, 전형적으로 슈미트 트리거(Schmitt Trigger)인 트리거 회로(21)에 의해 감시되는데, 증폭기 출력(20)이 미리 특정되거나 구동 및 출력 전자장치(9) 조정 가능 크기에 도달할 때, 지연 회로(22)에 신호를 출력한다. 프리셋이나 구동 및 출력 전자장치(9) 조정 가능한 시간 지연 후, 지연 회로(22)는 순환 셀렉터를 정지시키는데, 샘플링 및 카운팅이 종료된다. 카운트 누산기(23)는, 순환 셀렉터가 순환된 시간의 수를 카운트하거나, 대안적인 설계에 있어서는, 클록 펄스 의 수 또는 등가적으로는 순환 셀렉터가 시프트된 시간의 수를 카운트한다. 다른 바람직한 실시형태에 있어서, 샘플링은, 모든 화소에 있어서, 신호가 구동 및 출력 전자장치(9)로부터 ROIC(14)로 입력될 때, 시작된다. 다른 또는 동일한 바람직한 실시형태에 있어서, 샘플링은, 신호가 구동 및 출력 전자장치(9)로부터 ROIC(14)에 입력될 때 정지되고, 이 신호는 특정 시간에 발생하도록 프로그램될 수 있다. 카운트 누산기(23)는 단순한 디지털 카운터일 수 있지만, 알고리즘에 근거할 수 있으므로, 시퀀스적이 아닐 수 있다. 알고리즘은, 카운트 누산기(23)의 출력을 실제 카운트로 변환하게 된다.
대안적인 설계에 있어서는, 클록 펄스는 먼저 카운트 누산기에 입력되는데, 순환 셀렉터나 카운트 누산기 및 순환 셀렉터가 하나의 소자로 결합된다. 카운트 누산기(23)가 순환 셀렉터를 구동하면, 트리거 회로(21) 신호는 카운트 누산기를 정지시킨다.
레이저 펄스가 샘플링된 후, 모든 메모리셀 내의 데이터는 전형적인 기록 주파수보다 낮은 주파수(데이터가 샘플링되는 주파수)에서 순환 셀렉터를 통한 싸이클링에 의해 출력된다. 전형적으로, 입력 증폭기(27)는 유닛셀 회로(17c)로부터 접속 해제된다. 그러면, 메모리셀 데이터는, 유닛셀 출력 증폭기(25)에 의해 유닛셀로부터 칩 출력 증폭기로 구동된다. 칩 출력 증폭기는 메모리셀 데이터를 출력 및 구동 전자장치(9)로 구동하는데, 전자장치(9)는 데이터를 처리하고, 데이터를 처리 및 기억 컴퓨터(5)로 전송할 수 있다. 유사하게, 유닛셀 카운트 누산기(23)가 출력된다. 이는, 전형적으로, 클록이 일련의 펄스일 때 출력되지만, 클록이 램 프 전압이면 아날로그로 될 수 있다. 전형적으로, 메모리셀 출력은 아날로그이지만, 특히 유닛셀이 아날로그-디지털 컨버터를 포함하면, 디지털로 될 수 있다. 데이터를 출력하는 클록 신호가 구동 및 출력 전자장치(9)의 매립된 컴퓨터(34) 내에 생성된다. 처리 컴퓨터(5) 또는 매립된 컴퓨터(34)가 타깃에 대한 범위, 제3독립 좌표 z를 계산한다.
본 발명의 포착 및 추적 시스템(100)의 실시형태에 있어서, 3D FPA(10) 상의 타깃 화소(17a 및 17b)의 x, y 위치는, 2D 센서(4)에 의해 결정된 바와 같이, 전형적으로 2D 센서가 더 많은 화소를 갖고 자체의 x, y 위치가 더 정확함에도 불구하고, 타깃의 x, y 위치에 대응한다. 그런데, 다른 실시형태에 있어서, 3D FPA(10)의 검출기 어레이(1)는 타깃으로부터 반사된 주변 광이나 타깃에 의해 방출된 광에 응답하고, 2D 포착 카메라는 ROIC 칩 화소(17a)를 변경함으로써 삭제될 수 있으므로, 이들은, 포획 시스템(100) 생성의 펄스 광뿐 아니라, 타깃 반사된 주변 광이나 타깃 생성의 광을 통합할 수 있다. 2D 센서를 삭제하는 일 실시형태에 있어서, 도 6의 유닛셀 회로는 바이어스되므로, 하나 이상의 메모리(31)는, 포착 모드 동안 통합하는 센서의 전형적인 저주파수에서 광을 통합한다. 2D 모드에서 타깃이 포착되고, 그 x, y 좌표가 결정되면, ROIC 화소 회로(17c)는, z 타깃 좌표를 포착하기 위한 3D 범위 포착을 위해, 즉시 다시 바이어스된다.
이동 타깃 포착 및 추적 시스템
이동 타깃 포착 및 추적 시스템(100)으로서 동작할 때, 이동 타깃의 x, y 좌표는 2D 센서로 추적되고, 그 대응하는 z 추적 좌표는 3D 센서를 사용하여 연속적으로 탐색된다. 타깃 추적은 매립된 컴퓨터(34)나 처리 컴퓨터(5) 또는 구동 및 출력 전자장치(9)를 대체하는 ASIC(application specific integrated circuit)에서 전개되고, 당업계의 당업자에게 공지된 알고리즘을 사용하여 궤적의 시작 포인트와 종료 포인트를 예측할 수 있다. 그러면, 컴퓨터는, 이동 타깃의 경우, 또는 정지 타깃의 경우에 포착될 때, 응답 시스템(99)으로부터 궤적 계산에 근거한 응답을 명령한다. 응답 시스템은 미사일 대응 시스템, 발사기 대응 시스템 또는 차량 제어 시스템일 수 있다.
전형적으로, 이동 타깃 포착 및 추적 시스템(100) 및 범위와 화소(16)를 연관시키는 그 밖의 실시형태에 있어서, 타깃의 z 위치는 카운트 누산기(23)가 정지하는 시간과, 메모리셀(31)로부터 포착된 펄스 형상 데이터 모두에 의해 결정된다. 범위 정확성이 하나 또는 소수의 클록 펄스 내에서 결정되면, 카운트 누산기(23) 데이터만이 필요로 된다. 클록 펄스의 부분의 범위 정확성은, 메모리셀(31)로부터의 레이저 펄스 형상 데이터를 사용해서 달성될 수 있다. 많은 다양한 알고리즘이 사용될 수 있음에도, 최상의 정확성은 실제 레이저 펄스 형상과 메모리셀(31)로부터 포획된 펄스 형상의 비교이다. 전형적으로, 레이저 펄스의 도달 시간 또는 도달하는 레이저 펄스의 피크 시간은, 매칭되는 필터 알고리즘이나 최소제곱법 알고리즘에 의해 평가된다. 전형적으로, 이들 알고리즘은 수치로 적용될 수 있지만, 회로 내에서 실행될 수 있다.
충돌 회피 시스템
충돌 회피 시스템(100)으로서 동작할 때, 동작은, 이동 타깃 포착 및 추적 시스템(100)의 동작에 대해서와 유사하게 기재될 수 있다: 회피되는 오브젝트는 우선 2D 센서(4) 동작을 사용해서 포착되고, 관심 오브젝트에 대한 범위는 3D 센서(3)의 레이저 펄스의 획득으로부터 귀결된다. 그런데, 전형적으로, 이들 환경에서의 관심 오브젝트는 하나 이상의 많은 화소에 의해 정의되고, 3D 형상을 정의하기 위해서, 다수의 레이저 펄스 또는 하나의 전체 시계 레이저 펄스에 의해 스캔될 수 있다. 전형적으로, 스캐닝 패턴은 컴퓨터(5) 내에서 정의되거나 전개되지만, 구동 및 출력 전자장치(9) 또는 구동 및 출력 전자장치를 대체한 ASIC 상에 위치된 매립된 컴퓨터(34)의 펌웨어에 포함될 수도 있다. 추가로, 레이저 펄스의 발산은 단일 펄스로 많은 타깃 화소를 조명하도록 충분히 크게 되므로, 소수의 레이저 펄스 또는 단지 하나의 레이저 펄스가 전체 3D 화상을 취득하는데 필요로 될 수 있다. 대안적인 실시형태에 있어서, 3D 초점면은 2D 포착 센서뿐 아니라 3D 센서로서 기능하도록 다시 바이어스될 수 있고, 또 다른 실시형태에 있어서, 3D 센서는 포착 센서로서 기능할 수 있다. 하나의 레이저 펄스만이 필요하도록 시스템이 설계되면, 스캐닝 미러 시스템(2)은 존재하지 않도록 설계되고, 레이저(1)는, 전형적으로 빔 확장 소자(1a)를 사용하여 3D 센서의 전체 시계를 조명하도록 배향된다.
3D 센서가 포착 센서로서 기능하는 충돌 회피 또는 내비게이션 시스템(100)의 실시형태에 있어서, 2D 센서(4)는 존재하지 않고, 전형적으로 펄스 광원(1)으로부터의 광의 펄스는 많은 타깃 화소를 조명하는 발산 빔을 갖게 되는데; 1000 화소 가 전형적이지만 모든 화소가 단일 펄스에 의해 조명될 수 있다. 3D 화상 데이터는, 광의 각각의 펄스 및 스캔으로 구축된 3D 화상에 대해서, 실시간으로 컴퓨터(5)로 전송된다. 일반적으로, 레이저 빔 스캔은, 화소 대 화소로 행해지지 않고, 3D 센서의 시계 내의 모든 화소가 포착될 때까지 화소의 그룹으로 행해진다. 그 다음, 스캔은 다시 시작하게 된다. 전형적으로, 스캔 패턴은, 구동 및 출력 전자장치(9)를 위한 컴퓨터(5) 내나, 매립된 컴퓨터(34) 내 또는 ASIC 기판 내에 위치된다. 매립된 컴퓨터(34) 또는 제어 컴퓨터(5)는, 3D 데이터를 분석하고, 필요하다면, 충돌 회피 또는 내비게이션 조정을 위해 응답 시스템(99)을 활성화한다. 전형적인 응답 시스템은 보조익(aileron), 스티어링 브레이크 및 액셀러레이터(accelerator)를 포함한다. 만일, 전력이 중요하지 않다면, 단일 레이저 플래시는 시계 내의 모든 화소를 조명할 수 있다. 하나의 레이저 펄스만이 필요하도록 시스템이 설계되면, 스캐닝 미러 시스템(2)은 존재하지 않을 수 있고, 레이저(1)는 3D 센서(3)의 전체 시계를, 전형적으로 빔 확장 소자(1a)를 사용해서 조명하도록 배향된다.
탐사 및 무비 시스템
탐사(또는 3D 무비/비디오 카메라) 시스템(100)의 실시형태에 있어서, 2D 센서(4)는 존재하거나 존재하지 않을 수 있고, 전형적으로 펄스 광원(1)으로부터의 펄스 광은, 많은 또는 모든 타깃 화소를 조명하는 발산 빔을 갖는데; 1000화소가 전형적이다. 전형적으로, 확산기인 빔 확장 소자(1a)가 레이저 빔의 발산을 제어 하기 위해 채용될 수 있다. 3D 화상 데이터는, 광의 각각의 펄스 및 스캔으로 구축된 3D 화상에 대해서, 실시간으로 매립된 컴퓨터(34) 또는 컴퓨터(5)로 전송된다. 전형적으로, 레이저 펄스 반복 주파수는, .5-1000Hz이고, 포획되는 씬의 시간 의존성 및 요구 시간 해상도에 의존할 수 있다. 2D 센서가 존재하면, 관심 오브젝트가, 타깃 식별(ID)을 위해 사용된 2D 센서 및 3D 센서에 의해 포착될 수 있다. 이 종류의 전형적인 시스템은 라이플 사이트(rifle sight) 일 수 있는데, 여기서 2D 센서는 IR 센서이고, 제어 컴퓨터(5)는, 인간 조작자의 제어 하에서, 응답 결정을 하는 조작자에게 3D 데이터를 표시한다. 라이플은, 이 경우 응답 시스템이다. 물론, 조작자는, 탐사 시스템(100)에 없거나, 원격 위치에 있을 수 있다. 2D 센서 데이터는, 타깃 인식을 향상시키기 위해서, 3D 데이터 상에 겹쳐질 수 있다. 때때로, 이 겹침은, 짜임으로 언급된다. 3D 탐사 카메라를 2D 겹침과 함께 또는 2D 겹침 없이, 전형적으로 하나의 펄스가 전체 시계를 커버하는, 전형적으로 30Hz인 프레임 레이트로, 씬에 걸쳐 패닝(panning)하는 결과는, 3D 무비/비디오, 그러므로 3D 무비/비디오 카메라이다. 낮은 공간 (x, y) 해상 3D FPA와 높은 공간 해상 2D FPA의 겹침은, 현실성이나 타깃 ID 확률을 증가시킨다. 씬의 시간 해상도가 데이터의 전체 프레임을 요구하면, 한 시점에서, 3D 화소가 더 많이 요구됨에 따라 더 높은 레이저 에너지가 요구되므로, 보다 낮은 공간 해상 3D FPA가 바람직하다. 고속으로, 3D 데이터의 전체 프레임이 요구되는 이들 환경에서, 미러 시스템(2)은 사용되지 않고, 레이저(1)는 전체 시계를 조명하도록 배향된다.
탐사 또는 3D 무비/비디오 카메라 시스템(100)의 다른 바람직한 실시형태에 있어서, 빔 형상 소자(1a)는 변화될 수 있으므로, 3D 센서(3)의 조명된 시계가 센서의 전체 시계로부터 소수 또는 단일 화소로 변화될 수 있다. 이에 의해, 3D 센서(3)를 사용하는 시스템(100)이 3D 화상의 전체 시계로부터 범위 파인더로 연속적으로 변화될 수 있다. 조명 시계 또는 빔 발산이 작을수록 주어진 레이저 전력으로 가능한 범위는 길게 되므로; 단일 화소 조명 시계로, 가장 긴 범위가 달성될 수 있다.
무비 시스템의 사용
본 발명의 무비 시스템의 하나의 특정 사용은, 게임기로의 통합을 위해서, 형상체의 3차원 운동을 포획하는 것이다. 특히, 본 발명은, 단일 카메라가, 수차를 채용하는 다수의 렌즈 시스템의 복잡성 없이, 축구 게임과 같은 스포츠 이벤트에 참가하는 3차원 캐릭터를 포획할 수 있게 한다. 3D 카메라에 의해 포획된 데이터로부터, 프로그램 분야의 당업자는 재생 씬이 회전되고, 다른 기하형상의 시계로부터 접근될 수 있게 할 수 있다.
레이저 지정 시스템
레이저 지정 실시형태(100)에 있어서, 본 발명은 그 포착 모드에서 수동적인데; 레이저(1)와 미러 시스템(2)이 사용되지 않는다. 전형적으로, 2D 센서(4)도 사용되지 않는다. 레이저 지정기로서 사용될 때, 오브젝트는, 독립적이고, 전형적으로 나란히 배치되지 않은 광원으로부터의 펄스 레이저빔에 의해 지정되는 타깃의 x, y 위치를 위치조정한다. 지정된 타깃을 산란시켜 오프시키는 광은 광학부(7)에 의해 3D 센서의 초점면(10) 상에 초점이 맞춰진다. 하나 또는 적어도 소수의 화소(16)가 광에 응답한다. 3D FPS(10) 상의 이들 화소의 위치는, 전체 어레이(15)가 매립된 컴퓨터(34)에 판독되거나, 제어 컴퓨터(5) 및 컴퓨터가 응답 시스템(99)을 경보할 때, 타깃의 x, y 좌표로 결정된다. 전형적으로, 타깃의 x, y 위치는 3D FPA(10) 상의 레이저 스폿의 x, y 위치 및 수신 광학부(7)의 초점 길이로부터 정의된다. 컴퓨터는, 펄스 반복 주파수 또는 펄스 형상 매칭 알고리즘을 사용하는 지정 레이저를 식별한다. 몇몇 환경에서, 펄스 반복 주파수 및 펄스 형상은 지정 레이저를 식별하는데 사용될 수 있다. 전형적인 응답 시스템은 미사일 시스템이다.
레이저 지정기(100)가 레이저 빔에 의해 직접 조명될 때, 광은 광학부(7)에 의해 3D 센서의 초점면(10)으로 초점이 맞춰진다. 하나 또는 소수의 화소(16)가 광에 응답한다. 3D FPA(10) 상의 이들 화소의 위치는, 전체 어레이(15)가 매립된 컴퓨터(34)에 판독되거나, 제어 컴퓨터(5) 및 컴퓨터가 응답 시스템(99)을 경보할 때, 레이저 빔의 x, y 좌표로 결정된다. 전형적으로, 타깃의 x, y 위치는 3D FPA(10) 상의 레이저 스폿의 x, y 위치와 수신 광학부(7)의 초점 길이에 의해 정의된다. 전형적인 응답 시스템은 본 발명의 탐사 실시형태(100)로 레이저원을 식별한다. 소정의 다른 실시형태에서, 화상 튜브 FPA(10)가 3D 센서(3)와 함께 사용될 때, 레이저 광은 윈도우(95)를 통과해서, 포토캐소드(98)와 작용하여 일렉트론 e을 생성한다. 일렉트론은, 내부 전기장 E에 의해, 전형적으로 KeW로 측정되는 비교적 고에너지로, 일렉트론이 검출기 어레이(15)에 충돌하여 다수의 일렉트론-홀 쌍을 생성시킬 때까지 가속된다. 일렉트론 또는 홀은 ROIC(14) 내로 스윕(sweep)되어, 내부 전기장에 의해 금속 범프(18)를 통해 검출기에 도달하며, 검출기에서의 처리는 도 4에 묘사된 고체 상태 어레이와 동일하다.

Claims (58)

  1. 이동 또는 고정의 오브젝트의 표면을 기하학적으로 정의하기에 충분한 3D 데이터를 취득하기 위한 장치로서,
    연속적인 광 펄스를 제공하는 광원;
    오브젝트와 펄스 광원간 광 전송 매체 또는 진공으로 광 펄스를 지향시키고 오브젝트의 적어도 일부의 표면을 조명하는 빔 형상기;
    하나 또는 그 이상의 일부의 오브젝트로부터 그리고 매체로부터 리턴된 광 펄스를 검출하고 하나 또는 그 이상의 일부의 오브젝트의 범위를 가리키는 전기 신호를 제공함과 더불어, 전기 신호를 제공하고 유닛셀 전자장치 및 광 검출기를 포함하는 화소 소자를 갖춘 초점면 어레이 및 상기 초점면 어레이 상의 화소 소자에서 수신한 광을 수집하기 위해 광원으로부터 연속적인 펄스의 전송 간의 간격 동안 동작할 수 있는 광 수집 광학부를 구비한 센서;
    상기 센서로부터의 전기 신호를 각 화소에 대응하는 3D 범위 데이터로 처리하는 프로세서; 및
    초점면 어레이에 제어 신호를 제공하고, 3D 범위 데이터를 3D 데이터 프로세서에 제공하거나 또는 그 3D 범위 데이터를 기억하기 위한 기억장치에 제공하는 구동 및 출력 전자장치를 구비하며,
    상기 광 검출기는 화소 소자에서 수신한 광에 대응하는 1차 전기 신호를 생성하고,
    상기 유닛셀 전자장치는 1차 전기 신호를 전처리하여 전기 신호를 출력하기 위해 채용된 것을 특징으로 하는 3D 데이터 취득 장치.
  2. 제1항에 있어서, 3D 범위 데이터와 함께 이동 또는 고정 오브젝트의 2D 데이터를 취득하는 2D 디지털 카메라를 포함하는 것을 특징으로 하는 3D 데이터 취득 장치.
  3. 제2항에 있어서, 전기 신호의 프로세서는 2D 디지털 데이터를 3D 데이터 상에 겹치게 하거나, 중첩시키거나 또는 짜여지게 하기 위한 프로세서를 포함하는 것을 특징으로 하는 3D 데이터 취득 장치.
  4. 제1항에 있어서, 빔 형상기는 광을 지향시키기 위한 하나 또는 다수의 축 스캐닝 미러를 포함하는 것을 특징으로 하는 3D 데이터 취득 장치.
  5. 제1항에 있어서, 광 형상기는 광을 지향시키기 위해 하나 또는 다수의 독립 제어 미러를 갖춘 전자 기계적 시스템을 포함하는 것을 특징으로 하는 3D 데이터 취득 장치.
  6. 제1항에 있어서, 광 형상기는 장치가 범위 파인더 및 3D 화상기 모두로 동작할 수 있도록 가변 시계 광학부를 포함하는 것을 특징으로 하는 3D 데이터 취득 장치.
  7. 제1항에 있어서, 전기 신호의 프로세서는 3D 데이터를 3D 화상으로 나타내기 위한 프로세서를 포함하는 것을 특징으로 하는 3D 데이터 취득 장치.
  8. 제1항에 있어서, 전기 신호의 프로세서는 3D 데이터 및 필요한 경우 2D 데이터를 충돌 회피 또는 네비게이션 데이터로 변환하기 위한 프로세서를 포함하는 것을 특징으로 하는 3D 데이터 취득 장치.
  9. 제1항에 있어서, 전기 신호의 프로세서는 3D 데이터 및 필요한 경우 2D 데이터를 3D 무비 또는 3D 비디오 데이터로 변환하기 위한 프로세서를 포함하는 것을 특징으로 하는 3D 데이터 취득 장치.
  10. 제13항에 있어서, 3D 무비는 스포츠 이벤트인 것을 특징으로 하는 3D 데이터 취득 장치.
  11. 제1항에 있어서, 전기 신호의 프로세서는 3D 데이터를 발사체 궤적 데이터로 변환하기 위한 프로세서를 포함하는 것을 특징으로 하는 3D 데이터 취득 장치.
  12. 하나 또는 그 이상의 고정 또는 이동 오브젝트를 추적, 조사, 촬영, 네비게이팅하고 오브젝트와의 충돌을 회피하는 방법으로서,
    시간 의존 데이터 프레임 또는 오브젝트 궤적을 취득하는데 필요한 시간 만큼 제어가능 미러로 오브젝트의 2차원 좌표 위치를 전송하는 단계;
    각각의 전송된 2차원 좌표에 대해, 오브젝트를 가로지르고 오브젝트로부터 반사하도록 제어가능 미러 및 빔 형상 소자를 통해 펄스 광원으로부터의 광 펄스를 반사하는 단계;
    오브젝트로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 3D 초점면 어레이 상에 초점을 맞추는 단계;
    3D 초점면 어레이 화소에서 생성된 전기 신호를 샘플링하고 3D 데이터를 메모리셀에 기억하는 단계; 및
    기억된 3D 데이터로부터 오브젝트 좌표 및/또는 속도를 결정하는 단계를 구비한 것을 특징으로 하는 오브젝트를 추적, 조사, 촬영, 네비게이팅하고 오브젝트와의 충돌을 회피하는 방법.
  13. 하나 또는 그 이상의 고정 또는 이동 오브젝트를 추적, 조사, 촬영, 네비게이팅하고 오브젝트와의 충돌을 회피하는 방법으로서,
    오브젝트를 가로지르고 오브젝트로부터 반사하기 위해 펄스 광원으로부터의 광 펄스 시퀀스를 전송하는 단계;
    하나 또는 그 이상의 고정 또는 이동 오브젝트로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 초점면 어레이 상에 초점을 맞추는 단계;
    초점면 어레이의 화소에서 생성된 전기 신호를 샘플링하고 3D 데이터를 메모리셀에 기억하는 단계; 및
    기억된 3D 데이터 출력으로부터 오브젝트 좌표 및/또는 속도를 결정하는 단계를 구비하며,
    펄스 광원 트랜스미터는 데이터 프레임과 관련된 각 펄스 및 3D 센서의 시계를 조명하는 것을 특징으로 하는 오브젝트를 추적, 조사, 촬영, 네비게이팅하고 오브젝트와의 충돌을 회피하는 방법.
  14. 제13항에 있어서, 트랜스미터 시계는 좀더 작은 시계를 갖는 동일한 펄스 에너지에 대해, 좀더 큰 범위를 허용하며 변경될 수 있는 것을 특징으로 하는 오브젝트를 추적, 조사, 촬영, 네비게이팅하고 오브젝트와의 충돌을 회피하는 방법.
  15. 제13항에 있어서, 2D 센서 데이터가 이용가능하며 2D 센서 데이터는 3D 데이터 상에 겹쳐지거나 짜여지는 것을 특징으로 하는 오브젝트를 추적, 조사, 촬영, 네비게이팅하고 오브젝트와의 충돌을 회피하는 방법.
  16. 제13항에 있어서, 3D 화상의 일부 또는 모두가 그 화상을 표시할 수 있는 원격 수신기로 전송되는 것을 특징으로 하는 오브젝트를 추적, 조사, 촬영, 네비게이팅하고 오브젝트와의 충돌을 회피하는 방법.
  17. 제13항에 있어서, 3D 데이터의 일부 또는 모두가 3D 화상이고 비디오 게임의 자료로 이용되는 것을 특징으로 하는 오브젝트를 추적, 조사, 촬영, 네비게이팅하고 오브젝트와의 충돌을 회피하는 방법.
  18. 제13항에 있어서, 3D 데이터의 일부 또는 모두가 3D 화상이고 운동 능력 향상의 피드백을 제공하기 위해 이용되는 것을 특징으로 하는 오브젝트를 추적, 조사, 촬영, 네비게이팅하고 오브젝트와의 충돌을 회피하는 방법.
  19. 표면을 갖는 이동 오브젝트를 포착 및 추적하기 위한 장치로서,
    연속적인 광 펄스를 제공하는 광원;
    오브젝트와 펄스 광원간 광 전송 매체 또는 진공으로 광 펄스를 지향시키고 오브젝트의 적어도 일부의 표면을 조명하는 빔 형상기;
    하나 또는 그 이상의 일부의 오브젝트로부터 그리고 매체로부터 리턴된 광 펄스를 검출하고 하나 또는 그 이상의 일부의 오브젝트의 범위를 가리키는 전기 신호를 제공함과 더불어, 전기 신호를 제공하고 유닛셀 전자장치 및 광 검출기를 포함하는 화소 소자를 갖춘 초점면 어레이 및 상기 초점면 어레이 상의 화소 소자에서 수신한 광을 수집하기 위해 광원으로부터 연속적인 펄스의 전송 간의 간격 동안 동작할 수 있는 광 수집 광학부를 구비한 센서;
    상기 센서로부터의 전기 신호를 각 화소에 대응하는 3D 범위 데이터로 처리하는 프로세서; 및
    초점면 어레이에 제어 신호를 제공하고, 3D 범위 데이터를 3D 데이터 프로세서에 제공하거나 또는 그 3D 범위 데이터를 기억하기 위한 기억장치에 제공하는 구동 및 출력 전자장치를 구비하며,
    상기 광 검출기는 화소 소자에서 수신한 광에 대응하는 1차 전기 신호를 생성하고,
    상기 유닛셀 전자장치는 1차 전기 신호를 전처리하여 전기 신호를 출력하기 위해 채용되며,
    상기 데이터는 이동 오브젝트 궤적의 종료 포인트를 계산하기에 충분한 것을 특징으로 하는 오브젝트를 포착 및 추적하는 장치.
  20. 제19항에 있어서, 상기 데이터에 따라 물리적 또는 전자적 동작을 취하는 응답 장치를 더 구비한 것을 특징으로 하는 오브젝트를 포착 및 추적하는 장치.
  21. 제19항에 있어서, 샘플링 및 ROIC(판독 집적회로) 메모리 저장을 위한 기록 클록, 순환 셀렉터 및 스위치를 더 포함하는 것을 특징으로 하는 오브젝트를 포착 및 추적하는 장치.
  22. 타깃을 포착 및/또는 추적하는 방법으로서,
    2D 센서로 타깃을 포착하는 단계;
    타깃의 2차원 좌표 위치를 2축 스캐닝 미러 시스템에 전송하는 단계;
    타깃을 가로지르고 타깃으로부터 반사하도록, 빔 형상 소자 및 미러를 통해서 펄스 광원으로부터의 광의 펄스를 반사하는 단계;
    타깃으로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 초점면 어레이 상에 초점을 맞추는 단계;
    전류를 ROIC(판독 집적회로) 유닛셀에 입력하는 단계;
    ROIC 메모리셀 내에 전류 신호를 샘플링하여 기억하는 단계; 및
    기억된 ROIC 출력으로부터 타깃 좌표 및/또는 속도를 결정하는 단계를 구비한 것을 특징으로 하는 타깃을 포착 및/또는 추적하는 방법.
  23. 미사일 발사 또는 레이저 지정 동안 광 방출을 포착 및 추적하기 위한 장치로서,
    광 방출을 검출함과 더불어, 전기 신호를 제공하고 유닛셀 전자장치 및 광 검출기를 포함하는 화소 소자를 갖춘 초점면 어레이 및 상기 초점면 어레이 상의 화소 소자에서 수신한 광을 수집하기 위한 수집 광학부를 구비한 센서;
    상기 센서로부터의 전기 신호를 각 화소에 대응하는 3D 범위 데이터로 처리하는 프로세서; 및
    초점면 어레이에 제어 신호를 제공하고, 3D 범위 데이터를 3D 데이터 프로세서에 제공하거나 또는 그 3D 범위 데이터를 기억하기 위한 기억장치에 제공하는 구동 및 출력 전자장치를 구비하며,
    상기 광 검출기는 화소 소자에서 수신한 광에 대응하는 1차 전기 신호를 생성하고,
    상기 유닛셀 전자장치는 1차 전기 신호를 전처리하여 전기 신호를 출력하기 위해 채용되며,
    상기 데이터는 상기 미사일 발사 또는 레이저 지정과 관련된 위치 정보를 계산하기에 충분한 것을 특징으로 하는 광 방출을 포착 및 추적하는 장치.
  24. 이동 타깃을 포착 및/또는 추적하기 위한 방법으로서,
    2D 센서로 추적하는 단계;
    펄스를 방출하고, 타깃으로부터의 그 반사를 수신하는 단계;
    3D 센서를 사용해서, 메모리셀로부터 포착된 펄스 형상 데이터에 의해 대응하는 3차원 추적 좌표를 결정하는 단계;
    컴퓨터 또는 구동 및 출력 전자장치를 대체하는 ASIC 내에 타깃 트랙을 전개하는 단계;
    궤적의 시작 포인트와 종료 포인트를 예측하는 단계; 및
    이동 타깃의 경우, 또는 정지 타깃의 경우에 포착될 때, 응답 시스템으로부터 궤적 계산에 근거한 응답을 명령하는 단계를 구비한 것을 특징으로 하는 이동 타깃을 포착 및/또는 추적하는 방법.
  25. 타깃과 충돌을 회피하기 위한 방법으로서,
    2D 센서로 타깃을 포착하는 단계;
    타깃의 2차원 좌표 위치를 2축 스캐닝 미러 시스템에 전송하는 단계;
    타깃을 가로지르고 타깃으로부터 반사하도록, 빔 형상 소자 및 미러를 통해서 발산 펄스 광원으로부터의 복수의 광의 펄스를 반사하는 단계;
    타깃으로부터 반사된 광을 3D 센서의 구동 및 출력 전자장치에 부착된 초점면 어레이 상에 초점을 맞추는 단계;
    전류를 ROIC(판독 집적회로) 유닛셀에 입력하는 단계;
    메모리셀 내에 ROIC 출력을 샘플링하여 기억하는 단계; 및
    기억된 ROIC 출력으로부터 타깃 좌표 및/또는 속도를 결정하는 단계를 구비한 것을 특징으로 하는 타깃과 충돌을 회피하는 방법.
  26. 하나 또는 그 이상의 일부의 오브젝트로부터 광 전송 매체 또는 진공을 통해 리턴된 반사 광을 검출하고 하나 또는 그 이상의 일부의 오브젝트의 범위를 가리키는 전기 신호를 제공하는 3D 센서로서,
    상기 센서는 전기 신호를 제공하고 유닛셀 전자장치 및 광 검출기를 포함하는 화소 소자를 갖춘 초점면 어레이를 구비하고,
    상기 센서로부터의 전기 신호를 각 화소에 대응하는 3D 범위 데이터로 처리하는 프로세서; 및
    초점면 어레이에 제어 신호를 제공하고, 3D 범위 데이터를 3D 데이터 프로세서에 제공하거나 또는 그 3D 범위 데이터를 기억하기 위한 기억장치에 제공하는 구동 및 출력 전자장치를 구비한 것을 특징으로 하는 3D 센서.
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
  43. 삭제
  44. 삭제
  45. 삭제
  46. 삭제
  47. 삭제
  48. 삭제
  49. 삭제
  50. 삭제
  51. 삭제
  52. 삭제
  53. 삭제
  54. 삭제
  55. 삭제
  56. 삭제
  57. 삭제
  58. 삭제
KR1020087016488A 2005-12-08 2006-12-08 3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정 KR101321303B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US74869005P 2005-12-08 2005-12-08
US60/748,690 2005-12-08
PCT/US2006/061788 WO2007081628A2 (en) 2005-12-08 2006-12-08 Laser ranging, tracking and designation using 3-d focal planes

Publications (2)

Publication Number Publication Date
KR20080094663A KR20080094663A (ko) 2008-10-23
KR101321303B1 true KR101321303B1 (ko) 2013-10-25

Family

ID=38256840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087016488A KR101321303B1 (ko) 2005-12-08 2006-12-08 3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정

Country Status (4)

Country Link
US (5) US8130367B2 (ko)
EP (1) EP1969312B1 (ko)
KR (1) KR101321303B1 (ko)
WO (1) WO2007081628A2 (ko)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8421015B1 (en) * 2007-09-13 2013-04-16 Oceanit Laboratories, Inc. Position sensing detector focal plane array (PSD-FPA) event detection and classification system
US8077294B1 (en) 2008-01-17 2011-12-13 Ball Aerospace & Technologies Corp. Optical autocovariance lidar
US8119971B2 (en) 2008-01-17 2012-02-21 Ball Corporation Pulse data recorder in which a value held by a bit of a memory is determined by a state of a switch
US9041915B2 (en) 2008-05-09 2015-05-26 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR
US7961301B2 (en) * 2008-05-09 2011-06-14 Ball Aerospace & Technologies Corp. Flash LADAR system
US8187097B1 (en) * 2008-06-04 2012-05-29 Zhang Evan Y W Measurement and segment of participant's motion in game play
US7929215B1 (en) 2009-02-20 2011-04-19 Ball Aerospace & Technologies Corp. Field widening lens
US8743176B2 (en) * 2009-05-20 2014-06-03 Advanced Scientific Concepts, Inc. 3-dimensional hybrid camera and production system
DE102009039601B4 (de) * 2009-09-01 2020-06-18 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Vorrichtung zur Suche und Erkennung von in landwirtschaftlichen Flächen versteckten Tieren
US8306273B1 (en) 2009-12-28 2012-11-06 Ball Aerospace & Technologies Corp. Method and apparatus for LIDAR target identification and pose estimation
US8629387B2 (en) * 2010-07-07 2014-01-14 Raytheon Company Multi-layer sensor chip assembly and method for imaging generating image data with a frame-sum mode and a time-delay integration mode
US8736818B2 (en) 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
TW201243287A (en) * 2011-04-28 2012-11-01 Hon Hai Prec Ind Co Ltd Laser range finder
US9069061B1 (en) 2011-07-19 2015-06-30 Ball Aerospace & Technologies Corp. LIDAR with analog memory
US8665454B2 (en) * 2011-09-13 2014-03-04 Osi Optoelectronics, Inc. Laser rangefinder sensor
US8744126B1 (en) 2012-03-07 2014-06-03 Ball Aerospace & Technologies Corp. Morphology based hazard detection
US9706185B2 (en) 2012-04-16 2017-07-11 Canrig Drilling Technology Ltd. Device control employing three-dimensional imaging
ES2512965B2 (es) * 2013-02-13 2015-11-24 Universitat Politècnica De Catalunya Sistema y método para escanear una superficie y programa de ordenador que implementa el método
US9110169B2 (en) * 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
US9069080B2 (en) * 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
US9469416B2 (en) 2014-03-17 2016-10-18 DM3 Aviation LLC Airplane collision avoidance
US9798007B2 (en) 2014-07-01 2017-10-24 Sikorsky Aircraft Corporation Obstacle data model construction system with range sensor shadows and use in motion planning
CN104406585B (zh) * 2014-11-19 2017-04-05 中国计量学院 基于惯性检测的激光跟踪仪靶球定位系统
US10274600B2 (en) 2015-03-27 2019-04-30 Sensors Unlimited, Inc. Laser designator pulse detection
US9648223B2 (en) * 2015-09-04 2017-05-09 Microvision, Inc. Laser beam scanning assisted autofocus
EP3144888A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing An apparatus and a method for generating data representing a pixel beam
US10063849B2 (en) 2015-09-24 2018-08-28 Ouster, Inc. Optical system for collecting distance information within a field
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US10458904B2 (en) 2015-09-28 2019-10-29 Ball Aerospace & Technologies Corp. Differential absorption lidar
US10338225B2 (en) * 2015-12-15 2019-07-02 Uber Technologies, Inc. Dynamic LIDAR sensor controller
US10281923B2 (en) 2016-03-03 2019-05-07 Uber Technologies, Inc. Planar-beam, light detection and ranging system
CN109843500B (zh) 2016-08-24 2021-06-29 奥斯特公司 用于收集场内的距离信息的光学系统
US11429970B2 (en) 2016-09-08 2022-08-30 Stripe, Inc. Managed integrated payment environment
JP6850173B2 (ja) * 2017-03-24 2021-03-31 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
WO2018198729A1 (ja) 2017-04-28 2018-11-01 シャープ株式会社 3次元画像素子および光レーダー装置
AU2018269000B2 (en) 2017-05-15 2021-03-11 Ouster, Inc. Optical imaging transmitter with brightness enhancement
US11520050B2 (en) 2017-05-31 2022-12-06 Sharp Kabushiki Kaisha Three-dimensional image element and optical radar device comprising an optical conversion unit to convert scanned pulse light into fan-like pulse light
CN109655840A (zh) * 2017-10-10 2019-04-19 鸿富锦精密工业(深圳)有限公司 扫描式激光雷达
US11340336B2 (en) 2017-12-07 2022-05-24 Ouster, Inc. Rotating light ranging system with optical communication uplink and downlink channels
US10914820B2 (en) 2018-01-31 2021-02-09 Uatc, Llc Sensor assembly for vehicles
US10871554B1 (en) 2018-03-08 2020-12-22 Government Of The United States, As Represented By The Secretary Of The Air Force Multispectral LADAR using wavelength shaping
US10439713B1 (en) * 2018-03-15 2019-10-08 The Boeing Company System and method for receiving signal information for networking using a free space optical link
US10830890B1 (en) 2018-04-12 2020-11-10 United States Of America As Represented By The Secretary Of The Air Force Multispectral LADAR using temporal dispersion
US10921245B2 (en) 2018-06-08 2021-02-16 Ball Aerospace & Technologies Corp. Method and systems for remote emission detection and rate determination
US10739189B2 (en) 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
US10760957B2 (en) 2018-08-09 2020-09-01 Ouster, Inc. Bulk optics for a scanning array
US20200081190A1 (en) * 2018-09-11 2020-03-12 Rockwell Automation Technologies, Inc. Narrow bandpass imaging lens
CN109188451A (zh) * 2018-10-15 2019-01-11 北京径科技有限公司 一种激光雷达系统
US11762151B2 (en) 2018-11-07 2023-09-19 Sharp Kabushiki Kaisha Optical radar device
US20220301303A1 (en) * 2019-08-30 2022-09-22 Flir Commercial Systems, Inc. Multispectral imaging for navigation systems and methods
US20210208251A1 (en) * 2020-01-07 2021-07-08 Continental Automotive Systems, Inc. Lidar system including scanning field of illumination
EP4119975A4 (en) * 2020-03-11 2023-08-09 Panasonic Intellectual Property Management Co., Ltd. DISTANCE DETECTION DEVICE
JP2022070645A (ja) * 2020-10-27 2022-05-13 株式会社デンソーウェーブ レーザレーダ

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020060784A1 (en) 2000-07-19 2002-05-23 Utah State University 3D multispectral lidar
US6414746B1 (en) 1999-11-24 2002-07-02 Advanced Scientific Concepts, Inc. 3-D imaging multiple target laser radar
US20050057744A1 (en) 2003-09-12 2005-03-17 Pohle Richard Henry Three-dimensional imaging with multiframe blind deconvolution

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4846297A (en) * 1987-09-28 1989-07-11 Tennant Company Automated guided vehicle
US5615116A (en) * 1990-02-05 1997-03-25 Caterpillar Inc. Apparatus and method for autonomous vehicle navigation using path data
US5446529A (en) * 1992-03-23 1995-08-29 Advanced Scientific Concepts, Inc. 3D imaging underwater laser radar
US6133989A (en) * 1993-02-09 2000-10-17 Advanced Scientific Concepts, Inc. 3D imaging laser radar
US5831673A (en) * 1994-01-25 1998-11-03 Przyborski; Glenn B. Method and apparatus for storing and displaying images provided by a video signal that emulates the look of motion picture film
US7359782B2 (en) * 1994-05-23 2008-04-15 Automotive Technologies International, Inc. Vehicular impact reactive system and method
US6084478A (en) * 1998-08-20 2000-07-04 Vitesse Semiconductor Corp. Transimpedance amplifier with automatic gain control
PT1373830E (pt) * 2001-04-04 2006-09-29 Instro Prec Ltd Medicao do perfil de uma superficie
US6560029B1 (en) * 2001-12-21 2003-05-06 Itt Manufacturing Enterprises, Inc. Video enhanced night vision goggle
US6741341B2 (en) * 2002-02-04 2004-05-25 Bae Systems Information And Electronic Systems Integration Inc Reentry vehicle interceptor with IR and variable FOV laser radar
US6864965B2 (en) * 2002-03-12 2005-03-08 Bae Systems Information And Electronic Systems Integration Inc. Dual-mode focal plane array for missile seekers
US8294809B2 (en) * 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
US8077294B1 (en) * 2008-01-17 2011-12-13 Ball Aerospace & Technologies Corp. Optical autocovariance lidar

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6414746B1 (en) 1999-11-24 2002-07-02 Advanced Scientific Concepts, Inc. 3-D imaging multiple target laser radar
US20020060784A1 (en) 2000-07-19 2002-05-23 Utah State University 3D multispectral lidar
US20050057744A1 (en) 2003-09-12 2005-03-17 Pohle Richard Henry Three-dimensional imaging with multiframe blind deconvolution

Also Published As

Publication number Publication date
US9874639B2 (en) 2018-01-23
US20150331112A1 (en) 2015-11-19
US20120249999A1 (en) 2012-10-04
US8130367B2 (en) 2012-03-06
EP1969312A4 (en) 2012-07-04
US20090115994A1 (en) 2009-05-07
US8358404B2 (en) 2013-01-22
US20130110390A1 (en) 2013-05-02
WO2007081628A3 (en) 2008-04-24
US20140063200A1 (en) 2014-03-06
EP1969312B1 (en) 2017-03-29
EP1969312A2 (en) 2008-09-17
KR20080094663A (ko) 2008-10-23
US8606496B2 (en) 2013-12-10
WO2007081628A2 (en) 2007-07-19
US9087387B2 (en) 2015-07-21

Similar Documents

Publication Publication Date Title
KR101321303B1 (ko) 3d 초점면을 사용하는 레이저 범위측정과 추적 및 지정
US7248344B2 (en) Surface profile measurement
KR102454144B1 (ko) 동기화된 회전식 lidar 및 롤링 셔터 카메라 시스템
Hebert Active and passive range sensing for robotics
US5870180A (en) Time measurement device and method useful in a laser range camera
Gelbart et al. Flash lidar based on multiple-slit streak tube imaging lidar
US7834985B2 (en) Surface profile measurement
CA2950907C (en) Linear mode computational sensing ladar
US20090201486A1 (en) Scanned laser detection and ranging apparatus
US7978312B2 (en) Three-dimensional range imaging apparatus and method
GB2374743A (en) Surface profile measurement
Stettner et al. Three dimensional Flash LADAR focal planes and time dependent imaging
Monnin et al. A 3D outdoor scene scanner based on a night-vision range-gated active imaging system
Richmond et al. Laser radar focal plane array for three-dimensional imaging
CN114035199B (zh) 一种基于雪崩二极管成像器件的光电搜索跟踪装置
KR101924208B1 (ko) 시계 가변이 가능한 적외선 영상 센서 및 이를 포함하는 영상 호밍 장치
Grasso et al. A novel low-cost targeting system (LCTS) based upon a high-resolution 2D imaging laser radar
JP3029005B2 (ja) 立体ビジョンカメラ
US20240103176A1 (en) An active imaging system
KR100906794B1 (ko) 위성용 전자 광학 카메라의 영상 처리 시스템
Grasso et al. A High-Resolution 2D Imaging Laser RADAR For Occluded Hard Target Viewing and Identification

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161007

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171005

Year of fee payment: 5