Nothing Special   »   [go: up one dir, main page]

KR102412525B1 - 광 필드 프로세서 시스템 - Google Patents

광 필드 프로세서 시스템 Download PDF

Info

Publication number
KR102412525B1
KR102412525B1 KR1020197005220A KR20197005220A KR102412525B1 KR 102412525 B1 KR102412525 B1 KR 102412525B1 KR 1020197005220 A KR1020197005220 A KR 1020197005220A KR 20197005220 A KR20197005220 A KR 20197005220A KR 102412525 B1 KR102412525 B1 KR 102412525B1
Authority
KR
South Korea
Prior art keywords
light field
user
eye
image data
wearer
Prior art date
Application number
KR1020197005220A
Other languages
English (en)
Other versions
KR20190029727A (ko
Inventor
존 그라함 맥나마라
니콜 엘리자베스 사멕
나타샤 유. 로바이나
에릭 바렌로트
크리스토퍼 엠. 해리시스
Original Assignee
매직 립, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 매직 립, 인코포레이티드 filed Critical 매직 립, 인코포레이티드
Priority to KR1020227020786A priority Critical patent/KR102520143B1/ko
Publication of KR20190029727A publication Critical patent/KR20190029727A/ko
Application granted granted Critical
Publication of KR102412525B1 publication Critical patent/KR102412525B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1015Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for wavefront analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/024Methods of designing ophthalmic lenses
    • G02C7/027Methods of designing ophthalmic lenses considering wearer's parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/04Generating or distributing clock signals or signals derived directly therefrom
    • G06F1/14Time supervision arrangements, e.g. real time clock
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C2202/00Generic optical aspects applicable to one or more of the subgroups of G02C7/00
    • G02C2202/22Correction of higher order and chromatic aberrations, wave front measurement and calculation

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Eye Examination Apparatus (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

웨어러블 검안 디바이스가 개시된다. 디바이스는 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하기 위해 외향 머리-장착 광 필드 카메라(예컨대, 16)를 구비할 수 있다. 디바이스는 또한, 수치 광 필드 이미지 데이터에 액세스하고, 사용자의 눈에 대한 시력 처방을 획득하며, 그리고 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 시력 처방에 기반하여 수치 광 필드 이미지 데이터에 일정 크기의 포지티브 또는 네거티브 광학력을 계산적으로 도입하기 위해 광 필드 프로세서(예컨대, 76)를 구비할 수 있다. 디바이스는 또한 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하기 위해 머리-장착 광 필드 디스플레이(예컨대, 62)를 구비할 수 있다.

Description

광 필드 프로세서 시스템
[0001] 본 출원은, 2016년 7월 25일자로 출원되었고 발명의 명칭이 "LIGHT FIELD PROCESSOR SYSTEM"인 미국 가특허출원 제 62/366,524호, 및 2016년 12월 29일자로 출원되었고 발명의 명칭이 "LIGHT FIELD PROCESSOR SYSTEM"인 미국 가특허출원 제 62/440,286호를 우선권으로 청구하며, 이로써 이들 각각의 전체 내용들은 인용에 의해 본원에 포함된다.
[0002] 본 개시내용은 건강 상태들 및 질병들을 진단, 모니터링 및 치료하기 위한 다양한 방법들 및 시스템들에 관한 것이다.
[0003] 검안 기구들 및 기법들은 눈-관련 질병들을 진단하고 치료하기 위해 임상의들에 의해 일상적으로 사용된다. 통상의 검안 디바이스의 예가 도 1에 도시된다. 예시된 디바이스를 사용하는 동안, 환자는 절차의 전체 지속기간 동안 특정 앉은 자세로 포지셔닝될 수 있으며, 이는 전형적으로 대략 몇 초에서 몇 분까지 지속될 수 있다.
[0004] 바람직하지 않게, 검안 디바이스들은 크고, 부피가 크며 값비싼 디바이스들인 경향이 있으며, 전형적으로 의사의 진료실들에서만 독점적으로 사용된다. 따라서, 환자들은, 검안사와 약속을 정하고, 임의의 진단들이나 치료를 받기 위해 의사를 방문하도록 요구될 수 있다. 이는 많은 환자들에게 단념 요인(deterring factor)이 될 수 있고, 이런 환자들은 오랜 시간 기간들 동안, 어쩌면 상태(condition)가 악화될 때까지 의사 진료실 방문을 늦출 수 있다. 악화된 상태는, 환자가 적절한 시기에 진단받았었거나 치료되었더라면 상태가 보다 쉽게 완화될 수 있었을 때를 목표로 훨씬 더 극심한 치료들 또는 절차들을 요구할 수 있다. 또한, 대부분의 검안 디바이스들의 크고 부피가 큰 특성은, 환자들이 불편한 자세를 취하도록 만들며, 이는 결국 오진들 및 환자 실수(patient error)의 위험성을 증가시킬 수 있다.
[0005] 그에 따라서, 위에서 설명된 문제점들 중 하나 이상을 처리하는 건강 시스템이 필요하다.
[0006] 웨어러블 검안 디바이스가 본원에서 설명된다. 일부 실시예들에서, 웨어러블 검안 디바이스는, 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하도록 구성되는 외향 머리-장착 광 필드 카메라; 수치 광 필드 이미지 데이터에 액세스하고, 사용자의 눈에 대한 시력 처방을 획득하며, 그리고 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 상기 시력 처방에 기반하여 수치 광 필드 이미지 데이터에 일정 크기의 포지티브 또는 네거티브 광학력(optical power)을 계산적으로 도입하도록 구성되는 광 필드 프로세서; 및 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하도록 구성되는 머리-장착 광 필드 디스플레이를 포함한다.
[0007] 웨어러블 검안 디바이스를 사용하기 위한 방법이 또한 개시된다. 일부 실시예들에서, 방법은, 사용자의 주변들로부터 광을 수신하고 그리고 광 필드 카메라를 사용하여 수치 광 필드 이미지 데이터를 생성하는 단계; 수치 광 필드 이미지 데이터에 액세스하는 단계; 사용자의 눈에 대한 시력 처방을 획득하는 단계; 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 시력 처방에 기반하여 수치 광 필드 이미지 데이터에 일정 크기의 포지티브 또는 네거티브 광학력을 계산적으로 도입하는 단계; 및 광 필드 디스플레이를 사용하여, 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하는 단계를 포함한다.
[0008] 도면들은 본원에서 개시된 실시예들의 일부 예들을 예시하며, 발명을 제한하지 않는다. 도면들은 실적대로 도시된 것이 아니며 유사한 구조들 또는 기능들의 엘리먼트들은 도면들 전반에 걸쳐 동일한 참조 번호들로 표현된다는 것을 유의해야 한다.
[0009] 도 1은 임상의의 진료실에서 사용되고 있는 통상의 검안 기구를 예시한다.
[0010] 도 2는 인간의 눈의 단면을 예시한다.
[0011] 도 3a-3d는 예시적인 검안 디바이스의 다양한 구성들을 예시한다.
[0012] 도 4a-4d는 특정 사용자에 대한 검안 디바이스를 구성하기 위해 취해진 다양한 눈 및 머리 측정들을 예시한다.
[0013] 도 5는 일부 실시예들에 따른 검안 디바이스의 다양한 컴포넌트들의 개략도를 도시한다.
[0014] 도 6은, 사용자의 시야(field of view)의 적어도 일부로부터 광 필드 이미지 데이터(예컨대, 사진들 및/또는 비디오)를 캡처하고 그런다음 캡처된 광 필드 이미지 데이터를 프로세싱하고 프로세싱된 광 필드 이미지 데이터를 사용자에게 디스플레이하기 위한 광 필드 프로세서 시스템을 예시한다.
[0015] 도 7은 도 6의 광 필드 프로세서 시스템의 실시예의 개략도이다.
[0016] 도 8은, 사용자에 대한 근시, 원시 및/또는 난시를 보정하기 위해, 도 6 및 7에 도시된 광 필드 프로세서 시스템을 사용하기 위한 방법을 예시하는 흐름도이다.
[0017] 도 9a 및 9b는 근시로 고생하는 사용자의 눈의 개략적 단면도를 예시한다.
[0018] 도 10a 및 10b는 원시로 고생하는 사용자의 눈의 개략적 단면도를 예시한다.
[0019] 도 11a 및 11b는 난시로 고생하는 사용자의 눈의 개략적 단면도를 예시한다.
[0020] 도 12는 노안을 보정하기 위해 광 필드 프로세서 시스템을 사용하기 위한 예시적 방법을 도시한다.
[0021] 도 13은 집중력 결핍들, 이를테면 사시증 및/또는 약시에 의해 유발되는 것들을 치료하기 위해 광 필드 프로세서 시스템을 사용하기 위한 예시적 방법을 예시한다.
[0022] 도 14는, 외향 통합 이미징 카메라, 광 필드 프로세서 및 통합 이미징 디스플레이(또한 하나 이상의 광검출기들을 포함함)를 포함하는 광 필드 프로세서 시스템의 실시예의 개략도이다.
[0023] 도 15는, 착용자 또는 환자의 비전(vision)을 보정 또는 개선하는 적절한 굴절을 결정하기 위해, 본원에서 설명된 웨어러블 디바이스들이 굴절기 또는 포롭터(phoropter)로서 기능하는 데 어떻게 사용될 수 있는지를 예시한다.
[0024] 도 16은 가상 포롭터로서 사용하도록 구성된 광 필드 프로세서 시스템의 착용자의 시력 처방을 결정하기 위한 예시적인 방법을 예시한다.
[0025] 도 17은, 망막 검영법을 수행하는 검안 디바이스로서 구성된 광 필드 프로세서 시스템의 착용자의 굴절 오차를 측정하기 위한 예시적 방법을 예시한다.
[0026] 도 18a-18c는 자동굴절기로서 구성된 증강 및/또는 가상 현실 시스템의 예시적 실시예를 예시한다.
[0027] 도 19는 황반 변성의 임의의 영역들을 진단, 검출 및/또는 식별하기 위해, 본원에서 설명된 시스템들을 사용하기 위한 방법을 도시한다.
[0028] 발명의 다양한 실시예들은, 사용자에 대한 건강-관련 진단, 모니터링 및 치료를 수행하기 위해 사용될 수 있는 사용자-웨어러블 건강 시스템을 구현하기 위한 디바이스들, 방법들, 시스템들 및 제조 물품들에 관한 것이다. 발명의 소정의 실시예들의 다양한 목적들, 특징들 및 장점들은, 임의의 단일 실시예가 그러한 모든 목적들, 특징들 및 장점들을 포함하거나 충족시키도록 요구되는 것은 아니지만, 상세한 설명, 도면들 및 청구항들에서 설명된다.
[0029] 다양한 실시예들은 당업자들이 발명들을 실시하는 것을 가능하게 하기 위해, 예시적 예들로서 제공되는 도면들을 참조하여 상세히 설명될 것이다. 특히, 하기의 도면들 및 예들은 본원에서 설명되는 발명들의 범위를 제한하는 것을 의미하지 않는다. 발명들의 소정의 엘리먼트들이 알려진 컴포넌트들(또는 방법들 또는 프로세스들)을 사용하여 부분적으로 또는 완전히 구현될 수 있는 경우, 본 발명들의 이해를 위해 필요한 이러한 알려진 컴포넌트들(또는 방법들 또는 프로세스들)의 그 부분들만이 설명될 것이며, 이러한 알려진 컴포넌트들(또는 방법들 또는 프로세스들)의 다른 부분들의 상세한 설명은 발명들을 불명료하게 하지 않기 위해 생략될 것이다. 추가로, 발명들의 실시예들은 또한, 본원에서 언급되는 컴포넌트들에 대한 현재의 그리고 추후 알려지는 등가물들을 포함한다.
[0030] 사용자-웨어러블 건강 시스템(예컨대, 사용자의 눈들과 상호작용하는 사용자-웨어러블 검안 디바이스)를 통해 환자들의 건강 질병들을 진단, 처리 및/또는 모니터링하기 위한 방법들 및 시스템들이 본원에서 개시된다. 하나 이상의 실시예들에서, 디바이스는 하나 이상의 진단 또는 치료 요법(treatment regimen)들을 수행할 수 있는 머리-장착 시스템일 수 있다. 일부 다른 실시예들에서, 디바이스는 고정(예컨대, 내과의사의 진료실에 고정)될 수 있다. 하나 이상의 실시예들에서, 디바이스는 건강 또는 검안 목적들을 위해 다수의 VR(virtual reality), AR(augmented reality) 및/또는 MR(mixed reality) 기법들을 유리하게 조합하는 VR, AR 및/또는 MR 시스템일 수 있다. VR 시스템들은 사용자가 경험할 수 있는 시뮬레이팅된 환경을 생성한다. 이는 컴퓨터-생성 이미지 데이터 또는 다른 광 신호들을 디스플레이를 통해 사용자에게 제공함으로써 이루어질 수 있다. 이 이미지 데이터는 시뮬레이팅된 환경에 사용자가 몰입하는 감각 경험을 생성한다. VR 시나리오는 전형적으로, 실제 실세계 이미지 데이터를 또한 포함하기 보다는, 단지 컴퓨터-생성 이미지 데이터만의 제공을 수반한다. AR 시스템들은 일반적으로 시뮬레이팅된 엘리먼트들로 실세계 환경을 보충한다. 예컨대, AR 시스템들은 주변 실세계 환경의 뷰를 디스플레이를 통해 사용자에게 제공할 수 있다. 그러나, 컴퓨터-생성 이미지 데이터 또는 다른 광 신호들이 또한, 실세계 환경을 향상시키기 위해 디스플레이 상에 제공될 수 있다. 이 컴퓨터-생성 이미지 데이터는 실세계 환경에 정황적으로 관련된 엘리먼트들을 포함할 수 있다. 이러한 엘리먼트들은 시뮬레이팅된 텍스트, 이미지들, 오브젝트들 등을 포함할 수 있다. 시뮬레이팅된 엘리먼트들은 종종 실시간으로 상호작용할 수 있다. MR 시나리오는 일 타입의 AR 시나리오이며, 전형적으로, 자연계에 통합되고 이 자연계에 응답하는 가상 오브젝트들을 수반한다. 예컨대, MR 시나리오에서, AR 이미지 콘텐츠는 실세계의 오브젝트들과 상호작용하는 것으로 지각될 방식으로 제공될 수 있다.
[0031] 일부 다른 실시예들에서, 임상의는 진단 및/또는 시뮬레이션 및 트레이닝 목적들을 위해 디바이스를 착용할 수 있다. 아래에서 설명되는 다양한 실시예들은 AR 시스템들과 관련하여 건강 시스템들의 새로운 패러다임을 논의하지만, 본원에서 개시되는 기법들은 임의의 기존 및/또는 알려진 AR 시스템들과 독립적으로 사용될 수 있다는 것이 인지되어야 한다. 따라서, 아래에서 논의되는 예들은 단지 예시 목적들을 위한 것이며 AR 시스템들로 제한되는 것으로 이해되어서는 안된다.
[0032] 앞서 주목된 바와 같이, 본 발명들의 실시예들은, 사용자-웨어러블 진단 건강 또는 건강 치료 시스템들(일반적으로, 본원에서 건강 시스템들로 지칭됨), 이를테면 검안 기구들이 환자들에 의해 착용되고, 다양한 건강-관련(예컨대, 눈-관련) 질병들에 특정적인 하나 이상의 애플리케이션들로 프로그래밍될 수 있는 새로운 패러다임을 제공한다. 일부 실시예들에서, 진단 및/또는 치료는 광학 디바이스들, 기계적 구조들, 프로세싱 알고리즘들 또는 이들의 임의의 조합에 의해 제공될 수 있다. 일부 다른 실시예들에서, 환자가 착용한 건강 시스템은, 향상된 치료 또는 진단 목적들을 위해 감지 및/또는 자극 능력들을 추가로 수반할 수 있다. 일부 실시예들에서, 머리-착용 증강 현실 시스템은 다양한 건강-관련(예컨대, 검안) 측정들, 평가들, 진단들 또는 치료들을 제공하기 위해 사용될 수 있다.
[0033] 머리-장착 증강 현실 디스플레이 시스템이 사용자의 눈들과 상호작용하는 것을 고려해 볼 때, 눈-관련 진단 및 치료들에 대해 다수의 애플리케이션들이 구상될 수 있다. 추가로, 눈 이외의(non-eye) 진단 및 치료에서의 다수의 다른 애플리케이션들이 유사하게 구상될 수 있다. 그에 따라서, 본원에서 제공되는 개시내용은 눈의 진단, 모니터링 및/또는 치료로 제한되지 않는다. 본원에서 개시되는 실시예들은 또한, 사용자의 심혈관 및 신경 건강을 포함(그러나 이로 제한되지 않음)하는 사용자의 건강에 대한 다른 영역들을 진단, 모니터링 및/또는 치료하기 위해 적용될 수 있다.
[0034] 건강 시스템의 다수의 실시예들이 다양한 눈-관련 및 다른 질병들과 관련하여 논의될 것이다. 건강 시스템의 다양한 실시예들을 파악하기 이전에, 환자들에 영향을 미칠 수 있는 공통 질병들에 대한 정황(context)을 제공하기 위해 인간의 눈의 생물학적 메커니즘들이 아래에서 간략히 논의될 것이다.
[0035] 도 2를 참조하면, 인간의 눈의 간략화된 단면도가 각막(42), 홍채(44), 렌즈―또는 "수정체"(46), 공막(48), 맥락막 계층(50), 황반(52), 망막(54), 및 뇌로의 시신경 경로(56)를 특징으로 묘사된다. 황반은 중간정도의(moderate) 세부사항을 보기 위해 활용되는 망막의 중심이다. 황반의 중심은 "중심와"로 지칭되는 망막의 부분이며, 이는 가장 정밀한 세부사항들을 보기 위해 활용되며 망막의 임의의 다른 부분보다 더 많은 광수용체들(시각적으로(per visual degree) 대략 120개의 추상체들)을 포함한다. 인간 시각 시스템은 패시브 센서 타입의 시스템이 아니며; 이는 환경을 활성적으로 스캔하도록 구성된다. 이미지를 캡처하기 위해 평판 스캐너를 사용하는 것과, 또는 종이에서 점자를 읽기 위해 손가락을 사용하는 것과 다소 유사한 방식으로, 눈의 광수용체들은 일정한 자극 상태에 지속적으로 응답하기 보다는, 자극에서의 변경들에 대한 응답으로 파이어링한다(fire). 따라서, 뇌에 광수용체 정보를 제공하기 위해 모션이 요구된다. 실제로, 눈의 근육들을 마비시키기 위해 활용되었던 물질들, 이를테면 코브라 독을 이용한 실험들은, 인간 피험자가 자신의 눈들을 뜬 상태로, 독으로 인해 눈들이 마비된 상태로 정적 장면을 보게 포지셔닝되는 경우, 실명을 경험할 것임을 보여주었다. 다른 말로, 자극의 변경들이 없다면, 광수용체들은 뇌에 입력을 제공하지 않으며 실명이 경험된다. 이는 정상적인 인간들의 눈들이 좌우 모션으로 떨리거나 또는 앞뒤로 움직이는 것("미소안운동"으로 불림)으로 관찰되었던 적어도 하나의 이유인 것으로 여겨진다.
[0036] 앞서 주목된 바와 같이, 망막의 중심와는 광수용체들의 가장 큰 밀도를 포함하며, 그리고 인간들은 전형적으로, 그들이 그들 시야 전반에 걸쳐 고해상도 시각화 능력들을 갖고 있다는 것을 인지하고 있지만, 인간들은 일반적으로, 실제로는, 중심와로 최근 캡처된 고해상도 정보의 지속적 기억(persistent memory)과 함께, 휙 스쳐지나가는(swept around) 단지 작은 고해상도 중심만을 갖는다. 다소 유사한 방식으로, 눈의 초점 거리 조절 메커니즘(모양체근들은 일정 방식으로 수정체에 동작가능하게 커플링되며, 여기서 모양체 이완은 긴장한(taut) 모양체 연결 섬유들로 하여금 보다 더 먼 거리들에서 보게 하는 데 사용되는 더 긴 초점 길이들에 대해 렌즈를 평탄하게 하는 반면, 모양체 수축은 느슨한 모양체 연결 섬유들을 유발하여, 렌즈가 보다 더 짧은 거리들에서 보게 하는 데 사용되는 더 짧은 초점 길이들에 대해 보다 둥근 지오메트리를 취하게 할 수 있음)은, 목표된 초점 길이의 가까운 측(close side)과 먼 측(far side) 둘 모두에 "디옵트릭 블러(dioptric blur)"라 불리는 것을 작은 양을 주기적으로 유도하기 위해 대략 1/4 내지 1/2 디옵터만큼 앞뒤로 떨린다. 이는, 응시된 오브젝트의 망막 이미지를 대략 초점 내에 유지하고 원근조절을 지속적으로 보정하는 것을 돕는 순환(cyclical) 네거티브 피드백으로서 뇌의 원근조절 제어 기능성에 의해 활용된다.
[0037] 뇌의 시각화 중심은 또한, 양쪽 눈들 및 서로에 대한 이들의 컴포넌트들의 모션으로부터 귀중한 인지 정보를 얻는다. 두 눈들의 서로에 대한 버전스(vergence) 움직임들(즉, 오브젝트를 응시할 시에, 눈들의 시선들을 수렴시키기 위해 서로를 향하는 또는 서로 멀어지는 동공들의 롤링 움직임들)은 눈들의 렌즈들의 초점(또는 "원근조절")과 밀접하게 연관된다. 정상적인 상태들하에서, 상이한 거리에 있는 오브젝트에 초점을 맞추기 위해, 눈들의 렌즈들의 초점을 변경하는 것 또는 눈들을 원근조절하는 것은, "원근조절-버전스 반사"로서 알려진 관계 하에, 동일한 거리에 대한 버전스의 매칭 변경을 자동으로 유발할 것이다. 마찬가지로, 버전스의 변경은, 정상적인 상태들하에, 원근조절의 매칭 변경을 트리거할 것이다. 일부 종래의 입체 AR 또는 VR 구성들에 대해 행해지는 것처럼 이런 반사에 대항하는 것(working against)은, 눈 피로, 두통들 또는 사용자들의 다른 형태들의 불편함을 유발하는 것으로 알려졌다.
[0038] 눈들을 지닌(house) 머리의 움직임은 또한, 오브젝트들의 시각화에 중요한 영향력을 갖는다. 인간들은 그들 주위의 세계를 보기 위해 자신들의 머리들을 움직인다; 이들은 종종 관심 오브젝트에 대해 머리를 재포지셔닝하고 재배향하는 상당히 일정한 상태에 있다. 추가로, 대부분의 사람들은, 특정 오브젝트에 초점을 맞추기 위해 자신들의 눈 시선을 중심으로부터 약 20도를 초과하게 움직일 필요가 있을 때, 자신들의 머리를 움직이는 것을 선호한다(즉, 사람들은 전형적으로 무엇인가를 "곁눈질로" 보는 것을 좋아하지 않는다). 또한, 인간들은 전형적으로, 오디오 신호 캡처를 개선시키기 위해 사운드들과 관련하여 자신들의 머리들을 움직이거나 스캔하고, 머리와 관련해 귀들의 지오메트리를 활용한다. 인간 시각 시스템은, 머리 모션과 눈 버전스 거리의 함수로써 상이한 거리들에 있는 오브젝트들의 상대적 모션과 관련된 "머리 모션 시차"로 불리는 것에서 강력한 깊이 큐들을 얻는다(gain)(즉, 사람이 좌우로 자신의 머리를 움직이고 오브젝트에 대한 응시를 유지하는 경우, 그 오브젝트로부터 더 멀리있는 아이템들은 머리와 동일한 방향으로 움직이는 것으로 보일 것인 반면, 그 오브젝트 앞에 있는 아이템들은 머리 모션 반대로 움직이는 것으로 보일 것이며; 이들은 사물이 사람과 관련된 환경에 공간적으로 위치된 경우 매우 중요한(아마도 입체시와 같이 강력한) 큐들이다. 또한, 머리 모션은 물론 오브젝트들 주위를 보는데도 활용된다.
[0039] 또한, 머리 및 눈 모션은 "전정안구반사(vestibulo-ocular relfex)"라 불리는 것으로 조정되며, 이는 머리 회전들 동안 망막에 관한 이미지 정보를 안정화시켜, 오브젝트 이미지 정보를 망막 상에 대략 중심을 계속 두게 한다. 머리 회전에 대한 응답으로, 눈들은 오브젝트 상에 안정적인 응시를 유지하기 위해 반대 방향으로 반사적으로 그리고 비례적으로 회전된다. 이 보상 관계의 결과로서, 많은 인간들은 자신들의 머리를 앞뒤로 흔들면서 책을 읽을 수 있다. (흥미롭게도, 이는, 일반적으로, 머리가 대략 고정된 상태에서 동일한 스피드로 책이 앞뒤로 움직이는 경우는 해당되지 않는다 ―사람은 움직이는 책을 읽을 수 있을 가능성이 없다. 전정안구반사는 머리 및 눈 모션 조정 중 하나이며, 일반적으로 손 모션에 대해서는 발생되지 않았다.) 이 패러다임은 환자-착용 건강 시스템들에 중요할 수 있는데, 이는 사용자의 머리 모션들이 눈 모션들과 비교적 직접적으로 연관될 수 있기 때문이며, 시스템은 바람직하게 이 관계로 작동하도록 준비될 것이다. 따라서, 인간의 눈의 환자-착용 또는 고정 디스플레이-기반 건강 시스템, 특징들 및 때로는 제한들을 설계할 때, 바람직하게, 눈의 자연스러운 메커니즘들을 강조하기(stressing) 보다는 이들과 작동하는 의미있는 가상 콘텐츠를 제공하는 것이 고려된다. 또한, AR 디스플레이 시스템들의 건강-관련 애플리케이션들의 맥락에서, 이는 본원에서 개시된 바와 같이, 다양한 장점들을 제공할 수 있다. 앞서 논의된 바와 같이, 건강 시스템의 디스플레이는 AR 시스템들과 독립적으로 구현될 수 있지만, 아래에서의 다수의 실시예들은 오직 예시 목적들만을 위해 AR 시스템들과 관련하여 설명된다.
[0040] 이제 도 3a-3d를 참조하면, 일부 일반적 부품 옵션들이 예시된다. 도 3a-3d의 실시예들이 머리-장착 디스플레이들을 예시하지만, 동일한 컴포넌트들이 일부 실시예들에서 마찬가지로 고정 건강 시스템들에 통합될 수 있다는 것이 인지되어야 한다.
[0041] 도 3a에 도시된 바와 같이, 사용자(60)는 사용자의 눈들 앞에 포지셔닝된 디스플레이 시스템(62)에 커플링된 프레임(64) 구조를 포함하는 환자-착용 검안 디바이스를 착용하고 있는 것으로 묘사된다. 프레임(64)은 건강 시스템의 애플리케이션에 의존하여 다수의 검안-특정 측정 서브시스템들에 커플링될 수 있다. 일부 실시예들은 하나 이상의 검안 애플리케이션들을 위해 구축될 수 있고, 다른 실시예들은, 또한 검안 애플리케이션들용으로 가능한 일반적 AR 시스템들일 수 있다. 어느 경우든지, 하기의 개시내용은 검안 기구 및/또는 치료를 위해 사용되는 AR 시스템 또는 건강 시스템의 가능한 컴포넌트들을 설명한다.
[0042] 하나 이상의 실시예들에서, 건강 시스템은 환자 또는 사용자에게 착용된다. 일부 다른 실시예들에서, 건강 시스템은 다른 사람(예컨대, 내과의사 또는 임상의)에 의해 착용될 수 있으며, 시스템의 착용자가 아닌 환자에 대한 진단 테스트들 및/또는 치료 프로토콜의 세트를 수행하는 데 사용될 수 있다. 아래의 애플리케이션들 중 임의의 것은, 환자에 대한 진단 테스트들, 치료 프로토콜들 및/또는 모니터링(실시간 또는 종적(longitudinal))을 수행하기 위해서 다른 사람들에 의해 착용된 건강 시스템들에도 역시 사용될 수 있다는 것이 인지되어야 한다.
[0043] 스피커(66)는 묘사된 구성에서 프레임(64)에 커플링되며 사용자의 외이도에 인접하게 포지셔닝될 수 있다. (일 실시예에서, 다른 스피커(미도시)가 스테레오/형상화가능 사운드 제어를 제공하기 위해 사용자의 다른 외이도에 인접하게 포지셔닝된다.) 마이크로폰(55)은 또한, 주변 환경 또는 사용자로부터의 사운드를 검출하기 위해 프레임에 커플링될 수 있다. 일부 실시예들에서, 다른 마이크로폰(예시되지 않음)이 제공(예컨대, 사용자의 오른쪽상의 프레임(64)에 커플링)될 수 있다. 하나 이상의 실시예들에서, 건강 시스템은 디스플레이(62)를 가질 수 있으며, 이 디스플레이(62)는 이를테면, 유선 리드 또는 무선 연결성(68)에 의해, 로컬 프로세싱 및 데이터 모듈(70)에 동작 가능하게 커플링될 수 있고, 이 로컬 프로세싱 및 데이터 모듈(70)은 다양한 구성들로 장착될 수 있는데, 이를테면, 프레임(64)에 고정적으로 부착되거나, 도 3b의 실시예에 도시된 바와 같이 헬멧 또는 모자(80)에 고정적으로 부착되거나, 머리폰들에 임베딩되거나, 도 3c의 실시예에 도시된 바와 같이 백팩-스타일 구성으로 사용자(60)의 몸통(82)에 제거가능하게 부착되거나 또는 도 3d의 실시예에 도시된 바와 같이 벨트-커플링 스타일 구성으로 사용자(60)의 엉덩이(84)에 제거가능하게 부착된다.
[0044] 로컬 프로세싱 및 데이터 모듈(70)은 전력-효율 프로세서 또는 제어기 뿐만아니라 디지털 메모리, 이를테면 플래시 메모리를 포함할 수 있고, 이 둘 모두는 데이터의 프로세싱, 캐싱 및 저장을 보조하는 데 활용될 수 있으며, 이 데이터는, a) 프레임(64)에 동작가능하게 커플링될 수 있는 센서들, 이를테면 이미지 캡처 디바이스들(이를테면, 카메라들), 마이크로폰들, 관성 측정 유닛들, 가속도계들, 컴퍼스(compass)들, GPS 유닛들, 라디오 디바이스들 및/또는 자이로(gyro)들로부터 캡처되고; 그리고/또는 b) 원격 프로세싱 모듈(72) 및/또는 원격 데이터 저장소(74)를 사용하여 획득 및/또는 프로세싱되고, 그런 프로세싱 또는 리트리벌(retrieval) 후 가능하게 디스플레이(62)에 전달된다. 로컬 프로세싱 및 데이터 모듈(70)은, 이를테면 유선 또는 무선 통신 링크들(76, 78)을 통해, 원격 프로세싱 모듈(72) 및 원격 데이터 저장소(74)에 동작가능하게 커플링될 수 있어서, 이들 원격 모듈들(72, 74)은 서로 동작가능하게 커플링되고 로컬 프로세싱 및 데이터 모듈(70)에 대한 자원들로서 이용가능하다.
[0045] 일부 실시예들에서, 원격 프로세싱 모듈(72)은 데이터 및/또는 이미지 정보를 분석 및 프로세싱하도록 구성된 하나 이상의 비교적 강력한 프로세서들 또는 제어기들을 포함할 수 있다. 일부 실시예들에서, 원격 데이터 저장소(74)는 "클라우드" 자원 구성에서 인터넷 또는 다른 네트워킹 구성을 통해 이용가능할 수 있는 비교적 대규모의 디지털 데이터 저장 설비를 포함할 수 있다. 일부 실시예들에서, 모든 데이터가 저장되고 모든 계산이 로컬 프로세싱 및 데이터 모듈에서 수행되어, 임의의 원격 모듈들로부터 완전히 자율적인 사용이 허용된다.
[0046] 유리하게, 도 3a-3d에 설명된 것들과 유사한 건강 시스템들(또는 검안 애플리케이션들을 갖는 AR 시스템들)은 사용자의 눈들 및 머리에 대한 고유한 액세스를 제공한다. 건강 시스템은 사용자의 눈과 상호작용하여 사용자가 3D 가상 콘텐츠를 인식할 수 있게 하고, 많은 실시예들에서, 사용자의 눈들과 관련된 다양한 생체인식들(biometrics)(예컨대, 눈 버전스, 눈 모션, 망막 구조들, 전방 및 후방 눈 지오메트리, 눈 움직임들의 패턴들 등)를 추적한다는 것을 고려하면, 결과적인 추적된 데이터는 본원에서 추가로 상세히 설명되는 바와 같은 건강-관련 애플리케이션들에서 유리하게 사용될 수 있다. 사용자의 눈들에 대한 이러한 전례없는 액세스는 다양한 건강 애플리케이션들의 구현에 유익하다. 건강 질병의 타입에 의존하여, 건강 시스템은 질병을 진단 및/또는 치료하기 위해 사용자의 눈들의 이미징, 이들의 감지(측정들을 포함함) 및/또는 이들에 대한 자극을 제공하도록 구성될 수 있다.
[0047] 하나 이상의 실시예들에서, 증강 현실 디스플레이 시스템은 환자-착용 또는 사용자-착용 검안 디바이스로서 사용될 수 있다. 검안 기구는 의료 절차를 실행하고 그리고/또는 사용자의 눈들에 대한 테스트들 또는 치료들을 수행하기 위해 환자의 눈을 보고 검사하도록 임상의에 의해 사용된다. 전통적으로, 검안 디바이스들은 크고 부피가 큰 고정 디바이스들이었고, 종종, 환자가, 임상의 또는 의사가 환자에 대한 눈-관련 테스트들을 수행하는 의사의 진료실로 가도록 요구한다. 전형적으로, 임상의가 일련의 테스트들을 완료할 때까지, 환자는 검안 기구 디바이스(예컨대, 검안 디바이스의 턱받이 컴포넌트 상의 턱, 앞을 향하는 머리 등)에 국한된다. 따라서, 현재의 접근법은 다수의 제한들을 갖는다.
[0048] 테스트들을 위해 무겁고 부피가 큰 디바이스를 사용하는 것 외에도, 통상의 접근법은 의사의 감독을 요구하고, 환자는 추가의 테스트들/진행 평가들을 위해 임상의의 진료실에 반복적으로 돌아가야 할 필요가 있을 수 있고, 연장된 시간 기간 동안 불편하거나 제한적인 포지션들로 있어야 할 필요가 있을 수 있다. 또한, 환자가 검안 디바이스에 노출되는 짧은 시간 지속기간 동안을 고려하면, 환자를 진단 또는 치료하기 위해 임상의가 수집할 수 있는 데이터의 양에 대한 한계들이 존재한다. 통상의 접근법은 사용자의 거동과 사용자의 배향의 동적 변경들을 고려하지 않는다. 통상의 접근법 하에서 수행된 다수의 테스트들은, 특정의 일반적으로 정적인 포지션으로 사용자가 제한될 것을 요구한다. 그러나 사용자가 예컨대, 시각적 필드 테스트를 받고 있으며 제한된 주의 집중 기간(attention span)을 갖더라도, 이들은 자신의 머리와 눈들을 움직일 수 있고, 그리하여 잡음을 생성하고, 아마도, 부정확한 테스트 결과들을 유발한다. 또한, 통상의 접근법은 매력적이지 않고, 흥미롭지도 않으며, 상호작용식도 아니다.
[0049] 하나 이상의 실시예들에서, 도 3a-3d에 도시된 것들과 유사한 머리-착용 건강(예컨대, 검안) 디바이스는 데이터를 추적하고, 하나 이상의 눈-관련 질병들을 식별 및 보정하고 그리고/또는 다른 건강 이슈들을 방지하는데 도움을 주도록 환자에 의해 사용될 수 있다. 하나 이상의 실시예들에서, AR 디스플레이 시스템은 머리-착용 건강(예컨대, 검안) 디바이스로서 사용될 수 있다. 아래에서 설명되는 다수의 실시예들은 머리-착용 실시예들로 구현될 수 있는 반면, 다른 실시예들은 고정 디바이스들로 구현될 수 있다는 것이 인지되어야 한다. 또한, 일부 실시예들은 (예컨대, 의료 안전 문제들, 규제 문제들 등으로 인해) 의사의 감독을 받는 진단, 모니터링 및/또는 치료들을 위한 시스템들 및 방법들을 구현하기 위해 AR 기술을 활용할 수 있는 반면, 다른 실시예들은 본원에서 설명된 바와 같이, 머리-착용 건강 디바이스들 또는 AR 디바이스를 통한 자체-진단 및/또는 모니터링을 위해 구현될 수 있거나, 또는 특정 질병에 대한 치료 프로토콜의 부분으로서 구현될 수 있다. 예시 목적들을 위해, 본 개시내용은 주로 머리-착용 건강 디바이스들 및 특히 AR 디바이스들에 초점을 맞출 것이지만, 동일한 원리들이 비-머리-착용 실시예들에도 적용될 수 있다는 것이 인지되어야 한다.
[0050] 하나 이상의 실시예들에서, AR 디스플레이 디바이스는 환자-착용 건강 디바이스로서 사용될 수 있다. 디바이스는 전형적으로 특정 사용자의 머리 및/또는 얼굴 특징들에 대해 맞춰질 수 있으며, 광학 컴포넌트들은 사용자의 눈들에 정렬된다. 이러한 구성 단계들은, 일반적으로 생리적 부작용들, 이를테면 두통, 구토, 불편함 등이 없는 증강 현실 경험을 사용자에게 제공하는 것을 보장하도록 돕기 위해 사용될 수 있다. 따라서, 하나 이상의 실시예들에서, 환자-착용 건강 시스템은 각각의 개별 사용자에 대해 (물리적으로 및 디지털적으로) 구성되고, 프로그램들의 세트가 사용자를 위해 특별히 보정될 수 있다. 다른 시나리오들에서, AR 디바이스는 다양한 사용자들에 의해 편안하게 사용될 수 있다. 예컨대, 일부 실시예들에서, 환자 착용 건강 시스템은 정확한 맞춤 목적들을 위해 사용자의 눈들 간의 거리, 머리 착용 디스플레이 및 사용자의 눈들로부터의 거리, 사용자의 이마의 곡률, 귀들까지의 거리, 또는 콧대의 높이 중 하나 이상을 알고 있다. 이러한 모든 측정들은 정해진 사용자에 맞는 머리-착용 디스플레이 시스템을 제공하는 데 사용될 수 있다. 일부 다른 실시예들에서, 이러한 측정들은 검안 기능들을 수행하는데 필수적이진 않을 수 있다. 환자-착용 건강 시스템들의 맥락에서, 머리-착용 디바이스들의 이러한 양상은, 시스템이 이미 사용자의 신체적 특징들(예컨대, 눈 사이즈, 머리 사이즈, 눈들 간의 거리 등)에 대한 측정들의 세트 및 환자의 치료 및 진단에 사용될 수 있는 다른 데이터를 갖기 때문에, 유리할 수 있다.
[0051] 도 4a-4d를 참조하면, 건강 시스템은 각각의 사용자에 대해 맞춤화될 수 있다. 도 4a에 도시된 바와 같이 머리-장착 환자-착용 건강 시스템을 맞출 때 사용자의 머리 형상(402)이 고려될 수 있다. 유사하게, 눈 컴포넌트들(404)(예컨대, 광학기기, 광학기기를 위한 구조 등)는 도 4b에 도시된 바와 같이, 사용자의 안락함을 위해 수평적으로 뿐만 아니라 수직적으로 회전되거나 조정될 수 있다. 하나 이상의 실시예들에서, 도 4c에 도시된 바와 같이, 사용자의 머리의 형상에 기반하여 사용자의 머리에 대한 머리세트의 회전 포인트가 조정될 수 있다. 유사하게, 도 4d에 도시된 바와 같이, IPD(inter-pupillary distance)(즉, 사용자의 눈들 간의 거리)가 보상될 수 있다.
[0052] 사용자에 대해 수행하는 다양한 측정들 및 보정들 외에도, 환자-착용 건강 시스템은 환자 식별 및 안전한 통신들을 위해 사용자에 관한 생체인식 데이터의 세트를 추적하도록 구성될 수 있다. 예컨대, 시스템은 환자 식별을 위한 홍채 인식 및/또는 망막 매칭을 수행하고, 눈 움직임들, 눈 움직임 패턴들, 깜박임 패턴들, 눈 버전스, 피로 파라미터들, 눈 컬러의 변경들, 초점 거리의 변경들 및 광학 증강 현실 경험을 사용자에게 제공하는 데 사용될 수 있는 다수의 다른 파라미터들을 추적할 수 있다. 건강관리 애플리케이션들에 대해 사용되는 AR 디바이스들의 경우에, 전술한 양상들 중 일부는 일반적으로 이용가능한 AR 디바이스들의 부분일 수 있고 다른 특징들은 특정 건강-관련 애플리케이션들을 위해 통합될 수 있다는 것이 인지되어야 한다.
[0053] 이제 도 5를 참조하면, 예시적인 환자-착용 건강 디스플레이 디바이스의 다양한 컴포넌트들이 설명될 것이다. 다른 실시예들은 시스템이 사용되는 애플리케이션(예컨대, 특정 진단 툴)에 의존하여 부가적인 또는 더 적은 컴포넌트들을 가질 수 있다는 것이 인지되어야 한다. 그럼에도 불구하고, 도 5는 환자-착용 건강 시스템 또는 AR 디바이스를 통해 수집 및 저장될 수 있는 생체인식 데이터의 다양한 컴포넌트들 및 타입들 중 일부의 기본적인 아이디어를 제공한다. 도 5는 예시 목적들을 위해 오른쪽의 블록 다이어그램에서 머리-장착 건강 시스템(62)의 단순화된 버전을 도시한다.
[0054] 도 5를 참조하면, 프레임(64)(도 3a-3d)에 대응하는 하우징 또는 프레임(108)에 의해 사용자의 머리 또는 눈들에 장착될 수 있는 디스플레이 렌즈(106)를 포함하는 적절한 사용자 디스플레이 디바이스(62)의 일 실시예가 도시된다. 디스플레이 렌즈(106)는, 사용자의 눈들(20) 앞의 하우징(108)에 의해 포지셔닝되고 프로젝팅된 광(38)을 눈들(20)로 반사시키고 빔 성형을 가능하면서 또한 로컬 환경으로부터의 적어도 일부의 광의 투과를 또한 허용하도록 구성되는 하나 이상의 반투명 미러들을 포함할 수 있다. 예시된 바와 같이, 2개의 와이드 시야 머신 비전 카메라(16)들이 하우징(108)에 커플링되어 사용자 주위의 환경을 이미징한다. 일부 실시예들에서, 이들 카메라들(16)은 듀얼 캡처 가시 광/비가시 광(예컨대, 적외선) 카메라들이다.
[0055] 도 5를 계속 참조하면, 광(38)을 눈들(20)로 프로젝팅하도록 구성되는 디스플레이 미러들 및 광학기기들을 갖는 스캐닝-레이저 형상-파면(예컨대, 깊이에 대한) 광 프로젝터 모듈들의 쌍이 도시된다. 묘사된 실시예는 또한, 적외선 광 소스들(26), 이를테면, "LED"(light emitting diode)들과 페어링되는 2개의 소형 적외선 카메라들(24)을 포함하며, 그 카메라들은, 렌더링 및 사용자 입력을 지원하기 위해 사용자의 눈들(20)을 추적할 수 있도록 구성된다. 시스템(62)은, 3-축 가속도계 능력 뿐만 아니라 자기 컴퍼스 및 3-축 자이로 능력을 포함할 수 있어, 바람직하게, 200Hz와 같은 비교적 높은 주파수로 데이터를 제공하는 센서 어셈블리(39)를 추가로 특징으로 한다. 묘사된 시스템은 또한, 센서 머리 포즈 프로세서(32), 이를테면, ASIC(application specific integrated circuit), FPGA(field programmable gate array), 및/또는 ARM 프로세서(진보된 감소-명령-세트 머신)을 포함하며, 이는 센서 어셈블리(39)로부터의 자이로, 컴퍼스 및/또는 가속도계 데이터로부터 실시간 또는 거의 실시간의 사용자 머리 포즈를 계산하기 위해 디지털 및/또는 아날로그 프로세싱을 실행하도록 구성될 수 있다. 시스템은 또한 사용자의 머리 포즈를 결정하기 위해 캡처 디바이스들(16)로부터 출력된 와이드 시야 이미지 정보를 사용할 수 있는 이미지 머리 포즈 프로세서(36)를 포함할 수 있다.
[0056] 묘사된 실시예는 또한, 포즈 및 포지셔닝 분석들을 보조하기 위한 GPS(global positioning satellite) 서브시스템(37)을 특징으로 한다. 게다가, GPS는 사용자 환경에 관한 원격-기반(예컨대, 클라우드-기반) 정보를 추가로 제공할 수 있다. 이 정보는 진단 목적들을 위해 사용될 수 있다. 예컨대, 사용자가 주변 공기에 꽃가루가 많은 영역에 위치한 경우, 이 정보는 특정 질병을 진단 및/또는 치료하는 데 유용할 수 있다. 또는, 다른 예에서, 특정 영역의 공기 오염에 관한 정보는 특정 사용자를 위한 치료 옵션들을 고려할 때 유리하게 사용될 수 있다. 다른 타입들의 정보(예컨대, 꽃가루 카운트, 오염, 인구통계, 환경 독소, 기후 및 공기 품질 상태들, 생활습관 통계, 건강관리 제공자에 대한 근접성 등)는 하나 이상의 애플리케이션들에서 유사하게 사용될 수 있다.
[0057] 묘사된 실시예는 또한 사용자에게 디스플레이될 가상 콘텐츠를 제공하도록 구성된 소프트웨어 프로그램을 실행하는 하드웨어를 특징으로 할 수 있는 렌더링 엔진(34)을 포함할 수 있다. 렌더링 엔진(34)은 유선 또는 무선 연결성(예컨대, 105, 94, 100, 102, 104)을 통해 센서 머리 포즈 프로세서(32), 이미지 머리 포즈 프로세서(36), 눈 추적 카메라들(24) 및/또는 프로젝팅 서브시스템(18)에 동작가능하게 커플링되어서, 렌더링된 이미지 데이터는 (예컨대, 망막 스캐닝 디스플레이와 유사한 방식으로 스캐닝된 레이저 어레인지먼트(18)를 사용하여) 사용자에게 프로젝팅될 수 있다. 프로젝팅된 광빔(38)의 파면은, 프로젝팅된 광의 원하는 초점 거리와 일치하도록 수정될 수 있다.
[0058] 카메라들(24)(예컨대, 소형 적외선 카메라들)은 렌더링 및 사용자 입력(예컨대, 사용자가 보고 있는 곳, 사용자가 초점을 맞추는 깊이(눈 버전스가 초점의 깊이/원근조절을 추정하는 데 활용될 수 있음) 등)을 지원하기 위해 눈들을 추적하는 데 활용될 수 있다. GPS37, 자이로들, 컴퍼스들, 및 가속도계들(39)은, 개략적인 그리고/또는 신속한 포즈 추정들을 제공하기 위해 활용될 수 있다. 카메라(16) 이미지들 및 포즈는, 연관된 클라우드 컴퓨팅 자원으로부터의 데이터와 함께, 로컬 세계를 매핑하고 사용자의 뷰들을 다른자들 및/또는 가상 또는 증강 현실 커뮤니티 및/또는 건강관리 제공자들과 공유하기 위해 활용될 수 있다. 하나 이상의 실시예들에서, 카메라들(16)은 포괄적인 건강-관리 및/또는 웰니스(wellness) 시스템 또는 건강-관리 감시 시스템의 부분으로서 사용자가 섭취하는 음식, 약물, 영양제들 및 독소들을 분석하는 데 사용될 수 있다.
[0059] 도 5를 계속 참조하면, 디스플레이 디바이스(62)는 약물을 사용자에게 전달하기 위한 약물 투여 모듈(21)을 포함할 수 있다. 약물 투여 모듈(21)은 하나 이상의 유출구들(22), 및 유출구들(22)을 통해 투여될 약물을 저장하는 저장소일 수 있는 적어도 하나의 약물 컨테이너(23)를 포함할 수 있다. 유출구(22)는 컨테이너(23)로부터 유출구들(22)로 약물(예컨대, 액체 또는 가스)을 운반하는 하나 이상의 채널들(22a)에 의해 컨테이너(23)에 연결될 수 있다. 일부 실시예들에서, 유출구들(22)은 단순히 프레임(108)의 개구일 수 있거나 프레임(108)과 일체이거나 이에 부착된 노즐들일 수 있다. 일부 실시예들에서, 노즐들은 분무기들일 수 있다. 일부 실시예들에서, 채널들(22a)은 프레임(108)의 개구들 및/또는 튜빙에 의해 형성된다.
[0060] 하나 이상의 실시예들에서, 디스플레이 디바이스는 이를테면, 치료 프로토콜에 기반하여 착용자의 눈들의 치료를 위해 착용자로의 광을 선택적으로 관리하는 발광 모듈(27)을 포함할 수 있다. 발광 모듈(27)은 다색성 편광된 광을 방출하는 광 방출기, 레이저, 발광 다이오드, 형광 램프, 이색성 램프, 풀 스펙트럼 광 소스 등을 포함할 수 있는 광 소스를 포함할 수 있다. 일부 실시예들에서, 하나의 발광 모듈(27)이 양쪽 눈들에 대해 제공될 수 있다. 일부 다른 실시예들에서, 디스플레이 디바이스는 다수의 발광 모듈들(27)을 포함할 수 있고, 각각의 눈은 광을 그 눈에 지향시키도록 구성된 적어도 하나의 발광 모듈을 가질 수 있다.
[0061] 도 5에 특징화된 디스플레이 시스템(62) 내의 대부분의 하드웨어가 사용자의 눈들(20) 및 디스플레이(106)에 인접한 하우징(108)에 직접 커플링된 것으로 묘사되지만, 묘사된 하드웨어 컴포넌트들은, 예컨대, 도 3d에 도시된 바와 같이 벨트-장착 컴포넌트와 같은 다른 컴포넌트들에 장착되거나 다른 컴포넌트들 내에 하우징될 수 있다. 게다가, 본원에서 언급된 바와 같이, 다수의 센서들 및 다른 기능적 모듈들은 예시 및 설명의 용이함을 위해 함께 도시된다. 그러나, 일부 실시예들은 이들 센서들 및/또는 모듈들 중 단지 하나 또는 이들의 서브세트를 포함할 수 있다는 것이 인지될 것이다.
[0062] 일부 실시예들에서, 도 5에 특징화된 시스템(62)의 컴포넌트들 모두는, 이미지 머리 포즈 프로세서(36), 센서 머리 포즈 프로세서(32), 및 렌더링 엔진(34)을 제외하고 디스플레이 하우징(108)에 직접 커플링되며, 후자의 3개의 컴포넌트들과 시스템의 나머지 컴포넌트들 간의 통신은, 초-광대역과 같은 무선 통신에 의해 또는 유선 통신에 의해 이루어질 수 있다. 묘사된 하우징(108)은 바람직하게, 사용자에 의해 착용 가능하고 머리-장착 가능하다. 그것은 또한, 스피커들(예컨대, 도 3a-3d의 스피커들(66)), 이를테면 사용자의 귀들에 삽입되어 사용자에게 사운드를 제공하기 위해 활용될 수 있는 스피커들을 특징으로 할 수 있다.
[0063] 사용자의 눈들(20)로의 광(38)의 프로젝션에 관하여, 일부 실시예들에서, 카메라들(24)은 사용자의 눈(20)이 보는 곳(예컨대, 두 눈들의 시선들이 교차하는 곳)을 측정하는 데 활용될 수 있으며, 이 정보는 눈(20)들의 초점의 상태 또는 원근조절을 결정하기 위해 사용될 수 있다. 눈들에 의해 초점이 맞춰지는 모든 포인트들의 3차원 표면은 "호롭터(horopter)"라 칭해진다. 초점 거리는 유한한 수의 깊이들 상에서 획득될 수도 있거나, 무한하게 변할 수 있다. 버전스 거리로부터 물리적으로 또는 가상으로 프로젝팅된 광은 피험자 눈(20)으로 초점이 맞춰지는 것으로 보이는 반면, 버전스 거리 앞 또는 뒤의 광은 블러링된다.
[0064] 또한, 이론에 의해 제한됨 없이, 약 0.7 밀리미터보다 작은 빔 직경을 갖는 공간적 코히어런트 광은 눈이 어디에 초점을 맞추는지에 관계없이 인간의 눈에 의해 정확하게 분석된다는 것이 밝혀졌다. 이러한 이해를 고려하여, 적절한 초점 깊이의 환영을 생성하기 위해, 눈 버전스가 카메라들(24)로 추적될 수 있고, 렌더링 엔진(34) 및 프로젝션 서브시스템(18)은 초점이 맞는 호롭터 상의 또는 이에 가까운 모든 가상 오브젝트들 및 (즉, 의도적으로 생성된 블러링을 사용하여) 변하는 각도들의 탈초점의 모든 다른 가상 오브젝트들을 렌더링하는 데 활용될 수 있다. 바람직하게, 시스템(62)은 초당 약 60 프레임 이상의 프레임 레이트로 사용자에게 렌더링한다. 상술된 바와 같이, 바람직하게, 카메라들(24)은 눈 추적을 위해 활용될 수 있으며, 소프트웨어는, 사용자 입력들로서 기능하기 위해 버전스 지오메트리뿐만 아니라 초점 위치 큐들을 픽업(pick up)하도록 구성될 수 있다. 바람직하게, 그러한 디스플레이 시스템은, 낮 또는 밤 동안의 사용에 적절한 밝기 및 콘트라스트로 구성된다.
[0065] 일부 실시예들에서, 바람직하게, 디스플레이 시스템은, 시각적 오브젝트 정렬에 대해 약 20밀리초 미만의 레이턴시, 약 0.1도 미만의 각도 정렬, 및 1 분각(arc minute)의 해상도를 가지며, 이는 이론에 의해 제한됨 없이, 대략 인간의 눈의 제한이라고 여겨진다. 디스플레이 시스템(62)은 포지션 및 포즈 결정을 보조하기 위해 GPS 엘리먼트들, 광학 추적, 컴퍼스, 가속도계들 및/또는 다른 데이터 소스들을 수반할 수 있는 로컬화 시스템과 통합될 수 있다. 로컬화 정보는 관련 세계에 대한 사용자의 뷰에서의 정확한 렌더링을 가능하게 하는데 활용될 수 있다(예컨대, 그러한 정보는 디스플레이 시스템이 실세계와 관련하여 자신이 어디 있는지를 아는 것을 가능하게 할 것임).
[0066] 사용자-착용 건강 시스템(예컨대, 검안 시스템)의 일부 실시예들의 일반 컴포넌트들을 설명하였지만, 건강 관리 및 진단들과 관련된 부가적인 컴포넌트들 및/또는 특징들이 아래에서 논의될 것이다. 아래에서 설명되는 특징들 중 일부는 사용자-착용 건강 시스템의 다양한 실시예들 또는 건강 목적들을 위해 사용되는 AR 시스템들의 다수의 실시예들에 공통적인 반면, 다른 것들은 건강 진단들 및 치료 목적들을 위해 부가적인 또는 더 적은 컴포넌트들을 요구할 것이란 점이 인지되어야 한다.
[0067] 일부 실시예들에서, 사용자-착용 건강 시스템은 사용자의 눈들의 원근조절에 기반하여 하나 이상의 가상 이미지들을 디스플레이하도록 구성된다. 이미지들이 프로젝팅되고 있는 곳에 사용자가 초점을 맞추도록 강제하는 종래의 3D 디스플레이 접근법들과 달리, 일부 실시예들에서, 사용자-착용 건강 시스템은 사용자에게 제공되는 하나 이상의 이미지들을 보다 편안하게 보게 허용하기 위해 프로젝팅된 가상 콘텐츠의 초점을 자동으로 변경하도록 구성된다. 예컨대, 사용자의 눈들이 1m의 현재 초점을 갖는 경우, 이미지는 사용자의 초점과 일치하도록 프로젝팅될 수 있다. 또는, 사용자가 3m로 초점을 시프트하는 경우, 이미지는 새로운 초점과 일치하도록 프로젝팅된다. 따라서, 사용자를 미리 결정된 초점으로 강제하기 보단, 일부 실시예들의 사용자-착용 건강 시스템 또는 AR 디스플레이 시스템은 사용자의 눈이 보다 자연스러운 방식으로 기능할 수 있게 한다.
[0068] 이러한 사용자-착용 건강 시스템은 눈의 피로, 두통들 및 가상 현실 디바이스들과 관련하여 전형적으로 관찰되는 다른 생리적 증상들의 발생률을 제거 또는 감소시킬 수 있다. 이를 달성하기 위해, 환자-착용 건강 시스템의 다양한 실시예들은 하나 이상의 VFE(variable focus element)들을 통해 다양한 초점 거리들에 가상 이미지들을 프로젝팅하도록 구성된다. 하나 이상의 실시예들에서, 3D 인지는 사용자로부터 떨어져 있는 고정된 초점 평면들에 이미지들을 프로젝팅하는 다중-평면 초점 시스템을 통해 달성될 수 있다. 다른 실시예들은, 초점 평면이 사용자의 현재 초점 상태와 일치하도록 z-방향으로 앞뒤로 이동되는 가변적인 평면 초점을 사용한다.
[0069] 다중-평면 초점 시스템들 및 가변적인 평면 초점 시스템 둘 모두에서, 환자-착용 건강 시스템은 사용자의 눈들의 버전스를 결정하고, 사용자의 현재 초점을 결정하고, 결정된 초점으로 가상 이미지를 프로젝팅하기 위해 눈 추적을 사용할 수 있다.
[0070] 임의의 파장의 광이 사용자의 눈에 프로젝팅될 수 있다. 가시 광 외에도, 적외선 광 또는 다른 파장들의 광이 환자-착용 건강 시스템을 통해 유사하게 프로젝팅될 수 있다. 환자-착용 건강 시스템의 이러한 양상은 아래에서 설명될 바와 같이, 건강 이상들을 이미징, 진단, 치료 및/또는 보상하기 위해 사용될 수 있다.
[0071] 건강-관리 및 진단의 맥락에서, 사용자에게 제공된 하나 이상의 이미지들의 타입, 빈도, 컬러-체계, 배치 등은 하나 이상의 장애들의 진단, 환자 모니터링 및/또는 치료를 위해 유리하게 조작될 수 있다. 예컨대, 소정의 질병들은 한쪽 눈을 다른 쪽 눈에 비해 강화시키도록 요구할 수 있다. 이를 위해, 예컨대, 강한 눈과 비교하여 약한 눈에 증가된 자극을 제공함으로써, 약한 눈을 "트레이닝"시키기 위한 치료 프로토콜이 고안될 수 있다. 또는, 다른 예에서, 망막의 특정 부분은 황반 변성으로 인해 감소된 감도를 가질 수 있다. 이에 대처하기 위해, 이미지들은 변조되거나, 재-포맷팅되고 망막의 주변부들에 프로젝팅되고, 그리하여 사용자의 감소된 시계를 보상한다. 따라서, 아래에서 추가로 상세히 설명될 바와 같이, 가상 이미지 프로젝션과 관련된 다수의 파라미터들을 변조하는 건강 시스템의 능력은 소정의 건강 이상들을 진단, 모니터링 및/또는 치료하는 데 사용될 수 있다.
[0072] 부가적으로, 위에 약술된 다양한 원리들을 사용하여, 건강 시스템은 자극-응답 측정 분석 프로세스를 사용하여 진단을 제공하도록 설계될 수 있다. 이와 같은 디바이스들은 임상의에 의해 사용될 수 있거나, 또는 다른 실시예에서, 소정의 질병들이 단순히 평가되거나 환자에 의해 증상들(예컨대, 눈의 피로, 건조한 눈, 고혈압, 뇌졸증 또는 발작들의 발병 등)이 확인되게 할 수 있다. 이는 사용자가 자신의 건강을 활성적으로 관리하고 소정의 증상들의 발병 시에 질병들을 사전 대비적으로 조심함으로써 질병들의 발병을 방지하는데 결정적으로 도움을 줄 수 있다. 이러한 진단들 및/또는 평가들은 예컨대, 하나 이상의 추적된 생체인식 파라미터들 및 환경 변화들과 관련된 이력 데이터로 동시발생적 데이터를 분석함으로써 이루어질 수 있다. 하나 이상의 실시예들에서, 건강 시스템은 또한, 정보 큐들을 제공하거나, 사용자 및/또는 의사 또는 다른 사람들에게 경고들을 전송하거나, 또는 다른 응답 수단을 보조하도록 구성될 수 있다.
[0073] 건강 시스템은, 예컨대, 사용자를 진단, 모니터링 또는 치료하기 위한 건강 시스템의 소프트웨어-제어 구현에서와 같이 자율적(즉, 임상의 또는 다른 사람으로부터의 입력 또는 제어 없이 사용자 또는 다른 사용자 또는 엔티티에 직접 결과들을 제공하기 위해)이거나, 또는 반-자율적(즉, 임상의 또는 다름 사람으로부터의 어느 정도의 입력 또는 제어)이 되도록 구성될 수 있다는 것이 인지되어야 한다. 다른 실시예들에서, 건강 시스템은 (예컨대, 네트워킹되거나 모두 원격 기반, 이를테면, 클라우드-기반 구현에서 또는 임상의가 환자를 검사하기 위해 건강 시스템을 착용하는 구현에서) 임상의 또는 다른 사람에 의해 완전히 제어될 수 있다.
[0074] 일부 실시예들에서, 건강 시스템은 다수의 부가적인 건강-관련 센서들을 갖도록 설계될 수 있다. 이들은 사용자의 하나 이상의 생리적 응답들을 모니터링하기 위해 예컨대, 가속도계들, 자이로스코프들, 온도 센서들, 압력 센서들, 광센서들, 비-침습적 혈당 센서들, ETCO2, EEG 및/또는 다른 생리적 센서들 등을 포함할 수 있다.
[0075] 본원에서 설명된 바와 같이, 건강 시스템은 하나 이상의 실시예들에서 눈-추적 모듈을 포함한다. 눈 추적 모듈은 (버전스와 원근조절 사이의 직접적인 관계를 통해) 하나 이상의 가상 이미지들의 프로젝션을 위해 적합한 정상적인 원근조절이 무엇인지를 결정하기 위해 사용자의 눈의 버전스를 결정하도록 구성될 수 있고, 하나 이상의 눈-관련 파라미터들(예컨대, 눈의 포지션, 눈의 움직임들, 눈 패턴들 등)을 추적하도록 또한 구성될 수 있다. 이 데이터는 아래에서 설명될 바와 같이, 여러 건강-관련 진단들 및 치료 애플리케이션들을 위해 사용될 수 있다.
[0076] 본원에서의 설명으로부터 명백한 바와 같이, 건강 시스템은 눈-관련 진단, 모니터링 및 치료를 포함할 수 있는 진단, 모니터링 및 치료를 위해 사용될 수 있다. 눈-관련 애플리케이션들에서, 건강 시스템은 검안 시스템으로서 지칭될 수 있다. 본원에서의 설명으로부터 또한 명백한 바와 같이, 디바이스의 사용자(또는 착용자)는 디바이스에 의해 그 사용자에 대해 진단, 모니터링 및 치료가 수행되는 경우 환자로서 지칭될 수 있다. 일부 다른 실시예들에서, 사용자는 임상의일 수 있고 환자는 사용자에 의해 평가되고 치료될 수 있는 제3 자일 수 있다. 또한, 진단 및 모니터링은 일반적으로 건강 분석으로서 지칭될 수 있다는 것이 인지될 것이다.
광 필드 프로세서 시스템
[0077] 도 6은, 사용자의 시야의 적어도 부분으로부터 광 필드 이미지 데이터(예컨대, 사진들 및/또는 비디오)를 캡처하고 그런 다음, 캡처된 광 필드 이미지 데이터를 프로세싱하고 프로세싱된 광 필드 이미지 데이터를 사용자에게 디스플레이하기 위한 광 필드 프로세서 시스템(600)을 예시한다. 광 필드 프로세서 시스템(600)은 하나 이상의 외향 통합 이미징 카메라들(16), 광 필드 프로세서(70), 및 하나 이상의 통합 이미징 디스플레이들(62)을 포함할 수 있다. 이들 컴포넌트들 각각은 본원에서 논의된 웨어러블 가상/증강 현실 및 건강 시스템들의 부분으로서 제공될 수 있다. 일부 실시예들에서, 광 필드 이미지 데이터는, 사용자가 디스플레이되는 광 필드 이미지 데이터의 지체 또는 지연을 인지하지 못하도록 실질적으로 실시간으로 캡처, 프로세싱 및 디스플레이된다.
[0078] 방금 언급된 바와 같이, 광 필드 프로세서 시스템(600)의 일 양상은, 그것이 종래의 2-차원 사진들 및/또는 비디오들 보다는, 광 필드 이미지 데이터를 캡처, 프로세싱 및 디스플레이한다는 것이다. 공간 세계는 3-차원이지만, 종래의 사진들 및 비디오들은 단지 2-차원 이미지들을 기록한다. 따라서, 종래의 카메라들은 3-차원 세계에서의 광 및 사물의 복잡한 상호작용을, 카메라의 시야 내에서 오브젝트 공간으로부터 검출되는 광 강도의 평탄한 2-차원 맵으로 감소시킨다. 이러한 평탄화 효과는, 카메라의 시야 내의 오브젝트 평면 상의 상이한 포인트들에서 방출되고, 반사되고 그리고/또는 산란되는 광선들이 렌즈에 의해 이미지 평면 상의 대응하는 포인트들로 초점이 맞춰지는 이미징의 결과이다. 이 프로세스에서 각도 정보가 손실되고; 종래의 이미지에서 정해진 픽셀에 기록된 광 강도는 시야 내의 오브젝트 평면 상의 대응하는 포인트와 상이한 각도 배향들로 발생한 광선들의 개개의 강도 기여들을 표시하지 않는다. 대신에, 종래의 사진들 및 비디오에서, 이미지 평면의 각각의 포인트에서 측정된 강도는 시야 내의 오브젝트 평면 상의 대응하는 포인트와 상이한 각도 배향들로 카메라에 들어가는 다양한 광선들의 조합된 강도를 표시한다. 종래의 카메라에서 3-차원으로부터 2-차원으로의 평탄화는 이미지의 정보 콘텐츠를 상당히 제한한다.
[0079] 대조적으로, 광 필드 데이터는 시야 내의 다양한 포인트들로부터 나오는 광의 방향 및 강도에 관한 정보를 포함한다. 따라서, 종래의 카메라로 획득된 전형적인 사진은 2-차원 이미지 방사조도 맵이지만, 광 필드 데이터는, 그것이 시야 내의 복수의 (x, y) 포인트들 각각으로부터 복수의 각도들(θx, θy)로 나오는 광선들의 강도 또는 방사조도에 관한 정보를 포함할 수 있기 때문에, 4-차원인 것으로 간주될 수 있다. 광 필드 디스플레이로 재생될 때, 광 필드 이미지는 뷰어가 마치 실제 물리적인 장면을 직접 보는 것처럼, 뷰어에게 3-차원 표현을 제공한다.
[0080] 외향 통합 이미징 카메라(들)(16)는 광 필드 데이터를 캡처할 수 있는 임의의 카메라 또는 디바이스일 수 있다. 하나의 이러한 디바이스의 예가 도 7과 관련하여 본원에서 설명된다. 일부 실시예들에서, 도 3-5에 도시된 바와 같이, 하나 이상의 외향 통합 이미징 카메라들(16)이 웨어러블 시스템과 통합될 수 있다. 2개(또는 그 초과)의 외향 통합 이미징 카메라들(16)이 제공될 수 있으며, 각각은 일반적으로 사용자의 눈들 중 하나에 디스플레이될 수치 광 필드 이미지 데이터를 캡처하는 데 사용된다. 구체적으로, 왼쪽 외향 통합 이미징 카메라(16)는 사용자의 왼쪽 눈의 정상적인 시야와 오버랩핑하는 시야를 갖도록 제공 및 정렬될 수 있다. 유사하게, 오른쪽 외향 통합 이미징 카메라(16)는 사용자의 오른쪽 눈의 정상적인 시야와 오버랩하는 시야를 갖도록 제공 및 정렬될 수 있다.
[0081] 광 필드 프로세서(70)는, 예컨대, 본원에서 설명된 로컬 프로세싱 및 데이터 모듈들(70)을 사용하여 구현될 수 있다. 광 필드 프로세서(70)는 통합 이미징 카메라(들)(16)로부터 그리고/또는 비-일시적인 컴퓨터 메모리로부터 캡처된 4-차원 수치 광 필드 이미지 데이터를 수신한다. 광 필드 프로세서는 캡처된 광 필드 이미지 데이터에 대해 다양한 동작들을 계산적으로 수행할 수 있다. 그러한 동작들은 포지티브 또는 네거티브 구면(spherical) 및/또는 원주력(cylindrical power)을 수치 광 필드 이미지 데이터에 계산적으로 부가하고, 수치 광 필드 이미지 데이터에 의해 표현된 하나 이상의 파면들을 식별하며 그리고 그러한 파면들의 곡률을 계산적으로 변경하는 것; 선택된 깊이 평면에 광 필드 이미지 데이터의 초점을 맞추는 것; 프리즘 굴절력(prismatic power)을 광 필드 이미지 데이터에 부가하는 것; 가상 오브젝트 또는 다른 VR/AR 콘텐츠를 이미지 데이터에 부가하는 것; 이미지 데이터로부터 오브젝트 또는 다른 콘텐츠를 삭제하는 것; 광 필드 이미지 데이터를 위로, 아래로, 좌로, 또는 우로 시프팅하는 것; 캡처된 광 필드 이미지 데이터의 선택된 서브-부분을 확대하는 것; 이미지 데이터의 공간 및/또는 파장 필터링을 수행하는 것 등을 포함할 수 있다.
[0082] 일부 실시예들에서, 광 필드 프로세서(70)는 사용자의 눈들의 검안 처방 또는 다른 특징에 기반하여 캡처된 수치 광 필드 이미지 데이터를 프로세싱한다. (검안 처방 또는 다른 눈 특징은 사용자 또는 다른 디바이스(예컨대, 비-일시적인 컴퓨터 메모리)로부터 광 필드 프로세서(70)에 입력될 수 있거나, 검안 처방 또는 다른 눈 특징은, 본원에서 추가로 설명되는 바와 같이, 광 필드 프로세서 시스템(600) 자체에 의해 측정될 수 있다.) 예컨대, 캡처된 수치 광 필드 이미지 데이터는 사용자의 비전의 적어도 하나의 양상을 개선하도록 프로세싱될 수 있다. 일부 실시예들에서, 수치 광 필드 이미지 데이터는 사용자의 근시, 원시, 난시, 노안, 사시증, 약시, 황반 변성, 고차 굴절 오차들, 색수차 또는 미소 결함들을 적어도 부분적으로 보정하도록 프로세싱될 수 있다. 다른 타입들의 보정들이 또한 가능하다.
[0083] 통합 이미징 디스플레이(62)는, 광 필드 이미지 데이터를 디스플레이할 수 있는 임의의 디바이스일 수 있다. 하나의 그러한 디바이스의 예는 도 7에 대해 본원에 설명된다. 일부 실시예들에서, 하나 이상의 통합 이미징 디스플레이(들)(62)는, 도 3-5에 도시된 바와 같이, 웨어러블 시스템과 통합될 수 있다. 통합 이미징 디스플레이(들)(62)는 사용자가 그의 실세계 환경을 볼 수 있게 하도록 부분적으로 투명할 수 있다. 대안적으로, 통합 이미징 디스플레이(들)는 대신에, 사용자에게 자신의 실세계 환경으로부터의 이미지 데이터를 제공하기 위해, 외향 통합 이미징 카메라(들)(16)에 완전히 의존할 수 있다. 2개의 통합 이미징 디스플레이들(62)이 제공될 수 있고, 각각은 일반적으로 사용자의 눈들 중 하나에 프로세싱된 광 필드 이미지 데이터를 디스플레이하는 데 사용된다. 구체적으로, 왼쪽 통합 이미징 디스플레이(62)는 광 필드 이미지 데이터를 사용자의 왼쪽 눈에 디스플레이하도록 제공되어 정렬될 수 있다. 유사하게, 오른쪽 통합 이미징 디스플레이(62)는 사용자의 오른쪽 눈에 광 필드 이미지 데이터를 디스플레이하도록 제공되어 정렬될 수 있다.
[0084] 도 7은 도 6의 광 필드 프로세서 시스템(600)의 실시예의 개략적인 예시이다. 외향 통합 이미징 카메라(16)는 마이크로-렌즈들(702)의 2-차원 어레이 및 광-감지 픽셀들을 갖는 대응하는 광검출기들(704)의 2-차원 어레이를 포함할 수 있다. 광검출기 어레이(704)는, 예컨대, CMOS(complementary metal-oxide-semiconductor) 센서, CCD(charge-coupled device) 센서, CMOS 또는 CCD 센서들의 어레이, 또는 광 에너지를 검출 및 디지털화할 수 있는 임의의 다른 디바이스일 수 있다. 광검출기들의 어레이는 평면 표면 또는 곡선형 표면을 형성할 수 있다(예컨대, 광검출기들의 어레이는, 눈이 보고 있을 수 있는 임의의 위치로부터의 광의 캡처를 가능하게 하기 위해 눈 둘레에서 방사상으로 만곡될 수 있음). 마이크로-렌즈 어레이(702)는 사용자의 시야 내의 오브젝트 공간의 포인트(706)로부터 광을 수집한다. 각각의 마이크로-렌즈, 또는 렌즈릿은 시야로부터 통합 이미징 카메라(16)에 들어가는 광의 파면들의 공간적으로 로컬화된 구역을 샘플링하고, 로컬 각도 정보가 광검출기 어레이(704) 상에 기록되게 할 수 있다. 이러한 방식으로, 광검출기 어레이(704)는, 상이한 각도 방향들로부터 기구에 도착한 광선들의 개개의 강도를 검출할 수 있다. 예컨대, 도 7에 도시된 바와 같이, 광(708)의 다양한 원뿔들은 오브젝트 공간에서 상이한 각도들(θx, θy)로 포인트(706)로부터 발생한다. 각각의 렌즈릿(702)은, 상이한 각도 배향으로 포인트(706)로부터 발생하는 광(708)의 원뿔을 광검출기 어레이(704)로 초점을 맞춘다. 단일 포인트(706)만이 예시되지만, 각각의 렌즈릿(702)은 오브젝트 공간의 (x, y) 평면 상의 각각의 포인트에 대해 이러한 기능을 수행한다. 다시 말해서, 각각의 렌즈릿(702)은 어레이 내의 다른 렌즈릿들(702)에 의해 생성된 기본 이미지들과 약간 상이한 관점으로 오브젝트 공간에서 장면의 기본 이미지를 생성한다. 각각의 기본 이미지는 광검출기 어레이(704) 내의 광검출기들의 그룹에 의해 기록된다. 총괄적으로, 기본 이미지들의 이러한 2-차원 어레이는 통합 이미지로 지칭되는 것을 형성한다. 통합 이미지는 장면의 다양한 가능한 광 필드 표현들 중 하나이다. 이것은 기본 이미지들의 2-차원 어레이를 포함하고, 각각은 약간 상이한 관점으로부터 캡처된다.
[0085] 통합 이미징 카메라(16)로부터 캡처된 광 필드 이미지 데이터는, 통합 이미징 카메라에 의해 디지털화된 후에, 다양한 수치 형태들로 표현될 수 있다. 이것은 광 필드 프로세서(70)가 캡처된 광 필드 이미지 데이터에 대해 수학적인 조작들(이를테면, 위에서 설명된 것들)을 수행할 수 있게 한다. 일단 광 필드 프로세서(70)가 캡처된 광 필드 이미지 데이터에 대해 원하는 수학적인 조작들을 수행하였다면, 프로세싱된 광 필드 이미지 데이터는 통합 이미징 디스플레이(62)로 전달된다. 일부 실시예들에서, 프로세싱된 광 필드 이미지 데이터는 하나 이상의 프로세싱된 통합 이미지들의 형태로 통합 이미징 디스플레이(62)로 전달될 수 있고, 각각은 프로세싱된 기본 이미지들의 세트로 구성된다.
[0086] 도 7에 도시된 바와 같이, 통합 이미징 디스플레이(62)는 마이크로-렌즈들(712)의 2-차원 어레이 및 광 소스들(714)의 2-차원 어레이를 포함한다. 통합 이미징 디스플레이(62)는, 예컨대, 프로세싱된 광 필드 이미지 데이터를 사용하여 광 소스들(714)의 어레이를 변조하기 위한 제어기를 포함할 수 있다. 광 소스들(714)의 어레이는, 예컨대, LED(light emitting diode)들의 RGB(red, green, blue) 어레이일 수 있다. 일부 실시예들은 또한 본원에서 나중에 논의되는 이유들 중 임의의 이유로 적외선 광을 착용자의 눈들로 프로젝팅하기 위한 적외선 발광 소스들을 포함할 수 있다. 대안적으로, 광 소스들(714)의 어레이는 LCD(liquid crystal display) 패널 또는 일부 다른 타입의 디스플레이 패널로서 구현될 수 있다. 각각의 광 소스는 프로세싱된 통합 이미지의 픽셀 또는 서브-픽셀에 대응하는 광을 방출하는 데 사용될 수 있다. 그런다음, 각각의 광 소스(714)로부터 방출된 광은 렌즈릿들(712) 중 하나에 의해 사용자의 눈 앞의 공간의 대응하는 포인트(716)로 프로젝팅된다. 일부 실시예들에서, 각각의 렌즈릿(712)은 프로세싱된 기본 이미지들 중 하나를 프로젝팅한다. 프로젝팅된 기본 이미지들 각각으로부터의 광의 오버랩은 사용자가 볼 수 있는 물리적 광 필드를 재-생성한다. 이러한 물리적 광 필드는, 마치 사용자가 실제 3-차원 장면을 보는 것처럼 유사하게, 사용자에 의해 3차원으로 지각된다. 광 필드 프로세서(70)가 통합 이미징 카메라(16)에 의해 수집된 통합 이미지를 변경하지 않았다면, 통합 이미징 디스플레이(62)에 의해 생성된 물리적 광 필드는, 카메라(16)의 시야 내의 오브젝트 공간에서 존재한 동일한 물리적 광 필드의 표현일 것이다. 이것은 도 7에 도시되고, 여기서 광(718)의 모든 프로젝팅된 원뿔들의 교차지점은 오리지널 3-차원 장면의 방사휘도(radiance)를 재생하는 방사조도(irradiance) 분배를 발생시킨다. 그렇지 않고, 광 필드 프로세서(70)가 통합 이미지를 변경하는 데 사용되면, 통합 이미징 디스플레이(62)에 의해 프로젝팅된 물리적 광 필드는, 카메라(16)의 시야 내의 오브젝트 공간에서 존재한 유사하게 변경된 버전의 물리적 광 필드이다.
[0087] 도 7이 광 필드 캡처/프로세싱/디스플레이 시스템(600)의 일 실시예를 예시하지만, 다른 실시예들이 또한 가능하다. 예컨대, 도 7에 도시된 통합 이미징 카메라(16)는 광 필드 이미지 데이터를 캡처할 수 있는 임의의 타입의 디바이스로 대체될 수 있다. 유사하게, 도 7에 도시된 통합 이미징 디스플레이(62)는 또한 광 필드 이미지 데이터를 디스플레이할 수 있는 임의의 타입의 디바이스로 대체될 수 있다.
근시, 원시, 난시, 및 고차 수차들의 보정
[0088] 도 8은, 사용자에 대한 근시, 원시 및/또는 난시를 보정하기 위해 도 6 및 7에 도시된 광 필드 프로세서 시스템(600)을 사용하기 위한 방법(800)을 예시하는 흐름도이다. 방법(800)은 블록(810)에서 시작되고, 여기서 시스템(600)의 광 필드 프로세서(70)는 사용자의 광학력 측정들을 수신한다. 광학력 측정들은, 구면력, 원주력 및/또는 원주력 축 측정들을 포함하여, 안경에 대한 사용자의 시력 처방을 포함할 수 있다. 이러한 측정들은 (본원에서 추가로 논의되는 바와 같이) 시스템(600) 자체에 의해 수행될 수 있거나, 그들은 사용자 또는 별개의 진단 디바이스로부터 수신될 수 있다. 시력 처방은 광 필드 프로세서 시스템(600)의 초기화 동안, (예컨대, 포롭터 또는 다른 시력 검사를 사용하는) 눈-처방 구성기 프로그램의 부분으로서 시스템(600)의 보정 동안, 또는 광 필드 프로세서 시스템의 사용 동안 임의의 시간에 결정될 수 있다. 생체인식 데이터는 사용자 및 연관된 시력 처방을 식별하는 데 사용될 수 있다.
[0089] 방금 언급된 바와 같이, 사용자의 눈의 광학력 측정들이 광 필드 프로세서 시스템(600)에 입력될 수 있는 많은 방식들이 존재한다. 일부 실시예들에서, 사용자는 광 필드 프로세서 시스템(600)에 정보를 간단히 제공할 수 있다. 예컨대, 사용자는 처방을 사용자 인터페이스에 입력할 수 있다. 또는, 다른 실시예들에서, 광 필드 프로세서 시스템(600)은 사용자의 시력 처방을 자동으로 또는 상호작용적으로 결정하도록 구성될 수 있다. 예컨대, 광 필드 프로세서 시스템은, 사용자의 처방을 수동으로 그리고 상호작용적으로 결정하기 위해 눈-처방 구성기 프로그램을 실행할 수 있다. 광 필드 프로세서(70)는, 수집된 광 필드 이미지 데이터의 변경된 파면들 또는 초점을 조정하는 데 있어서 이산 입상 단계들(discrete granular steps)로 미리-프로그래밍될 수 있다. 초점 또는 변경된 파면들을 조정하는 것은 구면력을 조정하는 것 및/또는 원주력/축을 조정하는 것을 포함할 수 있다. 사용자는 적합한 피드백 메커니즘(예컨대, 사용자 인터페이스)을 통해 광 필드 프로세서 시스템에 대한 광학력 변경의 원하는 양을 특정할 수 있다. 또는, 일부 실시예들에서, 사용자는, 사용자가 편안한 보기 처방에 도달할 때까지 처방 값을 증분적으로 증가 또는 감소시키는 옵션을 가질 수 있다.
[0090] 일부 실시예들에서, 광 필드 프로세서 시스템(600)은, 눈-추적 시스템, 자동굴절검사, 수차분석(abberometry), 또는 본원에서 설명된 다른 시스템들을 통해 눈들을 모니터링 및 추적하는 것에 기반하여, 사용자 입력을 요구하지 않고서, 각각의 눈에 대한 사용자의 시력 처방을 자동적으로 측정(그리고 각각의 눈에 대해 실시간적으로 적용되는 보정들을 증분적으로 변경)할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 적용된 보정 처방을 자동을 변경하기 위해 (본원에서 논의된) 바이오피드백 시스템을 활용할 수 있다.
[0091] 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 제3 자 시스템으로부터 사용자의 시력 처방을 수신하도록 구성될 수 있다. 예컨대, 의사는, 수신기에 의해 수신되고 광 필드 프로세서(70)의 디지털 메모리에 저장되는 사용자 시력 처방을 무선으로(예컨대, 인터넷, 블루투스 연결 등을 통해) 전송할 수 있다.
[0092] 블록(820)에서, 시스템(600)의 외향 통합 이미징 카메라(16)는 광 필드 이미지 데이터를 캡처하고, 캡처된 광 필드 이미지 데이터를 광 필드 프로세서(70)에 입력한다. 본원에서 논의된 바와 같이, 캡처된 광 필드는, 통합 이미징 디스플레이(62)에 의해 디스플레이되기 이전에 수학적으로 조작될 수 있다. 광범위한 수학적 조작들이 수행될 수 있지만, 수학적 조작들 중 일부는 사용자의 눈(들)의 하나 이상의 특징들, 이를테면, 사용자의 시력 처방, 각막의 형상 또는 곡률, 눈의 길이 등에 기반하여 캡처된 광 필드 이미지 데이터를 적어도 부분적으로 보정하는 데 사용될 수 있다. 광 필드 프로세서(70)는 변경된 광 필드를 사용자에게 디스플레이하기 전에 사용자의 들어오는 광 필드에 대한 실시간 변경들을 가능하게 하는 데 사용될 수 있다.
[0093] 일부 실시예들에서, 광 필드 프로세서에 의해 적용된 특정 보정들은, 사용자의 비전이 시간에 따라 변할 때, 비전 결함들을 보정하도록 동적으로 조정될 수 있다. 예컨대, 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 눈-처방 구성기 프로그램을 개시함으로써 동적 비전 보정을 구현할 수 있다. 광 필드 프로세서 시스템은, 사용자의 활성화로 또는 사용자의 활성화 없이 사용자의 처방을 일정한 시간 간격들로 결정하도록 구성될 수 있다. 따라서, 광 필드 프로세서 시스템은 제1 시간에서 제1 시력 처방을 동적으로 식별할 수 있고, 그 처방에 기반하여 비전 보정을 조정할 수 있고, 그리고 제2 시간에서 제2 시력 처방을 식별할 수 있고, 그 제2 처방에 기반하여 비전 보정을 조정할 수 있다.
[0094] 광 필드 프로세서(70)에 의해 적어도 부분적으로 보정될 수 있는 공통 비전 결함들은 단견(short-sightedness)(즉, 근시), 원견(far-sightedness)(즉, 원시), 및 난시를 포함한다. 종래에, 이러한 결함들은 구면 및/또는 원주 렌즈들을 사용하여 보정된다. 그러나, 광 필드 프로세서 시스템(600)은 캡처된 광 필드의 계산적 조작들을 통해 이러한 결함들을 대안적으로 보정할 수 있다.
[0095] 근시의 경우에, 사용자의 시야 내의 하나 이상의 오브젝트들과 연관된 광은 망막 상에 보다는, 도 9a에 도시된 바와 같이, 망막 앞에 초점이 맞춰진다. 이는 오브젝트들로 하여금 초점이 벗어나 보이게 한다. 이제 도 9b를 참조하면, 통상적으로, 네거티브 도수 오목 렌즈는 장애를 보상하는 데 사용될 수 있어서, 광으로 하여금 망막 상에 초점이 맞춰지게 하는 네거티브 광학력을 도입한다. 광 필드 프로세서(70)는 도 9b에 도시된 보정 오목 렌즈를, 도 6 및 7에 도시된 외향 통합 이미징 카메라(16)에 의해 캡처된 수치 광 필드 이미지 데이터의 수학적 조작들로 대체할 수 있다. 예컨대, 도 8의 블록(840)에 도시된 바와 같이, 사용자의 시력 처방이 사용자가 근시라는 것을 표시하면, 광 필드 프로세서(70)는, 사용자의 근시를 적어도 부분적으로 보정하기 위해, 일정 크기의 네거티브 구면력 파면 곡률을 선택하여, 캡처된 광 필드 이미지 데이터에 계산적으로 도입한다.
[0096] 원시의 경우에, 하나 이상의 오브젝트들과 연관된 광은 망막 상에 보다는, 도 10a에 도시된 바와 같이, 망막 뒤에 초점이 맞춰진다. 이는 오브젝트들로 하여금 초점이 벗어나 보이게 한다. 이제 도 10b를 참조하면, 통상적으로, 포지티브 도수 볼록 렌즈는 장애를 보상하는 데 사용될 수 있다. 다시 한번, 광 필드 프로세서(70)는 도 10b에 도시된 보정 볼록 렌즈를 도 6 및 7에 도시된 외향 통합 이미징 카메라(16)에 의해 캡처된 광 필드의 수학적 조작들로 대체할 수 있다. 예컨대, 도 8의 블록(830)에 도시된 바와 같이, 사용자의 시력 처방이 사용자가 원시라는 것을 표시하면, 광 필드 프로세서(70)는, 사용자의 원시를 적어도 부분적으로 보정하기 위해, 일정 크기의 포지티브 구면력 파면 곡률을 선택하여, 캡처된 광 필드 이미지 데이터에 계산적으로 도입한다.
[0097] 난시는, 눈이 원주 광학력을 나타내는 상태이다(즉, 눈의 난시광학력은, 직교 메리디안(orthogonal meridian)에 대해서 보다는 하나의 메리디안에 대해 측정될 때 상이함). 도 11a에 개략적으로 예시된 바와 같이, 이것은 불규칙적으로 형상화된 각막에 의해 발생될 수 있다. 예컨대, 하나의 메리디안을 따른 곡률은 직교 메리디안을 따른 곡률과 상이할 수 있다. 이제 도 11b을 참조하면, 통상적으로, 난시는 적절히 배향된 원주 렌즈의 도입에 의해 보정될 수 있다. 또 다시, 광 필드 프로세서 시스템(600)은 도 11b에 도시된 보정 렌즈를 도 6 및 7에 도시된 외향 통합 이미징 카메라(16)에 의해 캡처된 광 필드의 수학적 조작들로 대체할 수 있다. 구체적으로, 도 8의 블록(850)에 도시된 바와 같이, 광 필드 프로세서(70)는, 사용자의 난시에 대해 캡처된 광 필드 이미지 데이터를 적어도 부분적으로 보정하기 위해, (사용자의 처방에 의해 표시된 각도 축으로 배향된) 일정 크기의 원주 광학력을 선택하고, 계산적으로 도입할 수 있다.
[0098] 그러나, 광 필드 프로세서 시스템(600)은 간단한 저차 광학 수차들, 이를테면, 탈초점 및/또는 난시의 보정으로 제한되지 않는다. 실제로, 광 필드 프로세서(70)는 또한 복잡한 고차 광학 수차들에 대해 계산적인 보정들을 캡처된 광 필드에 물론 적용할 수 있다. 일부 경우들에서, 이러한 고차 수차들은 모든 굴절 오차들 중 약 10%를 처리할 수 있다. 이러한 고차 굴절 오차들은 눈의 불규칙적으로 형상화된 광학 표면들에 의해 발생될 수 있고, 특히 굴절 보정 수술들(refractive surgeries) 후에 일반적이다. 예컨대, 눈의 각막 및/또는 수정체의 형상 불규칙성들은, 눈을 통해 망막으로 전달되는 광에 고차 굴절 오차들을 도입할 수 있다. 그러한 고차 수차들은 적합한 굴절 보정으로 감소될 수 있다.
[0099] 본원에서 설명된 광 필드 프로세서 시스템(600)의 다양한 구현들은 이러한 고차 수차들에 대해 계산적인 보정을 들어오는 파면들에 제공하기 위해 적용가능할 수 있다. 그러한 계산적인 보정들은 사용자의 눈의 고차 수차들의 측정에 기반하여 광 필드 프로세서(70)에 의해 적용될 수 있다. Zernike 모드들(예컨대, 난시, 혼수상태, 트레포일(trefoil), 구면 수차들, 쿼트레포일(quatrefoil) 등)에 의해 설명된 모든 수차들의 보정들을 포함하는, 파면 보정들은 본원에서 설명된 광 필드 프로세서 시스템(600)을 활용하여 이루어질 수 있다.
[0100] 일부 실시예들에서, 광 필드 프로세서 시스템(600)은, 본원에서 설명된 바와 같이, 사용자의 눈들의 고차 수차들을 측정하기 위한 능력을 가질 수 있다. 그런다음, 이러한 측정들은, 통합 이미징 카메라(16)에 의해 수집된 광 필드 이미지 데이터를 계산적으로 변경하기 위해 광 필드 프로세서(70)에 의해 사용될 수 있다. 다른 실시예들에서, 광 필드 프로세서(70)는 외부 디바이스로부터 사용자의 눈들의 고차 수차 측정들을 수신한다. 예컨대, 광 필드 프로세서 시스템(600)은, 시스템과 원격 프로세싱 모듈(72) 및/또는 원격 데이터 저장소(74) 간의 데이터의 송신 및 수신을 할 수 있게 하기 위한 하나 이상의 송신기들 및 수신기들을 포함할 수 있다. 송신기 및 수신기는 트랜시버로 조합될 수 있다. 일부 실시예들에서, 원격 프로세싱 모듈(72) 및/또는 원격 데이터 저장소(74)는, 제3 자(예컨대, 의사 또는 다른 의료 관리자)가 데이터, 이를테면, 예컨대, 시력 처방을 검안 디바이스로 송신하게 할 수 있는 제3 자 서버 및 데이터베이스의 부분일 수 있다.
[0101] 일부 실시예들에서, 고차 수차들을 보정하기 위한 방법은, 근시, 원시 또는 난시를 보정하기 위한, 도 8에 설명된 방법(800)과 유사할 수 있다. 광 필드 프로세서(70)는 우선 사용자의 눈(들)의 고차 수차들의 측정들을 수신한다. 이러한 측정들은 Zernike 계수들로서, 각막의 토포그래피의 맵으로서, 또는 임의의 다른 적절한 포맷으로 제공될 수 있다. 그런다음, 광 필드 프로세서(70)는 통합 이미징 카메라(16)에 의해 수집된 광 필드 이미지 데이터를 수신한다. 마지막으로, 광 필드 프로세서(70)는, 하나 이상의 고차 수차들을 적어도 부분적으로 감소시키기 위해, 캡처된 광 필드 데이터의 파면들에 이루어지는 하나 이상의 조정들을 선택한다. 이러한 보정들은 계산적으로 적용된다.
[0102] 사용자의 눈은, 원근조절이 변함에 따라 변하는 고차 굴절 오차들을 경험할 수 있다. 그에 따라서, 일부 실시예들에서, 광 필드 프로세서(70)는, 사용자의 눈(들)의 현재 원근조절에 기반하여 그리고/또는 광 필드 이미지 데이터의 초점 평면에 기반하여 들어오는 광 필드에 대해 이루어지는 상이한 세트의 파면 조정들을 선택할 수 있다.
[0103] 일부 구현들에서, 광 필드 프로세서 시스템(600)은 또한, 각막, 수정체 및/또는 눈의 다른 해부학적 구조에서 미세한 결함들의 효과들을 감소시키기 위해, 수집된 광 필드 이미지 데이터를 변경하도록 구성될 수 있다. 이러한 결함들은 복잡한 굴절, 반사, 및 시각적 품질을 손상시키는 산란 패턴들을 생성할 수 있다. 광 필드 프로세서(70)는 이러한 결함들과 상호작용할 광선들을 공간적으로 필터링할 수 있고, 따라서 손상된 시각적 품질에 기여하는 그러한 광학 경로들을 차단한다. 이것은, 사용자의 눈(들)의 결함들과 상호작용할, 수집된 광 필드 이미지 데이터에서 광선들을 식별하고, 그런다음 프로세싱된 광 필드로부터 그러한 선택된 광선들을 계산적으로 제거함으로써 이루어질 수 있다.
[0104] 일단 광 필드 프로세서(70)가 캡처된 광 필드 이미지 데이터에 대해 원하는 계산적인 보정들을 수행하였다면, 블록(860)에서, 통합 이미징 디스플레이(62)는 보정된 광 필드 이미지 데이터를 사용자에게 디스플레이한다.
[0105] 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 오브젝트 또는 이미지를 보는 데 있어서 사용자의 편안함 레벨을 결정하도록 구성된 바이오피드백 시스템을 포함할 수 있다. 예컨대, 사용자의 눈들이 시프팅하고, 원근조절을 변경하고, 동공 사이즈를 변경하고, 버전스를 변경하는 식이면, 이들은 사용자가 오브젝트 또는 이미지를 편안하게 볼 수 없다는 표시자들일 수 있다. 원근조절 또는 원근조절과 연관된 거동들에서의 불안정성 또는 진동은, 사용자가 오브젝트에 초점을 맞추려고 노력하고 있다는 표시일 수 있다. 그에 따라서, 바이오피드백 시스템은 사용자의 눈의 상태 또는 특성들에 관련된 실시간 입력들을 수신할 수 있다.
[0106] 다양한 실시예들에서, 광 필드 프로세서 시스템(600)은, 사용자의 하나 이상의 눈들을 추적하기 위해 하나 이상의 눈 추적 카메라들 또는 다른 카메라들 또는 이미징 시스템들을 포함한다. 예컨대, 일부 실시예들은, 사용자의 눈들을 모니터링하고 추적하도록 구성된 광 소스들(26)(예컨대, 적외선 광 소스들)과 페어링된 카메라들(24)(예컨대, 적외선 카메라들)을 활용할 수 있다. 이러한 카메라들 및 소스들은 광 필드 프로세서 시스템(600)에 동작가능하게 커플링될 수 있다. 그러한 카메라들 및/또는 이미징 시스템들은 눈들의 배향, 눈들의 동공 사이즈들, 눈들의 버전스, 및 눈들의 개개의 시선들의 대응하는 방향들을 모니터링할 수 있다. 일부 실시예들에서, 카메라들(24)은 눈들의 수렴 포인트를 결정하는 데 사용될 수 있다. 게다가, 본원에서 설명된 바와 같이, 시스템(600)은 사용자의 눈들의 원근조절을 결정하도록 구성될 수 있다. 눈 추적 시스템은 다수의 측정들을 비교함으로써 눈들의 원근조절에서 변동을 검출할 수 있다. 일부 실시예들에서, 원근조절은 눈(들)의 렌즈(들)의 형상, 눈들의 버전스, 동공 사이즈 등에 기반하여 모니터링될 수 있다. 일부 실시예들에서, 원근조절 상태를 모니터링하는 것은 작은 이미지를 눈(예컨대, 도트 또는 다수의 도트들)으로 프로젝팅하는 것, 및 내향 카메라들을 사용하여, 이미지가 망막에 초점이 맞춰지는지 여부를 모니터링하는 것을 포함할 수 있다. 원근조절에서의 변동들은 불편한 초점 깊이 또는 블러링된 이미지를 표시할 수 있다. 따라서, 광 필드 프로세서 시스템은, 변동들이 중단되거나 줄어들 때까지, 처방을 계산적으로 증가 또는 감소시킬 수 있고, 이로써 편안한 보기 처방에 도달한다.
[0107] 일부 실시예들에서, 검안 디바이스는, 머리 포지션, 머리 포즈 또는 배향의 변화들을 모니터링하기 위해 자이로스코픽 센서들, 가속도계들, 다른 센서들, 또는 이들의 조합을 포함한다. 일부 실시예들에서, 시스템(600)은 사용자의 머리의 움직임으로 인한 시스템의 움직임 및/또는 배향을 검출하도록 구성된 센서 어셈블리(39)를 포함할 수 있다. 바이오피드백 시스템은 검출된 머리 움직임을 수신하도록 구성될 수 있고, 움직임의 빈도 및/또는 크기가 임계치를 넘는다면, 시스템은 사용자가 이미지를 편안하게 볼 수 없다는 것을 결정하도록 구성될 수 있다. 예컨대, 일정한 머리 움직임은 이미지의 편안한 보기 포지션의 탐색을 나타낼 수 있다. 사람이 초점이 잘 맞지 않을 수 있다는 그러한 표시들이 존재하면, 광 필드 프로세서 시스템은 그러한 것을 사용자에게 알리거나, 주관적인 비전 테스트를 수행하거나, 비전 품질을 개선하기 위해 사용자의 처방을 객관적으로 그리고 자동으로 평가하도록 구성될 수 있다.
[0108] 다음의 단락들은 본원에서 설명된 디바이스들, 시스템들 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0109] 웨어러블 검안 디바이스로서, 웨어러블 검안 디바이스는: 사용자의 주변들로부터 광을 수신하고, 수치 광 필드 이미지 데이터를 생성하도록 구성된 외향 머리-장착 광 필드 카메라; 수치 광 필드 이미지 데이터에 액세스하고, 사용자의 눈에 대한 시력 처방을 획득하고, 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 시력 처방에 기반하여 일정 크기의 포지티브 또는 네거티브 광학력을 수치 광 필드 이미지 데이터에 계산적으로 도입하도록 구성된 광 필드 프로세서; 및 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하도록 구성된 머리-장착 광 필드 디스플레이를 포함한다.
[0110] 이전 단락의 디바이스에 있어서, 광학력은 구면 또는 원주 광학력을 포함한다.
[0111] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 수정된 수치 광 필드 이미지 데이터는 시력 처방에 대해 적어도 부분적으로 보정된다.
[0112] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는, 수치 광 필드 이미지 데이터에 의해 표현된 하나 이상의 파면들을 식별하고, 시력 처방에 기반하여 하나 이상의 파면들의 곡률을 계산적으로 수정함으로써, 수정된 수치 광 필드 이미지 데이터를 생성하도록 구성된다.
[0113] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 가상 현실 또는 증강 현실 이미지 콘텐츠를 수치 광 필드 이미지 데이터에 부가하도록 추가로 구성된다.
[0114] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 시력 처방은 근시에 대한 처방을 포함한다.
[0115] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 시력 처방은 원시에 대한 처방을 포함한다.
[0116] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 시력 처방은 난시에 대한 처방을 포함한다.
[0117] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 시력 처방은 사용자의 눈의 고차 수차들에 관한 정보를 포함한다.
[0118] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 카메라는 마이크로-렌즈들의 2-차원 어레이 및 대응하는 광검출기들의 2-차원 어레이를 갖는 통합 이미징 카메라를 포함한다.
[0119] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 디스플레이는 마이크로-렌즈들의 2-차원 어레이 및 대응하는 광 소스들의 2-차원 어레이를 갖는 통합 이미징 디스플레이를 포함한다.
[0120] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 디스플레이는, 시력 처방을 측정하기 위해 적외선 광을 사용자의 눈으로 프로젝팅하도록 구성된 하나 이상의 적외선 광 소스들을 포함한다.
[0121] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 수정된 수치 광 필드 이미지 데이터를 실시간적으로 생성하도록 구성된다.
[0122] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 시력 처방을 생성하도록 구성된다.
[0123] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는, 수치 광 필드 이미지 데이터에 포지티브 또는 네거티브 광학력의 제1 테스트 양을 계산적으로 도입함으로써; 포지티브 또는 네거티브 광학력의 제1 테스트 양과 관련하여 사용자로부터 피드백을 수신함으로써; 그리고 광 필드 이미지 데이터에 포지티브 또는 네거티브 광학력의 제2 테스트 양을 계산적으로 도입함으로써 시력 처방을 생성하도록 구성된다.
[0124] 이전 단락들 중 임의의 단락의 장치에 있어서, 광 필드 프로세서는, 물리적 광 필드의 일부로서 생성되는 경우, 사용자의 각막 또는 수정체의 결함과 상호 작용할 하나 이상의 광선을 제거함으로써 수정된 수치 광 필드 이미지 데이터를 생성하도록 추가로 구성된다.
[0125] 웨어러블 검안 디바이스를 사용하는 방법으로서, 이 방법: 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 사용자의 주변들의 수치 광 필드 이미지 데이터에 일정 크기의 포지티브 또는 네거티브 광학력을 계산적으로 도입하는 단계 - 일정 크기의 광학력은 사용자에 대한 시력 처방에 기반함 - ; 및 광 필드 디스플레이를 사용하여 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하는 단계를 포함한다.
[0126] 이전 단락의 방법에 있어서, 광학력은 구면 또는 원주 광학력을 포함한다.
[0127] 이전 단락들 중 임의의 단락의 방법으로서, 수정된 수치 광 필드 이미지 데이터를 생성하는 단계는, 시력 처방을 위해 수치 광 필드 이미지 데이터를 적어도 부분적으로 보정하는 단계를 포함한다.
[0128] 이전 단락들 중 임의의 단락의 방법에 있어서, 수정된 수치 광 필드 이미지 데이터를 생성하는 단계는, 수치 광 필드 이미지 데이터에 의해 표현된 하나 이상의 파면들을 식별하는 단계 및 시력 처방에 기반하여 하나 이상의 파면들의 곡률을 계산적으로 수정하는 단계를 포함한다.
[0129] 이전의 단락들 중 임의의 단락의 방법은, 가상 현실 또는 증강 현실 이미지 콘텐츠를 수치 광 필드 이미지 데이터에 부가하는 단계를 더 포함한다.
[0130] 이전 단락들 중 임의의 단락의 방법으로서, 시력 처방은 근시용 처방을 포함한다.
[0131] 이전 단락들 중 임의의 단락의 방법으로서, 시력 처방은 원시용 처방을 포함한다.
[0132] 이전 단락들 중 임의의 단락의 방법으로서, 시력 처방은 난시용 처방을 포함한다.
[0133] 이전 단락들 중 임의의 단락의 방법으로서, 시력 처방은 사용자의 눈의 고차 수차에 관한 정보를 포함한다.
[0134] 이전 단락들 중 임의의 단락의 방법은, 사용자의 주변들로부터 광을 수신하는 단계 및 광 필드 카메라를 사용하여 수치 광 필드 이미지 데이터를 생성하는 단계를 더 포함하며, 광 필드 카메라는 마이크로-렌즈들의 2차원 어레이 및 광검출기들의 대응하는 2차원 어레이를 갖는 통합 이미징 카메라를 포함한다.
[0135] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 디스플레이는 마이크로 렌즈들의 2차원 어레이 및 광 소스들의 대응하는 2차원 어레이를 갖는 통합 이미징 디스플레이를 포함한다.
[0136] 이전의 단락들 중 임의의 단락의 방법은 시력 처방을 측정하기 위해 적외선 광을 사용자의 눈에 프로젝팅하는 단계를 더 포함한다.
[0137] 이전 단락들 중 임의의 단락의 방법은, 수정된 수치 광 필드 이미지 데이터를 실시간으로 생성하는 단계를 더 포함한다.
[0138] 이전 단락들 중 임의의 단락의 방법은 시력 처방을 생성하는 단계를 더 포함한다.
[0139] 이전 단락의 방법에 있어서, 시력 처방을 생성하는 단계는, 수치 광 필드 이미지 데이터에 포지티브 또는 네거티브 광학력의 제1 테스트 양을 계산적으로 도입하는 단계; 포지티브 또는 네거티브 광학력의 제1 테스트 양과 관련하여 사용자로부터 피드백을 수신하는 단계; 및 광 필드 이미지 데이터에 포지티브 또는 네거티브 광학력의 제2 테스트 양을 계산적으로 도입하는 단계를 포함한다.
[0140] 이전 단락들 중 임의의 단락의 방법은, 물리적 광 필드의 부분으로서 생성되는 경우, 사용자의 각막 또는 수정체의 결함과 상호작용할 하나 이상의 광선들을 계산적으로 제거함으로써 수정된 수치 광 필드 이미지 데이터를 생성하는 단계를 더 포함한다.
색수차의 보정
[0141] 다양한 실시예들에서, 광 필드 프로세서 시스템(600)은 색수차를 적어도 부분적으로 보정 또는 보상하기 위해 사용될 수 있다. 색수차들은 광 필드 프로세서 시스템의 광학 기기 또는 사용자의 눈과 상이하게 상호작용하는 광의 상이한 파장들로부터 기인하는 그러한 것이다. 색수차들은 전형적으로, 광학 재료의 굴절률이 어느 정도 광의 파장의 함수로써 일반적으로 변한다는 사실에 의해 유발된다. 일반적으로 두 타입들의 색수차들이 있다: 종방향 색수차 및 횡방향 색수차. 종방향 색수차는, 상이한 파장들의 광이 렌즈로부터 상이한 거리에 초점을 맞출 때 발생한다. 횡 방향 색수차는, 상이한 파장들의 광이 광학 시스템의 초점 평면 상의 상이한 포지션에 초점을 맞출 때 발생한다. 색수차는 이미지의 컬러 컴포넌트들이 서로에 대해 시프트되거나 변위되게 할 수 있다.
[0142] 광 필드 프로세서 시스템(600)에 의해 프로젝팅되고 사용자에 의해 보여지는 광 필드 이미지 데이터는 전형적으로 다수의 컬러 컴포넌트들을 포함할 수 있다. 이미지 데이터의 상이한 컬러 컴포넌트들은 상이한 파장들의 광을 사용하여 프로젝팅될 수 있다. 예컨대, (상이한 원색들을 사용할 수 있는 것처럼 또한 상이한 수의 컬러 컴포넌트들이 사용될 수 있지만) 컬러 광 필드 이미지 데이터는, 적색 컴포넌트, 녹색 컴포넌트 및 청색 컴포넌트를 포함할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 상이한 파장들의 광의 초점을 변화시킴으로써 종방향 색수차를 보상하도록 구성될 수 있다. 이미 논의된 바와 같이, 광 필드 프로세서 시스템(600)은 포지티브 또는 네거티브 광학력을 도입함으로써 광 필드 이미지 데이터의 초점을 계산적으로 조정할 수 있다. 컬러 단위로 광 필드 이미지 데이터에 포지티브 또는 네거티브 광학력을 계산적으로 도입함으로써(즉, 제1 컬러 컴포넌트에 제1 양의 광학력을 계산적으로 도입하고, 제2 컬러 컴포넌트에 상이한 제2 양의 광학력을 계산적으로 도입하는 등), 광 필드 프로세서 시스템(600)은 적어도 부분적으로 종방향 색수차를 감소시키도록 이미지 데이터의 상이한 컬러들의 초점을 조정할 수 있다.
[0143] 게다가, 광 필드 프로세서 시스템(600)은, 적어도 부분적으로 횡방향 색수차들을 감소시키도록 상이한 컬러들의 광이 프로젝팅되는 각도들을 계산적으로 변경시키도록 구성될 수 있다. 이 각도 시프트의 크기는 상이한 컬러 컴포넌트들마다 상이할 수 있다. 일부 실시예들에서, 컬러 컴포넌트들에 대한 프로젝션 각도들에 대한 변경들은 전체 이미지에 걸쳐 일정하지만, 다른 실시예에서는 컬러 컴포넌트들에 대한 프로젝션 각도들에 대한 변경들은 이미지 내의 포지션의 함수로써 변할 수 있다.
[0144] 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 사용자의 시력 처방에 기반하여, 또는 광 필드 프로세서 시스템(600) 그 자체의 광학기기에 의해 유도되는 색수차들에 기반하여, 또는 이 둘 모두에 기반하여 색수차들을 보상하도록 구성될 수 있다.
[0145] 사용자의 눈은 망막에서 수신된 이미지 데이터에 색수차들을 부여할 수 있다. 눈에 의해 야기된 색수차들은 시력 처방에 기반하여 결정될 수 있다. 시력 처방은 종방향 색수차들 및/또는 횡방향 색수차들에 대한 처방을 포함할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템(600) 자체는 사용자의 시력 처방을 결정할 수 있다. 부가적으로 또는 대안적으로, 시스템은 사용자 인터페이스를 포함할 수 있고, 이에 의해 사용자는 시력 처방을 입력하거나, 광 필드 프로세서 시스템(600)은 눈의 색수차들을 결정하기 위해 눈-처방 구성 프로그램을 거칠 수 있다. 일부 실시예들에서, 본원에서 설명된 바와 같이, 광 필드 프로세서 시스템(600)은 바이오피드백 시스템으로부터 수신된 입력들에 기반하여 사용자의 시력 처방을 객관적으로 모니터링하고 동적으로(예를 들어, 실시간으로) 조정하도록 구성될 수 있다.
[0146] 유사하게, 광 필드 프로세서 시스템(600)은 또한 그 광학 기기를 통과하는 광 필드 이미지 데이터에 색수차들을 부여할 수 있다. 시스템(600)에 의해 야기되는 색수차들은, 시스템의 사양들, 제조 요건들 및/또는 특징화 측정들에 기반하여 결정될 수 있다. 광 필드 프로세서 시스템(600)은 이미지를 착용자의 눈에 프로젝팅할 때 이들 사전 결정된 수차들을 적어도 부분적으로 보상하도록 구성될 수 있다.
[0147] 사용자의 눈 및/또는 광 필드 프로세서 시스템(600) 자체에 의해 도입된 색수차들에 관한 정보가 알려지면, 시스템은 광 필드 프로세서 시스템(600)의 디스플레이에 의해 사용자에게 프로젝팅된 이미지 데이터에 적용하기 위해 적절한 이미지 수정 프로그램을 선택할 수 있다. 추가로 후술되는 바와 같이, 이미지 수정 프로그램은 예컨대, 종방향 색수차들을 보상하기 위해 이미지의 하나 이상의 컬러 컴포넌트들의 초점을 변경할 수 있다. 다른 실시예에서, 대안적으로 또는 조합하여, 이미지 수정 프로그램은 횡방향 색수차들을 보상하기 위해 이미지의 하나 이상의 컬러 컴포넌트들의 프로젝션 각도들을 변경할 수 있다.
[0148] 광 필드 프로세서(70)는 사용자에게 디스플레이될 광 필드 이미지 데이터의 컬러 컴포넌트들 각각에 대해 상이한 크기의 광학력을 제공함으로써 색수차를 보정하도록 구성될 수 있다. 예를 들어, 광 필드 프로세서(70)는 광 필드 이미지 데이터의 제1 컬러 컴포넌트에 대한 제1 광학력 조정을 계산적으로 제공하도록 구성될 수 있다. 광 필드 프로세서(70)는 광 필드 이미지 데이터의 제2 컬러 컴포넌트에 대해 제1 광학력 조정과 상이한 제2 광학력 조정을 계산적으로 제공하도록 구성될 수 있다. 유사하게, 광 필드 프로세서(70)는 광 필드 이미지 데이터의 제3 컬러 컴포넌트에 대해, 제1 및 제2 광학력 조정과 상이한 제3 광학력 조정을 계산적으로 제공하도록 구성될 수 있다. 임의의 광학력 조정들은 포지티브 또는 네거티브일 수 있다. 이미지 데이터의 임의의 컬러 컴포넌트에 제공된 광학력 조정의 특정 크기는 이미지 데이터의 컬러 컴포넌트들과 연관된 개개의 초점 평면들을 서로 더 가깝게 하기 위해 선택될 수 있다. 이러한 방식으로, 이미지의 각 컬러 컴포넌트의 초점 깊이는 선택적으로 변경되어 종방향 색수차를 감소시킬 수 있다.
[0149] 일부 실시예들에서, 광 필드 프로세서(70)는 광 필드 이미지 데이터의 상이한 컬러 컴포넌트들의 프로젝팅된 각도 또는 포지션을 계산적으로 변화시키도록 구성될 수 있다. 프로젝팅된 각도들/포지션들은 이미지 데이터의 상이한 컬러 컴포넌트들을 실질적으로 정렬하도록 변화될 수 있다. 일부 실시예들에서, 광 필드 프로세서(70)는 제1 조정 크기 만큼 광 필드 이미지 데이터의 제1 컬러 컴포넌트에 대한 프로젝션 각도 및/또는 포지션을 계산적으로 변경할 수 있다. 동일한 것이 이미지 데이터의 다른 컬러 성분들에 대해서도 횡방향 색수차를 감소시키기 위해 수행될 수 있다(즉, 제2 컬러 컴포넌트에 대한 프로젝션 각도 및/또는 포지션은 제2 조정 크기 만큼 계산적으로 변경될 수 있고, 제 3 컬러 컴포넌트에 대한 프로젝션 각도 및/또는 포지션은 제3 조정 크기 만큼 계산적으로 변경될 수 있음).
[0150] 전술한 조정들을 수행하기 위해 적합한 이미지 수정 프로그램을 선택한 후에, 광 필드 프로세서 시스템(600)은 프로젝팅된 광 필드 이미지 데이터의 색수차들을 계산적으로 보상하기 위해 이미지 수정 프로그램을 적용할 수 있다. 이것은 실시간으로 이루어질 수 있다. 시스템(600)이 색수차들을 보상할 때, 모든 색수차가 반드시 제거될 필요는 없다. 예컨대, 일부 색수차들은 주어진 사용자에 대한 깊이 큐의 현실적인 초점을 생성하는 데 기여할 수 있다. 따라서, 색수차의 보상은 개선된 또는 최적의 비전 품질을 제공하기 위해 다른 수차들을 보정하면서 일부 수차들을 허용하도록 제어될 수 있다.
[0151] 다음 단락들은 본원에서 설명된 디바이스들, 시스템들 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0152] 웨어러블 검안 디바이스는, 사용자의 주변들로부터 광을 수신하고, 수치 광 필드 이미지 데이터를 생성하도록 구성되는 외향 머리-장착 광 필드 카메라 - 수치 광 필드 이미지 데이터는 다수의 컬러 컴포넌트들을 포함함 -; 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 수치 광 필드 이미지 데이터를 계산적으로 수정하도록 구성된 광 필드 프로세서 - 컬러 컴포넌트들 중 상이한 컬러 컴포넌트들이 색수차를 적어도 부분적으로 보상하기 위해 상이하게 수정됨 - ; 및 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하도록 구성된 머리-장착 광 필드 디스플레이를 포함한다.
[0153] 이전 단락의 디바이스에 있어서, 색수차는 종방향 색수차를 포함한다.
[0154] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는, 수치 광 필드 이미지 데이터의 제1 컬러 성분에 제1 크기의 광학력을 계산적으로 도입하고, 그리고 수치 광 필드 이미지 데이터의 제2 컬러 컴포넌트에 제2 크기의 광학력을 계산적으로 도입하도록 구성되며, 제2 크기의 광학력은 제1 크기의 광학력과 상이하다.
[0155] 이전 단락의 디바이스에 있어서, 제1 크기의 광학력 및 제2 크기의 광학력은, 제1 컬러 컴포넌트의 초점 평면과 제2 컬러 컴포넌트의 초점 평면 사이의 차이가 감소되게 한다.
[0156] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 색수차는 횡방향 색수차를 포함한다.
[0157] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는 광 필드 이미지 데이터의 제1 컬러 컴포넌트를 제1 각도로 프로젝팅하고, 횡방향 색수차를 보상하기 위해 제1 각도와 상이한 제2 각도로, 광 필드 이미지 데이터의 제2 컬러 컴포넌트를 프로젝팅하도록 구성된다.
[0158] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 이미지 데이터의 컬러 컴포넌트들은 사용자의 눈에 대한 시력 처방에 기반하여 수정된다.
[0159] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 이미지 데이터의 컬러 컴포넌트들은 디바이스의 색수차의 측정에 기반하여 수정된다.
[0160] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 컬러 컴포넌트들은 적색, 녹색 및 청색 컬러 컴포넌트들을 포함한다.
[0161] 웨어러블 검안 디바이스를 사용하기 위한 방법으로서, 이 방법은: 사용자의 주변들로부터 광을 수신하는 단계 및 외향 머리-장착 광 필드 카메라를 사용하여 수치 광 필드 이미지 데이터를 생성하는 단계 - 수치 광 필드 이미지 데이터는 다수의 컬러 컴포넌트들을 포함함 - ; 광 필드 프로세서를 사용하여, 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 수치 광 필드 이미지 데이터를 계산적으로 수정하는 단계 - 컬러 컴포넌트들 중 상이한 컬러 컴포넌트들이 색수차를 적어도 부분적으로 보상하기 위해 상이하게 수정됨 - ; 및 머리-장착 광 필드 디스플레이를 사용하여, 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하는 단계를 포함한다.
[0162] 이전 단락의 방법에 있어서, 색수차는 종방향 색수차를 포함한다.
[0163] 이전 단락의 방법에 있어서, 수치 광 필드 이미지 데이터의 제1 컬러 성분에 제1 크기의 광학력을 계산적으로 도입하고, 그리고 수치 광 필드 이미지 데이터의 제2 컬러 컴포넌트에 제2 크기의 광학력을 계산적으로 도입하도록, 광 필드 프로세서를 사용하는 단계를 더 포함하며, 제2 크기의 광출력은 제1 크기의 광출력과 상이하다.
[0164] 이전 단락의 방법에 있어서, 제1 크기의 광학력 및 제2 크기의 광학력은, 제1 컬러 컴포넌트의 초점 평면과 제2 컬러 컴포넌트의 초점 평면 사이의 차이가 감소되게 한다.
[0165] 이전 단락 중 임의의 단락의 방법에 있어서, 색수차는 횡방향 색수차를 포함한다.
[0166] 이전 단락의 방법에 있어서, 광 필드 이미지 데이터의 제1 컬러 컴포넌트를 제1 각도로 프로젝팅하고, 횡방향 색수차를 보상하기 위해 제1 각도와 상이한 제2 각도로, 광 필드 이미지 데이터의 제2 컬러 컴포넌트를 프로젝팅하도록, 광 필드 프로세서를 사용하는 단계를 더 포함한다.
[0167] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 이미지 데이터의 컬러 컴포넌트들은 사용자의 눈에 대한 시력 처방에 기반하여 수정된다.
[0168] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 이미지 데이터의 컬러 컴포넌트들은 디바이스의 색수차의 측정에 기반하여 수정된다.
[0169] 이전 단락들 중 임의의 단락의 방법에 있어서, 컬러 컴포넌트들은 적색, 녹색 및 청색 컬러 컴포넌트들을 포함한다.
노안의 보정
[0170] 일부 실시예들에서, 광 필드 프로세서 시스템은 노안을 보상하기 위해 사용될 수 있다. 노안은 눈의 수정체의 원근조절의 폭이 감소하는 것이며, 전형적으로 노화와 연관된다. 가까운 오브젝트들의 경우, 모양체근이 수정체의 형상을 변경하여 안구가 수용하는 광을 망막에 초점을 맞추어 망막 상에 이미지를 형성하는 조절력을 제공한다. 나이가 들면, 눈의 수정체가 형상을 변경하고 근거리 보기를 위해 원근조절하는 능력이 감소된다. 통상적으로, 노안은 분할된 렌즈(예컨대, 이중 초점 렌즈, 삼중 초점 렌즈 등)를 포함하는 다초점 보정 렌즈 시스템을 사용하거나 연속적인 초점 길이 그래디언트(예컨대, 누진 렌즈)가 있는 렌즈들 또는 가변 초점 기계적-변형 또는 액정 렌즈들을 사용하여 치료된다.
[0171] 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 노안을 보조하도록 구성될 수 있다. 다양한 실시예들에서, 광 필드 프로세서 시스템(600)은 가변 초점 렌즈로서 계산적으로 기능할 수 있다. 위에서 설명된 바와 같이, 예컨대, 근시, 원시 또는 난시를 보정함에 있어서, 광 필드 프로세서 시스템(600)은 캡처된 광 필드 이미지 데이터에 계산 변환을 적용하여, 적용된 계산 변환을 변화시킴으로써 동적으로 변경될 수 있는 구면 파면 곡률을 부가할 수 있다. 광 필드 프로세서(70)를 사용하여 근거리 보기를 위해 포지티브 구면력을 부가함으로써, 시스템은 노안 보정을 제공할 수 있다. 근거리 보기를 위한 부가된 보정은, 전체 시야의 광 필드 이미지 데이터 또는 단지 그 일부분(예컨대, 시야의 하부 부분)에 적용될 수있다.
[0172] 일부 실시예들에서, 사용자는 광 필드 프로세서(70)에 의해 캡처된 광 필드에 부가된 초점 파워를 수동으로 조정할 수 있다. 예컨대, 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 광 필드 프로세서(70)에 의해 캡처된 광 필드에 계산적으로 적용되는 광학력을 증가시키거나 감소시키기 위한 피드백 메커니즘(예컨대, 사용자 인터페이스 제어)을 가질 수 있다. 사용자는 자신에게 제공되는 이미지 데이터의 초점에 기반하여 피드백을 제공할 수 있다.
[0173] 선택적으로 또는 부가적으로, 광 필드 프로세서 시스템(600)은, 사용자의 눈의 주관적인 또는 객관적인 측정에 기반하여 광 필드 프로세서(70)에 의해 부가된 광학력을 자동적으로 또는 대화식으로 조정하도록 구성될 수 있다. 예컨대, 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 눈들을 추적하기 위한 하나 이상의 눈 추적 카메라들 또는 이미징 시스템을 포함한다. 이러한 카메라들 및/또는 이미징 시스템들은 눈들의 배향 및 개개의 눈들의 시선의 대응하는 방향을 모니터링할 수 있다. 예컨대, 사용자의 눈들이 하방향으로 보고 있다면, 사용자는 책과 같은 가까운 오브젝트를 보거나, 전형적으로 근처의 오브젝트들과 연관된 위치(시야의 하부 부분)에 배치된 이미지들에 대응하는 프로젝팅된 이미지 콘텐츠를 보고 있을 수 있다. 응시는 눈의 버전스 - 눈들의 쌍의 시선들이 위치에 어떻게 수렴하고 그 위치가 얼마나 멀리 착용자에 관련되는지에 기반하여 또한 결정될 수 있다. 그에 따라서, 버전스를 모니터링함으로써, 뷰어가 오브젝트를 보려는 거리가 결정될 수 있다. 광 필드 프로세서 시스템(600)이 사용자가 근처의 오브젝트를 내려다 보거나 보고 있다고 검출할 때, 광 필드 프로세서(70)는 노안 보정을 돕기 위해 캡처된 광 필드 이미지 데이터에 구면력을 부가할 수 있다.
[0174] 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 사용자의 머리 포지션을 검출하는 센서들을 포함할 수 있다. 일 실시예에서, 뷰어가 오브젝트를 보려는 거리는 사용자의 머리 포지션(예컨대, 머리 포즈 또는 배향)에 기반하여 추정되거나 검출될 수 있다. 예컨대, 사용자의 머리가 전방향 및/또는 하방향으로 기울어지면, 착용자는 책과 같은 비교적 가까운 오브젝트를 보거나, 전형적으로 근처의 오브젝트들과 연관된 위치(시야의 하부 부분)에 배치된 이미지들에 대응하는 프로젝팅된 이미지 콘텐츠를 보고 있을 수 있다.
[0175] 일부 실시예들에서, 광 필드 프로세서 시스템(600)은, 본원의 다른 부분에서 논의된 바와 같이, 사용자의 머리 포지션들(예컨대, 머리 포즈 또는 머리 배향 - 똑바른 자세, 아래로 기울임, 위로 올려 보기 등) 및/또는 머리의 움직임들을 결정하도록 구성된 하나 이상의 가속도계들, 자이로스코프 센서들 등을 갖는 센서 조립체(39)를 포함할 수 있다. 광 필드 프로세서 시스템(600)은 또한 센서 어셈블리(39)에 동작 가능하게 커플링되고 센서 어셈블리(39)에 의해 검출된 움직임으로부터 머리 포지션들, 머리 포즈 및/또는 배향을 유도하는 디지털 및/또는 아날로그 프로세싱을 실행하도록 구성된 프로세서(32)(예컨대, 머리 포즈 프로세서)를 포함할 수 있다. 일 실시예에서, 센서 어셈블리(39)는 디지털 메모리에 저장된 움직임 데이터를 생성할 수 있다. 일부 실시예들에서, 시각적 결함(예컨대, 테스트 동안의 머리 움직임을 검출하는 것은 결함있는 테스트 및 결과를 나타낼 수 있음)을 진단하는 동안 움직임 데이터가 신호 잡음을 감소시키는 데 사용될 수 있다. 프로세서(32)는 이 움직임 데이터를 리트리브하고 프로세싱 로직을 실행하여 머리 포지션들(예컨대, 머리 포즈 또는 배향)을 결정할 수 있다.
[0176] 하나 이상의 실시예들에서, 응시 배향은 또한 눈 추적 시스템을 통한 눈 움직임의 추적에 기반할 수 있다. 일 실시예에서, 처방은 눈의 초점 깊이를 나타내는 사용자 눈 수렴 포인트들의 세트와 상관될 수 있다. 예컨대, 사용자의 머리 포지션은 변경되지 않을 수 있지만, 사용자의 눈들은 수평선 아래에 있는 수렴 포인트로 추적될 수 있다. 이러한 움직임은 근거리 초점 깊이에 위치된 오브젝트에 초점을 맞추는 눈을 나타낼 수 있다. 또한, 위에서 논의된 바와 같이, 눈들의 버전스는 뷰어가 자신의 관심을 지시하는 거리를 결정하는 것(예컨대, 초점 맞추기)을 도울 수 있다. 이 거리는 눈들의 시선들의 수렴으로부터 확인될 수 있다. 그에 따라서, 다양한 실시예들에서, 사용자의 눈들은 착용자로부터 특정 거리에 있는 수렴 점으로 추적될 수 있다.
[0177] 마찬가지로, 다양한 실시예들에서, 광 필드 프로세서 시스템은 눈들이 초점이 맞춰지고 원근조절되는 초점 깊이를 결정하도록 구성될 수 있다. 일부 실시예들에서, 눈-추적 시스템은 사용자의 수렴 포인트를 삼각 측량하고 그에 따라서 사용자에게 제공될 이미지들의 초점을 조정하는 데 사용될 수 있다. 예컨대, 눈-추적 시스템은 각각의 눈이 보는 방향(예컨대, 각각의 눈으로부터 연장되는 라인)을 결정하고, 방향들이 교차하는 수렴 각도를 결정할 수 있다. 수렴 포인트는 결정된 수렴 각도로부터 결정될 수 있다. 일부 실시예들에서, 눈-추적 시스템은 바이오피드백 시스템의 일부로서 포함될 수 있다. 위에서 설명된 바와 같이, 다양한 실시예들에서, 광 필드 프로세서 시스템은, 광 소스들(26)(예컨대, 적외선 광 소스 및 적외선 카메라)과 쌍을 이루는 카메라(24)를 활용하여 각 눈의 포지션을 추적할 수 있으며, 이는 로컬 프로세싱 모듈(70)에 동작가능하게 커플링될 수 있다. 로컬 프로세싱 모듈(70)은 실행될 때, 눈들의 수렴 포인트를 결정하도록 구성될 수 있는 소프트웨어를 포함할 수 있다. 이 결정으로부터, 광 필드 프로세서 시스템은 또한 로직 디바이스를 실행하여 사용자의 응시의 배향 또는 방향에 기반하여 초점 위치 또는 깊이를 결정할 수 있다.
[0178] 다른 실시예에서, 응시 배향은 반짝임 검출을 통해 결정될 수 있다. 눈 추적 시스템은, 눈으로부터의 하나 이상의 반쩍임 또는 반사들을 포착하고 눈의 특징들(예컨대, 동공, 각막 등)에 대해 눈 상의 하나 이상의 반짝임들의 포지션을 결정하도록 구성될 수 있다. 눈이 움직임에 따라, 눈의 반짝임의 상대적 포지션이 변경될 수 있다. 예를 들어, 반짝임이 눈의 최상부에 위치하고 반짝임과 동공 사이의 공간이 증가하면, 이는 응시 배향이 아래쪽으로 기울었음을 나타내고, 눈들이 근거리 초점 깊이에 원근조절될 수 있다.
[0179] 도 12는 노안을 보정하기 위해 광 필드 프로세서 시스템(600)을 사용하는 예시적인 방법을 도시한다. 방법(1200)은 사용자의 처방에 기반하여 사용자에게 제공되는 광 필드 이미지 데이터를 수정하는 것에 관한 것이다. 일부 실시예에서, 방법(1200)은 도 3a-5와 관련하여 설명된 것과 같은 환자-착용 검안 디바이스에 의해 수행될 수 있다. 다양한 실시예들에서, 도 6 및 도 7에 설명된 광 필드 프로세서 시스템은 사용자의 시력 처방에 기반하여 노안에 대한 보정을 제공하는 데 사용될 수 있다.
[0180] 1202에서, 노안 처방이 사용자에 대해 결정된다. 처방은 사용자로부터 정보를 수신함으로써 결정될 수 있거나, 사용자에게 제공된 파면을 조정하고 사용자가 원하는 처방을 선택함으로써 광 필드 프로세서 시스템 자체에 의해 결정될 수 있다. 예컨대, 광 필드 프로세서 시스템은 원근조절의 상이한 초점 평면들에 대한 시력 처방을 테스트하도록 구성될 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은, 복수의 초점 깊이들에 대해 디스플레이 디바이스(62)를 통해 사용자에게 제공되는 광 필드 이미지 데이터의 파면들을 변경하는 데 있어서 이산 입상 단계들로 사전-프로그램될 수 있다. 예컨대, 광 필드 프로세서 시스템은 본원에서 설명된 바와 같이 포롭터 기술을 사용할 수 있다. 처방은 사용자 인터페이스를 통해 사용자에 의해 입력 될 수 있고, 원격 데이터 저장소(74)에 저장될 수 있다. 처방은 광 필드 프로세서 시스템, 예컨대, 원격 프로세싱 모듈(72)의 하나 이상의 프로세서들에 의해 리트리브될 수 있다.
[0181] 다른 실시예에서, 광 필드 프로세서 시스템은 바이오피드백 시스템을 통해 사용자의 처방을 자동으로 그리고 가능하게는 점진적으로 변경할 수 있다. 바이오피드백 시스템은 오브젝트 또는 이미지를 볼 때 사용자의 편안함 레벨을 결정하도록 구성될 수 있다. 예컨대, 사용자의 눈들이 불안정하고, 시프팅하고 있고, 진동하고 있고, (예컨대, 불안정하거나 랜덤 방식으로) 원근조절이 변경되고 있는 등의 경우, 이들은 사용자가 편안하게 오브젝트를 볼 수 없다는 표시자들일 수 있다. 그에 따라서, 원근조절, 버전스, 동공 사이즈 등이 모니터링될 수 있으며, 그리고/또는 자동굴절기 또는 다른 디바이스(예컨대, SLO(scanning laser ophthalmoscope))가, 이미지가 망막의 중심와 상에 초점이 맞춰지는지 여부를 확인하기 위해 사용될 수 있다.
[0182] 일부 실시예들에서, 광 필드 프로세서 시스템은 제3 자로부터 노안 보정(예컨대, 부가된 광학력)에 대한 시력 처방을 수신하도록 구성될 수 있다. 예컨대, 의사는 (예컨대, 인터넷, 블루투스 연결, 병원 네트워크 등을 통해) 무선으로 사용자의 시력 처방을 전송할 수 있으며, 이러한 시력 처방은 수신기 또는 트랜시버에 의해 수신되어, 로컬 프로세싱 모듈(70)의 디지털 메모리에 저장된다.
[0183] 1204에서, 시스템은 보상 파면들에 대한 정보를 저장할 수 있다. 보상 파면들은 원근조절의 변하는 초점 깊이들에 대한 사용자의 시력 처방에 기반할 수 있다. 일부 실시예들에서, 정보는 초점 깊이를 변화시키기 위한 입력 파라미터들일 수 있다.
[0184] 일부 실시예들에서, 각각의 보정 함수는 원하는 파면 보정을 달성하기 위한 조정들을 정의하는 입력 파라미터들의 세트를 포함한다. 입력 파라미터들은, 착용자가 근거리 초점 깊이에 초점을 맞추고 있을 때 사용자의 노안을 보정하기 위한 시력 처방에 기반할 수 있다. 시스템은 상이한 뷰잉 거리(viewing distance)들 및 대응하는 보정 함수를 상관시켜서, 변하는 초점 깊이들에서 원근조절하는 것과 연관된 굴절 오차들을 보상할 수 있다. 그에 따라서, 상이한 수렴 포인트들 및 원근조절의 초점 깊이들은 상이한 처방 보정과 상관될 수 있다.
[0185] 일부 실시예들에서, 이러한 정보는 추가로, 머리 포지션들의 세트(예컨대, 머리 포즈들, 배향들), 및/또는 시선 방향들과 상관될 수 있다. 예컨대, 사용자의 머리가 하방향으로 기울어진다면, 눈들은 소정의(예컨대, 더 근접한) 초점 깊이에서 원근조절하고 있을 수 있다. 그에 따라서, 다양한 실시예들에서, 노안에 특정한 프로그램들이 광 필드 프로세서 시스템에 사전-프로그래밍(또는 다운로딩)될 수 있고, 그에 따라, 정확한(right) 머리 포지션(예컨대, 머리 포즈, 배향) 및/또는 시선 배향이 일정 크기의 노안 보정과 정확하게 매칭될 수 있다. 상이한 시선 방향들 및 머리 배향들은 원근조절을 돕기 위해 상이한 처방 보정과 상관될 수 있다. 따라서, 광 필드 프로세서 시스템은, 측정된 시선 방향 및/또는 머리 포지션, 머리 포즈, 또는 배향에 따라, 상이한 광학 보정을 제공하도록 구성될 수 있다.
[0186] 1206에서, 시스템은, 자이로스코프들, 가속도계들, IMU(inertial measurement unit)들, 다른 센서들, 또는 그 조합들을 통해, 사용자의 시선의 배향 및/또는 머리 포지션, 머리 포즈, 또는 배향을 검출할 수 있다. (예컨대, 눈들의 수렴 포인트를 포함하는) 시선 배향 및/또는 머리 포지션, 머리 포즈, 또는 배향은, 위에서 설명된 바와 같이, 착용자가 가까이 보고 있는지 또는 멀리 보고 있는지 여부 및 그에 따라 착용자가 원근조절될 필요가 있는지 여부를 표시할 수 있다. 그에 따라서, 상이한 보정 함수들이 원근조절의 상이한 초점 깊이들에 대해 사용될 수 있다.
[0187] 일부 실시예들에서, 광 필드 프로세서 시스템은 센서 어셈블리(39), 프로세서(32), 및 사용자의 머리의 움직임, 기울어짐 및 배향을 검출하도록 구성될 수 있는 머리 포즈 프로세서(36)를 포함한다. 일부 실시예들에서, 센서들은 로컬 프로세싱 모듈(70)에 동작가능하게 커플링될 수 있고, 로컬 프로세싱 모듈(70)은 검출된 머리 움직임 및/또는 결정된 머리 포지션, 머리 포즈, 또는 배향을 리트리브하기 위한 로직을 실행시킬 수 있다. 사용자의 머리의 하방향 움직임은 근거리 내의 오브젝트에 초점을 맞추는 것을 표시할 수 있다.
[0188] 일부 실시예에서, 위에서 설명된 바와 같이, 시선 배향은 눈 움직임을 추적하는 것에 기반할 수 있다. 예컨대, 사용자의 하나 이상의 눈들의 하방향 움직임은 근거리 내의 오브젝트에 초점을 맞추는 것(예컨대, 수평으로부터 수평 아래에 유지된 책으로 뷰를 시프팅하는 것)을 표시할 수 있다. 따라서, 사용자의 눈들이 하방향으로 시프팅했다고 눈 추적 시스템이 결정한다면, 노안 처방에 기반하여 적합한 보정 함수가 결정될 수 있다. 다른 실시예에서, 눈 추적 시스템은 수렴의 각도가 증가하고 있는지(즉, 수렴 포인트가 사용자에게 더 근접해지고 있는지) 여부를 결정하도록 구성될 수 있다. 그러한 결정은 근거리 내의 오브젝트에 초점을 맞추는 것을 표시할 수 있다. 따라서, 광 필드 프로세서 시스템은 원근조절의 초점 깊이를 결정할 수 있다.
[0189] 일부 실시예들에서, 시스템은 각각의 눈의 포지션을 추적하기 위해 카메라들(24)을 활용할 수 있고, 카메라들(24)은 광 필드 프로세서(70)에 동작가능하게 커플링될 수 있다. 다른 실시예에서, 시스템은 카메라들(24)을 활용하여 반짝임 검출 및 모니터링을 수행할 수 있으며, 여기서, 예컨대, 카메라(24)는 눈의 특징들(예컨대, 눈의 에지, 눈꺼풀과 눈의 교차점, 동공 등)에 대한 반짝임의 포지션을 추적한다. 광 필드 프로세서(70)는, 실행될 때, 눈 움직임, 반짝임 움직임을 추적하고, 그리고/또는 눈들의 수렴 포인트를 결정하도록 구성될 수 있는 소프트웨어를 포함할 수 있다. 일부 실시예들에서, 시선 배향은 원격 데이터 저장소(74)에 저장될 수 있다.
[0190] 일부 실시예들에서, 원격 프로세싱 모듈(72)은 시선 배향, 수렴의 각도, 및/또는 머리 포지션 정보를 시력 처방과 상관시키도록 구성될 수 있으며, 이러한 모든 정보는 원격 데이터 저장소(74)에 또는 로컬로 저장될 수 있다.
[0191] 1208에서, 검출된 시선 배향 및/또는 머리 포지션에 기반하여, 시스템은, 보상된 파면들을 생성하기 위해, 캡처된 광 필드 이미지 데이터에 계산적으로 적용하기 위한 적합한 보정 함수를 결정하기 위하여 맵핑 테이블(예컨대, 1204에서 저장된 정보)에 문의한다. 예컨대, 시선 배향 또는 방향 및/또는 머리 포지션에 기반하여, 시스템은 눈이 원근조절하고 있는 초점 깊이를 결정할 수 있다. 다양한 실시예들에서, 시력 처방들은 원근조절과 연관된 하나 이상의 초점 깊이들과 상관될 수 있다. 예컨대, 상이한 양들의 원근조절과 연관된 상이한 수렴 포인트들 또는 초점 깊이들은 상이한 시력 처방들 및 보정 함수들과 상관될 수 있다.
[0192] 다양한 실시예들에서, 1208에서, 시스템은 원근조절의 검출된 초점 깊이를 리트리브할 수 있고, 1204에서 저장된 맵핑에 문의할 수 있다. 맵핑에 기반하여, 시스템은 그러한 식별된 초점 깊이에 대해 적합한 보정 함수를 결정할 수 있다.
[0193] 일부 실시예들에서, 광 필드 프로세서(70)는 1206에서 디지털 메모리에 저장된 검출된 시선 배향을 리트리브할 수 있다. 또는, 광 필드 프로세서(70)는 검출된 시선 배향을 눈 추적 시스템, 센서 어셈블리(39), 및/또는 머리 포즈 프로세서(36)로부터 직접적으로 수신할 수 있다. 광 필드 프로세서(70)는, 1206에서 저장된 맵핑 테이블에 액세스하고, 그리고 시선 배향, 수렴의 각도, 및/또는 머리 포지션에 기반하여, 노안을 보상하기 위해, 수집된 광 필드 이미지 데이터에 계산적으로 적용될 적합한 대응하는 보정 함수를 선택하기 위한 로직을 실행시킬 수 있다.
[0194] 1210에서, 적합한 보상 파면(예컨대, 포지티브 구면 광학력)이, 수집된 광 필드 이미지 데이터에 계산적으로 적용된다. 1212에서, 수정된 광 필드 이미지 데이터는 사용자에게 제공된다. 프로세싱된 광 필드 이미지 데이터는, 블록(1210)에서 적용되는 바와 같은 선택된 보정 함수들에 기반하여 수정되는 파면들을 가질 수 있다.
[0195] 그에 따라서, 방법(1200)은 사용자의 노안을 동적으로 보정하도록 구현될 수 있다. 광 필드 프로세서에 의해 적용되는 보정은 동적으로 재구성될 수 있다(예컨대, 사용자의 시력 처방이 변경됨에 따라 실시간으로 재구성될 수 있고, 그에 따라, 광 필드 프로세서 시스템의 사용 동안 반복적으로 업데이트됨). 예컨대, 노안 처방 보정은 다양한 시간 간격들로 조정될 수 있다. 따라서, 광 필드 프로세서 시스템은 사용자의 노안 처방의 변경들에 대해 동적으로 보정하도록 구성될 수 있다. 간격은 미리 결정되고, 비전 결함들, 저하 또는 변경들의 예상된 레이트 또는 발생에 기반할 수 있다. 예컨대, 사용자의 노안은 사용자가 나이를 먹음에 따라 변할 수 있다.
[0196] 일부 실시예들에서, 1210에서, 광 필드 프로세서 시스템은 눈-처방 구성 프로그램을 구현할 수 있다. 1210에서, 광 필드 프로세서 시스템은, 블록(1202)으로 리턴하여, 위에서 설명된 바와 같이, 바이오피드백 시스템으로부터의 입력들에 기반하여 처방을 업데이트 또는 조정하여, 사용자 활성화없이, 각각의 간격으로 사용자의 처방을 수동으로 그리고 대화식으로 결정하도록 구성될 수 있다. 그러한 절차들은, 프로토콜에 의해 스케줄링되거나(예컨대, 한 달에 한 번, 일 년에 두 번 등의 횟수로 체크하도록 구성됨) 또는 비전 ― 예컨대 근거리 비전 ― 이 저하되고 있다고 결정될 때 스케줄링될 수 있다. 다른 실시예에서, 위에서 설명된 바와 같이, 바이오피드백 시스템은, 사용자가 원근조절하고자 애쓰고 있다는 것을 결정하기 위해, (예컨대, 카메라(24) 및 광 소스(26)를 통해) 사용자의 눈의 움직임들 및 변경들을 모니터링할 수 있다. 예컨대, 광 필드 프로세서 시스템은 눈의 자연 렌즈의 버전스, 동공 확장, 및/또는 움직임 및/또는 형상을 모니터링할 수 있다. 광 필드 프로세서 시스템은 또한, 망막의 중심와 상에 형성된 이미지를 모니터링하기 위해, 자동굴절기, 또는 본원에서 설명된 다른 기술을 사용할 수 있다. 그런다음, 광 필드 프로세서 시스템은, 새로운 시력 처방을 결정하고 그리고/또는 보정 함수를 조정(예컨대, 초점 깊이들 및 보정 함수들의 맵핑 테이블을 업데이트)하기 위해 눈-처방 구성 프로그램을 개시할 수 있다.
[0197] 하나 이상의 실시예들에서, 광 필드 프로세서 시스템은, 사용자가, 사용자에게 제공되는 하나 이상의 이미지들의 초점을 수동으로 조정할 수 있게 할 수 있다. 예컨대, 시스템은 초점 조정시 이산 단계들로 사전-프로그래밍될 수 있다. 그런다음, 사용자는 사용자 인터페이스를 통해 광 필드 프로세서 시스템에 대해 원하는 초점을 특정할 수 있다. 일부 실시예들에서, 사용자가 안락한 뷰잉 초점에 도달할 때까지, 사용자는 처방을 점진적으로 증가 또는 감소(예컨대, 초점을 변경)시키는 옵션을 가질 수 있다. 또는, 광 필드 프로세서 시스템은 가능하게는, 바이오피드백 시스템 및 다른 진단 기술들(예컨대, 본원에서의 포롭터 및 자동굴절기 기술의 설명 참조)을 활용함으로써 자동으로 처방을 점진적으로 증가 또는 감소시킬 수 있다. 일부 실시예들에서, 그러한 사용자 입력 처방들은 특정 시선 또는 머리 배향과 연관될 수 있으며, 그리고 착용자가 그러한 시선 또는 머리 배향을 가질 때 제공될 수 있다. 그러나, 일부 실시예들에서, 그러한 사용자 입력 처방들은 시선 또는 머리 배향과 독립적으로 적용될 수 있으며, 시선(gaze), 시선(line of sight), 및/또는 머리 배향에 따라 변경되지 않는다.
[0198] 다음 단락들은 본원에서 설명된 디바이스들, 시스템들 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0199] 웨어러블 검안 디바이스로서, 웨어러블 검안 디바이스는, 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하도록 구성되는 외향 머리-장착 광 필드 카메라; 수치 광 필드 이미지 데이터에서의 사용자로부터 오브젝트까지의 뷰잉 거리에 기반하여, 수치 광 필드 이미지 데이터에 일정 크기의 광학력을 계산적으로 도입함으로써, 수정된 수치 광 필드 이미지 데이터를 생성하도록 구성된 광 필드 프로세서; 및 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하도록 구성된 머리-장착 광 필드 디스플레이를 포함한다.
[0200] 이전 단락의 디바이스는, 사용자의 머리 배향을 결정하기 위한 머리-장착 가속도계 센서를 더 포함하고, 뷰잉 거리는 사용자의 머리 배향에 기반하여 추정된다.
[0201] 이전 단락들 중 임의의 단락의 디바이스는, 사용자의 시선 방향을 결정하기 위한 하나 이상의 머리-장착 눈 추적 카메라들을 더 포함하고, 뷰잉 거리는 사용자의 시선 방향에 기반하여 추정된다.
[0202] 이전 단락들 중 임의의 단락의 디바이스는, 사용자의 시선의 수렴 포인트를 결정하기 위한 하나 이상의 머리-장착 눈 추적 카메라들을 더 포함하고, 뷰잉 거리는 사용자의 시선의 수렴 포인트에 기반하여 추정된다.
[0203] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 일정 크기의 광학력은 사용자에 대한 시력 처방에 기반한다.
[0204] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 카메라는 통합 이미징 카메라를 포함한다.
[0205] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
[0206] 이전 단락들 중 임의의 단락의 디바이스는, 수치 광 필드 이미지 데이터에 도입하기 위한 일정 크기의 광학력을 특정하는 수동 제어부를 더 포함한다.
[0207] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 수치 광 필드 이미지 데이터의 전체 시야에 일정 크기의 광학력을 도입하도록 구성된다.
[0208] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 수치 광 필드 이미지 데이터의 시야의 하부 부분에만 일정 크기의 광학력을 도입하도록 구성된다.
[0209] 웨어러블 검안 디바이스 사용하기 위한 방법으로서, 방법은, 사용자의 주변들로부터 광을 수신하고, 그리고 외향 머리-장착 광 필드 카메라를 사용하여 수치 광 필드 이미지 데이터를 생성하는 단계; 광 필드 프로세서를 사용하여, 수치 광 필드 이미지 데이터에 일정 크기의 광학력을 계산적으로 도입함으로써, 수정된 수치 광 필드 이미지 데이터를 생성하는 단계 ― 도입되는 일정 크기의 광학력은 수치 광 필드 이미지 데이터에서의 사용자로부터 오브젝트까지의 뷰잉 거리에 기반함 ―; 및 머리-장착 광 필드 디스플레이를 사용하여, 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하는 단계를 포함한다.
[0210] 이전 단락의 방법은, 머리-장착 가속도계 센서를 사용하여 사용자의 머리 배향을 결정하는 단계를 더 포함하고, 뷰잉 거리는 사용자의 머리 배향에 기반하여 추정된다.
[0211] 이전 단락들 중 임의의 단락의 방법은, 하나 이상의 머리-장착 눈 추적 카메라들을 사용하여 사용자의 시선 방향을 결정하는 단계를 더 포함하고, 뷰잉 거리는 사용자의 시선 방향에 기반하여 추정된다.
[0212] 이전 단락들 중 임의의 단락의 방법은, 하나 이상의 머리-장착 눈 추적 카메라들을 사용하여 사용자의 시선의 수렴 포인트를 결정하는 단계를 더 포함하고, 뷰잉 거리는 사용자의 시선의 수렴 포인트에 기반하여 추정된다.
[0213] 이전 단락들 중 임의의 단락의 방법에 있어서, 일정 크기의 광학력은 사용자에 대한 시력 처방에 기반한다.
[0214] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 카메라는 통합 이미징 카메라를 포함한다.
[0215] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
[0216] 이전 단락들 중 임의의 단락의 방법은, 수동 제어부로부터, 수치 광 필드 이미지 데이터에 도입하기 위한 일정 크기의 광학력을 수신하는 단계를 더 포함한다.
[0217] 이전 단락들 중 임의의 단락의 방법은, 수치 광 필드 이미지 데이터의 전체 시야에 일정 크기의 광학력을 도입하는 단계를 더 포함한다.
[0218] 이전 단락들 중 임의의 단락의 방법은, 수치 광 필드 이미지 데이터의 시야의 하부 부분에만 일정 크기의 광학력을 도입하는 단계를 더 포함한다.
사시증/약시의 보정
[0219] 다른 공통적인 시각적 질병은, 융합된 스테레오 이미지를 생성하기 위해 단일 수렴 포인트에서 양쪽 눈들을 정렬할 수 없는 사시증이다. 이는 전형적으로, 병약한 안구 근육들이 자신의 정상적인 카운터파트(counterpart)와 그 움직임들을 조정할 수 없는 눈으로부터 비롯된다. 유사하게, 약시는 한쪽 눈 또는 양쪽 눈들의 비전이 감소되는 시각적 질병이다. 이러한 감소된 비전은 유아기 또는 어린 시절 동안의 비정상적인 비전 발달에 의해 야기될 수 있다. 약시는 종종 "사시"로서 지칭된다.
[0220] 일부 실시예들에서, 웨어러블 광 필드 프로세서 시스템(600)은, 이를테면 사시증 또는 약시로 인한 결핍들과 같은 집중력 결핍들을 치료 또는 보정하기 위해 사용될 수 있다. 예로서, 수렴이 각도 방식으로 오프셋된다면, 양쪽 눈들의 수렴 포인트를 함께 가져오도록 보정 프리즘 보정이 계산적으로 적용될 수 있다. 보정 프리즘 보정은, 광 필드 프로세서에 의해, 수집된 광 필드 이미지 데이터에 계산적으로 적용될 수 있다.
[0221] 양쪽 눈들의 수렴이 각지게 오프셋되는 경우, 다음의 기법들 중 하나 이상이 사용될 수 있다. 일부 실시예들에서, 눈 추적 시스템은 건강한 눈의 초점 및/또는 시선 벡터를 결정할 수 있다. 이러한 정보는 양쪽 눈들에 대한 목표 수렴 포인트를 결정하기 위해 추정될 수 있다. 소정의 실시예들에서, 눈 추적 시스템 및 깊이 감지 시스템이 양쪽 눈들의 수렴 포인트를 결정하기 위해 함께 사용될 수 있다. 소정의 구현들에서, 하나 이상의 눈들의 근육들은 양쪽 눈들의 초점 및/또는 수렴 포인트를 점차적으로 정렬하기 위해 치료 프로토콜을 통해 "재-트레이닝될" 수 있다. 치료 프로토콜은, 더 병약한 눈의 근육들을 강화하고 그리고/또는 더 병약한 눈으로부터의 광 신호들에 대한 뉴럴 반응들을 자극하도록 설계된 방법들을 포함하여, 본원에서 설명된 방법들을 포함할 수 있다.
[0222] 광 필드 프로세서 시스템(600)은 착용자에게 제공되는 이미지들에 프리즘 효과 또는 각도 시프트를 선택적으로 도입하도록 구성될 수 있다. 이는 다수의 방식들로 그리고 상이한 목적들로 행해질 수 있다. 예컨대, 계산적 보정 프리즘 보정은 (예컨대, 착용자의 한쪽 또는 양쪽 눈들에서의 집중력 결핍들을 보상하기 위해) 착용자를 위한 광학 보정으로서 적용될 수 있다. 이러한 보정은, 착용자의 결핍들을 고려하도록, 수집된 광 필드 이미지 데이터에 적용될 수 있으며, 그에 따라, 착용자가 사시증 및/또는 약시로 고생하는 경우에도 착용자가 양안 단일 비전을 달성하거나 그에 가까워질 수 있다.
[0223] 보정 프리즘 보정은 착용자에게 제공되는 이미지 데이터의 위치들을 조정함으로써 달성될 수 있다. 광 필드 프로세서는, 디스플레이에 제공되는 이미지들의 위치들을 (이미지 데이터가 그러한 개입없이 프로젝팅되는 경우와 비교하여) 횡방향으로(정상적인 시선에 직교 또는 광학 축에 수직) 시프팅함으로써 이를 달성할 수 있다. 시스템(600)은 착용자의 눈들의 초점 또는 정렬을 검출하고, 그리고 각각의 눈의 시야 내의 목표 포인트에 있도록 개개의 왼쪽 및 오른쪽 이미지들의 포지션들을 조정하도록 구성될 수 있다. 예컨대, 시스템(600)은 각각의 눈의 시선을 결정하기 위한 눈 추적을 포함할 수 있다. 시선이 결정될 때, 시스템은 개개의 왼쪽 및 오른쪽 눈들의 시야 내에 센터링되는 개개의 왼쪽 및 오른쪽 이미지들을 포지셔닝하도록 구성될 수 있다. 일부 실시예들에서, 더 병약한 눈을 재-트레이닝하기 위해, 시스템은 더 병약한 눈에 제공되는 이미지를 원하는 또는 목표 수렴 포인트쪽으로 점차적으로 이동시킬 수 있다. 이러한 방식으로, 더 병약한 눈은 강한 눈과 동일한 포인트를 제대로 보도록 재-트레이닝될 수 있다.
[0224] 계산적으로 적용하기 위한 프리즘 보정의 크기를 결정하기 위해, 광 필드 프로세서 시스템(600)은 이미지 및 광이 착용자의 약한 눈의 망막에 프로젝팅된 곳을 모니터링하도록 구성될 수 있다. (이는 본원에서 설명된, 통합된 눈 이미징 능력들을 사용하여 행해질 수 있다.) 프리즘 보정이, 광이 망막의 원하는 부분에 비춰질 수 있게 한다면, 이것이 맞는 것이다. 그렇지 않다면, 더 많거나 더 적게 요구된다. 본원에서 설명된 바와 같이, 자동굴절기 기술, 또는 다른 기술들(예컨대, SLO(scanning laser ophthalmoscopy))이, 보정 프리즘 보정이 착용자의 오정렬된 비전을 감소시켰는지 또는 보정했는지를 결정하는 데 사용될 수 있다. 일부 실시예들에서, 시스템(600)은 사용자가 외사시(exotropic) 또는 내사시(esotropic) 편차를 갖는지 여부를 결정(또는 이를 표시하는 입력을 수신)하도록 구성된다. 이러한 편차가 디바이스에 의해 알려지면, 비전 결함이 실질적으로 보정될 때까지 프리즘 보정들이 광 필드 이미지 데이터에 계산적으로 적용될 수 있다. 이는 자동으로 결정될 수 있거나, 또는 사용자 입력에 기반하여 결정될 수 있다. 일부 실시예들에서, 정확하거나 적절한 프리즘 보정을 자동으로 결정하기 위해, 시스템(600)은, 각도 편차(예컨대, 응시에서의 시프트)를 측정하기 위한 하나 이상의 내향 카메라들을 포함할 수 있고, 디스플레이를 사용하여 하나의 눈을 가리면서 다른 눈의 프리즘 처방을 변경할 수 있다. 일부 실시예들에서, 사용자 입력을 사용하여 정확하거나 적절한 프리즘 보정을 결정하기 위해, 시스템(600)은 매독스로드(Maddox rod) 테스트와 유사한 테스트를 구현하도록 구성될 수 있다. 예컨대, 시스템(600)은 테스트를 위해 광을 필터링하기 위한 디지털 필터를 제공할 수 있다. 다른 예로서, 시스템(600)은 2개의 상이한 깊이 평면들로부터의 이미지 소스들을 제공할 수 있다. (이는 착용자의 눈 내로 광을 프로젝팅하도록 구성된 광 소스들(714)을 사용하여 행해질 수 있다.) 사용자 입력에 기반하여, 시스템(600)은, 만족스러운 상태들이 충족될 때까지(예컨대, 제1 이미지가 제2 이미지와 정렬될 때까지), 프리즘 보정을 조정할 수 있다.
[0225] 다른 예로서, 계산적 보정 프리즘 보정이 치료 목적으로 (예컨대, 목표 수렴 포인트에 도달하도록 눈들을 점차적으로 재-트레이닝시키기 위해) 적용될 수 있다. 착용자의 개개의 눈들로의 상이한 특징들의 이미지들의 제공을 강조하는, 눈들을 재-트레이닝하기 위한 방법들이 또한 본원에서 논의된다.
[0226] 일부 실시예들에서, 광 필드 프로세서 시스템(600)은 눈 추적 시스템을 포함한다. 눈 추적 시스템은 착용자의 눈들의 시선을 결정하도록 구성될 수 있다. 눈 추적 시스템은 착용자의 눈들의 특성들을 감지하도록 구성된 하나 이상의 센서들을 포함할 수 있다. 일부 실시예들에서, 하나 이상의 센서들은 본원에서 설명된 카메라들을 포함한다. 다양한 실시예들에서, 카메라들을 포함하는 하나 이상의 센서들은 시선을 결정하기 위해 반짝임 및/또는 푸르키니에(Purkinje) 이미지들을 이미징하도록 구성될 수 있다. 눈 추적 시스템은, 하나 이상의 센서들로 획득된 정보에 적어도 부분적으로 기반하여 착용자의 눈들의 시선의 방향을 결정하도록 구성된 분석 모듈을 포함할 수 있다.
[0227] 일부 실시예들에서, 시스템(600)은 하나 이상의 외향 카메라들을 포함한다. 소정의 구현들에서, 하나 이상의 외향 카메라들은 도 5를 참조하여 본원에서 설명된 카메라들(16)과 유사할 수 있다.
[0228] 시스템(600)은, 착용자 또는 다른 사람이 디바이스에 입력을 제공할 수 있게 하도록 구성된 하나 이상의 사용자 인터페이스 특징들을 포함할 수 있다. 사용자 인터페이스 특징들은 시스템과 통합될 수 있다. 일부 구현들에서, 사용자 인터페이스 특징들은 시스템과 물리적으로 통합되지 않은 디바이스 또는 컴포넌트에 의해 제공된다. 예컨대, 사용자 인터페이스 특징들은 디바이스 또는 그 디바이스와 통신하는 시스템에 의해 제공될 수 있다. 이는 스마트폰, 컴퓨터, 태블릿, 또는 디바이스와 유선 또는 무선으로 통신하는 다른 계산 디바이스일 수 있다. 일부 실시예들에서, 사용자 인터페이스 특징들은 (예컨대, 유선 또는 무선 통신 네트워크들을 통해 또는 디바이스에 물리적으로 링크되거나 디바이스와 통합된 컴포넌트들을 통해) 디바이스에 링크된 상이한 디바이스들 및 시스템들의 조합에 의해 제공될 수 있다. 사용자 인터페이스 특징들은 터치 스크린을 갖는 디바이스 상에 제공될 수 있으며, 여기서, 터치 스크린과의 상호작용이 시스템(600)에 입력을 제공한다. 음성 인식 및/또는 가상 터치 스크린 기술이 또한 이용될 수 있다. 사용자 인터페이스 특징들은 터치에 민감한 용량성 특징들, 키보드들, 버튼들, 마이크로폰들, 광검출기들, 또는 그래픽 사용자 인터페이스에 의해 제공되는 다양한 소프트웨어-구현 특징들을 포함할 수 있다. 일부 실시예들에서, 사용자 인터페이스 특징들은, 착용자가 제스처들을 통해 사용자 입력을 제공할 수 있게 하는 제스처 검출 컴포넌트들을 포함한다. 일부 실시예들에서, 사용자 인터페이스 특징들은 착용자가 눈들의 시선을 통해 사용자 입력을 제공(예컨대, 이는 착용자가 버튼을 잠시 응시하는 경우, 또는 착용자가 버튼을 응시할 때 눈을 깜박거리는 경우, 버튼 또는 다른 엘리먼트를 선택하는 것을 포함할 수 있음)할 수 있게 하는 시선 검출 컴포넌트들을 포함한다. 그러한 시스템들은 본원에서 설명된 다른 디바이스들 및 시스템들에 대해 사용될 수 있다. 사용자 인터페이스 특징들은 터치 스크린을 갖는 디바이스 상에 제공될 수 있고, 여기서, 터치 스크린과의 상호작용이 웨어러블 광 필드 프로세서 시스템에 입력을 제공한다.
[0229] 일부 구현들에서, 착용자, 임상의, 의사 또는 다른 사용자는 비전 테스트 및/또는 치료의 양상들을 제어하기 위해 인터페이스 특징들을 사용할 수 있다. 이는, 예컨대 적용되는 계산 프리즘 보정의 크기, 이미지들의 계산적 횡방향 시프트의 크기를 변경하거나, 향상된 이미지들의 특징들을 수정하거나, 또는 그렇지 않으면 집중력 결핍들의 테스트 또는 치료를 구성하기 위해, 행해질 수 있다.
[0230] 도 13은, 광 필드 프로세서 시스템을 사용하여, 이를테면 사시증 및/또는 약시에 의해 야기되는 것들과 같은 집중력 결핍들을 치료하기 위한 예시적인 방법(1300)을 예시한다. 설명의 용이함을 위해, 방법(1300)은 본원에서 설명된 광 필드 프로세서 시스템(600)에 의해 수행되는 것으로 설명될 것이다. 방법(1300)은 더 강한 눈을 가리거나 또는 덜 강조(de-emphasizing)함으로써, 사시 또는 오정렬된 눈들을 "재-트레이닝"하는 프로세스를 포함한다. 많은 치료 프로토콜들이 사용자의 특정 처방에 기반하여 강구될 수 있고, 정확한 파라미터들 및/또는 기법들은 변할 수 있다는 것이 인지되어야 한다.
[0231] 블록(1302)에서, 광 필드 프로세서 시스템(600)은 양쪽 눈들의 초점 및/또는 수렴 포인트들의 차이를 결정한다. 본원에서 논의된 바와 같이, 이러한 차이는, 사용자 입력에 기반하여 또는 광 필드 프로세서 시스템에 의해 수행되는 처방 테스트에 기반하여 결정될 수 있다. 눈 추적 및/또는 시선 검출이 또한 사용될 수 있다. 광 필드 프로세서 시스템은, 예컨대, 초점들 및/또는 수렴 포인트들을 결정하기 위해 본원에서 설명된 방법들 중 임의의 방법을 수행하도록 구성될 수 있다.
[0232] 블록(1304)에서, 광 필드 프로세서 시스템(600)은 착용자의 시각적 결함을 치료하는 것을 돕기 위한 치료 프로토콜을 선택한다. 일부 실시예들에서, 치료 프로토콜은 의사 또는 임상의에 의해 고안될 수 있거나 치료 프로토콜은 외부 위치에서 고안되어 광 필드 프로세서 시스템 상으로 다운로드될 수 있다. 치료 프로토콜은 다양한 파라미터들을 포함할 수 있다. 예컨대, 치료 프로토콜은 치료가 관리되는 빈도를 수반할 수 있다. 치료 프로토콜은 착용자에게 제공될 이미지들의 타입 및/또는 각각의 눈에 보이는 2개의 디스플레이들 또는 이미지들의 차이들에 대한 정보를 포함할 수 있다. 예컨대, 치료 프로토콜은 상이한 특징들의 이미지들이 착용자에게 디스플레이되는 양안 제공(예컨대, 상이한 이미지들 또는 왼쪽 눈 및/또는 오른쪽 눈에 보이는 이미지의 버전이 변경되는 동일한 이미지)에 기반할 수 있다. 일부 구현들에서, 더 병약한 눈에 보이는 이미지는 향상될 수 있고 그리고/또는 더 강한 눈에 보이는 이미지는 약화될 수 있다. 예컨대, 더 병약한 눈에 보이는 이미지는 착용자에게 더욱 흥미롭거나 강렬하게 되도록 변경될 수 있다(예컨대, 밝아짐, 컬러-향상됨, 3차원적으로 향상됨, 선명해진 초점, 더 높은 해상도, 향상된 콘트라스트, 움직임, 더 높은 리프레시 레이트 등). 유사하게, 더 강한 눈에 보이는 이미지는 착용자에게 덜 흥미롭거나 덜 강렬하도록 변경될 수 있다(예컨대, 어두워짐, 뮤트된 색상, 평탄해짐, 블러링됨, 더 낮은 해상도, 더 낮은 콘트라스트, 정적, 더 낮은 리프레시 레이트 등). 다양한 구현들에서는, 더 병약한 눈에 보이는 이미지들만 변경되는 반면에, 더 강한 눈에 보이는 이미지들은 변경되지 않는다. 다양한 구현들에서는, 더 강한 눈에 보이는 이미지들만 변경되는 반면에, 더 병약한 눈에 보이는 이미지들 변경되지 않는다. 다양한 구현들에서는, 더 병약한 눈과 더 강한 눈 둘 모두에 보이는 이미지가 변경된다. 치료 프로토콜은 프로토콜의 지속기간에 대한 정보를 포함할 수 있다. 치료 프로토콜은 상호작용 가상 오브젝트들을 이용함으로써, "치료"를 사용자에게 더 즐겁게 만들고 치료 요법에 대한 사용자 컴플라이언스를 높일 수 있다. 치료 프로토콜은 동적 이미지들(예컨대, 영화, 게임 등)을 이용하여 치료를 보다 즐겁게 함으로써, 컴플라이언스를 늘릴 수 있다.
[0233] 블록(1306)에서, 광 필드 프로세서 시스템은 치료 프로토콜에 부착된 스케줄러에 적어도 부분적으로 기반하여 치료 프로토콜을 시작할 시간 또는 시간 윈도우를 검출 또는 결정할 수 있다. 예컨대, 치료 프로토콜은 눈의 재-트레이닝이 10 PM에 또는 8 AM과 9 AM 사이의 시간에 매일 수행되도록 프로그래밍될 수 있다. 치료 프로토콜은 예컨대, 매주 한 번만 규정될 수 있다. 치료 프로토콜은 더 많은 치료 세션들을, 이를테면 일주일에 적어도 두 번, 일주일에 적어도 다섯 번, 매일 그리고/또는 하루에 여러 번, 이를테면 하루에 적어도 한 번, 두 번, 세 번, 네 번 또는 다섯 번을 수반할 수 있다. 일부 실시예들에서, 치료 프로토콜은 눈들이 더 많이 또는 더 적게 오정렬되고 있음을 검출하는 것에 대한 응답으로 프로그래밍될 수 있다. 다양한 실시예들에서, 치료 프로토콜은 눈들이 이전 치료 프로토콜로부터 회복되었을 때 발생하도록 프로그래밍될 수 있다.
[0234] 블록(1308)에서, 광 필드 프로세서 시스템은 한쪽 또는 양쪽 눈들의 시야를 변경한다. 이는 (예컨대, 각각의 눈에 제공될 이미지 데이터의 전부 또는 일부를 검게 함으로써) 예컨대, 눈(들)을 부분적으로 또는 완전히 계산적으로 가리는 것을 포함할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 더 병약한 눈을 강화시키거나 뇌 내의 이미지 융합을 위한 적절한 버전스를 촉진시키기 위해, 간혹 시야 내의 상이한 위치들에서 각각의 눈에 상이한 이미지들을 제공할 수 있다. 이는 단지 하나의 예시적인 기법이며, 많은 다른 기법들이 눈들의 근육들을 강화 또는 재-트레이닝하는데 사용될 수 있다고 인지되어야 한다. 폐색은 부분적 또는 완벽한 폐색일 수 있다. 착용자에게 제공되는 이미지들에 대한 완전한 또는 부분적인 탈초점, 블러링, 감쇠 또는 다른 변경이 또한 사용될 수 있다.
[0235] 일부 실시예들에서, 광 필드 프로세서 시스템은 블록(1308)을 생략할 수 있다. 예컨대, 일부 치료 프로토콜들에서는, 더 강한 눈과 더 병약한 눈의 개개의 시야들이 변경되지 않는다. 광 필드 프로세서 시스템은 더 병약한 눈이 힘을 얻도록 조장하기 위해 착용자의 눈들에게 상이한 시각적 특징들의 이미지들을 제공할 수 있다.
[0236] 본원에서 설명된 바와 같이, 눈들 중 한쪽 또는 양쪽의 시야가 변경되든 변경되지 않든, 개개의 눈들에 보이는 콘텐츠도 달라질 수 있다. 예컨대, 더 흥미로운 콘텐츠가 더 병약한 사람에게 보일 수 있다. 이것은 더 밝고, 더 높은 해상도이며, 더 완벽하고, 움직이며, 더 높은 콘트라스트이고, 3차원적이며, 컬러-향상되며, 복수의 깊이 평면들로부터 등의 이미지들을 더 병약한 눈에 프로젝팅함으로써 달성될 수 있다. 다른 예로서, 덜 흥미로운 콘텐츠가 더 강한 눈에 보일 수 있다. 이것은 더 흐릿하고, 더 낮은 해상도이며, 부분들을 누락하고 있으며, 정적이고, 더 낮은 콘트라스트이고, 평탄하며, 컬러-뮤트되며, 단일 깊이 평면으로부터 등의 이미지들을 더 강한 눈에 프로젝팅함으로써 달성될 수 있다. 흥미로운 콘텐츠는 더 병약한 눈으로 프로젝팅될 수 있는 동시에, 덜 흥미로운 콘텐츠가 더 강한 눈에 프로젝팅될 수 있으며, 이로써 더 병약한 눈이 힘을 얻도록 조장할 수 있다.
[0237] 블록(1310)에서, 광 필드 프로세서 시스템은 더 병약한 눈의 관심을 이끄는 자극 이미지들을 프로젝팅한다. 이러한 자극 이미지들은 규정된 위치들에서 그리고/또는 향상된 시각적 특징들 ― 컬러 포화도, 콘트라스트, 해상도, 깊이 큐들, 3차원 효과들, 밝기, 강도, 초점 등으로 제공될 수 있으며, 이로써 눈들을 목표 위치에 초점을 맞추고 그리고/또는 집중하게 조장하고 그리고/또는 더 병약한 눈으로부터의 시각적 콘텐츠를 눈을 강화하도록 조장할 수 있다. 가상 이미지들은 시간 경과 그리고 치료 프로토콜에 의해 지정된 레이트로 이동되어 다수의 깊이 평면들에 걸쳐 버전스의 포인트들에서 눈들을 함께 그릴 수 있다. 눈들이 버전스의 공통 포인트에서 정렬될 때, 각각의 눈 퓨즈(fuse) 및 뇌로부터의 이미지들은 2개의 이미지들 대신에 하나의 이미지를 보게 된다. 이것은 예컨대, 게임의 형태로 달성될 수 있다.
[0238] 다양한 실시예들에서, 예컨대 광 필드 프로세서 시스템은 치료 또는 치료적 목적들로 양쪽 눈들(양안)에 동시에 이미지들을 제공하도록 구성될 수 있다. 개개의 눈들에 제공되는 이미지들은 시각적 특징들이 다를 수 있다. 이 차이는 시간 경과에 따라 더 병약한 눈의 성능을 향상시킬 수 있다. 예컨대, 착용자에게 입체 이미지를 제공하기 위해, 착용자에게 왼쪽 및 오른쪽 이미지들이 제공될 수 있다. 치료 동안, 더 병약한 눈에 대응하는 이미지는 더 강한 눈에 비해 향상될 수 있다. 이미지의 향상은 예컨대 그리고 제한 없이, 이미지의 밝기를 증가시키는 것, 이미지의 콘트라스트를 증가시키는 것, 이미지의 컬러 포화도를 증가시키는 것, 이미지의 강도를 증가시키는 것, 이미지의 3차원 효과들을 증가시키는 것, 이미지에 콘텐츠를 부가하는 것 등을 포함할 수 있다. 유사하게, 더 강한 눈에 대응하는 이미지는 약화될 수 있다. 이미지의 약화는 예컨대 그리고 제한 없이, 이미지의 컬러 포화도를 감소시키는 것, 이미지의 강도를 감쇄 또는 감소시키는 것, 이미지를 평탄하게 하는 것, 이미지를 블러링하는 것, 이미지를 탈초점화하는 것, 이미지를 섀도잉하는 것, 이미지를 부분적으로 또는 완벽하게 가리는 것 등을 포함할 수 있다. 소정의 구현들에서, 이미지의 탈초점화는 상이한 깊이 평면들로부터 개개의 눈들에 이미지들을 계산적으로 제공함으로써 달성될 수 있다. 일부 실시예들에서, 치료는 더 병약한 눈에 대한 이미지들을 향상시키는 것 그리고 더 강한 눈에 대한 이미지들을 약화시키는 것을 포함할 수 있다. 소정의 실시예들에서, 치료는 더 강한 눈에 대한 이미지들은 변경하지 않으면서 더 병약한 눈에 대한 이미지들을 향상시키는 것을 포함할 수 있다. 다양한 실시예들에서, 치료는 더 병약한 눈에 대한 이미지들은 변경하지 않으면서 더 강한 눈에 대한 이미지들을 약화시키는 것을 포함할 수 있다. 이미지들의 향상 및/또는 약화는 점진적으로 그리고/또는 간헐적으로 적용될 수 있다. 예컨대, 이미지의 품질은 30-60초마다 그리고/또는 광 필드 프로세서 시스템이 눈들이 더 오정렬되었음을 검출할 때 점진적으로 향상 또는 약화될 수 있다. 다른 예로서, 이미지가 일정 시간 기간 동안 향상 또는 약화될 수 있고, 그런 다음 그 효과는 제2 시간 기간 동안 제거될 수 있다. 이것은 치료 기간 동안 번갈아 이루어질 수 있다.
[0239] 치료는 또한, 일부 실시예들에서 이미지들이 제공되는 깊이 평면들을 변하게 하는 것을 포함할 수 있다. 이것은 다수의 깊이 평면들이 집중력 결핍들로 눈을 재-트레이닝하는데 사용되는 Brock 스트링과 유사할 수 있다. 이미지들은 변하는 깊이 평면들로부터 프로젝팅됨으로써, 눈들이 다양한 깊이들로 이미지들에 집중하고 초점을 맞출 수 있게 허용한다. 다양한 깊이 평면들은 또한 펜슬 푸시업들과 유사한 치료를 제공하는데 사용될 수 있다. 이 치료는 제1 깊이 평면에서(예컨대, 약 1피트 멀리서 또는 그보다 더 멀리서) 이미지를 제공하고, 그런 다음 이미지를 착용자에게 더 근접하게 제2 깊이 평면으로 이동시키는 것을 포함한다. 이미지를 이동시키는 것은 깊이 평면을 제1 깊이 평면에서 제2 깊이 평면까지 점진적으로 착용자에게 더 근접하게 이동시키는 것을 포함할 수 있다. 이미지가 이 더 근접한 깊이 평면에서 제공되고 있는 동안, 착용자가 초점을 맞추기 어려운(예컨대, 착용자가 이미지에 집중하는 데 어려움들을 갖는) 구역에서 이미지에 초점을 맞추는 것을 실시할 수 있도록 이미지의 깊이가 조정될 수 있다. 이 치료는 또한, 제1 깊이 평면 및 제2 깊이 평면보다 더 멀리 떨어진 제3 깊이 평면에서 이미지를 제공하는 것을 포함한다. 제2 깊이 평면에서 이미지가 제공되고 있는 동안, 착용자는 제2 깊이 평면에서 이미지에 초점을 맞추는 것과 제3 깊이 평면에서 이미지가 제공되는 것 간에 번갈아 할 수 있다. 이것은 예컨대, 눈 근육들을 강화시킬 수 있다. 이 방법들은 치료 동안 이미지들의 향상 및/또는 약화와 조합될 수 있다.
[0240] 치료는 일부 실시예들에서, 한쪽 또는 양쪽 눈들의 선택적 폐색을 포함할 수 있다. 이는 망막의 목표 부분에 시각적으로 자극하는 이미지들을 제공하여 치료의 유효성을 높이도록 이루어질 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 선택적 폐색을 사용하여 착용자가 보는 오브젝트들의 부분들을 차단하도록 구성된다. 선택적 폐색은 눈 속에서 간헐적으로 가려지는 이미지들을 또한 포함한다. 이것은 눈들에 이미지들을 번갈아 나오게 하도록(예컨대, 왼쪽 눈에 이미지를 제공하는 것과 그런 다음 오른쪽 눈에 이미지를 제공하는 것을 번갈아 하도록) 이루어질 수 있다.
[0241] 치료는 일부 실시예들에서, 눈들의 집중력에 점진적으로 영향을 주도록 보상 프리즘 보정에 대한 약간의 조정들을 포함할 수 있다. 예컨대, 보상 프리즘 보정 및/또는 횡방향 이미지 시프트의 크기는 목표 포인트로 수렴하게 더 병약한 눈에 영향을 주도록 치료 동안 감소될 수 있다. 보상 프리즘 보정 및/또는 횡방향 이미지 시프트의 크기는 단일 치료 동안 또는 다수의 치료들의 과정 동안 시간에 따라 감소될 수 있다.
[0242] 블록(1312)에서, 시스템은 가능하게는, 원근조절, 버전스 등에 대한 눈의 기능에서 정상적인 특징들을 검출함으로써, 치료 프로토콜에 대한 규정된 시간의 종료를 검출한다. 이러한 때에, 광 필드 프로세서 시스템은 블록(1314)에서 치료를 종료한다. 이는 만약 폐색 또는 덜 강조가 적용되었다면, 착용자에게 제공된 이미지 데이터의 폐색 또는 덜 강조를 종료하는 것을 포함할 수 있다. 일부 실시예들에서, 착용자는 착용자의 스케줄에 기반하여 치료 프로토콜을 수동으로 관리할 수 있다. 유사하게, 많은 다른 그러한 치료 프로토콜들이 구상될 수 있다.
[0243] 게다가, 또는 대안적으로, 규정된 치료 프로토콜은 성능 파라미터의 모니터링에 기반하여 종료 또는 조정될 수 있다. 성능 파라미터가 원하는 값, 상태 또는 범위에 도달할 때, 치료 프로토콜이 종료 또는 조정될 수 있다. 일부 실시예들에서, 성능 파라미터는 바이오 피드백 파라미터이다. 예컨대, 일부 실시예들에서는, 블록(1312)에서, 광 필드 프로세서 시스템은 치료 동안 착용자의 성능을 추적함으로써 치료가 중단되어야 한다고 결정한다. 착용자가 피로의 표시들 또는 컴플라이언스의 결핍을 보여줄 때, 광 필드 프로세서 시스템은 블록(1314)에서 치료를 종료한다. 예컨대, 광 필드 프로세서 시스템은 착용자의 시선을 검출하도록 구성되는 눈 추적 시스템을 포함할 수 있다. 눈 추적 시스템은 치료 동안 착용자의 성능(예컨대, 착용자가 제공되고 있는 이미지들에 성공적으로 초점을 맞추는 능력)이 시간 경과에 따라 악화되었음을 검출할 수 있다. 이것은 착용자가 피곤하고 추가 트레이닝 또는 치료가 이익들을 제한했을 것임을 표시할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 (예컨대, 단일 치료 동안 그리고/또는 다수의 치료 세션들 동안) 착용자의 집중력 결핍들이 감소하고 있는지 여부를 결정하기 위해 시간에 따라 착용자의 성능을 추적할 수 있다. 만일 사시가 더 많이 드리프트하고 있다면, 시스템이 더 강한 치료를 시작할 수 있다. 또는 만일 사시가 강한 눈과 거의 정렬된다면, 시스템이 치료를 종료할 수 있다.
[0244] 일부 실시예들에서, 블록(1312)에서는, 광 필드 프로세서 시스템이 치료가 중단되어야 함을 표시하는 사용자, 임상의 또는 외부 소스로부터의 입력을 수신한다. 이러한 사용자 입력이 수신되면, 광 필드 프로세서 시스템은 블록(1314)에서 치료를 종료한다.
[0245] 일부 실시예들에서는, 블록(1312)에서, 광 필드 프로세서 시스템은 관리된 치료 프로토콜 동안 사용자의 성능을 자동으로 검출한다. 블록(1312)에서, 광 필드 프로세서 시스템은 관리된 치료 프로토콜 동안 착용자의 검출된 성능에 기반하여 치료 프로토콜을 업데이트 또는 조정하기 위해 블록(1304)으로 리턴하도록 구성될 수 있다. 예컨대, 만일 더 병약한 눈의 수렴 각도가 치료 동안 개선되지 않는다면, 광 필드 프로세서 시스템은 치료 프로토콜 파라미터를 조정할 수 있고, 방법(1300)이 블록(1304)에서 다시 시작하는 것으로 진행할 수 있다. 이런 식으로, 광 필드 프로세서 시스템은 테스트 중에 착용자의 성능을 피드백으로 사용하여 치료 프로토콜에 대한 조정들을 하고 그리고/또는 치료를 언제 종료할지 결정할 수 있다.
[0246] 다양한 구현들에서, 광 필드 프로세서 시스템은 완료 전에 치료 프로토콜을 종료하도록 구성될 수 있다. 예컨대, 만약 광 필드 프로세서 시스템이 눈의 피로를 검출한다면(예컨대, 병약한 눈에 대해 수렴 각도가 악화된다면), 광 필드 프로세서 시스템은 블록(1314)으로 진행함으로써 블록(1312)에서의 치료 프로토콜을 종료하도록 구성될 수 있다.
[0247] 약시 또는 "사시"는 눈들 중 한쪽이 다른 쪽보다 더 병약한 상태이다. 이것은 뇌의 선호도에 의해 입력들이 더 병약한 것보다 더 강한 눈에 호의를 보이는 것으로 야기될 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 도 13을 참조하여 설명된 방법(1300)과 유사한 방법을 수행하여, 더 병약한 눈으로의 시각적 자극을 강화시키고 이로써 점진적으로 강화시키도록, 그리고/또는 광의 강도를 선택적으로 조광하거나 더 강한 눈에 들어오는 시각적 자극의 레벨을 감소시킴으로써 눈 패치의 효과들을 재현하도록 프로그래밍될 수 있다. 예컨대, 사시증을 참조하여 위에서 설명된 바와 같은 다른 치료 및 트레이닝 시스템들 및 기법들이 또한 이용될 수 있다.
[0248] 다양한 실시예들에서, 산만함을 감소시키기 위해, 광 필드 프로세서 시스템을 통해 착용자의 눈들 앞에 있는 세계의 뷰가 검사 및/또는 치료 동안 깜깜해지거나 아니면 보이지 않는다.
[0249] 도 14는 외향 통합 이미징 카메라(16), 광 필드 프로세서(70), 및 하나 이상의 광검출기들을 또한 포함하는 통합 이미징 디스플레이(62)를 포함하는 광 필드 프로세서 시스템의 실시예의 개략적인 예시이다. 도 14에 도시된 외향 통합 이미징 카메라(16) 및 광 필드 프로세서(70)는 본원의 다른 곳에서 설명된 것들과 유사할 수 있다.
[0250] 도 7과 관련하여 이전에 논의된 바와 같이, 통합 이미징 디스플레이(62)는 마이크로-렌즈들(712)의 2차원 어레이 및 광 소스들(714)의 2차원 어레이를 포함한다. 광 소스들(714)의 어레이는 예컨대, LED(light emitting diode)들의 RGB(red, green, blue) 어레이일 수 있다. 일부 실시예들은 또한, 본원에서 논의된 이유들 중 임의의 이유로 착용자의 눈들에 적외선 광을 프로젝팅하기 위한 적외선 발광 소스들을 포함할 수 있다. 대안적으로, 광 소스들(714)의 어레이는 LCD(liquid crystal display) 패널 또는 일부 다른 타입의 디스플레이 패널로서 구현될 수 있다. 각각의 광 소스는 프로세싱된 통합 이미지의 픽셀 또는 서브-픽셀에 대응하는 광을 방출하는데 사용될 수 있다. 각각의 광 소스(714)로부터 방출된 광은 그런 다음, 렌즈릿들(712) 중 하나에 의해 사용자의 눈 앞에 있는 공간 내의 대응하는 포인트(716)에 프로젝팅된다. 일부 실시예들에서, 각각의 렌즈릿(712)은 하나의 프로세싱된 기본 이미지를 프로젝팅한다. 프로젝팅된 기본 이미지들 각각으로부터의 광의 오버랩은 사용자가 볼 수 있는 물리적 광 필드를 재-생성한다.
[0251] 도 14에서, 통합 이미징 디스플레이(62)는 부가적으로, (광 소스들(714)에 산재된 음영 박스들로 예시된) 광검출기들(715)의 2차원 어레이를 포함한다. 광검출기들(715)은 가시 광 및/또는 적외선 광에 민감할 수 있다. 광검출기들(715)은 착용자의 눈으로부터 광을 수집하고 수집된 광을 디지털화하는데 사용될 수 있다. 일부 실시예들에서, 광검출기들(715)은 착용자의 눈을, 그 눈의 임의의 해부학상 부분을 포함하여 이미징한다. 일부 실시예들에서, 광검출기들(715)은 광 소스들(714)과 함께 그리고 그 사이에 산재되어 있다. 광검출기들(715) 및 광 소스들(714)은 동일한 세트의 렌즈릿들(712)로부터 광을 수신할 수 있다. 대안적으로, 광검출기들(715) 및 광 소스들(714)은 광검출기들(715)이 광 소스들(714)과 상이한 하나 이상의 렌즈들을 사용하도록 (예컨대, 별개의 클러스터들에서) 물리적으로 충분히 이격될 수 있다. 연관된 렌즈(들)를 갖는 광검출기들(715)의 하나 이상의 그룹들은 착용자의 눈들로부터 광을 캡처하기 위한 하나 이상의 카메라들을 형성할 수 있다. 일부 실시예들에서, 하나 이상의 카메라들은 착용자의 눈들로부터 광 필드 이미지 데이터를 캡처하기 위한 광 필드 카메라들이다. 도 14에 도시된 광검출기들(715)은 본원에서 논의된 목적들 중 임의의 목적으로 착용자의 눈들로부터 광을 수집하는데 사용될 수 있다. 예컨대, 본원에서 논의된 자동굴절기 및 수차계 실시예들에서, 광검출기들(715)은 착용자의 망막(들)으로부터 반사된 광을 캡처하고 디지털화하는데 사용될 수 있다. 그런 다음, 이러한 신호들은 착용자의 비전(예컨대, 착용자의 시력 처방 및/또는 고차 수차들)에 관한 정보를 결정하도록 광 필드 프로세서(70)에 의해 프로세싱될 수 있다. 일부 실시예들에서, 광검출기들(715)은 광 필드 데이터를 캡처한다. 다른 실시예들에서, 광검출기들(715)은 종래의 2D 이미지를 캡처한다.
[0252] 도 14는 광검출기들(715)이 통합 이미징 디스플레이(62)와 통합되는 실시예를 예시하지만, 이것은 필수적인 것은 아니다. 다른 실시예들에서, 광검출기들(715)은 통합 이미징 디스플레이(62)의 측면에 또는 (예컨대, 빔 스플리터들, 미러들, 프리즘들 등을 사용하여) 착용자의 눈들의 적절한 뷰를 획득하도록 구성될 수 있는 곳이면 어디든지 제공될 수 있다.
[0253] 다음 단락들은 본원에서 설명된 디바이스들, 시스템들 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0254] 웨어러블 검안 디바이스는, 사용자의 주변들로부터 광을 수신하고 그리고 사용자의 왼쪽 눈에 대한 수치 광 필드 이미지 데이터를 생성하도록 구성되는 왼쪽 외향 머리-장착 광 필드 카메라; 사용자의 주변들로부터 광을 수신하고 그리고 사용자의 오른쪽 눈에 대한 수치 광 필드 이미지 데이터를 생성하도록 구성되는 오른쪽 외향 머리-장착 광 필드 카메라; 사용자의 시선의 수렴 포인트에 기반하여 사용자의 눈들 중 한쪽에 대해 광 필드 카메라에 의해 캡처된 수치 광 필드 이미지 데이터에 병진 시프트를 도입함으로써, 수정된 수치 광 필드 이미지 데이터를 생성하도록 구성된 광 필드 프로세서; 및 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하도록 구성되는 머리-장착 광 필드 디스플레이를 포함한다.
[0255] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 병진 시프트를 계산적으로 도입하는 것은 프리즘 굴절력을 계산적으로 도입하는 것을 포함한다.
[0256] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 카메라는 통합 이미징 카메라를 포함한다.
[0257] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
[0258] 웨어러블 검안 디바이스를 사용하는 방법으로서, 이 방법은, 사용자의 주변들로부터 광을 수신하고, 왼쪽 외향 머리-장착 광 필드 카메라를 사용하여 사용자의 왼쪽 눈에 대한 수치 광 필드 이미지 데이터를 생성하는 단계; 사용자의 주변들로부터 광을 수신하고, 오른쪽 외향 머리-장착 광 필드 카메라를 사용하여 사용자의 오른쪽 눈에 대한 수치 광 필드 이미지 데이터를 생성하는 단계; 광 필드 프로세서를 사용하여, 사용자의 시선의 수렴 포인트에 기반하여 사용자의 눈들 중 한쪽에 대해 광 필드 카메라에 의해 캡처된 수치 광 필드 이미지 데이터에 병진 시프트를 도입함으로써, 수정된 수치 광 필드 이미지 데이터를 생성하는 단계; 및 머리-장착 광 필드 디스플레이를 사용하여, 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하는 단계를 포함한다.
[0259] 이전 단락의 방법에 있어서, 병진 시프트를 계산적으로 도입하는 것은 프리즘 굴절력을 계산적으로 도입하는 것을 포함한다.
[0260] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 카메라는 통합 이미징 카메라를 포함한다.
[0261] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
다른 눈 비정상들의 보정
[0262] 본원에서 설명된 시스템들(예컨대, 도 6, 도 7 및 도 14의 시스템(600))은 또한, "METHODS AND SYSTEMS FOR DIAGNOSING AND TREATING HEALTH AILMENTS"라는 명칭으로 2016년 3월 16일자 출원된 미국 특허 출원 제15/072,290호에 기술된 기법들 중 임의의 기법을 사용하여 다양한 다른 눈 비정상들 또는 왜곡들을 검출, 진단, 평가, 보정 및/또는 치료하는데 사용될 수 있으며, 이 출원의 전체 내용이 이로써 인용에 의해 통합된다. 예컨대, 본원에서 설명된 시스템들은 미국 특허 출원 제15/072,290호에서 설명되는 바와 같이 그리고 이제 간략하게 요약되는 바와 같이, 콘트라스트 테스트, 시각적 필드 테스트 또는 색맹 테스트를 수행하는데 사용될 수 있다.
[0263] 일부 실시예들에서, 본원에서 설명된 시스템들(예컨대, 시스템(600))은 착용자의 콘트라스트 민감도를 테스트하도록 구성될 수 있다. 콘트라스트 민감도 테스트는 이미지의 상이한 휘도들을 구별하는 착용자의 능력을 평가하는데 사용될 수 있다. 콘트라스트 민감도 테스트는 이를테면, 연령-관련 황반 변성, 약시 및/또는 백내장과 같은 상태들의 존재를 표시할 수 있다.
[0264] 시스템(예컨대, 시스템(600))은 통합 이미징 디스플레이(62)를 사용하여 정적 또는 변화하는 이미지들을 프로젝팅함으로써 콘트라스트 민감도 테스트를 관리할 수 있다. 그런 다음, 시스템은 사용자의 응답을 검출할 수 있다. 이미지는 콘트라스트가 점진적으로 감소하는 고-콘트라스트 이미지 또는 콘트라스트가 점진적으로 증가하는 저-콘트라스트 이미지일 수 있다. 예컨대, 흰색 배경에 대해 제공되는 어두운 회색 이미지는 이미지가 흰색 또는 거의 흰색이 될 때까지 점진적으로 밝아질 수 있다. 착용자는 배경 컬러와의 유사성으로 인해 이미지가 더 이상 구분될 수 없을 때를 표시하도록 지시받을 수 있다. 착용자의 콘트라스트 민감도의 보다 정확한 추정치를 얻기 위해 동일한 또는 상이한 이미지들로 테스트가 여러 번 반복될 수 있다. 예컨대, 이미지가 밝아질 때마다 이미지는 상이한 숫자/문자/형상으로 변경될 수 있으며, 착용자는 각각의 변경 이후 이미지의 숫자/문자/형상을 리포트하도록 요청을 받을 수 있다. 이미지들 간의 컬러 변동 및/또는 글레어 테스트도 또한 통합될 수 있다.
[0265] 일부 실시예들에서, 시스템은 정적 이미지를 사용하여 착용자의 콘트라스트 민감도를 평가할 수 있다. 예컨대, 시스템은 이미지, 이를테면 Pelli-Robson 콘트라스트 민감도 차트를 사용할 수 있다. Pelli-Robson 차트는 흰색 배경에 대해 대문자들의 다수의 행들을 포함한다. 왼쪽 최상단 문자는 흑색으로 인쇄되고, 각각의 연속적인 행 및/또는 문자는 더 밝은 회색 음영으로 인쇄되며, 최하단 행 및 오른쪽 문자는 흰색에 근접한 음영으로 인쇄된다. 시스템은 Pelli-Robson 차트 또는 문자들, 숫자들, 형상들, 또는 콘트라스트를 증가 또는 감소시키는 다른 패턴들의 유사한 시퀀스를 프로젝팅할 수 있다. 착용자는 문자 또는 숫자들의 시퀀스를 읽거나 형상들 또는 패턴들을 설명하도록 요청을 받아, 본원에서 설명된 응답 방법들 중 임의의 방법을 통해 응답을 제공할 수 있다. 그런 다음, 시스템은 착용자가 문자, 숫자, 형상 또는 다른 패턴의 존재를 정확하게 검출할 수 있는 최저 콘트라스트에 기반하여 착용자의 콘트라스트 민감도를 결정할 수 있다.
[0266] 변화하는 이미지들을 사용하는 일부 실시예들에서, 착용자는 자동으로 또는 다른 사용자, 이를테면 의료 전문가에 의해, 이미지가 언제 나타나는지 또는 사라지는지를 표시하도록 그리고/또는 착용자가 상이한 휘도의 이미지들 간을 구별할 수 있는지 여부를 표시하도록 촉구될 수 있다. 정적 이미지들을 사용하는 다른 실시예들에서, 사용자는 이미지의 관찰된 콘텐츠, 이를테면 가시적인 문자들, 숫자들, 형상들 또는 다른 패턴들을 표시하도록 촉구될 수 있다. 그런 다음, 사용자는 사용자 인터페이스를 통해 착용자의 응답을 입력할 수 있다.
[0267] 콘트라스트 민감도 테스트는 요구에 따라 이산 테스트들로 수행될 수 있거나 시간 경과에 따라 주기적으로 그리고/또는 반복적으로 수행할 수 있다. 반복되는 분석은 이전 결과들의 이력 분석을 통한 점진적으로 감소 또는 증가하는 콘트라스트 민감도의 추적뿐만 아니라 비정상들의 모니터링 또는 검출을 가능하게 할 수 있다. 따라서 콘트라스트 민감도 테스트 기능들은 검안 진단을 위해서만 착용된 디바이스에 통합될 수 있거나 이를테면, 엔터테인먼트, 작업 또는 다른 목적(들)을 위해 정기적으로 착용된 디바이스의 부분일 수 있어, 검사들이 규칙적인 간격들로 그리고/또는 일, 주, 월, 년 등의 다양한 시간들에 자동으로 수행될 수 있다. 일부 실시예들에서, 정기적으로 스케줄링된 테스트들의 빈도는 콘트라스트 민감도 테스트 결과들의 추세에 기반하여 자동으로 조정될 수 있다. 만일 시스템이 착용자가 낮아진 콘트라스트 민감도를 경험하고 있다고 검출한다면, 시스템은 추가 테스트를 시작할 수 있고 그리고/또는 임상의에게 연락할 수 있다. 예컨대, 시스템은 만일 착용자가 어두운 상태들에서 보는데 어려움을 갖고 있거나 초점을 맞추기 위해 애쓰는 것과 연관된 원근조절/버전스 변동들을 나타내고 있는 것을 검출한다면, 임상의에게 연락할 수 있다. 증강 또는 가상 현실 시스템들에서, 시스템은 착용자에게 경고들을 제공하기 위해 외향 통합 이미징 카메라(16)를 사용할 수 있다. 경고들은 콘트라스트 민감도의 결핍으로 인해 착용자에게 보이지 않는 위험한 상태들의 검출에 기반할 수 있다. 시스템은 착용자의 알려진 콘트라스트 민감도 데이터, 이를테면 착용자가 감소된 콘트라스트 민감도를 갖는 광 상태들과 통합 이미징 카메라(16)로부터의 이미지들의 상관에 기반하여 보이지 않는 위험의 존재를 결정할 수 있다. 착용자가 이를테면, 들어오는 어두운 오브젝트 또는 어두워진 야간 상태들 동안 또는 지면의 구멍을 볼 수 있을 가능성이 없게 되는 위험이 검출될 때, 시스템은 착용자에게 경고할 수 있다. 경고들은 시각적, 오디오 또는 촉각 통지들을 포함할 수 있다.
[0268] 일부 실시예들에서, 본원에서 설명된 시스템들은 시각적 필드 결핍들을 검출, 진단 및/또는 보상하도록 구성될 수 있다. 시각적 필드 테스트는 피험자의 시각적 필드의 다양한 위치들에서 고정 및/또는 움직이는 오브젝트들 및/또는 이미지들을 보는 피험자의 능력을 분석함으로써 중앙 및/또는 주변 비전의 시각적 결핍들을 검출하는 데 사용될 수 있다. 시각적 필드 테스트는 다양한 상태들, 이를테면 암점, 각막에 대한 외상, 유리체 눈물들, 외상으로 유발된 백내장, 망막 출혈, 망막 박리, 황반 변성, 또는 연수 내 출혈(Torsion 증후군)의 존재를 표시할 수 있다.
[0269] 시스템(예컨대, 시스템(600))은 시각적 필드 내의 다양한 위치들에서 이미지를 검출하는 피험자의 능력을 결정함으로써 시각적 필드 테스트를 관리할 수 있다. 시스템은 눈에 이미지를 형성하기 위해, 예컨대 통합 이미징 디스플레이(62)를 사용하여 착용자의 눈에 광을 프로젝팅할 수 있다. 그런다음, 시스템은 착용자의 응답을 검출할 수 있다. 이미지는, 예컨대, 시각적 필드의 건강한 부분에 프로젝팅되면 명확하게 보일 수 있지만 결손 부분에 프로젝팅되면 보이지 않을 가능성이 있는 작은 도트일 수 있다. 일부 실시예들에서, 착용자는, 착용자가 이미지를 보았는지를 그리고/또는 착용자가 이미지를 관측한 시간을 표시하도록, 자동으로 또는 다른 사용자, 이를테면 의료 전문가에 의해서 촉구될 수 있다. 그런다음, 사용자는 예컨대, 본원에서 논의된 사용자 인터페이스들 중 임의의 것을 통해 착용자의 응답을 입력할 수 있다. 일부 실시예들에서, 시스템은 착용자가 이미지를 본 것을 보장하기 위해 이미지의 특징(예컨대, 숫자, 컬러, 문자, 형상 등)에 대한 사용자의 검증을 요구할 수 있다.
[0270] 일부 실시예들에서, 시스템은 시야의 주변에서 착용자의 시각적 필드 인지를 평가하기 위해 사용될 수 있다. 예컨대, 시스템은 광학 축 근처에 고정 응시 타겟을 제공할 수 있다. 착용자의 시선이 응시 타겟에 응시하는 동안, 이미지는 착용자의 시각적 필드 외부에서 디스플레이의 외부 부분에 프로젝팅될 수 있다. 그런다음 이미지는, 이미지가 시야에 진입할 때까지 응시 타겟을 향해 내측으로 이동될 수 있다. 착용자는 타겟이 보이게 될 때를, 이를테면, 본원에서 설명된 응답 방법들 중 임의의 것에 의해 표시하도록 지시받을 수 있다. 일부 실시예들에서, 착용자는 이미지의 특징, 이를테면 형상, 자명한 오브젝트들의 숫자 또는 다른 특징을 설명하도록 지시받을 수 있다. 테스트는 착용자의 시각적 필드의 주변의 다양한 사분면들 또는 위치들, 이를테면 시각적 필드의 왼쪽, 오른쪽, 최상부 및/또는 최하부에서 반복될 수 있다.
[0271] 시각적 필드 테스트는 요구에 따라 이산 테스트들에서 수행될 수 있거나, 주기적으로 수행되고 그리고/또는 시간에 걸쳐 반복될 수 있다. 반복되는 분석은 이전 결과들의 이력 분석을 통해 시각적 필드 결함들의 진행을 추적을 허용할 수 있다. 따라서, 시각적 필드 테스트 기능들은 오직 검안 진단을 위해 착용된 디바이스에 통합될 수 있거나, 이를테면 엔터테인먼트, 일 또는 다른 목적들로 정기적으로 착용되는 디바이스의 일부일 수 있어서, 검사들은 규칙적인 간격들로 그리고/또는 일, 주, 월, 년 등의 다양한 시간들에 자동으로 수행될 수 있다. 일부 실시예들에서, 정기적으로 스케줄링된 테스트들의 빈도는 시각적 필드 테스트 결과들의 추세에 기반하여 자동으로 조정될 수 있다.
[0272] 증강 또는 가상 현실 시스템들에서, 시스템은 착용자에게 경고들을 제공하기 위해 외향 통합 이미징 카메라(16)를 사용할 수 있다. 경고들은 시각적 필드 결함으로 인해 착용자에게 보이지 않는 위험한 상태들의 검출에 기반할 수 있다. 시스템은 착용자의 알려진 시각적 필드 데이터, 이를테면 착용자가 감소된 주변 비전을 갖는 사분면들과 통합 이미징 카메라(16)로부터의 이미지들의 상관성에 기반하여 보이지 않는 위험의 존재를 결정할 수 있다. 결손 사분면의 위험, 이를테면 들어오는 오브젝트, 지면의 구멍 또는 다른 상태가 검출될 때, 시스템은 착용자에게 경고할 수 있다. 경고들은 시각적, 오디오, 또는 촉각적 통지들을 포함할 수 있다.
[0273] 본원에서 설명된 시스템들은 또한 특정 컬러들을 검출할 때 착용자의 결함들을 테스트하기 위한 컬러 테스트를 관리할 수 있다. 예컨대, 시스템(예컨대, 시스템(600))은 적색-녹색 컬러 인지 결함들에 대해 테스트하도록 설계된 Ishihara 컬러 테스트를 관리할 수 있다. 테스트는 일련의 착색된 플레이트들("Ishihara 플레이트들")을 도시하는 것을 포함한다. 컬러 플레이트는, 사이즈가 랜덤화되고 컬러가 랜덤화되거나 균일하게 보이는 도트들의 원을 포함한다. 각각의 원 내에는 숫자 또는 형상을 형성하는 도트들의 패턴들이 있다. 일부 원들에서, 숫자 또는 형상은 오직 정상 컬러 비전을 갖는 뷰어들에게만 명백하게 보이지만, 적색-녹색 인지 결함을 갖는 뷰어들은 보기가 어렵거나 불가능하다. 다른 원들에서, 숫자 또는 형상은 오직 적색-녹색 결함을 갖는 뷰어들에게만 보인다. 일부 실시예들에서, 컬러 플레이트들은 공지된 상태들 및/또는 착용자의 이전의 응답들에 기반하여 선택 및/또는 수정될 수 있다. 컬러들 또는 다른 자극들은 착용자의 컬러 인지 결함의 한계들을 결정하기 위해 증분적으로 변경될 수 있다. 즉, 색조들은 복수의 색조들을 통해 제1 컬러를 제2 컬러로 변경할 수 있다. 예컨대, 검출된 적색-녹색 결함을 갖는 착용자에게 적색 컬러로부터 오렌지색 또는 보라색으로 점진적으로 변하는 플레이트들이 제공될 수 있고, 각각의 증분적 변경에 대한 착용자의 응답이 기록될 수 있다.
[0274] 하나 이상의 실시예들에서, 시스템은 컬러 플레이트들 각각의 가상 이미지들을 제공하고 컬러 플레이트에 관한 사용자 입력을 수신함으로써, Ishihara 컬러 테스트를 관리하기 위한 상기 프로세스 흐름들과 유사한 방식으로 프로그래밍될 수 있다. 컬러 플레이트들의 이미지들은 통합 이미징 디스플레이(62)에 의해 제공될 수 있다.
[0275] 시스템은 컬러 테스트에 대한 응답으로 착용자로부터 수신된 입력에 기반하여 사용자가 적색-녹색 비전 결함 또는 다른 결함들을 갖는지 여부를 자동으로 결정할 수 있다. 컬러 플레이트에 관한 사용자 입력은 사용자가 숫자, 문자, 형상 또는 다른 이미지 특징의 설명을 입력하는 임의의 적절한 방법에 의해 생성 및/또는 수신될 수 있다. 예컨대, 입력은 사용자 인터페이스, 이를테면 키보드, 숫자 패드, 또는 Ishihara 플레이트들에서 활용되는 숫자들에 대응하는 키들 또는 가상 버튼들을 갖는 터치 스크린을 통해 수신될 수 있다. 일부 실시예들에서, 시스템은 착용자로부터 발화된 입력을 수신하고, 음성 인식을 사용하여 테스트에 대한 착용자의 응답을 결정하도록 구성될 수 있다. 사용자 인터페이스는 어떠한 숫자 또는 형상도 관측되지 않았음을 표시하기 위한 착용자에 대한 옵션을 추가로 가질 수 있다.
[0276] 일부 실시예들에서, 시스템은, 착용자로부터의 의식적인 입력 없이, 착용자가 프로젝팅된 Ishihara 플레이트에서 숫자 또는 형상을 보았는지 여부를 결정하도록 구성될 수 있다. 예컨대, 시스템은 충분히 긴 시간 기간 동안 Ishihara 플레이트에서 숫자 또는 형상의 위치에 대한 (예컨대, 내향 카메라를 사용하여) 착용자의 시선의 응시를, 숫자 또는 형상이 보여졌다는 표시인 것으로 검출할 수 있는 한편, 착용자에 의한 이미지의 연장된 스캐닝 기간은 숫자 또는 형상을 보는 것에 대한 불능을 표시할 수 있다. 예컨대, 시스템은 1 초, 5 초, 10 초 또는 그 초과까지의 기간 동안 착용자의 시선을 추적할 수 있다.
[0277] 다양한 실시예들에서, 시스템은 상이한 컬러들을 검출하는 착용자의 능력을 테스트하는 Ishihara 플레이트들 이외의 패턴들 및/또는 이미지들을 사용할 수 있다. 예컨대, 시스템은 RGB 아노말로스코프로서 기능하도록 구성될 수 있다. 2개의 이미지들 및/또는 광 소스들의 컬러 매칭에 기반한 테스트가 컬러 검출 테스트를 제공하기 위해 사용된다. 하나의 소스 또는 이미지는 고정된 제어 컬러를 가질 수 있는 한편, 다른 소스 또는 이미지(예컨대, 밝기가 조정될 수 있는 고정-스펙트럼 이미지)는 뷰어에 의해 조정가능하다. 뷰어는 다양한 제어 컬러들을 제공받을 수 있고, 조정가능한 이미지를 제어 이미지에 매칭하려 시도하거나 매치가 행해질 수 없다고 결정할 수 있다.
[0278] 다양한 실시예들에서, 시스템은 반복적으로 및/또는 주기적으로 컬러 테스트를 관리하도록 구성될 수 있다. 예컨대, 시스템은 착용자의 컬러 인지를 주기적으로, 이를테면 하루에 수 차례, 또는 주, 월 또는 년마다 하나 이상의 시간들에 테스트할 수 있고, 시간에 걸친 결과들을 비교할 수 있다. 일부 실시예들에서, 정기적으로 스케줄링된 테스트들의 빈도는 컬러 실명 테스트 결과들의 추세에 기반하여 및/또는 착용자가 컬러들을 구별하는 것에 대한 난관을 갖고 있다는 검출에 기반하여 자동으로 조정될 수 있다. 이러한 경우들에서, 시스템은 하루의 다양한 시간들에 그리고 다양한 광 상태들에서 착용자의 컬러 비전을 테스트함으로써 착용자의 컬러 검출 결함의 심각성 또는 시간-변동을 더 양호하게 검출할 수 있다. 유사하게, 시스템은 착용자의 컬러 비전을 상이한 깊이 평면들, 원근조절 정도들 및/또는 망막의 영역들에서 반복적으로 테스트함으로써 더 완벽한 및/또는 정확한 결과들을 획득하는 것이 가능할 수 있다. 그에 따라서, 시스템은 컬러 비전 테스트를 관리할 때 깊이 평면, 원근조절 및/또는 망막의 영역을 변경하는 것이 가능할 수 있다. 더 긴 시간 기간들 이를테면 몇 개월 또는 몇 년에 걸쳐 반복된 테스트는 이를테면 황반 변성 또는 임의의 다른 점진적 상태들로 인해 착용자의 컬러 검출 결함의 임의의 개선 또는 변성의 추적을 허용할 수 있다.
[0279] 시스템은 또한 치료 기능들, 이를테면 착용자의 컬러 검출 결함들을 보상하는 것을 위해 구성될 수 있다. 치료 기능들은 세계로부터의 이미지들 및/또는 광의 컬러, 강도 및/또는 다른 품질들을 계산적으로 수정하는 것을 포함할 수 있다. 예컨대, 시스템들은 감소된 검출의 컬러를 포함하는 이미지의 부분에서 광의 강도를 계산적으로 증가시킴으로써 컬러 인핸서로서 기능할 수 있다. 일부 실시예들에서, 시스템은 착용자가 더 양호하게 검출할 수 있는 컬러의 광을 제공하기 위해, 이를테면 광의 파장을 계산적으로 변경하거나 상이한 파장의 광을 부가함으로써 이러한 영역의 컬러를 계산적으로 시프트할 수 있다.
[0280] 증강 현실 디바이스를 포함하는 실시예들에서, 시스템은 주변 세계로부터의 광의 착용자 뷰를 유사하게 수정할 수 있다. 증강 현실 시스템은 실시간 또는 거의 실시간으로 디바이스에 진입하는 광의 컬러들을 검출할 수 있고, 착용자의 컬러 검출 결함을 보정하기 위해 광의 부분들을 계산적으로 수정하거나 부가적인 광을 프로젝팅할 수 있다. 예컨대, 시스템은 착용자 주위의 세계를 이미징하기 위해 외향 통합 이미징 카메라(16)를 사용할 수 있다. 시스템은 착용자의 컬러 검출 결함을 적어도 부분적으로 완화시키기 위해, 감소된 검출 능력의 영역들에서 강도를 증가시키기 위한 동일하거나 상이한 컬러의 부가적인 광을 프로젝팅하기 위해 통합 이미징 디스플레이(62)를 사용할 수 있다. 시스템은 라벨링 기능을 추가로 포함할 수 있고, 알려진 결손 컬러의 이름은 그 컬러로 결정되는 광 외부의 영역에 걸쳐 증강될 수 있다. 일부 실시예들에서, 원하는 진폭의 광을 프로젝팅함으로써, 이를테면 이미지에 색조를 부가함으로써 디스플레이의 부분에서 컬러를 향상시키기 위해 중첩이 사용될 수 있다.
포롭터
[0281] 도 15는 착용자 또는 환자의 비전을 보정하거나 개선하는 적절한 굴절을 결정하기 위해, 본원에서 설명된 웨어러블 디바이스들이 포롭터 또는 굴절기로서 기능하기 위해 어떻게 사용될 수 있는 지를 예시한다. 예컨대, 본원에서 설명된 광 필드 프로세서 시스템들은 도 15에 도시된 포롭터를 구현하기 위해 사용될 수 있다. 포롭터로부터의 테스트의 결과들은, 예컨대, 착용자의 또는 환자의 시력 처방을 결정하기 위해(예컨대, 안경 또는 콘택트 렌즈의 보정 렌즈들을 위해 또는 광 필드 프로세서 시스템에서의 사용을 위해) 사용될 수 있다. 이러한 시스템이 눈 검사를 관리하기 위해 사용될 수 있고 이러한 검사가 전형적으로 의사 또는 임상의의 진료실에서 관리될 수 있음이 인지되어야 한다. 하나 이상의 실시예들에서, 환자의 개별 광 필드 프로세서 시스템은, 가능하게는 의사 감독에 따라 사용될 수 있거나, 또는 의사의 진료실은 진단 목적들로 사용될 수 있는 광 필드 프로세서 시스템의 그 자신의 버전을 가질 수 있다. 도 15는 증강 현실과 관련되어 논의되지만, 가상 현실 디바이스, 이를테면 가상 현실 안경류에 또한 유사한 특징들이 포함될 수 있다.
[0282] 종래의 포롭터는 눈 검사를 위해 그리고 환자의 굴절 오차 및 그에 따른 보정 굴절들을 결정하여 임의의 안구 이상들을 보상하기 위해 안과 전문의들에 의해 사용된다. 이 정보를 사용하면, 안관 전문의는 환자의 비전을 개선 또는 보정하기 위해 환자의 눈들의 시력 처방을 결정할 수 있다. 종래의 포롭터는 전형적으로, 테스트될 수 있는 상이한 렌즈들을 포함하고, 통상적으로 환자의 비전을 테스트하기 위해 다양한 사이즈들의 알파벳들의 시력 검사표를 제공하는 것을 수반한다. 환자는 시력 검사표를 보고, 환자의 비전이 개선되었는지 여부를 결정하기 위해 상이한 굴절력들의 렌즈들이 환자의 눈들 앞에 배치된다. 종래의 셋업은 부피가 큰 경향이 있고, 의사가 렌즈에서 다음 단계 사이즈를 개별적으로 선택하도록 요구한다. 임상의는 전형적으로 이미지 명확성에 대한 환자의 피드백을 요청하고, 그에 따라서 렌즈들을 변경한다.
[0283] 대조적으로, 웨어러블 광 필드 프로세서 시스템(1500)의 일부 실시예들은 부피가 큰 포롭터 셋업 없이 이러한 동일한 기능들을 수행하기 위해 사용될 수 있다. 웨어러블 광 필드 프로세서 시스템(1500)은 착용자의 눈에 이미지를 프로젝팅하도록 구성된 증강(또는 가상) 현실 디스플레이 플랫폼(1502)을 포함한다. 일부 실시예들에서, 증강 또는 가상 현실 디스플레이 플랫폼(1502)은 본원에서 설명된 광 필드 프로세서 시스템들(600) 중 임의의 것일 수 있다. 디스플레이 플랫폼(1502)은 예컨대, 도 5를 참조하여 본원에서 설명된 바와 같이 디스플레이 렌즈(106)와 유사하게 구성될 수 있다. 일부 구현들에서, 이를테면 광 필드 프로세서 시스템들의 경우, 디스플레이 플랫폼(1502)은 또한 세계 또는 환경으로부터의 광을 디스플레이 플랫폼(1502)을 통해(예컨대, 이의 정면의 렌즈를 통해 및/또는 통합 이미징 카메라(16)를 통해) 착용자의 눈에 전달하도록 구성될 수 있다. 이러한 방식으로, 착용자는 착용자가 세계에서 볼 수 있는 것과 중첩된 디스플레이 플랫폼(1502)으로 프로젝팅되는 이미지들을 볼 수 있다. 일부 실시예들에서, 물리적 시력 검사표보다는, 가상 시력 검사표(1520)가 디스플레이 플랫폼(1502)을 사용하여 (예컨대, 통합 이미징 디스플레이(62)를 통해) 착용자에게 프로젝팅될 수 있다. 포롭터와 유사한 기능을 제공하기 위해, 이미지의 초점은 광 필드 프로세서(70)에 의해 (본원에서 논의된 바와 같이) 계산적으로 변경될 수 있다. 웨어러블 광 필드 프로세서 시스템(1500)은 이미지의 초점을 변경하여 시력 처방에서 증분적 변경들을 자동으로 제공함으로써 눈 검사를 관리 또는 제공하도록 구성될 수 있다. 이는 디스플레이 플랫폼(1502)에서 광 필드 프로세서(70)에 의해 이미지 데이터에 적용되는 굴절력을 계산적으로 변경함으로써 행해질 수 있다.
[0284] 본원에서 설명되는 바와 같이, 광 필드 프로세서 시스템(1500)은 그에 제공되는 이미지 데이터의 하나 이상의 광학 특성들을 계산적으로 변경하도록 구성되는 광 필드 프로세서(70)를 포함할 수 있다. 예컨대, 광 필드 프로세서(70)는 예컨대 광 필드 이미지 데이터에서 파면들의 곡률을 변경하거나 그렇지 않으면 포지티브 또는 네거티브 구면/원주 광학력을 도입함으로써 이미지 데이터에 또는 그로부터 광학력을 부가 또는 차감할 수 있다. 따라서, 광 필드 프로세서(70)는 가변 시력 보정, 이를테면, 구면, 원주 및 축 또는 더 높은 차수의 수차 보정들을 제공할 수 있다.
[0285] 특정 구현들에서, 디스플레이 플랫폼(1502)은, (예컨대, 도 14에 대해 본원에서 논의된 바와 같이) 착용자의 눈들에 광을 프로젝팅할 뿐만 아니라 그로부터의 광을 캡처하는 능력을 또한 포함할 수 있는 디스플레이(62)를 포함한다. 수신된 광은 이미징되거나 달리 검출될 수 있다. 이는, 눈 검사에서 활용될 수 있으며, 여기서 디스플레이(62)는 망막에 형성된 이미지들을 모니터링하기 위해 착용자의 망막을 이미징하도록 구성된다. 눈의 원근조절 상태를 결정하기 위해, 망막으로부터의 반사(예컨대, 착용자의 눈에 프로젝팅되는 이미지로부터의 반사)는 디스플레이(62)를 사용하여 측정될 수 있다. 이는 눈의 원근조절 상태의 신속한 측정을 초래할 수 있다. 예컨대, (예컨대, 적외선 대역에서 가시 파장 대역 외부의) 포인트 소스 이미지들의 시퀀스는 다양한 겉보기 깊이들로부터 디스플레이(62)에 의해 착용자의 눈에 프로젝팅될 수 있고, 디스플레이(62)는 망막으로부터의 반사를 동시에 측정할 수 있다. 광 필드 프로세서 시스템(1500)은 가장 잘 시준된 반사에 기반하여 어느 깊이 평면이 가장 밝거나, 가장 작거나 또는 가장 양호하게 초점을 맞춘 이미지에 대응하는지를 결정함으로써, 눈의 원근조절 상태를 실시간으로 결정하도록 구성될 수 있다. (광 필드 프로세서(70)는 상이한 겉보기 깊이 평면들로부터 이미지 데이터를 제공하기 위해 사용될 수 있다). 광 필드 프로세서 시스템(1500)은 광 소스(예컨대, 디스플레이(62))로부터의 광빔을 착용자의 눈들에 프로젝팅하도록 구성될 수 있다. 프로젝팅된 빔의 부분은 착용자의 눈의 다양한 해부학적 특징들에 의해 반사, 산란 및/또는 회절되고 하나 이상의 이미징 디바이스들에 의해 수신될 수 있다. 전자 하드웨어 프로세서(예컨대, 광 필드 프로세서(70))는 착용자의 눈의 다양한 구조들을 검사하기 위해 착용자의 눈으로부터 수신된 광을 분석하기 위해 사용될 수 있다. 이는 렌즈의 형상, 동공 수축 상태, 버전스, 동적 원근조절 등을 포함할 수 있는 눈의 원근조절 상태의 결정 또는 근사화를 초래할 수 있다. 일부 실시예들에서, 계산적 굴절 보정은 광 필드 프로세서(70)를 사용하여 증강 또는 가상 현실 디바이스(1500)에 의해 제공될 수 있다.
[0286] 일부 구현들에서, 눈 검사를 수행하기 위해, 사용자/착용자는 변하는 사이즈들, 형상들, 컬러들, 밝기, 콘트라스트 등의 다양한 이미지들을 제공받을 수 있고, 사용자/착용자는 광 필드 프로세서 시스템의 사용자 인터페이스(1504)를 통해 이미지의 명확성에 대한 입력을 제공할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 이미지가 착용자의 망막 상에 초점이 맞춰졌는지 여부를 검출하는 것에 적어도 부분적으로 기반하여 이미지의 명확성을 자동으로 결정하도록 구성된다. 이는 사용자의 망막을 이미징함으로써, 그리고 프로젝팅된 이미지의 망막으로부터의 반사를 측정, 분석 및/또는 관측함으로써 행해질 수 있다. 물리적으로 변하는 렌즈들보다는, 종래의 포롭터에서와 같이, 특정 이미지가 명확하지 않다는 것 또는 이미지가 편안하게 보이지 않는다는 것을 사용자/착용자가 표시하면, 이미지의 초점은 대응하는 또는 등가 시력 처방에서 증분적 변경들을 제공하도록 자동으로 계산적으로 변경될 수 있다. 따라서, 눈 검사들은 로컬로 또는 원격으로 광 필드 프로세서 시스템을 통해 끊김없이 수행될 수 있다. 예컨대, 임상의 또는 의사는 원격으로, 이를테면 제한없이 예시의 방식으로 폰을 통해, 비디오 회의를 사용하여, 네트워킹된 통신 프로그램을 통해 등으로 눈 검사를 관리할 수 있다. 일부 구현들에서, 눈 검사들은 임상의로부터의 직접적 상호작용으로 또는 상호작용 없이 또는 임상의의 더 적은 또는 최소의 노력 또는 시간으로 수행될 수 있음이 또한 인지되어야 한다.
[0287] 일부 실시예들에서, 시력 처방에 대한 조정들은 원근조절 및/또는 버전스를 시도하는 동안 눈의 물리적 변경들에 기반하여 광 필드 프로세서 시스템에 의해 자동으로 수행될 수 있다. 예컨대, 광 필드 프로세서 시스템은 병약한 눈들의 증상을 보이는 눈 거동의 소정의 패턴들을 검출하도록 프로그래밍될 수 있다. 추적된 눈 거동에 적어도 부분적으로 기반하여, 눈 조정들은 광 필드 프로세서 시스템에 의해 자동으로 행해질 수 있다. 시스템은 예컨대, 착용자가 원근조절하려 노력하는 것을 검출할 때, 이를테면 본원에서 설명된 포롭터 검사를 개시할 수 있거나 또는 시스템은 착용자가 원근조절하려 노력하고 있음을 착용자 또는 임상의에게 경고할 수 있다. 일부 실시예들에서, 시스템은 원근조절에서의 미세변동들(예컨대, 렌즈 형상, 버전스, 동공 사이즈 등에서의 작은 및/또는 신속한 변경들)을 검출함으로써 착용자가 원근조절하려 노력함을 검출한다. 소정의 구현들에서, 원근조절 노력들은 본원에서 설명된 바와 같이, 착용자의 망막 상에 프로젝팅된 이미지의 초점 상태를 모니터링함으로써 검출될 수 있다. 망막으로부터의 반사가 섭동하고 있으면, 시스템은 착용자가 원근조절하려 노력하고 있다고 결정하도록 구성될 수 있다. 시스템은 착용자에게 이미지들을 제공하고, 상이한 시력 보정들을 테스트하여, 시력 보정이 이미지들을 개선하는지 여부에 대한 피드백을 제공하도록 사용자들에게 요청할 수 있다. 일부 구현들에서, 피드백을 제공하도록 착용자들에게 요구하기보다는, 또는 피드백을 요구하는 것 외에도, 시스템은 착용자의 망막 상의 이미지를 관측, 측정 및/또는 분석함으로써 이미지가 초점이 맞는지를 결정하도록 구성될 수 있다. 위에서 논의된 바와 같이, 계산적 시력 보정은 검사 동안 상이한 테스트 보정들을 구현하기 위해 사용될 수 있다. 일부 실시예들에서, 시스템은 착용자의 눈들에 이미지들을 한번에 하나의 눈에 제공함으로써 착용자의 사위를 결정하기 위해 사용될 수 있다. 소정의 구현들에서, 시스템은 타겟에 대한 착용자의 버전스를 모니터링하기 위해 사용될 수 있다. 착용자가 가까운 이미지(예컨대, 가까운 깊이 평면으로부터 프로젝팅된 이미지)에 초점을 맞추려 시도할 때 외사위이면, 시스템은 착용자가 노안 또는 피로한 것으로 및/또는 착용자가 사시증 또는 약시를 가질 수 있는지 여부를 결정하도록 구성될 수 있다. 시스템은 또한 다양한 상이한 깊이 평면들로부터 이미지들을 제공함으로써 다양한 시각적 필드의 테스트들을 관리하도록 구성될 수 있다.
[0288] 광 필드 프로세서 시스템에 의해 제공되는 이미지는 저장된 이미지일 수 있다. 웨어러블 광 필드 프로세서 시스템(1500)은 눈 검사를 수행하기에 또는 착용자에 대한 시력 처방을 결정하기에 적합한 하나 이상의 저장된 이미지들을 포함하는 데이터 저장부를 포함할 수 있다. 저장된 이미지는 이를테면 시력 검사표들에서 사용되는 문자들, 숫자들, 심볼들 등일 수 있다. 이미지는 원하는 깊이 평면에, 이를테면 무한대에 또는 그렇지 않으면 큰 겉보기 거리, 예컨대, 적어도 20, 40, 60, 80 또는 100 피트 떨어진 뷰어에게 제공될 수 있다. 본원에서 설명된 바와 같이, 저장된 이미지는 착용자에게 프로젝팅하기 위한 보정된 파면들을 생성하도록 프로세싱될 수 있다. 보정된 파면들은 착용자의 눈의 시력 처방 또는 이상을 고려하도록 구성될 수 있다. 일부 실시예들에서, 디스플레이 플랫폼의 광 필드 프로세서(70)는 시력 처방을 고려하기 위해 착용자가 보는 이미지에 대한 조정들을 계산적으로 제공하기 위해 사용된다. 광 필드 프로세서(70)는 또한, 예컨대 직선들이 곡선으로 보이는 왜곡 또는 어안을 보상하기 위해, 예컨대 이미지를 포함하는 강도 패턴을 변경할 수 있다. 예컨대, 핀쿠션 왜곡을 보상하기 위해, 이미지들을 포함하는 강도 패턴에 일부 배럴 왜곡이 도입될 수 있다. 유사하게, 배럴 왜곡을 보상하기 위해, 이미지들을 포함하는 강도 패턴에 일부 핀 쿠션 왜곡이 도입될 수 있다. 이미지를 형성하는 강도 패턴에 대한 다른 타입들의 수정들은 공간 광 변조기를 구동하기 위해 사용되는 소프트웨어 또는 원하는 강도 패턴을 생성하는 광 소스에 의해 도입될 수 있다. 일부 실시예들에서, 웨어러블 증강 또는 가상 현실 디바이스(1500)는 변하는 사이즈의 이미지들을 착용자에게 또는 변하는 깊이 평면들로부터의 이미지들을 착용자에게 프로젝팅하기 위해 디스플레이 플랫폼(1502)을 사용하도록 구성될 수 있다. 일부 구현들에서, 이미지는 변하는 사이즈들의 및/또는 변하는 깊이 평면들로부터 프로젝팅된 문자들 또는 형상들을 포함할 수 있다. 다양한 구현들에서, 착용자에게 프로젝팅된 문자들 및/또는 형상들의 사이즈 및/또는 깊이 평면들은 눈 검사 동안 변경될 수 있다. 일부 실시예들에서, 시스템은 상이한 밝기 및 글레어 상태들에서 기능적 시력의 객관적 측정들을 포함하는 밝기 또는 글레어 테스트를 관리하도록 구성될 수 있다. 다양한 실시예들에서, 시스템은 다양한 밝은 광 상태들에서 기능적 시력을 결정하기 위해 밝기 시력 검사를 관리하도록 구성될 수 있다. 예컨대, 시스템은 셋 이상의 밝기-광 상태들: 1) 높은 직접적 오버헤드 태양광; 2) 중간 부분적 구름낀 낮; 및 3) 낮은 밝기의 오버헤드 상업용 조명을 시뮬레이팅하도록 구성될 수 있다. 시력 측정들은 표준 시력 검사표(예컨대, 시력 검사표(1520))를 사용하여 이러한 3개의 상태들에서 측정될 것들과 유사할 수 있다. 이러한 테스트의 결과는 기능적 시각적 시력의 평가일 수 있다. 이러한 테스트들은 밝은 광에 대한 감도, 광 공포, 손상된 암소시 비전 등에 대해 테스트하기 위해 사용될 수 있다. 일부 실시예들에서, 시스템은 개별 컬러들을 테스트하도록 구성될 수 있다. 예컨대, 광 필드 프로세서 시스템은 개별 컬러들(예컨대, 적색, 녹색, 청색, 황색 등)에 대한 굴절 오차들을 결정하도록 구성될 수 있다. 일부 실시예들에서, 시스템은 다양한 깊이 평면들을 테스트하도록 구성될 수 있다. 예컨대, 광 필드 프로세서 시스템은 개별 깊이 평면들에 대한 굴절 오차들을 결정하도록 구성될 수 있다. 이는 깊이 평면에 적어도 부분적으로 기반하여 변하는 시력 처방을 초래할 수 있다. 노안에 대한 굴절 보정이 또한 결정될 수 있다.
[0289] 일부 실시예들에서, 웨어러블 증강(또는 가상 현실) 디바이스(1500)는 하나 이상의 외향 카메라들을 포함할 수 있다. 소정의 구현들에서, 하나 이상의 외향 카메라들은 도 5를 참조하여 본원에서 설명된 카메라들(16) 또는 도 6-도 7을 참조하여 본원에서 설명된 통합 이미징 카메라들(16)과 유사할 수 있다. 증강 현실 디스플레이 디바이스의 외향 카메라들은 예컨대, 테스트 이미지, 이를테면 문자들 또는 심볼들을 어디서 중첩시킬지를 결정하기 위해 주변 환경의 이미지들을 캡처하도록 구성될 수 있다. 예컨대, 광 필드 프로세서 시스템은 시력 검사표의 이미지, 이를테면 표준 스넬렌(Snellen) 차트 또는 다른 시력 검사표를 검안사의 진료실의 벽에 대응하는 착용자의 시야의 영역 위에 중첩할 수 있다. 다른 예에서, 외향 카메라들은 시력 검사표, 이를테면 실제로 검안사의 진료실의 벽 상에 있는 표준 스넬렌 차트 또는 다른 시력 검사표의 이미지들을 캡처하도록 구성될 수 있다. 그런다음, 웨어러블 증강 또는 가상 현실 디바이스(1500)는 이미지를 제공하기 위해 원하는 깊이 평면에 적어도 부분적으로 기반하여 캡처된 이미지를 수정하도록 구성될 수 있다. 예컨대, 획득된 이미지는 무한한 원근조절에서 디스플레이 플랫폼(1502)에 의해 프로젝팅될 수 있다. 그런다음, 사용자 인터페이스(1504)를 통해, 이미지로부터의 광은 종래의 포롭터로 렌즈를 물리적으로 변경하는 것과 유사한 기능을 제공하는 광 필드 프로세서(70)에 의해 계산적으로 조작될 수 있다. 예컨대, 구면, 원주 또는 더 높은 차수의 수차 보정이 도입될 수 있다. 원주가 부가되려면, 적합한 축이 또한 결정될 수 있다. 이러한 방식으로, 눈 검사는 착용자의 시력 처방을 결정하기 위해 수행될 수 있다. 일부 실시예들에서, 시스템은 조작된 이미지의 관측, 측정 및/또는 분석을 통해 시력 처방을 객관적으로 측정 또는 추정하여, 본원의 다른 곳에서 설명된 바와 같이, 착용자의 망막 상에 초점이 맞는지 여부를 결정하도록 구성된다.
[0290] 웨어러블 광 필드 프로세서 시스템(1500)은 착용자 또는 다른 사람이 디바이스에 입력을 제공할 수 있게 하도록 구성된 하나 이상의 사용자 인터페이스 특징들(1504)을 포함할 수 있다. 사용자 인터페이스 특징들(1504)은 도 15에 예시된 바와 같이 디바이스(1500)와 통합될 수 있다. 일부 구현들에서, 사용자 인터페이스 특징들(1504)은 디바이스(1500)와 물리적으로 통합되지 않은 디바이스 또는 컴포넌트에 의해 제공된다. 예컨대, 사용자 인터페이스 특징들(1504)은 디바이스(1500)와 통신하는 디바이스 또는 시스템에 의해 제공될 수 있다. 이는 디바이스(1500)와 유선 또는 무선 통신하는 스마트폰, 컴퓨터, 태블릿 또는 다른 계산 디바이스일 수 있다. 일부 실시예들에서, 사용자 인터페이스 특징들(1504)은 예컨대, 유선 또는 무선 통신 네트워크들을 통해 또는 디바이스에 물리적으로 링크되거나 디바이스와 통합되는 컴포넌트들을 통해 디바이스에 링크된 상이한 디바이스들 및 시스템들의 조합에 의해 제공될 수 있다. 터치 스크린, 음성 인식 시스템 또는 가상 터치 스크린이 인터페이스들의 일부 예들이다. 그에 따라서, 사용자 인터페이스 특징들(1504)은 터치에 민감한 용량성 특징들, 키보드들, 버튼들, 마이크로폰들, 광검출기들, 카메라들 및/또는 그래픽 사용자 인터페이스에 의해 제공되는 다양한 소프트웨어-구현 특징들을 포함할 수 있다. 사용자 인터페이스 특징들(1504)은 터치 스크린을 갖는 디바이스 상에 제공될 수 있고, 터치 스크린과의 상호작용은 웨어러블 증강 또는 가상 현실 디바이스(1500)에 입력을 제공한다. 다양한 실시예들에서, 가상 터치 스크린은, 사용자들의 눈들에 프로젝팅되는 이미지들, 및 사용자들이 신체, 예컨대 손가락을 움직이는 것을 감지하는 센서들을 통해 제공된다. 일부 실시예들에서, 사용자 인터페이스 특징들(1504)은 착용자가 제스처들을 통해 사용자 입력을 제공할 수 있게 하기 위한 제스처 검출 컴포넌트들을 포함한다. 일부 실시예들에서, 사용자 인터페이스 특징들(1504)은 착용자가 눈들의 시선을 통해 사용자 입력을 제공할 수 있게 하기 위한 시선 검출 컴포넌트들을 포함한다(예컨대, 이는 착용자가 일정 시간 동안 버튼을 응시할 때 또는 착용자가 버튼에 응시될 때 눈을 깜박일 때 버튼 또는 다른 엘리먼트를 선택하는 것을 포함할 수 있다). 이러한 사용자 인터페이스 시스템들은 본원에서 설명된 다른 디바이스들 및 시스템들에 이용될 수 있다.
[0291] 광 필드 프로세서 시스템에서, 사용자 인터페이스 특징들(1504)은 착용자에 의해 지각되는 바와 같은 이미지의 품질에 관한 피드백을 제공하도록 착용자에 의해 사용될 수 있다. 착용자는, 예컨대, 적용된 굴절력에 대한 변경들(예컨대, 구면, 원주, 및 축 및/또는 더 고차의 수차 보정의 증분 값들)이 증분적으로 제공됨에 따라, 착용자가 사용자에게 프로젝팅된 이미지를 편안하게 볼 수 있는지 여부에 관한 피드백을 사용자 인터페이스 특징들(1504)을 통해 제공할 수 있다. 이러한 방식으로, 착용자에 대한 적합한 시력 처방이 결정될 수 있다.
[0292] 일부 구현들에서, 임상의 또는 의사는 또한, 이미지가 착용자에게 프로젝팅되는 초점 및/또는 깊이 평면 또는 프로젝팅되는 이미지의 사이즈를 변화시키기 위해 인터페이스 특징들(1504)을 사용할 수 있다. 그러한 변경들은 원한다면 증분적으로 사용될 수 있다.
[0293] 도 16은 가상 포롭터로서 사용하도록 구성되는 광 필드 프로세서 시스템의 착용자의 시력 처방을 결정하기 위한 예시적인 방법(1600)을 예시한다. 설명을 용이하게 하기 위해서, 방법(1600)은 광 필드 프로세서 시스템, 이를테면 도 15를 참조하여 본원에서 설명된 증강(또는 가상) 디바이스(1500)에 의해 수행되는 것으로 설명될 것이다. 그러나, 본원에서 개시된 다양한 증강 현실(또는 가상) 디바이스들의 컴포넌트들 또는 서브부분들 또는 다른 유사한 디바이스들이 방법(1600) 내의 임의의 단계, 단계들의 조합, 또는 단계의 부분들을 수행하는 데 사용될 수 있다는 것이 이해될 것이다.
[0294] 블록(1602)에서, 검안 디바이스는 눈 테스트 프로그램을 개시한다. 눈 테스트 프로그램은 검안 디바이스에 의해 제공되는 기능들의 저장된 프로세스 또는 시퀀스일 수 있다. 눈 테스트 프로그램을 개시하는 것은, 이를테면 눈 테스트 또는 다른 눈 검사를 이전에 경험했던 착용자에 대한 처음 시력 처방을 결정 또는 리트리브하는 것을 포함할 수 있다. 일부 구현들에서, 눈 테스트 프로그램은 착용자의 눈(들)의 안구 이상들에 관한 정보를 통합할 수 있으며, 여기서, 안구 이상들에 관한 정보는 착용자 또는 임상의에 의해 입력되거나, 이전의 눈 테스트 프로그램으로부터 결정되거나, 또는 데이터 저장부(예컨대, 광 필드 프로세서 시스템 또는 네트워킹된 데이터 저장부의 부분인 데이터 저장부)로부터 리트리브될 수 있다. 눈 테스트 프로그램을 개시하는 것은 착용자에게 프로젝팅될 이미지 또는 잠재적인 이미지들의 시퀀스들을 결정하는 것을 포함할 수 있다. 눈 테스트 프로그램을 개시하는 것은, 임상의 또는 의사가 눈 검사를 관리하고 있는지 여부 또는 검사가 착용자에 의해 자체-관리되고 있는지 여부를 결정하는 것을 포함할 수 있다. 일부 실시예들에서, 검안 디바이스는 착용자 또는 임상의로부터 수신된 입력에 대한 응답으로 눈 테스트 프로그램을 개시한다.
[0295] 블록(1604)에서, 광 필드 프로세서 시스템은 이미지를 착용자의 눈들로 프로젝팅한다. 예컨대, 광 필드 프로세서 시스템은 타겟된 사이즈의 알파벳, 문자들, 및/또는 형상들을 착용자에게 프로젝팅할 수 있다. 이미지는 저장된 이미지일 수 있거나 또는 이미지는 광 필드 프로세서 시스템에 의해 획득될 수 있다. 이미지는 착용자의 시력을 결정하는 데에 도움을 주도록 구성된 엘리먼트들을 포함할 수 있으며, 여기서, 시력 엘리먼트들은, 예컨대 그리고 제안 없이, 아이콘들, 심볼들, 문자들, 형상들 등을 포함한다. 이미지의 시력 엘리먼트들은 이미지 내에서 다양한 사이즈들을 가질 수 있고 그리고/또는 시력 엘리먼트들의 사이즈는 광 필드 프로세서 시스템에 의해 변화될 수 있다.
[0296] 블록(1606)에서, 광 필드 프로세서 시스템은 이미지에 관한 사용자 입력을 수신한다. 사용자 입력은, 착용자가 이미지를 명확하게 볼 수 있는지 여부를 표시할 수 있다. 하나 이상의 실시예들에서, 광 필드 프로세서 시스템은, 수신된 사용자 입력이 착용자가 프로젝팅된 이미지를 명확하게 볼 수 있다는 것을 표시할 때까지 사이즈가 증가하는 비교적 작은 문자들을 프로젝팅함으로써 시작할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 시력 검사표, 이를테면 스넬렌 차트와 같은 종래의 시력 검사표를 제공하도록 구성된다. 그러한 실시예들에서, 수신된 사용자 입력은, 착용자가 프로젝팅된 차트의 어느 부분 또는 부분들을 명확하게 볼 수 있는지를 포함할 수 있다.
[0297] 블록(1608)에서, 광 필드 프로세서 시스템은 사용자가 이미지(예컨대, 프로젝팅된 시력 검사표)를 편안하게 볼 수 있는지 여부를 결정한다. 일부 실시예들에서, 시스템은 사용자가 이미지를 편안하게 볼 수 있는지 여부에 관한 사용자 입력을 사용자 인터페이스를 통해 수신하도록 구성된다. 위에서 설명된 바와 같이, 그러한 사용자 인터페이스의 예들은 음성 인식 시스템, 터치 스크린, 또는 가상 터치 시스템을 포함할 수 있다.
[0298] 일부 실시예들에서, 블록(1606)에서 수신된 사용자 입력은 착용자의 신체적 및/또는 시력 특징들의 분석을 통해 자동으로 결정된다. 예컨대, 자동으로 결정된 사용자 입력은, 착용자의 망막을 관찰, 측정, 및/또는 분석함으로써 이미지의 초점이 맞는지 여부의 분석을 포함한다. 본원에서 설명된 바와 같이, 망막의 반사를 측정함으로써, 광 필드 프로세서 시스템은 착용자의 눈에 의해 형성된 이미지의 초점의 품질 또는 정도를 평가하도록 구성될 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 스폿들의 쌍을 착용자의 눈으로 프로젝팅하도록 구성될 수 있다. 이들 프로젝팅된 스폿들의 반사는 이미지의 초점의 품질을 결정하기 위해 측정 및 분석될 수 있다. 예컨대, 망막 상의 프로젝팅된 스폿들의 이미지들이 정렬되는 경우, 광 필드 프로세서 시스템은 착용자가 프로젝팅된 이미지에 초점을 맞추고 있다고 또는 착용자가 타겟된 위치에서 적절하게 원근조절하고 있다고 결정할 수 있다.
[0299] 일부 실시예들에서, 광 필드 프로세서 시스템은, 완화된 원근조절 및/또는 버전스의 검출에 적어도 부분적으로 기반하여 착용자가 이미지를 편안하게 볼 수 있다고 결정하도록 구성된다. 본원에서 설명된 바와 같이, 광 필드 프로세서 시스템은 눈을 모니터링하도록 구성된 눈 검출 및/또는 추적 컴포넌트들을 포함할 수 있다. 그러한 컴포넌트들은 착용자의 원근조절, 버전스, 및/또는 동공 사이즈를 검출할 수 있다. 렌즈 원근조절, 예컨대, 망막 상의 이미지의 사이즈를 측정하는 (본원의 다른 곳에서 더 상세하게 설명된 바와 같은) 자동굴절기가 검출될 수 있다. 버전스 및 동공 사이즈가 하나 이상의 내향 카메라들을 이용하여 측정될 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은, 사용자가 타겟된 오브젝트 또는 이미지에 초점을 맞추려고 시도할 때 눈의 변동들을 모니터링한다. 예컨대, 눈이 고정 자극에 초점을 맞출 때, 눈의 렌즈 도수는 급속하게 그리고 계속 변한다. 사람이 고정 오브젝트에 초점을 맞추려고 노력할 때, 이들 변동들이 증가할 수 있다. 변동의 이러한 증가는, 착용자가 타겟된 이미지 또는 오브젝트에 초점을 맞추고 있지 않다고 결정하도록 광 필드 프로세서 시스템에 의해 측정 및/또는 관찰될 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 이들 변동들을 모니터링하고, 착용자가 오브젝트에 성공적으로 초점을 맞출 때까지, 프로젝팅된 이미지를 이동(예컨대, 이미지가 프로젝팅되고 있는 겉보기 깊이 평면을 변경)시키도록 구성될 수 있다. 예컨대, 광 필드 프로세서 시스템은, 비교적 착용자 근처에 있는 겉보기 깊이 평면으로부터 이미지를 프로젝팅하고, 광 필드 프로세서 시스템이 착용자가 이미지에 정확하게 초점을 맞추고 있다고 결정할 때까지 이미지를 다시 푸시(예컨대, 착용자와 깊이 평면 간의 거리를 증가)할 수 있다.
[0300] 눈의 원근조절 반사의 모니터링은, 착용자가 현재 처방에 편안해하지 않는지 또는 착용자가 시력 보정을 필요로 하는지를 결정하도록 광 필드 프로세서 시스템에 의해 이용될 수 있다. 자동굴절기는, 망막 상으로 렌즈를 통해 프로젝팅된 이미지의 사이즈를 모니터링함으로써 착용자가 원근조절하고 있는지 여부를 결정하기 위해 사용될 수 있으며, 그의 예들은 본원의 다른 곳에서 설명된다. 원근조절을 모니터링하는 그러한 방법들은 착용자가 원근조절하고 있는지 여부를 결정하기 위해 사용될 수 있으며, 이는 착용자가 시력 보정을 필요로 하는지 여부를 평가하는 데 유용할 수 있다.
[0301] 버전스는 시력 보정이 또한 필요한지를 결정하는 것을 보조하기 위해 이용될 수 있으며, 여기서 버전스는 원근조절 반사를 테스트하기 위해 모니터링된다. 내향 카메라들 및 프로세싱 전자기기들을 사용하여, 광 필드 프로세서 시스템은 왼쪽 눈 및 오른쪽 눈의 개개의 시선들의 변경들을 추적하고, 버전스를 결정하도록 구성될 수 있다. 그러한 버전스 정보는, 착용자의 눈이 다양한 깊이 평면들에서 제공되는 이미지들에 예상된 바와 같이 응답하고 있는지 여부를 결정하기 위해 사용될 수 있다. 예컨대, 비교적 가까운 깊이 평면의 이미지가 제공되고 있을 때 양쪽 눈들이 실질적으로 평행하고 수렴하고 있지 않으면, 광 필드 프로세서 시스템은, 착용자가 이미지를 편안하게 보고 있지 않다는 것 또는 착용자가 비전 결함을 갖는다는 것을 표시하는 것으로서 이러한 결과를 해석하도록 구성될 수 있다. 상이한 깊이 평면들에 대한 버전스가 결정될 수 있으며, 눈들이 특정 깊이 평면에 대한 적절한 버전스와 매칭하는지 여부가 평가될 수 있다. 유사하게, 잠재적으로 버전스가 무한대에 있는 깊이 평면에 대해 내측인 것으로 관찰되면, 착용자는 시력 보정을 필요로 할 수 있다.
[0302] 다른 예로서, 광 필드 프로세서 시스템은, 이미지가 착용자에게 프로젝팅될 경우 착용자의 동공의 사이즈 또는 착용자의 동공의 사이즈의 변경을 결정함으로써 원근조절 반사를 테스트할 수 있다. 광 필드 프로세서 시스템은, 눈, 특히 홍채를 이미징하는 내향 카메라를 사용하여 동공 사이즈의 변경들을 추적하도록 구성될 수 있다. 이러한 정보는, 착용자의 눈이 다양한 깊이 평면들에서 제공되는 이미지들에 예상된 바와 같이 응답하고 있는지 여부를 결정하기 위해 사용될 수 있다. 예컨대, 동공의 사이즈는, (더 멀리 있는 오브젝트와 비교하여) 더 근접한 오브젝트를 볼 때 수축하는 것으로 예상된다. 따라서, 광 필드 프로세서 시스템은 근접한 깊이 평면으로부터 이미지를 제공하고, 착용자의 동공의 응답을 추적하도록 구성될 수 있다. 동공이 수축되지 않거나 또는 충분히 수축되지 않으면, 광 필드 프로세서 시스템은 착용자가 이미지를 편안하게 보고 있지 않다는 것을 표시하는 것으로서 이러한 결과를 해석하도록 구성될 수 있다.
[0303] 그에 따라서, 이미지를 볼 때의 착용자의 편안함을 결정하기 위해, 광 필드 프로세서 시스템은, 특정 이미지가 사용자에게 프로젝팅될 때 원근조절 반사의 검사의 부분으로서 착용자의 원근조절, 버전스, 및/또는 동공 사이즈를 결정할 수 있다. 유사하게, 착용자의 편안함은, 이미지가 다양한 깊이 평면들을 통해 프로젝팅될 때 결정될 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 측정된 원근조절, 버전스, 및/또는 동공 사이즈를 예상된 원근조절, 버전스, 및/또는 동공 사이즈와 비교할 수 있다. 측정된 특징들 중 하나 이상이 하나 이상의 예상된 특징들의 타겟된 범위 내에 있다면, 광 필드 프로세서 시스템은 착용자가 이미지를 편안하게 또는 정확하게 보고 있다(예컨대, 착용자는 예상된, 적절한, 또는 정상적인 시력으로 이미지를 보고 있다)고 결정할 수 있다. 측정된 특징들 중 하나 이상이 하나 이상의 예상된 특징들의 타겟된 범위 밖에 있다면, 광 필드 프로세서 시스템은 착용자가 이미지를 편안하게 또는 정확하게 보고 있지 않다(예컨대, 착용자는 손상된 시력으로 이미지를 보고 있다)고 결정할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은, 착용자가 프로젝팅된 이미지를 편안하게 보는지 여부를 결정하기 위해, 측정된 특징들에 관한 정보를 블록(1606)에서 사용자 입력으로부터 수신 또는 결정된 정보와 조합한다. 예컨대, 비교적 근접한 겉보기 깊이 평면으로부터 이미지를 볼 때, 착용자의 눈들은 서로를 향해 수렴 또는 이동하는 것으로 예상되고, 동공들은 수축되는 것으로 예상되며, 렌즈의 볼록성은 증가하는 것으로 예상된다. 이들 예상들 중 하나 이상으로부터의 편차는, 사용자가 프로젝팅된 이미지를 편안하게 또는 정확하게 보고 있지 않다는 것(예컨대, 착용자는 손상된 시력으로 이미지를 보고 있다는 것)을 표시하는 것으로서 해석될 수 있다.
[0304] 예컨대, 사용자 인터페이스를 통해 사용자로부터 입력을 수신함으로써 또는 사용자의 원근조절 및/또는 버전스를 평가함으로써 착용자가 이미지를 편안하게 볼 수 없다고 광 필드 프로세서 시스템이 결정하면, 광 필드 프로세서 시스템은 처방을 증분적으로 증가시키기 위해 초점을 변경(예컨대, 더 포지티브한 또는 네거티브한 구면 파면을 얻기 위해 더 포지티브한 또는 네거티브한 구면을 부가 또는 차감)시키도록 블록(1610)으로 진행한다. 시스템은 또한, 난시에 대해 테스트하고, 따라서 축 및 원주를 증분적으로 변경시킬 수 있다. 그런다음, 광 필드 프로세서 시스템은, 사용자가 (예컨대, 정상적인 시력으로) 이미지를 편안하게 보는지 또는 불편하게 보는지를 다시 결정하기 위해 사용자 입력을 수신 또는 결정하도록 블록(1606)으로 리턴한다. 이러한 루프는 사용자가 이미지를 편안하게 볼 때까지 반복될 수 있다.
[0305] 일부 실시예들에서, 광 필드 프로세서 시스템은, 사용자 입력으로부터 블록(1606)에서 수신된 피드백 및/또는 블록(1608)에서 결정된 객관적 평가에 적어도 부분적으로 기반하여 또는 본 명세서의 다른 곳에서 설명된 바와 같이, 블록(1610)에서 시력 보정을 조정하도록 구성된다. 일부 실시예들에서, 광 필드 프로세서 시스템은, 프로젝팅된 이미지를 볼 때 착용자의 원근조절, 버전스, 원근조절 반사, 및/또는 동공 사이즈의 측정들에 적어도 부분적으로 기반하여 블록(1610)에서 시력 보정을 조정하도록 구성된다. 따라서, 소정의 구현들에서, 광 필드 프로세서 시스템은 착용자에 대한 시력 처방을 결정하기 위해 주관적 및 객관적 테스트들을 사용하여 눈 검사를 수행하도록 구성될 수 있다.
[0306] 일부 실시예들에서, 눈 검사의 주관적 엘리먼트는, 이미지를 프로젝팅하고, 그런다음 디옵터 변경(예컨대, ±0.01D, ±0.1D, ±0.125D, ±0.25D, ±0.5D, ±1.0D) 또는 디옵터 도수의 실질적으로 연속적인 변경으로, 이를테면 계산적인 광 필드 프로세서(70)를 통해 이미지를 프로젝팅하는 것, 및 이미지 품질이 변경되었는지 여부에 관한 사용자 입력을 수신하는 것을 포함할 수 있다. 소정의 구현들에서, 광 필드 프로세서 시스템은 또한, 디옵터 값이 변경될 때 착용자의 눈들의 변화들(예컨대, 원근조절, 버전스, 동공 사이즈 등)을 결정하도록 구성될 수 있다. 이러한 객관적 테스트 데이터는, 디옵터 값의 변경들이 착용자에 대한 시각적 품질의 변경을 초래하는지를 결정하기 위해 착용자의 주관적 응답과 조합될 수 있다.
[0307] 광 필드 프로세서 시스템이 착용자가 이미지를 편안하게 볼 수 있다고 결정하면, 광 필드 프로세서 시스템은 착용자의 눈들의 처방을 결정하기 위해 블록(1612)으로 진행한다. 일부 구현들에서, 동일한 프로세스가 양쪽 눈들에 대해 반복될 수 있다는 것이 인지되어야 한다(예컨대, 양쪽 눈들은, 각각의 눈에 동일한 보정을 적용하거나 또는 왼쪽 눈과 오른쪽 눈에 상이한 보정을 개별적으로 적용하여 함께 치료될 수 있음). 일부 실시예들에서, 이것은, 2개의 상이한 시력 처방들이 착용자의 개개의 두 눈들에 적용되는 부동시(anisometropia)를 치료하기 위해 사용될 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은, 착용자에 의해 보여지고 있는 것 및/또는 어떤 활동들이 착용자에 의해 수행되고 있는지에 의존하여 시력 처방들 간에서 동적으로 스위칭하도록 구성될 수 있다. 예컨대, 부동시를 위한 렌즈들은, 착용자가 근처, 중간, 및 먼 범위들의 혼합인 이미지들을 보고 있을 때와 비교할 때, 근처에 있거나 또는 주로 멀리있는 이미지들을 주로 볼 때 착용자에게 피로감을 줄 수 있다. 그에 따라서, 광 필드 프로세서 시스템은, 착용자의 부동시, 근시, 또는 원시를 치료하기 위한 알려진 시력 처방들에 적어도 부분적으로 기반하여 실시간으로, 적용된 시력 처방을 동적으로 변경시키도록 구성될 수 있다.
[0308] 방법(1600)은 광 필드 프로세서 시스템, 이를테면 도 15를 참조하여 본원에서 설명된 디바이스(1500) 또는 본원에서 설명된 다른 유사한 디바이스들에 정보를 제공하기 위해 사용될 수 있다. 따라서, 광 필드 프로세서 시스템은 본원에서 설명된 바와 같이 착용자의 시력 처방에 기반하여 프로젝팅되는 이미지들의 초점 또는 다른 양상들을 변경시키도록 구성될 수 있다. 일부 실시예들에서, 착용자가 엔터테인먼트, 작업, 또는 다른 목적들을 위해 사용하는 동일한 웨어러블 광 필드 프로세서 시스템이 본원에서 설명된 눈 검사들을 수행하기 위해 사용될 수 있다.
[0309] 방법(1600)은 상이한 깊이들에 대한 시력 처방들, 시력 보정, 또는 굴절 보정을 결정하기 위해 사용될 수 있다. 예컨대, 원거리 겉보기 깊이 평면에 대한 제1 시력 처방, 중간-깊이(중간) 평면에 대한 제2 시력 처방, 및 근거리 겉보기 깊이 평면 또는 원거리 및 근거리, 원거리 및 중간, 근거리 및 중간에 대한 제3 시력 처방이 존재할 수 있다.
[0310] 방법(1600) 및 시스템은 착용자가 노안으로 고생하는 경우 착용자의 비전을 보정 또는 개선하기 위해 사용될 수 있다. 상이한 시력 보정들이 상이한 깊이 평면들 및 그 깊이 평면들로부터 프로젝팅된 연관된 콘텐츠에 적용될 수 있다. 또는, 웨어러블 광 필드 프로세서 시스템은 사용자의 머리 또는 눈의 감지된 배향에 기반하여 (존재한다면) 원거리에 대한 처방을 제공하는 것과 근거리에 대한 처방을 제공하는 것 간에서 스위칭하도록 구성될 수 있다. 본원에서 설명된 바와 같이, 배향 센서들 또는 다른 센서들이 사용자의 머리 또는 눈의 배향을 결정하기 위해 사용될 수 있다.
[0311] 방법(1600)은 착용자의 시력 처방을 자동으로 결정하기 위해 실시간으로 수행될 수 있다. 이러한 정보는 광 필드 프로세서 시스템에 저장되고, 미래의 테스트들을 위해 사용될 수 있다. 예컨대, 광 필드 프로세서 시스템은 검사들에 기반하여 착용자에 대한 착용자의 현재 시력 처방을 업데이트하도록 구성될 수 있다. 예컨대, 광 필드 프로세서 시스템은 시간에 걸쳐 눈을 모니터링하고 착용자의 눈 거동을 기록하도록 구성될 수 있다. 이러한 정보에 적어도 부분적으로 기반하여, 광 필드 프로세서 시스템은 시간 경과에 따라 착용자의 시력 처방을 동적으로 조정할 수 있다. 예컨대, 광 필드 프로세서 시스템은 알려진 깊이에 이미지를 제공할 때 눈의 거동을 측정할 수 있다. 광 필드 프로세서 시스템은, 눈이 예상된 바와 같이 거동하고 있는지를 결정하기 위해 이미지에 대한 예상된 눈 응답으로부터의 편차를 결정할 수 있다. 광 필드 프로세서 시스템은, 검사를 개시하고 그리고/또는 착용자의 시력 처방을 업데이트하거나, 또는 결정된 편차가 범위(예컨대, 예상된 거동의 타겟된 수용가능한 범위) 밖에 있다고 광 필드 프로세서 시스템이 결정하면, 업데이트된 눈 검사를 개시 또는 스케줄링하도록 구성될 수 있다.
[0312] 일부 실시예들에서, 광 필드 프로세서 시스템은 시력 처방을 과도한 방식으로 결정하도록 구성될 수 있다. 예컨대, 이것은, 눈 검사가 수행되고 있는 동안, 광 필드 프로세서 시스템이 착용자에게 대안적인 기능을 제공하지 않는 경우에 발생할 수 있다. 다시 말하면, 이것은, 착용자가 눈 검사에만 집중하도록 요청된 경우에 발생할 수 있다.
[0313] 일부 실시예들에서, 광 필드 프로세서 시스템은 시력 처방을 과도하지 않게(obtrusively) 결정하도록 구성될 수 있다. 예컨대, 이것은, 착용자가 다른 것들을 행하고 있는 동안(예컨대, 영화들을 보거나, 텍스트를 읽거나, 이미지들을 보고 있거나 하는 등), 광 필드 프로세서 시스템이 착용자의 눈 거동의 측정들을 획득하도록 구성되는 경우에 발생할 수 있다. 광 필드 프로세서 시스템은, 착용자가 이들 다른 활동들을 수행하고 있는 동안 착용자의 눈들의 특징들을 측정하고, 착용자의 눈들의 측정된 특징들을 비교하며, 착용자의 눈들의 예상된 특징들로부터의 편차들을 결정하도록 구성될 수 있다. 일부 실시예들에서, 시스템은 이들 결정된 편차들에 적어도 부분적으로 기반하여 시력 처방을 결정하도록 구성될 수 있다. 일부 실시예들에서, 착용자의 눈들의 예상된 특징들은 착용자에게 프로젝팅된 이미지 속성들 및 겉보기 깊이 평면들에 적어도 부분적으로 기반할 수 있다. 일부 실시예들에서, 그러한 편차들이 검출될 때, 시스템은 사용자가 시스템에 의해 적용된 검사를 받거나 또는 테스트 시력 보정이 충분한지 아니면 불충분한지를 확인할 것을 요청할 수 있다. 일부 구현들에서, 광 필드 프로세서 시스템은, 이들 다른 활동들을 수행하는 동안 원근조절 및 버전스를 시도하면서 착용자의 눈들의 신체적 변화들을 추적하도록 구성될 수 있다. 일부 실시예들에서, 이러한 정보는 시력 처방을 결정하기 위해 원근조절 및 버전스를 시도하지 않으면서 획득된 측정들과 비교될 수 있다.
[0314] 일부 실시예들에서, 광 필드 프로세서 시스템은 착용자의 시력 처방을 객관적으로 측정하도록 구성될 수 있다. 다양한 구현들에서, 이것은 이미지 품질에 관한 피드백을 착용자로부터 수신하지 않으면서 달성될 수 있다. 소정의 구현들에서, 이것은 가변 사이즈들의 이미지들을 사용자에게 프로젝팅하지 않으면서 달성될 수 있다. 예컨대, 광 필드 프로세서 시스템은 가상 무한 깊이로부터 이미지를 프로젝팅하도록 구성될 수 있다(예컨대, 광 필드 프로세서 시스템은 이미지를 무한대에 놓는다). 그런다음, 광 필드 프로세서 시스템은 착용자의 원근조절 반사, 원근조절, 버전스, 및/또는 동공 사이즈를 측정한다. 착용자의 원근조절, 버전스, 및/또는 동공 사이즈 및 예상된 것으로부터의 착용자의 원근조절, 버전스, 및/또는 동공 사이즈의 편차에 적어도 부분적으로 기반하여, 광 필드 프로세서 시스템은 착용자의 시력 처방을 객관적으로 결정할 수 있다. 예컨대, 이미지가 무한대에 놓여있을 때 착용자의 눈들이 +1D에서 원근조절하고 있으면, 광 필드 프로세서 시스템은 시력 처방을 객관적으로 결정할 수 있다.
[0315] 일부 실시예들에서, 광 필드 프로세서 시스템은 디스플레이 플랫폼의 구성에 적어도 부분적으로 기반하여 적절한 디옵터 보정을 결정하고 그리고/또는 적절한 디옵터 보정을 처리하도록 보정될 수 있다. 예컨대, 착용자에게 프로젝팅된 이미지의 깊이 평면을 조정할 때, 광 필드 프로세서 시스템은 디옵터 또는 굴절력의 변경과 깊이 평면의 변경을 정확하게 상관시키기 위해 보정되도록 구성될 수 있다. 일부 실시예들에서, 보정 동안, 착용자의 홍채가 분석된다. 홍채는 환자를 고유하게 식별하기 위해 사용될 수 있으며, 이러한 고유 식별은 사람과 그들의 의료 기록들/처방들을 상관시키는 등을 위해, 연관된 환자 기록들에 액세스하는 데 사용될 수 있다.
[0316] 다양한 실시예들에서, 산만함을 감소시키기 위해, 광 필드 프로세서 시스템을 통한 착용자의 눈들 앞의 세계의 뷰가 차단되거나 그렇지 않으면 검사 동안 보이지 않는다. 이것은, 예컨대 이미지들이 뷰어에게 제공될 때 발생할 수 있지만, 이러한 접근법은 필수적이지는 않다.
[0317] 광 필드 프로세서 시스템은 의료 설비 또는 검안사 진료실 또는 다른 곳에서의 테스트를 위하여 내과의사 또는 임상의에 의해 제공되는 시스템일 수 있다. 다른 실시예들에서, 시스템은 사용자에게 속할 수 있고, 다른 목적들, 이를테면 엔터테인먼트(예컨대, 게임들 및 영화들) 및/또는 작업 활동들에 대해 이용될 수 있다. 위에서 설명된 바와 같이, 사용자의 시스템 상에서 검사를 구현하는 하나의 이익은 검사가 일년 내내 다수회(적어도, 2, 3, 4, 5, 6, 8, 10, 12, 16, 18, 24 또는 그 초과의 횟수들로) 편리하게 시행될 수 있다는 것이다. 일부 실시예들에서, 검사들의 빈도 및/또는 스케줄은 착용자의 비전의 저하 레이트에 적어도 부분적으로 기반할 수 있다. 저하 레이트가 증가하면, 예컨대, 검사들의 빈도가 증가할 수 있다. 유사하게, 검사는 의료 전문가, 이를테면 검안사, 안과 의사, 간호사, 기술자, 의료 보조자 등과 함께 또는 그들 없이 수행될 수 있다.
[0318] 다음의 단락들은 본원에 설명된 디바이스들, 시스템들, 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0319] 웨어러블 검안 디바이스는, 수치 광 필드 이미지 데이터에 액세스하고, 그리고 수치 광 필드 이미지 데이터에 증분적인 크기들의 포지티브 또는 네거티브 광학력을 계산적으로 도입함으로써, 수정된 수치 광 필드 이미지 데이터를 생성하여, 그에 의해 눈 검사를 수행하도록 구성되는 광 필드 프로세서; 및 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하도록 구성되는 머리-장착 광 필드 디스플레이를 포함한다.
[0320] 이전 단락의 디바이스에 있어서, 광 필드 디스플레이는 마이크로-렌즈들의 2-차원 어레이 및 대응하는 광검출기의 2-차원 어레이를 갖는 통합 이미징 디스플레이를 포함한다.
[0321] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 이미지 데이터는 가변 사이즈들의 캐릭터들을 포함한다.
[0322] 이전 단락들 중 임의의 단락의 디바이스는, 물리적 광 필드의 명확성에 관한 입력을 사용자로부터 수신하도록 구성된 사용자 인터페이스를 더 포함한다.
[0323] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는 사용자 입력에 기반하여 광 필드 이미지 데이터의 광학력을 증분적으로 변경시키도록 구성된다.
[0324] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 사용자의 눈의 관찰에 기반하여 광 필드 이미지 데이터의 광학력을 증분적으로 변경시키도록 구성된다.
[0325] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 디스플레이는 사용자의 눈의 원근조절 상태를 측정하기 위해 적외선 광을 사용자의 눈에 프로젝팅하도록 구성되는 하나 이상의 적외선 광 소스들을 포함하며, 증분적인 크기들의 포지티브 또는 네거티브 광학력은 원근조절 상태에 기반하여 결정된다.
[0326] 이전 단락의 디바이스에 있어서, 하나 이상의 적외선 광 소스들은 사용자의 눈의 원근조절 상태를 측정하기 위해 상이한 버전스들의 2개 이상의 적외선 빔들을 사용자의 눈에 프로젝팅하도록 구성된다.
[0327] 이전 단락들 중 임의의 단락의 디바이스는, 사용자의 주변들로부터 광을 수신하고 그리고 부가적인 수치 광 필드 이미지 데이터를 생성하도록 구성되는 외향 머리-장착 광 필드 카메라를 더 포함하며, 광 필드 프로세서는 눈 검사의 결과들에 기반하여 부가적인 수치 광 필드 이미지 데이터를 계산적으로 수정하도록 구성된다.
[0328] 웨어러블 검안 디바이스를 사용하는 방법으로서, 방법은, 수치 광 필드 이미지 데이터에 액세스하고, 그리고 수치 광 필드 이미지 데이터에 증분적인 크기들의 포지티브 또는 네거티브 광학력을 계산적으로 도입하기 위해 광 필드 프로세서를 사용함으로써, 수정된 수치 광 필드 이미지 데이터를 생성하여, 그에 의해 눈 검사를 수행하는 단계; 및 머리-장착 광 필드 디스플레이를 사용하여, 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하는 단계를 포함한다.
[0329] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 디스플레이는 마이크로-렌즈들의 2-차원 어레이 및 대응하는 광검출기의 2-차원 어레이를 갖는 통합 이미징 디스플레이를 포함한다.
[0330] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 이미지 데이터는 가변 사이즈들의 캐릭터들을 포함한다.
[0331] 이전 단락들 중 임의의 단락의 방법은, 사용자 인터페이스를 사용하여 물리적 광 필드의 명확성에 관한 입력을 사용자로부터 수신하는 단계를 더 포함한다.
[0332] 이전 단락의 방법은, 사용자 입력에 기반하여 광 필드 이미지 데이터의 광학력을 증분적으로 변경시키는 단계를 더 포함한다.
[0333] 이전 단락들 중 임의의 단락의 방법은, 사용자의 눈의 관찰에 기반하여 광 필드 이미지 데이터의 광학력을 증분적으로 변경시키는 단계를 더 포함한다.
[0334] 이전 단락들 중 임의의 단락의 방법은, 광 필드 디스플레이에서 하나 이상의 적외선 광 소스들을 사용하여 사용자의 눈의 원근조절 상태를 측정하기 위해 적외선 광을 사용자의 눈에 프로젝팅하는 단계, 및 원근조절 상태에 기반하여 증분적인 크기들의 포지티브 또는 네거티브 광학력을 결정하는 단계를 더 포함한다.
[0335] 이전 단락의 방법은, 하나 이상의 적외선 광 소스들을 사용하여 사용자의 눈의 원근조절 상태를 측정하기 위해 상이한 버전스들의 2개 이상의 적외선 빔들을 사용자의 눈에 프로젝팅하는 단계를 더 포함한다.
[0336] 이전 단락들 중 임의의 단락의 방법은, 외향 머리-장착 광 필드 카메라를 사용하여 사용자의 주변들로부터 광을 수신하고 그리고 부가적인 수치 광 필드 이미지 데이터를 생성하는 단계; 및 눈 검사의 결과들에 기반하여 부가적인 수치 광 필드 이미지 데이터를 계산적으로 수정하는 단계를 더 포함한다.
망막 검영법
[0337] 본원에서 설명된 웨어러블 광 필드 프로세서 시스템은 착용자 또는 환자의 비전 결함들을 결정하기 위해 망막 검영기로서 사용될 수 있다. 특히, 광 필드 프로세서 시스템은, 망막 검영기로서 동작할 때 근시, 원시, 난시들, 및/또는 다른 비전 결함들을 검출하기 위해 사용될 수 있다. 광 필드 프로세서 시스템은, 예컨대, 망막 검영법 기법들, 이를테면 중화를 사용함으로써 환자의 눈의 굴절 오차를 결정하도록 구성될 수 있다. 중화는, 눈에 걸쳐 스위핑되는 광빔 또는 광 스폿이, 망막에 걸쳐 움직이는 것을 실질적으로 중단시키는 이미지를 망막에 형성할 때까지, 눈 앞쪽에서의 굴절력을 조정하는 것을 포함한다. 광 필드 프로세서 시스템은, 중화가 달성될 때까지 상이한 광학 보정을 갖는 빔들을 제공하도록 구성될 수 있다. 따라서, 광 필드 프로세서 시스템은, 식별된 비전 결함들을 보정하기 위한 시력 처방을 결정하도록 구성될 수 있다. 그러한 디바이스가 눈 검사를 관리하기 위해 사용될 수 있으며, 이 검사가 전형적으로, 자동으로 착용자에 의해 집에서 또는 의사의 또는 임상의의 진료실에서 관리될 수 있다는 것이 인지되어야 한다. 하나 이상의 실시예들에서, 환자의 개별 광 필드 프로세서 시스템은, 가능하게는 의사 수퍼비전과 함께 사용될 수 있거나, 또는 의사의 진료실은, 진단 목적들을 위해 사용될 수 있는 광 필드 프로세서 시스템의 자신만의 버전을 가질 수 있다. 다양한 실시예들에서, 이 광 필드 프로세서 시스템은 본원에서 개시된 디바이스들과 유사하게 구성될 수 있다.
[0338] 일부 실시예들에서, 웨어러블 광 필드 프로세서 시스템은, 착용자의 눈에 걸쳐 스위핑되는 광을 사용하여 비전 결함들을 식별하기 위해 망막 검영법을 수행하는 데 사용될 수 있다. 망막 검영법을 수행하도록 구성될 수 있는 디바이스들의 예들이 본원에서 설명되며, 예컨대 그리고 제한 없이, 도 5, 도 6, 도 7, 도 14, 및 도 15를 참조하여 본원에서 설명된 디바이스들을 포함한다. 웨어러블 광 필드 프로세서 시스템은 광빔을 착용자의 눈에 프로젝팅하도록 구성될 수 있다. 일부 구현들에서, 광 필드 프로세서 시스템은 세계 또는 환경으로부터의 이미지 데이터를 착용자의 눈에 디스플레이하도록 구성될 수 있다. 이러한 방식으로, 착용자는, 착용자 앞쪽에 있는 세계에서의 오브젝트들을 볼 수 있으며, 잠재적으로, 예컨대 망막 검영법 테스트의 타입에 따라, 먼 또는 가까운 오브젝트들을 응시할 수 있다. 눈에 프로젝팅된 빔의 초점은 변화되거나 또는 그렇지 않으면 광학 보정이 제공될 수 있다. 이로써, 웨어러블 광 필드 프로세서 시스템은 착용자의 눈의 굴절 오차를 측정하기 위해 망막 검영법을 수행하도록 구성될 수 있다.
[0339] 일부 실시예들에서, 웨어러블 광 필드 프로세서 시스템은 광을 착용자의 눈에 프로젝팅하도록 구성된 적어도 하나의 광 소스(예컨대, 도 14의 714)를 포함한다. 망막 검영법을 위해 사용되는 광 소스(들)는 착용자의 눈에 걸쳐 스위핑되는 광빔을 제공하도록 구성될 수 있다. 일부 실시예들에서, 웨어러블 광 필드 프로세서 시스템은 또한, 적어도 하나의 광 소스로부터의 광빔이 착용자의 눈에 걸쳐 스위핑되는 것에 대한 응답으로 망막으로부터 반사된 광을 측정하도록 구성된 하나 이상의 센서들(예컨대, 도 14의 715)을 포함한다. 다양한 실시예들에서, 센서(들)는 눈을 이미징한다. 센서(들)는, 예컨대 눈을 이미징하기 위해 눈으로 지향되도록 구성되는 눈 추적 센서 또는 다른 내향 광학 센서 또는 카메라를 포함할 수 있다. 웨어러블 광 필드 프로세서 시스템은 착용자의 눈의 굴절 오차를 측정하기 위해 망막 검영법을 수행하도록 구성될 수 있다. 예컨대, 광 필드 프로세서 시스템은, 하나 이상의 방향들로 착용자의 눈에 걸쳐 광빔을 스위핑하도록, 착용자의 눈의 뒤쪽(예컨대, 망막, 안저 등)으로부터 반사 또는 반향을 검출, 측정, 또는 이미징하고, 그리고 반사의 관찰 또는 측정을 통해 비전 결함들을 결정하도록 구성될 수 있다. 필드 프로세서(70)에 의해 광빔에 시력 보정이 계산적으로 도입될 수 있으며, 언제 그러한 광학 보정이 착용자의 굴절 오차를 상쇄하기에 충분한지를 결정하기 위해 반사가 관찰될 수 있다.
[0340] 적어도 하나의 광 소스(예컨대, 도 14의 714)는, 광 필드 프로세서 시스템의 착용자의 눈 주위에 또는 착용자의 눈에 걸쳐 이동되는 광빔을 제공하도록 구성될 수 있다. 소정의 구현들에서, 광 소스(들)는 눈에 걸쳐 이동되는 광의 비교적 좁은 빔 또는 스트립을 제공한다. 광빔은, 세장형인 자신의 광학 경로의 방향에 직교하는 단면을 가질 수 있는데, 이 단면은 수직 방향보다 일 방향으로 더 길다. 그에 따라서, 소정의 실시예들에서, 광빔은 눈 상에 광의 스트립을 형성할 수 있다. 광 소스(들)에 의해 제공되는 광은 하나 이상의 방향들로 이동되도록 구성될 수 있다. 광 소스(들)에 의해 제공되는 광이 비교적 좁은 광빔 또는 스트립일 때, 광빔 또는 스트립의 배향은 변경될 수 있다. 따라서, 광 소스(들)는 근시, 원시, 난시, 색소, 나이-관련 황반 변성, 및 다른 비전 결함들을 식별하기 위해 사용될 수 있는 광을 제공하도록 구성될 수 있다.
[0341] 센서(들)(예컨대, 도 14의 광검출기들(715) 중 하나 이상)는, 광 필드 프로세서 시스템의 착용자의 눈의 뒤쪽 또는 망막으로부터 반사되는 광(예컨대, 망막 검영 반사, 렛 반사(ret relfex), 또는 반사)을 감지하도록, 그리고 다양한 실시예들에서, 눈의 이미지를 형성하도록 구성될 수 있다. 그에 따라서, 센서(들)는, 검출된 광 및 가능하게는 눈의 이미지에 대한 응답으로 신호를 제공할 수 있는 이미지 센서 또는 카메라, 하나 이상의 광검출기들, 또는 다른 디바이스일 수 있다. 일부 실시예들에서, 센서(들)는, 착용자의 눈으로부터의 반사를 우선적으로 통과시키도록 그리고 다른 파장 대역들의 광을 우선적으로 차단시키도록 맞춘 하나 이상의 필터들(예컨대, 반사에 대해 예상되는 파장들의 대역들을 통과시키도록 튜닝된 대역통과 필터들)을 포함할 수 있다. 필터들은 물리적 필터들, 및/또는 신호 또는 이미지 프로세싱 소프트웨어에서 적용되는 필터들일 수 있다.
[0342] 광 소스(들) 및 센서(들)(예컨대, 카메라)는, 광 소스(들)에 의해 제공된 광의 특징들, 방향, 배향, 및/또는 포지션에 관한 정보를 프로세싱하도록, 그리고 센서(들)에 의해 검출된 광의 특징들, 방향, 배향, 및/또는 포지션에 관한 정보를 프로세싱하도록 구성되는 제어 시스템(예컨대, 광 필드 프로세서(70))에 커플링될 수 있다. 이 정보로부터, 제어 시스템은 착용자의 눈의 하나 이상의 비전 결함들을 결정하도록 구성될 수 있다. 일부 실시예들에서, 제어 시스템은, 센서(들)에 의해 검출된 광의 분석에 적어도 부분적으로 기반하여, 광 소스(들)에 의해 제공된 광을 수정하도록 구성될 수 있다(예컨대, 방향, 배향, 뿐만 아니라 빔에 제공된 광학 보정 등). 일부 실시예들에서, 제어 시스템은, 비전 결함들을 결정하기 위해 미리 정의된 루틴을 수행하도록 구성된다. 일부 실시예들에서, 제어 시스템은, 망막 검영법 루틴 동안의 임의의 지점에서 센서(들)에 의해 검출된 광의 분석의 결과들에 기반하여 이 루틴을 적응시킬 수 있다.
[0343] 광 필드 프로세서 시스템은, 이미지들을 착용자에 프로젝팅하도록 구성될 수 있다. 본원에서 설명된 바와 같이, 광 필드 프로세서 시스템은, 상이한 겉보기 깊이 평면들(먼 것과 가까운 것 둘 모두)에 대응하는 이미지들을 착용자에 제공할 수 있다. 그에 따라서, 착용자는, 디스플레이를 응시하여 멀고 가까운 오브젝트들을 시뮬레이팅하는 이미지들을 볼 수 있다. 이러한 방식으로, 착용자는, 이완된 원근조절을 가질 수 있거나 또는 테스트에 따른 원근조절을 나타낼 수 있다.
[0344] 따라서, 광 필드 프로세서 시스템은, 정적 및/또는 동적 망막 검영법을 제공하도록 구성될 수 있다. 예컨대, 정적 망막 검영법의 경우, 광 필드 프로세서 시스템은, 착용자가 이완된 원근조절을 가질 때 굴절 오차들을 결정하도록 구성될 수 있다. 예컨대, 동적 망막 검영법의 경우, 광 필드 프로세서 시스템은, 착용자가 상이한 거리들로 원근조절하는 동안 망막 검영법을 수행하도록 구성될 수 있다. 이는, 망막 검영법을 수행하는 동안 착용자가 초점을 맞추는 가상 이미지들 또는 오브젝트들을 제공함으로써 달성될 수 있다. 본원에서 설명된 방법들 및 시스템들을 통해 눈의 원근조절이 추적되는 동안, 이미지 또는 오브젝트까지의 겉보기 거리는 변경될 수 있다. 본원에서 설명된 것과 같은 방식으로 겉보기 깊이 평면을 변화시킴으로써, 광 필드 프로세서(70)에 의해, 이미지까지의 거리가 변경될 수 있다. 예컨대, 광 필드 프로세서는, 특정 초점 길이 및 연관된 깊이 평면에 대응하도록, 눈에 프로젝팅된 이미지 데이터의 파면들의 곡률을 변화시킬 수 있다. 따라서, 눈으로부터 깊이 평면까지의 겉보기 거리가 알려질 수 있다. 일부 경우들에서, 프로젝팅된 빔을 제어하는 광 필드 프로세서(70)는, 계산적으로 선택되거나 또는 조정될 수 있는 가변적인 광학력을 갖는다. 그에 따라서, 그러한 경우들에서, 겉보기 깊이 평면들은 원하는 대로 변경되거나 또는 조정될 수 있다. 대안적으로 또는 게다가, 본원에서 설명된 바와 같이, (예컨대, 통합 이미징 카메라(16)를 통해) 광 필드 프로세서 시스템의 디스플레이를 통해 보이는 착용자의 시야 내에 그리고 착용자의 앞쪽에 있는 세계에 실제 오브젝트를 배치함으로써, 오브젝트까지의 겉보기 거리가 또한 변경될 수 있다. 예컨대, 타겟 거리 내의 변경들에 대한 착용자의 원근조절 응답을 결정하기 위해, 이들 접근법들 중 어느 하나가 사용될 수 있다. 이들 접근법들은 또한, 예컨대 눈의 근점(near point)을 결정하기 위해 사용될 수 있다. 이는, 다른 것들 중에서, 눈의 원점(far point)을 결정하는 정적 망막 검영법과 비교될 수 있다.
[0345] 웨어러블 광 필드 프로세서 시스템은, 착용자 또는 다른 사람이 디바이스에 입력을 제공할 수 있게 하도록 구성된 하나 이상의 사용자 인터페이스 특징들을 포함할 수 있다. 사용자 인터페이스 특징들은 디바이스와 통합될 수 있다. 일부 구현들에서, 사용자 인터페이스 특징들은 디바이스에 의해 또는 이 디바이스와 물리적으로 통합되지 않은 컴포넌트에 의해 제공된다. 예컨대, 사용자 인터페이스 특징들은 디바이스 또는 이 디바이스와 통신하는 시스템에 의해 제공될 수 있다. 이는 디바이스와 유선 또는 무선 통신하는 스마트폰, 컴퓨터, 태블릿, 또는 다른 계산 디바이스일 수 있다. 일부 실시예들에서, 사용자 인터페이스 특징들은, 상이한 디바이스들과 디바이스에 링크된 시스템들의 조합에 의해, 예컨대, 유선 또는 무선 통신 네트워크들을 통해, 또는 물리적으로 디바이스에 링크되거나 또는 디바이스와 통합되는 컴포넌트들을 통해 제공될 수 있다. 사용자 인터페이스 특징들은 터치 스크린을 갖는 디바이스 상에 제공될 수 있는데, 여기서, 터치 스크린과의 상호작용이 웨어러블 광 필드 프로세서 시스템에 입력을 제공한다. 게다가 또는 대안으로서, 음성 인식 시스템들 뿐만 아니라 가상 터치 능력이 포함될 수 있다. 그에 따라서, 사용자 인터페이스 특징들은 터치에 민감한 용량성 특징들, 키보드들, 버튼들, 마이크로폰들, 광검출기들, 착용자에 의한 포인팅과 같은 제스처들을 추적하기 위한 추적 센서들 또는 카메라들, 또는 그래픽 사용자 인터페이스에 의해 제공되는 다양한 소프트웨어-구현 특징들을 포함할 수 있다. 다양한 실시예들에서, 사용자의 눈들에 프로젝팅된 이미지들과 신체, 예컨대 손가락을 움직이는 사용자들을 감지하기 위한 센서들을 통해, 가상 터치 스크린이 제공된다. 일부 실시예들에서, 사용자 인터페이스 특징들은, 착용자가 제스처들을 통해 사용자 입력을 제공할 수 있게 하기 위한 제스처 검출 컴포넌트들을 포함한다. 일부 실시예들에서, 사용자 인터페이스 특징들은, 착용자가 눈들의 시선(예컨대, 이는, 착용자가 잠시 버튼을 응시할 때, 또는 버튼에 응시되었을 때에 착용자가 눈을 깜박거릴 때, 버튼 또는 다른 엘리먼트를 선택하는 것을 포함할 수 있음)을 통해 사용자 입력을 제공할 수 있게 하기 위한 시선 검출 컴포넌트들을 포함한다. 그러한 사용자 인터페이스 시스템들은 본원에서 설명된 다른 디바이스들 및 시스템들에 대해 사용될 수 있다.
[0346] 일부 구현들에서, 착용자, 임상의 또는 의사는 망막 검영법 테스트의 양상들을 제어하기 위해 인터페이스 특징들을 사용할 수 있다. 이는, 예컨대, 제공되고 있는 광 또는 이미지가 프로젝팅되고 있는 깊이 평면 및/또는 이러한 이미지 또는 광의 특징들을 변경하기 위해 수행될 수 있다. 이는, 착용자를 위한 적합한 시력 처방을 결정하기 위해 착용자에 제공되고 있는 광 및 광학 보정을 변경하기 위해 사용될 수 있다.
[0347] 일부 실시예들에서, 광 필드 프로세서 시스템은 정적 망막 검영법과 동적 망막 검영법 둘 모두를 제공하도록 구성될 수 있다. 이미지들의 초점이 광 필드 프로세서(70)를 통해 동적으로 수정될 수 있기 때문에, 망막 검영법의 타입들 둘 모두가 동일한 디바이스로 수행될 수 있다. 광 필드 프로세서 시스템이 또한, 광의 정적 또는 스위핑되는 경로를 망막에 제공할 수 있다는 것이 인지되어야 한다. 이는 광 소스, 이를테면 통합 이미징 디스플레이(62)에 의해 프로젝팅된 광빔일 수 있다. 일부 구현들에서, 광 필드 프로세서 시스템은, 망막에 걸쳐 광을 스위핑하거나 또는 그렇지 않으면 망막 상에서 광을 이동하도록 구성되는 부가적인 컴포넌트를 포함할 수 있다. 광 필드 프로세서 시스템은, 망막 검영법을 수행하고 굴절 오차들을 객관적으로 결정하기 위해 사용될 수 있으며, 이는 굴절 오차들을 결정하기 위해 환자들로부터의 주관적인 피드백을 사용하는 다른 기구들보다 유리할 수 있다.
[0348] 정적 망막 검영법을 제공하기 위해, 광 필드 프로세서 시스템은, 착용자의 눈의 원근조절이 이완될 때 사용된다. 이는 예컨대 착용자의 눈에 조절마비 안약들의 사용을 통해 달성될 수 있다. 광 스폿 또는 광빔이 착용자의 눈에 걸쳐 제공되고 이동될 수 있다. 비전 결함들을 중화시키거나 또는 보상하기 위해, 파면의 형상을 변경할 수 있는 계산 굴절 보정들이 적용될 수 있다. 일부 실시예들에서, 정적 망막 검영기로서 동작할 때, 응시하기 위해 사용되는 뷰를 위해 광 필드 프로세서 시스템에 의해 제공된 이미지는 멀리 있는, 예컨대 효과적으로는 무한에 있는 겉보기 깊이 평면으로부터 제공될 수 있다. 일부 실시예들에서, 정적 망막 검영기로서 동작할 때, 눈에 걸쳐 스위핑되는, 광 필드 프로세서 시스템에 의해 제공된 광은 정적 겉보기 깊이 평면으로부터 제공될 수 있다. 가상 이미지가 프로젝팅되는 겉보기 깊이 평면은 무한과 약 0.1 m 사이에 배치될 수 있다. 소정의 구현들에서, 광 필드 프로세서 시스템은, 착용자의 눈의 원근조절을 이완시키고 그리고/또는 동공을 확장시키기 위해 사용되는 안약들 또는 스프레이를 전달하기 위한 스프레이 또는 다른 전달 디바이스를 포함한다. 예컨대, 광 필드 프로세서 시스템은 착용자의 눈에 조절마비 안약들을 스프레이하도록 구성될 수 있다.
[0349] 동적 망막 검영법을 제공하기 위해, 광 필드 프로세서 시스템은, 착용자의 눈이 원근조절이 가능하게 될 때 사용될 수 있다. 이미지가 착용자에게 디스플레이될 수 있거나, 또는 착용자가 응시하도록 오브젝트가 제공될 수 있다. 이미지 또는 오브젝트의 겉보기 거리는, 원근조절을 유도하기 위해서 변화될 수 있다. 일부 실시예들에서, 착용자의 눈의 원근조절은 관찰 및/또는 측정될 수 있다. 이 기법을 사용하여, 원근조절 지연 또는 앞섬이 측정될 수 있다.
[0350] 본원에서 설명된 광 필드 프로세서 시스템들은 정적 망막 검영법과 동적 망막 검영법 간에 스위칭하기 위해 사용될 수 있다. 이는, 광 필드 프로세서 시스템이 사용 중일 동안 달성될 수 있다. 광 필드 프로세서 시스템은, 착용자가 보도록 다양한 겉보기 깊이 평면들로부터의 이미지들을 제공하여서, 정적 망막 검영법과 동적 망막 검영법 둘 모두가 수행될 수 있게 하도록 구성될 수 있다. 예컨대, 광 필드 프로세서 시스템에 의해 제공된 이미지는, 정적 망막 검영법과 동적 망막 검영법 간에 스위칭하기 위해 동적으로 수정될 수 있다.
[0351] 이전 실시예들에서의 경우와 같이, 진단을 결정하기 위해 착용자에 의해 입력이 수신될 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 또한, 스위핑되는 광에 대한 망막의 응답을 측정하도록 구성된 눈 스캐닝 모듈을 포함할 수 있다. 이 응답은, 환자에 대한 진단을 제공하기 위해 망막 검영법-특정 알고리즘들에 기반하여 기록 및 분석될 수 있다. 예컨대, 알고리즘들은, 광이 눈에 걸쳐 스위핑되고 반사가 관찰 및 측정되는 망막 검영법에 적어도 부분적으로 기반할 수 있는데, 여기서, 굴절 오차들은 반사의 관찰된 또는 측정된 특징들과 연관된다. 일부 구현들에서, 굴절 오차들을 결정하기 위해 반사 움직임의 방향이 사용될 수 있다. 예컨대, 반사가, 눈에 걸쳐 스위핑되는 광과 동일한 방향으로 움직이거나 또는 움직임과 "함께" 증명되면, 광 필드 프로세서 시스템은 착용자의 눈이 원시라고 결정할 수 있다. 유사하게, 반사가, 눈에 걸쳐 스위핑되는 광과 반대 방향으로 움직이거나 또는 움직임에 "반대"로 증명되면, 광 필드 프로세서 시스템은 착용자의 눈이 근시라고 결정할 수 있다. 반사가, 광이 눈에 걸쳐 스위핑되는 방향과 평행하지 않은 방향으로 움직이면, 광 필드 프로세서 시스템은 착용자의 눈이 난시라고 결정할 수 있다. 게다가, 눈에 제공된 광의 움직임의 방향에 대한 반사의 움직임의 방향은, 비전 결함을 보정하기 위해 포지티브 굴절력이 요구되는지 또는 네거티브 굴절력이 요구되는지를 표시할 수 있다. 예컨대, "함께" 움직임은, 굴절 오차를 보정하기 위해 포지티브 굴절력이 요구될 수 있다는 것을 표시하고, "반대" 움직임은, 네거티브 굴절력이 요구될 수 있다는 것을 표시하며, 그리고 사선 움직임은 원주 굴절력이 요구될 수 있다는 것을 표시한다. 위에서 설명된 바와 같이, 착용자의 처방 및 적절한 굴절 보정을 결정하기 위해 상이한 광학 보정(예컨대, 변하는 축들을 갖는 구면 및/또는 원주)이 제공될 수 있다.
[0352] 일부 구현들에서, 시각적 결함의 특징들을 결정하기 위해, 광 필드 프로세서 시스템의 가상 작동 거리와 조합된, 반사의 스피드가 또한 사용될 수 있다. 예컨대, 반사의 스피드는 눈의 굴절 오차 또는 굴절이상에 상관될 수 있다(예컨대, 더 빠른 스피드들은 눈의 더 작은 굴절 오차들 또는 더 낮은 굴절이상을 표시함).
[0353] 일부 구현들에서, 시각적 결함의 특징들을 결정하기 위해, 반사의 폭이 또한 사용될 수 있다. 예컨대, 반사의 폭은 눈의 굴절 오차에 상관될 수 있다(예컨대, 더 넓은 반사들은 눈의 더 작은 굴절 오차들 또는 더 낮은 굴절이상을 표시함).
[0354] 일부 구현들에서, 시각적 결함의 특징들을 결정하기 위해, 소스 광빔에 대한 반사의 배향이 또한 사용될 수 있다. 예컨대, 소스 광빔에 대한 반사의 배향의 회전은 난시를 표시할 수 있다.
[0355] 일부 구현들에서, 시각적 결함의 특징들을 결정하기 위해, 반사의 상대 밝기가 또한 사용될 수 있다. 예컨대, 눈의 굴절 오차를 결정하기 위해, 반사의 상대 밝기가 사용될 수 있다(예컨대, 더 밝은 반사들은 눈의 더 작은 굴절 오차들 또는 더 낮은 굴절이상을 표시함).
[0356] 굴절 오차들을 결정하기 위해, 반사의 위의 특징들의 임의의 조합도 또한 사용될 수 있다. 유사하게, 굴절 보정들이 결정된 굴절 오차를 개선시키는지 또는 악화시키는지를 결정하기 위해, 반사의 위의 특징들의 변경들이 단독으로 또는 서로 임의의 조합으로 사용될 수 있는데, 여기서, 굴절 보정들은, 굴절 광학 컴포넌트들 또는 광학 보정을 도입하는 다른 컴포넌트들의 부가 또는 차감으로부터 도출되고 그리고/또는 광 필드 프로세서 시스템에 의해 적용된다. 일부 실시예들에서, 광 필드 프로세서 시스템은, 굴절 보정들이 결정된 굴절 오차를 개선시키는지 또는 악화시키는지를 실시간으로 결정하도록 구성될 수 있다. 광 필드 프로세서 시스템은, 착용자가 정상적인 시력으로 이미지를 볼 수 있는지 여부를 평가하기 위해, 원근조절, 버전스, 및/또는 동공 사이즈 그리고 이들 물리적 특징들의 변동들을 측정함으로써, 원근조절 반사를 측정하거나 또는 모니터링하도록 구성될 수 있다. 예컨대, 눈의 원근조절, 버전스, 및/또는 동공 사이즈는, 고정 타겟을 응시했을 때 변동한다. 이들 변동들은, 눈이 이미지에 초점을 맞추는 데 어려움을 겪고 있을 때 증가한다. 그에 따라서, 광 필드 프로세서 시스템은, 눈의 특징들의 변동들을 모니터링하도록 구성될 수 있으며, 그리고 착용자가 보는 이미지의 품질(예컨대, 착용자가 정상적인 시력으로 오브젝트 또는 이미지를 보고 있는지 여부)을 평가하기 위해, 이 바이오피드백을 사용한다.
[0357] 도 17은 망막 검영법을 수행하기 위한 검안 디바이스로서 구성된 광 필드 프로세서 시스템의 착용자의 굴절 오차를 측정하기 위한 예시적인 방법(1700)을 예시한다. 설명의 용이함을 위해, 방법(1700)은 광 필드 프로세서 시스템, 이를테면 본원에서 설명된 광 필드 프로세서 시스템들에 의해 수행되고 있는 것으로서 설명될 것이다. 그러나, 본원에서 개시된 다양한 광 필드 프로세서 시스템들 또는 다른 유사한 디바이스들의 일부 컴포넌트들 또는 서브부분들이, 방법(1700)에서의 일부 단계들, 단계들의 조합들, 또는 단계의 부분들을 수행하기 위해 사용될 수 있다.
[0358] 블록(1702)에서, 광 필드 프로세서 시스템은 망막 검영법 프로그램을 개시한다. 망막 검영법 프로그램은, 광 필드 프로세서 시스템에 의해 제공되는 기능들의 저장된 프로세스 또는 시퀀스일 수 있다. 망막 검영법 프로그램을 개시하는 것은, 이를테면 망막 검영법 테스트 또는 다른 눈 검사를 이전에 겪은 착용자에 대해 처음 시력 처방을 결정하는 것 또는 리트리브하는 것을 포함할 수 있다. 일부 구현들에서, 망막 검영법 프로그램은, 착용자의 눈(들)의 안구 이상들에 관한 정보를 통합할 수 있는데, 여기서, 안구 이상들에 관한 정보는 착용자 또는 임상의에 의해 입력되거나, 이전 망막 검영법 프로그램으로부터 결정되거나, 또는 데이터 저장부(예컨대, 네트워킹된 데이터 저장부 또는 광 필드 프로세서 시스템의 부분인 데이터 저장부)로부터 리트리브될 수 있다. 망막 검영법 프로그램을 개시하는 것은, 광빔이 착용자에 프로젝팅되는 것을 포함할 수 있다. 망막 검영법 프로그램을 개시하는 것은, 임상의 또는 의사가 눈 검사를 관리하고 있는지 여부 또는 검사가 착용자에 의해 자기-관리되고 있는지 여부를 결정하는 것을 포함할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은 착용자 또는 임상의로부터 수신된 입력에 대한 응답으로 망막 검영법 프로그램을 개시한다.
[0359] 블록(1704)에서, 착용자의 눈을 통해 광빔이 스위핑된다. 광은 예컨대 빔(예컨대, 눈에 프로젝팅된 스폿)일 수 있다. 광은 시준, 수렴, 또는 발산될 수 있다. 광은 눈에 걸쳐 스위핑되거나 또는 그렇지 않으면 눈 주위에서 이동될 수 있다. 탈초점 오차 및 난시를 결정하기 위해, 테스트될 일정 크기의 광학 보정/파워(예컨대, (변하는 축들을 갖는) 구면 및/또는 원주)가 광빔에 제공될 수 있다.
[0360] 블록(1706)에서, 광 필드 프로세서 시스템의 눈 스캐닝 컴포넌트는 스위핑되는 광에 대한 응답으로 착용자의 눈의 응답(예컨대, 착용자의 눈으로부터의 반사)을 측정하도록 구성된다. 눈 스캐닝 컴포넌트는 본원에서 설명된 카메라 또는 다른 센서(예컨대, 광 필드 프로세서(70)에 의해 제어되는 통합 이미지 디스플레이(62))일 수 있다. 눈 스캐닝 컴포넌트는, 굴절 오차들을 결정하기 위해 반사의 측정들을 분석하도록 구성될 수 있다. 예컨대, 컴포넌트(예컨대, 카메라)는, 패턴 인식 측정, 응답 패턴 식별, 센서 측정, 반사 추적, 밝기 측정들, 스피드 추적, 배향 결정 등을 위해 구성되는 분석 모듈들을 포함할 수 있다. 망막 검영법 프로그램은, 패턴들을 식별하기 위해 그리고/또는 정해진 패턴을 분석하기 위해 패턴 인식 알고리즘들로 프리-코딩될 수 있다. 망막 검영법 프로그램은, 이력 분석에서의 변경들을 식별하기 위해 착용자로부터의 이전 이미지들로 프리-코딩될 수 있다.
[0361] 블록(1708)에서, 착용자의 눈들의 응답은, 다양한 비전 결함들의 대응하는 응답 값들을 홀딩하는 상관 테이블과 비교될 수 있다. 예컨대, 블록(1708)에서, 광 필드 프로세서 시스템은, 다양한 비전 결함들에 대한 측정들의 예상된 값들에 대응하는 상관 테이블 또는 다른 데이터와, 블록(1706)에서 측정된 정보를 비교한다. 이 비교는, 블록(1706)에서 측정된 반사의 특징들에 기반하여 굴절 오차들을 결정하기 위해 사용될 수 있다.
[0362] 블록(1710)에서, 값들은, 임의의 비전 결함들을 결정하기 위해서 비교된다. 특징들 및 비전 결함들과 그들의 관계의 예들은 위의 본원에서 설명된다. 예컨대, 굴절 오차를 결정하기 위해 반사의 방향, 스피드, 밝기, 및/또는 폭이 사용될 수 있다. 다른 비전 결함들, 이를테면 난시를 결정하기 위해 반사의 형상이 사용될 수 있다. 일부 실시예들에서, 블록(1710)으로부터 블록(1702)으로의 점선에 의해 표현된 바와 같이, 착용자가 초점을 맞추는 데 어려움을 겪고 있다면, 또는 그들의 비전에 대한 문제점들이 발생할 때, 테스트가 개시될 수 있다.
[0363] 다양한 실시예들에서, 산만함을 감소시키기 위해, 광 필드 프로세서 시스템을 통한 착용자의 눈들 앞쪽에 있는 세계의 뷰는, 망막 검영법 동안 차단되거나 또는 그렇지 않으면 보이지 않는다. 이는, 예컨대, 이 접근법이 필요하지 않더라도, 이미지들이 착용자에 제공될 때 이루어질 수 있다. 일부 실시예들에서, 착용자가 주의산만한지 또는 피로한지 여부를 모니터링하기 위해, 눈 추적, 머리 포즈(예컨대, 머리 배향 및 시선 방향) 추적, 및/또는 눈 또는 얼굴 조직의 추적이 사용될 수 있다. 시스템은 눈 추적 시스템을 모니터링한 결과들에 기반하여 산만함들을 동적으로 필터링하도록 구성될 수 있다.
[0364] 광 필드 프로세서 시스템은 의료 설비 또는 검안사 진료실에서 또는 다른 곳에서 테스트를 위해 내과의사 또는 임상의에 의해 제공되는 시스템일 수 있다. 다른 실시예들에서, 시스템은 착용자에 속할 수 있고, 다른 목적들, 이를테면 엔터테인먼트(예컨대, 게임들 및 영화들) 및/또는 작업 활동들을 위해 사용될 수 있다. 위에서 설명된 바와 같이, 착용자의 시스템 상에 망막 검영법을 구현하는 하나의 이익은, 절차가 일년 내내 다수 회(적어도 2회, 3회, 4회, 5회, 6회, 8회, 10회, 12회, 16회, 18회, 24회, 또는 더 많은 횟수) 편리하게 착수될 수 있다는 것이다. 일부 실시예들에서, 절차의 빈도 또는 스케줄은 망막 검영법 테스트 결과들의 추세들 및/또는 결과들에 기반하여 변경될 수 있다. 예컨대, 테스트 결과들이 비전 결함들이 악화중이라고 표시한다면, 또는 시스템이 (예컨대, 원근조절 변동들, 버전스 변동들 등의 분석을 통해) 착용자가 그들의 비전에 어려움을 겪고 있음을 검출하면, 절차들의 빈도를 증가시키고 그리고/또는 절차들 간의 시간을 단축시키기 위해 절차의 빈도 또는 스케줄은 변경될 수 있다. 마찬가지로, 절차는 의료 전문가, 이를테면 검안사, 안과 의사, 간호사, 기술자, 의료 보조자 등과 함께 또는 그들 없이 수행될 수 있다.
[0365] 다음의 단락들은 본원에서 설명된 디바이스들, 시스템들, 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0366] 웨어러블 검안 디바이스는, 광빔을 포함하는 물리적 광 필드를 생성하고 그리고 사용자의 눈에 걸쳐 광빔을 스위핑하여서 망막 반사를 생성하도록 구성된 머리-장착 광 필드 디스플레이; 망막 반사를 수신하고 그리고 수치 이미지 데이터를 생성하도록 구성된 머리-장착 광검출기 어레이; 및 광빔에 일정 크기의 포지티브 또는 네거티브 광학력을 계산적으로 도입하고 그리고 광빔에 대한 망막 반사 응답에 기반하여 사용자의 눈에 대한 시력 처방을 결정하도록 구성된 광 필드 프로세서를 포함한다.
[0367] 이전 단락의 디바이스에 있어서, 광검출기 어레이는 광 필드 카메라의 부분이고, 수치 이미지 데이터는 수치 광 필드 이미지 데이터를 포함한다.
[0368] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
[0369] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광검출기 어레이는 광 필드 디스플레이와 통합된다.
[0370] 이전 단락의 디바이스에 있어서, 광 필드 디스플레이는 광 필드 카메라와 공유된 마이크로렌즈 어레이를 포함한다.
[0371] 이전 단락들 중 임의의 단락의 디바이스는, 사용자의 주변으로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하도록 구성된 외향 머리-장착 광 필드 카메라를 더 포함하며, 여기서, 광 필드 프로세서는 시력 처방에 기반하여 수치 광 필드 이미지 데이터를 계산적으로 수정하도록 구성된다.
[0372] 웨어러블 검안 디바이스를 사용하기 위한 방법으로서, 방법은, 머리-장착 광 필드 디스플레이를 사용하여, 광빔을 포함하는 물리적 광 필드를 생성하고 그리고 사용자의 눈에 걸쳐 광빔을 스위핑하여서 망막 반사를 생성하는 단계; 머리-장착 광검출기 어레이를 사용하여, 망막 반사를 수신하고 그리고 수치 이미지 데이터를 생성하는 단계; 및 광 필드 프로세서를 사용하여, 광빔에 일정 크기의 포지티브 또는 네거티브 광학력을 계산적으로 도입하고 그리고 광빔에 대한 망막 반사 응답에 기반하여 사용자의 눈에 대한 시력 처방을 결정하는 단계를 포함한다.
[0373] 이전 단락의 방법에 있어서, 광검출기 어레이는 광 필드 카메라의 부분이고, 수치 이미지 데이터는 수치 광 필드 이미지 데이터를 포함한다.
[0374] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
[0375] 이전 단락들 중 임의의 단락의 방법에 있어서, 광검출기 어레이는 광 필드 디스플레이와 통합된다.
[0376] 이전 단락의 방법에 있어서, 광 필드 디스플레이는 광 필드 카메라와 공유되는 마이크로렌즈 어레이를 포함한다.
[0377] 이전 단락들 중 임의의 단락의 방법은, 외향 머리-장착 광 필드 카메라를 사용하여 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하는 단계; 시력 처방에 기반하여 수치 광 필드 이미지 데이터를 계산적으로 수정하는 단계를 더 포함한다.
자동굴절기
[0378] 하나 이상의 실시예들에서, 본원에서 설명된 검안 디바이스들(예컨대, 광 필드 프로세서 시스템(600))은 자동굴절기로서 기능하도록 구성될 수 있다. 자동굴절기는 사람의 굴절 오차의 객관적인 측정을 제공한다. 환자로부터의 주관적 응답들을 수반할 수 있는 포롭터와 대조적으로, 자동굴절기는 사용자로부터의 응답들에 의존하지 않는다. 조절마비제(cycloplegic agent)(예컨대, 안약)는, 모양체근들을 릴렉스된 포지션으로 유지하여, 사용자의 원근조절의 상실을 초래하는데 사용될 수 있다. 눈의 이러한 릴렉스된 포지션은 망막의 더 일관적인 뷰를 제공한다. 환자는 자동굴절기 디바이스에 의해 프로젝팅된 이미지를 보도록 요청받을 수 있다. 이미지가 언제 망막 상에 있는지를 결정하기 위해 머신이 판독들을 할 때, 이미지가 깊이 평면들에 걸쳐 초점 내외로 이동할 수 있다. 머신은 결과들을 평균하여 처방을 결정할 수 있다.
[0379] 이를 위해, 검안 디바이스는, 변화하는 겉보기 깊이들에서 하나 이상의 이미지들을 제공하기 위해 디스플레이(예컨대, 광 필드 프로세서(70)에 의해 제어되는 바와 같은 통합 이미징 디스플레이(62))를 사용하고, 그리고 변화하는 겉보기 깊이들의 이미지들에 눈이 초점을 맞추는 동안 망막의 이미지들을 캡처하기 위해 눈-스캐닝 모듈(예컨대, 도 14의 광센서들(715))을 통해 스캐닝을 할 수 있다. 이전의 예들에서와 같이, 환자가 이미지 상에 적절하게 초점을 맞출 때를 결정하고, 후속적으로 사용자에 대한 시력 처방을 결정하기 위해, 다양한 알고리즘들이 사용될 수 있다. 검안 디바이스의 프로세서는 가시적인 또는 적외선 광을 사용하여 다수의 객관적인 굴절 검사들을 수행하는 데 사용될 수 있다. 하나 이상의 실시예들에서, 이미지 품질 분석/콘트라스트 피크 검출 기법들이 분석에서 사용될 수 있다. 유사하게, 샤이너 더블 핀홀 정렬, 샤크-하트만 그리드 정렬 및/또는 망막검영 반사 중화(retinoscopic reflex neutralization)가 또한 사용될 수 있다.
[0380] 일부 실시예들에서, 도 14의 광 필드 프로세서 시스템(600)은 자동굴절기로서 구성될 수 있다. 이미 논의된 바와 같이, 시스템(600)은 사용자의 눈과 정렬되도록 머리-장착될 수 있다. 자동굴절기 시스템은 환자의 양쪽 눈들의 굴절을 동시적으로 테스트할 수 있는 양안 자동굴절기일 수 있다.
[0381] 통합 이미징 디스플레이(62)는, 광 필드 프로세서(70)와 함께, 변화하는 양들의 파면 곡률을 갖는 광을 눈에 송신하는 데 사용될 수 있다. 예컨대, 통합 이미징 디스플레이(62)는, 시준된 빔들뿐만 아니라 포지티브 버전스 또는 네거티브 버전스를 갖는 광빔들을 포함한 상이한 양들의 버전스를 갖는 광빔들을 눈에 송신할 수 있다. 버전스의 크기는, 통합 이미징 디스플레이(62)에 제공된 이미지 데이터의 파면 곡률에 기반하여 광 필드 프로세서(70)에 의해 제어될 수 있다. 이는, 물리적 렌즈들이 빔의 버전스를 변경할 필요 없이 계산적으로 수행될 수 있다. 광 소스들(714)에 의해 제공되는 광은 가시적 또는 적외선 스펙트럼일 수 있다.
[0382] 바로 전에 설명된 바와 같이, 통합 이미징 디스플레이(62)는, 포지티브 버전스를 갖는 빔들로부터 시준된 빔들 그리고 네거티브 버전스를 갖는 빔들까지의 상이한 버전스들의 범위를 갖는 광빔들을 제어가능하게 눈에 제공하는 데 사용될 수 있다. 통합 이미징 디스플레이(62)로부터 출력되는 광빔들은 시각적 축을 따라 사용자의 눈을 향해 전파된다. 일부 실시예들에서, 이러한 빔들은 통합 이미징 디스플레이(62)와 눈 간에 제공될 수 있는 빔스플리터를 통해 송신될 수 있다. 그러한 빔스플리터는 눈의 시각적 축과 정렬될 수 있고, 별개의 카메라가 눈을 보게 할 수 있다.
[0383] 이미 논의된 바와 같이, 자동굴절기 시스템은 변화하는 정도들의 버전스를 갖는 광빔들을 사용하여 눈에 이미지 데이터를 제공할 수 있다. 이러한 이미지 데이터가 눈에 제공됨에 따라, 통합 이미징 디스플레이(62)의 광검출기들(715)(또는 빔 스플리터 카메라를 통해 눈을 보는 별개의 카메라)은 눈의 망막을 모니터링하는 데 사용될 수 있다. 광검출기들(715)은 망막 이미지들을 광 필드 프로세서(70)에 제공할 수 있다. 그런다음, 광 필드 프로세서(70)는, 자동굴절기 시스템에 의해 프로젝팅된 이미지 데이터가 눈의 망막 상에 최상으로 초점을 맞출 때를 결정하기 위해, 망막 이미지들에 대해 이미지 프로세싱 알고리즘들을 수행할 수 있다. 그러한 이미지 프로세싱 알고리즘들은, 예컨대 콘트라스트 피크 검출을 포함할 수 있다. (눈의 망막 상에 프로젝팅된 이미지 데이터는 일반적으로, 이미지 데이터가 블러링될 때 비교적 낮은 콘트라스트를 갖고 그리고 이미지 데이터가 눈에 의해 선명하게(sharply) 초점이 맞춰질 때 피크 콘트라스트를 가질 것이다). 광 필드 프로세서는, 눈이 광을 망막 상에 초점을 맞출 수 있게 하기 위해 요구되는 버전스의 정도(포지티브이든, 시준되든, 또는 네거티브이든)에 기반하여 눈의 굴절력을 계산할 수 있다. 광 필드 프로세서(70)는 눈의 구면력뿐만 아니라 원주력 및 축을 계산하기 위해, 다수의 메리디안들에서 이미지 품질을 결정할 수 있다.
[0384] 광 필드 프로세서는 자동굴절기 시스템의 동작을 제어할 수 있다. 일 예시적인 실시예에서, 제어 방법은, 광 소스들(714) 중 하나 이상으로 하여금, (포지티브이든, 시준되든, 또는 네거티브이든) 제1 버전스 값을 갖는 광빔들을 사용하여 눈을 향해 이미지를 프로젝팅하게 하는 단계를 포함할 수 있다. 그런다음, 광 필드 프로세서(70)는 카메라 광검출기들(715)을 사용하여 눈의 망막의 이미지를 캡처할 수 있다. 광 필드 프로세서(70)는, 제1 버전스 값을 갖는 광빔들을 사용할 때 망막 상에 형성되는 이미지의 품질의 메트릭을 결정하기 위해, 캡처된 망막 이미지를 분석할 수 있다.
[0385] 그런다음, 광 필드 프로세서는, 광 소스들(714) 중 하나 이상으로 하여금, 제1 버전스 값과 상이한 제2 버전스 값을 갖는 광빔들을 사용하여 눈을 향해 이미지를 프로젝팅하게 할 수 있다. 그런다음, 광 필드 프로세서(70)는, 광검출기들(715)을 사용하여 눈의 망막의 이미지를 또 다시(once again) 캡처하고, 제2 버전스 값을 갖는 광빔들을 사용할 때 망막 상에 형성되는 이미지의 품질의 메트릭을 결정하기 위해 망막 이미지를 분석할 수 있다. 그런다음, 광 필드 프로세서(70)는 제1 이미지 품질 메트릭을 제2 이미지 품질 메트릭과 비교할 수 있다. 이러한 비교에 기반하여, 광 필드 프로세서(70)는, 다양한 최적화 알고리즘들 중 임의의 최적화 알고리즘을 사용하여 눈을 향해 이미지를 프로젝팅할 때 사용하기 위한 제3 버전스 값을 선택할 수 있다. 그런다음, 광 필드 프로세서(70)는, 제3 버전스 값을 갖는 광빔들을 사용할 때 망막 상에 형성되는 이미지의 품질을 표시하는 제3 이미지 품질 메트릭을 계산할 수 있다. 이러한 프로세스는, 이미지 품질 메트릭이 최대화되거나 또는 다르게는 충분한 것으로 결정될 때까지 반복적으로 수행될 수 있다. 마지막으로, 광 필드 프로세서는 이러한 이미지 품질 메트릭에 대응하는 버전스 값에 기반하여 눈의 굴절력을 컴퓨팅할 수 있다. 게다가, 광 필드 프로세서(70)는, 자동굴절기 시스템이, 임계치를 초과하는 굴절 오차(들)를 식별하는 경우, 본원에서 설명된 포롭터 방법의 실행을 개시할 수 있다. 포롭터 시스템은 자동굴절기 시스템에 의한 측정들의 정확도에 대한 체크로서 사용될 수 있거나 또는 그 반대의 경우도 가능하다. 이러한 방식으로, 본원에서 설명된 자동굴절기 시스템 및 포롭터 시스템은 환자의 비전을 특징화하기 위해 공동으로 사용될 수 있다.
[0386] 도 18a는 자동굴절기로서 구성된 증강 및/또는 가상 현실 시스템의 다른 예시적인 실시예를 예시한다. (광 필드 프로세서(70) 및 통합 이미징 카메라(16)가 도시되지 않지만) 자동굴절기 시스템은 도 14에 예시된 자동굴절기 시스템(600)의 특징들 모두를 포함할 수 있다. 게다가, 도 18a에 예시된 자동굴절기 시스템은 시스템의 광학 경로를 따라 눈(58) 앞에 위치된 샤이너의 핀홀 디스크(1860)를 포함할 수 있다. 샤이너의 디스크(1860)는, 예컨대 통합 이미징 디스플레이(62)와 눈(58) 사이에 위치될 수 있다. 이는 둘 이상의 작은 애퍼처들을 갖는 불투명한 디스크이다. 도 18a에 예시된 바와 같이, 시준된 광빔이 샤이너의 디스크(1860)에 입사할 시에, 빔은, 2개의 애퍼처들을 통과할 수 있는 광의 광선들을 제외하고는 눈에 투과되는 것이 차단된다. 정시안(emmetropic eye)의 경우, 2개의 애퍼처들 각각을 통해 투과되는 광의 광선들은 눈(58)의 망막 상의 공통 스폿에 초점이 맞춰진다. 따라서, 광센서들(715)에 의해 취해지는 망막 이미지는 단일 스폿을 나타낼 것이다.
[0387] 도 18a가 샤이너의 디스크(1860)를 통과하는 시준된 빔의 정시안에 대한 효과를 예시하지만, 도 18b 및 18c는 원시안(hyperopic eye) 및 근시안(myopic eye)에 대한 동일한 효과를 각각 도시한다. 도 18b에서 확인되는 바와 같이, 원시안의 광학력은 샤이너의 디스크(1860)의 2개의 애퍼처들을 통해 투과된 광의 광선들을 단일 스폿에 초점을 맞추기에 충분히 강하지 않다. 따라서, 광센서들(715)에 의해 취해지는 망막 이미지는 원시안의 앞에 샤이너의 디스크를 조명하는 시준된 빔의 경우에 2개의 별개의 스폿들을 나타낼 것이다. 도 18c에서 확인되는 바와 같이, 근시안의 광학력은 너무 강하며, 이는, 샤이너의 디스크(1860)의 2개의 애퍼처들을 통해 투과된 광의 광선들이 망막의 앞에 초점이 맞춰지는 것을 초래한다. 이는 또한, 2개의 별개의 스폿들이 망막 상에 형성되는 것을 초래한다.
[0388] 따라서, 자동굴절기 시스템(600)은, 단일 스폿이 눈의 망막 상에 형성될 때까지, 샤이너의 디스크 상에 입사되는 광빔의 버전스를 변화시킬 수 있다. 눈(58)의 굴절력은 망막 상에 단일 스폿을 형성하기 위해 요구되는 빔 버전스에 기반하여 계산될 수 있다.
[0389] 광 필드 프로세서(70)는 자동굴절기 시스템(600)의 동작을 제어할 수 있다. 일 예시적인 실시예에서, 제어 방법은, 광 소스들(714) 중 하나 이상으로 하여금, (포지티브이든, 시준되든, 또는 네거티브이든) 제1 버전스 값을 갖는 광빔을 샤이너의 디스크(1860) 상에 프로젝팅하게 하는 단계를 포함할 수 있다. 그런다음, 광 필드 프로세서(70)는 광센서들(715)을 사용하여 눈(58)의 망막의 이미지를 캡처할 수 있다. 광 필드 프로세서(70)는 명백한 스폿들의 수를 결정하기 위해 망막 이미지를 분석할 수 있다. 단지 단일 스폿만이 명백한 경우, 프로세서는 제1 버전스 값에 기반하여 눈(58)의 굴절력을 계산할 수 있다. 대안적으로, 다수의 스폿들이 명백한 경우, 프로세서(2606)는 제1 버전스 값과 상이한 제2 버전스 값을 선택할 수 있다. 그런다음, 광 필드 프로세서(70)는, 제2 버전스 값을 갖는 광빔이 샤이너의 디스크(1860) 상에 프로젝팅되게 할 수 있다. 광 필드 프로세서(70)는, 광센서들(715)을 사용하여 눈(58)의 망막의 이미지를 또 다시 캡처하고, 명백한 스폿들의 수를 결정하기 위해 망막 이미지를 분석할 수 있다. 단일 스폿이 명백한 경우, 광 필드 프로세서(70)는 제2 버전스 값에 기반하여 눈(58)의 굴절력을 계산할 수 있다. 그렇지 않으면, 제3 버전스 값이 선택될 수 있고, 프로세스는 단일 스폿이 망막 상에 형성될 때까지 반복적으로 반복될 수 있다. 그런다음, 광 필드 프로세서(70)는 그 버전스 값에 기반하여 눈(58)의 굴절력을 컴퓨팅할 수 있다.
[0390] 콘텐츠가 초점이 맞춰지는 것을 보장하기 위해 사용자가 콘텐츠를 보는 동안 실시간 조정들을 위해, 본원에서 설명된 자동굴절기 또는 다른 진단 방법들 중 임의의 것이 사용될 수 있다. 게다가, 사용자의 굴절 오차를 모니터링하는 것은 사용자의 굴절 오차의 장기적인 모니터링 및 분석을 제공하기 위해 장기간(예컨대, 몇 주, 몇 개월, 또는 몇 년) 수행될 수 있다. 정기적으로-스케줄링된 테스트들의 빈도는 테스트의 추세에 기반하여 자동으로 조정될 수 있다.
[0391] 다음의 단락들은 본원에서 설명된 디바이스들, 시스템들, 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0392] 웨어러블 검안 디바이스는: 광빔을 포함하는 물리적 광 필드를 생성하고 그리고 광빔을 사용자의 눈으로 지향시켜, 망막 반사를 생성하도록 구성된 머리-장착 광 필드 디스플레이; 망막 반사를 수신하고 그리고 수치 이미지 데이터를 생성하도록 구성된 머리-장착 광검출기 어레이; 및 광 필드 디스플레이를 제어하고, 수치 이미지 데이터를 사용하여 망막 반사를 분석하고, 그리고 망막 반사의 분석에 기반하여 사용자의 눈에 대한 시력 처방을 결정하도록 구성된 광 필드 프로세서를 포함한다.
[0393] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는 추가로, 수치 이미지 데이터의 분석에 기반하여 광빔에 일정 크기의 포지티브 또는 네거티브 광학력을 계산적으로 도입하도록 구성된다.
[0394] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광검출기 어레이는 광 필드 카메라의 부분이고, 수치 이미지 데이터는 수치 광 필드 이미지 데이터를 포함한다.
[0395] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
[0396] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광검출기 어레이는 광 필드 디스플레이와 통합된다.
[0397] 이전 단락들 중 임의의 단락의 디바이스는, 적어도 2개의 핀홀들을 갖는 디스크를 더 포함하고, 디스크는 광빔이 핀홀들을 통과하도록 눈 앞에 포지셔닝된다.
[0398] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 망막 상의 광의 초점을 결정하기 위해 망막 반사를 분석하도록 구성된다.
[0399] 이전 단락들 중 임의의 단락의 디바이스는, 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하도록 구성된 외향 머리-장착 광 필드 카메라를 더 포함하며, 광 필드 프로세서는 망막 반사의 분석에 기반하여 수치 광 필드 이미지 데이터를 계산적으로 수정하도록 구성된다.
[0400] 웨어러블 검안 디바이스를 사용하는 방법으로서, 방법은: 머리-장착 광 필드 디스플레이를 사용하여 광빔을 포함하는 물리적 광 필드를 생성하고 그리고 광빔을 사용자의 눈으로 지향시켜, 망막 반사를 생성하는 단계; 머리-장착 광검출기 어레이를 사용하여 망막 반사를 수신하고 그리고 수치 이미지 데이터를 생성하는 단계; 및 광 필드 프로세서를 사용하여, 광 필드 디스플레이를 제어하고, 수치 이미지 데이터를 사용하여 망막 반사를 분석하고, 그리고 망막 반사의 분석에 기반하여 사용자의 눈에 대한 시력 처방을 결정하는 단계를 포함한다.
[0401] 이전 단락의 방법은, 광 필드 프로세서를 사용하여 수치 이미지 데이터의 분석에 기반하여 광빔에 일정 크기의 포지티브 또는 네거티브 광학력을 계산적으로 도입하는 단계를 더 포함한다.
[0402] 이전 단락들 중 임의의 단락의 방법에 있어서, 광검출기 어레이는 광 필드 카메라의 부분이고, 수치 이미지 데이터는 수치 광 필드 이미지 데이터를 포함한다.
[0403] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
[0404] 이전 단락들 중 임의의 단락의 방법에 있어서, 광검출기 어레이는 광 필드 디스플레이와 통합된다.
[0405] 이전 단락들 중 임의의 단락의 방법은, 적어도 2개의 핀홀들을 갖는 디스크를 통해 광빔을 투과하는 단계를 더 포함하고, 디스크는 눈 앞에 포지셔닝된다.
[0406] 이전 단락들 중 임의의 단락의 방법은, 광 필드 프로세서를 사용하여 망막 상의 광의 초점을 결정하기 위해 망막 반사를 분석하는 단계를 더 포함한다.
[0407] 이전 단락들 중 임의의 단락의 방법은, 외향 머리-장착 광 필드 카메라를 사용하여 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하는 단계; 및 망막 반사의 분석에 기반하여 수치 광 필드 이미지 데이터를 계산적으로 수정하는 단계를 더 포함한다.
수차계
[0408] 하나 이상의 실시예들에서, 광 필드 프로세서 시스템(600)은 수차계로서 기능할 수 있다. 수차계는, 가능하게는 탈초점, 규칙 난시, 및 고차 수차들(예컨대, 구면 수차, 코마, 트레포일, 불규칙 난시)을 포함한 눈의 불규칙성들을 측정한다. 고차 수차들조차도 비전의 품질에 상당한 영향을 미칠 수 있으며, 깊이 인지, 콘트라스트, 컬러 인지, 야간 비전 등에 영향을 미칠 수 있다. 저차 수차들 외에도 고차 수차들을 식별하는 것은 더 정확한 처방 안경류(eye wear)를 생성하는 것을 도울 수 있다.
[0409] 굴절 오차들을 식별하기 위해, 수차계는 광빔을 눈에 전송할 수 있다. 일부 실시예들에서, 광빔은 적외선 광이다. 광은 각막 및 눈의 수정체를 통과하고, 망막에 의해 다시 반사된다. 그런다음, 반사된 광은 수차계에 의해 측정되어, 눈의 (고차 굴절 오차들을 포함한) 굴절 오차들에 관한 데이터를 생성한다. 수차계들은 종종 레이저 비전 보정 수술을 수행하기 위한 데이터를 수집하는 데 사용된다. 수차계에 의해 생성된 맵은 각막을 정확하게 재-형상화하는 레이저 광의 전달을 지시한다.
[0410] 일부 실시예들에서, 수차계 시스템은 광 필드 프로세서 시스템(600)의 엘리먼트들을 포함할 수 있다. 예컨대, 수차계 시스템은 광 필드 프로세서(70) 및 통합 이미징 디스플레이(62)를 포함할 수 있다. 일부 실시예들에서, 통합 이미징 디스플레이는, 광센서들(715)을 포함하는, 도 14에 예시된 종류이다. 광 필드 프로세서 시스템(600)의 통합 이미징 디스플레이(62)는 원하는 파면을 갖는 광을 생성하는 데 사용될 수 있다. 이전의 실시예들의 경우에서와 같이, 인가된 자극에 대한 응답이 측정될 수 있다. 상이한 주파수들의 파면들이 인가될 수 있다는 것이 인지되어야 한다. 유사하게, 가시적인 또는 비-가시적인 광이 눈에 프로젝팅될 수 있다. 하나 이상의 실시예들에서, 캡처된 데이터는 임의의 비정상들을 결정하기 위해 프로세싱될 수 있다.
[0411] 통합 이미징 디스플레이(62)로부터 출력되는 광의 파면들은 시각적 축을 따라 사용자의 눈을 향해 전파된다. 일부 실시예들에서, 통합 이미징 디스플레이(62)는 평면형 파면들을 갖는 광의 프로브 빔을 출력한다. 그러나, 통합 이미징 디스플레이(62)는 또한, 포지티브 또는 네거티브 광학력을 갖는 프로브 빔을 출력하도록 광 필드 프로세서에 의해 제어될 수 있다. 프로브 빔은 눈(58)에 진입하고, 결국 망막에 의해 후방산란된다. 프로브 빔이 눈을 통해 전파됨에 따라, 그 평면 파면들은 눈(58)의 광학특성의 불규칙성들 또는 불완전성들에 의해 영향을 받을 수 있다. 그러한 불규칙성들 또는 불완전성들은, 파면들이 마찬가지로 불규칙해지도록 유발할 수 있다.
[0412] 일단 후방산란된 프로브 빔이 눈에서 나가면, 이는 통합 이미징 디스플레이(62)를 향해 다시 전파된다. 눈에서 나가는 이러한 파면들은 전형적으로 불규칙적이다. 수차된 파면(aberrated wavefront)들의 특정 형상은 눈(58)의 불규칙성들 또는 불완전성들에 의존한다. 시스템은 대략적으로 눈의 동공면에서의 파면들을 마이크로 렌즈들의 어레이(712)에 중계하는 중계 렌즈 시스템을 포함할 수 있다.
[0413] 마이크로 렌즈들의 어레이(712)는, 광센서들(715)과 함께, 이러한 파면들의 형상을 측정하고 특성화할 수 있는 파면 수차계로서의 역할을 할 수 있다. 구체적으로, 샤크-하트만 타입 파면 센서가 있다. 렌즈릿들의 어레이(712)는 많은 상이한 위치들에서 입사하는 파면들을 공간적으로 샘플링한다. 예컨대, CCD 또는 CMOS 엘리먼트들일 수 있는 광센서들(715)은 검출기로서의 역할을 할 수 있다. 각각의 렌즈릿은 광의 스폿을 검출기 상에 초점을 맞춘다. 검출기 상의 각각의 스폿의 정확한 위치는 대응하는 렌즈릿의 위치에서의 파면의 로컬 곡률에 의존한다. 따라서, 검출기는 스폿들의 어레이로 이루어진 이미지를 생성한다. 이러한 이미지는, 각각의 스폿의 정확한 위치를 결정하기 위해 광 필드 프로세서(70)에 의해 분석될 수 있고, 이는 결국, 대응하는 렌즈릿의 위치에서의 파면 곡률을 표시한다. 이러한 방식으로, 광 필드 프로세서(70)는 렌즈릿 어레이에 의해 샘플링된 각각의 공간 위치에서의 파면의 곡률을 결정할 수 있다. 측정된 파면의 형상에 기반하여, 프로세서는 저차 및 고차 수차들 둘 모두를 포함한 눈의 수차들을 계산할 수 있다. 이러한 수차들은, 예컨대 제르니케 계수들로서 수치적으로 표현될 수 있다.
[0414] 일단 광 필드 프로세서(70)가 눈(58)의 수차들을 결정하면, 광 필드 프로세서(70)는 그러한 측정들을 예컨대, 수치 또는 그래픽 형태로 출력할 수 있다. 측정들은 눈(58)의 치료 계획, 이를테면, 보정 시력 처방을 결정하는 데 사용될 수 있다. 게다가, 눈(58)의 수차들의 측정들은, 통합 이미징 카메라(16)로부터의 착신 이미지 데이터를 계산적으로 보정하여, 더 선명한 이미지를 사용자에게 제공하기 위해, 광 필드 프로세서에 의해 사용될 수 있다. 예컨대, 일부 실시예들에서, 광 필드 프로세서(70)는, 통합 이미징 디스플레이(62)가 가상 및/또는 증강 현실 이미지 데이터를 눈(58)에 프로젝팅할 때, 통합 이미징 디스플레이(62)에 의해 출력되는 파면들의 형상을 계산적으로 제어하는 데 사용될 수 있다. 이러한 방식으로, 사용자에게 제공되는 이미지 데이터는 사용자 자신의 눈(들)의 고차 및/또는 저차 수차들에 기반하여 특별하게 보정될 수 있다.
[0415] 다음의 단락들은 본원에서 설명된 디바이스들, 시스템들, 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0416] 웨어러블 검안 디바이스는: 광빔을 포함하는 물리적 광 필드를 생성하고 그리고 광빔을 사용자의 눈으로 지향시켜, 망막 반사를 생성하도록 구성된 머리-장착 광 필드 디스플레이; 망막 반사를 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하도록 구성된 머리-장착 광 필드 카메라; 및 광 필드 디스플레이를 제어하고, 수치 광 필드 이미지 데이터를 사용하여 망막 반사를 분석하고, 그리고 망막 반사의 분석에 기반하여 눈의 고차 수차들을 결정하도록 구성된 광 필드 프로세서를 포함한다.
[0417] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는 추가로, 광빔에 일정 크기의 포지티브 또는 네거티브 광학력을 계산적으로 도입하도록 구성된다.
[0418] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
[0419] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 카메라는 광 필드 디스플레이와 통합된다.
[0420] 이전 단락의 디바이스에 있어서, 광 필드 디스플레이는 광 필드 카메라와 공유되는 마이크로렌즈 어레이를 포함한다.
[0421] 이전 단락의 디바이스에 있어서, 광 필드 카메라는 샤크-하트만 센서를 포함한다.
[0422] 이전 단락들 중 임의의 단락의 디바이스는, 사용자의 주변들로부터 광을 수신하고 그리고 부가적인 수치 광 필드 이미지 데이터를 생성하도록 구성된 외향 머리-장착 광 필드 카메라를 더 포함하며, 광 필드 프로세서는 눈의 고차 수차들에 기반하여 부가적인 수치 광 필드 이미지 데이터를 계산적으로 수정하도록 구성된다.
[0423] 웨어러블 검안 디바이스를 사용하는 방법으로서, 방법은: 머리-장착 광 필드 디스플레이를 사용하여 광빔을 포함하는 물리적 광 필드를 생성하고 그리고 광빔을 사용자의 눈으로 지향시켜, 망막 반사를 생성하는 단계; 머리-장착 광 필드 카메라를 사용하여 망막 반사를 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하는 단계; 및 광 필드 프로세서를 사용하여, 광 필드 디스플레이를 제어하고, 수치 광 필드 이미지 데이터를 사용하여 망막 반사를 분석하고, 그리고 망막 반사의 분석에 기반하여 눈의 고차 수차들을 결정하는 단계를 포함한다.
[0424] 이전 단락의 방법은, 광 필드 프로세서를 사용하여 광빔에 일정 크기의 포지티브 또는 네거티브 광학력을 계산적으로 도입하는 단계를 더 포함한다.
[0425] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 디스플레이는 통합 이미징 디스플레이를 포함한다.
[0426] 이전 단락들 중 임의의 단락의 방법에 있어서, 광 필드 카메라는 광 필드 디스플레이와 통합된다.
[0427] 이전 단락의 방법에 있어서, 광 필드 디스플레이는 광 필드 카메라와 공유되는 마이크로렌즈 어레이를 포함한다.
[0428] 이전 단락의 방법에 있어서, 광 필드 카메라는 샤크-하트만 센서를 포함한다.
[0429] 이전 단락들 중 임의의 단락의 방법은, 외향 머리-장착 광 필드 카메라를 사용하여 사용자의 주변들로부터 광을 수신하고 그리고 부가적인 수치 광 필드 이미지 데이터를 생성하는 단계; 및 광 필드 프로세서를 사용하여 눈의 고차 수차들에 기반하여 부가적인 수치 광 필드 이미지 데이터를 계산적으로 수정하는 단계를 더 포함한다.
황반 변성
[0430] 하나 이상의 실시예들에서, 광 필드 프로세서 시스템(600)은 황반 결손들을 검출, 진단 및/또는 보상하도록 구성될 수 있다. 황반 결손들(예컨대, 구멍들, 낭종들, 변성 등)은, 사용자의 시야에서 광에 대한 민감도가 감소된 또는 광에 대해 민감하지 않은 이상부들, 데드 스폿들 또는 구역들을 생성하는, 망막의 황반 및 중심와 조직에서의 손상들이다. 황반 결손의 일반적 형태들은 AMD(age-related macular degeneration), 스타가르트 질환, 베스트 질환, 및 다른 퇴행성 상태들을 포함한다. 연령-관련 황반 변성은 망막 색소 상피층의 위축을 특징으로 하는 "건성(dry)" AMD, 및 망막의 비정상적 혈관 성장으로부터의 합병증으로 인해 비전 상실이 발생되는 "습성(wet)" AMD를 포함한다. 황반 결손들은, 콘트라스트 또는 컬러 민감도의 손실뿐만 아니라 시야의 다양한 부분들에서의 광에 대한 민감도가 감소된 이상부들, 데드 스폿들 또는 구역들을 초래할 수 있다. 종종, 민감도가 감소된 이상부들, 데드 스폿들 또는 구역들은 주변부보다는 시야의 중심 부근에서 발생한다.
[0431] 광 필드 프로세서 시스템(600)은, 망막의 부분이 이미지를 검출하는 능력을 결정함으로써, 황반 결손들을 검출 또는 진단하도록 구성될 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은, 눈에 이미지를 형성하기 위해 착용자의 눈에 광을 프로젝팅할 수 있는 사용자 디스플레이 디바이스(62), 이를테면, 도 6, 7, 및 14에 도시된 통합 이미징 디스플레이를 포함할 수 있다. 사용자 디스플레이 디바이스(62)는, 하우징 또는 프레임(108)에 의해 사용자의 머리 또는 눈들에 장착될 수 있는 디스플레이 렌즈, 스크린 등(106)을 포함할 수 있다.
[0432] 그런다음, 시스템은 착용자로부터 응답을 검출할 수 있다. 예컨대, 이미지는, 망막의 건강한 부분에 프로젝팅되는 경우에는 명확하게 보일 수 있지만 결손 부분에 프로젝팅되는 경우에는 보이지 않을 가능성이 있는 작은 도트일 수 있다. 일부 실시예들에서, 착용자는, 착용자가 이미지를 보았는지를 표시하도록, 자동으로 또는 다른 사용자, 이를테면 의료 전문가에 의해서 촉구될 수 있다. 그런다음, 사용자는 사용자 인터페이스를 통해 착용자의 응답을 입력할 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은, 의식적인 입력을 요구함이 없이, 이미지의 프로젝션에 대한 응답으로 비자발적 반응, 이를테면, 초점 또는 시선 또는 계속되는 눈 스캐닝의 변화가 발생하는지를 관찰하기 위해, 통합 이미징 디스플레이 디바이스(62)의 광센서들(715), 별개의 눈 추적 카메라들(24), 또는 유사한 검출 방법들을 사용함으로써 정확도를 증가시킬 수 있다. 눈 추적 카메라들(24)은, 도 5에 예시된 바와 같은, 내향(즉, 사용자의 눈을 향해 지향됨) 카메라들일 수 있다. 일부 실시예들에서, 광 필드 프로세서 시스템은, 이를테면, 수동 입력에 의해 또는 착용자의 시선을 이미지 또는 프로젝팅된 가상 버튼 이미지로 의식적으로 향하게 함으로써, 이미지가 관찰되었는지를 표시하도록 착용자에게 직접적으로 촉구할 수 있다. 가상 버튼 이미지는 디스플레이 렌즈(106)에 의해 프로젝팅될 수 있고, 착용자의, 버튼 선택은 눈 추적 카메라들(24)에 의해 또는 제스처 인식을 통해 검출될 수 있다.
[0433] 일부 실시예들에서, 위에서 설명된 테스트는, 황반 결손 영역들을 검출하기 위해, 망막의 상이한 부분들에서 또는 망막의 동일한 부분에서의 상이한 이미지들로 반복될 수 있다. 예컨대, 착용자가 이미지를 볼 수 있는 망막의 특정 부분은 건강한 것으로 결정될 수 있는 반면, 동일한 이미지가 보이지 않을 수 있는 망막의 부분은 결손인 것으로 결정될 수 있다. 다른 예에서, 주로 적색 광과 같은 더 긴 파장의 가시 광으로 이루어진 이미지가 먼저 프로젝팅될 수 있다. 그런 다음, 주로 청색 광과 같은 더 짧은 파장의 가시 광으로 이루어진 이미지가 망막의 동일한 부분에 프로젝팅될 수 있고, 착용자에 대한 가시성에서의 임의의 불일치는 착용자의 컬러 감도의 손실을 표시할 수 있다. 일부 실시예들에서, 콘트라스트, 채도, 색조, 강도, 주기성 또는 공간 주파수, 또는 임의의 다른 특징이 상이한 복수의 이미지들이 착용자의 망막 상의 상이한 위치들에서 착용자에게 제공됨으로써, 황반 결손들로 인한 다양한 감도 손실들을 진단할 수 있다. 황반 결손 진단의 신뢰성을 개선하기 위해, 위에서 설명된 테스트의 결과들 외에도 착용자의 망막의 이미지들이 사용될 수 있다. 그러한 이미지들은, 예컨대, 도 14에 관하여 설명된 시스템, 검안경 또는 안저경, 광 간섭성 단층촬영기술, 또는 다른 이미징 기술에 의해 획득될 수 있다.
[0434] 황반 결손 테스트는 요구에 따라 이산 테스트들로 수행될 수 있거나, 시간에 걸쳐 주기적으로 그리고/또는 반복적으로 수행될 수 있다. 반복되는 분석은, 나이 관련 또는 다른 황반 변성과 같은 진행성 황반 결손들의 추적을 허용할 수 있다. 그에 따라, 황반 결손 진단 기능들은 검안 진단을 위해서만 착용되는 디바이스에 통합될 수 있거나, 엔터테인먼트, 작업, 또는 다른 목적(들)과 같은 정기적으로 착용되는 디바이스의 일부일 수 있어서, 검사들은, 규칙적인 간격들로 그리고/또는 일, 주, 월, 년 등의 다양한 시간들로 자동으로 수행될 수 있다. 일부 실시예들에서, 착용자는, 자동 검사가 명료해지기 전에, 이를테면, 경고 사운드 및/또는 시각적으로 디스플레이되는 메시지로 통지받을 수 있다. 황반 결손 테스트의 결과들은 평가 및/또는 진단을 위한 디바이스에서 실시간으로 평가될 수 있거나, 클라우드 또는 다른 네트워크를 통해 송신되어 원격으로 평가될 수 있다. 이상들 또는 다른 황반 결손의 원격 평가 및/또는 진단은, 아래에 설명된 치료 또는 보상 방법들을 가능하게 하기 위해 다시 디바이스로 송신될 수 있다. 착용자의 눈의 고유한 특징들은 디바이스에 의해 기록되어, 송신된 데이터의 보안 및 프라이버시를 보장하기 위한 아이덴티티 검증에 사용될 수 있다. 예컨대, 광센서(715)는 홍채를 이미징할 수 있고, 광 필드 프로세서(70)는, 착용자의 아이덴티티가 테스트 결과들이 대응하는 사람의 아이덴티티에 대응하는지 여부를 결정하기 위해 패턴 인식을 수행할 수 있다. 그런 다음, 시스템은, 착용자가 테스트 결과들이 대응하는 사람인 경우에만 테스트 결과들을 디스플레이할 수 있다.
[0435] 광 필드 프로세서 시스템은, 광을 망막에 직접 프로젝팅함으써 그리고 구체적으로는 황반 주변에서 건강한 세포들을 타겟팅함으로써, 황반 변성을 보상하는 것을 도울 수 있다. 광이 프로젝팅되는 곳을 변경함으로써, 디바이스는 건강한 세포들을 선택적으로 타겟팅하고 사용자의 비전 품질을 개선할 수 있다. 하나 이상의 실시예들에서, 광 프로젝팅 소스는, 사용자의 눈들의 상이한 부분들에 이미지들을 프로젝팅하도록 구성된 LED 광 소스들을 갖는 통합 이미징 디스플레이를 포함한다. 시스템은, 망막의 상이한 부분들 상에 선택적으로 광을 프로젝팅하도록 구성될 수 있는 다른 타입들의 디스플레이들을 포함할 수 있다. 이러한 기술은, 건강한 망막 세포들에 이미지의 픽셀들을 선택적으로 프로젝팅하고, 손상된 영역들에 프로젝팅되는 광의 성질을 감소, 최소화, 또는 변경하도록 레버리징(leverage)될 수 있다. 예컨대, 이상부에 프로젝팅된 픽셀들은 확대되거나 더 밝아질 수 있다. 이러한 기법은 또한 프로젝팅된 이미지 데이터 그 자체에 대한 수정들을 요구할 수 있고, 광 필드 프로세서는, 사용자가 이미지를 볼 때 유의미한 차이를 알지 못하도록 이미지의 성질을 변경할 수 있다는 것이 또한 인지되어야 한다.
[0436] 광 필드 프로세서 시스템은 월드로부터의 광의 착용자의 뷰를 수정할 수 있다. 시스템은 디바이스에 들어오는 광을 실시간 또는 거의 실시간으로 검출할 수 있고, 착용자의 황반 결손을 보정하기 위해 광의 부분들을 수정하거나 부가적인 광을 프로젝팅할 수 있다. 예컨대, 시스템은, 월드를 이미징하기 위해 통합 이미징 카메라(16)와 같은 외향 카메라들을 사용할 수 있다. 그런 다음, 시스템은 월드의 이미지를 착용자에게 프로젝팅할 수 있다. 프로젝팅된 이미지 데이터는, 픽셀들이 건강한 망막 세포들에 선택적으로 프로젝팅될 수 있도록 변경될 수 있는 한편, 이상부들에 프로젝팅된 픽셀들은, 배율, 강도, 색조, 채도, 공간 주파수, 또는 다른 품질에 있어 감소되거나, 최소화되거나, 확대되거나, 밝아지거나, 또는 다른 방식으로 변경될 수 있다. 시스템은 또한, 변하는 광 상태들을 조정하는 데 있어 황반 변성으로 인해 어려움이 있는 착용자들을 위해, 일반적으로, 밝은 방들을 어둡게 하고 그리고/또는 야간 뷰들을 밝게 하는 데 사용될 수 있다.
[0437] 광 필드 프로세서 시스템은 착용자에게 경고들을 제공하기 위해 외향 카메라(들)를 사용할 수 있다. 경고들은, 황반 결손으로 인해 착용자에게 보이지 않는 위험한 상태들의 검출에 기반할 수 있다. 시스템은, 망막 상의 이상부들의 위치와 같은 착용자의 알려진 황반 결손 데이터와 외향 카메라(들)로부터의 이미지들의 상관에 기반하여 보이지 않는 위험의 존재를 결정할 수 있다. 다가오는 오브젝트, 지면에 있는 구멍, 또는 다른 상태와 같은 위험이 블라인드 스폿에서 검출될 때, 시스템은 착용자에게 경고할 수 있다. 경고들은, 시각적, 오디오, 또는 촉각적 통지들을 포함할 수 있다. 완전한 실명의 경우들에서, 시스템은, 원하는 아이템(예컨대, 의자, 테이블, 침대 등)의 존재를 검출하고 이를테면 가청 통지에 의해 근접성 정보를 착용자에게 제공하도록 구성될 수 있다.
[0438] 하나 이상의 실시예들에서, 광 필드 프로세서 시스템은, 황반 변성의 위치를 결정하기 위해, 사용자 눈의 해부학적 구조를 진단 또는 평가할 수 있다. 이제 도 19를 참조하면, 황반 변성의 임의의 영역들을 진단, 검출, 및/또는 식별하기 위한 예시적인 프로세스 흐름(1900)이 제공된다. 1902에서, 황반 변성 진단/평가 프로그램이 개시될 수 있다. 위에서 설명된 많은 실시예들에서의 경우와 같이, 프로그램은 광 필드 프로세서 시스템에 다운로드되거나 사전-코딩될 수 있다. 1904에서, 예컨대 하나 이상의 통합 이미징 디스플레이들(62)을 통해, 이미지가 사용자의 눈의 특정 부분에 프로젝팅된다. 예컨대, 이미지(예컨대, 작은 도트, 작은 형상 등)는 사용자의 눈의 중심으로 지향된다(예컨대, 망막의 중심에 형성됨).
[0439] 1906에서, 시스템은, 임의의 타입의 사용자 인터페이스를 통해, 사용자가 보는 이미지의 품질에 관한 입력을 수신할 수 있다. 예컨대, 사용자는, 이미지의 품질을 1 내지 10으로 레이팅하도록 요청받을 수 있다. 또는, 다른 실시예에서, 이미지는 시각적 자극을 증가 또는 감소시키면서 프로젝팅될 수 있고, 사용자는, 이미지가 사용자의 비전에 나타나거나 시각으로부터 사라지고, 시각적 자극이 감소되고, 그리고/또는 이동하는 때를 식별해야 할 수 있다. 일부 실시예들에서, 시스템은, 대답하는 데 긴 시간을 소요하는 착용자는 자극을 보는 데 어려움을 겪을 수 있으므로, 착용자가 대답하는 데 요구되는 시간을 검출할 수 있다. 유사하게, 많은 그러한 기법들, 이를테면 Pelli Robson 또는 사인파 격자 테스트들이 사용될 수 있다. 1908에서, 수신된 사용자의 입력에 기반하여, 시스템은, 사용자의 눈의 그 부분의 건강을 결정할 수 있다.
[0440] 1910에서, 시스템은, 눈의 다른 부분들이 유사하게 진단 및/또는 평가될 필요가 있는지를 결정할 수 있다. 그렇다면, 단계들(1904-1908)이 반복된다. 눈의 다양한 다른 부분들이 유사하게 테스트된 후에, 1912에서, 사용자의 눈의 다양한 부분들의 건강의 결과들이 분석되고 임의의 이상들이 식별될 수 있다.
[0441] 하나 이상의 실시예들에서, AR 시스템은, 중심외 응시(eccentric fixation)의 측정을 위한 작은 격자선 타겟을 포함하는 비주스코프(visuscope)처럼 거동한다. 광 프로젝팅 소스는 환자의 망막 상에 이미지를 프로젝팅할 수 있고, 환자는 타겟의 중심을 볼 것을 요청받을 수 있다. 격자선 타겟의 중심에 대한 중심와 반사의 포지션은, 환자가 중심외 응시를 갖는지 여부 및 그 정도를 표시할 수 있다. 유사하게, 중심외 응시의 방향 및 정도는 위의 프로세스를 통해 결정될 수 있다.
[0442] 사용자가 하나 이상의 이상부들을 갖는다는 것이 결정된다면, 광 필드 프로세서 시스템은, 수정된 이미지를, 이미지의 대부분이 건강한 주변 망막 세포들을 통해 보이도록 사용자의 눈에 프로젝팅하도록 구성될 수 있으며, 이상부들에 프로젝팅된 임의의 픽셀들이 조정된다. 프로젝팅될 이미지는, 사용자가 건강한 세포들을 통해 이미지를 보지만 이미지 그 자체에서의 유의미한 변화를 알지 못하도록, 미리 결정된 알고리즘들을 통해 수정될 필요가 있을 수 있다는 것이 인지되어야 한다.
[0443] 다음의 단락들은, 본원에서 설명된 디바이스들, 시스템들, 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0444] 웨어러블 검안 디바이스는, 광빔을 포함하는 물리적 광 필드를 생성하고 그리고 그 광빔을 사용자의 눈의 망막의 선택된 서브-부분으로 지향시킴으로써 망막 반사를 생성하도록 구성되는 머리-장착 광 필드 디스플레이; 망막 반사를 수신하고 그리고 수치 이미지 데이터를 생성하도록 구성되는 머리-장착 광검출기 어레이; 및 광 필드 디스플레이를 제어하고, 광검출기 어레이로부터의 수치 이미지 데이터를 사용하여 망막 반사를 분석하고, 그리고 망막 반사의 분석에 기반하여 망막의 선택된 서브-부분의 건강을 결정하도록 구성되는 광 필드 프로세서를 포함한다.
[0445] 이전 단락의 디바이스는, 망막의 선택된 서브-부분의 건강에 관한 사용자로부터의 입력을 수신하도록 구성되는 사용자 인터페이스를 더 포함한다.
[0446] 이전 단락들 중 임의의 단락의 디바이스는, 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하도록 구성되는 외향 머리-장착 광 필드 카메라를 더 포함하며, 광 필드 프로세서는, 광 필드 이미지 데이터의 선택된 부분을 그 부분이 망막의 건강한 부분 상에 입사되도록 시프팅하기 위해, 망막의 건강에 기반하여 수치 광 필드 이미지 데이터를 계산적으로 수정하도록 구성된다.
[0447] 웨어러블 검안 디바이스를 사용하기 위한 방법으로서, 방법은, 광빔을 포함하는 물리적 광 필드를 생성하고 그리고 광빔을 사용자의 눈의 망막의 선택된 서브-부분으로 지향시킴으로써 망막 반사를 생성하는 단계; 머리-장착 광검출기 어레이를 사용하여, 망막 반사를 수신하고 수치 이미지 데이터를 생성하는 단계; 및 광 필드 프로세서를 사용하여, 광 필드 디스플레이를 제어하고, 광검출기 어레이로부터의 수치 이미지 데이터를 사용하여 망막 반사를 분석하고, 그리고 망막 반사의 분석에 기반하여 망막의 선택된 서브-부분의 건강을 결정하는 단계를 포함한다.
[0448] 이전 단락의 방법은, 망막의 선택된 서브-부분의 건강에 관한 입력을 사용자 인터페이스로부터 수신하는 단계를 더 포함한다.
[0449] 이전 단락들 중 임의의 단락의 방법은, 외향 머리-장착 광 필드 카메라를 사용하여, 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하는 단계; 및 광 필드 프로세서를 사용하여, 광 필드 이미지 데이터의 선택된 부분을 그 부분이 망막의 건강한 부분 상에 입사되도록 시프팅하기 위해, 망막의 건강에 기반하여 수치 광 필드 이미지 데이터를 계산적으로 수정하는 단계를 더 포함한다.
외향 카메라로부터의 이미지 데이터의 리-렌더링
[0450] 본원에서 설명된 다양한 시스템들은 주변 환경으로부터 이미지 정보를 캡처하기 위한 하나 이상의 외향 카메라들을 포함할 수 있으며, 이러한 이미지 정보는 후속적으로, 시스템의 착용자에게 제공되는 이미지들 및/또는 비디오로서 디스플레이될 수 있다. 일부 실시예들에서, 시스템에 의해 착용자에게 제공되는 이미지 정보는, 카메라에 의해 원래 캡처된 이미지 정보에 대해 수정된 이미지 정보를 제공하기 위해 리-렌더링될 수 있다. 수정은, 카메라들에 의해 캡처된 이미지 정보를 수신하고, 그리고 디스플레이된 이미지들 및/또는 비디오들을 생성하는 광 변조기들에 나중에 통신되는 변경들을 포함하도록 이미지 정보를 프로세싱하는 프로세서(예컨대, 이미지 프로세서)에 의해 수행될 수 있다. 일부 실시예들에서, 월드의 사용자의 뷰 및 그 뷰에서의 특정 특징들은 진단 또는 치료 목적들을 위해 요구되는 바와 같이 수정될 수 있다.
[0451] 도 5를 참조하면, 머리-장착 건강 시스템은, 착용자 주위의 월드를 이미징하기 위한 하나 이상의 외향 카메라들(16)을 포함할 수 있다. 시스템은, 착용자에게 디스플레이하기 위한 이미지 정보를 리-렌더링하기 위해, 카메라(들)(16)에 의해 캡처된 이미지 정보(예컨대, 이미지(들) 및/또는 비디오)를 프로세싱할 수 있다. 일부 실시예들에서, 디바이스는, 월드의 리-렌더링된 이미지를 착용자에게 프로젝팅하기 위해, 디스플레이 디바이스(108)로부터의 광을 착용자의 눈으로 프로젝팅할 수 있다. 본원에서 설명된 리-렌더링 기법들은, 광 필드 카메라들로부터 수집된 광 필드 이미지 정보에 또는 임의의 다른 타입의 카메라에 의해 수집된 임의의 다른 타입의 이미지 정보에 적용될 수 있다. 유사하게, 리-렌더링된 이미지 정보는, (리-렌더링된 이미지 정보가 광 필드 이미지 데이터로 이루어진다면) 광 필드 디스플레이 디바이스에 의해 또는 임의의 다른 타입의 디스플레이 디바이스에 의해 디스플레이될 수 있다.
[0452] 일부 실시예들에서, 리-렌더링 단계에서, 프로세서(예컨대, 광 필드 프로세서(70))는, 착용자에게 디스플레이될 이미지의 특성들을 선택적으로 수정하도록 구성될 수 있다. 예컨대, 프로세서는, 착용자의 망막의 건강한 그리고 건강하지 않은 세포들의 분포에 기반하여, 이미지의 부분들을, 그 부분들이 건강한 망막 세포들에 프로젝팅되는 한편 건강하지 않은 망막 세포들에 프로젝팅되는 이미지의 부분들이 배율, 강도, 색조, 채도, 공간 주파수, 또는 다른 품질에 있어 감소되거나, 최소화되거나, 확대되거나, 밝아지거나, 또는 다른 방식으로 변경되도록, 선택적으로 변경하게 구성될 수 있다. 유사하게, 이미지의 임의의 원하는 부분은, 착용자의 임의의 알려진 검안 상태를 완화 및/또는 보상하는 데 요구되는 바에 따라, 배율, 강도, 색조, 채도, 공간 주파수, 또는 임의의 다른 품질에 있어 수정될 수 있다. 일부 실시예들에서, 이미지의 파면이 또한, 초점-관련 상태들을 완화시키기 위해 수정 및/또는 재성형될 수 있다. 다른 예들에서, 시스템은 또한, 예컨대, 월드의 사용자의 뷰의 부분들 또는 전부를 월드의 더 어둡거나 더 밝은 뷰를 제공할 수 있는 리-렌더링된 콘텐츠로 필요에 따라 대체함으로써, 변하는 광 상태들을 조정하는 데 있어 어려움이 있는 착용자들을 위해, 일반적으로, 밝은 방들을 어둡게 하고 그리고/또는 야간 뷰들을 밝게 하는 데 사용될 수 있다. 이미지 데이터는 알려진 이미지 프로세싱 기법들을 사용하여 어두워지거나 밝아질 수 있다. 다른 예에서, 시스템은, 색맹 착용자들을 포함하여 착용자의 비전을 향상시키기 위해 컬러들을 수정하거나 시프팅할 수 있다. 시스템은 증강 현실 디스플레이 또는 가상 현실 디스플레이를 포함할 수 있고, 본원에서 개시된 바와 같이 이미지 정보를 리-렌더링하는 것은 양 타입의 디스플레이 상에 콘텐츠를 디스플레이함에 있어 적용될 수 있다는 것이 인지될 것이다.
[0453] 도 5를 계속 참조하면, 일부 실시예들에서, 건강 시스템은, 착용자 주위(예컨대, 전방)의 월드를 이미징하는 하나 이상의 전방향 및 외향 카메라들(16)을 가질 수 있다. 시스템은, 이미지의 다양한 특징들, 이를테면, 이미지의 구역들의 강도, 색조, 채도, 및/또는 공간 주파수를 결정하도록 구성될 수 있다. 위에 설명된 바와 같이, 시스템은, 외향 카메라들(16)에 의해 캡처된 정보에 기반하여, 밝기, 배율, 컬러, 파면, 및/또는 다른 파라미터들의 약간의 수정들로 월드의 이미지를 프로세싱하여 디스플레이 디바이스(108)를 통해 착용자에게 재생할 수 있다. 일부 실시예들에서, 디스플레이 디바이스는 착용자의 눈에 부분 이미지만을 프로젝팅할 수 있는데, (예컨대, 일부 증강 현실 실시예들에서와 같이) 부분 이미지 증강 광이 착용자의 눈으로 디스플레이를 통과하여 원하는 수정을 생성한다. 예컨대, 증강 현실 시스템은, 착용자의 알려진 컬러 검출 결손에 기반하여 이미지의 부분들의 컬러를 시프팅할 수 있다. 다른 예에서, 증강 현실 시스템은, 착용자의 알려진 콘트라스트 감도 결손에 기반하여 이미지의 2개 이상의 부분들 사이의 밝기의 차이를 향상시킬 수 있다.
[0454] 다음의 단락들은, 본원에서 설명된 시스템들을 사용하여 수집된 정보를 이미징하기 위해 프로세서에 의해 적용될 수 있는 리-렌더링 기법들의 다양한 특정 예들을 설명한다.
[0455] 조광은, 시스템의 착용자에게 디스플레이되기 전에 외향 카메라에 의해 수집된 이미지 정보 상에서 수행될 수 있는 리-렌더링 동작이다. 예컨대, 이미지 정보의 시야의 일부분 또는 전부가 계산적으로 조광될 수 있다. 또는, 다시 말해서, 이미지 정보의 밝기는, 캡처된 이미지 정보를 사용자에게 디스플레이하기 전에 프로세서에 의해 계산적으로 감소될 수 있다. 캡처된 이미지 정보의 계산적 조광은 사용자 입력에 대한 응답으로 수동으로 수행될 수 있다. 대안적으로, 캡처된 이미지 정보의 계산적 조광은, (카메라(16) 또는 다른 센서에 의해 검출되는 바와 같은) 주변 광 상태들에 기반하여 자동으로 수행될 수 있다. 이미지 정보의 조광은 많은 상이한 시나리오들에서 유익할 수 있다. 예컨대, 밝은 광은, 자폐증 또는 사회적 불안으로 고생하는 사람들에게서 또는 발작하기 쉬운 사람들에게서 감각 과부하를 야기하거나 또는 편두통을 일으키는 주요 팩터일 수 있다. 그에 따라, 수집된 이미지 정보를 사용자에게 디스플레이하기 전에 그 수집된 이미지 정보를 조광하는 것은, 이러한 그리고 다른 상태들로 고생하는 사람들에 대한 밝은 광으로 인한 부정적인 반응들을 방지하는 것을 도울 수 있다.
[0456] 일부 실시예들에서, 이미지 정보에 의해 포함되는 전체 시야가 조광된다. 다른 실시예들에서, 조광은 시야의 상이한 부분들에 선택적으로 적용될 수 있다. 예컨대, 일부 실시예들에서, (예컨대, 본원에서 설명된 시스템들 및 기법들을 사용하여 제공되는) 눈 추적 기술은 사용자가 시야에서 응시하는 곳을 결정하는 데 사용될 수 있고, 이미지 정보는 그 포인트에 대응하는 시야의 부분에서 선택적으로 조광될 수 있다. 반대로, 이미지 정보는, 사용자가 응시하는 곳 이외의 시야의 부분들에서 선택적으로 조광될 수 있다. 이는, 예컨대, 사용자가 활성적으로 보고 있는 이미지 정보의 시야의 부분에 대한 강조를 제공하도록 행해질 수 있다. 이미지 정보의 시야의 일부분의 선택적인 조광은 사용자가 보고 있는 곳에 기반하여 눈 추적 기술에 의해 제어될 수 있지만, 이는 대안적으로, 제스처들 또는 다른 사용자 입력들에 또한 기반하여 제어될 수 있다.
[0457] 조광과 반대로, 밝기를 증가시키는 것은, 시스템의 착용자에게 디스플레이되기 전에 외향 카메라에 의해 수집된 이미지 정보 상에서 수행될 수 있는 다른 리-렌더링 동작이다. 이미지 정보의 밝기는 프로세서에 의해 계산적으로 증가될 수 있다. 대안적으로 또는 부가적으로, 이미지 정보의 밝기는, 이미지 정보를 캡처하는 데 사용되는 센서의 감도를 증가시킴으로써 또는 가시 광 또는 적외선 광으로 사용자의 시야에서의 장면을 조명한 다음 장면으로부터의 그 광의 반사를 이미지 정보의 일부로서 캡처함으로써 증가될 수 있다.
[0458] 일부 실시예들에서, 이미지 정보에 의해 포함되는 전체 시야의 밝기는 프로세서에 의해 증가된다. 다른 실시예들에서, 밝기는 시야의 상이한 부분들에 대해 선택적으로 증가될 수 있다. 예컨대, 눈 추적 기술을 사용하여, 사용자가 보고 있는 시야의 부분의 밝기가 선택적으로 증가될 수 있다. 반대로, 사용자가 보고 있는 곳 이외의 시야의 부분의 밝기가 선택적으로 증가될 수 있는 것이 또한 가능하다. 선택적으로 밝아지는 시야의 부분은 또한 다른 방식들로, 이를테면, 사용자 제스처들 또는 다른 제어 입력들에 의해 제어될 수 있다.
[0459] 이미지 정보의 밝기를 향상시키는 것은 다수의 상이한 방식들로 사용될 수 있다. 예컨대, 이미지 정보의 향상된 밝기는, 계절성 정서 장애로 고생하는 사람들을 돕는 데 사용될 수 있다. 일부 실시예들에서, 본원에서 설명된 시스템들은, 사용자의 생리적 파라미터들, 이를테면 체온, 심박수, 혈압, 움직임 등을 검출하는 다른 센서들과 함께 사용되고 그들에 통신가능하게 커플링될 수 있다. 프로세서는 이러한 감각 입력을 모니터링하고 감각 입력으로부터 추측될 수 있는 사용자의 기분, 생산성(productivity), 주의력(attentiveness) 등에 기반하여 이미지 정보의 밝기를 자동으로 향상시킬 수 있다. 게다가, 깜박거리는 밝기는 혈류 및 안구 맥관 구조(vasculature)를 증가시키는 것으로 나타났다. 따라서, 프로세서는, 이미지 정보의 밝기로 하여금 선택된 주파수에서 깜박거리게 함으로써 사용자의 눈들에서의 혈류를 자극할 수 있다.
[0460] 블러링은, 시스템의 착용자에게 디스플레이되기 전에 외향 카메라에 의해 수집된 이미지 정보 상에서 수행될 수 있는 다른 리-렌더링 동작이다. 블러링은, 예컨대, 캡처된 이미지 정보의 일부분 또는 전부에 저역 통과 디지털 필터를 적용함으로써 프로세서에 의해 계산적으로 수행될 수 있다. 저역 통과 필터는, 예컨대, 가우시안 블러 필터일 수 있다. 블러링 필터의 적용은, 이미지 잡음을 감소시킴으로써 이미지 품질을 개선할 수 있다. 게다가, 더 부드러운 이미지 및 혼합된 세부사항들 및 컬러들과 조합된 잡음 감소는 감각 과부하의 가능성을 감소시킬 수 있으며, 이는 자폐증 및/또는 사회적 불안으로 고생하는 사람들에게 유익할 수 있다. 블러링은, 이미지 정보의 전체 시야 또는 단지 그의 일부분에 적용될 수 있다. 블러링이 이미지 정보의 시야의 일부분에만 선택적으로 적용된다면, 그 부분은 사용자가 응시하는 곳에 기반하여 선택될 수 있다. 예컨대, 사용자가 보고 있는 곳을 결정하기 위해 눈 추적 기술이 사용될 수 있고, 블러링은, 시야의 그 부분 또는 사용자가 보고 있는 곳 이외의 시야의 부분에 적용될 수 있다. 대안적으로, 사용자는, 제스처 또는 다른 제어 입력을 이용하여, 블러링될 시야의 부분을 선택할 수 있다.
[0461] 블러링과 반대로, 샤프닝은 시스템의 착용자에게 디스플레이되기 전에 외향 카메라에 의해 수집된 이미지 정보 상에서 수행될 수 있는 다른 리-렌더링 동작이다. 또 다시, 샤프닝 동작은 이미지 정보의 전체 시야 또는 단지 그의 일부분에 적용될 수 있다. 샤프닝 동작이 이미지 정보의 시야의 일부분에만 적용된다면, 그 부분은 사용자가 보고 있는 위치에 기반하여 눈 추적 기술을 사용하여 선택될 수 있다. 예컨대, 샤프닝 동작은, 사용자가 보고 있는 시야의 부분에 또는 사용자가 보고 있는 곳 이외의 시야의 부분에 적용될 수 있다. 또는, 샤프닝을 위한 이미지 정보의 시야의 부분을 선택하기 위해 제스처 또는 다른 제어 입력이 또한 사용될 수 있다.
[0462] 에지 검출 및/또는 에지 향상은 시스템의 착용자에게 디스플레이되기 전에 외향 카메라에 의해 수집된 이미지 정보 상에서 수행될 수 있는 또 다른 리-렌더링 동작들이다. 또 다시, 이러한 동작들은 이미지 정보의 전체 시야 또는 단지 그의 일부분에 대해 계산적으로 수행될 수 있다.
[0463] 에지 검출 및/또는 에지 향상 동작들은 오브젝트 또는 특징 인식 알고리즘들과 함께 사용될 수 있으며, 이들은 또한 리-렌더링 동작들로서 이미지 정보에 적용될 수 있다. 이러한 타입들의 알고리즘들은, 이미지 정보에 보이는 시야 내의 오브젝트들을 인지할 수 있다. 그런 다음, 프로세서는, 임의의 인식된 오브젝트에 대해 증강 현실 태그 또는 라벨을 삽입할 수 있다. 예컨대, 태그 또는 라벨은 이미지 정보에 삽입될 수 있고, 인식된 오브젝트 위에 중첩되거나 그 주변 또는 그 근처에 제공될 수 있다. 태그 또는 라벨은 오브젝트에 관한 임의의 원하는 타입의 정보를 제공할 수 있다. 게다가, 프로세서는, 이미지 정보의 시야 내의 인식된 오브젝트를 강조하는 증강 현실 특징들을 적용할 수 있다. 예컨대, 오브젝트가 인식되면, 오브젝트의 에지들이 굵어질 수 있다. 대안적으로, 사용자의 주의를 끄는 경향이 있는 임의의 다른 증강 현실 특징이 오브젝트에 부가될 수 있다.
[0464] 오브젝트 인식 알고리즘들은 또한, 사용자가 볼 때 신체적 또는 감정적 반응을 일으키게 하는 오브젝트들을 식별하는 데 사용될 수 있다. 예컨대, 본원에서 설명된 시스템들은, 사용자의 생리적 파라미터들, 이를테면 체온, 심박수, 혈압 등을 검출하는 다른 센서들과 함께 사용되고 그들에 통신가능하게 커플링될 수 있다. 사용자가 자신이 보고 있는 것에 대해 신체적 또는 감정적 반응을 갖는 때를 결정하기 위해 센서들의 출력이 모니터링될 수 있다. 오브젝트 인식 및 눈 추적 기술은, 신체적 또는 감정적 반응이 발생했을 때 사용자가 특정 오브젝트를 보고 있었는지 여부를 결정하는 데 사용될 수 있다. 그런 다음, 시스템은, 반응을 일으킨 오브젝트들, 시간들, 이미지 데이터 등을 표시하는 데이터를 출력하고 그리고/또는 사용자에게 통지를 제공할 수 있다. 이러한 타입의 기능성은 많은 상이한 타입들의 사람들에게 유익할 수 있다. 예컨대, 이는, 알츠하이머 병으로 고생하는 사람들이 일상 생활에서 무엇을 노력하는지를 결정하는 것을 도울 수 있다. 또는, 이는, 예컨대, 강박 장애 또는 외상 후 스트레스 장애로 고생하는 사람들이 무엇에 반응을 일으키는지를 결정하는 것을 도울 수 있다.
[0465] 일부 실시예들에서, 오브젝트 인식 알고리즘에 의해 오브젝트가 인식되면, 프로세서는, 인식된 오브젝트를 증강 현실 오브젝트 또는 특징로 대체 또는 변경할 수 있다. 예컨대, 자폐증 사용자가 소셜 환경들에서 노력한다면, 캡처된 이미지 정보의 시야 내의 인식된 사람들이 애니메이션화된 증강 현실 캐릭터들로 대체될 수 있다. 이는, 자폐증 사용자가 소셜 환경에서 상호작용하는 것을 더 편안하게 느끼도록 도울 수 있다. 게다가, 프로세서는, 시간 경과에 따라 애니메이션들이 덜 극단적이게 되는 노출 치료 타입을 구현함으로써, 시간 경과에 따라 사용자가 실생활 사람들이 더 편안해질 수 있게 한다.
[0466] 컬러 변경들은, 캡처된 이미지 정보가 사용자에게 디스플레이되기 전에 캡처된 이미지 정보 상에 수행될 수 있는 부가적인 리-렌더링 동작들이다. 다양한 그러한 계산적 컬러 변경들이 가능한데, 이미지 정보의 선택된 컬러가 다른 컬러로 맵핑될 수 있고, 화이트 밸런스(white balance)가 변경될 수 있고, 컬러 온도가 변경될 수 있는 등의 식이다. 임의의 타입의 색맹으로 고생하는 사용자들의 경우에서, 프로세서는, 사용자에 대한 콘트라스트를 개선하기 위해 그러한 방식으로 이미지 정보의 컬러들을 변경할 수 있다. 예컨대, 시스템은, 색맹으로 고생하는 사람이 볼 수 없는 2개의 컬러들을 계산적으로 감쇠시킬 수 있다. 자극 컬러들을 감쇠시키고 최대 스펙트럼 오버랩을 감소시키거나 제거함으로써, 추상 세포들에서 자극되는 신호들 사이의 구별이 개선될 수 있다.
[0467] 게다가, 청색 광 노출은 의사 결정을 개선하는 것으로 나타났다. 그에 따라, 일부 실시예들에서, 이러한 효과의 장점을 이용하기 위해 이미지 정보에 청색 색조가 계산적으로 부가될 수 있다. 다른 예로서, 적색 광 노출은 망막 상의 미토콘드리아의 산소 생성에 영향을 미칠 수 있으며, 이는, 황반 변성의 영향들을 감소시키는 것을 도울 수 있다. 그에 따라, 일부 실시예들에서, 이러한 효과의 장점을 이용하기 위해 이미지 정보에 적색 색조가 계산적으로 부가될 수 있다.
[0468] 캡처된 이미지 정보에 적용될 수 있는 부가적인 리-렌더링 동작들은, 줌 인, 줌 아웃, 및 이미지 정보를 횡방향으로 시프팅하는 것을 포함한다. 이러한 동작들은 다양한 방식들로 제어될 수 있으며, 제스처들 또는 다른 사용자 입력들에 의해 제어되거나 사용자가 보고 있는 곳(눈 추적 기술에 의해 표시됨)에 기반하여 제어되는 것을 포함한다. 이미지 정보를 계산적으로 확대할 때, 예컨대, 이미지의 세부사항을 많이 손실하지 않으면서 이미지를 스케일 업(scale up)할 수 있는 가우시안 함수를 사용하여 픽셀들의 가중 평균이 계산될 수 있다. 이미지 정보의 확대 및 횡방향 시프팅은, 황반 변성으로 고생하는 사람들을 포함하는 많은 사람들에게 유익할 수 있다. 예컨대, 사용자고 보고 있는 이미지 정보의 시야 내의 위치는, (보고 있는 타겟의 가상 사이즈를 증가시킴으로써) 황반 데드 스폿의 상대적인 영향을 감소시키기 위해 확대될 수 있고 그리고/또는 사용자의 눈의 건강한 망막 세포들 상에 그 위치가 나타나도록 시프팅될 수 있다. 줌 인 외에도, 시스템은 또한 줌 아웃할 수 있다. 예컨대, 외향 카메라(들)가 사용되어 착용자의 정상적인 시야를 넘어 연장되는 더 큰 시야로부터의 이미지 정보를 캡처할 수 있고, 그런 다음, 시스템은, 이러한 더 큰 시야로부터의 이미지 정보를 계산적으로 압축하여 사용자의 정상적인 시야 내에 맞출 수 있다.
[0469] 게다가, 이미지 정보의 시야의 횡방향 시프팅은, 눈들의 불수의 움직임들을 야기하는 안구진탕증(nystagmus)으로 고생하는 사람들을 도울 수 있다. 예컨대, 눈 추적 기술이 안구진탕증 환자의 눈 움직임들을 모니터링하는 데 사용될 수 있고, 이미지 정보의 시야는, 사용자의 시야를 안정화시키는 것을 돕기 위해, 불수의 눈 움직임들과 동기성을 맞춰 시프팅될 수 있다. 불수의 눈 움직임들과 동기성을 맞춰 이미지 정보를 이동시키기 보다는, 이미지 정보는 대안적으로, 치료의 일 형태로서 불수의 눈 움직임들을 늦추기 위해, 소정의 시간 지속기간들 동안 (예컨대, 약간 더 느린 주파수들로) 동기성을 약간 벗어나게 이동될 수 있다. 유사한 기법은, 환자의 시야가 진동하는 시각적 결함인 진동시로 고생하는 사람들을 돕는 데 사용될 수 있다. 프로세서는, 사용자의 비전을 안정화시키는 것을 돕기 위해, 이미지 정보의 시야로 하여금 사용자의 눈들과 동기성을 맞춰 진동하게 할 수 있다. 게다가, 사용자의 눈들을 트레이닝하여 사용자의 눈들의 진동량을 감소시키는 것을 돕기 위해, 시간 경과에 따라 이미지 정보의 시야의 진동을 늦춤으로써 치료가 제공될 수 있다.
[0470] 또 다른 리-렌더링 동작은 시스템의 외향 카메라(들)에 의해 캡처된 이미지 정보의 해상도를 계산적으로 증가시키는 것이다. 이는 알려진 업샘플링 기법들을 사용하여 달성될 수 있다. 그런다음, 더 높은 해상도 이미지 정보가 사용자에게 디스플레이될 수 있다. 이미지 정보의 해상도를 디지털적으로 증가시킴으로써, 시스템의 착용자는 지각되는 시력의 증가를 경험할 수 있다.
[0471] 일부 실시예들에서, 지금까지 논의된 리-렌더링 동작들은 사용자에게 디스플레이하기 위해 외향 카메라에 의해 캡처된 이미지 정보에 실시간으로 적용될 수 있다. 그러나, 수행될 수 있는 부가적인 동작은 비-실시간 이미지 정보의 플레이백이다. 예컨대, 이전의 시점에서(예컨대, 수 초, 수 분, 수 시간, 수 일 등 이전에) 수집된 이미지 정보가 사용자에게 플레이백될 수 있다. 그러한 경우들에서, 시스템은 커맨드 시 임의의 원하는 이전 시점으로부터의 이미지 정보가 플레이백을 위해 선택될 수 있도록, 캡처된 이미지 정보를 연속적으로 기록하는 메모리를 포함할 수 있다. 이전 이미지 정보는 정상 시간으로 플레이백될 수 있거나, 또는 이전 이미지 정보는 정상 스피드보다 더 느리게 또는 더 빠르게 플레이백될 수 있다. 사용자는 제스처들 또는 다른 제어 입력들로 이 기능성을 제어할 수 있다.
[0472] 전술한 리-렌더링 동작들 중 임의의 동작은 사용자 입력에 기반하여 또는 자동으로 수행될 수 있다. 본원에서 설명된 시스템들은, 사용자가 세팅들, 선호도들, 기능들 등; 눈 추적; 제스처 제어; 머리 포즈; 음성 등을 제어하기 위해 내비게이팅할 수 있는 다양한 입력 제어들, 이를테면 상호작용 엘리먼트들 또는 메뉴들을 포함할 수 있다. 게다가, 이들 기능들은 또한, 안저 카메라, 다이오드 레이저, 이미지 센서, 적외선 CCD(charge-coupled device) 카메라, 및 고해상도 디지털 CCD 카메라를 사용하여 수행될 수 있으며, 이들 모두는 디바이스 상의 부착물들일 수 있다.
[0473] 다음의 단락들은 본원에서 설명된 디바이스들, 시스템들, 및 방법들의 다양한 예시적인 실시예들을 설명한다.
[0474] 웨어러블 검안 디바이스로서, 디바이스는, 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하도록 구성되는 외향 머리-장착 광 필드 카메라; 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 수치 광 필드 이미지 데이터를 계산적으로 수정하도록 구성되는 광 필드 프로세서; 및 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하도록 구성되는 머리-장착 광 필드 디스플레이를 포함한다.
[0475] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는 수치 광 필드 이미지 데이터의 적어도 일부를 계산적으로 조광하도록 구성된다.
[0476] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 수치 광 필드 이미지 데이터의 적어도 일부를 계산적으로 밝게 하도록 구성된다.
[0477] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는 사용자 기분의 표시에 기반하여 밝기를 제어하도록 구성된다.
[0478] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 밝기로 하여금 플리커링되게 하여 사용자의 눈 내의 혈류를 향상시키도록 구성된다.
[0479] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 수치 광 필드 이미지 데이터의 적어도 일부를 계산적으로 확대하도록 구성된다.
[0480] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 수치 광 필드 이미지 데이터의 적어도 일부를 계산적으로 블러링하도록 구성된다.
[0481] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 수치 광 필드 이미지 데이터 내의 에지들을 계산적으로 검출하거나 또는 향상시키도록 구성된다.
[0482] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 광 필드 디스플레이로 하여금 이전의 시간 순간으로부터의 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 플레이백하게 하도록 구성된다.
[0483] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는 정상 스피드보다 더 빠르게 또는 더 느리게 광 필드 이미지 데이터를 플레이백하도록 구성된다.
[0484] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 광 필드 카메라에 의해 캡처된 수치 광 필드 이미지 데이터에서 오브젝트를 검출하도록 구성된다.
[0485] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는 검출된 오브젝트를 증강 현실 특징로 대체하거나 또는 수정하도록 구성된다.
[0486] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 검출된 오브젝트가 사용자로부터 검출가능한 물리적 또는 감정적 응답을 유도하는지 여부를 결정하도록 구성된다.
[0487] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 수치 광 필드 이미지 데이터에서 컬러를 계산적으로 변경하도록 구성된다.
[0488] 이전 단락의 디바이스에 있어서, 광 필드 프로세서는 사용자의 의사 결정을 향상시키기 위해 수치 광 필드 이미지 데이터에서 청색 컬러를 계산적으로 증가시키도록 구성된다.
[0489] 이전 단락들 중 임의의 단락의 디바이스에 있어서, 광 필드 프로세서는 망막의 건강을 향상시키기 위해 수치 광 필드 이미지 데이터에서 적색 컬러를 계산적으로 증가시키도록 구성된다.
[0490] 웨어러블 검안 디바이스를 사용하는 방법으로서, 방법은, 외향 머리-장착 광 필드 카메라를 사용하여, 사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하는 단계; 광 필드 프로세서를 사용하여, 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 수치 광 필드 이미지 데이터를 계산적으로 수정하는 단계; 및 머리-장착 광 필드 디스플레이를 사용하여, 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하는 단계를 포함한다.
[0491] 이전 단락의 방법은, 수치 광 필드 이미지 데이터의 적어도 일부를 계산적으로 조광하는 단계를 더 포함한다.
[0492] 이전 단락들 중 임의의 단락의 방법은, 수치 광 필드 이미지 데이터의 적어도 일부를 계산적으로 밝게 하는 단계를 더 포함한다.
[0493] 이전 단락의 방법은, 사용자 기분의 표시에 기반하여 밝기를 제어하는 단계를 더 포함한다.
[0494] 이전 단락들 중 임의의 단락의 방법에 있어서, 밝기로 하여금 플리커링되게 하여 사용자의 눈 내의 혈류를 향상시키는 단계를 더 포함한다.
[0495] 이전 단락들 중 임의의 단락의 방법은, 수치 광 필드 이미지 데이터의 적어도 일부를 계산적으로 확대하는 단계를 더 포함한다.
[0496] 이전 단락들 중 임의의 단락의 방법은, 수치 광 필드 이미지 데이터의 적어도 일부를 계산적으로 블러링하는 단계를 더 포함한다.
[0497] 이전 단락들 중 임의의 단락의 방법은, 수치 광 필드 이미지 데이터 내의 에지들을 계산적으로 검출하거나 또는 향상시키는 단계를 더 포함한다.
[0498] 이전 단락들 중 임의의 단락의 방법은, 광 필드 디스플레이로 하여금 이전의 시간 순간으로부터의 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 플레이백하게 하는 단계를 더 포함한다.
[0499] 이전 단락의 방법은, 정상 스피드보다 더 빠르게 또는 더 느리게 광 필드 이미지 데이터를 플레이백하는 단계를 더 포함한다.
[0500] 이전 단락들 중 임의의 단락의 방법은, 광 필드 카메라에 의해 캡처된 수치 광 필드 이미지 데이터에서 오브젝트를 검출하는 단계를 더 포함한다.
[0501] 이전 단락의 방법은, 검출된 오브젝트를 증강 현실 특징로 대체하거나 또는 수정하는 단계를 더 포함한다.
[0502] 이전 단락들 중 임의의 단락의 방법은, 검출된 오브젝트가 사용자로부터 검출가능한 물리적 또는 감정적 응답을 유도하는지 여부를 결정하는 단계를 더 포함한다.
[0503] 이전 단락들 중 임의의 단락의 방법은, 수치 광 필드 이미지 데이터에서 컬러를 계산적으로 변경하는 단계를 더 포함한다.
[0504] 이전 단락의 방법은, 사용자의 의사 결정을 향상시키기 위해 수치 광 필드 이미지 데이터에서 청색 컬러를 계산적으로 증가시키는 단계를 더 포함한다.
[0505] 이전 단락들 중 임의의 단락의 방법은, 망막의 건강을 향상시키기 위해 수치 광 필드 이미지 데이터에서 적색 컬러를 계산적으로 증가시키는 단계를 더 포함한다.
트리거링 이벤트들의 컴퓨터 비전 및 센서 기반 검출
[0506] 본원에서 설명된 실시예들 중 일부에서, 광 필드 프로세서 시스템은, 트리거링 이벤트들, 이를테면 사용자의 감정 상태 또는 상태에 기반하여, 또는 사용자의 환경 내의 검출된 상태 또는 이벤트에 기반하여, 진단 또는 치료 프로토콜의 시작, 종료, 수정 등을 행한다. 다른 트리거링 이벤트들이 또한 적용가능할 수 있다. 일부 경우들에서, 그러한 트리거링 이벤트들은 컴퓨터 비전 시스템에 의해 검출될 수 있다.
[0507] 트리거링 이벤트는 다양한 기법들을 사용하여 검출될 수 있다. 트리거링 이벤트는 사용자의 반응들에 기반하여 결정될 수 있다. 예컨대, 광 필드 프로세서 시스템은 생리적 센서에 의해 또는 내향 이미징 시스템에 의해 획득되는 데이터를 분석할 수 있다. 광 필드 프로세서 시스템은 사용자의 감정 상태를 결정하기 위해 데이터를 사용할 수 있다. 광 필드 프로세서 시스템은 사용자가 소정의 감정 상태(이를테면, 화난 상태, 두려워 하는 상태, 불편한 상태 등)에 있는지 여부를 결정함으로써 트리거링 이벤트의 존재를 검출할 수 있다. 예로서, 광 필드 프로세서 시스템은 사용자의 감정 상태를 결정하기 위해, 사용자의 동공 확장, 심박동 레이트, 호흡 레이트, 또는 발한 레이트를 분석할 수 있다.
[0508] 트리거링 이벤트는 또한, 컴퓨터 비전 기법들을 사용하여 검출될 수 있다. 예컨대, 광 필드 프로세서 시스템은, 장면 재구성, 이벤트 검출, 비디오 추적, 오브젝트 인식, 오브젝트 포즈 추정, 학습, 인덱싱, 모션 추정, 또는 이미지 복원 등을 수행하기 위해, 외향 이미징 시스템에 의해 획득된 이미지들을 분석할 수 있다.
[0509] 이들 태스크들을 수행하기 위해 하나 이상의 컴퓨터 비전 알고리즘들이 사용될 수 있다. 컴퓨터 비전 알고리즘들의 비-제한적인 예들은: SIFT(scale-invariant feature transform), SURF(speeded up robust features), ORB(oriented FAST and rotated BRIEF), BRISK(binary robust invariant scalable keypoints), FREAK(fast retina keypoint), Viola-Jones 알고리즘, Eigenfaces 접근법, Lucas-Kanade 알고리즘, Horn-Schunk 알고리즘, 평균-시프트 알고리즘, vSLAM(visual simultaneous location and mapping) 기법들, 순차적 베이지안 추정기(예컨대, 칼만 필터, 확장 칼만 필터 등), 번들 조정, 적응형 임계화(및 다른 임계화 기법들), ICP(Iterative Closest Point), SGM(Semi Global Matching), SGBM(Semi Global Block Matching), 특징 포인트 히스토그램들, 다양한 머신 학습 알고리즘들(이를테면 예컨대, 서포트 벡터 머신, k-최근접 이웃들 알고리즘, 나이브 베이지안, (컨볼루셔널 또는 딥 뉴럴 네트워크들을 포함하는) 뉴럴 네트워크, 또는 다른 지도/비지도 모델들 등) 등을 포함한다.
[0510] 이들 컴퓨터 비전 기법들 중 하나 이상은 또한, 트리거링 이벤트의 존재를 검출하기 위해 다른 환경 센서들(이를테면, 예컨대, 마이크로폰)로부터 획득되는 데이터와 함께 사용될 수 있다.
[0511] 트리거링 이벤트는 하나 이상의 기준들에 기반하여 검출될 수 있다. 이들 기준들은 사용자에 의해 정의될 수 있다. 트리거링 이벤트의 존재는 또한, 사용자의 상호작용들에 의해 표시될 수 있다. 예컨대, 사용자는 소정의 포즈(예컨대, 손 제스처 또는 신체 포즈)를 만들 수 있거나, 또는 사용자 입력 디바이스를 작동시켜서 트리거링 이벤트의 존재를 표시할 수 있다.
[0512] 부가적으로 또는 대안적으로, 기준들은 또한, 사용자의 거동들에 기반하여 학습될 수 있다. 예컨대, 광 필드 프로세서 시스템은 사용자가 광 필드 프로세서 시스템을 턴오프시키는 때를 모니터링할 수 있다. 광 필드 프로세서 시스템은 사용자가 소정의 타입의 가상 콘텐츠(예컨대, 영화 내의 소정의 타입들의 장면들)에 대한 응답으로 광 필드 프로세서 시스템을 자주 턴오프시키는 것을 관찰할 수 있다. 그에 따라서, 광 필드 프로세서 시스템은 사용자의 거동을 학습할 수 있고, 사용자의 거동에 기반하여 트리거링 이벤트를 예측할 수 있다. 다른 예로서, 광 필드 프로세서 시스템은 가상 콘텐츠와의 사용자의 이전 상호작용들에 기반하여 사용자의 감정 상태를 연관시킬 수 있다. 광 필드 프로세서 시스템은, 사용자가 가상 오브젝트와 상호작용하고 있을 때, 트리거링 이벤트가 존재하는지 여부를 예측하기 위해 이 연관을 사용할 수 있다.
트리거링 이벤트들의 머신 학습
[0513] 트리거링 이벤트들을 학습하기 위해 다양한 머신 학습 알고리즘들이 사용될 수 있다. 일단 트레이닝되면, 머신 학습 알고리즘들이 광 필드 프로세서 시스템에 의해 저장될 수 있다. 머신 학습 알고리즘들의 일부 예들은 회귀 알고리즘들(이를테면, 예컨대, 보통의 최소 제곱 회귀), 인스턴스-기반 알고리즘들(이를테면, 예컨대, 학습 벡터 양자화), 결정 트리 알고리즘들(이를테면, 예컨대, 분류 및 회귀 트리들), 베이지안 알고리즘들(이를테면, 예컨대, 나이브 베이지안), 클러스터링 알고리즘들(이를테면, 예컨대, k-평균 클러스터링), 연관성 규칙 학습 알고리즘들(이를테면, 예컨대, 선험적 알고리즘들), 인공 뉴럴 네트워크 알고리즘들(이를테면, 예컨대, 퍼셉트론), 심층 학습 알고리즘들(이를테면, 예컨대, 딥 볼츠만 머신, 또는 딥 뉴럴 네트워크), 차원 감소 알고리즘들(이를테면, 예컨대, 주 컴포넌트 분석), 앙상블 알고리즘들(이를테면, 예컨대, 스택된 일반화) 및/또는 다른 머신 학습 알고리즘들을 포함하는 지도 또는 비지도 머신 학습 알고리즘들을 포함할 수 있다. 일부 실시예들에서, 개별 모델들은 개별 데이터 세트들에 대해 커스터마이징될 수 있다. 예컨대, 웨어러블 디바이스는 베이스 모델을 생성하거나 저장할 수 있다. 베이스 모델은 데이터 타입(예컨대, 특정 사용자), 데이터 세트(예컨대, 획득된 부가 이미지들의 세트), 조건부 상황들 또는 다른 변동들에 특정적인 부가적인 모델들을 생성하기 위한 시작 포인트로서 사용될 수 있다. 일부 실시예들에서, 웨어러블 광 필드 프로세서 시스템은 복수의 기법들을 활용하여, 어그리게이팅된 데이터의 분석을 위한 모델들을 생성하도록 구성될 수 있다. 다른 기법들은 사전-정의된 임계치들 또는 데이터 값들을 사용하는 것을 포함할 수 있다.
[0514] 기준들은 임계치 상태를 포함할 수 있다. 만약 환경 센서에 의해 획득된 데이터의 분석이 임계치 상태가 초과됨을 표시한다면, 광 필드 프로세서 시스템은 트리거링 이벤트의 존재를 검출할 수 있다. 임계치 상태는 정량적 및/또는 정성적 측정을 수반할 수 있다. 예컨대, 임계치 상태는 트리거링 이벤트가 발생할 가능성과 연관된 스코어 또는 백분율을 포함할 수 있다. 광 필드 프로세서 시스템은 환경 센서의 데이터로부터 계산된 스코어를 임계치 스코어와 비교할 수 있다. 만약 스코어가 임계치 레벨보다 더 높다면, 광 필드 프로세서 시스템은 트리거 이벤트의 존재를 검출할 수 있다. 다른 실시예들에서, 광 필드 프로세서 시스템은 만약 스코어가 임계치보다 더 낮다면 트리거링 이벤트의 존재를 시그널링할 수 있다.
[0515] 임계치 상태는 또한, 문자 등급들, 이를테면 "A", "B", "C", "D" 등을 포함할 수 있다. 각각의 등급은 상황의 심각성을 표현할 수 있다. 예컨대, "A"는 가장 심각할 수 있는 한편, "D"는 가장 덜 심각할 수 있다. 사용자의 환경 내의 이벤트가 (임계치 상태과 비교하여) 충분히 심각한 것으로 광 필드 프로세서 시스템이 결정할 때, 광 필드 프로세서 시스템은 트리거링 이벤트의 존재를 표시할 수 있고, 액션(예컨대, 진단 또는 치료 프로토콜의 시작, 종료, 또는 변경)을 취할 수 있다.
[0516] 임계치 상태는 사용자의 물리적 환경 내의 오브젝트들(또는 사람들)에 기반하여 결정될 수 있다. 예컨대, 임계치 상태는 사용자의 심박동 레이트에 기반하여 결정될 수 있다. 만약 사용자의 심박동 레이트가 임계치 수(예컨대, 분당 박동들의 소정의 수)를 초과한다면, 광 필드 프로세서 시스템은 트리거링 이벤트의 존재를 시그널링할 수 있다. 또 다른 예로서, 임계치 상태는 사용자의 환경 내의 소정의 오브젝트들의 존재에 기반하여 결정될 수 있다.
[0517] 임계치 상태는 또한, 가상 콘텐츠에 기반하여, 또는 가상 콘텐츠와의 사용자의 상호작용에 기반하여 결정될 수 있다. 예컨대, 임계치 상태는 사용자가 가상 콘텐츠의 피스를 보는 지속기간일 수 있다.
결론
[0518] 본원에서 논의된 바와 같이, 개시된 머리-장착 디스플레이들은 유리하게, 사용자에 대한 건강-관련 진단들, 모니터링, 및 치료들을 수행하기 위해 사용될 수 있는 사용자-웨어러블 진단 또는 건강 시스템의 부분을 형성할 수 있다. 일부 실시예들에서, 건강-관련 진단들, 모니터링, 및 치료들은 검안 진단 분석들, 모니터링, 및 치료들을 포함할 수 있다. 그러나, 본원의 개시내용을 고려하면, 진단 또는 건강 시스템이 검안 애플리케이션들로 제한되지 않고, 일반적으로, 건강-관련 진단들, 모니터링, 및 치료들에 적용될 수 있다는 것이 인지될 것이다.
[0519] 본원에서 설명되고 그리고/또는 첨부 도면들에 묘사된 프로세스들, 방법들 및 알고리즘들 각각은 하나 이상의 물리적 컴퓨팅 시스템들, 하드웨어 컴퓨터 프로세서들, 주문형 회로 및/또는 특별 및 특정 컴퓨터 명령들을 실행하도록 구성된 전자 하드웨어에 의해 실행되는 코드 모듈들로 구현될 수 있고, 그리고 이 코드 모듈들에 의해 완전히 또는 부분적으로 자동화될 수 있다는 것이 인지될 것이다. 예컨대, 컴퓨팅 시스템들은 특정 컴퓨터 명령들 또는 특수 목적 컴퓨터들, 특수 목적 회로 등으로 프로그래밍된 범용 컴퓨터들(예컨대, 서버들)을 포함할 수 있다. 코드 모듈은 실행가능 프로그램으로 컴파일링되고 링크되거나, 동적 링크 라이브러리에 설치되거나, 또는 해석형 프로그래밍 언어로 쓰여질 수 있다. 일부 실시예들에서, 특정 동작들 및 방법들은 정해진 기능에 특정적인 회로에 의해 수행될 수 있다.
[0520] 추가로, 본 개시내용의 기능성의 소정의 실시예들은 충분히 수학적으로, 계산적으로 또는 기술적으로 복잡하여, (적절한 전문화된 실행가능한 명령들을 활용하는) 주문형 하드웨어 또는 하나 이상의 물리적 컴퓨팅 디바이스들은 예컨대 수반된 계산들의 양 또는 복잡성으로 인해 또는 실질적으로 실시간으로 결과들을 제공하기 위해 기능성을 수행할 필요가 있을 수 있다. 예컨대, 비디오는 많은 프레임들(각각의 프레임은 수백만개의 픽셀들을 가짐)을 포함할 수 있고, 그리고 상업적으로 합리적인 시간 양에서 원하는 이미지 프로세싱 태스크 또는 애플리케이션을 제공하기 위해, 특별하게 프로그래밍된 컴퓨터 하드웨어가 비디오 데이터를 프로세싱할 필요가 있다.
[0521] 코드 모듈들 또는 임의의 타입의 데이터는 임의의 타입의 비-일시적 컴퓨터-판독가능 매체, 이를테면 하드 드라이브들, 고체 상태 메모리, RAM(random access memory), ROM(read only memory), 광학 디스크, 휘발성 또는 비-휘발성 스토리지, 이들의 조합들 등을 포함하는 물리적 컴퓨터 스토리지 상에 저장될 수 있다. 일부 실시예들에서, 비-일시적 컴퓨터-판독가능 매체는, 광 필드 프로세서(70), 로컬 프로세싱 및 데이터 모듈(70), 원격 프로세싱 모듈(72), 및 원격 데이터 저장소(74) 중 하나 이상의 부분일 수 있다. 방법들 및 모듈들(또는 데이터)은 또한, 생성된 데이터 신호들로서(예컨대, 반송파 또는 다른 아날로그 또는 디지털 전파 신호의 부분으로서) 무선 기반 및 유선/케이블 기반 매체들을 포함하는 다양한 컴퓨터-판독가능 송신 매체들 상에서 송신될 수 있고, 그리고 (예컨대, 단일 또는 멀티플렉싱된 아날로그 신호의 부분으로서, 또는 다수의 이산 디지털 패킷들 또는 프레임들로서) 다양한 형태들을 취할 수 있다. 개시된 프로세스들 또는 프로세스 단계들의 결과들은 임의의 타입의 비-일시적, 유형의 컴퓨터 스토리지에 영구적으로 또는 다른 방식으로 저장될 수 있거나 또는 컴퓨터-판독가능 송신 매체를 통해 통신될 수 있다.
[0522] 본원에서 설명되고 그리고/또는 첨부 도면들에 도시된 흐름도들에서 임의의 프로세스들, 블록들, 상태들, 단계들, 또는 기능성들은 (예컨대, 논리적 또는 산술적) 특정 기능들 또는 프로세스의 단계들을 구현하기 위한 하나 이상의 실행가능한 명령들을 포함하는 코드 모듈들, 세그먼트들 또는 코드의 부분들을 잠재적으로 표현하는 것으로 이해되어야 한다. 다양한 프로세스들, 블록들, 상태들, 단계들 또는 기능성들은 본원에서 제공된 예시적인 예들로부터 조합되거나, 재배열되거나, 부가되거나, 삭제되거나, 수정되거나 다르게 변경될 수 있다. 일부 실시예들에서, 부가적인 또는 상이한 컴퓨팅 시스템들 또는 코드 모듈들은 본원에서 설명된 기능성들 중 일부 또는 모두를 수행할 수 있다. 본원에서 설명된 방법들 및 프로세스들은 또한, 임의의 특정 시퀀스로 제한되지 않고, 이에 관련된 블록들, 단계들 또는 상태들은 적절한 다른 시퀀스들로, 예컨대 직렬로, 병렬로, 또는 일부 다른 방식으로 수행될 수 있다. 태스크들 또는 이벤트들은 개시된 예시적인 실시예들에 부가되거나 이들로부터 제거될 수 있다. 게다가, 본원에서 설명된 실시예들에서 다양한 시스템 컴포넌트들의 분리는 예시 목적들을 위한 것이고 모든 실시예들에서 그런 분리를 요구하는 것으로 이해되지 않아야 한다. 설명된 프로그램 컴포넌트들, 방법들 및 시스템들이 일반적으로 단일 컴퓨터 제품으로 함께 통합되거나 다수의 컴퓨터 제품들로 패키징될 수 있다는 것이 이해되어야 한다.
[0523] 전술한 명세서에서, 본 발명은 본 발명의 특정 실시예들을 참조하여 설명되었다. 그러나, 본 발명의 더 광범위한 사상 및 범위로부터 벗어나지 않으면서, 본 발명에 다양한 수정들 및 변경들이 이루어질 수 있다는 것이 자명할 것이다. 예컨대, 본원에서 개시된 실시예들의 프로젝팅된 광 및 이미지들은, 액정 디스플레이들, 마이크로미러-기반 디스플레이들(예컨대, DLP 디스플레이들), 스캐닝 섬유 디스플레이(FSD)들, 및 OLED 디스플레이들을 포함하는 다양한 타입들의 디스플레이들에 의해 제공될 수 있다.
[0524] 그에 따라서, 명세서 및 도면들은 제한적인 의미가 아니라 예시적인 것으로 간주되어야 한다.
[0525] 실제로, 본 개시내용의 시스템들 및 방법들 각각은 몇몇 혁신적인 양상들을 가지며, 이 양상들 중 어떤 단일의 양상이 본원에서 개시된 바람직한 속성들을 위해 전적으로 책임지거나 요구되지 않는다는 것이 인지될 것이다. 위에서 설명된 다양한 특징들 및 프로세스들은 서로 독립적으로 사용될 수 있거나, 또는 다양한 방식들로 조합될 수 있다. 모든 가능한 조합들 및 서브조합들은 본 개시내용의 범위 내에 속한다.
[0526] 별개의 실시예들의 맥락에서 이 명세서에 설명된 특정 특징들은 또한, 단일 실시예로 결합하여 구현될 수 있다. 대조적으로, 단일 실시예의 맥락에서 설명된 다양한 특징들은 또한, 별도로 다수의 실시예들로 또는 임의의 적절한 서브-조합으로 구현될 수 있다. 게다가, 비록 특징들이 특정 조합들로 동작하는 것으로서 위에서 설명될 수 있고, 심지어 그와 같이 처음에 청구될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우들에서 조합으로부터 제거될 수 있고, 그리고 청구된 조합은 서브-조합 또는 서브-조합의 변형에 관한 것일 수 있다. 단일 특징 또는 특징들의 그룹이 각각의 모든 실시예에 필요하거나 필수적인 것은 아니다.
[0527] 헤딩들이 독자를 위한 구조적인 원조로서 본 출원 전반에 걸쳐 사용된다. 이들 헤딩들은 헤딩들에 표시된 특정 주제에 일반적으로 관련될 수 있는 방법들, 장치들, 및 구조들의 예들을 함께 그룹핑할 수 있다. 그러나, 헤딩 하에 논의되는 다양한 특징들이 특정 주제에 관련될 수 있지만, 정해진 헤딩 하에 논의되는 특징들이 헤딩에 열거된 주제 또는 주제들에만 적용가능한 것으로 제한되는 것을 표시하는 것으로 헤딩들이 이해되지 않아야 한다는 것이 인지될 것이다.
[0528] 실제로, 다양한 도면들(예컨대, 도 5)에 도시된 바와 같이, 다양한 건강 분석들 및/또는 치료들을 위한 구조들은 동일한 건강 시스템에서 공존할 수 있다. 게다가, 본원에서 개시된 바와 같이, 다수의 건강 분석들 및/또는 치료들을 가능하게 하기 위해 동일한 특징이 적용될 수 있다. 예컨대, 약물을 전달하기 위해 사용되는 구조들은 또한, 본원에서 개시된 바와 같이, 다양한 진단들을 위해 활용될 수 있다. 결과적으로, 일부 실시예들에 따른 건강 시스템들은, 상이한 헤딩들 하에 개시된 특징들의 조합들을 포함하여, 본원에서 개시된 구조적 특징들의 다양한 조합들을 포함할 수 있다. 게다가, 건강 시스템은, 상이한 헤딩들 하에 개시된 것들을 포함하여, 본원에서 개시된 건강 분석들 및 치료들의 다양한 조합들을 수행하도록 구성될 수 있다.
[0529] 특정하게 다르게 언급되지 않거나, 사용된 맥락 내에서 다르게 이해되지 않으면, 본원에서 사용된 상태어, 이를테면 특히, "할 수 있다("can", "could", "might", "may")" 및 "예컨대" 등은, 일반적으로 소정의 실시예들이 소정의 특징들, 엘리먼트들 및/또는 단계들을 포함하지만, 다른 실시예들은 이들을 포함하지 않는다는 것을 전달하도록 의도된다는 것이 인지될 것이다. 따라서, 그러한 상태어는 일반적으로, 특징들, 엘리먼트들 및/또는 단계들이 어쨌든 하나 이상의 실시예들을 위해 요구된다는 것, 또는 하나 이상의 실시예들이, 저자 입력 또는 촉구를 사용하여 또는 이들을 사용하지 않고, 이들 특징들, 엘리먼트들 및/또는 단계들이 임의의 특정 실시예에 포함되는지 또는 이 임의의 특정 실시예에서 수행되는지를 판정하기 위한 로직을 반드시 포함하는 것을 의미하도록 의도되지 않는다. "포함하는(comprising)", "구비하는(including)", "갖는(having)" 등의 용어들은 동의어이고, 오픈-엔디드(open-ended) 방식으로 포괄적으로 사용되고, 그리고 부가적인 엘리먼트들, 특징들, 작용들, 동작들 등을 배제하지 않는다. 또한, 용어 "또는"은 포괄적인 의미(및 배타적 의미가 아님)로 사용되어, 예컨대 엘리먼트들의 리스트를 연결하기 위해 사용될 때, 용어 "또는"은 리스트 내 엘리먼트들 중 하나, 몇몇 또는 모두를 의미한다. 게다가, 본 출원 및 첨부된 청구항들에서 사용된 단수 표현들은 다르게 특정되지 않으면 "하나 이상" 또는 "적어도 하나"를 의미하는 것으로 이해될 것이다. 유사하게, 동작들이 특정 순서로 도면들에 도시될 수 있지만, 원하는 결과들을 달성하기 위해, 그러한 동작들이 도시된 특정 순서 또는 순차적 순서로 수행될 필요가 없거나, 또는 모든 예시된 동작들이 수행될 필요가 없다는 것이 인식될 것이다. 추가로, 도면들은 흐름도 형태로 하나 이상의 예시적인 프로세스들을 개략적으로 도시할 수 있다. 그러나, 도시되지 않은 다른 동작들이 개략적으로 예시된 예시적인 방법들 및 프로세스들에 통합될 수 있다. 예컨대, 하나 이상의 부가적인 동작들은 예시된 동작들 중 임의의 동작 이전, 이후, 동시에, 또는 중간에 수행될 수 있다. 부가적으로, 동작들은 다른 실시예들에서 재배열되거나 재정렬될 수 있다. 소정의 환경들에서, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 게다가, 위에서 설명된 실시예들에서 다양한 시스템 컴포넌트들의 분리는 모든 실시예들에서 그러한 분리를 요구하는 것으로 이해되지 않아야 하고, 그리고 설명된 프로그램 컴포넌트들 및 시스템들이 일반적으로 단일 소프트웨어 제품으로 함께 통합될 수 있거나 다수의 소프트웨어 제품들로 패키징될 수 있다는 것이 이해되어야 한다. 부가적으로, 다른 실시예들은 다음 청구항들의 범위 내에 있다. 일부 경우들에서, 청구항들에 열거된 액션들은 상이한 순서로 수행될 수 있고 여전히 원하는 결과들을 달성할 수 있다.
[0530] 그에 따라서, 청구항들은 본원에서 나타낸 실시예들로 제한되는 것이 아니라, 본원에서 개시된 본 개시내용, 원리들, 및 신규한 특징들과 일치하는 가장 넓은 범위가 부여되도록 의도된다.

Claims (24)

  1. 웨어러블 검안 디바이스로서,
    사용자의 주변들로부터 광을 수신하고 그리고 수치 광 필드 이미지 데이터를 생성하도록 구성되는 외향 머리-장착 광 필드 카메라;
    상기 수치 광 필드 이미지 데이터에 액세스하고, 상기 사용자의 눈에 대한 시력 처방을 생성하고, 그리고 수정된 수치 광 필드 이미지 데이터를 생성하기 위해 상기 시력 처방에 기반하여 상기 수치 광 필드 이미지 데이터에 일정 크기의 포지티브 또는 네거티브 광학력(optical power)을 계산적으로 도입하도록 구성되는 광 필드 프로세서; 및
    상기 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하도록 구성되는 머리-장착 광 필드 디스플레이
    를 포함하는, 웨어러블 검안 디바이스.
  2. 제1 항에 있어서,
    상기 광학력은 구형(spherical) 또는 원통형(cylindrical) 광학력을 포함하는, 웨어러블 검안 디바이스.
  3. 제1 항 또는 제2 항에 있어서,
    상기 수정된 수치 광 필드 이미지 데이터는 상기 시력 처방을 위해 적어도 부분적으로 보정되는, 웨어러블 검안 디바이스.
  4. 제1 항 또는 제2 항에 있어서,
    상기 광 필드 프로세서는, 상기 수치 광 필드 이미지 데이터에 의해 표현되는 하나 이상의 파면들을 식별하고 그리고 상기 시력 처방에 기반하여 상기 하나 이상의 파면들의 곡률을 계산적으로 수정함으로써 상기 수정된 수치 광 필드 이미지 데이터를 생성하도록 구성되는, 웨어러블 검안 디바이스.
  5. 제1 항 또는 제2 항에 있어서,
    상기 광 필드 프로세서는, 상기 수치 광 필드 이미지 데이터에 가상 현실 또는 증강 현실 이미지 콘텐츠를 부가하도록 추가로 구성되는, 웨어러블 검안 디바이스.
  6. 제1 항 또는 제2 항에 있어서,
    상기 시력 처방은 근시에 대한 처방을 포함하는, 웨어러블 검안 디바이스.
  7. 제1 항 또는 제2 항에 있어서,
    상기 시력 처방은 원시에 대한 처방을 포함하는, 웨어러블 검안 디바이스.
  8. 제1 항 또는 제2 항에 있어서,
    상기 시력 처방은 난시에 대한 처방을 포함하는, 웨어러블 검안 디바이스.
  9. 제1 항 또는 제2 항에 있어서,
    상기 시력 처방은 상기 사용자의 눈의 고차 수차들에 관한 정보를 포함하는, 웨어러블 검안 디바이스.
  10. 제1 항 또는 제2 항에 있어서,
    상기 광 필드 카메라는 마이크로-렌즈들의 2-차원 어레이 및 대응하는 광검출기들의 2-차원 어레이를 갖는 통합 이미징 카메라를 포함하는, 웨어러블 검안 디바이스.
  11. 제1 항 또는 제2 항에 있어서,
    상기 광 필드 디스플레이는 마이크로-렌즈들의 2-차원 어레이 및 대응하는 광 소스들의 2-차원 어레이를 갖는 통합 이미징 디스플레이를 포함하는, 웨어러블 검안 디바이스.
  12. 제1 항 또는 제2 항에 있어서,
    상기 광 필드 디스플레이는 상기 시력 처방을 평가하기 위해서 적외선 광을 상기 사용자의 눈에 프로젝팅하도록 구성되는 하나 이상의 적외선 광 소스들을 포함하는, 웨어러블 검안 디바이스.
  13. 제1 항 또는 제2 항에 있어서,
    상기 광 필드 프로세서는 상기 수정된 수치 광 필드 이미지 데이터를 실시간으로 생성하도록 구성되는, 웨어러블 검안 디바이스.
  14. 삭제
  15. 제1 항에 있어서,
    상기 광 필드 프로세서는,
    제1 테스트 크기의 포지티브 또는 네거티브 광학력을 상기 수치 광 필드 이미지 데이터에 계산적으로 도입하고;
    상기 제1 테스트 크기의 포지티브 또는 네거티브 광학력에 관해 상기 사용자로부터 피드백을 수신하며; 그리고
    제2 테스트 크기의 포지티브 또는 네거티브 광학력을 상기 광 필드 이미지 데이터에 계산적으로 도입함으로써
    상기 시력 처방을 생성하도록 구성되는, 웨어러블 검안 디바이스.
  16. 제1 항 또는 제2 항에 있어서,
    상기 광 필드 프로세서는, 상기 물리적 광 필드의 부분으로서 생성되면, 상기 사용자의 각막 또는 수정체의 결함과 상호작용할 하나 이상의 광선들을 제거함으로써 상기 수정된 수치 광 필드 이미지 데이터를 생성하도록 추가로 구성되는, 웨어러블 검안 디바이스.
  17. 웨어러블 검안 디바이스를 사용하는 방법으로서,
    일정 크기의 포지티브 또는 네거티브 광학력을 사용자의 주변들의 수치 광 필드 이미지 데이터에 계산적으로 도입하여, 수정된 수치 광 필드 이미지 데이터를 생성하는 단계 ― 상기 일정 크기의 광학력은, 상기 웨어러블 검안 디바이스에 의해 생성되는 상기 사용자에 대한 시력 처방에 기반함 ―; 및
    광 필드 디스플레이를 사용하여, 상기 수정된 수치 광 필드 이미지 데이터에 대응하는 물리적 광 필드를 생성하는 단계
    를 포함하는, 웨어러블 검안 디바이스를 사용하는 방법.
  18. 제17 항에 있어서,
    상기 수정된 수치 광 필드 이미지 데이터를 생성하는 단계는, 상기 수치 광 필드 이미지 데이터에 의해 표현되는 하나 이상의 파면들을 식별하는 단계 및 상기 시력 처방에 기반하여 상기 하나 이상의 파면들의 곡률을 계산적으로 수정하는 단계를 포함하는, 웨어러블 검안 디바이스를 사용하는 방법.
  19. 제17 항 또는 제18 항에 있어서,
    상기 수치 광 필드 이미지 데이터에 가상 현실 또는 증강 현실 이미지 콘텐츠를 부가하는 단계를 더 포함하는, 웨어러블 검안 디바이스를 사용하는 방법.
  20. 제17 항 또는 제18 항에 있어서,
    상기 시력 처방을 평가하기 위해서 적외선 광을 상기 사용자의 눈으로 프로젝팅하는 단계를 더 포함하는, 웨어러블 검안 디바이스를 사용하는 방법.
  21. 제17 항 또는 제18 항에 있어서,
    상기 수정된 수치 광 필드 이미지 데이터를 실시간으로 생성하는 단계를 더 포함하는, 웨어러블 검안 디바이스를 사용하는 방법.
  22. 삭제
  23. 제17 항에 있어서,
    상기 시력 처방을 생성하는 단계는,
    제1 테스트 크기의 포지티브 또는 네거티브 광학력을 상기 수치 광 필드 이미지 데이터에 계산적으로 도입하는 단계;
    상기 제1 테스트 크기의 포지티브 또는 네거티브 광학력에 관해 상기 사용자로부터 피드백을 수신하는 단계; 및
    제2 테스트 크기의 포지티브 또는 네거티브 광학력을 상기 광 필드 이미지 데이터에 계산적으로 도입하는 단계를 포함하는, 웨어러블 검안 디바이스를 사용하는 방법.
  24. 제17 항 또는 제18 항에 있어서,
    상기 물리적 광 필드의 부분으로서 생성되면, 상기 사용자의 각막 또는 수정체의 결함과 상호작용할 하나 이상의 광선들을 계산적으로 제거함으로써 상기 수정된 수치 광 필드 이미지 데이터를 생성하는 단계를 더 포함하는, 웨어러블 검안 디바이스를 사용하는 방법.
KR1020197005220A 2016-07-25 2017-07-24 광 필드 프로세서 시스템 KR102412525B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020227020786A KR102520143B1 (ko) 2016-07-25 2017-07-24 광 필드 프로세서 시스템

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662366524P 2016-07-25 2016-07-25
US62/366,524 2016-07-25
US201662440286P 2016-12-29 2016-12-29
US62/440,286 2016-12-29
PCT/US2017/043552 WO2018022521A1 (en) 2016-07-25 2017-07-24 Light field processor system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020227020786A Division KR102520143B1 (ko) 2016-07-25 2017-07-24 광 필드 프로세서 시스템

Publications (2)

Publication Number Publication Date
KR20190029727A KR20190029727A (ko) 2019-03-20
KR102412525B1 true KR102412525B1 (ko) 2022-06-23

Family

ID=61016766

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020197005220A KR102412525B1 (ko) 2016-07-25 2017-07-24 광 필드 프로세서 시스템
KR1020227020786A KR102520143B1 (ko) 2016-07-25 2017-07-24 광 필드 프로세서 시스템
KR1020237011540A KR102669685B1 (ko) 2016-07-25 2017-07-24 광 필드 프로세서 시스템

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020227020786A KR102520143B1 (ko) 2016-07-25 2017-07-24 광 필드 프로세서 시스템
KR1020237011540A KR102669685B1 (ko) 2016-07-25 2017-07-24 광 필드 프로세서 시스템

Country Status (6)

Country Link
US (4) US10451895B2 (ko)
EP (2) EP4235366A3 (ko)
JP (4) JP6992046B2 (ko)
KR (3) KR102412525B1 (ko)
CN (2) CN117770757A (ko)
WO (1) WO2018022521A1 (ko)

Families Citing this family (180)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10852069B2 (en) 2010-05-04 2020-12-01 Fractal Heatsink Technologies, LLC System and method for maintaining efficiency of a fractal heat sink
US9485506B2 (en) * 2012-09-11 2016-11-01 Texas Instruments Incorporated Method and system for constraining slice header processing overhead in video coding
US11126040B2 (en) 2012-09-30 2021-09-21 Optica Amuka (A.A.) Ltd. Electrically-tunable lenses and lens systems
US10466391B2 (en) 2014-06-05 2019-11-05 Optica Amuka (A.A.) Ltd. Control of dynamic lenses
NZ773816A (en) 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
CA2901477C (en) 2015-08-25 2023-07-18 Evolution Optiks Limited Vision correction system, method and graphical user interface for implementation on electronic devices having a graphical display
KR20230084603A (ko) 2016-04-08 2023-06-13 매직 립, 인코포레이티드 가변 포커스 렌즈 엘리먼트들을 가진 증강 현실 시스템들 및 방법들
EP3446176B1 (en) 2016-04-17 2021-11-24 Optica Amuka (A.A.) Ltd. Spectacle lens comprising a liquid crystal lens with enhanced electrical drive
CA3031771A1 (en) 2016-07-25 2018-02-01 Magic Leap, Inc. Imaging modification, display and visualization using augmented and virtual reality eyewear
KR102412525B1 (ko) 2016-07-25 2022-06-23 매직 립, 인코포레이티드 광 필드 프로세서 시스템
US10338409B2 (en) 2016-10-09 2019-07-02 eyeBrain Medical, Inc. Lens with off-axis curvature center
KR101803407B1 (ko) * 2016-10-19 2017-11-30 주식회사 픽셀 디스플레이 디스플레이를 제어하기 위한 사용자 장치 및 컴퓨터 판독 가능 저장 매체에 저장된 프로그램
WO2018085576A1 (en) * 2016-11-02 2018-05-11 Massachusetts Eye And Ear Infirmary System and method for the treatment of amblyopia
US10885676B2 (en) * 2016-12-27 2021-01-05 Samsung Electronics Co., Ltd. Method and apparatus for modifying display settings in virtual/augmented reality
CN106646882A (zh) * 2016-12-30 2017-05-10 北京七鑫易维信息技术有限公司 一种头戴式显示装置及其调节参数确定方法
KR20230157533A (ko) 2017-02-23 2023-11-16 매직 립, 인코포레이티드 가변 파워 반사기를 갖는 디스플레이 시스템
CN106932904A (zh) * 2017-02-27 2017-07-07 阿里巴巴集团控股有限公司 虚拟现实头戴设备
EP3381351A1 (en) * 2017-03-29 2018-10-03 Vivior AG System for assessing a health condition of a user
JP2018169428A (ja) * 2017-03-29 2018-11-01 セイコーエプソン株式会社 画像表示装置
US10386923B2 (en) 2017-05-08 2019-08-20 International Business Machines Corporation Authenticating users and improving virtual reality experiences via ocular scans and pupillometry
US11249309B2 (en) 2017-06-12 2022-02-15 Magic Leap, Inc. Augmented reality display having multi-element adaptive lens for changing depth planes
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
US11953764B2 (en) 2017-07-10 2024-04-09 Optica Amuka (A.A.) Ltd. Tunable lenses with enhanced performance features
US11747619B2 (en) 2017-07-10 2023-09-05 Optica Amuka (A.A.) Ltd. Virtual reality and augmented reality systems with dynamic vision correction
US10546430B1 (en) * 2017-08-29 2020-01-28 Facebook Technologies, Llc Image plane adjustment in a near-eye display
US11589745B2 (en) * 2017-09-05 2023-02-28 Neurolens, Inc. Method and system for measuring binocular alignment
US12114930B2 (en) 2017-09-05 2024-10-15 Neurolens, Inc. System for measuring binocular alignment with adjustable displays and eye trackers
US10420467B2 (en) * 2017-09-05 2019-09-24 eyeBrain Medical, Inc. Method and system for measuring binocular alignment
US10930709B2 (en) 2017-10-03 2021-02-23 Lockheed Martin Corporation Stacked transparent pixel structures for image sensors
US11556012B2 (en) * 2017-10-16 2023-01-17 Optica Amuka (A.A.) Ltd. Spectacles with electrically-tunable lenses controllable by an external system
US10510812B2 (en) 2017-11-09 2019-12-17 Lockheed Martin Corporation Display-integrated infrared emitter and sensor structures
US10921614B2 (en) 2017-12-31 2021-02-16 Neurolens, Inc. Low-convergence negative power spectacles
US11360329B2 (en) 2017-12-31 2022-06-14 Neurolens, Inc. Negative power eye-strain reducing lens
US10908434B2 (en) 2018-01-01 2021-02-02 Neurolens, Inc. Negative power lens with off-axis curvature center
US10979699B2 (en) 2018-02-07 2021-04-13 Lockheed Martin Corporation Plenoptic cellular imaging system
US10690910B2 (en) 2018-02-07 2020-06-23 Lockheed Martin Corporation Plenoptic cellular vision correction
US10652529B2 (en) 2018-02-07 2020-05-12 Lockheed Martin Corporation In-layer Signal processing
US10594951B2 (en) 2018-02-07 2020-03-17 Lockheed Martin Corporation Distributed multi-aperture camera array
US10838250B2 (en) 2018-02-07 2020-11-17 Lockheed Martin Corporation Display assemblies with electronically emulated transparency
US10951883B2 (en) 2018-02-07 2021-03-16 Lockheed Martin Corporation Distributed multi-screen array for high density display
US11616941B2 (en) 2018-02-07 2023-03-28 Lockheed Martin Corporation Direct camera-to-display system
EP3761848B1 (en) * 2018-03-09 2023-09-13 Evolution Optiks Limited Vision correction system and method, light field display and light field shaping layer and alignment therefor
CA3021636A1 (en) 2018-10-22 2020-04-22 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US11693239B2 (en) * 2018-03-09 2023-07-04 Evolution Optiks Limited Vision correction system and method, light field display and light field shaping layer and alignment therefor
US11353699B2 (en) * 2018-03-09 2022-06-07 Evolution Optiks Limited Vision correction system and method, light field display and light field shaping layer and alignment therefor
MX2018003217A (es) * 2018-03-14 2019-09-16 Centro De Ensenanza Tecnica Ind Aparato automatizado para realizar pruebas de agudeza visual.
WO2019190174A1 (en) 2018-03-26 2019-10-03 Samsung Electronics Co., Ltd. Electronic device for monitoring health of eyes of user and method for operating the same
US11234588B2 (en) 2018-04-09 2022-02-01 Shui T Lai Concise representation for review of a subjective refraction test
US11442534B1 (en) 2018-04-10 2022-09-13 Red Pacs, Llc Smart glasses system
US11006100B1 (en) * 2018-04-10 2021-05-11 Robert Edwin Douglas Smart glasses system
CN108519824B (zh) * 2018-04-13 2021-02-05 京东方科技集团股份有限公司 一种虚拟现实显示装置、设备及视线角度计算方法
EP3567419A1 (en) * 2018-05-11 2019-11-13 Essilor International (Compagnie Generale D'optique) A system for generating a virtual image for a wearer
WO2019226691A1 (en) * 2018-05-22 2019-11-28 Magic Leap, Inc. Transmodal input fusion for a wearable system
EP3586720A1 (de) * 2018-06-29 2020-01-01 Carl Zeiss Vision International GmbH Verfahren zum optimieren eines optischen hilfsmittels mittels automatischer bestimmung subjektiver sehleistung
JP7302342B2 (ja) * 2018-07-02 2023-07-04 株式会社ニデック 眼底撮影装置
US11624937B2 (en) 2018-07-07 2023-04-11 Acucela Inc. Device to prevent retinal hypoxia
EP3598209A1 (en) * 2018-07-18 2020-01-22 Essilor International Method for determining an opththalmic equipment and system associated
US11402662B2 (en) 2018-07-30 2022-08-02 Acucela Inc. Optical designs of electronic contact lens to decrease myopia progression
US10706281B2 (en) * 2018-08-10 2020-07-07 Microsoft Technology Licensing, Llc Controlling focal parameters of a head mounted display based on estimated user age
US10997948B2 (en) 2018-09-21 2021-05-04 Apple Inc. Electronic device with adaptive lighting system
US11327563B2 (en) 2018-10-22 2022-05-10 Evolution Optiks Limited Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
WO2021038468A1 (en) * 2019-08-26 2021-03-04 Evolution Optiks Limited Light field dislay, adjusted pixel rendering method therefor, and adjusted vision perception system and method using same addressing astigmatism or similar conditions
US10860099B2 (en) 2018-10-22 2020-12-08 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and adjusted vision perception system and method using same addressing astigmatism or similar conditions
US10936064B2 (en) 2018-10-22 2021-03-02 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and adjusted vision perception system and method using same addressing astigmatism or similar conditions
WO2021038421A1 (en) * 2019-08-26 2021-03-04 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US10761604B2 (en) 2018-10-22 2020-09-01 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US11500460B2 (en) 2018-10-22 2022-11-15 Evolution Optiks Limited Light field device, optical aberration compensation or simulation rendering
US10636116B1 (en) * 2018-10-22 2020-04-28 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US11966507B2 (en) 2018-10-22 2024-04-23 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
KR102701134B1 (ko) * 2018-11-20 2024-09-02 에씰로 앙터나시오날 포럽터 헤드를 수평 위치로 배치하기 위한 장치 및 방법
JP2020089433A (ja) * 2018-12-03 2020-06-11 株式会社ニデック 自覚式検眼装置
US10866413B2 (en) 2018-12-03 2020-12-15 Lockheed Martin Corporation Eccentric incident luminance pupil tracking
JP7298144B2 (ja) * 2018-12-03 2023-06-27 株式会社ニデック 自覚式検眼装置及び自覚式検眼プログラム
EP3893715A1 (en) * 2018-12-12 2021-10-20 Ecole Polytechnique Federale De Lausanne (Epfl) Ophthalmic system and method for clinical device using transcleral illumination with multiple points source
JP7283075B2 (ja) * 2018-12-27 2023-05-30 株式会社ニデック 表示装置
IL284572B1 (en) * 2019-01-03 2024-08-01 Immersix Ltd Eye tracking system and method
JP7295960B2 (ja) * 2019-01-13 2023-06-21 ビジョニクス-ルノー テクノロジー (イスラエル) 仮想現実視覚検査システム
US11789531B2 (en) 2019-01-28 2023-10-17 Evolution Optiks Limited Light field vision-based testing device, system and method
US11500461B2 (en) 2019-11-01 2022-11-15 Evolution Optiks Limited Light field vision-based testing device, system and method
KR20210125549A (ko) 2019-02-13 2021-10-18 코닝 인코포레이티드 광 투과용 도파관
WO2020172203A1 (en) * 2019-02-18 2020-08-27 Lai Shui T Self service refraction device and method
NL2022598B1 (en) * 2019-02-19 2020-08-31 Easee Health B V A method of performing an eye examination test for examining eyes of a user as well as a corresponding computing device.
TWI832976B (zh) * 2019-02-27 2024-02-21 美商愛奎有限公司 測量視力功能的裝置及方法
CA3132556A1 (en) * 2019-03-05 2020-09-10 Gaston Daniel Baudat System and method of wavefront sensing with engineered images
US20200275071A1 (en) * 2019-03-20 2020-08-27 Anton Zavoyskikh Electronic visual headset
CA3134521A1 (en) 2019-03-22 2020-10-01 Cognoa, Inc. Personalized digital therapy methods and devices
CN109870820B (zh) * 2019-03-26 2023-10-17 成都工业学院 针孔反射镜阵列集成成像增强现实装置及方法
US10698201B1 (en) 2019-04-02 2020-06-30 Lockheed Martin Corporation Plenoptic cellular axis redirection
WO2020210937A1 (en) * 2019-04-15 2020-10-22 Shanghai New York University Systems and methods for interpolative three-dimensional imaging within the viewing zone of a display
WO2020219711A1 (en) * 2019-04-23 2020-10-29 Evolution Optiks Limited Light field display and vibrating light field shaping layer and vision testing and/or correction device
US11635617B2 (en) 2019-04-23 2023-04-25 Evolution Optiks Limited Digital display device comprising a complementary light field display or display portion, and vision correction system and method using same
EP3967211A4 (en) * 2019-05-09 2022-12-28 Nidek Co., Ltd. OPTOMETRIC DEVICE
US20220240772A1 (en) * 2019-05-09 2022-08-04 Evolution Optiks Limited Corrective light field display profile management, communication and integration system and method
US11650421B1 (en) * 2019-05-23 2023-05-16 Meta Platforms Technologies, Llc Wearable display solutions for presbyopic ametropia
JP2022532931A (ja) 2019-05-24 2022-07-20 マジック リープ, インコーポレイテッド 可変焦点アセンブリ
EP3744227A1 (en) * 2019-05-31 2020-12-02 Essilor International Binocular refraction instrument, set of test images, binocular refraction method and computer program associated thereof
DE102019115929A1 (de) * 2019-06-12 2020-12-17 Oculus Optikgeräte GmbH Verfahren zum Überprüfen von Augen und Sehprüfsystem
JP2022542965A (ja) 2019-07-31 2022-10-07 アキュセラ インコーポレイテッド 画像を網膜上に投影するためのデバイス
US11099642B2 (en) * 2019-08-01 2021-08-24 International Business Machines Corporation Display adaptation for visual impairment
EP3782535A1 (de) * 2019-08-23 2021-02-24 Carl Zeiss Vision International GmbH Gemeinsame bestimmung von akkommodation und vergenz
US11902498B2 (en) 2019-08-26 2024-02-13 Evolution Optiks Limited Binocular light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
EP4022897A1 (en) * 2019-08-26 2022-07-06 Evolution Optiks Limited Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
US11029755B2 (en) 2019-08-30 2021-06-08 Shopify Inc. Using prediction information with light fields
US11430175B2 (en) 2019-08-30 2022-08-30 Shopify Inc. Virtual object areas using light fields
JP2022547621A (ja) 2019-09-16 2022-11-14 アキュセラ インコーポレイテッド 近視の進行を阻害するように設計される、電子ソフトコンタクトレンズのための組立プロセス
USD938485S1 (en) 2019-09-17 2021-12-14 Lombart Brothers, Inc. Display screen or portion thereof with graphical user interface
USD938986S1 (en) 2019-09-17 2021-12-21 Lombart Brothers, Inc. Display screen or portion thereof with graphical user interface
US11779202B2 (en) 2019-09-17 2023-10-10 Lombart Brothers, Inc. Systems and methods for automated subjective refractions
WO2021059080A1 (ja) * 2019-09-27 2021-04-01 株式会社半導体エネルギー研究所 統計モデルの作成方法、状態推定方法、および状態推定システム
US20210093190A1 (en) * 2019-09-30 2021-04-01 Alcon Inc. Ocular aberrometer systems and methods
JP2021053219A (ja) * 2019-09-30 2021-04-08 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd 両眼視機能測定方法、両眼視機能測定プログラム、眼鏡レンズの設計方法、眼鏡レンズの製造方法および両眼視機能測定システム
CA3156215A1 (en) * 2019-11-01 2021-05-06 Raul Mihali Light field device, multi-depth pixel rendering method therefor, and multi-depth vision perception system and method using same
US11487361B1 (en) 2019-11-01 2022-11-01 Evolution Optiks Limited Light field device and vision testing system using same
US11823598B2 (en) 2019-11-01 2023-11-21 Evolution Optiks Limited Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same
US12112665B2 (en) 2019-11-01 2024-10-08 Evolution Optiks Limited Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same
EP3826432A1 (en) 2019-11-22 2021-05-26 Oberalp Spa Headlamp with an ai unit
EP4066264A4 (en) 2019-11-29 2023-12-13 Electric Puppets Incorporated SYSTEM AND METHODS FOR VIRTUAL REALITY BASED HUMAN BIOLOGICAL METRICS COLLECTION AND STIMULUS PRESENTATION
US20230053457A1 (en) 2019-12-16 2023-02-23 Essilor International System and method for determining refraction features of both first and second eyes of a subject
TWI745000B (zh) * 2019-12-17 2021-11-01 中強光電股份有限公司 光場近眼顯示裝置及光場近眼顯示方法
WO2021124285A1 (en) * 2019-12-19 2021-06-24 Alcon Inc. Vision quality assessment based on machine learning model and wavefront analysis
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
US11768378B1 (en) 2020-01-15 2023-09-26 Meta Platforms Technologies, Llc Prescription optical element based on optical-mechanical profile
US11642018B1 (en) * 2020-01-15 2023-05-09 Meta Platforms Technologies, Llc Volumetric depth imaging for lens fit
US11614638B1 (en) 2020-01-15 2023-03-28 Meta Platforms Technologies, Llc Prescription optical element for selected head mounted device
WO2021156503A1 (en) 2020-02-07 2021-08-12 Essilor International Method for displaying a sharp image on a retina of an eye of the person
EP3861923A1 (en) * 2020-02-07 2021-08-11 Essilor International Method for determining at least one parameter of an eye of a person
CN115336113A (zh) 2020-02-21 2022-11-11 奥克塞拉有限公司 用于电子隐形眼镜的充电盒
CN111427166B (zh) * 2020-03-31 2022-07-05 京东方科技集团股份有限公司 一种光场显示方法及系统、存储介质和显示面板
US11320674B2 (en) 2020-05-13 2022-05-03 Acucela Inc. Electro-switchable spectacles for myopia treatment
WO2021237065A1 (en) 2020-05-21 2021-11-25 Looking Glass Factory, Inc. System and method for holographic image display
JP2023529875A (ja) 2020-06-08 2023-07-12 アキュセラ インコーポレイテッド 非点収差を治療するための非対称投影を伴うレンズ
KR20230020951A (ko) 2020-06-08 2023-02-13 어큐셀라 인코포레이티드 굴절 이상을 치료하기 위한 주변 망막에 대한 디포커스된 이미지의 투영
EP4162316A4 (en) 2020-06-08 2024-10-23 Acucela Inc PEN ON DEVICES WITH PERIPHERAL DEFOCUSING FOR THE TREATMENT OF PROGRESSIVE REFRACTIVE ERRORS
US11281022B2 (en) * 2020-06-10 2022-03-22 Acucela Inc. Apparatus and methods for the treatment of refractive error using active stimulation
CN111781739B (zh) * 2020-06-23 2022-02-01 江南大学 大景深可变视角三维显示模组及其增强现实眼镜
US11415935B2 (en) 2020-06-23 2022-08-16 Looking Glass Factory, Inc. System and method for holographic communication
CN111882608A (zh) * 2020-07-14 2020-11-03 中国人民解放军军事科学院国防科技创新研究院 一种增强现实眼镜跟踪相机和人眼之间的位姿估计方法
CN115885237A (zh) 2020-07-17 2023-03-31 惠普发展公司,有限责任合伙企业 头戴式显示器图像和中心凹区亮度计算
WO2022020861A1 (en) * 2020-07-24 2022-01-27 Evolution Optiks Limited Light field display for rendering perception-adjusted content, and dynamic light field shaping system and layer therefor
CA3186079A1 (en) * 2020-07-24 2022-01-27 Raul Mihali Multiview display for rendering multiview content, and dynamic light field shaping system and layer therefor
WO2022032198A1 (en) 2020-08-07 2022-02-10 Magic Leap, Inc. Tunable cylindrical lenses and head-mounted display including the same
US11354575B1 (en) * 2020-08-14 2022-06-07 Facebook Technologies, Llc. Calibrated sensitivity model approximating the eye
CN112213859B (zh) 2020-10-12 2022-09-23 歌尔科技有限公司 头戴显示设备成像方法及头戴显示设备
WO2022119940A1 (en) 2020-12-01 2022-06-09 Looking Glass Factory, Inc. System and method for processing three dimensional images
CN112634182A (zh) * 2020-12-18 2021-04-09 平安普惠企业管理有限公司 一种基于光场的图像校正方法、装置、设备及存储介质
US11789259B2 (en) * 2020-12-28 2023-10-17 Passion Light Inc. Vision inspection and correction method, together with the system apparatus thereof
US11289196B1 (en) 2021-01-12 2022-03-29 Emed Labs, Llc Health testing and diagnostics platform
CN113080842B (zh) 2021-03-15 2023-06-27 青岛小鸟看看科技有限公司 一种头戴式视力检测设备、视力检测方法及电子设备
JP2024514416A (ja) * 2021-03-15 2024-04-02 マジック リープ, インコーポレイテッド 調整可能円柱レンズを採用する光学デバイスおよび頭部搭載型ディスプレイ
US11681146B2 (en) 2021-03-18 2023-06-20 Snap Inc. Augmented reality display for macular degeneration
CN113064278A (zh) * 2021-03-22 2021-07-02 海南南岛眼镜有限公司 视觉增强方法、系统、计算机存储介质及智能眼镜
US11615888B2 (en) 2021-03-23 2023-03-28 Emed Labs, Llc Remote diagnostic testing and treatment
US11929168B2 (en) 2021-05-24 2024-03-12 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11209672B1 (en) 2021-04-06 2021-12-28 Acucela Inc. Supporting pillars for encapsulating a flexible PCB within a soft hydrogel contact lens
US11350506B1 (en) * 2021-05-03 2022-05-31 Ober Alp S.P.A. Adaptive illumination control via activity classification
US11366341B1 (en) 2021-05-04 2022-06-21 Acucela Inc. Electronic case for electronic spectacles
US11369454B1 (en) 2021-05-24 2022-06-28 Emed Labs, Llc Systems, devices, and methods for diagnostic aid kit apparatus
US11564568B1 (en) * 2021-05-25 2023-01-31 Agnya Perceptive Solutions, L.L.C. Eye imaging system and fundus camera positioning device
WO2022271668A1 (en) 2021-06-22 2022-12-29 Emed Labs, Llc Systems, methods, and devices for non-human readable diagnostic tests
CN113486878B (zh) * 2021-07-08 2023-09-26 南通科技职业学院 一种图形化交互式机器视觉系统
CN117716435A (zh) * 2021-07-29 2024-03-15 斯纳普公司 视力测试和处方眼镜的提供
EP4133992A1 (en) * 2021-08-13 2023-02-15 Welch Allyn, Inc. Determining color vision ability using a vision screening device
US12014829B2 (en) 2021-09-01 2024-06-18 Emed Labs, Llc Image processing and presentation techniques for enhanced proctoring sessions
KR20240063919A (ko) * 2021-09-28 2024-05-10 크리얼 에스에이 광학적으로 보정된 가상 이미지를 생성하는 라이트필드 프로젝터 및 라이트필드 프로젝터를 이용하여 보정된 가상 이미지를 생성하는 방법
WO2023064792A1 (en) * 2021-10-12 2023-04-20 Acucela Inc. Adaptive system for the treatment of myopia progression
JP7480335B2 (ja) 2021-12-08 2024-05-09 セブンポイントワン インコーポレイテッド 登録されたエクステンデッドリアリティ機器ユーザの集中度を管理及び制御する方法、装置並びにシステム
US20230196522A1 (en) * 2021-12-17 2023-06-22 SoliDDD Corp. Plenoptic image tile organization for single image display or capture
US20230300470A1 (en) * 2022-02-03 2023-09-21 Facebook Technologies, Llc Techniques for producing glints and iris illumination for eye tracking
WO2023172395A1 (en) * 2022-03-08 2023-09-14 Apple Inc. Accommodation tracking based on retinal-imaging
US20230296877A1 (en) * 2022-03-17 2023-09-21 Snap Inc. Prescription system for flexible lenses
GB2621148A (en) * 2022-08-03 2024-02-07 South East Technological Univ Visual acuity testing system and method
TWI848397B (zh) * 2022-10-12 2024-07-11 中強光電股份有限公司 人眼視覺量測裝置及其量測方法
DE102022210945A1 (de) 2022-10-17 2024-04-18 Robert Bosch Gesellschaft mit beschränkter Haftung Umlenkeinheit
WO2024110791A1 (en) * 2022-11-22 2024-05-30 Sangireddy Sisirnath A method for enabling quality of learning, communication, and a cognitive support system for user interaction using a mixed reality device
US20240188818A1 (en) * 2022-12-08 2024-06-13 Twenty Twenty Therapeutics Llc Eye tracking color vision tests
US20240197168A1 (en) * 2022-12-15 2024-06-20 Twenty Twenty Therapeutics Llc Visual Field Test in a VR Headset
US11864834B1 (en) * 2023-01-25 2024-01-09 SoliDDD Corp. Multi-tiled plenoptic system for the detection and correction of ocular defects and for improved foveated rendering
CN116734995B (zh) * 2023-08-16 2023-11-07 安徽猫头鹰科技有限公司 一种基于阅读书写的环境光指标检测及健康程度评估系统
CN117717309B (zh) * 2023-12-25 2024-06-28 上海雄博精密仪器股份有限公司 一种人眼高阶像差的检测方法、装置和存储介质
CN118614859B (zh) * 2024-08-13 2024-10-11 中国人民解放军总医院第三医学中心 一种新型眼科检查仪器

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120212400A1 (en) * 2010-02-28 2012-08-23 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US20150262424A1 (en) * 2013-01-31 2015-09-17 Google Inc. Depth and Focus Discrimination for a Head-mountable device using a Light-Field Display System

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6141433A (ja) * 1984-08-02 1986-02-27 ヨセフ エヌ.トラツチマン 視調節訓練装置
CN2082601U (zh) * 1990-10-06 1991-08-14 空军航空杂志社 可变物距随机点图体视视觉检测仪
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
EP1204365B1 (en) * 1999-07-27 2010-01-27 WaveTec Vision Systems, Inc. Ocular biometer
US7597453B2 (en) * 2004-01-14 2009-10-06 Simon Jerome H Luminaires using multiple quasi-point sources for unified radially distributed illumination
US9011418B2 (en) * 2005-07-29 2015-04-21 Alcon Refractivehorizons, Inc. Ophthalmic device positioning system and associated methods
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US7771051B2 (en) * 2007-06-13 2010-08-10 Rahim Hirji Near eye opthalmic device
EP2198769A1 (en) * 2008-12-22 2010-06-23 Essilor International (Compagnie Générale D'Optique) A method of and an apparatus for simulating an optical effect of an optical lens
JP5243983B2 (ja) 2009-01-30 2013-07-24 浜松ホトニクス株式会社 電子増倍機能内蔵型の固体撮像素子
US20110213664A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US9192264B2 (en) * 2010-07-27 2015-11-24 Euro-Pro Operating Llc Food processor
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
CN103688208B (zh) 2010-12-24 2017-06-06 奇跃公司 人体工程学头戴式显示设备和光学系统
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
EP2499960B1 (en) 2011-03-18 2015-04-22 SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH Method for determining at least one parameter of two eyes by setting data rates and optical measuring device
US9033502B2 (en) * 2011-03-18 2015-05-19 Sensomotoric Instruments Gesellschaft Fur Innovative Sensorik Mbh Optical measuring device and method for capturing at least one parameter of at least one eye wherein an illumination characteristic is adjustable
US9033510B2 (en) * 2011-03-30 2015-05-19 Carl Zeiss Meditec, Inc. Systems and methods for efficiently obtaining measurements of the human eye using tracking
BR112013034009A2 (pt) 2011-05-06 2017-02-07 Magic Leap Inc mundo de presença digital remota simultânea massiva
WO2013049861A1 (en) 2011-09-29 2013-04-04 Magic Leap, Inc. Tactile glove for human-computer interaction
EP3404894B1 (en) 2011-10-28 2020-02-12 Magic Leap, Inc. System and method for augmented and virtual reality
CA2858208C (en) 2011-11-23 2019-01-15 Magic Leap, Inc. Three dimensional virtual and augmented reality display system
US9060718B2 (en) * 2012-02-13 2015-06-23 Massachusetts Institute Of Technology Methods and apparatus for retinal imaging
EP2841991B1 (en) 2012-04-05 2020-01-08 Magic Leap, Inc. Wide-field of view (fov) imaging devices with active foveation capability
US20130285885A1 (en) * 2012-04-25 2013-10-31 Andreas G. Nowatzyk Head-mounted light-field display
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
NZ702897A (en) 2012-06-11 2017-03-31 Magic Leap Inc Multiple depth plane three-dimensional display using a wave guide reflector array projector
AU2013315607A1 (en) 2012-09-11 2015-04-02 Magic Leap, Inc Ergonomic head mounted display device and optical system
US20140218281A1 (en) * 2012-12-06 2014-08-07 Eyefluence, Inc. Systems and methods for eye gaze determination
CN103190883B (zh) * 2012-12-20 2015-06-24 苏州触达信息技术有限公司 一种头戴式显示装置和图像调节方法
WO2014100891A1 (en) * 2012-12-31 2014-07-03 Esight Corp. Apparatus and method for fitting head mounted vision augmentation systems
US10151875B2 (en) 2013-01-15 2018-12-11 Magic Leap, Inc. Ultra-high resolution scanning fiber display
IL298018B2 (en) 2013-03-11 2024-04-01 Magic Leap Inc System and method for augmentation and virtual reality
NZ735747A (en) 2013-03-15 2019-10-25 Magic Leap Inc Display system and method
US10335027B2 (en) * 2013-04-10 2019-07-02 Eyenetra, Inc. Methods and apparatus for assessment of refractive condition
US9519144B2 (en) * 2013-05-17 2016-12-13 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display having a defect
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
JP5967597B2 (ja) 2013-06-19 2016-08-10 パナソニックIpマネジメント株式会社 画像表示装置および画像表示方法
CN104434020A (zh) * 2013-09-18 2015-03-25 哈尔滨光凯科技开发有限公司 一种新型视力检测装置
AU2014337171B2 (en) 2013-10-16 2018-11-15 Magic Leap, Inc. Virtual or augmented reality headsets having adjustable interpupillary distance
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
WO2015081313A2 (en) 2013-11-27 2015-06-04 Magic Leap, Inc. Virtual and augmented reality systems and methods
JP6228300B2 (ja) * 2013-12-24 2017-11-08 ライトロ, インコーポレイテッドLytro, Inc. プレノプティックカメラの分解能の改良
US9836122B2 (en) * 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
JP6509883B2 (ja) 2014-01-31 2019-05-08 マジック リープ, インコーポレイテッドMagic Leap,Inc. 多焦点表示システムおよび方法
EP3100098B8 (en) 2014-01-31 2022-10-05 Magic Leap, Inc. Multi-focal display system and method
JP6270674B2 (ja) 2014-02-27 2018-01-31 シチズン時計株式会社 投影装置
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
KR20200127267A (ko) 2014-05-09 2020-11-10 아이플루언스, 인크. 안구 신호들의 인식 및 지속적인 생체 인증을 위한 시스템과 방법들
NZ764905A (en) 2014-05-30 2022-05-27 Magic Leap Inc Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
CN107249431A (zh) * 2014-06-30 2017-10-13 上海国通视光医疗科技发展有限公司 使用利用视网膜照相机测量的屈光参数的视觉问题诊断
CN105326471B (zh) * 2014-07-31 2018-05-22 汉王科技股份有限公司 婴幼儿视力测试装置
JP2016036390A (ja) * 2014-08-05 2016-03-22 富士通株式会社 情報処理装置、焦点検出方法、および焦点検出プログラム
CN104161495B (zh) * 2014-08-25 2016-08-31 苏州四海通仪器有限公司 视力检查预测装置
US9883798B2 (en) * 2014-11-14 2018-02-06 Ricoh Company, Ltd. Simultaneous capture of filtered images of the eye
CN104618710B (zh) * 2015-01-08 2017-01-18 左旺孟 基于增强光场显示的视觉缺陷校正系统
CN104490359B (zh) * 2015-01-19 2015-12-16 天津市索维电子技术有限公司 用于少儿视力普查的便携式装置
NZ773816A (en) * 2015-03-16 2022-07-29 Magic Leap Inc Methods and systems for diagnosing and treating health ailments
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
KR102412525B1 (ko) 2016-07-25 2022-06-23 매직 립, 인코포레이티드 광 필드 프로세서 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120212400A1 (en) * 2010-02-28 2012-08-23 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US20150262424A1 (en) * 2013-01-31 2015-09-17 Google Inc. Depth and Focus Discrimination for a Head-mountable device using a Light-Field Display System

Also Published As

Publication number Publication date
JP6992046B2 (ja) 2022-01-13
EP3488284A4 (en) 2020-03-18
CN109788901B (zh) 2024-01-02
JP7229302B2 (ja) 2023-02-27
US20200073143A1 (en) 2020-03-05
US11733542B2 (en) 2023-08-22
JP2024019478A (ja) 2024-02-09
WO2018022521A1 (en) 2018-02-01
US10451895B2 (en) 2019-10-22
EP3488284A1 (en) 2019-05-29
EP3488284B1 (en) 2023-06-28
US20180136486A1 (en) 2018-05-17
KR20220090591A (ko) 2022-06-29
CN117770757A (zh) 2024-03-29
KR20240093840A (ko) 2024-06-24
EP4235366A2 (en) 2023-08-30
JP2021164665A (ja) 2021-10-14
JP2022176291A (ja) 2022-11-25
EP4235366A3 (en) 2023-11-01
US20210231973A1 (en) 2021-07-29
KR20230050479A (ko) 2023-04-14
US11048101B2 (en) 2021-06-29
KR102669685B1 (ko) 2024-05-29
KR102520143B1 (ko) 2023-04-11
US12117675B2 (en) 2024-10-15
JP2019531769A (ja) 2019-11-07
CN109788901A (zh) 2019-05-21
KR20190029727A (ko) 2019-03-20
JP7441915B2 (ja) 2024-03-01
US20230333410A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
US12117675B2 (en) Light field processor system
JP7480412B2 (ja) 健康を損う疾病を診断して治療する方法及びシステム
KR102723374B1 (ko) 광 필드 프로세서 시스템

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant