KR102358983B1 - Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택 - Google Patents
Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택 Download PDFInfo
- Publication number
- KR102358983B1 KR102358983B1 KR1020157023083A KR20157023083A KR102358983B1 KR 102358983 B1 KR102358983 B1 KR 102358983B1 KR 1020157023083 A KR1020157023083 A KR 1020157023083A KR 20157023083 A KR20157023083 A KR 20157023083A KR 102358983 B1 KR102358983 B1 KR 102358983B1
- Authority
- KR
- South Korea
- Prior art keywords
- gesture
- user
- roi
- objects
- selecting
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 95
- 230000003190 augmentative effect Effects 0.000 claims abstract description 21
- 230000015654 memory Effects 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 5
- 210000004247 hand Anatomy 0.000 description 29
- 230000003416 augmentation Effects 0.000 description 22
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 210000003811 finger Anatomy 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 9
- 238000013519 translation Methods 0.000 description 9
- 210000003813 thumb Anatomy 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 7
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000003936 working memory Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012015 optical character recognition Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000004806 packaging method and process Methods 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 241000283153 Cetacea Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 238000009751 slip forming Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Telephone Function (AREA)
- Image Analysis (AREA)
Abstract
HMD(head mounted device) 상에서 AR(Augmented Reality) 물체를 선택하기 위한 방법들, 시스템들, 컴퓨터-판독 가능 매체들 및 장치들이 제공된다. 일부 실시예들에서, HMD는 사용자의 적어도 하나의 손에 의해 형성된 제스처에 기초하여 ROI(Region-of-Interest)를 정의할 수 있다. 후속으로, HMD는 HMD 상에서 형상을 사용자에게 디스플레이할 수 있다. 적어도 하나의 배열에서, 형상은 ROI의 윤곽을 나타낸다. 부가적으로, HMD는 복수의 AR 물체들을 사용자에게 디스플레이할 수 있고, 복수의 AR 물체들 각각은 ROI 내부의 타겟과 연관된다. 또한, HMD는 크기 감소된 ROI를 형성하기 위해 사용자의 적어도 하나의 손의 제 1 이동에 기초하여 ROI의 크기를 감소시킬 수 있다. 적어도 하나의 배열에서, 크기 감소된 ROI는 복수의 AR 물체들로부터 특정 AR 물체를 선택하는데 사용된다.
Description
[1] 본 발명의 양상들은 인간 신체 제스처들을 사용하여 HMD(head mounted display) 상의 AR(augmented reality) 물체를 선택하는 것에 관한 것이다.
[2] HMD는 이제, 스마트폰과 같이, HMD에 접속된 호스트 디바이스에 내장되거나 호스트 디바이스에 의해 제공되는 어느 정도의 컴퓨팅 능력을 갖는 가벼운, 입수 가능한 디바이스로서 개발될 수 있다.
[3] HMD는 안경 프레임 상에 장착되는 하나 이상의 1인칭(egocentric) 카메라들을 포함할 수 있다. HMD는 또한 광학 센서들, 가속도계들, GPS, 자이로스코프들, 고체 상태 컴파스들, RFID 및 무선 센서들을 포함할 수 있다. HMD는 사용자의 시야 내의 투명한 디스플레이 영역을 가질 수 있고, 시야 내에서 사용자는 디스플레이 상에서 물리적 물체들 및 가상 물체들 둘 모두를 볼 수 있다.
[4] 내장 카메라들을 사용하여, HMD는 사용자의 입력에 따라 이미지들 및 비디오들을 캡처할 수 있다. 종래의 방법들은 사용자의 시야 내의 이미지를 캡처하기 위해 HMD 상의 버튼을 사용자가 터치하는 것을 포함한다.
[5] 사용자가 HMD(head mounted display)를 물리적으로 터치하지 않고서, 사용자가 HMD 상의 하나 이상의 증강 현실(AR) 물체들을 선택하도록 허용하는 특정 실시예들가 설명된다.
[6] 일부 실시예들에서, HMD는 사용자의 적어도 하나의 손에 의해 형성된 제스처에 기초하여 ROI(Region-of-Interest)를 정의할 수 있다. 후속으로, HMD는 HMD 상에서 형상을 사용자에게 디스플레이할 수 있다. 적어도 하나의 배열에서, 형상은 ROI의 윤곽을 나타낸다(outline). 부가적으로, HMD는 복수의 AR 물체들을 사용자에게 디스플레이할 수 있고, 복수의 AR 물체들 각각은 ROI 내부의 타겟과 연관된다. 또한, HMD는 크기 감소된 ROI를 형성하기 위해 사용자의 적어도 하나의 손의 제 1 이동에 기초하여 ROI의 크기를 감소시킬 수 있다. 적어도 하나의 배열에서, 크기 감소된 ROI는 복수의 AR 물체들로부터 특정 AR 물체를 선택하는데 사용된다. 하나 이상의 배열들에서, ROI의 크기를 감소시키기 위한 방법은 사용자의 손들을 서로 더 가깝게 이동시키는 것을 포함한다. 부가적으로, HMD는 불개입(disengagement) 이벤트에 기초하여 크기 감소된 ROI에 불개입할 수 있다. 예를 들면, 불개입 이벤트는 사용자의 적어도 하나의 손이 ROI로부터 떨어져 있을 때, 사용자의 적어도 하나의 손가락 및 엄지가 서로 가까울 때, 또는 사용자에 의한 음성 커맨드 때에 발생할 수 있다.
[7] 다른 배열에서, 다수의 증강들이 특정 AR 물체와 연관되고, HMD는 또한 특정 AR 물체의 방향으로의 사용자의 적어도 하나의 손의 제 2 이동에 기초하여, 특정 AR 물체와 연관된 다수의 증강들로부터 대응하는 증강을 사용자에게 디스플레이할 수 있다.
[8] 다른 배열에서, HMD는 또한 크기 감소된 ROI 내부의 텍스트를 캡처하고, 그리고 캡처된 텍스트에 기초하여 번역을 개시할 수 있다. HMD는 또한 ROI 또는 크기 감소된 ROI의 자동의 시각적 인식 및 시각적 탐색을 수행할 수 있다.
[9] 다른 배열에서, HMD는 하나 이상의 다른 사용자와의 비디오 공유 동안에 시야를 좁히기 위해 크기 감소된 ROI를 사용할 수 있다.
[10] 일부 실시예들에서, AR(Augmented Reality) 물체를 선택하기 위한 HMD(head mounted device)는 하나 이상의 프로세서들, 및 컴퓨터-판독 가능 명령들을 저장하는 메모리를 포함할 수 있고, 컴퓨터-판독 가능 명령들은, 하나 이상의 프로세서들에 의해 실행될 때, HMD로 하여금, 사용자의 적어도 하나의 손에 의해 형성된 제스처에 기초하여 ROI(Region-of-Interest)를 정의하게 하고, HMD 상에서 형상을 사용자에게 디스플레이하게 하고 ― 형상은 상기 ROI의 윤곽을 나타냄 ― , 복수의 AR 물체들을 사용자에게 디스플레이하게 하고 ― 복수의 AR 물체들 각각은 ROI 내부의 타겟과 연관됨 ― , 그리고 크기 감소된 ROI를 형성하기 위해 상기 사용자의 적어도 하나의 손의 제 1 이동에 기초하여 상기 ROI의 크기를 감소시키게 하고, 크기 감소된 ROI는 복수의 AR 물체들로부터 특정 AR 물체를 선택하는데 사용된다.
[11] 일부 실시예들에서, 하나 이상의 컴퓨터-판독 가능 매체들은 HMD(head mounted device) 상에서 AR(Augmented Reality) 물체를 선택하기 위한 컴퓨터-실행 가능 명령들을 저장하고, 컴퓨터-실행 가능 명령들은, 실행될 때, HMD에 포함된 하나 이상의 컴퓨팅 디바이스들로 하여금, 사용자의 적어도 하나의 손에 의해 형성된 제스처에 기초하여 ROI(Region-of-Interest)를 정의하게 하고, HMD 상에서 형상을 사용자에게 디스플레이하게 하고 ― 형상은 상기 ROI의 윤곽을 나타냄 ― , 복수의 AR 물체들을 사용자에게 디스플레이하게 하고 ― 복수의 AR 물체들 각각은 ROI 내부의 타겟과 연관됨 ― , 그리고 크기 감소된 ROI를 형성하기 위해 사용자의 적어도 하나의 손의 제 1 이동에 기초하여 ROI의 크기를 감소시키게 할 수 있고, 크기 감소된 ROI는 상기 복수의 AR 물체들로부터 특정 AR 물체를 선택하는데 사용된다.
[12] 일부 실시예들에서, AR(Augmented Reality) 물체를 선택하기 위한 HMD(head mounted device)는 사용자의 적어도 하나의 손에 의해 형성된 제스처에 기초하여 ROI(Region-of-Interest)를 정의하기 위한 수단, HMD 상에서 형상을 사용자에게 디스플레이하기 위한 수단 ― 형상은 ROI의 윤곽을 나타냄 ― , 복수의 AR 물체들을 사용자에게 디스플레이하기 위한 수단 ― 복수의 AR 물체들 각각은 ROI 내부의 타겟과 연관됨 ― , 및 크기 감소된 ROI를 형성하기 위해 사용자의 적어도 하나의 손의 제 1 이동에 기초하여 ROI의 크기를 감소시키기 위한 수단을 포함할 수 있고, 크기 감소된 ROI는 상기 복수의 AR 물체들로부터 특정 AR 물체를 선택하는데 사용된다.
[13] 본 발명의 양상들이 예로서 도시된다. 첨부한 도면들에서, 동일한 참조 번호들은 동일한 엘리먼트들을 표시한다.
[14] 도 1a 및 도 1b는 하나 이상의 실시예들을 구현할 수 있는 HMD의 개략도들을 예시한다.
[15] 도 2는 실시예에 따른, AR 타겟들을 선택하기 위해 HMD들과 상호작용하는 무터치 방법을 설명하는 흐름도를 예시한다.
[16] 도 3a 및 도 3b는 실시예에 따른, 관심 영역(ROI)을 선택하기 위한 방법들을 예시한다.
[17] 도 4는 실시예에 따른, 5 개의 타겟들이 HMD 상에 디스플레이된 ROI를 예시한다.
[18] 도 5는 실시예에 따른, 3 개의 타겟들이 HMD 상에 디스플레이된 크기 감소된 ROI를 예시한다.
[19] 도 6은 AR 타겟들에 대한 특정 계층의 증강을 선택하기 위한 흐름도를 예시한다.
[20] 도 7은 VOI를 사용하여 타겟의 방향을 스크롤링함으로써 다수의 증강들을 통한 사용자 브라우징을 예시한다.
[21] 도 8은 ROI에 기초하여 스마트 애플리케이션들(예를 들면, 번역, 시각적 탐색)을 개시하기 위한 흐름도를 예시한다.
[22] 도 9는 하나 이상의 실시예들이 구현될 수 있는 컴퓨팅 시스템의 예를 예시한다.
[14] 도 1a 및 도 1b는 하나 이상의 실시예들을 구현할 수 있는 HMD의 개략도들을 예시한다.
[15] 도 2는 실시예에 따른, AR 타겟들을 선택하기 위해 HMD들과 상호작용하는 무터치 방법을 설명하는 흐름도를 예시한다.
[16] 도 3a 및 도 3b는 실시예에 따른, 관심 영역(ROI)을 선택하기 위한 방법들을 예시한다.
[17] 도 4는 실시예에 따른, 5 개의 타겟들이 HMD 상에 디스플레이된 ROI를 예시한다.
[18] 도 5는 실시예에 따른, 3 개의 타겟들이 HMD 상에 디스플레이된 크기 감소된 ROI를 예시한다.
[19] 도 6은 AR 타겟들에 대한 특정 계층의 증강을 선택하기 위한 흐름도를 예시한다.
[20] 도 7은 VOI를 사용하여 타겟의 방향을 스크롤링함으로써 다수의 증강들을 통한 사용자 브라우징을 예시한다.
[21] 도 8은 ROI에 기초하여 스마트 애플리케이션들(예를 들면, 번역, 시각적 탐색)을 개시하기 위한 흐름도를 예시한다.
[22] 도 9는 하나 이상의 실시예들이 구현될 수 있는 컴퓨팅 시스템의 예를 예시한다.
[23] 수 개의 예시적인 실시예들이, 본 발명의 일부를 형성하는 첨부한 도면들에 대해 이제 설명될 것이다. 본 발명의 하나 이상의 양상들이 구현될 수 있는 특정한 실시예들이 후술되지만, 다른 실시예들이 사용될 수 있고, 다양한 변형들이 본 발명의 범위 또는 첨부된 청구항들의 사상을 벗어나지 않으면서 행해질 수 있다.
[24] 본 발명의 실시예들은 인간 신체 제스처들을 사용하여 HMD(head mounted display) 상의 AR(augmented reality) 물체를 선택하는 것에 관한 것이다. 일부 실시예들은, 사용자가 HMD(head mounted display)를 물리적으로 터치하지 않고서, 사용자가 HMD 상의 하나 이상의 증강 현실(AR) 물체들을 선택하기 위한 방법들을 개시한다.
[25] HMD는, 물리적 물체들과 연관되거나, 예를 들면, 사용자의 위치 및/또는 컨텍스트와 연관된 디지털 콘텐츠(예를 들면, 텍스트, 픽처들, 비디오)와 사용자에 의해 보여지는 물리적 물체들을 중첩함으로써 증강 현실(AR) 기능을 제공할 수 있다. 예를 들면, 증강 현실(AR) 능력들을 갖는 HMD는 사용자의 시야에 걸쳐 물리적 세계 및 가상 물체들 둘 모두의 이미지들을 배치할 수 있다. 결과적으로, HMD는 이동식 및 공동의 AR 경험을 사용자들에게 제공할 수 있다.
[26] 본원에 사용된 바와 같이, 용어 HMD는, 거리 센서 데이터를 캡처하고 모바일 프로세서에 링크된 디스플레이 능력을 갖는 디바이스를 지칭하고, 모바일 프로세서는 헤드 장착 디바이스에 대해 별개의 디바이스일 수 있다. 실시예에서, HMD(120)는, HMD 제어 시스템의 메인 프로세싱이 모바일 디바이스의 프로세서 상에서 수행되는 모바일 디바이스 CPU(예를 들면, 셀 폰, 태블릿 컴퓨터, 스마트폰 등의 프로세서)에 대한 액세서리일 수 있다. 다른 실시예에서, HMD(120)는 프로세서, 메모리, 디스플레이 및 카메라를 포함할 수 있다.
[27] 다른 실시예에서, HMD는 인터넷, 로컬 무선 네트워크 또는 다른 컴퓨팅 디바이스와 접속하기 위한 무선 인터페이스를 포함할 수 있다. 다른 실시예에서, 표면들 상의 이미지들의 프로젝션을 가능하게 하기 위한 프로젝터가 HMD에 연관될 수 있다. HMD는 바람직하게는 경량이고, 무거운 컴포넌트들의 사용을 회피하도록 구성되고, 무거운 컴포넌트들은 디바이스로 하여금 착용하기에 불편하게 할 수 있다. HMD는 또한 사용자로부터 오디오/제스처 입력들을 수신하도록 동작 가능할 수 있다. 그러한 제스처 또는 오디오 입력들은 발성된 음성 커맨드들 또는 인식된 사용자 제스처일 수 있고, 이것은, 컴퓨팅 디바이스에 의해 인식될 때, 그 디바이스로 하여금 대응하는 커맨드를 실행하게 할 수 있다.
[28] 증강 현실(AR)은 물리적, 실세계 환경의 라이브, 직접적 또는 간접적 뷰일 수 있고, 실세계 환경의 엘리먼트들은 사운드, 텍스트, 그래픽들, 비디오 및 GPS 데이터(이에 제한되지 않음)와 같은 컴퓨터-생성 감각 입력에 의해 증강된다.
[29] 물체 인식과 같은 AR 기술을 사용함으로써, 사용자의 주변의 실세계에 관한 정보는 상호작용적이고 디지털로 조작 가능하게 된다. 사용자의 환경 및 그의 물체들에 관한 인공적인 정보가 실세계 상에 중첩될 수 있다.
[30] 또한, 실시예들이 HMD에 관련하여 본원에 설명되지만, 다른 형태들의 헤드-장착 디스플레이들이 사용될 수 있다는 것을 당업자들은 인지할 것이다. 예를 들면, 본원에 설명된 실시예들은, 사용자가 착용할 수 있고 및/또는 다른 형태의 디스플레이에서 구현될 수 있는 하나 이상의 콘택트 렌즈들에 관련하여 구현될 수 있고, 콘텐트 렌즈를 통해 사용자는 시야를 지각할 수 있다.
[31] 일부 실시예들은 지오-로케이팅된 POI(point-of-interest) 및 AR 타겟들을 선택하기 위한 HMD와 상호작용을 허용한다. 자연적인 인간 신체 제스처를 검출함으로써, 시스템은 안경을 통해 보여진 ROI 내의 POI들 또는 AR 타겟들의 서브세트를 선택하도록 HMD를 트리거링할 수 있다.
[32] 다양한 실시예들은 증강 현실 시스템에서 AR 타겟들을 선택하는 방법들을 포함하고, 상기 방법들은 하나 이상의 헤드 장착 센서들을 통해 공간적 데이터를 캡처함으로써 사용자의 제스처에 기초하여 ROI를 정의하는 단계, HMD의 디스플레이 상에 ROI의 윤곽을 나타내는 형상을 디스플레이하는 단계, AR 타겟들에 대응하는, HMD에 대한 거리를 포함하는 파라미터들을 계산하는 단계, ROI 내에 복수의 AR 물체들을 디스플레이하는 단계, 사용자의 손 이동에 기초하여 ROI의 크기를 감소시키는 단계 및 특정 AR 타겟을 선택하기 위해 크기 감소된 ROI를 사용하는 단계를 포함한다. 실시예에서, 상기 방법은, 가상 물체가 사용자가 사용자의 헤드를 터닝할 때의 디스플레이에 앵커링된 것처럼 보이도록, 생성된 가상 물체의 디스플레이를 계속해서 업데이트하는 단계를 포함할 수 있다.
[33] 도 1a 및 도 1b는 하나 이상의 실시예들을 통합할 수 있는 HMD(120)의 개략도들을 예시한다.
[34] 도 2에 의해 예시된 흐름도는 실시예에 따른, 지오-로케이팅된 POI들(point of interest) 및 AR 타겟들을 선택하기 위해 HMD들과 상호작용하는 무터치 방법을 설명한다. 자연적인 인간 신체 제스처를 검출함으로써, HMD는 안경을 통해 보여지는 POI들 또는 AR 타겟들의 서브세트를 선택할 수 있다. 도 3a는 도 2에 설명된 방법을 사용하여 AR 물체를 선택하기 위해 HMD들과 상호작용하는 예시적인 방법을 예시한다. 제스처는, 도 3a 및 도 4에 도시된 바와 같이, 양 손의 검지(index) 및 엄지 손가락들을 직교 방향으로 지시하는 것을 수반할 수 있다. ROI가 HMD에 의해 인식된 후에, 사용자는, 도 3b, 도 5 및 도 7에 도시된 바와 같이, ROI 또는 VOI(volume-of-interest)를 추가로 지정함으로써 2 또는 3 차원 공간에서 지오-로케이팅된 POI들 또는 AR 타겟들을 선택할 수 있다.
[35] 다른 실시예에 따라, HMD 상의 깊이-인에이블 카메라(예를 들면, 스테레오 카메라)는, AR 물체가 자신과 연관된 다수의 증강들을 가질 때, 증강을 선택하기 위해 VOI를 사용하는데 사용될 수 있다. 깊이-인에이블 카메라는 사용자의 전방에서 또는 카메라 뷰에서 손들의 이동을 인식할 수 있다. 이러한 카메라들을 통해, HMD는 타겟에 대해 사용자의 손의 위치를 인식하고, 따라서 위치에 기초하여 상이한 증강들을 디스플레이할 수 있다.
[36] 예를 들면, 사용자는, 도 6에 예시된 흐름도에 추가로 설명되는 바와 같이, AR 타겟들에 대한 특정 계층의 증강을 선택할 수 있다. 먼저, 사용자는 ROI를 선택함으로써 특정 AR 타겟을 선택할 수 있다. 또한, 다수의 증강들이 주어진 AR 타겟과 연관되면, 사용자는 VOI를 사용하여 타겟의 방향으로 스크롤링함으로써 다수의 증강들에 통해 브라우징할 수 있다. 예를 들면, 도 7에서, 영화 포스터(720)에 대해, 사용자는 영화의 제목과 리뷰; 트레일러; 및 영화와 연관된 상영 시간들을 보여주는 3 개의 상이한 증강들(705, 710, 715)을 통해 브라우징할 수 있다. 손의 위치에 따라, 대응하는 AR 증강이 사용자에게 보여진다.
[37] 다른 실시예에 따라, 시스템은, 도 8에 예시된 흐름도에서 추가로 설명되는 바와 같이, ROI에 기초하여 스마트 애플리케이션들(예를 들면, 번역, 시각적 탐색)을 개시할 수 있다. 예를 들면, ROI가 시각적 탐색 시스템 또는 OCR(optical character recognition) 기반 번역기에 제공될 수 있고, 결과들이 HMD 상에 디스플레이된다.
[38] 다른 실시예에 따라, ROI는 비디오 공유를 위해 시야를 좁히는데 사용될 수 있다. 예를 들면, ROI는 비디오 기반 통신에서 공유된 뷰로서 처리되고, 그래서 사용자의 시야 중 일부(예를 들면, 프리젠테이션, 문서)만이 원격 사용자들과 공유된다.
[39] 손 제스처들을 사용한 관심 영역의 정의
[40] 도 1a는 일 실시예에 따른, 사용자의 제스처들에 기초하여 ROI(region-of-interest)를 정의하도록 구성된 HMD(120)의 단순화된 예시(100)이다. 이 실시예에서, 사용자(110)에 의해 착용되는 HMD(120)는 ROI를 정의하기 위해 사용자의 손(130)을 추적하도록 구성된 카메라 및/또는 다른 센서(들)를 갖는다. 그렇게 해서, HMD(120)는 HMD(120)의 디스플레이(140) 상에 ROI의 윤곽을 나타내는 형상을 디스플레이할 수 있다. 이것은 사용자가 원할 때 ROI를 조정하기 위해 실시간 피드백을 제공하도록 허용할 수 있어서, 사용자 입력을 수신하기 위한 별개의 인터페이스(예를 들면, 터치 패드, 버튼들)에 대한 필요성을 제거한다. 다른 인터페이스들은 원하는 기능에 따라 HMD(120)에 통합될 수 있다. HMD(120)는, ROI를 결정하기 위해 사용자의 손(130)을 추적하기 위해 하나 이상의 미리-설치된 카메라(들)(150)를 사용할 수 있다.
[41] 도 1b는 본원서 제공된 기술들을 이용할 수 있는 HMD(120)의 실시예의 예시이다. 도시된 실시예는 디스플레이들(140) 및 하나 이상의 카메라들(150)을 포함한다. 이러한 실시예는, 사용자의 눈들의 전방에 디스플레이들(140)을 위치시키는, 사용자(110)의 코 및 귀들 상에 걸칠 수 있는 안경과 유사한 프레임을 포함한다.
[42] 다양한 실시예들은 HMD(120)가 HMD(120) 상의 센서들을 사용하여 사용자의 손(130) 제스처들을 캡처하는 것을 가능하게 한다. 실시예에서, 카메라(150)는, 이미지들의 삼각법(trigonometric) 분석을 통해 이미지 내의 물체들까지의 거리들을 추정하기 위해 프로세서가 분석할 수 있는 이미지 데이터를 생성할 수 있는 헤드 장착 카메라일 수 있다. 대안적으로 또는 부가하여, HMD(120)는, 이미지 내의 다양한 표면들까지의 거리들을 측정할 수 있는 하나 이상의 거리 측정 센서들(예를 들면, 레이저 또는 음파 범위 파인더)을 포함할 수 있다. 다양한 실시예들에서, 사용자(110)에 의해 보여지는 장면 내의 물체들까지의 측정 거리들을 측정하기 위해 다양한 상이한 타입들의 거리 측정 센서들 및 알고리즘들이 이미징된 장면에서 사용될 수 있다. 또한, 하나보다 더 많은 센서 및 타입의 센서가 HMD(120)에서 사용될 수 있다.
[43] 또한, HMD(120)는 가속도계들, 자이로스코프들, 자기 센서들, 광학 센서들, 기계적 또는 전자적 레벨 센서들 및 관성 센서들과 같은 배향 센서들을 포함할 수 있고, 이들은 단독으로 또는 결합하여 (예를 들면, 중력 배향을 감지함으로써) 디바이스의 업/다운 레벨 배향 및 따라서 사용자의 헤드 위치 배향(및 그 시청 관점으로부터)에 관한 데이터를 디바이스의 프로세서에 제공할 수 있다. 또한, HMD(120)는, 좌측/우측 배향 및 이동에 관한 데이터를 디바이스의 프로세서에 제공할 수 있는 전자 컴파스 및 가속도계들과 같은 회전 배향 센서들을 포함할 수 있다. 총괄적으로, 센서들(가속도계들, 자이로스코프들, 자기 센서들, 광학 센서들, 기계적 또는 전자적 레벨 센서들, 관성 센서들 및 전자 컴파스들을 포함함)은 HMD(120)의 업/다운 및 회전 배향(및 따라서 사용자의 시청 관점)에 관한 데이터를 제공하도록 구성된다.
[44] HMD(120)는 사용자 입력들을 인식하도록 구성될 수 있고, 이것은 카메라에 의해 이미징될 수 있는 제스처들을 통해 이루어질 수 있다. 이미지 내의 인식된 물체까지의 거리는 캡처된 이미지 및 거리 센서들로부터 수집된 데이터로부터 결정될 수 있다. HMD(120)는 이미지 및 거리 센서 데이터를 모바일 프로세서에 제공하고, 모바일 프로세서로부터 디스플레이 정보를 수신할 수 있고, 모바일 프로세서는 스마트폰 또는 다른 모바일 디바이스에서와 같이 HMD(120)로부터 별개일 수 있다.
[45] 디스플레이들(140)의 적어도 일부분은 투명하여, 사용자가 디스플레이들(140) 상에서 보여지는 이미지들뿐만 아니라 사용자의 주위환경에서의 물리적 물체들을 보는 것을 가능하게 하는 투명 디스플레이 영역을 제공한다. 디스플레이들 (140) 상에서 보이는 이미지들의 투명도 레벨은, 디스플레이들(140)의 원하는 기능성, 디스플레이들(140) 상에서 보이는 GUI(graphical user interface)의 설정들, 및/또는 HMD(120)에 의해 실행되는 소프트웨어 애플리케이션(예컨대, 비디오, 맵, 인터넷 브라우저) 에 따라 변화할 수 있다. 도 1a 및 도 1b에 도시된 실시예들은 안경형 프레임에 위치된 디스플레이(140)를 예시하지만, 투명 디스플레이 영역을 제공할 수 있는 다른 기술들(예를 들어, 망막 프로젝터 또는 다른 광학적 시스템)이 다른 실시예들에서 이용될 수 있다.
[46] 또한, 카메라(들)(150)(예를 들면, 바깥쪽으로 향하는 카메라들)는, HMD(120)에 입력을 제공하기 위해 사용자(110)에 의해 제어될 수 있는 사용자의 손(130) 및/또는 다른 물체들을 포함하는, 사용자의 주위환경의 이미지들을 캡처할 수 있다. 카메라들은, HMD(120)가 사용자의 전방에서 물리적 물체(예를 들면, POI)를 추적하는 것을 가능하게 하는 이미지들 및/또는 다른 정보를 프로세싱 유닛에 제공하는 다른 타입들의 센서들을 포함할 수 있다. 일 실시예에서, HMD(120)는 물체의 깊이를 물론 추적하기 위해 깊이를 결정할 수 있는 카메라(150)(예를 들면, 스테레오 카메라)를 사용할 수 있다. 일 실시예에 따라, 깊이 카메라는, 도 7에 도시된 비와 같이, 다수의 증강들을 디스플레이하기 위해 VOI를 사용할 때 사용될 수 있다.
[47] 카메라(들)(150)는, HMD(120)가 사용자의 관점으로부터 투명한 디스플레이 영역 내에 나타나는 물체(예를 들면, 손 제스처들)를 추적하는 것을 가능하게 하는 시야를 가질 수 있다. 실시예들은, 물리적 물체가 사용자(110)의 관점으로부터 투명한 디스플레이 영역 내에 있지 않을 때 저전력 모드로 스위칭할 수 있다. 일부 실시예들에서, 카메라(들)(150)는, (사용자(110)의 관점으로부터) 물리적 객체가 투명한 디스플레이 영역에 접근하고 있다고 HMD(120)가 결정할 때, HMD(120)가 물체-추적 알고리즘들을 실행하기 시작 및/또는 확대하도록 허용하기 위해, 투명한 디스플레이 영역보다 더 넓은 시야를 가질 수 있다.
[48] 복수의 AR 타겟들로부터 특정 AR 타겟의 선택
[49] 도 2는 HMD(head mounted display) 상의 증강 현실(AR) 물체를 선택하는 방법(200)의 실시예를 예시하는 흐름도이다. 블록(205)에서, HMD는 사용자의 제스처에 기초하여 ROI(region-of-interest)를 정의한다.
[50] 사용자의 제스처를 검출하기 위한 검출 알고리즘이 사용될 수 있다. HMD는 사용자의 미리 결정된 제스처를 검출하고, 사용자의 제스처에 기초하여 ROI를 정의할 수 있다. 예를 들면, 사용자의 제스처는, 도 3a 및 도 3b에 예시된 바와 같이, 직사각형 형상을 생성하기 위해 양 손들의 검지 및 엄지 손가락들을 직교 방향으로 지시하는 것을 포함할 수 있다. 다른 경우들에서, 사용자의 제스처는 주먹, 펼쳐진 손, 손가락(들)을 사용한 포인팅, 손 회전, 웨이브, 하나 이상의 손가락들의 이동 및 이들의 임의의 조합을 포함할 수 있다.
[51] 부가적으로, 다른 실시예에 따라, ROI가 정의된 후에, 후속의 사용자 제스처가 발생할 수 있다. 예를 들면, 제스처는 ROI를 재크기 설정하기 위해 사용자의 손들을 떨어져/더 가깝게 끌어당기는 것을 포함할 수 있다. 다른 경우들에서, 후속의 사용자 제스처는 사진을 찍기 위한 탭 제스처, 스크린에 걸쳐 AR 물체를 안내하기 위한 푸시 제스처, AR 물체를 이동시키기 위한 플릭(flick) 제스처, AR 물체를 회전시키기 위한 턴 제스처, 줌 동작들을 위한 그랩(grab)/풀(pull) 제스처, 미디어를 통한 스크롤링을 위한 스와이프(swipe) 제스처를 포함할 수 있다.
[52] 앞서 표시된 바와 같이, 투명한 디스플레이 영역은, 사용자가 디스플레이 상에 도시된 이미지들뿐만 아니라 사용자의 주위환경 내의 물리적 물체를 보도록 허용하도록 구성된, HMD(120)의 디스플레이 및/또는 디스플레이 수단의 적어도 일부일 수 있다. 사용자는 사용자의 손 제스처에 기초하여 ROI를 선택할 수 있다. 도 3a는 또한 HMD(120)가 ROI를 식별하는 방법을 예시한다.
[53] 블록(210)에서, 투명한 디스플레이 영역 내의 ROI의 윤곽을 나타내는 형상이 정의되고, 사용자에게 디스플레이된다. 형상은, 예를 들면, HMD(120) 상의 ROI의 윤곽을 나타내는 직사각형 오버레이일 수 있다. 형상은 ROI의 위치의 시각적인 피드백을 사용자에게 제공할 수 있다. 형상 자체는 강조되고 및/또는 그렇지 않다면 투명한 디스플레이 영역에 표시될 수 있고, 표시되지 않을 수 있다. 형상을 정의하는 것은, 예를 들면, HMD에 통합되고 및/또는 HMD와 통신 가능하게 커플링된 컴퓨팅 시스템의 부분일 수 있는 프로세싱 유닛, 메모리 및/또는 다른 컴퓨팅 수단에 의해 수행될 수 있다. 형상은 디스플레이 엘리먼트로부터, 예를 들면, 디스플레이 스크린의 에지로부터 확장하는 것으로 디스플레이될 수 있다. 또한, 아래에 더 상세히 논의되는 바와 같이, 형상은 AR 또는 다른 소프트웨어 애플리케이션에서 상호작용적 엘리먼트들, 디지털 콘텐츠 및/또는 물리적 물체들과 연관될 수 있다. 그러한 형상은, 예를 들면, 사용자가 물리적 물체에 대해 이동할 때, 디스플레이 영역 내에서 크기, 형상 및 위치에서 변할 수 있다. 결과적으로, 선택된 물체(들)와 연관된 형상을 보여주는 하이라이트들은 언제나 디스플레이될 수 있거나 디스플레이되지 않을 수 있다.
[54] 다양한 실시예들은 HMD(120)가 디스플레이(140) 상의 ROI의 윤곽을 나타내는 가상 형상을 렌더링하는 것을 가능하게 한다. 이것은 HMD(120)가 컴퓨팅 디바이스와의 상호작용들 및 실시간 협력 및 사용자로부터의 피드백을 용이하게 할 수 있는 증강 현실 경험을 제공하는 것을 가능하게 한다.
[55] 일부 실시예들에서, HMD(120)는 HMD(120) 상에서 작업들을 실행하기 위한 입력 커맨드들로서 인식된 제스처들을 프로세싱할 수 있다. 방법들은, 동작들을 수행하기 위한 프로세서-실행 가능 명령들로 구성된 프로세서를 갖는 컴퓨팅 디바이스에서 구현될 수 있다. 프로세서는 HMD(120)의 배향에 관한 센서 데이터를 수신함으로써 동작을 시작할 수 있다. 부가적으로, 프로세서는 앞서 논의된 HMD(120)에 포함된 다른 센서들로부터의 데이터뿐만 아니라, 카메라들(150)로부터의 이미지 데이터를 수신할 수 있다. 따라서, 프로세서는 카메라(들)(150)의 시야 내의 물체들에 대한 이미지들 및 거리들에 관하여 HMD(120)에 의해 수집된 모든 정보를 획득할 수 있다. 프로세서는 ROI 내의 물체의 거리 및 배향 데이터를 계산할 수 있다. 이러한 계산들은, 이미지들이 블록으로 제공될 때 잘 알려진 삼각법 방법들, 거리 데이터를 제공하기 위해 거리 센서들이 사용될 때 직접적인 측정들, 및 센서들로부터 획득되고 이미지들로부터 계산된 거리 정보의 임의의 조합들을 사용할 수 있다. 또한, 프로세서는 거리 센서 데이터, 카메라 데이터 및 거리 및 배향 데이터를 사용하여 이미지를 프로세싱할 수 있다.
[56] 또한, 프로세서는, 미리 결정된 제스처가 인식되는지를 결정하기 위해 시간 간격에 걸쳐 사용자의 손(130)을 추적할 수 있다. 이러한 결정에서, 프로세서는, 임의의 제스처들이 시야에서 인식되는지를 결정할 수 있다. 제스처가 인식되면, 프로세서는 실질적으로 인식된 제스처 및 HMD(120)의 메모리에 저장된 입력 커맨드를 매칭할 수 있다. 프로세서는 인식된 제스처에 대응하는 입력 커맨드를 실행할 수 있다.
[57] 일 실시예에 따라, 일단 ROI가 식별되면, 픽처 및/또는 비디오는, 사용자(110)가 개입하지 않을 때, ROI 내부의 이미지의 캡처일 수 있다. 예를 들면, ROI의 윤곽을 나타내는 형상을 수신한 후에, 사용자가 카메라 촬영 포즈와 같은 손 제스처를 계속해서 유지한다면, 사용자가 개입하지 않은 후에, HMD(120)는 ROI에 의해 윤곽이 나타나는 이미지를 캡처하도록 설정될 수 있다. 불개입(disengagement) 이벤트의 예는, 사용자의 손들이 ROI로부터 떨어져 빠르게 이동하는 때일 수 있다. 따라서, 종래의 HMD와 달리, 사용자는 사진을 촬영하기 위해 종래의 HMD 상의 버튼을 사실상 터치할 필요가 없다.
[58] 다른 실시예에 따라, HMD(120)는 고정된 버퍼 크기의 비디오를 캡처할 수 있다. 이러한 경우에, 제스처 메커니즘은 최종 미리 결정된 듀레이션(예를 들면, 30 초)으로부터 모든 프레임들을 저장하도록 HMD에 표시하기 위한 트리거로서 사용될 수 있다. 예를 들면, HMD(120)를 착용한 사용자는 방금 바다에서 고래의 점프를 보고, 지난 30 초를 기록하도록 HMD(120)에 구두로(verbally) 요청할 수 있다. 따라서, HMD(120)는, 자신이 인식된 제스처 또는 음성 커맨드에 기초하여 프레임들을 버퍼링하는 기능을 가질 수 있고, HMD(120)는 그러한 프레임들을 메모리에 저장할 수 있다.
[59] 블록(215)에서, ROI가 인식된 후에, HMD(120)는 ROI 내부의 타겟들과 연관된 복수의 AR 물체들(예를 들면, 도 4의 리타의 패션(405))을 사용자(110)에 디스플레이한다. 부가적으로, 사용자가 ROI 또는 사용자의 시야를 이동시킬 때, 초기에 ROI 내부의 타겟들이 추적될 수 있다. 추적하기 위한 수단은 카메라, 센서 및/또는 다른 컴포넌트들에 의해 수행될 수 있고, 이들은 이미지 및/또는 위치 측정들을 캡처하도록 구성되고, 이미지 및/또는 위치 측정들에 기초하여 위치를 결정하도록 구성된 프로세싱 유닛, 메모리 및/또는 다른 컴퓨팅 수단과 통신 가능하게 접속된다. 타겟을 추적하기 위한 컴포넌트들은 투명한 디스플레이 영역에 이미지들을 디스플레이하기 위한 컴포넌트들과 교정될 수 있어서, HMD가 사용자가 무엇을 보는지를 결정하는 것을 가능하게 한다.
[60] 추적 수단은 다양한 추적 알고리즘들 중 임의의 것을 고용할 수 있다. 특정 추적 알고리즘들은 물체와 연관된 단일 포인트(예를 들면, 투명한 디스플레이 영역 상의 좌표) 및/또는 영역 및/또는 물체(예를 들면, 사용자의 손(들))에 대한 위치를 간단히 추적할 수 있다. 더 정교한 추적 알고리즘들은 물체의 거리와 같은 다른 특징들을 추적할 수 있다. 실시예들은 또한 AR 상호작용을 위해 다수의 및/또는 상이한 타겟을 추적할 수 있다.
[61] 일단 블록(215)을 사용하여 복수의 AR 물체들이 사용자에게 디스플레이되면, 사용자는 선택된 물체의 추가의 조작을 위해, 블록(220)에 설명된 바와 같이, 특정 AR 물체를 선택하기를 원할 수 있다.
[62] 예를 들면, 사용자가 HMD를 착용하고 있을 때, 복수의 AR 물체와 연관된 광고 및 배너들(banners)이 팝 업(pop up)할 수 있다. 모든 기능들이 동시에 활성화된다면, 이것은 산만하고 짜증스러울 수 있다. ROI의 크기를 감소시킴으로써, 사용자는 상호작용을 위한 AR 물체들의 수를 감소시킬 수 있다.
[63] 블록(220)에서, 사용자는, 도 3a 및 도 3b에 추가로 예시된 바와 같이, 사용자의 손의 이동에 기초하여 ROI의 크기를 감소 또는 확대할 수 있다. 실시간 사용자 피드백을 사용하여 ROI를 조작함으로써, 사용자(110)는 특정 AR 물체를 실시간으로 선택할 수 있다. 여기서 다시, ROI의 크기를 감소 또는 확대하기 위한 수단은 ROI를 보여주는 디스플레이에 커플링된 프로세싱 유닛, 메모리 및/또는 다른 컴퓨팅 수단을 포함할 수 있다.
[64] 블록(225)에서, HMD(120)는, 블록(220)으로부터의 크기 감소된 ROI를 사용하여, 블록(215)에서 복수의 AR 물체들로부터 특정 AR 물체를 선택한다. 예를 들면, 퀄컴의 뷰포리아(Vuforia)를 사용하여, AR 타겟들이 HMD(120)에 의해 HMD 디스플레이(140) 상에 디스플레이될 수 있다.
[65] 증강 현실 기능은, 사용자가 사용자의 주위환경 주위에서 보다 많이 학습하는 것을 가능하게 하기 위한 무수한 시나리오들에서 이용될 수 있다. 예를 들어, 도 6 및 도 7에 나중에 설명되는 바와 같이, HMD(120)는 영화 포스터와 연관된 AR을 갖는 영화 포스터를 인식할 수 있고, 이어서, HMD(120)는 다른 손 제스처를 통해 활성화될 수 있는 가상 "플레이 트레일러(play trailer)" 버튼을 디스플레이할 수 있다. 무수한 다른 시나리오들이 고려된다. 따라서, 본원에 제공된 기술들은, 사용자의 관점으로부터 선택된 물체로, 디지털 콘텐츠의 엘리먼트들과의 상호작용들을 가능하게 하는 증강 현실 시나리오들로 확장될 수 있다. 이러한 상호작용적 엘리먼트들이 사용자의 주위환경 내의 선택된 물체들에 바인딩되기 때문에, HMD의 디스플레이(140) 상의 대응하는 ROI는 선택된 물체의 위치에 대해 이동 및 스케일링할 수 있다. 부가적으로, 일부 실시예들에 따라, 이어서, 선택된 AR 물체는 도 6 및 도 8에 설명된 방법들을 사용하여 추가로 조작될 수 있다.
[66] AR 플랫폼의 예는, 일단 사용자가 증강 현실의 사용을 통해 타겟을 선택하였다면, HMD 및/또는 모바일 디바이스의 디스플레이(140)에 더 많은 정보를 제공할 수 있는 퀄컴 뷰포리아TM 증강 현실 플랫폼이다. 예를 들면, 뷰포리아의 컴퓨터 비전 기능은 다양한 2D 및 3D 시각적 타겟들을 인식하고, 인식된 타겟들과 연관된 AR을 디스플레이할 수 있다. 따라서, 사용자는 실세계 타겟을 선택하고, 선택된 타겟과 연관된 AR이 HMD(120)의 디스플레이(140) 상에 디스플레이될 수 있다. 일부 경우들에서, 광고는 인쇄된 페이지를 뛰어 넘거나, 제품 패키징은 소매점 선반들 상에서 실현될 수 있다. 부가적으로, 제품들 자체들은 명령들을 제공하기 위한 개선된 상호작용성을 제공할 수 있다.
[67] 따라서, AR은 인쇄 매체들 및 광고, 소비자 제품들 및 패키징, 및 교육 자료들의 가치를 개선할 수 있다. 블록(225)에서 선택된 타겟과 연관된 AR은 실세계 상호작용성을 가능하게 할 수 있다. 예를 들면, AR은 소매점 환경들에서 인쇄 광고, 제품들 및 패키징과 연관될 수 있다.
[68] 도 2에 예시된 특정 단계들이 HMD(120)와의 사용자 상호작용을 가능하게 하는 방법(200)의 예를 제공한다는 것이 인지되어야 한다. 대안적인 실시예들은 도시된 실시예들에 대한 변경들을 포함할 수 있다. 예를 들면, 대안적인 실시예들은 투명한 디스플레이 영역 내에 형상을 정의하는 것, ROI의 윤곽을 나타내는 형상을 디스플레이하는 것, 방법(200) 동안에 상이한 포인트들에서 AR(들)을 디스플레이하는 것을 포함할 수 있다. 또 다른 실시예들은 ROI를 정의하는 것을 교정하기 위한 동작들을 수행하는 것, 형상을 디스플레이하는 것 및 HMD(120)의 디스플레이 컴포넌트들을 통해 컴포넌트들을 추적하는 것을 포함할 수 있다. 또한, 특정 애플리케이션들에 따라 부가적인 특징들이 부가, 제거 또는 결합될 수 있다. 당업자는 많은 변형들, 수정들 및 대안들을 인지할 것이다.
[69] 사용자의 제스처에 기초한 ROI의 정의
[70] 도 3a 및 도 3b는 특정 AR 물체(320)를 선택하기 위해 HMD들과 상호작용하는 무터치 방법을 예시한다. 자연적인 인간 신체 제스처를 검출함으로써, HMD(120)는 안경을 통해 보여지는 이미지 또는 비디오를 캡처하도록 트리거링될 수 있다. 도 3a에 예시된 바와 같이, 손가락들 및 엄지들이 에지들인 직사각형이 형성되는 그러한 방식으로 손들이 배치된다. 이러한 직사각형 내부의 영역은 사용자(110)의 관심 영역(ROI)으로서 처리될 수 있다.
[71] 도 3a는, 블록(205)에서 이전에 설명된 바와 같이, 사용자의 제스처에 기초하여 ROI(305)를 정의하기 위한 방법을 예시한다. 예를 들면, 제스처는, 양 손들의 검지(350) 및 엄지(355) 손가락들을 직교 방향으로 지시하는 것을 수반할 수 있다.
[72] 도 3a에 예시된 바와 같이, 제스처는, 직사각형을 생성하기 위해 양 손들의 검지 및 엄지 손가락들을 직교 방향으로 지시하는 것을 포함할 수 있다. 일 경우에, 제스처는 C-형상을 형성하기 위해 엄지(355) 및 손가락들(360)을 사용하는 것을 포함할 수 있다. 다른 경우들에서, 제스처는 주먹, 펼쳐진 손, 손가락(들)을 사용한 포인팅, 손 회전, 웨이브, 하나 이상의 손가락들의 이동 및 이들의 임의의 조합을 포함할 수 있다.
[73] 도 3b는 특정 AR 물체(320)를 선택하기 위해 ROI(305)의 크기를 감소 또는 확대하기 위한 방법을 예시한다. 예를 들면, 제스처는 ROI의 크기를 감소시키기 위해 손들을 함께 안으로 들여오는(bring in) 것을 수반할 수 있다. 대안적으로, 제스처는 ROI의 크기를 확대하기 위해 손들을 외부로 이동시키는 것을 수반할 수 있다.
[74] 다른 실시예들에 따라, 일단 ROI가 정의되었다면, 사용자는 후속의 사용자 제스처를 사용하여 ROI 내부의 AR 물체들을 조작할 수 있다. 예를 들면, 제스처는 ROI를 재크기 설정하기 위해 사용자의 손들을 떨어져/더 가깝게 끌어당기는 것을 포함할 수 있다. 다른 경우들에서, 후속의 사용자 제스처는 사진을 찍기 위한 탭 제스처, 스크린에 걸쳐 AR 물체를 안내하기 위한 푸시 제스처, AR 물체를 이동시키기 위한 플릭 제스처, AR 물체를 회전시키기 위한 턴 제스처, 줌 동작들을 위한 그랩/풀 제스처, 미디어를 통한 스크롤링을 위한 스와이프 제스처 및 이들의 임의의 조합을 포함할 수 있다.
[75] HMD(120)는 사용자의 손(130)을 추적하여, 사용자(110)가 상호작용하고 ROI(305)를 정의하는 것을 가능하게 할 수 있다. 예를 들면, 사용자는, 가령, 직사각형을 형성하기 위해 사용자의 손(130)을 이동시키거나, 카메라 촬영 포즈에 관여하거나, 미리 결정된 이동을 수행하거나, 임계 시간의 양 동안에 손 형상을 엘리먼트의 근접도 내에서 유지함으로써 다양한 방식들로 제스처를 취할 수 있다.
[76] 카메라-촬영 포즈의 예는 사용자(110)가 자신의 손들을 사용하여 2 개의 C-형상을 생성하는 것이다. 그러나, 카메라-촬영 포즈의 경우에, 손들은 대각선이 아닌 수평으로만 떨어져 이동될 수 있고, 따라서 ROI의 재크기 설정은 더 큰 직사각형 영역, 즉, 단지 더 넓은 것으로만 재정의되지 않을 수 있다.
[77] 다른 실시예에서, ROI는, 카메라 뷰의 중심과 사용자의 손(130) 사이의 거리에 관련하여 ROI를 토대로 L-형상의 하나의 손에 기초할 수 있다. 이러한 예에서, HMD(120)에서 사용자의 시야 및 손에 의해 정의된 "L"의 코너가 있는 곳은 ROI를 정의하는데 사용될 수 있다. HMD(120)로부터의 피드백은, 디스플레이(140)의 중심을 마킹하는 작은 레드 도트(red dot) 및 ROI의 경계를 마킹하는 직사각형일 수 있다. ROI는 중심 시야에 대해 사용자의 손(130)에 따라 더 크거나 더 작게 될 수 있다.
[78] HMD(120)는, 제스처의 선택을 인식한 후에, 사용자에게 형상(315)을 HMD 상에서 디스플레이할 수 있다. 형상(315)(예를 들면, 직사각형 오버레이)은 ROI(305)의 윤곽을 나타낼 수 있다. 사용자는 손(들)을 안쪽으로 또는 밖으로 이동시킴으로써 ROI(305)를 실시간으로 조정할 수 있다. 원하는 기능에 따라, 단지 하나의 손이 사용되는 경우에, HMD(120) 상에 디스플레이되는 형상은 디스플레이 상의 도트(예를 들면, 디스플레이 중간의 도트)로 앵커링될 수 있어서, 이에 따라 사용자가, 형상의 경계의 윤곽을 나타내기 위해 양 손들을 사용할 필요 없이, 형상을 조정할 수 있다.
[79] 예를 들면, HMD(120)는, 손들의 형상에 의해 형성된 윤곽 또는 손가락 팁들을 추적함으로써 ROI(305)(예를 들면, 직사각형)를 식별한다. 일단 ROI(305)가 검출되면, HMD(120)는, 블록(210)에서 이전에 언급된 바와 같이, 사용자에게 HMD 안경 상의 형상(315)의 오버레이된 프로젝션으로서 디스플레이한다. 이어서, 사용자는, 도 3b에 도시된 바와 같이, 불개입 전에 손들을 이동시킴으로써, 블록(220)에서 이전에 언급된 바와 같이, ROI의 크기를 조정할 수 있다.
[80] 도 3b는 선택된 ROI가 실시간 사용자 입력에 기초하여 조정될 수 있는 방법을 예시한다. 예를 들면, ROI(305)는 초기에 도 3a에서 사용자에 의해 선택된다. 도 3b에서, AR 물체(320)는 손들을 함께 더 가깝게 또는 더 멀리 떨어져 이동시킴으로써 선택될 수 있다. 물체 인식 기술들을 사용하는 HMD는, 사용자의 손 이동에 기초하여 ROI(305)가 감소하는지 또는 확대되고 있다는 것을 결정할 수 있다.
[81] 다른 실시예에 따라, 시스템은 HMD 상의 카메라를 활성화하기 위해 손 제스처들 및/또는 음성 커맨드들을 사용할 수 있다. 일단 크기 감소된 ROI가 식별되면, 픽처 및/또는 비디오는 ROI(305) 내부의 이미지의 캡처일 수 있다. 대안적으로, 제스처 메커니즘 및 음성 커맨드는, 최종 미리 결정된 듀레이션(예를 들면, 30 초)으로부터 모든 프레임들을 저장하도록 HMD에 표시하기 위한 트리거로서 사용될 수 있다.
[82] 또한, 불개입 이벤트는, 손들이 타겟의 시야로부터 충분히 떨어져 있을 때 발생할 수 있다. 불개입 이벤트는 또한, 손가락들 및 엄지들이 함께 가깝게 되는 경우 또는 음성 구동 커맨드에 의해 발생할 수 있다. 불개입 이벤트는, ROI(305)의 검출 및 선택이 완료되었다고 HMD(120)에 시그널링할 수 있다. 따라서, 일 실시예에 따라, HMD(120)는 센서들 중 일부를 턴 오프하고, 저전력 모드로 들어갈 수 있다.
[83] 불개입 이벤트는, 손들이 충분히 가깝지 않을 때를 포함할 수 있다. HMD(120)는 손들 및 손들의 에지에 의해 연속해서 형성된 형상을 추적할 수 있고, 따라서, HMD(120)는 손들이 미리 결정된 거리만큼 떨어져 있을 때를 결정할 수 있다.
[84] 따라서, HMD(120)는, 손들이 임계치보다 더 많이 떨어져 이동되었는지를 결정할 수 있고, 불개입이 발생하였다고 가정될 수 있다. 예를 들면, 사용자는, 자신의 손들이 ROI에 가깝지 않도록 자신의 손을 떨어져 이동시킬 수 있다.
[85] 그러나, HMD(120)는, 사용자가 관심 영역을 더 크게 만들려고 할 때 또는 사용자가 손들이 떨어져 이동할 때 개입하지 않으려고 하는지를 구별할 수 있는 특징을 구현할 수 있다. 예를 들면, HMD(120)는 ROI에 대한 손들의 위치 및 손 이동의 속도에 기초하여 ROI의 재크기 설정 대 불개입 이벤트 사이를 구별할 수 있다.
[86] 대안적으로, 단지 하나의 손을 가깝게 하는 것은 불개입 이벤트일 수 있다. 예를 들면, HMD(120)가 손들의 윤곽들로부터 팔각형의 프레임을 검출할 수 없다고 HMD(120)가 결정하면, HMD(120)는 사용자가 개입하지 않았다고 가정할 수 있다.
[87] 복수의 AR 물체들의 디스플레이
[88] 도 4는 HMD(120)의 디스플레이(140)를 통한 사용자의 뷰의 예를 예시한다. 도 4에 예시된 바와 같이, ROI(305) 내부의 타겟들과 연관된 복수의 AR 물체들이 디스플레이(140) 상에 보여진다. 블록(215)에서 이전에 언급된 바와 같이, 사용자가 ROI(305)를 선택한 후에, HMD(120)는 ROI 내부의 타겟과 연관된 복수의 AR 물체들(예를 들면, POI들(point-of-interests))을 사용자게 디스플레이한다. 부가적으로, 초기에 ROI 내부의 타겟들은, 사용자가 사용자의 시야 또는 ROI(305)를 이동시킬 때, 추적될 수 있다.
[89] 일단 ROI(305)가 정의되면, HMD(120)는 연관된 AR 애플리케이션들을 갖는 타겟들을 사용자에게 디스플레이할 수 있다. 일단 HMD가 ROI(305)를 검출하고 및/또는 ROI의 윤곽을 나타내는 형상(315)을 사용자에게 디스플레이하면, HMD는 AR 애플리케이션들을 개시할 수 있다. HMD가 ROI(305)를 검출한 후에, HMD는 ROI(305) 내에서 연관된 AR 애플리케이션을 개시할 수 있다. 예를 들면, 도 4에서, 연관된 AR 애플리케이션들을 갖는 5 개의 물체들(예를 들면, POI)이 사용자에게 디스플레이된다. 이러한 예에서, 다음의 5 개의 물체들: 50 미터 떨어진 리타의 패션(405); 스타벅스(410); 헨리의 식당(415); 헨리의 식당(420); 및 영화관(425)이 ROI 내부에 있다. 일 실시예에 따라, 디스플레이(140)는 또한 물체들에 관한 다른 관련 정보(예를 들면, 리뷰들, 사용자로부터의 거리)를 보여줄 수 있다.
[90] 일부 경우들에서, 광고자들은 자신들의 프로젝트 배너들/로고/포장지들을 AR 타겟들로서 등록할 수 있다. 예를 들면, 퀄컴 뷰포리아를 사용하여, 타겟들은, AR을 사용하여 HMD 디스플레이(140) 상에 디스플레이될 수 있는 부가적인 정보를 가질 수 있다. 따라서, 사용자가 AR 타겟(320)을 선택하기 위해 ROI(305)를 감소시킬 때, 선택된 타겟과 연관된 AR 애니메이션은 추가의 정보를 제공할 수 있다.
[91] 도 5는 사용자에 의해 감소된 ROI(305)의 예를 예시하고, 이것은 디스플레이(140) 상에 더 적은 AR 타겟들 또는 POI들이 보여지게 한다. 블록(220)에서 설명된 바와 같이, 사용자는 손 제스처들을 사용하여(예를 들면, 손들을 더 가깝게 이동시킴으로써) ROI(305)의 크기를 감소시킬 수 있다. 크기 감소된 ROI를 사용하여, 도 5의 디스플레이(140)는 이제 ROI 내부에 세(3) 개의 POI들(스타벅스(505), 헨리의 식당(510), 헨리의 식당(515))만을 갖는다. ROI의 크기를 감소시킴으로써, ROI 내부의 타겟들의 수는 도 4에서 5 개의 POI들로부터 도 5에서 3 개의 POI들로 감소되었다. 다른 실시예에 따라, 사용자는, 단지 하나의 AR 타겟(320)이 ROI(305) 내부에 있도록 ROI의 크기를 추가로 감소시킬 수 있다.
[92] 일부 실시예들에 따라, 선택된 AR 타겟(320)은 자신과 연관된 다수의 증강들을 가질 수 있다. 이러한 시나리오 동안에, 사용자는, 선택된 AR 타겟(320)에 대한 특정 계층의 증강을 선택하기 위해, 도 6 및 도 7에 추가로 설명되는 바와 같이, VOI(volume-of-interest) 기술들을 사용할 수 있다.
[93] 선택된 타겟이 다수의 증강들을 가질 때 관심 볼륨의 사용
[94] 도 6은 타겟의 방향(예를 들면, z-축)을 따라 손 제스처들을 사용하여 VOI(volume-of-interest)를 정의하는 방법(600)의 실시예를 예시한 흐름도이다. 예를 들면, 사용자는 z-축을 따라 하나 이상의 손들을 스크롤링함으로써 동일한 타겟에 대한 상이한 증강들 또는 지오-로케이팅된 포인트들을 통해 브라우징할 수 있다. 도 2에 도시된 바와 같이, 사용자는 타겟을 선택하기 위해 ROI의 크기를 감소시켰다. 타겟을 선택한 후에, 일부 경우들에서, 선택된 타겟은 자신과 연관된 다수의 증강들을 가질 수 있다.
[95] 블록(605)에서, HMD는, 도 2에서 이전에 설명된 바와 같이, 사용자의 제스처에 기초하여 ROI를 이미 정의하였다. 실시간 사용자 피드백을 사용하여 ROI를 조작함으로써, 사용자는 블록(225)과 유사하게 특정 AR을 실시간으로 선택할 수 있다. 또한, 다수의 증강들이 정해진 AR 타겟과 연관되면, 사용자는 블록(610)에 설명된 방법을 사용하여 특정 계층을 지정할 수 있다.
[96] 블록(610)에서, 사용자는 선택된 타겟의 방향(예를 들면, z-축)으로 스크롤링함으로써 다수의 증강들을 통해 브라우징할 수 있다. 예를 들면, 사용자는, 도 7에 예시된 바와 같이, VOI를 사용하여 타겟의 방향으로 스크롤링하여 증강들을 브라우징함으로써 AR 타겟(320)에 대한 특정 계층의 증강을 선택할 수 있다.
[97] 블록(615)에서, 시스템은 사용자의 손 위치에 기초하여(예를 들면, 도 7에 예시된 바와 같이 z-축을 따라) 선택된 타겟과 연관된 상이한 증강들을 사용자에게 디스플레이한다.
[98] 도 7은 사용자의 손 위치에 기초한 상이한 증강의 실시간 상호작용 및 디스플레이를 예시한다. 예를 들면, 사용자는 도 2에 설명된 방법을 사용하여 영화 포스터를 선택할 수 있다. 일부 경우들에서, 선택된 영화 포스터와 연관된 다수의 증강들이 존재할 수 있다. 도 6에 설명된 방법을 사용하여, 사용자는 영화 포스터와 연관된 상이한 증강들을 통해 브라우징할 수 있다.
[99] 도 7의 상이한 위치들에 예시된 바와 같이, 사용자의 손 위치에 기초하여 상이한 증강들이 사용자에게 디스플레이될 수 있다. 예를 들면, 사용자의 손 위치가 (705)에 있을 때, HMD(120)의 디스플레이(140)는 영화의 제목 및 리뷰들을 보여준다. 사용자의 손 위치가 위치(705)에 대해 타겟(720)의 방향(예를 들면, z-축)으로 더 가깝게 이동할 때, 위치(710)가 발생할 수 있다. 이러한 예에서, 위치(710)에서, 영화의 트레일러를 플레이하기 위한 증강이 디스플레이(140) 상에 보여진다. 사용자의 손 위치가 타겟에 더 가깝게 이동할 때, 위치(715)에서, 영화의 상영 시간들 및 티켓들을 온라인으로 구매하기 위한 옵션이 디스플레이될 수 있다. 마지막으로, 이러한 예에서, 타겟(720)에 가장 가까운 위치에서, HMD(120)는 영화와 연관된 이미지들을 디스플레이할 수 있다.
[100] 도 6 및 도 7의 예에 의해 예시된 바와 같이, HMD(120)는 VOI를 정의하기 위해 손 위치들 및/또는 손 제스처들을 사용할 수 있다. VOI에 기초하여, HMD(120)는 선택된 타겟과 연관된 상이한 증강들을 디스플레이할 수 있다. 대안적으로, 일단 타겟이 선택되면, HMD(120)는, 도 8에 예시된 바와 같이, 사용자의 선호도들 또는 미리 결정된 제스처 인식 기능들에 기초하여 다른 모드들을 구현할 수 있다.
[101] 일단 타겟이 선택된 경우에, 다른 구현들의 예
[102] 도 8은 선택된 ROI에 기초하여 스마트 애플리케이션을 개시하는 방법(800)의 실시예를 예시한 흐름도이다. 스마트 애플리케이션의 일 예는 시각적 번역기를 포함할 수 있다. 예를 들면, ROI 내부에서 캡처된 이미지가 시각적 탐색 시스템 또는 OCR에 제공될 수 있다. 이러한 예에서, OCR은 이미지로부터 텍스트를 결정 및 인식하는데 사용될 수 있다. 인식된 문자들에 기초하여, 번역기는 자동적으로 번역할 수 있고, 결과들이 디스플레이(140) 상에 디스플레이될 수 있다.
[103] 이러한 실시예를 예시하기 위해, 블록(805)에서, 사용자는 번역을 위한 특정 타겟 또는 텍스트를 선택할 수 있다. 도 2에 설명된 방법과 마찬가지로, 사용자는 번역을 위한 텍스트를 선택하기 위해 ROI(305)의 윤곽을 나타내도록 손 제스처들을 사용할 수 있다.
[104] 블록(810)에서, 사용자는 ROI(305) 내의 특정 텍스트의 번역을 요청할 수 있다. 예를 들면, 사용자는 번역을 개시하기 위해 음성 커맨드들 또는 미리 결정된 손 제스처들을 사용할 수 있다. 대안적으로, HMD(120)는 자동적으로 외국 언어를 인식하고, 사용자로부터의 요청 없이 번역을 개시할 수 있다.
[105] 블록(815)에서, HMD(120)는 ROI(305) 내의 텍스트를 인식하기 위해 시각적 탐색 시스템 또는 OCR을 사용할 수 있다. 텍스트 인식을 위한 종래의 방법들이 HMD(120)에 의해 사용될 수 있다.
[106] 블록(820)에서, HMD(120)는 인식된 텍스트를 사용자에 의해 지정된 언어로 번역하고, 이것을 디스플레이(140) 상에 보여줄 수 있다. 예를 들면, 언어는 디폴트 언어이거나, 이전의 사용에 기초하여 미리 결정되거나, 또는 사용자에 의해 실시간으로 지정될 수 있다. 부가적으로, HMD(120)는 번역된 텍스트를 사용자(110)에게 소리내어 읽을 수 있다. 텍스트 번역을 위한 종래의 방법들이 HMD(120)에 의해 사용될 수 있다.
[107] 도 8은, 일단 타겟이 손 제스처들을 사용하여 선택되는 경우의 일 구현의 예를 예시한다. 대안적인 실시예들은 도시된 실시예들에 대한 변형들을 포함할 수 있다. 예를 들면, 대안적인 실시예들은 HMD가 외국 언어를 자동으로 인식하고 사용자로부터의 요청 없이 텍스트를 번역하는 것을 포함할 수 있다. 또한, 특정 애플리케이션들에 따라 부가적인 특징들이 부가, 제거 또는 결합될 수 있다. 당업자는 많은 변형들, 수정들 및 대안들을 인식할 것이다.
[108] 다른 실시예에 따라, ROI는 비디오 공유를 위해 시야를 좁히기 위해 사용될 수 있다. HMD(120)는 협력 모드 동안에 공유된 뷰로서 ROI를 사용할 수 있다. 사용자가 자신의 시야의 일부를 공유하기를 원할 때, 사용자는 도 2에 설명된 방법을 사용하여 ROI(305)를 선택할 수 있다. 협력 모드 동안에, HMD(120)는 ROI(305)를 비디오 기반 통신을 위한 공유된 뷰로서 처리할 수 있어서, 자신의 시야 중 일부(예를 들면, 프리젠테이션, 문서)만이 원격 사용자들과 공유된다. 일 실시예에 따라, 일단 불개입 이벤트가 발생하면, 공유된 뷰는 완료될 수 있다. 대안적인 실시예들은 도시된 실시예들에 대한 변경들을 포함할 수 있다. 또한, 특정 애플리케이션들에 따라 부가적인 특징들이 부가, 제거 또는 결합될 수 있다.
[109] 도 9는 하나 이상의 실시예들이 구현될 수 있는 컴퓨팅 시스템의 예를 예시한다.
[110] 컴퓨터 시스템(900)은, 로컬 및/또는 네트워크 액세스가능한 저장부를 제한없이 포함할 수 있고 그리고/또는 디스크 드라이브, 드라이브 어레이, 광학 저장 디바이스, 랜덤 액세스 메모리("RAM")와 같은 고체-상태 저장 디바이스, 및/또는 프로그래밍가능, 플래시-업데이트가능 등이 가능할 수 있는 판독-전용 메모리("ROM")를 제한없이 포함할 수 있는 하나 이상의 비-일시적인 저장 디바이스들(925)을 더 포함(및/또는 그들과 통신)할 수 있다. 그러한 저장 디바이스들은, 다양한 파일 시스템들, 데이터베이스 구조들 등을 제한없이 포함하는 임의의 적절한 데이터 저장부들을 구현하도록 구성될 수 있다. 예를 들면, 저장 디바이스들(925)은, 사용자가 최종 미리 결정된 듀레이션으로부터 모든 프레임들을 캡처하기를 원하는 경우에, HMD(120)의 카메라(150)로부터 캡처된 비디오를 버퍼링하는데 사용될 수 있다.
[111] 컴퓨터 시스템(900)은, 모뎀, 네트워크 카드(무선 또는 유선), 적외선 통신 디바이스, 무선 통신 디바이스, 및/또는 (블루투스TM 디바이스, 802.11 디바이스, WiFi 디바이스, WiMax 디바이스, 셀룰러 통신 설비들 등과 같은) 칩셋 등을 제한없이 포함할 수 있는 통신 서브시스템(930)을 또한 포함할 수 있다. 통신 서브시스템(930)은, 데이터가 네트워크, 다른 컴퓨터 시스템들, 및/또는 임의의 다른 전기 디바이스들/주변장치들과 교환되도록 허용하기 위한 하나 이상의 입력 및/또는 출력 통신 인터페이스들을 포함할 수 있다. 많은 실시예들에서, 컴퓨터 시스템(900)은 상술된 바와 같이, RAM 또는 ROM 디바이스를 포함할 수 있는 작업 메모리(935)를 더 포함할 것이다. 통신 서비시스템(930)은 HMD(120)를 사용자의 스마트폰에 링크하는데 사용될 수 있다.
[112] 컴퓨터 시스템(900)은, 본 명세서에 설명된 바와 같이, 운영 시스템(940), 디바이스 드라이버들, 실행가능한 라이브러리들, 및/또는 다양한 실시예들에 의해 제공되는 컴퓨터 프로그램들을 포함할 수 있고, 그리고/또는 다른 실시예들에 의해 제공된 방법들을 구현하고 그리고/또는 시스템들을 구성하도록 설계될 수 있는 하나 이상의 애플리케이션(들)(945)과 같은 다른 코드를 포함하는, 작업 메모리(935) 내에 현재 로케이팅되는 것으로 도시되는 소프트웨어 엘리먼트들을 또한 포함할 수 있다. 단지 예로서, 도 2에 관련하여 설명된 방법(200)과 같이, 앞서 논의된 방법(들)에 대해 설명된 하나 이상의 절차들 중 일부는 컴퓨터(및/또는 컴퓨터 내의 프로세싱 유닛)에 의해 실행가능한 코드 및/또는 명령들로서 구현될 수 있고; 일 양상에서, 그 후, 그러한 코드 및/또는 명령들은, 설명된 방법들에 따라 하나 이상의 동작들을 수행하도록 범용 컴퓨터(또는 다른 디바이스)를 구성 및/또는 적응하는데 사용될 수 있다.
[113] 이들 명령들 및/또는 코드의 세트는, 상술된 저장 디바이스(들)(925)와 같은 비-일시적인 컴퓨터-판독가능 저장 매체 상에 저장될 수 있다. 몇몇 경우들에서, 저장 매체는 컴퓨터 시스템(900)과 같은 컴퓨터 시스템 내에 포함될 수 있다. 다른 실시예들에서, 저장 매체는 컴퓨터 시스템(예를 들어, 광학 디스크와 같은 착탈형 매체)으로부터 분리될 수 있고, 그리고/또는 설치 패키지에 제공될 수 있어서, 저장 매체는, 명령들/코드가 저장된 범용 컴퓨터를 프로그래밍, 구성 및/또는 적응하는데 사용될 수 있다. 이들 명령들은, 컴퓨터 시스템(900)에 의해 실행가능한 실행가능 코드의 형태를 취할 수 있고, 그리고/또는 소스 및/또는 설치가능한 코드의 형태를 취할 수 있으며, 그 후, 그 소스 및/또는 설치가능한 코드는 (예를 들어, 임의의 다양한 일반적으로 이용가능한 컴파일러들, 설치 프로그램들, 압축/압축해제 유틸리티들 등을 사용하여) 컴퓨터 시스템(900) 상에서의 컴필레이션 및/또는 설치 시에, 실행가능한 코드의 형태를 취한다.
[114] 실질적인 변화들이 특정한 요건들에 따라 행해질 수 있다는 것은 당업자들에게는 명백할 것이다. 예를 들어, 맞춤화된 하드웨어가 또한 사용될 수 있고, 그리고/또는 특정한 엘리먼트들이 하드웨어, (애플릿(applet)들 등과 같은 휴대용 소프트웨어를 포함하는) 소프트웨어, 또는 둘 모두로 구현될 수 있다. 추가적으로, 네트워크 입력/출력 디바이스들과 같은 다른 컴퓨팅 디바이스들로의 접속이 이용될 수 있다.
[115] 상술된 바와 같이, 일 양상에서, 몇몇 실시예들은, 본 발명의 다양한 실시예들에 따른 방법들을 수행하기 위해 (컴퓨터 시스템(900)과 같은) 컴퓨터 시스템을 이용할 수 있다. 실시예들의 세트에 따르면, 그러한 방법들의 절차들 중 몇몇 또는 전부는, 프로세서(910)가 작업 메모리(935)에 포함된 (운영 시스템(940) 및/또는 애플리케이션 프로그램(945)과 같은 다른 코드에 포함될 수 있는) 하나 이상의 명령들의 하나 이상의 시퀀스들을 실행하는 것에 응답하여, 컴퓨터 시스템(900)에 의해 수행된다. 그러한 명령들은, 저장 디바이스(들)(925) 중 하나 이상과 같은 다른 컴퓨터-판독가능 매체로부터 작업 메모리(935)로 판독될 수 있다. 단지 예로서, 작업 메모리(935)에 포함된 명령들의 시퀀스들의 실행은 프로세서(들)(910)로 하여금, 본 명세서에 설명된 방법들의 하나 이상의 절차들을 수행하게 할 수 있다. 부가적으로 또는 대안적으로, 본 명세서에 설명된 방법들 중 일부분들은 특수화된 하드웨어를 통해 실행될 수 있다. 단지 예로서, 도 2에 관련하여 설명된 방법(200)과 같이, 앞서 논의된 방법(들)에 관련하여 설명된 하나 이상의 절차들 중 일부는 HMD(120) 내의 프로세서(910)에 의해 구현될 수 있다. 대안적으로, HMD(120)는 통신 서브시스템(930)을 통해 스마트폰에 링크될 수 있고, 도 2의 방법은 스마트폰 내의 프로세서(910)에 의해 구현될 수 있다.
[116] 본 명세서에서 사용된 바와 같이, 용어들 "머신-판독가능 매체" 및 "컴퓨터-판독가능 매체"는, 머신으로 하여금 특정한 방식으로 동작하게 하는 데이터를 제공하는 것에 참가하는 임의의 매체를 지칭한다. 컴퓨터 시스템(900)을 사용하여 구현된 실시예에서, 다양한 컴퓨터-판독가능 매체들은, 실행을 위해 프로세서(들)(910)에 명령들/코드를 제공하는 것에 수반될 수 있고 그리고/또는 그러한 명령들/코드를 저장 및/또는 반송하는데 사용될 수 있다. 많은 구현들에서, 컴퓨터-판독가능 매체는 물리적 및/또는 유형의 저장 매체이다. 그러한 매체는 비-휘발성 매체들 또는 휘발성 매체들의 형태를 취할 수 있다. 비-휘발성 매체들은, 예를 들어, 저장 디바이스(들)(925)와 같은 광학 및/또는 자기 디스크들을 포함한다. 휘발성 매체들은, 작업 메모리(935)와 같은 동적 메모리를 제한없이 포함한다.
[117] 일반적인 형태들의 물리적 및/또는 유형의 컴퓨터-판독가능 매체들은, 예를 들어, 플로피 디스크, 플렉시블 디스크, 하드 디스크, 자기 테이프, 또는 임의의 다른 자기 매체, CD-ROM, 임의의 다른 광학 매체, 홀(hole)들의 패턴들을 갖는 임의의 다른 물리적 매체, RAM, PROM, EPROM, FLASH-EPROM, 임의의 다른 메모리 칩 또는 카트리지, 또는 컴퓨터가 명령들 및/또는 코드를 판독할 수 있는 임의의 다른 매체를 포함한다.
[118] 다양한 형태들의 컴퓨터-판독가능 매체들은, 실행을 위해 하나 이상의 명령들의 하나 이상의 시퀀스들을 프로세서(들)(910)에 반송하는 것에 수반될 수 있다. 단지 예로서, 명령들은 초기에, 원격 컴퓨터의 자기 디스크 및/또는 광학 디스크 상에서 반송될 수 있다. 원격 컴퓨터는 컴퓨터 시스템(900)에 의해 수신되고 그리고/또는 실행되기 위해, 자신의 동적 메모리로 명령들을 로딩할 수 있고, 송신 매체를 통해 신호들로서 명령들을 전송할 수 있다.
[119] 통신 서브시스템(930)(및/또는 그의 컴포넌트들)은 일반적으로 신호들을 수신할 것이며, 그 후, 버스(905)는, 프로세서(들)(910)가 명령들을 리트리브 및 실행하는 작업 메모리(935)에 신호들(및/또는 신호들에 의해 반송된 데이터, 명령들 등)을 반송할 수 있다. 작업 메모리(935)에 의해 수신된 명령들은 선택적으로, 프로세서(들)(910)에 의해 실행되기 전에 또는 그 이후에 비-일시적인 저장 디바이스(925) 상에 저장될 수 있다.
[120] 앞서 논의된 방법들, 시스템들, 및 디바이스들은 예들이다. 다양한 구성들은 적절할 때 다양한 절차들 또는 컴포넌트들을 생략, 대체, 또는 부가할 수 있다. 예를 들어, 대안적인 구성들에서, 방법들은 그 설명된 것과는 상이한 순서로 수행될 수 있고, 그리고/또는 다양한 스테이지들이 부가, 생략, 및/또는 결합될 수 있다. 또한, 특정한 구성들에 대해 설명된 특성들은 다양한 다른 구성들에서 결합될 수 있다. 구성들의 상이한 양상들 및 엘리먼트들은 유사한 방식으로 결합될 수 있다. 또한, 기술이 진보하며, 따라서, 엘리먼트들의 대부분은 예들이고, 본 발명 또는 청구항들의 범위를 제한하지 않는다.
[121] 특정한 세부사항들이, (구현들을 포함하는) 예시적인 구성들의 완전한 이해를 제공하기 위해 설명부에서 제시되었다. 그러나, 구성들은 이들 특정한 세부사항들 없이 실시될 수 있다. 예를 들어, 잘 알려진 회로들, 프로세스들, 알고리즘들, 구조들, 및 기술들은 구성들을 모호하게 하는 것을 회피하기 위해 불필요한 세부사항 없이 도시된다. 이러한 설명은 단지 예시적인 구성들을 제공할 뿐이며, 청구항들의 범위, 적용가능성, 또는 구성들을 제한하지 않는다. 오히려, 구성들의 이전 설명은, 설명된 기술들을 구현하는 것을 가능하게 하는 설명을 당업자들에게 제공할 것이다. 본 발명의 사상 또는 범위를 벗어나지 않으면서 다양한 변화들이 엘리먼트들의 기능 및 어레인지먼트에서 행해질 수 있다.
[122] 또한, 구성들은, 흐름도 또는 블록도로서 도시된 프로세스로서 설명될 수 있다. 각각이 순차적인 프로세스로서 동작들을 설명할 수 있지만, 대부분의 동작들은 병렬로 또는 동시에 수행될 수 있다. 부가적으로, 동작들의 순서는 재배열될 수 있다. 프로세스는 도면에 포함되지 않는 부가적인 단계들을 가질 수 있다. 또한, 방법들의 예들은 하드웨어, 소프트웨어, 펌웨어, 미들웨어, 마이크로코드, 하드웨어 설명 언어들, 또는 이들의 임의의 결합에 의해 구현될 수 있다. 소프트웨어, 펌웨어, 미들웨어, 또는 마이크로코드로 구현되는 경우, 필요한 태스크들을 수행하기 위한 프로그램 코드 또는 코드 세그먼트들은, 저장 매체와 같은 비-일시적인 컴퓨터-판독가능 매체에 저장될 수 있다. 프로세서들은 설명된 태스크들을 수행할 수 있다.
[123] 수 개의 예시적인 구성들을 설명했지만, 다양한 변형들, 대안적인 구조들, 및 등가물들이 본 발명의 사상을 벗어나지 않으면서 사용될 수 있다. 예를 들어, 상기 엘리먼트들은 더 큰 시스템의 컴포넌트일 수 있으며, 여기서, 다른 규칙들은 본 발명의 애플리케이션에 우선할 수 있거나 그렇지 않으면 본 발명의 애플리케이션을 변경시킬 수 있다. 또한, 다수의 단계들은, 상기 엘리먼트들이 고려되기 전에, 그 동안, 또는 그 이후에 착수될 수 있다. 따라서, 청구항들의 범위는 상기 설명에 의해 제한되지 않는다.
Claims (32)
- 디바이스 상에서 AR(Augmented Reality) 물체를 선택하기 위한 방법으로서,
상기 디바이스에 의해, 상기 디바이스의 사용자에 의해 수행되는 제 1 제스처(gesture)와 연관된 제 1 입력을 획득하는 단계;
상기 제 1 입력에 기초하여, 장면(scene)의 하나 이상의 이미지들 내에서 ROI(Region-of-Interest)를 정의하는 단계 ― 상기 ROI는 상기 장면 내의 물리적 물체를 포함하고, 상기 물리적 물체는 복수의 디스플레이 가능한 AR 물체들과 연관됨 ―;
상기 디바이스에 의해, 상기 물리적 물체와 연관된 상기 복수의 디스플레이 가능한 AR 물체들 중 제 1 AR 물체를 디스플레이하는 단계 ― 상기 제 1 AR 물체의 적어도 일부분은 상기 물리적 물체와 연관된 제 2 AR 물체의 적어도 일부분을 가림 ―;
상기 디바이스에 의해, 상기 디바이스의 사용자에 의해 수행되는 제 2 제스처와 연관된 제 2 입력을 획득하는 단계 ― 상기 제 2 제스처는 상기 ROI의 2차원 평면에 대한 3차원에서 상기 물리적 물체를 향하는 방향으로 수행됨 ―;
상기 제 2 입력에 기초하여 상기 디바이스에 의해, 상기 제 1 AR 물체의 적어도 일부분에 의해 가려지는 상기 제 2 AR 물체를 선택하는 단계 ― 상기 제 2 AR 물체는 상기 물리적 물체와 연관된 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위해 선택됨 ―; 및
상기 디바이스에 의해, 상기 제 2 AR 물체를 디스플레이하는 단계를 포함하고,
디스플레이되는 AR 물체들의 수는 상기 ROI의 크기에 기초하여 변화되는,
디바이스 상에서 AR 물체를 선택하기 위한 방법. - 제 1 항에 있어서,
상기 제 2 AR 물체는, 상기 제 2 제스처가 상기 물리적 물체를 향하는 방향으로 상기 2차원 평면에 대하여 제 1 깊이에서 이루어질 때, 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위해 선택되는,
디바이스 상에서 AR 물체를 선택하기 위한 방법. - 제 2 항에 있어서,
상기 디바이스에 의해, 상기 디바이스의 사용자에 의해 수행되는 제 3 제스처와 연관된 제 3 입력을 획득하는 단계 ― 상기 제 3 제스처는 상기 물리적 물체를 향하는 방향으로 상기 2차원 평면에 대한 3차원에서 수행됨 ―;
상기 제 3 입력에 기초하여 상기 디바이스에 의해, 상기 물리적 물체와 연관된 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위한 제 3 AR 물체를 선택하는 단계 ― 상기 제 3 AR 물체는, 상기 제 3 제스처가 상기 물리적 물체를 향하는 방향으로 상기 2차원 평면에 대하여 제 2 깊이에서 이루어질 때, 선택되고, 상기 제 1 깊이는 상기 제 2 깊이와 상이함 ―; 및
상기 디바이스에 의해, 상기 제 3 AR 물체를 디스플레이하는 단계를 더 포함하는,
디바이스 상에서 AR 물체를 선택하기 위한 방법. - 제 1 항에 있어서,
상기 제 2 제스처는 상기 3차원에서 상기 사용자의 적어도 하나의 손의 이동을 포함하는,
디바이스 상에서 AR 물체를 선택하기 위한 방법. - 제 4 항에 있어서,
상기 사용자의 적어도 하나의 손은, 상기 제 2 제스처 동안 상기 디바이스의 카메라의 시야(field of view)에서 관찰되는,
디바이스 상에서 AR 물체를 선택하기 위한 방법. - 제 1 항에 있어서,
상기 제 1 AR 물체 및 상기 제 2 AR 물체는 동시에 상기 ROI에서 디스플레이되고, 상기 제 1 AR 물체의 위치는 상기 제 2 제스처의 깊이를 기초로 상기 제 2 AR 물체의 위치에 관련하여 디스플레이되는,
디바이스 상에서 AR 물체를 선택하기 위한 방법. - 제 6 항에 있어서,
상기 제 1 AR 물체의 위치는 상기 제 1 제스처와 상기 제 2 제스처 사이의 깊이 변화를 기초로 상기 제 2 AR 물체의 위치에 관련하여 디스플레이되는,
디바이스 상에서 AR 물체를 선택하기 위한 방법. - 제 1 항에 있어서,
상기 ROI를 정의하는 상기 제 1 제스처는 상기 사용자의 적어도 하나의 손에 의해 수행되는,
디바이스 상에서 AR 물체를 선택하기 위한 방법. - 제 8 항에 있어서,
디스플레이를 위해 상기 제 2 AR 물체를 선택하기 위한 상기 제 2 제스처는 상기 3차원에서 상기 적어도 하나의 손을 이동하는 것을 포함하는,
디바이스 상에서 AR 물체를 선택하기 위한 방법. - AR(Augmented Reality) 물체를 선택하기 위한 장치로서,
메모리; 및
상기 메모리에 커플링된 프로세서를 포함하고,
상기 프로세서는,
사용자에 의해 수행되는 제 1 제스처와 연관된 제 1 입력을 획득하고;
상기 제 1 입력에 기초하여, 장면의 하나 이상의 이미지들 내에서 ROI(Region-of-Interest)를 정의하고 ― 상기 ROI는 상기 장면 내의 물리적 물체를 포함하고, 상기 물리적 물체는 복수의 디스플레이 가능한 AR 물체들과 연관됨 ―;
상기 물리적 물체와 연관된 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위한 제 1 AR 물체를 선택하고 ― 상기 제 1 AR 물체의 적어도 일부분은 상기 물리적 물체와 연관된 제 2 AR 물체의 적어도 일부분을 가림 ―;
사용자에 의해 수행되는 제 2 제스처와 연관된 제 2 입력을 획득하고 ― 상기 제 2 제스처는 상기 ROI의 2차원 평면에 대한 3차원에서 상기 물리적 물체를 향하는 방향으로 수행됨 ―; 그리고
상기 제 2 입력에 기초하여, 상기 제 1 AR 물체의 적어도 일부분에 의해 가려지는 상기 제 2 AR 물체를 선택하도록 ― 상기 제 2 AR 물체는 상기 물리적 물체와 연관된 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위해 선택됨 ―
구성되고,
디스플레이되는 AR 물체들의 수는 상기 ROI의 크기에 기초하여 변화되는,
AR 물체를 선택하기 위한 장치. - 제 10 항에 있어서,
상기 제 2 AR 물체는, 상기 제 2 제스처가 상기 물리적 물체를 향하는 방향으로 상기 2차원 평면에 대하여 제 1 깊이에서 이루어질 때, 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위해 선택되는,
AR 물체를 선택하기 위한 장치. - 제 11 항에 있어서,
상기 프로세서는,
상기 사용자에 의해 수행되는 제 3 제스처와 연관된 제 3 입력을 획득하고 ― 상기 제 3 제스처는 상기 물리적 물체를 향하는 방향으로 상기 2차원 평면에 대한 3차원에서 수행됨 ―; 그리고
상기 제 3 입력에 기초하여, 상기 물리적 물체와 연관된 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위한 제 3 AR 물체를 선택하도록 ― 상기 제 3 AR 물체는, 상기 제 3 제스처가 상기 물리적 물체를 향하는 방향으로 상기 2차원 평면에 대하여 제 2 깊이에서 이루어질 때, 선택되고, 상기 제 1 깊이는 상기 제 2 깊이와 상이함 ―
추가로 구성되는,
AR 물체를 선택하기 위한 장치. - 제 10 항에 있어서,
상기 제 2 제스처는 상기 3차원에서 상기 사용자의 적어도 하나의 손의 이동을 포함하는,
AR 물체를 선택하기 위한 장치. - 제 13 항에 있어서,
상기 사용자의 적어도 하나의 손은, 상기 제 2 제스처 동안 카메라의 시야에서 관찰되는,
AR 물체를 선택하기 위한 장치. - 제 10 항에 있어서,
상기 제 1 AR 물체 및 상기 제 2 AR 물체는 동시에 상기 ROI에서 디스플레이되고, 상기 제 1 AR 물체의 위치는 상기 제 2 제스처의 깊이를 기초로 상기 제 2 AR 물체의 위치에 관련하여 디스플레이되는,
AR 물체를 선택하기 위한 장치. - 제 15 항에 있어서,
상기 제 1 AR 물체의 위치는 상기 제 1 제스처와 상기 제 2 제스처 사이의 깊이 변화를 기초로 상기 제 2 AR 물체의 위치에 관련하여 디스플레이되는,
AR 물체를 선택하기 위한 장치. - 제 10 항에 있어서,
상기 ROI를 정의하는 상기 제 1 제스처는 상기 사용자의 적어도 하나의 손에 의해 수행되는,
AR 물체를 선택하기 위한 장치. - 제 17 항에 있어서,
디스플레이를 위해 상기 제 2 AR 물체를 선택하기 위한 상기 제 2 제스처는 상기 3차원에서 상기 적어도 하나의 손을 이동하는 것을 포함하는,
AR 물체를 선택하기 위한 장치. - 제 11 항에 있어서,
상기 장치는 모바일 디바이스를 포함하는,
AR 물체를 선택하기 위한 장치. - 제 11 항에 있어서,
상기 제 1 AR 물체 및 상기 제 2 AR 물체를 디스플레이하도록 구성된 디스플레이를 더 포함하는,
AR 물체를 선택하기 위한 장치. - 제 11 항에 있어서,
상기 장면의 하나 이상의 이미지들을 캡처하기 위한 카메라를 더 포함하는,
AR 물체를 선택하기 위한 장치. - 명령들을 저장하는 비-일시적 컴퓨터-판독 가능 저장 매체로서,
상기 명령들은 하나 이상의 프로세서들에 의해 실행될 때, 상기 하나 이상의 프로세서들로 하여금:
사용자에 의해 수행되는 제 1 제스처와 연관된 제 1 입력을 획득하게 하고;
상기 제 1 입력에 기초하여, 장면의 하나 이상의 이미지들 내에서 ROI(Region-of-Interest)를 정의하게 하고 ― 상기 ROI는 상기 장면 내의 물리적 물체를 포함하고, 상기 물리적 물체는 복수의 디스플레이 가능한 AR 물체들과 연관됨 ―;
상기 물리적 물체와 연관된 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위한 제 1 AR 물체를 선택하게 하고 ― 상기 제 1 AR 물체의 적어도 일부분은 상기 물리적 물체와 연관된 제 2 AR 물체의 적어도 일부분을 가림 ―;
상기 사용자에 의해 수행되는 제 2 제스처와 연관된 제 2 입력을 획득하게 하고 ― 상기 제 2 제스처는 상기 ROI의 2차원 평면에 대한 3차원에서 상기 물리적 물체를 향하는 방향으로 수행됨 ―; 그리고
상기 제 2 입력에 기초하여, 상기 제 1 AR 물체의 적어도 일부분에 의해 가려지는 상기 제 2 AR 물체를 선택하게 하고 ― 상기 제 2 AR 물체는 상기 물리적 물체와 연관된 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위해 선택됨 ―,
디스플레이되는 AR 물체들의 수는 상기 ROI의 크기에 기초하여 변화되는,
비-일시적 컴퓨터-판독 가능 저장 매체. - 제 22 항에 있어서,
상기 제 2 AR 물체는, 상기 제 2 제스처가 상기 물리적 물체를 향하는 방향으로 상기 2차원 평면에 대하여 제 1 깊이에서 이루어질 때, 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위해 선택되는,
비-일시적 컴퓨터-판독 가능 저장 매체. - 제 23 항에 있어서,
상기 하나 이상의 프로세서들에 의해 실행될 때, 상기 하나 이상의 프로세서들로 하여금:
상기 사용자에 의해 수행되는 제 3 제스처와 연관된 제 3 입력을 획득하게 하고 ― 상기 제 3 제스처는 상기 물리적 물체를 향하는 방향으로 상기 2차원 평면에 대한 3차원에서 수행됨 ―; 그리고
상기 제 3 입력에 기초하여, 상기 물리적 물체와 연관된 상기 복수의 디스플레이 가능한 AR 물체들로부터 디스플레이를 위한 제 3 AR 물체를 선택하게 하는 ― 상기 제 3 AR 물체는, 상기 제 3 제스처가 상기 물리적 물체를 향하는 방향으로 상기 2차원 평면에 대하여 제 2 깊이에서 이루어질 때, 선택되고, 상기 제 1 깊이는 상기 제 2 깊이와 상이함 ―
명령들을 더 포함하는,
비-일시적 컴퓨터-판독 가능 저장 매체. - 제 22 항에 있어서,
상기 제 2 제스처는 상기 3차원에서 상기 사용자의 적어도 하나의 손의 이동을 포함하는,
비-일시적 컴퓨터-판독 가능 저장 매체. - 제 25 항에 있어서,
상기 사용자의 적어도 하나의 손은, 상기 제 2 제스처 동안 카메라의 시야에서 관찰되는,
비-일시적 컴퓨터-판독 가능 저장 매체. - 제 22 항에 있어서,
상기 제 1 AR 물체 및 상기 제 2 AR 물체는 동시에 상기 ROI에서 디스플레이되고, 상기 제 1 AR 물체의 위치는 상기 제 2 제스처의 깊이를 기초로 상기 제 2 AR 물체의 위치에 관련하여 디스플레이되는,
비-일시적 컴퓨터-판독 가능 저장 매체. - 제 27 항에 있어서,
상기 제 1 AR 물체의 위치는 상기 제 1 제스처와 상기 제 2 제스처 사이의 깊이 변화를 기초로 상기 제 2 AR 물체의 위치에 관련하여 디스플레이되는,
비-일시적 컴퓨터-판독 가능 저장 매체. - 제 22 항에 있어서,
상기 ROI를 정의하는 상기 제 1 제스처는 상기 사용자의 적어도 하나의 손에 의해 수행되는,
비-일시적 컴퓨터-판독 가능 저장 매체. - 제 29 항에 있어서,
디스플레이를 위해 상기 제 2 AR 물체를 선택하기 위한 상기 제 2 제스처는 상기 3차원에서 상기 적어도 하나의 손을 이동하는 것을 포함하는,
비-일시적 컴퓨터-판독 가능 저장 매체. - 삭제
- 삭제
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/767,820 | 2013-02-14 | ||
US13/767,820 US10133342B2 (en) | 2013-02-14 | 2013-02-14 | Human-body-gesture-based region and volume selection for HMD |
PCT/US2014/015946 WO2014126966A1 (en) | 2013-02-14 | 2014-02-12 | Human-body-gesture-based region and volume selection for hmd |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150116871A KR20150116871A (ko) | 2015-10-16 |
KR102358983B1 true KR102358983B1 (ko) | 2022-02-04 |
Family
ID=50336489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157023083A KR102358983B1 (ko) | 2013-02-14 | 2014-02-12 | Hdm에 대한 인간―신체―제스처―기반 영역 및 볼륨 선택 |
Country Status (9)
Country | Link |
---|---|
US (2) | US10133342B2 (ko) |
EP (2) | EP2956843B1 (ko) |
JP (1) | JP6356157B2 (ko) |
KR (1) | KR102358983B1 (ko) |
CN (1) | CN105027033B (ko) |
ES (1) | ES2759054T3 (ko) |
HU (1) | HUE047027T2 (ko) |
TW (1) | TWI534654B (ko) |
WO (1) | WO2014126966A1 (ko) |
Families Citing this family (213)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9823737B2 (en) * | 2008-04-07 | 2017-11-21 | Mohammad A Mazed | Augmented reality personal assistant apparatus |
US8908995B2 (en) | 2009-01-12 | 2014-12-09 | Intermec Ip Corp. | Semi-automatic dimensioning with imager on a portable device |
US8810598B2 (en) | 2011-04-08 | 2014-08-19 | Nant Holdings Ip, Llc | Interference based augmented reality hosting platforms |
JP2015501984A (ja) | 2011-11-21 | 2015-01-19 | ナント ホールディングス アイピー,エルエルシー | 加入請求書サービス、システムおよび方法 |
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9779546B2 (en) | 2012-05-04 | 2017-10-03 | Intermec Ip Corp. | Volume dimensioning systems and methods |
US10007858B2 (en) | 2012-05-15 | 2018-06-26 | Honeywell International Inc. | Terminals and methods for dimensioning objects |
US10321127B2 (en) | 2012-08-20 | 2019-06-11 | Intermec Ip Corp. | Volume dimensioning system calibration systems and methods |
US9076033B1 (en) * | 2012-09-28 | 2015-07-07 | Google Inc. | Hand-triggered head-mounted photography |
US9939259B2 (en) | 2012-10-04 | 2018-04-10 | Hand Held Products, Inc. | Measuring object dimensions using mobile computer |
US20140104413A1 (en) | 2012-10-16 | 2014-04-17 | Hand Held Products, Inc. | Integrated dimensioning and weighing system |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
WO2014128749A1 (ja) * | 2013-02-19 | 2014-08-28 | 株式会社ブリリアントサービス | 形状認識装置、形状認識プログラム、および形状認識方法 |
JP6250025B2 (ja) * | 2013-02-19 | 2017-12-20 | ミラマ サービス インク | 入出力装置、入出力プログラム、および入出力方法 |
EP2960896B1 (en) * | 2013-02-22 | 2022-07-20 | Sony Group Corporation | Head-mounted display and image display device |
US9080856B2 (en) | 2013-03-13 | 2015-07-14 | Intermec Ip Corp. | Systems and methods for enhancing dimensioning, for example volume dimensioning |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
CN105144768B (zh) | 2013-04-26 | 2019-05-21 | 英特尔Ip公司 | 频谱共享情境中的共享频谱重新分配 |
US10228452B2 (en) | 2013-06-07 | 2019-03-12 | Hand Held Products, Inc. | Method of error correction for 3D imaging device |
CN103353677B (zh) | 2013-06-28 | 2015-03-11 | 北京智谷睿拓技术服务有限公司 | 成像装置及方法 |
CN103353667B (zh) | 2013-06-28 | 2015-10-21 | 北京智谷睿拓技术服务有限公司 | 成像调整设备及方法 |
CN103353663B (zh) | 2013-06-28 | 2016-08-10 | 北京智谷睿拓技术服务有限公司 | 成像调整装置及方法 |
CN103424891B (zh) | 2013-07-31 | 2014-12-17 | 北京智谷睿拓技术服务有限公司 | 成像装置及方法 |
US9619939B2 (en) * | 2013-07-31 | 2017-04-11 | Microsoft Technology Licensing, Llc | Mixed reality graduated information delivery |
CN103431840B (zh) | 2013-07-31 | 2016-01-20 | 北京智谷睿拓技术服务有限公司 | 眼睛光学参数检测系统及方法 |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
CN103439801B (zh) | 2013-08-22 | 2016-10-26 | 北京智谷睿拓技术服务有限公司 | 视力保护成像装置及方法 |
CN103431980A (zh) | 2013-08-22 | 2013-12-11 | 北京智谷睿拓技术服务有限公司 | 视力保护成像系统及方法 |
US9448689B2 (en) * | 2013-08-30 | 2016-09-20 | Paypal, Inc. | Wearable user device enhanced display system |
CN103605208B (zh) | 2013-08-30 | 2016-09-28 | 北京智谷睿拓技术服务有限公司 | 内容投射系统及方法 |
CN103500331B (zh) | 2013-08-30 | 2017-11-10 | 北京智谷睿拓技术服务有限公司 | 提醒方法及装置 |
US20150123966A1 (en) * | 2013-10-03 | 2015-05-07 | Compedia - Software And Hardware Development Limited | Interactive augmented virtual reality and perceptual computing platform |
CN103558909B (zh) * | 2013-10-10 | 2017-03-29 | 北京智谷睿拓技术服务有限公司 | 交互投射显示方法及交互投射显示系统 |
KR102154912B1 (ko) | 2013-10-11 | 2020-09-11 | 인터디지탈 패튼 홀딩스, 인크 | 시선 구동 증강 현실 |
US9582516B2 (en) | 2013-10-17 | 2017-02-28 | Nant Holdings Ip, Llc | Wide area augmented reality location-based services |
US10168873B1 (en) | 2013-10-29 | 2019-01-01 | Leap Motion, Inc. | Virtual interactions for machine control |
US9466150B2 (en) | 2013-11-06 | 2016-10-11 | Google Inc. | Composite image associated with a head-mountable device |
US9740923B2 (en) * | 2014-01-15 | 2017-08-22 | Lenovo (Singapore) Pte. Ltd. | Image gestures for edge input |
WO2015131157A1 (en) * | 2014-02-28 | 2015-09-03 | Vikas Gupta | Gesture operated wrist mounted camera system |
US20160371888A1 (en) * | 2014-03-10 | 2016-12-22 | Bae Systems Plc | Interactive information display |
US10613642B2 (en) * | 2014-03-12 | 2020-04-07 | Microsoft Technology Licensing, Llc | Gesture parameter tuning |
KR20150110032A (ko) | 2014-03-24 | 2015-10-02 | 삼성전자주식회사 | 영상데이터 처리 전자장치 및 방법 |
US9741169B1 (en) | 2014-05-20 | 2017-08-22 | Leap Motion, Inc. | Wearable augmented reality devices with object detection and tracking |
US9552074B2 (en) * | 2014-05-21 | 2017-01-24 | Facebook, Inc. | Method and system for generating user feedback of a gesture capturing device |
US20150346932A1 (en) * | 2014-06-03 | 2015-12-03 | Praveen Nuthulapati | Methods and systems for snapshotting events with mobile devices |
KR102303115B1 (ko) * | 2014-06-05 | 2021-09-16 | 삼성전자 주식회사 | 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법 |
US9646201B1 (en) | 2014-06-05 | 2017-05-09 | Leap Motion, Inc. | Three dimensional (3D) modeling of a complex control object |
JP2016004340A (ja) * | 2014-06-16 | 2016-01-12 | セイコーエプソン株式会社 | 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
US10007350B1 (en) | 2014-06-26 | 2018-06-26 | Leap Motion, Inc. | Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
US9823059B2 (en) | 2014-08-06 | 2017-11-21 | Hand Held Products, Inc. | Dimensioning system with guided alignment |
DE202014103729U1 (de) | 2014-08-08 | 2014-09-09 | Leap Motion, Inc. | Augmented-Reality mit Bewegungserfassung |
US9696551B2 (en) * | 2014-08-13 | 2017-07-04 | Beijing Lenovo Software Ltd. | Information processing method and electronic device |
US10725533B2 (en) | 2014-09-26 | 2020-07-28 | Intel Corporation | Systems, apparatuses, and methods for gesture recognition and interaction |
US9354711B2 (en) * | 2014-09-30 | 2016-05-31 | Xerox Corporation | Dynamic hand-gesture-based region of interest localization |
US20160092726A1 (en) * | 2014-09-30 | 2016-03-31 | Xerox Corporation | Using gestures to train hand detection in ego-centric video |
US9778750B2 (en) * | 2014-09-30 | 2017-10-03 | Xerox Corporation | Hand-gesture-based region of interest localization |
US10943395B1 (en) * | 2014-10-03 | 2021-03-09 | Virtex Apps, Llc | Dynamic integration of a virtual environment with a physical environment |
US9779276B2 (en) | 2014-10-10 | 2017-10-03 | Hand Held Products, Inc. | Depth sensor based auto-focus system for an indicia scanner |
US10775165B2 (en) | 2014-10-10 | 2020-09-15 | Hand Held Products, Inc. | Methods for improving the accuracy of dimensioning-system measurements |
US10810715B2 (en) | 2014-10-10 | 2020-10-20 | Hand Held Products, Inc | System and method for picking validation |
US10060729B2 (en) | 2014-10-21 | 2018-08-28 | Hand Held Products, Inc. | Handheld dimensioner with data-quality indication |
US9752864B2 (en) | 2014-10-21 | 2017-09-05 | Hand Held Products, Inc. | Handheld dimensioning system with feedback |
US9762793B2 (en) | 2014-10-21 | 2017-09-12 | Hand Held Products, Inc. | System and method for dimensioning |
US9897434B2 (en) | 2014-10-21 | 2018-02-20 | Hand Held Products, Inc. | Handheld dimensioning system with measurement-conformance feedback |
US9557166B2 (en) | 2014-10-21 | 2017-01-31 | Hand Held Products, Inc. | Dimensioning system with multipath interference mitigation |
JP2016110177A (ja) | 2014-12-02 | 2016-06-20 | 株式会社トプコン | 3次元入力装置及び入力システム |
JP6516464B2 (ja) * | 2014-12-15 | 2019-05-22 | Kddi株式会社 | ウェアラブル検索システム |
WO2016100931A1 (en) * | 2014-12-18 | 2016-06-23 | Oculus Vr, Llc | Method, system and device for navigating in a virtual reality environment |
US10353532B1 (en) | 2014-12-18 | 2019-07-16 | Leap Motion, Inc. | User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
US20160178905A1 (en) * | 2014-12-19 | 2016-06-23 | Intel Corporation | Facilitating improved viewing capabitlies for glass displays |
US9778814B2 (en) * | 2014-12-19 | 2017-10-03 | Microsoft Technology Licensing, Llc | Assisted object placement in a three-dimensional visualization system |
JP2017091433A (ja) * | 2015-11-17 | 2017-05-25 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム |
US10656720B1 (en) | 2015-01-16 | 2020-05-19 | Ultrahaptics IP Two Limited | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
US20160224123A1 (en) * | 2015-02-02 | 2016-08-04 | Augumenta Ltd | Method and system to control electronic devices through gestures |
US9696795B2 (en) * | 2015-02-13 | 2017-07-04 | Leap Motion, Inc. | Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments |
US10429923B1 (en) | 2015-02-13 | 2019-10-01 | Ultrahaptics IP Two Limited | Interaction engine for creating a realistic experience in virtual reality/augmented reality environments |
GB201504362D0 (en) * | 2015-03-16 | 2015-04-29 | Elliptic Laboratories As | Touchless user interfaces for electronic devices |
US10921896B2 (en) * | 2015-03-16 | 2021-02-16 | Facebook Technologies, Llc | Device interaction in augmented reality |
US10296086B2 (en) | 2015-03-20 | 2019-05-21 | Sony Interactive Entertainment Inc. | Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments |
JP6439566B2 (ja) * | 2015-04-23 | 2018-12-19 | 大日本印刷株式会社 | 多言語表示装置、多言語表示システム、多言語表示方法及び多言語表示プログラム |
KR102357741B1 (ko) * | 2015-05-06 | 2022-02-03 | 삼성전자주식회사 | 가스 처리 방법 빛 그 전자 장치 |
EP3096303B1 (en) * | 2015-05-18 | 2020-04-08 | Nokia Technologies Oy | Sensor data conveyance |
US9786101B2 (en) | 2015-05-19 | 2017-10-10 | Hand Held Products, Inc. | Evaluating image values |
EP3101629B1 (en) * | 2015-06-04 | 2021-03-17 | Nokia Technologies Oy | Mediated reality |
US10066982B2 (en) | 2015-06-16 | 2018-09-04 | Hand Held Products, Inc. | Calibrating a volume dimensioner |
US20160377414A1 (en) | 2015-06-23 | 2016-12-29 | Hand Held Products, Inc. | Optical pattern projector |
US9857167B2 (en) | 2015-06-23 | 2018-01-02 | Hand Held Products, Inc. | Dual-projector three-dimensional scanner |
WO2016209039A1 (ko) * | 2015-06-24 | 2016-12-29 | 주식회사 브이터치 | 의사소통을 지원하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 |
US20160378296A1 (en) * | 2015-06-25 | 2016-12-29 | Ashok Mishra | Augmented Reality Electronic Book Mechanism |
US9835486B2 (en) | 2015-07-07 | 2017-12-05 | Hand Held Products, Inc. | Mobile dimensioner apparatus for use in commerce |
EP3118576B1 (en) | 2015-07-15 | 2018-09-12 | Hand Held Products, Inc. | Mobile dimensioning device with dynamic accuracy compatible with nist standard |
US20170017301A1 (en) | 2015-07-16 | 2017-01-19 | Hand Held Products, Inc. | Adjusting dimensioning results using augmented reality |
US10094650B2 (en) | 2015-07-16 | 2018-10-09 | Hand Held Products, Inc. | Dimensioning and imaging items |
EP3594787A1 (en) * | 2015-08-06 | 2020-01-15 | PCMS Holdings, Inc. | Methods and systems for providing haptic feedback for virtual 3d objects |
JP2017041002A (ja) * | 2015-08-18 | 2017-02-23 | キヤノン株式会社 | 表示制御装置、表示制御方法及び表示制御用プログラム |
JP6407824B2 (ja) * | 2015-09-01 | 2018-10-17 | 株式会社東芝 | メガネ型ウエアラブル端末およびこの端末を用いる方法 |
JP2017054185A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | 情報処理装置、情報処理方法及び情報処理プログラム |
US10249030B2 (en) | 2015-10-30 | 2019-04-02 | Hand Held Products, Inc. | Image transformation for indicia reading |
US10225544B2 (en) | 2015-11-19 | 2019-03-05 | Hand Held Products, Inc. | High resolution dot pattern |
JP6766824B2 (ja) * | 2015-12-10 | 2020-10-14 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10229540B2 (en) | 2015-12-22 | 2019-03-12 | Google Llc | Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image |
US10133407B2 (en) * | 2015-12-28 | 2018-11-20 | Seiko Epson Corporation | Display apparatus, display system, method for controlling display apparatus, and program |
US10140507B2 (en) * | 2015-12-29 | 2018-11-27 | Samsung Electronics Co., Ltd. | Apparatus and method for recognizing hand gestures in a virtual reality headset |
CN105700684A (zh) * | 2016-01-12 | 2016-06-22 | 深圳多哚新技术有限责任公司 | 一种头显设备传感器数据中断的处理方法和装置 |
US11308704B2 (en) | 2016-01-18 | 2022-04-19 | Lg Electronics Inc. | Mobile terminal for controlling VR image and control method therefor |
US10025314B2 (en) | 2016-01-27 | 2018-07-17 | Hand Held Products, Inc. | Vehicle positioning and object avoidance |
US10168768B1 (en) | 2016-03-02 | 2019-01-01 | Meta Company | Systems and methods to facilitate interactions in an interactive space |
US10133345B2 (en) | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
US10198861B2 (en) * | 2016-03-31 | 2019-02-05 | Intel Corporation | User interactive controls for a priori path navigation in virtual environment |
JP6275185B2 (ja) * | 2016-04-06 | 2018-02-07 | 株式会社コロプラ | 仮想空間を提供する方法、プログラム、および記録媒体 |
US10846932B2 (en) * | 2016-04-22 | 2020-11-24 | Interdigital Ce Patent Holdings | Method and device for compositing an image |
US9990779B2 (en) * | 2016-05-13 | 2018-06-05 | Meta Company | System and method for modifying virtual objects in a virtual environment in response to user interactions |
US10186088B2 (en) | 2016-05-13 | 2019-01-22 | Meta Company | System and method for managing interactive virtual frames for virtual objects in a virtual environment |
US10089071B2 (en) | 2016-06-02 | 2018-10-02 | Microsoft Technology Licensing, Llc | Automatic audio attenuation on immersive display devices |
US10339352B2 (en) | 2016-06-03 | 2019-07-02 | Hand Held Products, Inc. | Wearable metrological apparatus |
US9940721B2 (en) | 2016-06-10 | 2018-04-10 | Hand Held Products, Inc. | Scene change detection in a dimensioner |
US10163216B2 (en) | 2016-06-15 | 2018-12-25 | Hand Held Products, Inc. | Automatic mode switching in a volume dimensioner |
US10268266B2 (en) | 2016-06-29 | 2019-04-23 | Microsoft Technology Licensing, Llc | Selection of objects in three-dimensional space |
CN106249882B (zh) | 2016-07-26 | 2022-07-12 | 华为技术有限公司 | 一种应用于vr设备的手势操控方法与装置 |
CN106155326A (zh) | 2016-07-26 | 2016-11-23 | 北京小米移动软件有限公司 | 虚拟现实通讯中的对象识别方法和装置、虚拟现实设备 |
US10529135B2 (en) * | 2016-07-27 | 2020-01-07 | Google Llc | Low-power mode feature identification at a head mounted display |
WO2018020661A1 (ja) * | 2016-07-29 | 2018-02-01 | 三菱電機株式会社 | 表示装置、表示制御装置および表示制御方法 |
JP6694637B2 (ja) | 2016-08-30 | 2020-05-20 | 株式会社アルファコード | 注目対象物に関する情報提供システムおよび情報提供方法 |
EP3291531A1 (en) * | 2016-09-06 | 2018-03-07 | Thomson Licensing | Methods, devices and systems for automatic zoom when playing an augmented reality scene |
CN106980362A (zh) | 2016-10-09 | 2017-07-25 | 阿里巴巴集团控股有限公司 | 基于虚拟现实场景的输入方法及装置 |
US20180122134A1 (en) * | 2016-11-02 | 2018-05-03 | Htc Corporation | Three-dimensional model construction system and three-dimensional model construction method |
US20180129254A1 (en) * | 2016-11-07 | 2018-05-10 | Toyota Motor Engineering & Manufacturing North Ame rica, Inc. | Wearable device programmed to record messages and moments in time |
US10869026B2 (en) * | 2016-11-18 | 2020-12-15 | Amitabha Gupta | Apparatus for augmenting vision |
KR20190093624A (ko) * | 2016-12-06 | 2019-08-09 | 돈 엠. 구룰 | 연대기-기반 검색 엔진을 위한 시스템 및 방법 |
US10909708B2 (en) | 2016-12-09 | 2021-02-02 | Hand Held Products, Inc. | Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements |
JP2018137505A (ja) * | 2017-02-20 | 2018-08-30 | セイコーエプソン株式会社 | 表示装置およびその制御方法 |
WO2018156809A1 (en) * | 2017-02-24 | 2018-08-30 | Masimo Corporation | Augmented reality system for displaying patient data |
JP7166264B2 (ja) | 2017-02-24 | 2022-11-07 | マシモ・コーポレイション | 医療モニタリング・データを表示するシステム |
JP2018142168A (ja) * | 2017-02-28 | 2018-09-13 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
US11047672B2 (en) | 2017-03-28 | 2021-06-29 | Hand Held Products, Inc. | System for optically dimensioning |
US10620779B2 (en) | 2017-04-24 | 2020-04-14 | Microsoft Technology Licensing, Llc | Navigating a holographic image |
US10932705B2 (en) | 2017-05-08 | 2021-03-02 | Masimo Corporation | System for displaying and controlling medical monitoring data |
EP3407296A1 (en) * | 2017-05-23 | 2018-11-28 | Thomson Licensing | Method and device for determining a characteristic of a display device |
EP3432204B1 (en) * | 2017-07-20 | 2024-01-17 | Tata Consultancy Services Limited | Telepresence framework for region of interest marking using headmount devices |
US10733748B2 (en) | 2017-07-24 | 2020-08-04 | Hand Held Products, Inc. | Dual-pattern optical 3D dimensioning |
WO2019032967A1 (en) * | 2017-08-10 | 2019-02-14 | Google Llc | HAND INTERACTION SENSITIVE TO THE CONTEXT |
KR102718810B1 (ko) | 2017-08-23 | 2024-10-16 | 뉴레이블 인크. | 고속 눈 추적 피처들을 갖는 뇌-컴퓨터 인터페이스 |
US20190079288A1 (en) * | 2017-09-13 | 2019-03-14 | Htc Corporation | Head mounted display system and image display method thereof |
US10621746B2 (en) * | 2017-11-07 | 2020-04-14 | Symbol Technologies, Llc | Methods and apparatus for rapidly dimensioning an object |
EP3710915A4 (en) | 2017-11-13 | 2021-08-11 | Neurable Inc. | BRAIN-COMPUTER INTERFACE WITH ADAPTATIONS FOR HIGH-SPEED, ACCURATE AND INTUITIVE USER INTERACTIONS |
KR20200108888A (ko) | 2018-01-18 | 2020-09-21 | 뉴레이블 인크. | 고속, 정확, 및 직관적 사용자 상호작용들을 위한 적응들을 갖는 뇌-컴퓨터 인터페이스 |
CN108304075B (zh) * | 2018-02-11 | 2021-08-06 | 亮风台(上海)信息科技有限公司 | 一种在增强现实设备进行人机交互的方法与设备 |
US10584962B2 (en) | 2018-05-01 | 2020-03-10 | Hand Held Products, Inc | System and method for validating physical-item security |
US10948993B2 (en) * | 2018-06-07 | 2021-03-16 | Facebook, Inc. | Picture-taking within virtual reality |
US11195336B2 (en) | 2018-06-08 | 2021-12-07 | Vulcan Inc. | Framework for augmented reality applications |
US12003585B2 (en) | 2018-06-08 | 2024-06-04 | Vale Group Llc | Session-based information exchange |
US11087538B2 (en) * | 2018-06-26 | 2021-08-10 | Lenovo (Singapore) Pte. Ltd. | Presentation of augmented reality images at display locations that do not obstruct user's view |
US10897577B2 (en) * | 2018-06-26 | 2021-01-19 | Canon Kabushiki Kaisha | Image capturing system, image capturing apparatus, illumination apparatus, and control method |
US10996831B2 (en) | 2018-06-29 | 2021-05-04 | Vulcan Inc. | Augmented reality cursors |
CN108882025B (zh) * | 2018-08-07 | 2019-12-10 | 北京字节跳动网络技术有限公司 | 视频帧处理方法和装置 |
US11393170B2 (en) | 2018-08-21 | 2022-07-19 | Lenovo (Singapore) Pte. Ltd. | Presentation of content based on attention center of user |
US10991139B2 (en) | 2018-08-30 | 2021-04-27 | Lenovo (Singapore) Pte. Ltd. | Presentation of graphical object(s) on display to avoid overlay on another item |
US10740918B2 (en) * | 2018-09-12 | 2020-08-11 | Dell Products, L.P. | Adaptive simultaneous localization and mapping (SLAM) using world-facing cameras in virtual, augmented, and mixed reality (xR) applications |
US10664050B2 (en) | 2018-09-21 | 2020-05-26 | Neurable Inc. | Human-computer interface using high-speed and accurate tracking of user interactions |
EP3740849B1 (en) * | 2018-10-08 | 2023-12-20 | Google LLC | Hybrid placement of objects in an augmented reality environment |
US11354787B2 (en) | 2018-11-05 | 2022-06-07 | Ultrahaptics IP Two Limited | Method and apparatus for correcting geometric and optical aberrations in augmented reality |
US11107293B2 (en) | 2019-04-23 | 2021-08-31 | XRSpace CO., LTD. | Head mounted display system capable of assigning at least one predetermined interactive characteristic to a virtual object in a virtual environment created according to a real object in a real environment, a related method and a related non-transitory computer readable storage medium |
CN110276251B (zh) * | 2019-05-13 | 2023-07-25 | 联想(上海)信息技术有限公司 | 一种图像识别方法、装置、设备及存储介质 |
US10620713B1 (en) | 2019-06-05 | 2020-04-14 | NEX Team Inc. | Methods and systems for touchless control with a mobile device |
US11043192B2 (en) * | 2019-06-07 | 2021-06-22 | Facebook Technologies, Llc | Corner-identifiying gesture-driven user interface element gating for artificial reality systems |
DE102019210383A1 (de) | 2019-07-15 | 2021-01-21 | Audi Ag | Verfahren zum Betreiben eines mobilen Endgeräts mittels einer Gestenerkennungs- und Steuereinrichtung, Gestenerkennungs- und Steuereinrichtung, Kraftfahrzeug, und am Kopf tragbare Ausgabevorrichtung |
EP3792817A1 (en) * | 2019-09-10 | 2021-03-17 | XRSpace CO., LTD. | Method and system for human behavior identification |
US11639846B2 (en) | 2019-09-27 | 2023-05-02 | Honeywell International Inc. | Dual-pattern optical 3D dimensioning |
US11275453B1 (en) | 2019-09-30 | 2022-03-15 | Snap Inc. | Smart ring for manipulating virtual objects displayed by a wearable device |
CN110716646A (zh) * | 2019-10-15 | 2020-01-21 | 北京市商汤科技开发有限公司 | 一种增强现实数据呈现方法、装置、设备及存储介质 |
US11175730B2 (en) | 2019-12-06 | 2021-11-16 | Facebook Technologies, Llc | Posture-based virtual space configurations |
US11348373B2 (en) * | 2020-02-21 | 2022-05-31 | Microsoft Technology Licensing, Llc | Extended reality gesture recognition proximate tracked object |
JP2021163287A (ja) * | 2020-03-31 | 2021-10-11 | エイベックス・テクノロジーズ株式会社 | 拡張現実システム |
US11277597B1 (en) | 2020-03-31 | 2022-03-15 | Snap Inc. | Marker-based guided AR experience |
US11333892B2 (en) * | 2020-04-24 | 2022-05-17 | Hitachi, Ltd. | Display apparatus, display system, and display method |
US11798429B1 (en) | 2020-05-04 | 2023-10-24 | Snap Inc. | Virtual tutorials for musical instruments with finger tracking in augmented reality |
US11768535B1 (en) * | 2020-05-18 | 2023-09-26 | Apple Inc. | Presenting computer-generated content based on extremity tracking |
US11520399B2 (en) | 2020-05-26 | 2022-12-06 | Snap Inc. | Interactive augmented reality experiences using positional tracking |
US11257280B1 (en) | 2020-05-28 | 2022-02-22 | Facebook Technologies, Llc | Element-based switching of ray casting rules |
JP7057393B2 (ja) * | 2020-06-24 | 2022-04-19 | 株式会社電通 | プログラム、ヘッドマウントディスプレイ及び情報処理装置 |
US11256336B2 (en) | 2020-06-29 | 2022-02-22 | Facebook Technologies, Llc | Integration of artificial reality interaction modes |
CN115997154A (zh) * | 2020-06-29 | 2023-04-21 | 苹果公司 | 氛围驱动的用户体验 |
KR102305403B1 (ko) * | 2020-09-02 | 2021-09-29 | 주식회사 피앤씨솔루션 | 깊이 영상을 이용한 착용형 증강현실 장치의 손동작 검출 방법 및 깊이 영상을 이용한 손동작 검출이 가능한 착용형 증강현실 장치 |
KR102305404B1 (ko) * | 2020-09-03 | 2021-09-29 | 주식회사 피앤씨솔루션 | 적외선 영상을 이용한 착용형 증강현실 장치의 손동작 검출 방법 및 적외선 영상을 이용한 손동작 검출이 가능한 착용형 증강현실 장치 |
US11178376B1 (en) | 2020-09-04 | 2021-11-16 | Facebook Technologies, Llc | Metering for display modes in artificial reality |
US11925863B2 (en) | 2020-09-18 | 2024-03-12 | Snap Inc. | Tracking hand gestures for interactive game control in augmented reality |
US11546505B2 (en) | 2020-09-28 | 2023-01-03 | Snap Inc. | Touchless photo capture in response to detected hand gestures |
US20220100265A1 (en) * | 2020-09-30 | 2022-03-31 | Qualcomm Incorporated | Dynamic configuration of user interface layouts and inputs for extended reality systems |
US12086324B2 (en) * | 2020-12-29 | 2024-09-10 | Snap Inc. | Micro hand gestures for controlling virtual and graphical elements |
US11740313B2 (en) * | 2020-12-30 | 2023-08-29 | Snap Inc. | Augmented reality precision tracking and display |
EP4272051A1 (en) | 2020-12-30 | 2023-11-08 | Snap, Inc. | Augmented reality precision tracking and display |
KR102580559B1 (ko) * | 2021-01-08 | 2023-09-21 | 한국전자통신연구원 | 시각적 정보를 이용한 통역 결과 제공 방법, 장치 및 시스템 |
US11294475B1 (en) | 2021-02-08 | 2022-04-05 | Facebook Technologies, Llc | Artificial reality multi-modal input switching model |
US11531402B1 (en) * | 2021-02-25 | 2022-12-20 | Snap Inc. | Bimanual gestures for controlling virtual and graphical elements |
US11640700B2 (en) * | 2021-02-26 | 2023-05-02 | Huawei Technologies Co., Ltd. | Methods and systems for rendering virtual objects in user-defined spatial boundary in extended reality environment |
EP4314999A1 (en) * | 2021-03-31 | 2024-02-07 | Snap Inc. | User-defined contextual spaces |
US20220319125A1 (en) * | 2021-03-31 | 2022-10-06 | Snap Inc. | User-aligned spatial volumes |
CN117120962A (zh) * | 2021-04-08 | 2023-11-24 | 斯纳普公司 | 用于控制虚拟和图形元素的映射手部区域之间的双手交互 |
WO2022225761A1 (en) | 2021-04-19 | 2022-10-27 | Snap Inc. | Hand gestures for animating and controlling virtual and graphical elements |
US11861315B2 (en) | 2021-04-21 | 2024-01-02 | Meta Platforms, Inc. | Continuous learning for natural-language understanding models for assistant systems |
US12125297B2 (en) | 2021-04-21 | 2024-10-22 | Meta Platforms, Inc. | Task execution based on real-world text detection for assistant systems |
US12118790B2 (en) | 2021-04-21 | 2024-10-15 | Meta Platforms, Inc. | Auto-capture of interesting moments by assistant systems |
US12131733B2 (en) | 2021-04-21 | 2024-10-29 | Meta Platforms, Inc. | Active listening for assistant systems |
US11874969B2 (en) * | 2021-09-15 | 2024-01-16 | Htc Corporation | Method for determining two-handed gesture, host, and computer readable medium |
KR20230072757A (ko) * | 2021-11-18 | 2023-05-25 | 삼성전자주식회사 | 웨어러블 전자 장치 및 웨어러블 전자 장치의 동작 방법 |
CN118575204A (zh) * | 2022-01-25 | 2024-08-30 | 谷歌有限责任公司 | 防呆产品识别 |
WO2024050460A1 (en) * | 2022-09-01 | 2024-03-07 | Snap Inc. | 3d space carving using hands for object capture |
WO2024053405A1 (ja) * | 2022-09-07 | 2024-03-14 | ソニーグループ株式会社 | 情報処理装置および情報処理方法 |
WO2024122984A1 (ko) * | 2022-12-06 | 2024-06-13 | 삼성전자주식회사 | 복수의 어플리케이션들이 그룹핑된 영역을 이용하여 복수의 어플리케이션들을 제어하기 위한 웨어러블 장치 및 그 방법 |
JP2024131046A (ja) * | 2023-03-15 | 2024-09-30 | 富士フイルムビジネスイノベーション株式会社 | 表示制御装置、表示システムおよびプログラム |
WO2024196208A1 (ko) * | 2023-03-21 | 2024-09-26 | 삼성전자주식회사 | 이미지를 표시하기 위한 영역을 식별하는 웨어러블 장치 및 그 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017501A (ja) * | 2007-07-27 | 2008-01-24 | Fujifilm Corp | 電子カメラ |
JP2010067083A (ja) * | 2008-09-11 | 2010-03-25 | Brother Ind Ltd | ヘッドマウントディスプレイ |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003032143A2 (en) | 2001-10-12 | 2003-04-17 | Hrl Laboratories, Llc | Vision-based pointer tracking method and apparatus |
US20030202683A1 (en) * | 2002-04-30 | 2003-10-30 | Yue Ma | Vehicle navigation system that automatically translates roadside signs and objects |
GB2407635B (en) | 2003-10-31 | 2006-07-12 | Hewlett Packard Development Co | Improvements in and relating to camera control |
JP4408794B2 (ja) * | 2004-11-18 | 2010-02-03 | ザイオソフト株式会社 | 画像処理プログラム |
CN1304931C (zh) | 2005-01-27 | 2007-03-14 | 北京理工大学 | 一种头戴式立体视觉手势识别装置 |
EP2089876A1 (en) | 2006-12-07 | 2009-08-19 | Adapx, Inc. | Systems and methods for data annotation, recordation, and communication |
US8073198B2 (en) | 2007-10-26 | 2011-12-06 | Samsung Electronics Co., Ltd. | System and method for selection of an object of interest during physical browsing by finger framing |
WO2010029553A1 (en) * | 2008-09-11 | 2010-03-18 | Netanel Hagbi | Method and system for compositing an augmented reality scene |
US9569001B2 (en) | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
JP5304329B2 (ja) | 2009-03-05 | 2013-10-02 | ブラザー工業株式会社 | ヘッドマウントディスプレイ装置、画像制御方法および画像制御プログラム |
KR20110054256A (ko) * | 2009-11-17 | 2011-05-25 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US8400548B2 (en) * | 2010-01-05 | 2013-03-19 | Apple Inc. | Synchronized, interactive augmented reality displays for multifunction devices |
US20120019557A1 (en) * | 2010-07-22 | 2012-01-26 | Sony Ericsson Mobile Communications Ab | Displaying augmented reality information |
KR101329882B1 (ko) * | 2010-08-12 | 2013-11-15 | 주식회사 팬택 | Ar 정보창 표시를 위한 사용자 장치 및 그 방법 |
US9710554B2 (en) | 2010-09-23 | 2017-07-18 | Nokia Technologies Oy | Methods, apparatuses and computer program products for grouping content in augmented reality |
US20120092329A1 (en) * | 2010-10-13 | 2012-04-19 | Qualcomm Incorporated | Text-based 3d augmented reality |
KR101266198B1 (ko) * | 2010-10-19 | 2013-05-21 | 주식회사 팬택 | 증강현실 객체정보의 가시성을 높이는 디스플레이 장치 및 디스플레이 방법 |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US20120139907A1 (en) * | 2010-12-06 | 2012-06-07 | Samsung Electronics Co., Ltd. | 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system |
US9213405B2 (en) | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
CN103797513A (zh) | 2011-01-06 | 2014-05-14 | 珀恩特格拉伯有限公司 | 对内容的基于计算机视觉的双手控制 |
KR101252169B1 (ko) | 2011-05-27 | 2013-04-05 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US9377865B2 (en) * | 2011-07-05 | 2016-06-28 | Apple Inc. | Zoom-based gesture user interface |
US8881051B2 (en) * | 2011-07-05 | 2014-11-04 | Primesense Ltd | Zoom-based gesture user interface |
US8558759B1 (en) * | 2011-07-08 | 2013-10-15 | Google Inc. | Hand gestures to signify what is important |
US20130021374A1 (en) * | 2011-07-20 | 2013-01-24 | Google Inc. | Manipulating And Displaying An Image On A Wearable Computing System |
WO2013093906A1 (en) * | 2011-09-19 | 2013-06-27 | Eyesight Mobile Technologies Ltd. | Touch free interface for augmented reality systems |
US20130088514A1 (en) * | 2011-10-05 | 2013-04-11 | Wikitude GmbH | Mobile electronic device, method and webpage for visualizing location-based augmented reality content |
US10409446B2 (en) * | 2012-02-17 | 2019-09-10 | Sony Corporation | Information processing apparatus and method for manipulating display position of a three-dimensional image |
US9747306B2 (en) * | 2012-05-25 | 2017-08-29 | Atheer, Inc. | Method and apparatus for identifying input features for later recognition |
US20130328925A1 (en) * | 2012-06-12 | 2013-12-12 | Stephen G. Latta | Object focus in a mixed reality environment |
US8837780B2 (en) * | 2012-06-22 | 2014-09-16 | Hewlett-Packard Development Company, L.P. | Gesture based human interfaces |
US9076033B1 (en) * | 2012-09-28 | 2015-07-07 | Google Inc. | Hand-triggered head-mounted photography |
US10133342B2 (en) | 2013-02-14 | 2018-11-20 | Qualcomm Incorporated | Human-body-gesture-based region and volume selection for HMD |
KR20150096948A (ko) * | 2014-02-17 | 2015-08-26 | 엘지전자 주식회사 | 증강 현실 사진 촬영 가이드를 디스플레이 하는 헤드 마운티드 디스플레이 디바이스 및 그 제어 방법 |
-
2013
- 2013-02-14 US US13/767,820 patent/US10133342B2/en active Active
-
2014
- 2014-02-12 ES ES14711329T patent/ES2759054T3/es active Active
- 2014-02-12 HU HUE14711329A patent/HUE047027T2/hu unknown
- 2014-02-12 KR KR1020157023083A patent/KR102358983B1/ko active IP Right Grant
- 2014-02-12 EP EP14711329.4A patent/EP2956843B1/en active Active
- 2014-02-12 JP JP2015558093A patent/JP6356157B2/ja active Active
- 2014-02-12 CN CN201480008261.6A patent/CN105027033B/zh active Active
- 2014-02-12 WO PCT/US2014/015946 patent/WO2014126966A1/en active Application Filing
- 2014-02-12 EP EP19162420.4A patent/EP3518080A1/en active Pending
- 2014-02-13 TW TW103104784A patent/TWI534654B/zh not_active IP Right Cessation
-
2018
- 2018-09-25 US US16/141,915 patent/US11262835B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008017501A (ja) * | 2007-07-27 | 2008-01-24 | Fujifilm Corp | 電子カメラ |
JP2010067083A (ja) * | 2008-09-11 | 2010-03-25 | Brother Ind Ltd | ヘッドマウントディスプレイ |
Also Published As
Publication number | Publication date |
---|---|
CN105027033A (zh) | 2015-11-04 |
KR20150116871A (ko) | 2015-10-16 |
US10133342B2 (en) | 2018-11-20 |
TWI534654B (zh) | 2016-05-21 |
HUE047027T2 (hu) | 2020-04-28 |
ES2759054T3 (es) | 2020-05-07 |
CN105027033B (zh) | 2017-10-31 |
TW201502860A (zh) | 2015-01-16 |
US11262835B2 (en) | 2022-03-01 |
JP6356157B2 (ja) | 2018-07-11 |
US20140225918A1 (en) | 2014-08-14 |
EP2956843B1 (en) | 2019-08-28 |
WO2014126966A1 (en) | 2014-08-21 |
JP2016514298A (ja) | 2016-05-19 |
EP3518080A1 (en) | 2019-07-31 |
EP2956843A1 (en) | 2015-12-23 |
US20190025909A1 (en) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11262835B2 (en) | Human-body-gesture-based region and volume selection for HMD | |
JP7297216B2 (ja) | 拡張現実システムのためのタッチフリーインターフェース | |
US11366516B2 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
US10591729B2 (en) | Wearable device | |
US9165381B2 (en) | Augmented books in a mixed reality environment | |
KR101603680B1 (ko) | 컴퓨터 비젼 애플리케이션들에서 상호작용 반경을 확대하기 위한 제스쳐-제어 기법 | |
US11710310B2 (en) | Virtual content positioned based on detected object | |
KR20230124363A (ko) | 전자 장치 및 전자 장치의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |