KR20220022340A - 컨텐츠를 시각화하는 장치 및 방법 - Google Patents
컨텐츠를 시각화하는 장치 및 방법 Download PDFInfo
- Publication number
- KR20220022340A KR20220022340A KR1020200103404A KR20200103404A KR20220022340A KR 20220022340 A KR20220022340 A KR 20220022340A KR 1020200103404 A KR1020200103404 A KR 1020200103404A KR 20200103404 A KR20200103404 A KR 20200103404A KR 20220022340 A KR20220022340 A KR 20220022340A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual content
- content object
- user
- virtual
- projection plane
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 16
- 238000012800 visualization Methods 0.000 claims abstract description 86
- 238000007794 visualization technique Methods 0.000 claims abstract description 22
- 230000004044 response Effects 0.000 claims description 17
- 239000011521 glass Substances 0.000 claims description 14
- 230000003190 augmentative effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/28—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
- B60K35/81—Arrangements for controlling instruments for controlling displays
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3635—Guidance using 3D or perspective road maps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/149—Instrument input by detecting viewing direction not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/166—Navigation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/177—Augmented reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/16—Type of output information
- B60K2360/179—Distances to obstacles or vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/20—Optical features of instruments
- B60K2360/33—Illumination features
- B60K2360/347—Optical elements for superposition of display information
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0183—Adaptation to parameters characterising the motion of the vehicle
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Optics & Photonics (AREA)
- Automation & Control Theory (AREA)
- Architecture (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Instrument Panels (AREA)
Abstract
일 실시예에 따른 컨텐츠 시각화 장치는 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태의 비율에 기초하여, 상기 가상 컨텐츠 객체를 조정하고 시각화할 수 있다.
Description
이하, 컨텐츠를 시각화하는 기술이 제공된다.
차량 및 기타 운송 수단의 주행을 보조하기 위해 다양한 시각 정보(Visual Information)를 나타내는 증강 현실(AR, Augmented Reality)이 차량에 탑재된 디스플레이 또는 네비게이션(Navigation)을 통해 제공되고 있다. 예를 들어, AR 기반 HUD(Head-Up Display) 장치를 통해 주행 정보를 표시하려는 시도가 이루어지고 있다.
일 실시예에 따른 프로세서에 의해 수행되는 컨텐츠 시각화 방법은, 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 단계; 및 상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에 시각화하는 단계를 포함할 수 있다.
상기 가상 컨텐츠 객체를 조정하는 단계는, 상기 가상 컨텐츠 객체에 대응하는 공간에 속하는 지점들 중 한 지점을 기준 점으로서 설정하는 단계; 및 상기 설정된 기준 점에 기초하여 상기 가상 컨텐츠 객체를 변경하는 단계를 포함할 수 있다.
상기 설정된 기준 점에 기초하여 상기 가상 컨텐츠 객체를 변경하는 단계는, 상기 가상 컨텐츠 객체의 형태를 상기 사용자로부터 상기 기준 점을 향하는 방향 축을 따라 연장하는 단계를 포함할 수 있다.
상기 설정된 기준 점에 기초하여 상기 가상 컨텐츠 객체를 변경하는 단계는, 상기 기준 점에서 상기 사용자로부터 상기 기준 점을 향하는 방향 축에 수직하는 기준 축을 설정하는 단계; 및 상기 기준 축을 기준으로 상기 가상 컨텐츠 객체를 회전시키는 단계를 포함할 수 있다.
상기 기준 점을 설정하는 단계는, 상기 사용자로부터 상기 가상 컨텐츠 객체를 향하는 기준 평면에 평행한 방향 축이 상기 가상 컨텐츠 객체를 통과하는 지점들 중 한 지점을 상기 기준 점으로 결정하는 단계를 포함할 수 있다.
상기 기준 점을 설정하는 단계는, 상기 가상 컨텐츠 객체에 속하는 지점들의 물리적 위치 및 사용자의 시점(viewpoint) 간의 거리에 기초하여, 상기 지점들 중 하나를 선택하는 단계를 포함할 수 있다.
상기 지점들 중 하나를 선택하는 단계는, 상기 지점들 중 상기 사용자의 시점까지의 거리가 가장 가까운 거리를 갖는 지점을 상기 기준 점으로 결정하는 단계를 포함할 수 있다.
상기 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 단계는, 상기 가상 컨텐츠 객체가 투사된 형태의 상기 프로젝션 평면에서의 너비 및 높이 간의 비율에 기초하여 상기 가상 컨텐츠 객체를 변경하는 단계를 포함할 수 있다.
상기 가상 컨텐츠 객체를 변경하는 단계는, 상기 가상 컨텐츠 객체의 투사된 형태의 상기 너비 및 높이 간의 비율을 기준 거리에 대해 지정된 목표 비율로 피팅하는 단계를 포함할 수 있다.
상기 가상 컨텐츠 객체를 변경하는 단계는, 상기 가상 컨텐츠 객체에 속하는 지점들 중 시점으로부터 가장 가까운 근위 지점(proximal point) 및 상기 시점으로부터 가장 먼 원위 지점(distal point)의 프로젝션 평면 상에서의 위치들에 기초하여 상기 가상 컨텐츠 객체의 프로젝션 평면 상 높이를 산출하는 단계; 및 상기 가상 컨텐츠 객체에 대해 기준 축을 따른 너비를 산출하는 단계를 포함할 수 있다.
상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에 시각화하는 단계는, 상기 가상 컨텐츠 객체의 하단부를 기준 평면 상에 위치시켜 시각화하는 단계를 포함할 수 있다.
상기 가상 컨텐츠 객체를 조정하는 단계는, 좌영상에 대응하는 제1 그래픽 객체에 제1 기준 점 및 제1 기준 축을 설정하는 단계; 상기 제1 기준 점 및 상기 제1 기준 축에 기초하여 상기 제1 그래픽 객체를 조정하는 단계; 우영상에 대응하는 제2 그래픽 객체에 제2 기준 점 및 제2 기준 축을 설정하는 단계; 및 상기 제2 기준 점 및 상기 제2 기준 축에 기초하여 상기 제2 그래픽 객체를 조정하는 단계를 포함할 수 있다.
상기 시각화하는 단계는, 상기 조정된 제1 그래픽 객체를 사용자의 좌안으로 제공하고, 상기 조정된 제2 그래픽 객체를 사용자의 우안으로 제공하는 단계를 포함할 수 있다.
상기 가상 컨텐츠 객체를 조정하는 단계는, 사용자의 시점 이동이 검출되는 경우에 응답하여, 상기 가상 컨텐츠 객체의 형태를 변경하는 단계를 포함할 수 있다.
상기 가상 컨텐츠 객체를 조정하는 단계는, 사용자의 시점 및 상기 가상 컨텐츠 객체의 물리적 위치가 가까워지는 경우에 응답하여, 상기 사용자로부터 기준 점을 향하는 상기 기준 평면에 평행한 방향 축에 따른 상기 가상 컨텐츠 객체의 길이를 감소시키는 단계; 및 사용자의 시점 및 상기 가상 컨텐츠 객체의 물리적 위치가 멀어지는 경우에 응답하여, 상기 사용자로부터 기준 점을 향하는 상기 기준 평면에 평행한 방향 축에 따른 상기 가상 컨텐츠 객체의 길이를 증가시키는 단계를 포함할 수 있다.
상기 가상 컨텐츠 객체를 조정하는 단계는, 사용자의 시점 및 상기 가상 컨텐츠 객체의 물리적 위치가 가까워지는 경우에 응답하여, 기준 축을 기준으로 기준 평면(reference plane)과 상기 가상 컨텐츠 객체의 밑면 간의 각도를 감소시키는 단계; 및 사용자의 시점 및 상기 가상 컨텐츠 객체의 물리적 위치가 멀어지는 경우에 응답하여, 기준 축을 기준으로 상기 기준 평면과 상기 가상 컨텐츠 객체의 밑면 간의 각도를 증가시키는 단계를 포함할 수 있다.
일 실시예에 따른 컨텐츠 시각화 장치는, 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 프로세서; 및 상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에 시각화하는 디스플레이를 포함할 수 있다.
일 실시예에 따른 증강 현실 안경(Augmented Reality glass, AR glass) 장치는, 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 프로세서; 및 상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에서 시각화하면서, 상기 조정된 가상 컨텐츠 객체를 주변의 실제 환경에 오버레이하여 제공하는 투명 디스플레이를 포함할 수 있다.
일 실시예에 따른 차량은, 상기 차량의 위치를 센싱하는 센서; 상기 차량의 위치에 기초하여 사용자에게 제공할 가상 컨텐츠 객체를 결정하고, 상기 결정된 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 프로세서; 및 상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에 시각화하는 헤드업 디스플레이(head-up display, HUD)를 포함할 수 있다.
도 1은 일 실시예에 따라 시각화된 컨텐츠의 예시를 설명하는 도면이다.
도 2는 일 실시예에 따른 컨텐츠를 시각화하는 장치의 구성을 도시한 블록도이다.
도 3은 일 실시예에 따른 컨텐츠를 시각화하는 장치의 헤드업 디스플레이(HUD, head up display)의 구성을 도시한 블록도이다.
도 4는 가상 컨텐츠 객체 시각화의 예시를 설명한다.
도 5 및 도 6은 일 실시예에 따른 컨텐츠 시각화 방법을 설명하는 흐름도이다.
도 7 내지 도 10은 일 실시예에 따른 가상 컨텐츠 객체의 예시적인 변형을 설명한다.
도 11은 일 실시예에 따른 가상 컨텐츠 객체의 예시적인 회전을 설명한다.
도 12 및 도 13은 일 실시예에 따른 가상 컨텐츠 객체 상의 기준 점 및 기준 축의 설정을 설명한다.
도 14는 일 실시예에 따른 가상 컨텐츠 객체의 다양한 변형 예시를 설명한다.
도 2는 일 실시예에 따른 컨텐츠를 시각화하는 장치의 구성을 도시한 블록도이다.
도 3은 일 실시예에 따른 컨텐츠를 시각화하는 장치의 헤드업 디스플레이(HUD, head up display)의 구성을 도시한 블록도이다.
도 4는 가상 컨텐츠 객체 시각화의 예시를 설명한다.
도 5 및 도 6은 일 실시예에 따른 컨텐츠 시각화 방법을 설명하는 흐름도이다.
도 7 내지 도 10은 일 실시예에 따른 가상 컨텐츠 객체의 예시적인 변형을 설명한다.
도 11은 일 실시예에 따른 가상 컨텐츠 객체의 예시적인 회전을 설명한다.
도 12 및 도 13은 일 실시예에 따른 가상 컨텐츠 객체 상의 기준 점 및 기준 축의 설정을 설명한다.
도 14는 일 실시예에 따른 가상 컨텐츠 객체의 다양한 변형 예시를 설명한다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수 개의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 실시예에 따라 시각화된 컨텐츠의 예시를 설명하는 도면이다.
일 실시예에 따른 컨텐츠를 시각화하는 장치는 가상 컨텐츠 객체를 시각화할 수 있다. 가상 컨텐츠 객체는 컨텐츠에 대응하는 그래픽 객체를 나타낼 수 있다. 가상 컨텐츠 객체를 예를 들어, 경로 안내 컨텐츠(121)에 대응하는 그래픽 객체를 포함할 수 있다.
예를 들어, 컨텐츠를 시각화하는 장치는 객체 배치 공간(110) 내의 임의의 위치에 그래픽 객체를 배치하고, 시각화할 수 있다. 컨텐츠를 시각화하는 장치는 사용자의 좌안에 좌안 영상, 사용자의 우안에 우안 영상을 제공함으로써, 그래픽 객체를 입체적으로 제공할 수 있다. 좌안 영상 및 우안 영상은 서로에 대해 수평축을 따라 깊이에 따른 시차(disparity)만큼 이격된 그래픽 객체를 포함할 수 있다. 따라서 사용자는 입체적으로 렌더링된 그래픽 객체의 깊이감을 인식할 수 있다.
객체 배치 공간(110)은 그래픽 객체가 배치될 수 있는 공간으로서, 3차원 공간을 나타낼 수 있다. 객체 배치 공간(110)은 깊이를 가지는 그래픽 객체가 입체적으로 시각화될 수 있는 공간을 나타낼 수 있다. 객체 배치 공간(110)에 속하는 각 지점의 좌표는 물리적 세계(physical world)의 위치 좌표와 동일하거나 유사한 스케일로 매핑될 수 있다. 객체 배치 공간(110)의 경계(boundary)는 헤드업 디스플레이의 구조에 따라 결정될 수 있다. 예를 들어, 컨텐츠를 시각화하는 장치는 헤드업 디스플레이의 구조에 따라 결정된 최소 깊이(예를 들어, 최소 거리)로부터 최대 깊이(예를 들어, 최대 거리)까지의 공간 내에서 그래픽 객체를 시각화할 수 있다.
객체 배치 공간(110)은 사용자의 시야에 대응하는 공간에 기초하여 결정될 수 있다. 객체 배치 공간(110)의 형태 및 크기는 아이 박스(190)(eye box)의 크기 및 헤드업 디스플레이에 의해 제공될 수 있는 시야각(FOV, field of view)에 기초하여 결정될 수 있다. 예를 들어, 객체 배치 공간(110)은, 사각뿔(rectangular cone) 형태로서, 아이 박스(190)로부터 시야각에 대응하여 확장되는 형태의 공간일 수 있다. 아이 박스(190)는 사용자의 두 눈(both eyes)이 위치하는 것으로 설정된 영역을 나타낼 수 있다. 아이 박스(190)의 위치는 고정될 수 있으나, 이로 한정하는 것은 아니고, 사용자에 대해 검출되는 눈의 위치에 따라 변경될 수도 있다. 또한, 객체 배치 공간(110)의 형태를 사각뿔 형태로 한정하는 것은 아니고, 설계에 따라 변경될 수도 있다.
일 실시예에 따른 컨텐츠를 시각화하는 장치는, 윈드 쉴드 글래스(wind shield glass)(180) 너머로 객체 배치 공간(110) 내 표시 위치에, 다양한 종류의 그래픽 표현을 시각화 할 수 있고, 서로 다른 종류의 그래픽 표현은 서로 다른 객체 배치 공간(110)에 시각화 할 수 있도록 구현할 수 있다.
객체 배치 공간(110) 내에 표시 가능한 그래픽 표현의 종류는 예를 들어 경로 안내 컨텐츠(121), 경로 지시선(122), 및 경고 컨텐츠(123) 등을 포함할 수 있다. 이 외에도 객체 배치 공간(110)내에 표시 가능한 그래픽 표현의 종류는 다양한 형태로 변경 및 실시 가능하다.
사용자는 객체 배치 공간(110) 내 표시 위치에 대응하는 물리적 위치에 해당 그래픽 표현들이 존재한다고 인식할 수 있다. 상술한 바와 같이, 객체 배치 공간(110)의 각 좌표는 물리적 좌표와 일대일로 매핑될 수 있다. 또한, 가상 컨텐츠 객체는 해당 형태만큼의 공간을 차지할 수 있다. 예를 들어, 가상 컨텐츠 객체는 객체 배치 공간(110) 내 일부 공간을 차지할 수 있다.
경로 안내 컨텐츠(121)는 목적지까지의 경로를 진행하기 위해 제공되어야 하는 경로 안내 정보가 시각화된 컨텐츠로서, 예를 들어, 사용자가 직진해야 하는 거리를 지시하는 숫자 및 문자, 갈림길에서 방향 전환(예를 들어, 좌회전 및 우회전 등)을 지시하는 화살표, 현재 주행 중인 도로(170)에서의 제한 속도, 현재 주행 중인 위치의 지역명, 및 도로명 등을 포함할 수 있다. 경로 안내 정보는 사용자에 의해 설정된 경로에 따른 사용자의 이동을 안내하는 정보 및 해당 경로와 연관된 정보를 나타낼 수 있다. 예를 들어, 경로 안내 정보는 사용자가 직진해야 하는 거리(distance), 갈림길에서 방향 전환(turn) 등을 포함할 수 있다. 경로는 출발지로부터 목적지까지 사용자가 통과해야 하는 길(path)을 나타낼 수 있다. 또한, 경로 안내 정보는 목적지까지의 경로와 연관된 정보로서, 경로에 포함되는 도로(170)의 위치, 지역, 명칭, 속성, 및 안전 정보(예를 들어, 제한 속도, 공사 정보, 및 사고 정보 등)를 포함할 수 있다. 경로 지시선(122)은 목적지까지의 경로를 지시하는 선이고, 경로 안내 컨텐츠(121)와 구별되는 형태의 경로 안내 정보로서 시각화될 수 있다. 경고 컨텐츠(123)는 현재 주행환경에서 필요한 경우 사용자에게 주어져야 하는 경고 메시지를 포함할 수 있다.
일 실시예에 따른 컨텐츠를 시각화하는 장치는 센서(예를 들어, 카메라 센서, GNSS 모듈, 레이더 센서 및 LIDAR 센서등)를 이용하여, 차량의 위치를 추정할 수 있다. 컨텐츠를 시각화하는 장치는 차량의 위치로부터 운전자의 눈 위치만큼의 오차 간격을 고려하여, 경로 안내 컨텐츠(121)에 대응하는 그래픽 객체를 실제 도로(170)에 정합하여 시각화할 수 있다. HD 맵 데이터가 사용되는 경우, 컨텐츠를 시각화하는 장치는 보다 정확한 위치에 경로 안내 컨텐츠(121)를 정합할 수 있다. 이러한 정합을 통해, 컨텐츠를 시각화하는 장치는 운전자의 심리적 안정감을 개선할 수 있다.
참고로, 본 명세서에서는 설명의 편의를 위하여, 가상 컨텐츠 객체의 예시로서 주로 경로 안내 컨텐츠의 조정을 설명하나, 이로 한정하는 것은 아니다. 일 실시예에 따른 컨텐츠 시각화는 객체 배치 공간 내에 시각화되는 모든 그래픽 객체에 적용될 수 있다.
도 2는 일 실시예에 따른 컨텐츠를 시각화하는 장치의 구성을 도시한 블록도이다.
컨텐츠를 시각화하는 장치(200)는 센서(210), 디스플레이(220), 프로세서(230) 및 메모리(240)를 포함한다.
센서(210)는 컨텐츠의 시각화를 위해 필요한 정보를 센싱할 수 있다. 일 실시예에 따르면, 센서(210)는 사용자의 주변에 위치하는 객체까지의 거리를 측정할 수 있고, 예를 들어, 라이다(LIDAR, Light Detection and Ranging) 및 레이더(RADAR, Radio Detection and Ranging) 등을 포함할 수 있다. 또한, 센서(210)는 컨텐츠를 시각화하는 장치(200)가 장착된 기기의 상태와 관련된 정보를 센싱할 수 있다. 예를 들어, 차량에 장착된 경우, 센서(210)는 차량과 관련된 정보를 센싱할 수 있으며, 차량과 관련된 정보는 차량의 위치 정보, 차량의 위치에 대응하는 도로 정보, 및 차량의 주행 관련 정보 등을 포함할 수 있다. 여기서 주행 관련 정보는 차량의 주행과 관련된 정보로서, 예를 들어, 차량의 속도, 가속도, 위치, 연료, 및 정비와 관련된 정보일 수 있다. 또한, 센서(210)는 차량 내부를 촬영하는 내부 센서를 포함할 수도 있다. 내부 센서는 카메라 센서(예를 들어, 컬러 카메라), 적외선 센서, 깊이 센서, 및 열화상 센서 등일 수 있으나, 이로 한정하는 것은 아니다. 내부 센서는 차량 내 사용자의 눈과 관련된 정보를 획득할 수 있고, 프로세서(230)가 사용자의 눈 위치를 결정하여 객체 배치 공간의 설정 및 입체 영상(예를 들어, 좌영상 및 우영상의 쌍)의 시각화에 이용할 수도 있다.
차량의 위치 정보는 차량이 위치하는 현재 좌표일 수 있으며, 현재 차량이 주행 중인 차로 정보까지 지시할 수 있다. 예를 들어, 센서(210)는 GNSS(Global Navigation Satellite System)를 통해 차량의 2차원 좌표를 획득할 수 있다. 또한, 센서(210)는 차량의 전방에 대한 전방 이미지를 획득할 수 있고, 프로세서(230)가 전방 이미지로부터 도로를 구성하는 복수의 차로들 중 현재 차량이 주행 중인 차로(ego lane)를 결정할 수 있다. 다만, 이로 한정하는 것은 아니고, 프로세서(230)는 센서(210)로부터 수집된 이미지에 기초하여, 현재 차량의 위치를 추정할 수도 있다.
도로 정보는 도로의 폭, 도로를 구성하는 차로(lane)의 개수, 차로의 폭, 중앙선(center line), 방향 전환 지점(turn point), 교통 신호(traffic signal) 및 기타 교통(traffic)과 관련된 정보 중 하나 이상을 포함할 수 있다.
디스플레이(220)는 컨텐츠를 시각화하여 사용자에게 제공할 수 있다. 디스플레이(220)는 조정된 가상 컨텐츠 객체를 프로젝션 평면에 시각화할 수 있다. 일 실시예에 따르면 디스플레이(220)는 헤드업 디스플레이일 수 있고, 사용자의 전방에 프로젝션 평면을 형성하여, 프로젝션 평면을 통해 컨텐츠를 사용자에게 제공할 수 있다. 다른 예를 들어, 디스플레이(220)는 증강 현실 안경(Augmented Reality glass, AR glass) 장치에 있어서, 가상 컨텐츠 객체를 주변의 실제 환경에 오버레이하여 제공하는 투명 디스플레이일 수도 있다.
일 실시예에 따르면, 디스플레이(220)는 사용자의 좌안에 좌영상을 제공하고, 우안에 우영상을 제공할 수 있다. 예를 들어, 프로세서(210)는 운전자의 좌안에 대응하는 제1 그래픽 표현을 포함하는 좌영상 및 운전자의 우안에 대응하는 제2 그래픽 표현을 포함하는 우영상을 생성할 수 있다. 디스플레이(220)는 서로에 대해 시차(disparity)를 가지도록 좌영상 및 우영상을 제공할 수 있다. 디스플레이(220)는, 좌영상에서 컨텐츠가 시각화된 그래픽 객체 및 우영상에서 컨텐츠가 시각화된 그래픽 객체를 서로에 대해 양안 시차(binocular disparity)에 기초하여 이격시킴으로써, 깊이를 가지는 컨텐츠를 사용자에게 입체적인 그래픽 객체로 시각화하여 제공할 수 있다. 그래픽 객체의 각 픽셀마다 시차가 결정될 수 있고, 픽셀마다 깊이감이 표현될 수 있다. 예를 들어, 그래픽 객체에서 사용자에게 가까운 근위 부위(proximal part)에 대응하는 픽셀들은 좌안 영상 및 우안 영상에서 큰 시차만큼 이격될 수 있다. 반대로, 그래픽 객체에서 사용자로부터 먼 원위 부위(distal part)에 대응하는 픽셀들은 좌안 영상 및 우안 영상에서 작은 시차만큼 이격될 수 있다.
예를 들어, 디스플레이(220)는 프로세서(230)에 의해 결정된 표시 영역에 경로 안내 컨텐츠에 대응하는 그래픽 객체를 시각화할 수 있다. 사용자 양안의 위치는 상술한 센서(210)(예를 들어, 내부 센서)에 의해 측정되어 프로세서(230)에 제공될 수 있다. 사용자 양안의 위치는 차량이 이동하는 동안 항상 추적되어 운전자가 머리를 상하좌우로 이동하거나 좌석의 높낮이를 조절하더라도 컨텐츠가 입체적으로 전달될 수 있다.
프로세서(230)는 디스플레이(220)를 통해 시각화되는 컨텐츠를 생성(create), 및 조정(adjust)할 수 있다. 일 실시예에 따르면 프로세서(230)는 추정된 전방 도로 영역에 기초하여 객체 배치 공간을 생성할 수 있다. 프로세서(230)는 객체 배치 공간에 배치된 가상 컨텐츠 객체를 프로젝션 평면에 투사된 형태로 렌더링하여 디스플레이(220)를 통해 사용자에게 제공할 수 있다. 일 실시예에 따른, 프로세서(230)는 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 가상 컨텐츠 객체를 조정할 수 있다. 예를 들어, 프로세서(230)는 임의의 기준 점 및 기준 축에 기초하여 가상 컨텐츠 객체를 변형(deform)시키거나 회전(rotate)시킬 수 있다. 다만, 프로세서(230)의 동작을 상술한 바로 한정하는 것은 아니고, 프로세서(230)는 아래 도 3 내지 도 14에서 설명된 동작들 중 적어도 하나와 함께 상술한 동작을 수행할 수도 있다. 프로세서(230)의 보다 상세한 동작은 하기 도 3 내지 도 14에서 설명한다.
메모리(240)는 컨텐츠 시각화에 요구되는 정보를 임시적으로 또는 영구적으로 저장할 수 있다. 예를 들어, 메모리(240)는 프로세서(230)에 의해 실행되어 하기 도 3 내지 도 14에 따른 동작을 수행하기 위한 명령어들을 저장할 수 있다. 또한, 메모리(240)는 가상 컨텐츠 객체, 경로 안내 정보, 및 맵 데이터베이스 등을 저장할 수도 있다. 맵 데이터베이스는 맵 데이터를 저장하는 데이터베이스를 나타낼 수 있다. 맵 데이터베이스는 예를 들어, HD(high definition) 맵 데이터를 저장할 수도 있다. HD 맵 데이터는, 예를 들어, 차로 개수, 차로의 폭, 및 중심선의 위치 등과 같은 정밀 데이터(fine data)에 관한 정보를 포함할 수 있다.
일 실시예에 따른 컨텐츠를 시각화하는 장치(200)는 차량용 3차원 헤드업 디스플레이 장치 및 차량의 주행 경로를 지시하는 내비게이션 장치 등으로 구현될 수 있다. 또한, 컨텐츠를 시각화하는 장치(200)는 사용자에게 증강 현실을 제공하도록 구현될 수 있다. 예를 들어, 컨텐츠를 시각화하는 장치(200)는 차량의 본네트 너머의 일정 범위(예를 들어, 차량으로부터 5m 내지 70m)의 깊이로 컨텐츠를 디스플레이할 수 있다. 다만, 컨텐츠를 시각화하는 장치(200)의 어플리케이션을 이로 한정하는 것은 아니다.
도 3은 일 실시예에 따른 컨텐츠를 시각화하는 장치의 헤드업 디스플레이(HUD, head up display)의 구성을 도시한 블록도이다.
컨텐츠 시각화 시스템(300)은 사용자(390)에게 가상 컨텐츠 객체(361)를 제공하는 시스템으로써, 예를 들어, 컨텐츠를 시각화하는 장치(310)가 장착된 기기일 수 있다.
컨텐츠를 시각화하는 장치(310)는 센서(311), 프로세서(312), 및 헤드업 디스플레이(313)를 포함할 수 있다.
센서(311)는 전방에 존재하는 객체(object)를 검출할 수 있다. 예를 들어, 센서(311)는 전방에 존재하는 객체까지의 거리(distance)를 측정할 수 있다. 다만, 이로 한정하는 것은 아니고, 센서(311)는 차량의 주위에 존재하는 객체까지의 거리를 측정할 수 있고, 주변에 존재하는 객체까지의 거리를 지시하는 주변 거리 맵을 생성할 수 있다. 또한, 센서(311)는 차량의 전방, 후방, 좌측, 및 우측의 환경을 촬영하여 이미지를 생성할 수 있다. 센서(311)는 GNSS와 같이 장치(310)의 위치를 측정 및 추정하는 모듈을 포함할 수도 있다.
프로세서(312)는 사용자(390)에게 제공할 가상 컨텐츠 객체(361)를 획득할 수 있다. 가상 컨텐츠 객체(361)는 사용자에게 정보를 제공하기 위한 객체를 나타낼 수 있다. 또한, 프로세서(312)는 센서(311)에 의해 센싱된 주변 정보(예를 들어, 주변의 객체까지의 거리 및 객체를 포함하는 영상 등)를 분석하여, 객체를 모델링하거나, 객체의 위치를 검출하거나, 객체를 인식하는 동작 등을 수행할 수 있다. 다른 예를 들어, 프로세서(312)는 장치(310)의 현재 위치를 결정할 수 있다. 프로세서(312)는 현재 위치 및 헤드업 디스플레이(313)의 시야각에 따른 객체 배치 공간에 기초하여, 사용자에게 제공할 가상 컨텐츠 객체(361)를 선택하여 로딩할 수도 있다. 가상 컨텐츠 객체(361)의 선택은 하기 도 12에서 설명한다.
헤드업 디스플레이(313)는 사용자(390)의 전방에 위치되는 사용자(390)의 가시 영역(visible region)에 가상 컨텐츠 객체(361)를 시각화할 수 있다. 예를 들어, 헤드업 디스플레이(313)는 사용자(390)의 전방에 배치되는 유리창(예를 들어, 차량의 윈드쉴드 글래스(windshield glass))에 가상 컨텐츠 객체(361)를 시각화할 수 있다. 헤드업 디스플레이(313)는 가상의 프로젝션 평면(350)을 형성할 수 있다. 프로젝션 평면(350)은 헤드업 디스플레이(313)에 의해 생성된 가상 컨텐츠 객체(361)를 포함하는 허상(virtual image)이 표시되는 평면을 나타낼 수 있다. 사용자(390)는 프로젝션 평면(350)에 허상이 배치된 것으로 인식할 수 있다. 프로젝션 평면(350)는 사용자(390)의 눈에 의해 관측될 수 있는(observable) 영역에 형성될 수 있다.
또한, 헤드업 디스플레이(313)는 프로젝션 평면(350)에 깊이를 가지는 가상 컨텐츠 객체(361)를 시각화할 수 있다. 예를 들어, 프로세서(312)는, 프로젝션 평면(350)을 기준으로 가상 컨텐츠 객체(361)가 시각화될 수 있는 깊이를 해당 객체를 구성하는 픽셀 별로 결정할 수 있고, 헤드업 디스플레이(313)는 결정된 깊이에 기초하여 사용자(390)를 기준으로 프로젝션 평면(350)으로부터 먼 깊이 또는 가까운 깊이를 가지도록 가상 컨텐츠 객체(361)를 시각화할 수 있다. 다시 말해, 가상 컨텐츠 객체(361)를 구성하는 픽셀 별로 양안 시차가 결정될 수 있다. 헤드업 디스플레이(313)는 가상 영역(360) 내에 해당하는 깊이를 가지는 가상 컨텐츠 객체(361)를 프로젝션 평면(350)에 시각화할 수 있다. 여기서, 프로세서(312)는 헤드업 디스플레이(313)의 광학계에 기초하여, 가상 컨텐츠 객체(361)를 3차원 그래픽 표현(graphic representation)으로 렌더링할 수 있다. 3차원 그래픽 표현은 깊이를 가지는 입체적인 그래픽 표현을 나타낼 수 있고, 아래에서는 그래픽 객체라고 나타낼 수 있다. 헤드업 디스플레이(313)는, 가상 컨텐츠 객체(361)가 가지는 깊이에 기초하여, 좌영상(left image) 및 우영상(right image)이 출력되는 프로젝션 평면(350)을 형성할 수 있고, 프로젝션 평면(350)을 통해 좌영상을 사용자(390)의 좌안(left eye)에, 우영상을 사용자(390)의 우안(right eye)에 제공할 수 있다. 따라서, 사용자(390)는 입체적으로 렌더링된 가상 컨텐츠 객체(361)의 깊이감을 인식할 수 있다.
일 실시예에 따른 헤드업 디스플레이(313)는 예를 들어, 화상 생성부(picture generation unit)(314), 폴드 거울(fold mirror)(315) 및 오목 거울(316)을 포함할 수 있다. 다만, 헤드업 디스플레이(313)의 구성을 이로 한정하는 것은 아니고, 설계에 따라 사용자(390)의 전방에 배치된 유리창으로의 투사를 통해 허상이 맺히는 프로젝션 평면(350)을 형성하는 다양한 구성요소를 포함할 수도 있다.
본 명세서에서는 컨텐츠를 시각화하는 장치(310)가 차량에 장착된 예시를 중심으로 설명하지만, 이로 한정하는 것은 아니다. 예를 들어, 컨텐츠를 시각화하는 장치(310)는 증강현실 안경(AR glass, Augmented Reality glass) 및 혼합현실(MR, mixed reality) 장치 등과 같이 현실과 가상의 정보를 결합시키는 기술에 적용될 수 있다.
일 실시예에 따른 컨텐츠를 시각화하는 장치(310)는, 가상 컨텐츠 객체(361)의 깊이를 조절함으로써, 헤드업 디스플레이(313)에 의해 형성되는 프로젝션 평면(350)의 위치 변경 없이도, 연속적인 깊이를 표현할 수 있다. 또한, 컨텐츠를 시각화하는 장치(310)는, 프로젝션 평면(350)의 위치를 변경할 필요가 없으므로, 헤드업 디스플레이(313)에 포함된 구성요소들에 대한 물리적인 조작을 요구하지 않는다. 컨텐츠를 시각화하는 장치(310)가 차량에 장착된 경우, 컨텐츠를 시각화하는 장치(310)는 운전자의 전방에 3차원 가상 컨텐츠 객체(361)를 동적으로 시각화할 수 있다. 도 3에 도시된 바와 같이, 사용자에 의해 관측되는 장면(scene)(391)은 실제 물리 사물 및 배경에 중첩되어 시각화되는 가상 컨텐츠 객체(361)를 포함할 수 있다.
일 실시예에 따른 컨텐츠를 시각화하는 장치(310)는 보다 자연스럽게 시각화되도록 가상 컨텐츠 객체(361)를 조정할 수 있다. 컨텐츠를 시각화하는 장치(310)의 구체적인 동작은 아래에서 설명한다.
도 4는 가상 컨텐츠 객체 시각화의 예시를 설명한다.
앞서 설명한 바와 같이 사용자는 프로젝션 평면을 통해 시각화된 그래픽 객체를 관측할 수 있다. 도 4에서는 사용자로부터 각각 서로 다른 거리에 배치된 가상 컨텐츠 객체들의 시각화 예시를 설명한다. 가상 컨텐츠 객체들의 형태 및 크기는 모두 동일할 수 있다. 제1 가상 컨텐츠 객체(471)는 사용자로부터 제1 거리에 배치된 객체를 나타낼 수 있다. 제2 가상 컨텐츠 객체(472)는 사용자로부터 제2 거리에 배치된 객체를 나타낼 수 있다. 제3 가상 컨텐츠 객체(473)는 사용자로부터 제3 거리에 배치된 객체를 나타낼 수 있다. 제3 거리는 제2 거리보다 크고, 제2 거리는 제1 거리보다 클 수 있다.
제1 가상 컨텐츠 객체(471)는 w1의 너비 및 h1의 높이를 가지는 형태(461)로 프로젝션 평면에 투사될 수 있다. 제2 가상 컨텐츠 객체(472)는 w2의 너비 및 h2의 높이를 가지는 형태(462)로 프로젝션 평면에 투사될 수 있다. 제3 가상 컨텐츠 객체(473)는 w3의 너비 및 h3의 높이를 가지는 형태(463)로 프로젝션 평면에 투사될 수 있다. 사용자로부터 가상 컨텐츠 객체까지의 거리가 멀어질수록, 프로젝션 평면 및 시점(490)(view point)에 의해 정의되는 시야각(FOV, Field Of View) 및 장면 내 존재하는 소실점(vanishing point)으로 인해 프로젝션 평면에 투사되는 객체 형태에 왜곡이 발생할 수 있다. 소실점에 의한 왜곡으로 가상 컨텐츠 객체에 포함된 정보의 전달이 제한될 수 있다. 도 4를 예로 들면, 개별 가상 컨텐츠 객체가 프로젝션 평면에 투사된 형태의 너비 대비 높이의 비율 h/w는, h1/w1 > h2/w2 > h3/w3 일 수 있다. 다시 말해, 시점(490)으로부터 가상 컨텐츠 객체까지의 거리가 멀수록, 해당 가상 컨텐츠 객체는 프로젝션 평면에서 실제보다 납작하게 표현될 수 있다.
본 명세서에서, 가상 컨텐츠 객체 별 프로젝션 평면에서의 너비는 해당 가상 컨텐츠 객체가 프로젝션 평면에 투사된 형태를 둘러싸는(enclose) 직사각형 바운딩 박스(bounding box)(450)의 너비를 나타낼 수 있다. 예를 들어, 투사된 형태의 너비는 해당 가상 컨텐츠 객체가 투사된 형태에서 가장 왼쪽에 대응하는 지점 및 가장 오른쪽에 대응하는 지점 간의 수평 축을 따른 거리(예를 들어, 투사된 형태의 최대 수평 거리)를 나타낼 수 있다. 컨텐츠 시각화 장치는 가상 컨텐츠 객체에 대해 기준 축을 따른 너비를 산출할 수 있다. 유사하게, 가상 컨텐츠 객체 별 프로젝션 평면에서의 높이는 해당 가상 컨텐츠 객체가 프로젝션 평면에 투사된 형태를 둘러싸는 직사각형 바운딩 박스(450)의 높이를 나타낼 수 있다. 예를 들어, 해당 가상 컨텐츠 객체가 투사된 형태에서 최하부에 대응하는 지점 및 최상부에 대응하는 지점 간의 수직 축을 따른 거리(예를 들어, 투사된 형태의 최대 수직 거리)를 나타낼 수 있다. 컨텐츠 시각화 장치는 가상 컨텐츠 객체에 속하는 지점들 중 시점(490)으로부터 가장 가까운 근위 지점(proximal point) 및 시점(490)으로부터 가장 먼 원위 지점(distal point)의 프로젝션 평면 상에서의 위치들에 기초하여 가상 컨텐츠 객체의 프로젝션 평면에서의 높이를 산출할 수 있다.
아래에서는 거리가 멀어지더라도 가상 컨텐츠 객체의 시인성(visibility) 저하를 방지하는 컨텐츠 시각화 방법을 설명한다.
도 5 및 도 6은 일 실시예에 따른 컨텐츠 시각화 방법을 설명하는 흐름도이다.
우선, 단계(510)에서 프로세서는 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 가상 컨텐츠 객체를 조정할 수 있다. 예를 들어, 프로세서는 가상 컨텐츠 객체에 기준 점을 설정하고, 기준 점을 기초로 가상 컨텐츠 객체를 변형할 수 있다. 다른 예를 들어, 프로세서는 가상 컨텐츠 객체에 기준 축을 설정하고, 기준 축을 기초로 가상 컨텐츠 객체를 회전시킬 수 있다. 기준 점에 기초한 변형 및 기준 축에 기초한 회전은 아래 도 6에서 상세히 설명한다.
일 실시예에 따르면 프로세서는 좌영상에 대응하는 제1 그래픽 객체에 제1 기준 점 및 제1 기준 축을 설정할 수 있다. 프로세서는 제1 기준 점 및 제1 기준 축에 기초하여 제1 그래픽 객체를 조정할 수 있다. 또한, 프로세서는 우영상에 대응하는 제2 그래픽 객체에 제2 기준 점 및 제2 기준 축을 설정할 수 있다. 프로세서는 제2 기준 점 및 제2 기준 축에 기초하여 제2 그래픽 객체를 조정할 수 있다. 기준 점 및 기준 축에 기초한 가상 컨텐츠 객체의 변형 및 회전은 좌영상 및 우영상의 각각에 대해 하기 도 6 내지 도 14에서 설명하는 것과 동일한 방식으로 적용될 수 있다. 예시적으로 좌영상의 제1 그래픽 객체에 대해 좌안 시점(left eye view point)을 기준으로 제1 기준 점 및 제1 기준 축이 설정될 수 있다. 우영상의 제2 그래픽 객체에 대해서는 우안 시점을 기준으로 제2 기준 점 및 제2 기준 축이 설정될 수 있다. 다만, 이로 한정하는 것은 아니고, 좌안 시점 및 우안 시점은 동일한 위치(예를 들어, 아이 박스에 대응하는 시점(viewpoint))로 결정될 수도 있다.
참고로, 본 명세서에서 가상 컨텐츠 객체를 조정하는 동작은, 가상 컨텐츠의 3차원 형상을 조정하는 것뿐 아니라, 설명에 반하지 않는 한, 프로젝션 평면에 투사된 이후의 형상을 조정하는 동작으로도 이해될 수 있다.
그리고 단계(520)에서 디스플레이는 조정된 가상 컨텐츠 객체를 프로젝션 평면에 시각화할 수 있다. 일 실시예에 따르면 디스플레이는 가상 컨텐츠 객체의 하단부를 기준 평면 상에 위치시켜 시각화할 수 있다. 기준 평면은 객체 배치 공간의 밑면일 수 있고, 예를 들어, 지면일 수 있다. 프로세서가 가상 컨텐츠 객체의 하단부의 높이를 기준 평면의 높이보다 높게 유지함으로써, 디스플레이는 가상 컨텐츠 객체가 기준 평면에 중첩되지 않게 출력할 수 있다. 따라서, 가상 컨텐츠 객체 및 기준 평면 간의 중첩에 의한 크로스토크(crosstalk)가 방지될 수 있다.
일 실시예에 따르면 디스플레이는 조정된 제1 그래픽 객체를 사용자의 좌안으로 제공하고, 조정된 제2 그래픽 객체를 사용자의 우안으로 제공할 수 있다. 따라서 컨텐츠 시각화 장치는 사용자의 개별 시점(예를 들어, 좌안 시점 및 우안 시점) 별로 시인성이 유지되는 형태로 가상 컨텐츠 객체를 시각화할 수 있다.
도 6을 참조하면 기준 점에 기초한 변형 및 기준 축에 기초한 회전이 설명된다.
예를 들어, 단계(611)에서 컨텐츠 시각화 장치는 장치의 위치를 결정할 수 있다. 예를 들어, 센서는 컨텐츠 시각화 장치의 위치와 관련된 정보를 수집할 수 있다. 컨텐츠 시각화 장치는 위치와 관련된 정보(예를 들어, GNSS 정보, 가속도 정보, 속도 정보, 및 주변 장면에 대한 이미지 정보 등)로부터 자신의 위치를 결정할 수 있다.
그리고 단계(612)에서 컨텐츠 시각화 장치는 시각화 대상인 가상 컨텐츠 객체를 검색할 수 있다. 예를 들어, 컨텐츠 시각화 장치는 결정된 위치에 기초하여 컨텐츠 데이터베이스로부터 장치 주변의 후보 객체들을 획득할 수 있다. 컨텐츠 시각화 장치는 내부 메모리에 저장된 컨텐츠 데이터베이스에 접근(access)하여 후보 객체를 로딩하거나, 외부 서버를 통해 컨텐츠 데이터베이스에 접근하여 후보 객체를 수신할 수도 있다.
컨텐츠 데이터베이스는 복수의 가상 컨텐츠 객체들에 관한 정보를 포함할 수 있다. 예를 들어, 컨텐츠 데이터베이스는 각 가상 컨텐츠 객체의 외형 정보 및 위치 정보를 포함할 수 있다. 가상 컨텐츠 객체의 외형 정보는 예를 들어, 해당 객체가 시각화되는 형태 및 크기 등을 포함할 수 있다. 가상 컨텐츠 객체가 3차원 그래픽 객체인 경우 외형 정보는, 정점(vertex) 정보, 엣지(edge) 정보, 텍스쳐(texture) 정보, 메쉬(mesh) 정보, 및 폴리곤(polygon) 정보 등을 포함할 수 있다. 위치 정보는 가상 컨텐츠 객체가 매핑된 물리적 위치로서, 예를 들어, 지리적 좌표를 포함할 수 있다. 가상 컨텐츠 객체에 매핑된 물리적 위치는 2차원 상의 좌표뿐 아니라 지면으로부터의 높이도 포함하는 3차원 좌표일 수도 있다.
예를 들어, 컨텐츠 시각화 장치는 결정된 위치를 중심으로 임계 거리 내의 물리적 위치에 매핑된 후보 객체들을 컨텐츠 데이터베이스로부터 획득할 수 있다. 컨텐츠 시각화 장치는 후보 객체들 중 현재 결정된 장치의 위치를 기준으로 하는 객체 배치 공간 내에 포함되는 물리적 위치들에 매핑된 객체를 선택할 수 있다.
이어서 단계(613)에서 컨텐츠 시각화 장치는 가상 컨텐츠 객체에 대해 기준 점 및/또는 기준 축을 설정할 수 있다. 컨텐츠 시각화 장치는 디스플레이에 의해 제공되는 객체 배치 공간 내에 가상 컨텐츠 객체를 배치하고, 배치된 가상 컨텐츠 객체 및 사용자 간의 위치 관계를 이용하여 기준 점 및 기준 축 중 적어도 하나를 설정할 수 있다.
컨텐츠 시각화 장치는 검색된 가상 컨텐츠 객체의 물리적 위치, 사용자의 위치(예를 들어, 장치의 위치), 사용자의 시점 높이, 및 시선 방향에 기초하여 사용자의 현재 위치를 기준으로 가상 컨텐츠 객체의 상대적 위치를 산출할 수 있다. 컨텐츠 시각화 장치는 산출된 상대적 위치에 따라 가상 컨텐츠 객체를 객체 배치 공간 내에 위치시킬 수 있다. 컨텐츠 시각화 장치는 사용자 위치가 변경되는 경우에 응답하여, 변경된 사용자 위치를 기준으로 가상 컨텐츠 객체의 객체 배치 공간 내 위치를 업데이트할 수 있다.
컨텐츠 시각화 장치는 사용자로부터 가상 컨텐츠 객체의 중심을 향하면서 기준 평면에 평행한 방향 축을 따른 객체 상의 지점들 중 하나를 기준 점으로 설정할 수 있다. 컨텐츠 시각화 장치는 기준 점에서 상술한 방향 축에 수직하는 기준 축을 설정할 수 있다. 기준 점 및 기준 축의 설정은 하기 도 12에서 설명한다.
그리고 단계(614)에서 컨텐츠 시각화 장치는 기준 점을 기준으로 가상 컨텐츠 객체를 변형하거나, 기준 축을 기준으로 가상 컨텐츠 객체를 회전시킬 수 있다. 컨텐츠 시각화 장치는 가상 컨텐츠 객체에 대해 변형 및 회전 중 적어도 하나를 적용함으로써, 프로젝션 평면에서 가상 컨텐츠 객체가 납작하게 시각화되는 것을 방지할 수 있다. 따라서, 컨텐츠 시각화 장치는 사용자로부터 먼 거리에 위치된 가상 컨텐츠 객체의 시인성도 최대화할 수 있다.
도 7 내지 도 10은 일 실시예에 따른 가상 컨텐츠 객체의 예시적인 변형을 설명한다.
일 실시예에 따르면 컨텐츠 시각화 장치는 시점(790)으로부터 가상 컨텐츠 객체의 물리적 위치까지의 거리에 따라 해당 가상 컨텐츠 객체를 변형할 수 있다. 예를 들어, 컨텐츠 시각화 장치는 가상 컨텐츠 객체의 형태를 사용자로부터 기준 점을 향하는 방향 축을 따라 연장할 수 있다. 컨텐츠 시각화 장치는 프로젝션 평면(780) 또는 프로젝션 평면(780)에 평행한 평면(781, 782, 783)에 가상 컨텐츠 객체가 투사된 형태에 기초하여 가상 컨텐츠 객체의 연장 길이를 결정할 수 있다. 연장 길이는 사용자의 시점(790) 및 가상 컨텐츠 객체의 물리적 위치 간의 거리에 따라 결정될 수 있다. 컨텐츠 시각화 장치는, 가상 컨텐츠 객체의 연장 길이를 조정함으로써, 미리 지정된 거리에 배치된 가상 컨텐츠 객체를 미리 지정된 시선 방향 축에 대응하는 시야로 관측하는 시인성 레벨(visibility level)을 사용자와 가상 컨텐츠 객체 간의 거리와 무관하게 유지할 수 있다. 시인성 레벨은, 예시적으로, 그림, 문자, 숫자, 및 기호와 같이 정보를 나타내는 형태가 사용자에 의해 명확하게 인식되는 정도를 나타낼 수 있다.
예를 들어, 컨텐츠 시각화 장치는 사용자의 시점(790) 및 가상 컨텐츠 객체의 물리적 위치가 가까워지는 경우에 응답하여, 사용자로부터 기준 점을 향하는 기준 평면(760)에 평행한 방향 축(796)에 따른 가상 컨텐츠 객체의 길이를 감소시킬 수 있다. 다시 말해, 컨텐츠 시각화 장치는 사용자의 시점(790) 및 가상 컨텐츠 객체의 물리적 위치가 멀어지는 경우에 응답하여, 사용자로부터 기준 점을 향하는 기준 평면(760)에 평행한 방향 축(796)에 따른 가상 컨텐츠 객체의 길이를 증가시킬 수 있다.
도 7에 도시된 제1 가상 컨텐츠 객체(771)는 사용자로부터 제1 거리에 배치된 객체를 나타낼 수 있다. 제2 가상 컨텐츠 객체(772)는 사용자로부터 제2 거리에 배치된 객체를 나타낼 수 있다. 제3 가상 컨텐츠 객체(773)는 사용자로부터 제3 거리에 배치된 객체를 나타낼 수 있다. 제3 거리는 제2 거리보다 크고, 제2 거리는 제1 거리보다 클 수 있다. 제1 거리 내지 제3 거리는 도 4와 동일할 수 있다. 도 7에 도시된 바와 같이, 제2 거리에 배치된 제2 가상 컨텐츠 객체(772) 및 제3 거리에 배치된 제3 가상 컨텐츠 객체(773)는, 제1 가상 컨텐츠 객체(771)가 방향 축(796)을 따라 연장된 형태를 가질 수 있다. 하기 도 8은 사용자에게 제공하고자 하는 타겟 시인성 레벨의 기준이 되는 제1 가상 컨텐츠 객체(771)의 시각화를 설명한다. 도 9 및 도 10은 타겟 시인성 레벨이 유지되도록 기준 평면(760)에 평행한 기준 축을 따라 연장된 형태의 제2 가상 컨텐츠 객체(772) 및 제3 가상 컨텐츠 객체(773)를 설명한다. 제2 가상 컨텐츠 객체(772) 및 제3 가상 컨텐츠 객체(773)는 제1 가상 컨텐츠 객체(771)가 변형된 형태를 가질 수 있다. 참고로, 제1 가상 컨텐츠 객체(771), 제2 가상 컨텐츠 객체(772), 및 제3 가상 컨텐츠 객체(773)는 예시적으로 경로 안내 정보로서 속도 제한 정보(예를 들어, 100 km/h 이하 제한)를 나타낼 수 있다.
도 8은 사용자로부터 제1 거리에 매치된 제1 가상 컨텐츠 객체(771)의 시각화를 설명한다. 예를 들어, 컨텐츠 시각화 장치는 제1 가상 컨텐츠 객체(771)를 프로젝션 평면(780)에 투사한 형태의 그래픽 객체(810)를 출력할 수 있다. 제1 가상 컨텐츠 객체(771)의 기준 점에서 프로젝션 평면(780)에 평행한 평면(781)은, 시야각(FOV, field of view)을 따라 프로젝션 평면(780)이 확대된 평면을 나타낼 수 있다. 해당 평면(781)의 측단면(880)은 프로젝션 평면(780)과 동일한 크기로 도 8과 같이 스케일링되어 표현될 수 있다. 프로젝션 평면(780)에 투사된 제1 가상 컨텐츠 객체(771)는 h1의 높이 및 w1의 너비를 가질 수 있다. 컨텐츠 시각화 장치는 가상 컨텐츠 객체가 투사된 형태의 그래픽 객체(810)의 프로젝션 평면(780)에서의 너비 및 높이 간의 비율을 모든 거리에 대해서 유지할 수 있다. 컨텐츠 시각화 장치는, 프로젝션 평면(780)에서의 너비 및 높이 간의 비율이 유지함으로써, 제1 거리에서 제1 가상 컨텐츠 객체를 관측할 때의 시인성 레벨을 여러 거리에 대해서도 제공할 수 있다.
일 실시예에 따르면 컨텐츠 시각화 장치는 가상 컨텐츠 객체가 투사된 형태의 프로젝션 평면(780)에서의 너비 및 높이 간의 비율에 기초하여 가상 컨텐츠 객체를 변경할 수 있다. 예를 들어, 컨텐츠 시각화 장치는 기준 거리(예를 들어, 3m)에 대해 지정된 목표 비율을 결정할 수 있다. 예를 들어, 컨텐츠 시각화 장치는 도 8에서 제1 거리를 기준 거리로 결정하고, 기준 거리에 시각화된 제1 가상 컨텐츠 객체(771)가 프로젝션 평면에 투사된 형태의 그래픽 객체(810)의 너비 및 높이 간의 비율을 목표 비율로 결정할 수 있다. 하기 도 9 및 도 10에서는 제2 거리 및 제3 거리의 가상 컨텐츠 객체들에 대해 목표 비율이 유지될 수 있다.
도 9를 참조하면, 컨텐츠 시각화 장치는 가상 컨텐츠 객체의 방향 축(796)을 따른 길이(930)를 연장할 수 있다. 컨텐츠 시각화 장치는 가상 컨텐츠 객체의 투사된 형태의 너비 및 높이 간의 비율을 기준 거리에 대해 지정된 목표 비율로 피팅할 수 있다. 예를 들어, 컨텐츠 시각화 장치는 제2 가상 컨텐츠 객체(772)가 프로젝션 평면에 투사된 형태를 갖는 제2 그래픽 객체(910)의 비율 h'2/w2을 목표 비율 h1/w1에 피팅할 수 있다. 도 7을 참조하면 제2 거리에 배치된 가상 컨텐츠 객체를 프로젝션 평면(780)에 투사할 경우 높이가 h2이므로, 컨텐츠 시각화 장치는 만큼 제2 그래픽 객체(910)의 높이를 증가시킬 수 있다. 다시 말해, 컨텐츠 시각화 장치는 방향 축(796)을 따른 길이(930)를 연장함으로써 프로젝션 평면(780) 및 프로젝션 평면(780)의 측단면(980)에서의 높이 h'2를 증가시킬 수 있다.
도 10을 참조하면, 도 9와 유사하게 컨텐츠 시각화 장치가 가상 컨텐츠의 방향 축(796)을 따른 길이(1030)를 목표 비율에 맞춰 연장할 수 있다. 예를 들어, 컨텐츠 시각화 장치는 제3 가상 컨텐츠 객체(773)가 프로젝션 평면(780)에 투사된 형태를 갖는 제2 그래픽 객체(1010)의 비율 h'3/w3을 목표 비율 h1/w1에 피팅할 수 있다. 도 7을 참조하면 제3 거리에 배치된 가상 컨텐츠 객체를 프로젝션 평면(780)에 투사할 경우 높이가 h3이므로, 컨텐츠 시각화 장치는 만큼 제3 그래픽 객체(1010)의 높이를 증가시킬 수 있다. 다시 말해, 컨텐츠 시각화 장치는 방향 축(796)을 따른 길이(1030)를 연장함으로써 프로젝션 평면(780) 및 프로젝션 평면(780)의 측단면(1080)에서의 높이 h'3를 증가시킬 수 있다.
시인성 레벨은 거리뿐만이 아니라 객체를 관측하는 시선 축 각도에도 의존할 수 있다. 시선 축 각도는 시선 방향 축이 기준 평면(760)과 이루는 각도를 나타낼 수 있다. 예를 들어, 제1 가상 컨텐츠 객체(771)를 제1 거리에서 제1 시선 축 각도로 바라볼 때 비율이 h1/w1이고, 앞서 설명한 바와 같이 제2 가상 컨텐츠 객체(772) 및 제3 가상 컨텐츠 객체(773)에 대해 상술한 비율 h1/w1이 유지되면, 제2 가상 컨텐츠 객체(772) 및 제3 가상 컨텐츠 객체(773)를 제1 거리(예를 들어, 3m)에서 제1 시선 축 각도(예를 들어, 하방 20도)로 관측한 것과 같은 시인성 레벨이 제공될 수 있다. 다시 말해, 거리가 멀어져서 가상 컨텐츠가 출력되는 크기가 감소되더라도, 소실점에 의한 왜곡이 최소화될 수 있다.
참고로, 가상 컨텐츠가 프로젝션 평면에 투사된 형태의 그래픽 객체의 너비 대비 폭의 비율은 사용자에 의해 선택될 수도 있다. 예를 들어, 컨텐츠 시각화 장치는 초기화 동작시 사용자에게 캘리브레이션을 위한 예비 그래픽 객체들을 다양한 각도 및 다양한 거리에서 시각화할 수 있다. 컨텐츠 시각화 장치는 사용자에 의해 선택된 예비 그래픽 객체의 프로젝션 평면에서의 너비 대비 폭의 비율을 나머지 그래픽 객체에 대해 적용할 수도 있다.
도 11은 일 실시예에 따른 가상 컨텐츠 객체의 예시적인 회전을 설명한다.
일 실시예에 따르면 컨텐츠 시각화 장치는 기준 축을 기준으로 가상 컨텐츠 객체를 회전시킬 수 있다. 컨텐츠 시각화 장치는 가상 컨텐츠 객체를 회전시켜 기준 평면(760)(예를 들어, 지면)으로부터 세울 수 있다. 예를 들어, 컨텐츠 시각화 장치는 사용자의 시점 및 가상 컨텐츠 객체의 물리적 위치가 가까워지는 경우에 응답하여, 기준 축을 기준으로 기준 평면(760)(reference plane)과 가상 컨텐츠 객체의 밑면 간의 각도를 감소시킬 수 있다. 컨텐츠 시각화 장치는 사용자의 시점 및 가상 컨텐츠 객체의 물리적 위치가 멀어지는 경우에 응답하여, 기준 축을 기준으로 기준 평면(760)과 가상 컨텐츠 객체의 밑면 간의 각도를 증가시킬 수 있다. 컨텐츠 시각화 장치는 프로젝션 평면에 투사된 형태의 그래픽 객체의 너비 대비 높이의 비율이 목표 비율에 피팅되도록, 기준 평면(760) 및 가상 컨텐츠 객체의 밑면 간의 각도를 조정할 수 있다.
도 11에 도시된 바와 같이 제2 거리에 배치된 제2 가상 컨텐츠 객체(1172)는 제1 각도(1132)만큼 회전될 수 있다. 제3 거리에 배치된 제3 가상 컨텐츠 객체(1173)는 제2 각도(1133)만큼 회전될 수 있다. 제2 각도(1133)는 제1 각도(1132)보다 클 수 있다. 제2 가상 컨텐츠 객체(1172)가 투사된 제2 그래픽 객체(1112) 및 제3 가상 컨텐츠 객체(1173)가 투사된 제3 그래픽 객체(1113)는 목표 비율에 피팅된 형태를 가질 수 있다.
도 12 및 도 13은 일 실시예에 따른 가상 컨텐츠 객체 상의 기준 점 및 기준 축의 설정을 설명한다.
앞서 설명한 바와 같이, 컨텐츠 시각화 장치는 컨텐츠 데이터베이스로부터 복수의 후보 객체들(1211, 1212, 1213) 중 객체 배치 공간(1289) 내에 위치되는 가상 컨텐츠 객체(1220)를 검색할 수 있다. 예를 들어, 컨텐츠 시각화 장치가 차량에 탑재되거나, 차량 자체로 구현되는 경우, 컨텐츠 시각화 장치는 차량의 위치에 기초하여 사용자에게 제공할 가상 컨텐츠 객체를 결정할 수 있다. 설명의 편의를 위해 하나의 가상 컨텐츠 객체(1220)만 도시되었으나, 이로 한정하는 것은 아니고, 객체 배치 공간(1289) 내에 복수의 가상 컨텐츠 객체(1220)들이 존재할 수도 있다. 객체 배치 공간(1289)은 앞서 설명한 바와 같이 프로젝션 평면(1280) 및 시점(1290)의 시야각 등에 기초하여 결정될 수 있다.
일 실시예에 따르면 컨텐츠 시각화 장치는 가상 컨텐츠 객체(1220)에 대응하는 공간에 속하는 지점들 중 한 지점을 기준 점(1231)으로서 설정할 수 있다. 컨텐츠 시각화 장치는 설정된 기준 점(1231)에 기초하여 가상 컨텐츠 객체(1220)를 변경할 수 있다.
컨텐츠 시각화 장치는 사용자로부터 가상 컨텐츠 객체(1220)를 향하는 기준 평면에 평행한 방향 축이 가상 컨텐츠 객체(1220)를 통과하는 지점들 중 한 지점을 기준 점(1231)으로 결정할 수 있다. 예를 들어, 컨텐츠 시각화 장치는 가상 컨텐츠 객체(1220)에 속하는 지점들의 물리적 위치 및 사용자의 시점(1290)(viewpoint) 간의 거리에 기초하여, 지점들 중 하나를 선택할 수 있다. 컨텐츠 시각화 장치는 지점들 중 사용자의 시점(1290)까지의 거리가 가장 가까운 거리를 갖는 지점을 기준 점(1231)으로 결정할 수 있다. 다만, 이로 한정하는 것은 아니고, 기준 점(1231)은 가상 컨텐츠 객체(1220)가 차지하는 공간 내부의 지점, 예를 들어, 중심점 등으로 설정될 수도 있다.
또한, 컨텐츠 시각화 장치는 기준 점(1231)에서 사용자로부터 기준 점(1231)을 향하는 방향 축에 수직하는 기준 축을 설정할 수 있다. 참고로, 가상 컨텐츠 객체(1220)와의 거리가 최단 거리인 지점이 기준 점(1231)으로 설정되고, 해당 기준 점(1231)을 기초로 기준 축이 설정되어야 가상 컨텐츠 객체(1220)의 회전시 기준 평면과의 크로스토크가 방지될 수 있다.
컨텐츠 시각화 장치는, 기준 점(1231)으로부터 시선 방향을 향해, 시점(1290)으로부터 가상 컨텐츠 객체(1220)를 향하는 기준 평면에 평행한 방향축(1232)을 따른 연장(1239)을 가상 컨텐츠 객체(1220)에 적용할 수 있다. 컨텐츠 시각화 장치는 기준 축(1240)을 기준으로 하는 회전(1249)을 가상 컨텐츠 객체(1220)에 적용할 수 있다.
도 12는 시점의 정면에 위치되는 가상 컨텐츠 객체를 설명하였으나, 도 13과 같이 시점(1390)이 시선 중심 축(1391)에 대해 비스듬하게 배치된 가상 컨텐츠 객체(1320)에 대해서도 유사하게 적용될 수 있다. 예를 들어, 컨텐츠 시각화 장치는 가상 컨텐츠 객체(1320)에서 시점(1390)으로부터 최단 거리인 지점을 기준 점(1331)으로 설정할 수 있다. 컨텐츠 시각화 장치는 기준 점(1331)에서 시점(1390)으로부터 기준 점(1331)을 향하는 기준 평면에 평행한 방향 축(1332)에 수직한 기준 축(1340)을 설정할 수 있다. 컨텐츠 시각화 장치는 가상 컨텐츠 객체(1320)에 기준 점(1331) 및 방향 축(1332)에 기초한 연장(1339) 및 기준 축(1340)에 기초한 회전(1349) 중 적어도 하나를 적용할 수 있다. 가상 컨텐츠 객체(1320)에 대응하는 프로젝션 평면 상의 그래픽 객체(1321)는 시인성이 개선된 그래픽 객체(1322)로 조정될 수 있다. 따라서, 시선 중심 축(1391)이 객체를 향하지 않더라도, 스케일 조정시 왜곡이 최소화될 수 있다.
도 14는 일 실시예에 따른 가상 컨텐츠 객체의 다양한 변형 예시를 설명한다.
일 실시예에 따른 컨텐츠 시각화 장치는 사용자의 시점(1490) 이동이 검출되는 경우에 응답하여, 가상 컨텐츠 객체의 형태를 변경할 수 있다. 예를 들어, 컨텐츠 시각화 장치는 가상 컨텐츠 객체에 기준 점에 기초한 변형 및 기준 축에 기초한 회전 중 적어도 하나를 적용할 수 있다.
예를 들어, 프로젝션 평면(1480)에 평행한 가상의 평면들(1411, 1421)에 가상 컨텐츠 객체가 투사된 형태의 높이들 H', H''가 동일하면 앞서 설명한 목표 비율이 유지될 수 있다. 가상의 평면들(1411, 1421)은 각각 가상 컨텐츠들이 배치된 위치들에 배치될 수 있다. 예를 들어, 제1 거리에서의 제1 평면(1421)에 제1 가상 컨텐츠 객체(1410)가 투사된 높이 H' 및 제2 거리에서의 제2 평면(1422)에 제2 가상 컨텐츠 객체(1420)가 투사된 높이 H''가 동일하게 유지될 수 있다. 이 때, 제1 거리에서의 제1 가상 컨텐츠 객체의 너비 및 제2 거리에서의 제2 가상 컨텐츠 객체의 너비는 W로 동일할 수 있다. 따라서, 앞서 설명한 바와 같이 프로젝션 평면(1480)에 평행한 가상의 평면들(1411, 1421)에서의 높이(1450)가 동일하면 도 1 내지 도 13에서 상술한 목표 비율이 유지될 수 있다.
따라서, 컨텐츠 시각화 장치는 시점(1490), 프로젝션 평면(1480) 및 프로젝션 평면(1480)에 평행한 가상의 평면들(1411, 1421)에서의 높이(1450)에 기초하여 가상 컨텐츠 객체의 기준 평면을 따른 길이들 B', B''을 결정할 수 있다. 컨텐츠 시각화 장치는 가상 컨텐츠 객체의 밑면 및 기준 평면이 평행하는 경우 가상 컨텐츠 객체들을 각각의 최대 길이들 B', B''까지 연장할 수 있다. 또한, 컨텐츠 시각화 장치는 시점(1490), 프로젝션 평면(1480) 및 프로젝션 평면(1480)에 평행한 가상의 평면들(1411, 1421)에서의 높이(1450)에 기초하여, 가상 컨텐츠 객체의 회전 각도 및 연장 길이를 결정할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Claims (20)
- 프로세서에 의해 수행되는 컨텐츠 시각화 방법에 있어서,
가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 단계; 및
상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에 시각화하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제1항에 있어서,
상기 가상 컨텐츠 객체를 조정하는 단계는,
상기 가상 컨텐츠 객체에 대응하는 공간에 속하는 지점들 중 한 지점을 기준 점으로서 설정하는 단계; 및
상기 설정된 기준 점에 기초하여 상기 가상 컨텐츠 객체를 변경하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제2항에 있어서,
상기 설정된 기준 점에 기초하여 상기 가상 컨텐츠 객체를 변경하는 단계는,
상기 가상 컨텐츠 객체의 형태를 사용자로부터 상기 기준 점을 향하는 방향 축을 따라 연장하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제2항에 있어서,
상기 설정된 기준 점에 기초하여 상기 가상 컨텐츠 객체를 변경하는 단계는,
상기 기준 점에서 사용자로부터 상기 기준 점을 향하는 방향 축에 수직하는 기준 축을 설정하는 단계; 및
상기 기준 축을 기준으로 상기 가상 컨텐츠 객체를 회전시키는 단계
를 포함하는 컨텐츠 시각화 방법. - 제2항에 있어서,
상기 기준 점을 설정하는 단계는,
사용자로부터 상기 가상 컨텐츠 객체를 향하는 기준 평면에 평행한 방향 축이 상기 가상 컨텐츠 객체를 통과하는 지점들 중 한 지점을 상기 기준 점으로 결정하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제2항에 있어서,
상기 기준 점을 설정하는 단계는,
상기 가상 컨텐츠 객체에 속하는 지점들의 물리적 위치 및 사용자의 시점(viewpoint) 간의 거리에 기초하여, 상기 지점들 중 하나를 선택하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제6항에 있어서,
상기 지점들 중 하나를 선택하는 단계는,
상기 지점들 중 상기 사용자의 시점까지의 거리가 가장 가까운 거리를 갖는 지점을 상기 기준 점으로 결정하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제1항에 있어서,
상기 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 단계는,
상기 가상 컨텐츠 객체가 투사된 형태의 상기 프로젝션 평면에서의 너비 및 높이 간의 비율에 기초하여 상기 가상 컨텐츠 객체를 변경하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제8항에 있어서,
상기 가상 컨텐츠 객체를 변경하는 단계는,
상기 가상 컨텐츠 객체의 투사된 형태의 상기 너비 및 높이 간의 비율을 기준 거리에 대해 지정된 목표 비율로 피팅하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제8항에 있어서,
상기 가상 컨텐츠 객체를 변경하는 단계는,
상기 가상 컨텐츠 객체에 속하는 지점들 중 시점으로부터 가장 가까운 근위 지점(proximal point) 및 상기 시점으로부터 가장 먼 원위 지점(distal point)의 프로젝션 평면 상에서의 위치들에 기초하여 상기 가상 컨텐츠 객체의 프로젝션 평면 상 높이를 산출하는 단계; 및
상기 가상 컨텐츠 객체에 대해 기준 축을 따른 너비를 산출하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제1항에 있어서,
상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에 시각화하는 단계는,
상기 가상 컨텐츠 객체의 하단부를 기준 평면 상에 위치시켜 시각화하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제1항에 있어서,
상기 가상 컨텐츠 객체를 조정하는 단계는,
좌영상에 대응하는 제1 그래픽 객체에 제1 기준 점 및 제1 기준 축을 설정하는 단계;
상기 제1 기준 점 및 상기 제1 기준 축에 기초하여 상기 제1 그래픽 객체를 조정하는 단계;
우영상에 대응하는 제2 그래픽 객체에 제2 기준 점 및 제2 기준 축을 설정하는 단계; 및
상기 제2 기준 점 및 상기 제2 기준 축에 기초하여 상기 제2 그래픽 객체를 조정하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제12항에 있어서,
상기 시각화하는 단계는,
상기 조정된 제1 그래픽 객체를 사용자의 좌안으로 제공하고, 상기 조정된 제2 그래픽 객체를 사용자의 우안으로 제공하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제1항에 있어서,
상기 가상 컨텐츠 객체를 조정하는 단계는,
사용자의 시점 이동이 검출되는 경우에 응답하여, 상기 가상 컨텐츠 객체의 형태를 변경하는 단계
를 포함하는 컨텐츠 시각화 방법. - 제1항에 있어서,
상기 가상 컨텐츠 객체를 조정하는 단계는,
사용자의 시점 및 상기 가상 컨텐츠 객체의 물리적 위치가 가까워지는 경우에 응답하여, 상기 사용자로부터 기준 점을 향하는 상기 기준 평면에 평행한 방향 축에 따른 상기 가상 컨텐츠 객체의 길이를 감소시키는 단계; 및
사용자의 시점 및 상기 가상 컨텐츠 객체의 물리적 위치가 멀어지는 경우에 응답하여, 상기 사용자로부터 기준 점을 향하는 상기 기준 평면에 평행한 방향 축에 따른 상기 가상 컨텐츠 객체의 길이를 증가시키는 단계
를 포함하는 컨텐츠 시각화 방법. - 제1항에 있어서,
상기 가상 컨텐츠 객체를 조정하는 단계는,
사용자의 시점 및 상기 가상 컨텐츠 객체의 물리적 위치가 가까워지는 경우에 응답하여, 기준 축을 기준으로 기준 평면(reference plane)과 상기 가상 컨텐츠 객체의 밑면 간의 각도를 감소시키는 단계; 및
사용자의 시점 및 상기 가상 컨텐츠 객체의 물리적 위치가 멀어지는 경우에 응답하여, 기준 축을 기준으로 상기 기준 평면과 상기 가상 컨텐츠 객체의 밑면 간의 각도를 증가시키는 단계
를 포함하는 컨텐츠 시각화 방법. - 제1항 내지 제16항 중 어느 한 항이 방법을 수행하기 위한 명령어를 포함하는 하나 이상의 컴퓨터 프로그램을 저장한 컴퓨터 판독 가능 기록 매체.
- 컨텐츠 시각화 장치에 있어서,
가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 프로세서; 및
상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에 시각화하는 디스플레이
를 포함하는 컨텐츠 시각화 장치. - 증강 현실 안경(Augmented Reality glass, AR glass) 장치에 있어서,
가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 프로세서; 및
상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에서 시각화하면서, 상기 조정된 가상 컨텐츠 객체를 주변의 실제 환경에 오버레이하여 제공하는 투명 디스플레이
를 포함하는 증강 현실 안경 장치. - 차량에 있어서,
상기 차량의 위치를 센싱하는 센서;
상기 차량의 위치에 기초하여 사용자에게 제공할 가상 컨텐츠 객체를 결정하고, 상기 결정된 가상 컨텐츠 객체가 프로젝션 평면에 투사되는 형태에 기초하여, 상기 가상 컨텐츠 객체를 조정하는 프로세서; 및
상기 조정된 가상 컨텐츠 객체를 상기 프로젝션 평면에 시각화하는 헤드업 디스플레이(head-up display, HUD)
를 포함하는 차량.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200103404A KR20220022340A (ko) | 2020-08-18 | 2020-08-18 | 컨텐츠를 시각화하는 장치 및 방법 |
US17/140,777 US11869162B2 (en) | 2020-08-18 | 2021-01-04 | Apparatus and method with virtual content adjustment |
CN202110085099.XA CN114077306A (zh) | 2020-08-18 | 2021-01-21 | 实现内容可视化的装置和方法 |
EP21157646.7A EP3957509B1 (en) | 2020-08-18 | 2021-02-17 | Apparatus and method with content visualizing |
JP2021073170A JP2022034511A (ja) | 2020-08-18 | 2021-04-23 | コンテンツを可視化する装置及び方法 |
US18/500,644 US20240078778A1 (en) | 2020-08-18 | 2023-11-02 | Apparatus and method with content visualizing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200103404A KR20220022340A (ko) | 2020-08-18 | 2020-08-18 | 컨텐츠를 시각화하는 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220022340A true KR20220022340A (ko) | 2022-02-25 |
Family
ID=74668616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200103404A KR20220022340A (ko) | 2020-08-18 | 2020-08-18 | 컨텐츠를 시각화하는 장치 및 방법 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11869162B2 (ko) |
EP (1) | EP3957509B1 (ko) |
JP (1) | JP2022034511A (ko) |
KR (1) | KR20220022340A (ko) |
CN (1) | CN114077306A (ko) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022184350A (ja) * | 2021-06-01 | 2022-12-13 | マツダ株式会社 | ヘッドアップディスプレイ装置 |
JP7501463B2 (ja) * | 2021-07-15 | 2024-06-18 | トヨタ自動車株式会社 | 車両用表示制御装置、表示方法及び表示プログラム |
CN115995161A (zh) * | 2023-02-01 | 2023-04-21 | 华人运通(上海)自动驾驶科技有限公司 | 基于投影确定停车位置的方法和电子设备 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8195386B2 (en) * | 2004-09-28 | 2012-06-05 | National University Corporation Kumamoto University | Movable-body navigation information display method and movable-body navigation information display unit |
EP1717757A1 (de) * | 2005-04-28 | 2006-11-02 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur grafischen Darstellung der Umgebung eines Kraftfahrzeugs |
KR100721560B1 (ko) | 2005-11-30 | 2007-05-23 | 한국전자통신연구원 | 임의 시점을 가지는 3차원 차량정보 제공 시스템 및 그방법 |
KR100939761B1 (ko) * | 2008-10-02 | 2010-01-29 | 삼성전기주식회사 | 차량 장착용 카메라 유닛, 차량 외부 디스플레이 방법 및 드라이빙 코리더 마커 생성 시스템 |
EP2405404A2 (en) * | 2010-07-09 | 2012-01-11 | Kabushiki Kaisha Toshiba | Display device, image data generating device, image data generating program, and display method |
KR101921969B1 (ko) | 2012-02-01 | 2018-11-28 | 한국전자통신연구원 | 차량용 증강현실 헤드업 디스플레이 장치 및 방법 |
US9135754B2 (en) * | 2012-05-07 | 2015-09-15 | Honda Motor Co., Ltd. | Method to generate virtual display surfaces from video imagery of road based scenery |
US9092897B2 (en) * | 2012-08-10 | 2015-07-28 | Here Global B.V. | Method and apparatus for displaying interface elements |
JP6225546B2 (ja) * | 2013-08-02 | 2017-11-08 | セイコーエプソン株式会社 | 表示装置、頭部装着型表示装置、表示システムおよび表示装置の制御方法 |
KR20150087619A (ko) * | 2014-01-22 | 2015-07-30 | 한국전자통신연구원 | 증강 현실 기반의 차로 변경 안내 장치 및 방법 |
US20170140457A1 (en) * | 2014-03-24 | 2017-05-18 | Pioneer Corporation | Display control device, control method, program and storage medium |
WO2016052186A1 (ja) * | 2014-09-29 | 2016-04-07 | 矢崎総業株式会社 | 車両用表示装置 |
JP6485732B2 (ja) * | 2014-12-10 | 2019-03-20 | 株式会社リコー | 情報提供装置、情報提供方法及び情報提供用制御プログラム |
US10018844B2 (en) * | 2015-02-09 | 2018-07-10 | Microsoft Technology Licensing, Llc | Wearable image display system |
JP2017059041A (ja) * | 2015-09-17 | 2017-03-23 | 株式会社リコー | 画像処理装置、画像処理方法、およびプログラム |
JP6703747B2 (ja) | 2015-09-18 | 2020-06-03 | 株式会社リコー | 情報表示装置、情報提供システム、移動体装置、情報表示方法及びプログラム |
KR101855940B1 (ko) | 2015-10-27 | 2018-05-09 | 엘지전자 주식회사 | 차량용 증강현실 제공 장치 및 그 제어방법 |
JP6717856B2 (ja) | 2016-02-05 | 2020-07-08 | マクセル株式会社 | ヘッドアップディスプレイ装置 |
WO2017138428A1 (ja) * | 2016-02-08 | 2017-08-17 | 株式会社リコー | 情報表示装置 |
JP6870447B2 (ja) * | 2016-05-20 | 2021-05-12 | 株式会社リコー | Hud装置、車両装置、情報表示方法。 |
KR102463688B1 (ko) | 2016-05-26 | 2022-11-07 | 현대자동차주식회사 | 증강현실 헤드업 디스플레이 시스템에서 월드좌표를 활용한 정보 표시 방법 |
DE102016215519A1 (de) | 2016-08-18 | 2018-02-22 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Betreiben eines Head-up Displays, Head-up Displayeinrichtung, Kraftfahrzeug |
US10976545B2 (en) * | 2016-09-01 | 2021-04-13 | Mitsubishi Electric Corporation | Display device and adjustment method |
JP6911868B2 (ja) | 2016-11-08 | 2021-07-28 | 日本精機株式会社 | ヘッドアップディスプレイ装置 |
DE102016225639A1 (de) | 2016-12-20 | 2018-07-05 | Volkswagen Aktiengesellschaft | Head-up-Display-Vorrichtung für ein Kraftfahrzeug, Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Steuerung einer Anzeige einer Head-up-Display-Vorrichtung |
KR102578517B1 (ko) * | 2017-01-13 | 2023-09-14 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102102761B1 (ko) | 2017-01-17 | 2020-04-21 | 엘지전자 주식회사 | 차량용 사용자 인터페이스 장치 및 차량 |
JP6930120B2 (ja) * | 2017-02-02 | 2021-09-01 | 株式会社リコー | 表示装置、移動体装置及び表示方法。 |
JP7113259B2 (ja) | 2017-06-30 | 2022-08-05 | パナソニックIpマネジメント株式会社 | 表示システム、表示システムを備える情報提示システム、表示システムの制御方法、プログラム、及び表示システムを備える移動体 |
KR20190012068A (ko) * | 2017-07-26 | 2019-02-08 | 삼성전자주식회사 | 전방 표시 장치 및 그 동작 방법 |
JP6855350B2 (ja) | 2017-08-08 | 2021-04-07 | アルパイン株式会社 | ヘッドアップディスプレイ装置、ナビゲーション装置、表示方法 |
JP6943079B2 (ja) | 2017-08-23 | 2021-09-29 | 日本精機株式会社 | 画像処理ユニット及びそれを備えるヘッドアップディスプレイ装置 |
KR102306790B1 (ko) | 2017-11-08 | 2021-09-30 | 삼성전자주식회사 | 컨텐츠 시각화 장치 및 방법 |
JP7033252B2 (ja) | 2017-11-29 | 2022-03-10 | 日本精機株式会社 | ヘッドアップディスプレイ |
KR102547823B1 (ko) | 2017-12-13 | 2023-06-26 | 삼성전자주식회사 | 컨텐츠 시각화 장치 및 방법 |
TWI657409B (zh) * | 2017-12-27 | 2019-04-21 | 財團法人工業技術研究院 | 虛擬導引圖示與真實影像之疊合裝置及其相關疊合方法 |
KR20200042166A (ko) | 2018-10-15 | 2020-04-23 | 삼성전자주식회사 | 컨텐츠를 시각화하는 장치 및 방법 |
-
2020
- 2020-08-18 KR KR1020200103404A patent/KR20220022340A/ko active Search and Examination
-
2021
- 2021-01-04 US US17/140,777 patent/US11869162B2/en active Active
- 2021-01-21 CN CN202110085099.XA patent/CN114077306A/zh active Pending
- 2021-02-17 EP EP21157646.7A patent/EP3957509B1/en active Active
- 2021-04-23 JP JP2021073170A patent/JP2022034511A/ja active Pending
-
2023
- 2023-11-02 US US18/500,644 patent/US20240078778A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220058885A1 (en) | 2022-02-24 |
US20240078778A1 (en) | 2024-03-07 |
EP3957509A1 (en) | 2022-02-23 |
US11869162B2 (en) | 2024-01-09 |
JP2022034511A (ja) | 2022-03-03 |
CN114077306A (zh) | 2022-02-22 |
EP3957509B1 (en) | 2024-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11656091B2 (en) | Content visualizing method and apparatus | |
KR102306790B1 (ko) | 컨텐츠 시각화 장치 및 방법 | |
US9928653B2 (en) | Head mounted display presentation adjustment | |
EP3461129B1 (en) | Method and apparatus for rendering image | |
US20210019942A1 (en) | Gradual transitioning between two-dimensional and three-dimensional augmented reality images | |
US20240078778A1 (en) | Apparatus and method with content visualizing | |
WO2010113788A1 (ja) | 情報表示装置 | |
KR20200040662A (ko) | 다중 영상 평면을 이용하여 확장된 운전자 시점에서 증강현실을 구현하는 3차원 헤드업 디스플레이 및 이를 이용한 정보 표시 방법 | |
KR20180120270A (ko) | 가속된 라이트 필드 디스플레이 | |
US20200320676A1 (en) | Virtual overlay system and method for occluded objects | |
KR20200067641A (ko) | 3차원 증강 현실을 위한 캘리브레이션 방법 및 그 장치 | |
US11719930B2 (en) | Method and apparatus with crosstalk correction | |
US11711502B2 (en) | Method of outputting three-dimensional image and electronic device performing the method | |
Wientapper et al. | A camera-based calibration for automotive augmented reality head-up-displays | |
KR20220032448A (ko) | 크로스토크를 보정하는 방법 및 장치 | |
JP6020009B2 (ja) | ヘッドマウントディスプレイ、それを作動させる方法およびプログラム | |
KR20230052326A (ko) | LiDAR, Camera 센서와 AR HUD를 통한 주행 중 위험 상황 알림 및 전방 주시 보조 솔루션 | |
US9846819B2 (en) | Map image display device, navigation device, and map image display method | |
KR102706597B1 (ko) | 헤드업 디스플레이의 증강현실 그래픽 콘텐츠 표시 장치 및 방법 | |
JP6385621B2 (ja) | 画像表示装置、画像表示方法及び画像表示プログラム | |
KR102641118B1 (ko) | 사용자에게 ar 오브젝트를 제공하는 방법 및 장치 | |
CN115665400B (zh) | 增强现实抬头显示成像方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |