KR20240127555A - Cylindrical three-dimensional image projection apparatus using half-mirror, method and computer program for projecting three-dimensional image - Google Patents
Cylindrical three-dimensional image projection apparatus using half-mirror, method and computer program for projecting three-dimensional image Download PDFInfo
- Publication number
- KR20240127555A KR20240127555A KR1020230020421A KR20230020421A KR20240127555A KR 20240127555 A KR20240127555 A KR 20240127555A KR 1020230020421 A KR1020230020421 A KR 1020230020421A KR 20230020421 A KR20230020421 A KR 20230020421A KR 20240127555 A KR20240127555 A KR 20240127555A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- housing
- spatial
- hand
- half mirror
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000004590 computer program Methods 0.000 title claims description 16
- 230000008569 process Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003071 parasitic effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Transforming Electric Information Into Light Information (AREA)
Abstract
하프미러를 이용한 원통형 공간 영상 투영 장치는 하우징, 상기 하우징 내에 수용되고, 입체 영상 및 UI 영상을 출력하는 디스플레이부, 상기 하우징 내부에서 상기 입체 영상 및 상기 UI 영상에 대응하는 공간 영상을 투영하는 하프미러 및 카메라를 통해 사용자의 손의 위치를 검출하고, 상기 검출된 손의 위치에 기초하여 상기 UI 영상에 대한 손의 터치 여부를 판단하고, 판단 결과에 기초하여 상기 입체 영상의 시점 영상을 선택하는 제어부를 포함한다. A cylindrical space image projection device using a half mirror includes a housing, a display unit accommodated in the housing and outputting a stereoscopic image and a UI image, a half mirror projecting a spatial image corresponding to the stereoscopic image and the UI image inside the housing, and a control unit detecting the position of a user's hand through a camera, determining whether the hand is touching the UI image based on the detected hand position, and selecting a viewpoint image of the stereoscopic image based on the determination result.
Description
본 발명은 하프미러를 이용한 원통형 공간 영상 투영 장치, 방법 및 컴퓨터 프로그램에 관한 것이다. The present invention relates to a cylindrical space image projection device, method and computer program using a half mirror.
최근 플로팅 홀로그램(Floating Hologram) 기술을 이용하여 원통 또는 큐브 형태의 공간 상에 홀로그램 영상을 투영하는 장치의 개발이 활발하게 이루어지고 있다. Recently, development of devices that project holographic images onto a cylindrical or cube-shaped space using floating hologram technology is actively underway.
종래의 플로팅 홀로그램 기술로는, 원통 구조물 내부에 투명 스크린을 세우고, 프로젝터를 이용하여 영상을 투사함으로써 공간 상에 영상이 표현되는 기술이 있다. 그러나, 해당 기술의 경우, 프로젝터의 영상 투사 거리로 인해 전체 시스템이 커져 컴팩트한 시스템의 구축이 어렵다는 문제점이 존재하였다. In conventional floating hologram technology, there is a technology that expresses an image in space by setting up a transparent screen inside a cylindrical structure and projecting the image using a projector. However, in the case of this technology, there was a problem that the entire system became large due to the projector's image projection distance, making it difficult to build a compact system.
다른 종래의 플로팅 홀로그램 기술로서, 디스플레이 패널과 하프미러를 이용하여 원통형 구조물 내 공간 영상을 표현하는 플로팅 홀로그램 기술이 있다. 해당 기술의 경우, 디스플레이 패널을 이용하여 공간 영상을 표현함으로써, 상기 프로젝터를 이용한 경우보다 컴팩트한 시스템을 구축할 수 있다는 장점이 존재한다. 디스플레이 패널과 하프미러를 이용하여 홀로그램 영상을 투영하는 방법에 대해서는 도 1a 및 도 1b를 통해 상세히 설명하도록 한다. Another conventional floating hologram technology is a floating hologram technology that uses a display panel and a half mirror to express a spatial image within a cylindrical structure. In the case of this technology, there is an advantage in that a more compact system can be constructed than when using the projector by expressing a spatial image using a display panel. A method of projecting a hologram image using a display panel and a half mirror will be described in detail with reference to FIGS. 1a and 1b.
도 1a는 종래의 하프미러를 이용한 원통형 공간 영상 투영 장치의 개략도이고, 도 1b는 하프미러를 이용한 원통형 공간 영상 투영 장치의 단면도이다. Figure 1a is a schematic diagram of a cylindrical space image projection device using a conventional half mirror, and Figure 1b is a cross-sectional view of a cylindrical space image projection device using a half mirror.
도 1a를 참조하면, 종래의 하프미러를 이용한 원통형 공간 영상 투영 장치(100)는 하우징(101), 디스플레이부(110), 하프미러(120) 및 제어부(130)를 포함한다. Referring to FIG. 1a, a conventional cylindrical space image projection device (100) using a half mirror includes a housing (101), a display unit (110), a half mirror (120), and a control unit (130).
하우징(101)은 원통 형태로 구성될 수 있으나, 큐브 형태의 하우징 등 다양한 형태의 하우징으로 구성될 수도 있다.The housing (101) may be configured in a cylindrical shape, but may also be configured in various shapes, such as a cube-shaped housing.
하우징(101)의 내부 중앙에는 디스플레이부(110) 및 하프미러(120)가 배치된다. A display unit (110) and a half mirror (120) are placed in the center of the inside of the housing (101).
디스플레이부(110)는 입체 영상(140)을 출력한다. The display unit (110) outputs a three-dimensional image (140).
하프미러(120)는 입체 영상(140)에 대응하는 공간 영상을 투영한다. 이를 통해, 종래의 원통형 공간 영상 투영 장치(100)는 원통 형태의 하우징(101) 내부 공간의 중앙에 입체 영상(140)이 떠 있는 것을 표현할 수 있게 된다. The half mirror (120) projects a spatial image corresponding to a stereoscopic image (140). Through this, a conventional cylindrical spatial image projection device (100) can express a stereoscopic image (140) floating in the center of the internal space of a cylindrical housing (101).
한편, 디스플레이부(110)는 입체 영상(140)과 인터랙션을 하기 위해, 가이드가 되는 UI 영상(150)을 출력한다. Meanwhile, the display unit (110) outputs a UI image (150) that serves as a guide to interact with the stereoscopic image (140).
그러나 도 1b를 참조하면, UI 영상(150)이 하우징(101) 내부의 디스플레이부(110)에 위치하게 됨에 따라, 사용자는 손(160)으로 UI를 직접 조작할 수 없다. 즉, 사용자는 UI 영상(150)의 위치와 손(160)의 위치의 차이로 인해 직접적인 인터랙션이 불가능하다. However, referring to Fig. 1b, since the UI image (150) is positioned on the display portion (110) inside the housing (101), the user cannot directly manipulate the UI with the hand (160). That is, the user cannot directly interact due to the difference between the position of the UI image (150) and the position of the hand (160).
이와 같이, 종래의 플로팅 홀로그램 기술은 원통 형태 또는 큐브 형태의 하우징 내부에 영상이 표현되므로, 홀로그램 영상을 제공할 수는 있으나, 사용자가 터치 인터페이스를 통한 직접적인 인터랙션이 불가능하여, 추가적으로 물리적인 버튼 등과 같은 사용자 인터페이스가 필요하였다. In this way, conventional floating hologram technology can provide holographic images because the images are displayed inside a cylindrical or cube-shaped housing, but since direct interaction through a touch interface is impossible for the user, an additional user interface such as a physical button is required.
이를 개선하고자, 공간 터치가 가능한 센서를 이용하는 방법도 이용될 수 있으나, 센서가 설치되어야 하고 센싱을 위한 거리가 요구됨에 따라 시스템이 대형화되는 문제점이 있었다.To improve this, a method using a sensor capable of spatial touch can also be used, but there was a problem in that the system became larger as the sensor had to be installed and a distance was required for sensing.
하우징, 하우징 내에 수용된 디스플레이부를 통해 입체 영상 및 UI 영상을 출력하고, 하프미러를 통해 하우징 내부에서 입체 영상 및 UI 영상에 대응하는 공간 영상을 투영하는 공간 영상 투영 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다. The present invention provides a spatial image projection device, method and computer program that outputs a stereoscopic image and a UI image through a housing, a display unit accommodated within the housing, and projects a spatial image corresponding to the stereoscopic image and the UI image inside the housing through a half mirror.
카메라를 통해 사용자의 손의 위치를 검출하고, 검출된 손의 위치에 기초하여 UI 영상에 대한 손의 터치 여부를 판단하고, 판단 결과에 기초하여 입체 영상의 시점 영상을 선택하는 공간 영상 투영 장치, 방법 및 컴퓨터 프로그램을 제공하고자 한다. The present invention provides a spatial image projection device, method and computer program that detects the position of a user's hand through a camera, determines whether the hand touches a UI image based on the detected hand position, and selects a viewpoint image of a stereoscopic image based on the determination result.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical tasks that this embodiment seeks to accomplish are not limited to the technical tasks described above, and other technical tasks may exist.
상술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명의 일 실시예는, 하우징, 상기 하우징 내에 수용되고, 입체 영상 및 UI 영상을 출력하는 디스플레이부, 상기 하우징 내부에서 상기 입체 영상 및 상기 UI 영상에 대응하는 공간 영상을 투영하는 하프미러 및 카메라를 통해 사용자의 손의 위치를 검출하고, 상기 검출된 손의 위치에 기초하여 상기 UI 영상에 대한 손의 터치 여부를 판단하고, 판단 결과에 기초하여 상기 입체 영상의 시점 영상을 선택하는 제어부를 포함하는 것인 공간 영상 투영 장치를 제공할 수 있다. As a means for achieving the above-described technical task, one embodiment of the present invention can provide a spatial image projection device including a housing, a display unit accommodated in the housing and outputting a stereoscopic image and a UI image, a half mirror projecting a spatial image corresponding to the stereoscopic image and the UI image inside the housing, and a control unit detecting the position of a user's hand through a camera, determining whether the hand touches the UI image based on the detected hand position, and selecting a viewpoint image of the stereoscopic image based on the determination result.
본 발명의 다른 실시예는, 하우징 내에 수용된 디스플레이부를 통해 입체 영상 및 UI 영상을 출력하는 단계, 하프미러를 통해 상기 하우징 내부에서 상기 입체 영상 및 상기 UI 영상에 대응하는 공간 영상을 투영하는 단계, 카메라를 통해 사용자의 손의 위치를 검출하고, 상기 검출된 손의 위치에 기초하여 상기 UI 영상에 대한 손의 터치 여부를 판단하는 단계 및 판단 결과에 기초하여 상기 입체 영상의 시점 영상을 선택하는 단계를 포함하는 공간 영상 투영 방법을 제공할 수 있다. Another embodiment of the present invention can provide a spatial image projection method including the steps of outputting a stereoscopic image and a UI image through a display unit accommodated in a housing, the step of projecting a spatial image corresponding to the stereoscopic image and the UI image inside the housing through a half mirror, the step of detecting the position of a user's hand through a camera and determining whether the hand touches the UI image based on the detected hand position, and the step of selecting a viewpoint image of the stereoscopic image based on a result of the determination.
본 발명의 또 다른 실시예는, 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 하우징 내에 수용된 디스플레이부를 통해 입체 영상 및 UI 영상을 출력하고, 하프미러를 통해 상기 하우징 내부에서 상기 입체 영상 및 상기 UI 영상에 대응하는 공간 영상을 투영하고, 카메라를 통해 사용자의 손의 위치를 검출하고, 상기 검출된 손의 위치에 기초하여 상기 UI 영상에 대한 손의 터치 여부를 판단하고, 판단 결과에 기초하여 상기 입체 영상의 시점 영상을 선택하도록 하는 명령어들의 시퀀스를 포함하는 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램을 제공할 수 있다. Another embodiment of the present invention provides a computer program stored on a computer-readable recording medium including a sequence of commands that, when executed by a computing device, cause the computer program to output a stereoscopic image and a UI image through a display unit accommodated in a housing, project a spatial image corresponding to the stereoscopic image and the UI image inside the housing through a half mirror, detect a position of a user's hand through a camera, determine whether the hand touches the UI image based on the detected hand position, and select a viewpoint image of the stereoscopic image based on a result of the determination.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 하프미러 및 원통 형태 또는 큐브 형태의 하우징을 이용하여, 하우징 내 입체 영상을 출력할 수 있도록 하는 공간 영상 투영 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. According to any one of the problem solving means of the present invention described above, a spatial image projection device, method and computer program can be provided that can output a three-dimensional image within a housing by using a half mirror and a cylindrical or cube-shaped housing.
라이트필드 디스플레이를 기반으로 원통 형태 또는 큐브 형태의 하우징의 표면에 UI 영상을 출력함으로써, 사용자가 UI 영상을 직접 터치하여 정밀하게 터치 조작을 수행할 수 있도록 하는 공간 영상 투영 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. A spatial image projection device, method, and computer program can be provided that enable a user to perform precise touch operations by directly touching a UI image by outputting a UI image on the surface of a cylindrical or cube-shaped housing based on a light field display.
카메라를 통해 사용자의 손의 위치를 검출하고, 검출된 손의 위치에 기초하여 UI 영상에 대한 손의 터치 여부를 판단하고, 판단 결과에 기초하여 입체 영상의 시점 영상을 선택함으로써, 사용자가 터치 인터페이스를 통해 UI 영상을 조작할 수 있도록 하는 공간 영상 투영 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. The present invention provides a spatial image projection device, method and computer program that enable a user to manipulate a UI image through a touch interface by detecting the position of a user's hand through a camera, determining whether the hand touches a UI image based on the detected hand position, and selecting a viewpoint image of a stereoscopic image based on the determination result.
도 1a는 종래의 하프미러를 이용한 원통형 공간 영상 투영 장치의 개략도이고, 도 1b는 하프미러를 이용한 원통형 공간 영상 투영 장치의 단면도이다.
도 2a는 본 발명의 일 실시예에 따른 하프미러를 이용한 원통형 공간 영상 투영 장치의 개략도이고, 도 2b는 본 발명의 일 실시예에 따른 하프미러를 이용한 원통형 공간 장치의 단면도다.
도 3은 본 발명의 일 실시예에 따른 UI 영상을 구성하는 시점 영상을 복원하는 과정을 설명하기 위한 예시적인 도면이다.
도 4는 본 발명의 일 실시예에 따른 UI 영상을 구성하는 복수의 시점 영상을 시프트하는 과정을 설명하기 위한 예시적인 도면이다.
도 5는 본 발명의 일 실시예에 따른 터치 영역 및 손의 위치에 기초하여 손의 터치 여부를 판단하는 과정을 설명하기 위한 예시적인 도면이다.
도 6은 본 발명의 일 실시예에 따른 2D 카메라를 이용하는 경우의 사용자의 손의 터치 여부를 판단하는 과정을 설명하기 위한 예시적인 도면이다.
도 7은 본 발명의 일 실시예에 따른 UI 영상에 대해 사용자의 손이 터치된 경우 UI 영상이 변화되는 과정을 설명하기 위한 예시적인 도면이다.
도 8은 본 발명의 일 실시예에 따른 공간 영상 투영 장치에서 출력되는 입체 영상 및 UI 영상을 도시한 예시적인 도면이다.
도 9는 본 발명의 일 실시예에 따른 UI 영상에 대해 사용자의 손이 터치된 경우 제공되는 입체 영상을 도시한 예시적인 도면이다.
도 10은 본 발명의 일 실시예에 따른 하프미러를 이용한 원통형 공간 영상 투영 장치에서 수행되는 공간 영상을 투영하는 방법의 순서도이다. Figure 1a is a schematic diagram of a cylindrical space image projection device using a conventional half mirror, and Figure 1b is a cross-sectional view of a cylindrical space image projection device using a half mirror.
FIG. 2a is a schematic diagram of a cylindrical space image projection device using a half mirror according to one embodiment of the present invention, and FIG. 2b is a cross-sectional view of a cylindrical space device using a half mirror according to one embodiment of the present invention.
FIG. 3 is an exemplary drawing for explaining a process of restoring a point image constituting a UI image according to one embodiment of the present invention.
FIG. 4 is an exemplary drawing for explaining a process of shifting multiple viewpoint images constituting a UI image according to one embodiment of the present invention.
FIG. 5 is an exemplary drawing for explaining a process of determining whether a hand is touched based on a touch area and a hand position according to one embodiment of the present invention.
FIG. 6 is an exemplary drawing for explaining a process for determining whether a user's hand touches a surface when using a 2D camera according to one embodiment of the present invention.
FIG. 7 is an exemplary drawing for explaining a process in which a UI image changes when a user's hand touches the UI image according to one embodiment of the present invention.
FIG. 8 is an exemplary drawing illustrating a stereoscopic image and a UI image output from a spatial image projection device according to one embodiment of the present invention.
FIG. 9 is an exemplary drawing illustrating a stereoscopic image provided when a user's hand touches a UI image according to one embodiment of the present invention.
FIG. 10 is a flowchart of a method for projecting a spatial image performed in a cylindrical spatial image projection device using a half mirror according to one embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are assigned similar drawing reference numerals throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element in between. Also, when a part is said to "include" a certain component, this should be understood to mean that it may further include other components, unless specifically stated to the contrary, and does not preclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In this specification, the term 'unit' includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be realized using two or more pieces of hardware, and two or more units may be realized by one piece of hardware.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.Some of the operations or functions described as being performed by a terminal or device in this specification may instead be performed by a server connected to the terminal or device. Similarly, some of the operations or functions described as being performed by a server may also be performed by a terminal or device connected to the server.
이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the attached drawings.
도 2a는 본 발명의 일 실시예에 따른 하프미러를 이용한 원통형 공간 영상 투영 장치의 개략도고, 도 2b는 본 발명의 일 실시예에 따른 하프미러를 이용한 원통형 공간 영상 투영 장치의 단면도이다. FIG. 2a is a schematic diagram of a cylindrical space image projection device using a half mirror according to one embodiment of the present invention, and FIG. 2b is a cross-sectional view of a cylindrical space image projection device using a half mirror according to one embodiment of the present invention.
도 2a 및 도 2b를 참조하면, 공간 영상 투영 장치(200)는 하우징(201), 디스플레이부(210), 하프미러(220), 카메라(230) 및 제어부(240)를 포함할 수 있다. Referring to FIGS. 2A and 2B, the space image projection device (200) may include a housing (201), a display unit (210), a half mirror (220), a camera (230), and a control unit (240).
하우징(201)은 원통 형태로 형성되어 내부에 공간을 가지도록 이루어질 수 있다. 하우징(201)의 형태는 원통형의 형태로 한정되지는 아니하며, 필요에 따라, 반원통 형태 또는 다각 기둥 형태 등으로 형성될 수도 있다. The housing (201) may be formed in a cylindrical shape and may have a space inside. The shape of the housing (201) is not limited to a cylindrical shape, and may be formed in a semi-cylindrical shape or a polygonal pillar shape, as needed.
하우징(201)의 내부 공간에는 디스플레이부(210) 및 하프미러(220)가 배치될 수 있다.A display unit (210) and a half mirror (220) can be placed in the internal space of the housing (201).
디스플레이부(210)는 하우징(201)의 내부에 배치되고, 입체 영상(250)이 원통 형태의 하우징(201)의 곡면을 향해 출력되도록 배치될 수 있다. The display unit (210) is placed inside the housing (201) and can be placed so that a three-dimensional image (250) is output toward the curved surface of the cylindrical housing (201).
본 발명에서, 디스플레이부(210)는 무안경식 입체 영상을 출력할 수 있는 패럴랙스 배리어, 렌티큘러 렌즈 등을 포함하는 라이트필드 디스플레이일 수 있다. 이외에도, 디스플레이부(210)는 집적 영상 디스플레이, 체적형 디스플레이, 홀로그램 디스플레이 등 완전 입체 영상을 출력할 수 있는 디스플레이 또는 편광 방식, 셔터글래스 방식 등의 안경식 입체 영상을 출력할 수 있는 디스플레이 등이 이용될 수도 있으며, 이에 한정하지 않는다. In the present invention, the display unit (210) may be a light field display including a parallax barrier, a lenticular lens, etc. capable of outputting a glasses-free stereoscopic image. In addition, the display unit (210) may be a display capable of outputting a full stereoscopic image, such as an integral image display, a volumetric display, a holographic display, or a display capable of outputting a glasses-type stereoscopic image, such as a polarization method or a shutter glass method, but is not limited thereto.
여기서, 디스플레이부(210)는 디스플레이 패널(Display panel)로서, 액정 표시 장치(LCD, Liquid Crystal Display), 유기발광다이오드 디스플레이(OLED, Organic Light Emitting Diode), 퀀텀닷(Quantum Dot) 디스플레이, 프로젝션 디스플레이 등이 이용될 수 있다. Here, the display unit (210) is a display panel, and a liquid crystal display (LCD), an organic light emitting diode display (OLED), a quantum dot display, a projection display, etc. can be used.
디스플레이부(210)는 원통 형태의 하우징(201)의 곡면을 향해 입체 영상(250)을 출력할 수 있다. 여기서, 입체 영상(250)은 홀로그램 영상일 수 있다. 예를 들어, 디스플레이부(210)는 도 2a와 같이 원통형 공간 영상 투영 장치(100) 내의 공간 상에서 체적을 갖는 3차원의 입체 영상(250)을 표현 가능한 가능한 라이트필드 디스플레이일 수 있다.The display unit (210) can output a three-dimensional image (250) toward the curved surface of the cylindrical housing (201). Here, the three-dimensional image (250) can be a holographic image. For example, the display unit (210) can be a possible light field display capable of expressing a three-dimensional three-dimensional image (250) having a volume in the space within the cylindrical space image projection device (100) as shown in FIG. 2A.
또한, 디스플레이부(210)는 UI 영상(260)을 출력할 수 있다. 예를 들어, 디스플레이부(210)는 입체 영상(250)의 조작을 위한 UI를 3차원의 UI 영상(260)으로 구성하여, 전방으로 투영할 수 있다. In addition, the display unit (210) can output a UI image (260). For example, the display unit (210) can configure a UI for manipulating a stereoscopic image (250) as a three-dimensional UI image (260) and project it forward.
여기서, 디스플레이부(210)는 라이트필드 디스플레이를 통해 3차원의 UI 영상(260)을 출력할 수 있다. Here, the display unit (210) can output a three-dimensional UI image (260) through a light field display.
한편, 라이트필드 디스플레이를 이용하는 경우 입체 영상을 표현하기 위해 많은 시점 영상을 렌더링해야 하므로, 전체 시스템의 성능에 많은 영향을 주게 된다. Meanwhile, when using a light field display, many viewpoint images must be rendered to express a stereoscopic image, which has a significant impact on the performance of the entire system.
이러한 문제를 해결하기 위해, 본 발명은 3차원 공간 내에서 렌더링을 하지 않고, 라이트필드 디스플레이를 위한 시점 영상들의 시차를 조절하여 라이트필드 디스플레이 기반의 UI 영상(260)을 출력할 수 있다. To solve this problem, the present invention can output a UI image (260) based on a light field display by adjusting the parallax of viewpoint images for a light field display without rendering within a three-dimensional space.
이를 통해, 디스플레이부(210)는 사용자가 자신의 손(270)을 이용하여 UI 영상(260)을 직접 터치할 수 있도록 할 수 있다. Through this, the display unit (210) can enable the user to directly touch the UI image (260) using his/her hand (270).
하프미러(220)는 디스플레이부(210)의 전면에 위치하여 투과율과 반사율의 비율에 따라 디스플레이부(210)로부터 출력된 입체 영상(250) 및 UI 영상(260)에 대응하는 공간 영상을 투영할 수 있다. The half mirror (220) is located in front of the display unit (210) and can project a spatial image corresponding to a stereoscopic image (250) and UI image (260) output from the display unit (210) according to the ratio of transmittance and reflectivity.
구체적으로, 하프미러(220)는 원통 형태의 하우징(201)을 반사하여 공간 영상을 투영함으로써 원통형 공간을 구성할 수 있다. 이를 통해 디스플레이부(210)가 사용자의 눈에 잘 띄지 않도록 하여 원통형 공간의 중앙 부분에 입체 영상(250) 및 UI 영상(260)이 위치하도록 함으로써 홀로그램 효과를 줄 수 있다.Specifically, the half mirror (220) can form a cylindrical space by reflecting a cylindrical housing (201) to project a spatial image. Through this, the display unit (210) can be made less noticeable to the user, and the stereoscopic image (250) and UI image (260) can be positioned in the central part of the cylindrical space, thereby providing a holographic effect.
하프미러(220)는 디스플레이부(210)의 전면에 배치되고, 공간 영상은 하프미러(220)와 원통 형태의 하우징(201)의 곡면 사이의 공간에 투영될 수 있다. A half mirror (220) is placed on the front of the display unit (210), and a spatial image can be projected into the space between the half mirror (220) and the curved surface of the cylindrical housing (201).
보다 구체적으로, 하프미러(220)의 일측에는 투명한 소재로 형성되는 하우징(201)의 원통의 곡면이 위치할 수 있다. 즉, 하프미러(220)는 하우징(201)의 내부에 원통 형태의 공간 영상을 투영할 수 있다. More specifically, a cylindrical curved surface of a housing (201) formed of a transparent material may be positioned on one side of the half mirror (220). That is, the half mirror (220) can project a cylindrical spatial image onto the inside of the housing (201).
또한, 하프미러(220)는 투과율과 반사율의 비율에 따라 디스플레이부(210)의 베젤 부분이 잘 보이지 않게 해주어 홀로그램 효과를 향상시킬 수 있다. In addition, the half mirror (220) can improve the holographic effect by making the bezel portion of the display unit (210) less visible depending on the ratio of transmittance and reflectivity.
카메라(230)는 하우징(201)의 상단부 또는 하단부에 설치될 수 있다. The camera (230) can be installed at the top or bottom of the housing (201).
카메라(230)는 카메라(230)의 화각 내에서 사용자의 터치 여부를 인식하기 위해 하우징(201)의 표면을 촬영할 수 있다. The camera (230) can capture the surface of the housing (201) to recognize whether the user touches it within the field of view of the camera (230).
이러한 카메라(230)는 사용자의 손을 인식하기 위해예를 들어, 깊이를 측정할 수 있는 스테레오 카메라, 깊이 카메라, 일반적인 2D 카메라 등이 이용될 수 있다. These cameras (230) can be used, for example, to recognize the user's hand, such as a stereo camera capable of measuring depth, a depth camera, or a general 2D camera.
제어부(240)는 카메라(230)를 통해 사용자의 손(270)의 위치를 검출하고, 검출된 손(270)의 위치에 기초하여 UI 영상(260)에 대한 손(270)의 터치 여부를 판단할 수 있다. The control unit (240) can detect the position of the user's hand (270) through the camera (230) and determine whether the hand (270) touches the UI image (260) based on the detected position of the hand (270).
제어부(240)는 판단 결과에 기초하여 입체 영상(250)의 시점 영상을 선택할 수 있다. The control unit (240) can select a viewpoint image of a stereoscopic image (250) based on the judgment result.
제어부(240)는 UI 영상(260)이 입체 영상(250)의 전방에 오버레이되도록 UI 영상(260)을 구성하는 복수의 시점 영상을 시프트(Shift)할 수 있다. 여기서, UI 영상(260)은 복수의 시점 영상이 시프트되는 픽셀의 이동량에 기초하여 특정 깊이 평면에 결상될 수 있다. The control unit (240) can shift multiple viewpoint images constituting the UI image (260) so that the UI image (260) is overlaid in front of the stereoscopic image (250). Here, the UI image (260) can be focused on a specific depth plane based on the amount of movement of pixels by which the multiple viewpoint images are shifted.
제어부(240)는 하우징(201)의 크기 정보에 따른 투영 거리 정보에 기초하여 UI 영상(260)에 대응하는 공간 영상을 하우징(201)의 표면에 투영시킬 수 있다. 복수의 시점 영상을 시프트하는 과정에 대해서는 도 3 및 도 4를 통해 상세히 설명하도록 한다. The control unit (240) can project a spatial image corresponding to the UI image (260) onto the surface of the housing (201) based on projection distance information according to the size information of the housing (201). The process of shifting multiple viewpoint images will be described in detail with reference to FIGS. 3 and 4.
도 3은 본 발명의 일 실시예에 따른 시점 영상을 복원하는 과정을 설명하기 위한 예시적인 도면이다. 도 3을 참조하면, 디스플레이부(210)는 디스플레이 패널(210-1) 및 디스플레이 패널(210-1)에 부착되는 요소 렌즈 어레이(300)를 포함할 수 있다. 이때, 각 광선이 요소 렌즈 어레이(300)를 통과하여 특정 깊이 평면에 결상됨으로써, 시점 영상이 복원될 수 있다. FIG. 3 is an exemplary drawing for explaining a process of restoring a point-of-view image according to one embodiment of the present invention. Referring to FIG. 3, the display unit (210) may include a display panel (210-1) and an element lens array (300) attached to the display panel (210-1). At this time, each light ray passes through the element lens array (300) and is focused on a specific depth plane, thereby restoring a point-of-view image.
예를 들어, 보라색으로 표현된 복수의 광선(301)의 경우, 각 광선(301)이 각각의 요소 렌즈(300)를 통과하여 D0(310)의 깊이 평면에 결상됨으로써, 시점 영상이 복원될 수 있다. For example, in the case of multiple light rays (301) expressed in purple, the viewpoint image can be restored by each light ray (301) passing through each element lens (300) and focusing on the depth plane of D 0 (310).
여기서, 녹색으로 표현된 복수의 광선(302)의 경우, 보라색으로 표현된 광선(301)에서 광선의 시작 위치를 요소 렌즈 어레이(300)의 상대 위치에 따라 n 픽셀씩 이동시킨 것으로, 요소 렌즈 어레이(300)를 통과하여 D1(311)의 깊이 평면에 결상됨으로써, 시점 영상이 복원될 수 있다. Here, in the case of multiple light rays (302) expressed in green, the starting position of the light rays in the light rays (301) expressed in purple is shifted by n pixels according to the relative position of the element lens array (300), so that the point image can be restored by passing through the element lens array (300) and focusing on the depth plane of D 1 (311).
제어부(240)는 이러한 과정을 반복 수행함으로써, 픽셀의 이동량을 조절하여 시점 영상이 결상되는 깊이 평면을 조절할 수 있다. The control unit (240) can adjust the depth plane on which the viewpoint image is formed by controlling the amount of pixel movement by repeatedly performing this process.
즉, 제어부(240)는 픽셀의 이동에 기초하여, 라이트필드 디스플레이에서 사용되는 시점 영상을 수평 이동시킬 수 있다. That is, the control unit (240) can horizontally move the viewpoint image used in the light field display based on the movement of pixels.
도 4는 본 발명의 일 실시예에 따른 UI 영상을 구성하는 복수의 시점 영상을 시프트하는 과정을 설명하기 위한 예시적인 도면이다. 도 3 및 도 4를 참조하면, 제어부(240)는 UI 영상(260)을 구성하는 5개의 시점 영상을 시프트하여 UI 영상(260)을 출력할 수 있다. FIG. 4 is an exemplary diagram for explaining a process of shifting multiple viewpoint images constituting a UI image according to one embodiment of the present invention. Referring to FIGS. 3 and 4, the control unit (240) can output the UI image (260) by shifting five viewpoint images constituting the UI image (260).
그림 (a)(410)의 경우, 5개의 시점 영상(400 내지 404)이 모두 동일한 위치에 위치하는 것을 확인할 수 있다. 그림 (a)에서, 라이트필드 디스플레이 기반으로 UI 영상(260)이 복원되는 경우, 2D 기반의 UI 영상이 디스플레이부(210)를 통해 출력될 수 있다. In the case of Figure (a)(410), it can be confirmed that all five viewpoint images (400 to 404) are located at the same location. In Figure (a), when the UI image (260) is restored based on a light field display, a 2D-based UI image can be output through the display unit (210).
그림 (b)(411)의 경우, 제어부(240)는 UI 영상(260)을 디스플레이부(210)의 전방으로 표현하기 위해 각 시점 영상을 수평 방향으로 시프트할 수 있다. 예를 들어, 제어부(240)는 제 1 시점 영상(400)을 기준 시점 영상으로 설정하고, 제 2 시점 영상(401)을 1픽셀, 제 3 시점 영상(402)을 2픽셀, 제 4 시점 영상(403)을 3픽셀, 제 5 시점 영상(404)을 4픽셀 이동시킬 수 있다. In the case of Figure (b)(411), the control unit (240) can shift each viewpoint image in the horizontal direction to display the UI image (260) in front of the display unit (210). For example, the control unit (240) can set the first viewpoint image (400) as a reference viewpoint image, and move the second viewpoint image (401) by 1 pixel, the third viewpoint image (402) by 2 pixels, the fourth viewpoint image (403) by 3 pixels, and the fifth viewpoint image (404) by 4 pixels.
이와 같이, 제어부(240)가 각 시점 영상을 이동시켜 라이트필드 기반의 UI 영상(260)을 복원하는 경우, 디스플레이부(210)는 도 3의 D1(311)의 깊이 평면 상에 UI 영상(260)을 출력할 수 있다. In this way, when the control unit (240) moves each point image to restore the light field-based UI image (260), the display unit (210) can output the UI image (260) on the depth plane of D 1 (311) of FIG. 3.
또한, 제어부(240)는 시점 영상이 복원되는 거리를 증가시키기 위해 각 시점 영상의 시프트 양을 증가시킬 수 있다. 예를 들어, 제어부(240)는 그림 (c)(412)의 경우, 그림 (b)(411)와 비교하여, 각 대응되는 시점 영상들에 비해 시프트 양을 2배 증가시킬 수 있다. 이 때, 디스플레이부(210)는 도 3의 D2(312)의 깊이 평면 상에 UI 영상(260)을 출력할 수 있다.In addition, the control unit (240) may increase the shift amount of each viewpoint image to increase the distance at which the viewpoint image is restored. For example, in the case of Figure (c) (412), the control unit (240) may increase the shift amount by two times compared to each corresponding viewpoint image compared to Figure (b) (411). At this time, the display unit (210) may output the UI image (260) on the depth plane of D 2 (312) of Figure 3.
이와 같은 방법으로, 제어부(240)는 원하는 깊이 위치에 표현하기 위한 적정 시프트 양을 도출함으로써, 각 시점 영상을 생성한 후, 라이트필드 기반의 UI 영상(260)으로 복원시키고, 디스플레이부(210)는 공간 영상 투영 장치(200)의 하우징(201)의 표면에 UI 영상(260)을 출력할 수 있다. In this way, the control unit (240) can generate each viewpoint image by deriving an appropriate shift amount for expression at a desired depth position, and then restore it to a light field-based UI image (260), and the display unit (210) can output the UI image (260) on the surface of the housing (201) of the spatial image projection device (200).
다시 도 2a 및 도 2b로 돌아와서, 제어부(240)는 UI 영상(260)의 픽셀 수 및 위치 정보에 기초하여 터치 영역을 설정하고, 터치 영역 및 손(270)의 위치에 기초하여 손(270)의 터치 여부를 판단할 수 있다. 손(270)의 터치 여부를 판단하는 과정에 대해서는 도 5를 통해 상세히 설명하도록 한다. Returning to FIGS. 2A and 2B again, the control unit (240) can set a touch area based on the number of pixels and location information of the UI image (260), and determine whether the hand (270) touches based on the touch area and the location of the hand (270). The process of determining whether the hand (270) touches will be described in detail with reference to FIG. 5.
도 5는 본 발명의 일 실시예에 따른 터치 영역 및 손의 위치에 기초하여 손의 터치 여부를 판단하는 과정을 설명하기 위한 예시적인 도면이다. 도 5를 참조하면, 그림 (a)(500)는 터치 센싱이 가능한 디스플레이부(210) 및 하프미러(220)가 배치된 공간 영상 투영 장치(200)의 정면도를 나타낸 것으로, 디스플레이부(210)는 3차원의 UI 영상(260)으로서 좌/우 화살표(502, 504)를 출력할 수 있다. 이 때, 하우징(201)의 상단부에 터치 인식을 위한 카메라(230)가 설치됨으로써, 카메라(230)의 화각 내 터치 여부 인식을 수행될 수 있다. FIG. 5 is an exemplary diagram for explaining a process of determining whether a hand is touched based on a touch area and a hand position according to one embodiment of the present invention. Referring to FIG. 5, the drawing (a) (500) shows a front view of a space image projection device (200) in which a display unit (210) capable of touch sensing and a half mirror (220) are arranged, and the display unit (210) can output left/right arrows (502, 504) as a three-dimensional UI image (260). At this time, a camera (230) for touch recognition is installed at the upper part of the housing (201), so that touch recognition can be performed within the field of view of the camera (230).
제어부(240)는 UI 영상(260)의 픽셀 수와 위치 정보를 기반으로 터치 영역(501, 503)을 설정할 수 있고, 스테레오 카메라, 깊이 카메라 등의 카메라(230)를 이용하여 사용자의 손(270)의 3차원 좌표를 추출하여 터치 영역(501, 503)의 터치 여부를 결정할 수 있다.The control unit (240) can set the touch area (501, 503) based on the number of pixels and location information of the UI image (260), and can extract the three-dimensional coordinates of the user's hand (270) using a camera (230) such as a stereo camera or a depth camera to determine whether the touch area (501, 503) is touched.
예를 들어, 그림 (b)(510), 그림 (c)(520)와 같이, 제어부(240)는 터치 영역(501, 503)에 사용자의 손(270)이 위치하는지에 기초하여 좌/우 화살표(502, 504)에 대한 터치 여부를 판단할 수 있다. For example, as shown in Figure (b) (510) and Figure (c) (520), the control unit (240) can determine whether the left/right arrows (502, 504) are touched based on whether the user's hand (270) is positioned in the touch area (501, 503).
다시 도 2a 및 도 2b로 돌아와서, 본 발명의 일 실시예에 따르면, 카메라(230)는 터치 인식을 위해 일반적인 2D 카메라일 수 있다.Returning again to FIGS. 2a and 2b, according to one embodiment of the present invention, the camera (230) may be a typical 2D camera for touch recognition.
이 경우, 제어부(240)는 사용자의 손(270)의 터치 인식을 위한 추가적인 계산을 수행할 수 있다.In this case, the control unit (240) can perform additional calculations for recognizing the touch of the user's hand (270).
제어부(240)는 터치 영역에 대한 좌표 정보를 도출할 수 있다. The control unit (240) can derive coordinate information for the touch area.
제어부(240)는 카메라(230)와 디스플레이부(210)의 위치에 대한 상관 관계 정보 및 카메라(230)의 화각에 의한 촬영 가능 폭에 기초하여 터치 영역의 시작 위치 및 종료 위치를 산출하고, 터치 영역의 시작 위치 및 종료 위치에 기초하여 터치 영역에 대한 x축 좌표 정보를 도출할 수 있다. The control unit (240) can calculate the start and end positions of the touch area based on the correlation information about the positions of the camera (230) and the display unit (210) and the shooting range by the angle of view of the camera (230), and can derive x-axis coordinate information for the touch area based on the start and end positions of the touch area.
도 6은 본 발명의 일 실시예에 따른 2D 카메라를 이용하는 경우의 사용자의 손의 터치 여부를 판단하는 과정을 설명하기 위한 예시적인 도면이다. 도 6을 참조하면, 촬영 가능한 카메라(230)의 폭이 2c라고 가정하자. 카메라(230)의 폭에 기초하여 UI 영상(260)에 해당하는 터치 영역은 다음의 수학식 1을 통해 산출될 수 있다. FIG. 6 is an exemplary drawing for explaining a process of determining whether a user's hand touches a subject when using a 2D camera according to one embodiment of the present invention. Referring to FIG. 6, let us assume that the width of a camera (230) capable of capturing is 2c. Based on the width of the camera (230), a touch area corresponding to a UI image (260) can be calculated using the following mathematical expression 1.
제어부(240)는 수학식 1에 기초하여 UI 영상(260)에 해당하는 터치 영역을 dx1과 dx2 사이의 영역2(602)으로 도출할 수 있다. The control unit (240) can derive the touch area corresponding to the UI image (260) as area 2 (602) between d x1 and d x2 based on mathematical expression 1.
여기서, 카메라(230)에 의해 촬영되는 위치를 디스플레이 패널의 정보를 이용하여 정의하기 위해, UI 영상(260)은 전체 해상도가 Rh, Rv이고, 픽셀 크기가 Px, Py인 디스플레이 패널에서 (dx1, dy1)에서 (dx2, dy2)를 포함하는 dh, dv 크기의 사각형 구조라고 가정하자. 또한, 디스플레이 패널은 터치 인식을 위한 카메라(230)로부터 L의 거리만큼 아래에 위치하고, 디스플레이 패널과 카메라(230)의 중심축은 동일 축 상에 있다고 가정하자. Here, in order to define the position captured by the camera (230) using the information of the display panel, let us assume that the UI image (260) is a rectangular structure of size d h , d v including (d x1 , d y1 ) to (d x2 , d y2 ) on a display panel having a total resolution of R h , R v and pixel sizes of P x , P y . In addition, let us assume that the display panel is positioned below the camera (230) for touch recognition by a distance of L, and the center axes of the display panel and the camera (230) are on the same axis.
카메라(230)와 디스플레이 패널의 위치에 대한 상관 관계 및 카메라(230)의 화각에 의해 촬영 가능한 폭(2c)은 예를 들어, 다음의 수학식 2 및 3을 통해 산출할 수 있다. The correlation between the positions of the camera (230) and the display panel and the width (2c) that can be captured by the angle of view of the camera (230) can be calculated, for example, using the following mathematical expressions 2 and 3.
카메라(230)의 영상에서의 영역2(602)의 시작 및 끝 위치는 다음의 수학식 4 및 수학식 5를 통해 산출할 수 있다. The start and end positions of area 2 (602) in the image of the camera (230) can be calculated using the following mathematical expressions 4 and 5.
영역2(602)에 대한 x축 좌표 값은 다음의 수학식 6 및 수학식 7을 통해 산출될 수 있다. The x-axis coordinate value for area 2 (602) can be calculated using the following mathematical expressions 6 and 7.
도 6의 아래 그림은 카메라에서 바라보는 모습으로, 연두색으로 표현된 부분이 화살표 UI에 해당하는 영역이다. 설명의 편의상 오른쪽 부분에 대해 설명을 하며, 중앙 기준으로 오른쪽 전체 영역을 c로 표현하였다. c를 세 부분으로 나누어 c2는 화살표 UI에 해당하는 영역을 나타내며, c1 및 c3는 화살표에 해당하지 않는 영역을 나타낸다. 따라서, 손이 c2에 해당하는 영역에서 터치가 발생했을 때 작동을 하고, 그 외 c1 및 c3의 영역에서 터치 발생시 작동을 하지 않는다.The lower picture of Fig. 6 is the view from the camera, and the part expressed in light green is the area corresponding to the arrow UI. For the convenience of explanation, the right part is explained, and the entire area to the right of the center is expressed as c. c is divided into three parts, and c2 represents the area corresponding to the arrow UI, and c1 and c3 represent areas that do not correspond to arrows. Accordingly, when the hand touches the area corresponding to c2, it operates, and when the touch occurs in the areas c1 and c3, it does not operate.
본 발명에서는 카메라(230)를 이용하여 터치 센싱을 수행하는 구성에 대해 설명하였으나, 카메라(230) 외에 하우징(201)의 상단부 또는 하단부에 IR 센서의 발광부 및 수광부를 각각 설치하여, 사용자의 손(270)의 수직 좌표를 추출할 수도 있다. In the present invention, a configuration for performing touch sensing using a camera (230) has been described, but in addition to the camera (230), a light-emitting unit and a light-receiving unit of an IR sensor may be installed at the upper or lower portion of the housing (201), respectively, to extract the vertical coordinates of the user's hand (270).
도 7은 본 발명의 일 실시예에 따른 UI 영상에 대해 사용자의 손이 터치된 경우 UI 영상이 변화되는 과정을 설명하기 위한 예시적인 도면이다. 도 7을 참조하면, 하우징(201)의 표면에 UI 영상(260)이 출력되고, 사용자가 UI 영상(260)을 터치한 경우의 UI 영상(260)이 변화될 수 있다. FIG. 7 is an exemplary drawing for explaining a process in which a UI image changes when a user's hand touches the UI image according to one embodiment of the present invention. Referring to FIG. 7, a UI image (260) is output on the surface of a housing (201), and the UI image (260) may change when a user touches the UI image (260).
그림 (a)(700)는 UI 영상(260)이 하우징(201)의 표면에 'Play 버튼' 형상으로 표현될 수 있다. UI 영상(260)의 'Play 버튼'이 공간 영상 투영 장치(200)의 하우징(201)의 표면에 표현되어 있을 때, 사용자가 자신의 손(270)을 이용하여 터치한 경우, 일반적인 터치 인터페이스에서 제공하는 다양한 액션을 수행할 수 있다. 예를 들어, 'Play 버튼'의 색상 변화, 밝기 변화, 회전, 상/하/좌/우 이동 등 다양한 애니메이션이 적용될 수 있다. In the figure (a)(700), the UI image (260) can be expressed in the shape of a 'Play button' on the surface of the housing (201). When the 'Play button' of the UI image (260) is expressed on the surface of the housing (201) of the space image projection device (200), if the user touches it using his/her hand (270), various actions provided by a general touch interface can be performed. For example, various animations such as color change, brightness change, rotation, and up/down/left/right movement of the 'Play button' can be applied.
또한, 그림 (b)(710)와 같이 사용자가 UI 영상(260)의 'Play 버튼'을 터치한 경우, 일부 밝기가 변화될 수 있다. Additionally, when the user touches the 'Play button' of the UI image (260) as shown in Figure (b)(710), some of the brightness may change.
일반적인 디스플레이의 경우, 'Play 버튼'이 눌러진 효과를 주기 위해 CG 효과에 의한 버튼 프레스(Button Press) 효과를 표현할 수 있다. 그러나 라이트필드 디스플레이를 이용하는 경우, 깊이 방향으로 영상 표현이 가능하므로, 입력 영상의 조작을 통해 실제로 'Play 버튼'이 눌리는 효과를 표현할 수 있다. In the case of a general display, a button press effect can be expressed by CG effects to give the effect of the 'Play button' being pressed. However, in the case of using a light field display, since image expression in the depth direction is possible, the effect of the 'Play button' actually being pressed can be expressed by manipulating the input image.
즉, 콘텐츠의 3차원 공간 상에서 'Play 버튼'이 눌림에 따라, CG 콘텐츠 표현을 해주고, 라이트필드 영상으로 렌더링하여 표현함으로써, 디스플레이부(210)는 실제 'Play 버튼'이 눌러진 듯한 효과를 제공할 수 있다. That is, by expressing CG content and rendering it as a light field image when the 'Play button' is pressed in the three-dimensional space of the content, the display unit (210) can provide an effect as if the actual 'Play button' has been pressed.
디스플레이부(210)는 3차원 영상을 실시간으로 렌더링하여 표현하지 않는 입체 영상(250)을 출력하면서, 입체 영상(250) 전방에 UI 영상(260)을 오버레이하여 출력할 수 있다. The display unit (210) can output a stereoscopic image (250) that does not express a three-dimensional image by rendering it in real time, and can output a UI image (260) by overlaying it in front of the stereoscopic image (250).
이하에서, 그림 (c), 그림 (d), 그림 (e) 각각에서 표시된 'dc1~dcm', 'dd1~ddm' 및 'de1~dem' 은 모두 각 시점 영상의 시차값을 나타낸다.Below, 'd c1 ~d cm ', 'd d1 ~d dm ', and 'd e1 ~d em ' shown in Figures (c), (d), and (e) respectively represent the parallax values of each viewpoint image.
그림 (c)(730)는 그림 (b)(710)의 'Play 버튼'을 각 시점 영상에 적합하도록 시프트시킨 영상일 수 있다. 즉, 제어부(240)는 가운데 영상인 제 n 시점 영상(720)을 기준으로, 시점 위치에 맞게 시차량 dc1~dcm 픽셀만큼 시프트시킴으로써, 디스플레이부(210)는 공간 영상 투영 장치(200)의 하우징(201)의 표면에 UI 영상(260)을 출력할 수 있다. 여기서, 시차량은 2D 영상에 대한 깊이 표현을 나타내므로, 인접한 시점 영상 간에는 동일한 시차량을 가질 수 있다. Figure (c)(730) may be an image in which the 'Play button' of Figure (b)(710) is shifted to suit each viewpoint image. That is, the control unit (240) shifts the n-th viewpoint image (720), which is the center image, by a parallax amount d c1 to d cm pixels to suit the viewpoint position, so that the display unit (210) can output the UI image (260) on the surface of the housing (201) of the spatial image projection device (200). Here, since the parallax amount represents a depth expression for a 2D image, the same parallax amount can be had between adjacent viewpoint images.
제어부(240)는 사용자가 자신의 손(270)을 이용하여 UI 영상(260)을 터치한 경우, 각 시점 영상의 시프트양을 조절할 수 있다. 여기서, 시차량을 줄이는 경우, UI 영상(260)은 디스플레이 패널쪽으로 이동을 하게 되고, 시차량을 증가시키는 경우, UI 영상(260)이 하우징(201)의 밖으로 출력될 수 있다. The control unit (240) can adjust the shift amount of each point image when the user touches the UI image (260) using his/her hand (270). Here, when the parallax amount is reduced, the UI image (260) moves toward the display panel, and when the parallax amount is increased, the UI image (260) can be output outside the housing (201).
그림 (d)(740)는 모든 시점 영상이 같은 경우를 나타내며, 이는 UI 영상(260)이 안쪽으로 들어가도록 이동하여 디스플레이부(210)의 면에 위치할 수 있다. Figure (d)(740) shows a case where all viewpoint images are the same, which means that the UI image (260) can move inward and be positioned on the surface of the display unit (210).
그림 (e)(750)는 시차량이 역전된 경우를 나타내며, UI 영상(260)이 안쪽으로 이동하여 디스플레이 패널의 뒤까지 들어간 경우를 나타낼 수 있다. Figure (e)(750) shows a case where the parallax is reversed, and can show a case where the UI image (260) moves inward and reaches the back of the display panel.
따라서, 제어부(240)는 입체 영상 및 UI 영상의 출력 시나리오에 따라 시차량을 조절함으로써, UI 영상(260)에 대한 깊이 방향으로 이동을 수행할 수 있다. Accordingly, the control unit (240) can perform movement in the depth direction for the UI image (260) by adjusting the parallax amount according to the output scenario of the stereoscopic image and the UI image.
도 8은 본 발명의 일 실시예에 따른 공간 영상 투영 장치에서 출력되는 입체 영상 및 UI 영상을 도시한 예시적인 도면이다. 도 8을 참조하면, 공간 영상 투영 장치(200)는 초기 상태의 정면 뷰를 제공할 수 있다. 예를 들어, 사용자의 정면 뷰(center view)에 대한 주 입체 영상(801)을 출력하고, 상단에 왼쪽 방향(802) 및 오른쪽 방향(803)을 나타내는 UI 영상(802, 803)을 출력할 수 있다. 예를 들어, 공간 영상 투영 장치(200)는 사용자의 손(270)이 오른쪽 방향에 대한 UI 영상(811)의 터치를 인식한 경우, 주 입체 영상(801)에 대한 오른쪽 방향에 대한 시점 영상(821)을 출력할 수 있다. FIG. 8 is an exemplary diagram illustrating a stereoscopic image and a UI image output from a spatial image projection device according to an embodiment of the present invention. Referring to FIG. 8, the spatial image projection device (200) can provide a front view in an initial state. For example, it can output a main stereoscopic image (801) for a front view (center view) of a user, and output UI images (802, 803) indicating a left direction (802) and a right direction (803) at the top. For example, when the spatial image projection device (200) recognizes a touch of a UI image (811) for a right direction by a user's hand (270), it can output a viewpoint image (821) for a right direction for the main stereoscopic image (801).
다른 예를 들어, 공간 영상 투영 장치(200)는 사용자의 손(270)이 왼쪽 방향에 대한 UI 영상(812)의 터치를 인식한 경우, 주 입체 영상(801)에 대한 왼쪽 방향에 대한 시점 영상(822)을 출력할 수 있다. For another example, when the space image projection device (200) recognizes a touch of the UI image (812) toward the left by the user's hand (270), it can output a viewpoint image (822) toward the left for the main stereoscopic image (801).
도 9는 본 발명의 일 실시예에 따른 UI 영상에 대해 사용자의 손이 터치된 경우 제공되는 입체 영상을 도시한 예시적인 도면이다. 도 9를 참조하면, 라이트필드 디스플레이가 적용된 공간 영상 투영 장치(200)에서 사용되는 시점 영상의 예로, 전체 M개의 시점 영상(900)이 존재하는 것으로 가정하여 설명하도록 한다. 예를 들어, 공간 영상 투영 장치(200)에 사용되는 라이트필드 디스플레이는 m개의 시점 영상을 사용한다고 가정하자. FIG. 9 is an exemplary diagram illustrating a stereoscopic image provided when a user's hand touches a UI image according to one embodiment of the present invention. Referring to FIG. 9, as an example of viewpoint images used in a space image projection device (200) to which a light field display is applied, it is assumed that there are a total of M viewpoint images (900) for explanation. For example, it is assumed that the light field display used in the space image projection device (200) uses m viewpoint images.
이와 같은 구성으로, 도 8의 초기 상태에서는 도 9의 이미지 그룹 1(901, n~n+m-1의 m개의 시점 영상)을 사용하여 입체 영상(250)을 출력할 수 있다. 여기서, 공간 영상 투영 장치(200)는 입체 영상(250)의 중심 시점 영상(910)을 출력할 수 있다. With this configuration, in the initial state of Fig. 8, a stereoscopic image (250) can be output using image group 1 (901, m viewpoint images of n to n+m-1) of Fig. 9. Here, the spatial image projection device (200) can output a center viewpoint image (910) of the stereoscopic image (250).
여기서, 사용자가 상단의 UI 영상(260)을 터치한 경우, UI 영상(260)에 대한 애니메이션(색상 변화, 깊이 방향 움직임, 회전, 상/하/좌/우 이동 등)을 수행하고, 주영상에 대한 액션을 수행할 수 있다. Here, when the user touches the UI image (260) at the top, animation (color change, depth direction movement, rotation, up/down/left/right movement, etc.) for the UI image (260) can be performed, and an action for the main image can be performed.
예를 들어, 사용자의 입체 영사에서 UI 영상(260)에 대한 터치를 통해, 사용자를 좌/우로 회전시킬 수 있다. 이때, 기생성된 영상에 대해서는 해당 시점 영상을 변경해야 하므로, 제공하고자 하는 입체 영상의 시나리오에 따라 사용하는 이미지 그룹을 이동시킬 수 있다. For example, the user can rotate left/right by touching the UI image (260) in the user's stereoscopic projection. At this time, since the corresponding viewpoint image must be changed for the parasitic image, the image group used can be moved according to the scenario of the stereoscopic image to be provided.
예를 들어, 사용자가 오른쪽 방향에 대한 UI 영상(260)을 터치한 경우, 공간 영상 투영 장치(200)는 이미지 그룹 2(902, M-(m-1)~M의 m개의 시점 영상)을 사용하여, 주 입체 영상을 오른쪽으로 회전시킨 오른쪽 방향에 대한 시점 영상(911)을 제공할 수 있다. 여기서, 오른쪽 방향에 대한 시점 영상을 제공하기 위해서는 시점 영상을 실시간으로 렌더링하는 경우 카메라(230) 또는 주 입체 영상을 이동시켜 시점 영상을 렌더링할 수 있다. For example, when a user touches a UI image (260) for the right direction, the spatial image projection device (200) can provide a viewpoint image (911) for the right direction by rotating the main stereoscopic image to the right using image group 2 (902, m viewpoint images of M-(m-1) to M). Here, in order to provide a viewpoint image for the right direction, the camera (230) or the main stereoscopic image can be moved to render the viewpoint image when rendering the viewpoint image in real time.
다른 예를 들어, 사용자가 왼쪽 방향에 대한 UI 영상(260)을 터치한 경우, 공간 영상 투영 장치(200)는 이미지 그룹 3(903, 1~m의 m개의 시점 영상)을 사용하여, 주 입체 영상을 왼쪽으로 회전시킨 왼쪽 방향에 대한 시점 영상(912)을 제공할 수 있다. For another example, if the user touches the UI image (260) for the left direction, the spatial image projection device (200) can provide a viewpoint image (912) for the left direction that rotates the main stereoscopic image to the left using image group 3 (903, m viewpoint images from 1 to m).
이러한 공간 영상 투영 장치(200)는 하프미러를 이용하여 공간 영상을 투영하는 명령어들의 시퀀스를 포함하는 매체에 저장된 컴퓨터 프로그램에 의해 실행될 수 있다. 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 하우징(201) 내에 수용된 디스플레이부(210)를 통해 입체 영상 및 UI 영상을 출력하고, 하프미러(220)를 통해 하우징(201) 내부에서 입체 영상에 대응하는 공간 영상을 투영하고, 카메라(230)를 통해 사용자의 손의 위치를 검출하고, 검출된 손의 위치에 기초하여 UI 영상에 대한 손의 터치 여부를 판단하고, 판단 결과에 기초하여 입체 영상의 시점 영상을 선택하도록 하는 명령어들의 시퀀스를 포함할 수 있다. Such a spatial image projection device (200) can be executed by a computer program stored in a medium including a sequence of commands for projecting a spatial image using a half mirror. When executed by a computing device, the computer program can include a sequence of commands for outputting a stereoscopic image and a UI image through a display unit (210) accommodated in a housing (201), projecting a spatial image corresponding to the stereoscopic image inside the housing (201) through a half mirror (220), detecting the position of a user's hand through a camera (230), determining whether the hand touches the UI image based on the detected hand position, and selecting a viewpoint image of the stereoscopic image based on the determination result.
도 10은 본 발명의 일 실시예에 따른 원통형 공간 영상 투영 장치(200)에서 수행되는 하프미러를 이용하여 공간 영상을 투영하는 방법의 순서도이다. 도 10에 도시된 공간 영상 투영 장치(200)에서 수행되는 하프미러(220)를 이용하여 공간 영상을 투영하는 방법은 도 2a 내지 도 9에 도시된 실시예에 따라 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 2a 내지 도 9에 도시된 실시예에 따라 공간 영상 투영 장치(200)에서 수행되는 하프미러(220)를 이용하여 공간 영상을 투영하는 방법에도 적용된다. FIG. 10 is a flowchart of a method for projecting a spatial image using a half mirror performed in a cylindrical spatial image projection device (200) according to one embodiment of the present invention. The method for projecting a spatial image using a half mirror (220) performed in the spatial image projection device (200) illustrated in FIG. 10 includes steps that are processed in time series according to the embodiments illustrated in FIGS. 2A to 9. Therefore, even if the content is omitted below, it is also applied to the method for projecting a spatial image using a half mirror (220) performed in the spatial image projection device (200) according to the embodiments illustrated in FIGS. 2A to 9.
단계 S1010에서 공간 영상 투영 장치(200)는 하우징(201) 내에 수용된 디스플레이부(215)를 통해 입체 영상(250) 및 UI 영상(260)을 출력할 수 있다. In step S1010, the space image projection device (200) can output a stereoscopic image (250) and a UI image (260) through a display unit (215) accommodated in a housing (201).
단계 S1020에서 공간 영상 투영 장치(200)는 하프미러(220)를 통해 하우징(201) 내부에서 입체 영상(250) 및 UI 영상(260)에 대응하는 공간 영상을 투영할 수 있다. In step S1020, the spatial image projection device (200) can project a spatial image corresponding to a stereoscopic image (250) and a UI image (260) inside the housing (201) through a half mirror (220).
단계 S1030에서 공간 영상 투영 장치(200)는 카메라(230)를 통해 사용자의 손(270)의 위치를 검출하고, 검출된 손(270)의 위치에 기초하여 UI 영상(260)에 대한 손(270)의 터치 여부를 판단할 수 있다. In step S1030, the space image projection device (200) detects the position of the user's hand (270) through the camera (230), and based on the detected position of the hand (270), determines whether the hand (270) touches the UI image (260).
단계 S1040에서 공간 영상 투영 장치(200)는 판단 결과에 기초하여 입체 영상(250)의 시점 영상을 선택할 수 있다. In step S1040, the spatial image projection device (200) can select a viewpoint image of a stereoscopic image (250) based on the judgment result.
상술한 설명에서, 단계 S1010 내지 S1040는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S1010 to S1040 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present invention. In addition, some steps may be omitted as needed, or the order between the steps may be switched.
도 2a 내지 도 10을 통해 설명된 공간 영상 투영 장치에서 수행되는 하프미러를 이용하여 공간 영상을 투영하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 또한, 도 2a 내지 도 10을 통해 설명된 공간 영상 투영 장치에서 수행되는 하프미러를 이용하여 공간 영상을 투영하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램의 형태로도 구현될 수 있다. The method for projecting a spatial image using a half mirror performed in the spatial image projection device described through FIGS. 2A to 10 can also be implemented in the form of a computer program stored in a medium executed by a computer or a recording medium including commands executable by a computer. In addition, the method for projecting a spatial image using a half mirror performed in the spatial image projection device described through FIGS. 2A to 10 can also be implemented in the form of a computer program stored in a medium executed by a computer.
컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Additionally, computer-readable media can include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential characteristics of the present invention. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single component may be implemented in a distributed manner, and likewise, components described as distributed may be implemented in a combined manner.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention.
200: 원통형 공간 영상 투영 장치
201: 하우징
210: 하프미러
220: 디스플레이부
230: 카메라
240: 제어부200: Cylindrical space image projection device
201: Housing
210: Half Mirror
220: Display section
230: Camera
240: Control Unit
Claims (17)
하우징;
상기 하우징 내에 수용되고, 입체 영상 및 UI 영상을 출력하는 디스플레이부;
상기 하우징 내부에서 상기 입체 영상 및 상기 UI 영상에 대응하는 공간 영상을 투영하는 하프미러; 및
카메라를 통해 사용자의 손의 위치를 검출하고, 상기 검출된 손의 위치에 기초하여 상기 UI 영상에 대한 손의 터치 여부를 판단하고, 판단 결과에 기초하여 상기 입체 영상의 시점 영상을 선택하는 제어부
를 포함하는 것인, 공간 영상 투영 장치.
In a cylindrical space image projection device using a half mirror,
housing;
A display unit accommodated within the housing and outputting stereoscopic images and UI images;
A half mirror that projects a spatial image corresponding to the stereoscopic image and the UI image inside the housing; and
A control unit that detects the position of a user's hand through a camera, determines whether the hand touches the UI image based on the detected hand position, and selects a viewpoint image of the stereoscopic image based on the determination result.
A spatial image projection device comprising:
상기 제어부는 상기 UI 영상이 상기 입체 영상의 전방에 오버레이되도록 상기 UI 영상을 구성하는 복수의 시점 영상을 시프트(Shift)하는 것인, 공간 영상 투영 장치.
In paragraph 1,
A spatial image projection device, wherein the control unit shifts a plurality of viewpoint images constituting the UI image so that the UI image is overlaid in front of the stereoscopic image.
상기 UI 영상은 상기 복수의 시점 영상이 시프트되는 픽셀의 이동량에 기초하여 특정 깊이 평면에 결상되는 것인, 공간 영상 투영 장치.
In the second paragraph,
A spatial image projection device, wherein the above UI image is projected onto a specific depth plane based on the amount of movement of pixels by which the plurality of viewpoint images are shifted.
상기 제어부는 상기 하우징의 크기 정보에 따른 투영 거리 정보에 기초하여 상기 UI 영상에 대응하는 공간 영상을 상기 하우징의 표면에 투영시키는 것인, 공간 영상 투영 장치.
In the second paragraph,
A spatial image projection device, wherein the control unit projects a spatial image corresponding to the UI image onto the surface of the housing based on projection distance information according to size information of the housing.
상기 제어부는 상기 UI 영상의 픽셀 수 및 위치 정보에 기초하여 터치 영역을 설정하고,
상기 터치 영역 및 상기 손의 위치에 기초하여 상기 손의 터치 여부를 판단하는 것인, 공간 영상 투영 장치.
In the first paragraph,
The above control unit sets the touch area based on the number of pixels and location information of the UI image,
A spatial image projection device that determines whether the hand touches the screen based on the touch area and the position of the hand.
상기 제어부는 상기 카메라와 상기 디스플레이부의 위치에 대한 상관 관계 정보 및 상기 카메라의 화각에 의한 촬영 가능 폭에 기초하여 상기 터치 영역의 시작 위치 및 종료 위치를 산출하고,
상기 터치 영역의 시작 위치 및 종료 위치에 기초하여 상기 터치 영역에 대한 x축 좌표 정보를 도출하는 것인, 공간 영상 투영 장치.
In paragraph 5,
The control unit calculates the start and end positions of the touch area based on the correlation information about the positions of the camera and the display unit and the shooting range by the angle of view of the camera.
A spatial image projection device that derives x-axis coordinate information for the touch area based on the start position and end position of the touch area.
상기 하우징은 원통 형태를 가지고,
상기 디스플레이부는 상기 입체 영상이 상기 원통의 곡면을 향해 출력되도록 배치되는 것인, 공간 영상 투영 장치.
In the first paragraph,
The above housing has a cylindrical shape,
A spatial image projection device, wherein the display unit is arranged so that the three-dimensional image is output toward the curved surface of the cylinder.
상기 하프미러는 상기 디스플레이부의 전면에 배치되고,
상기 공간 영상은 상기 하프미러와 상기 원통의 곡면 사이의 공간에 투영되는 것인, 공간 영상 투영 장치.
In paragraph 7,
The above half mirror is placed on the front of the display unit,
A space image projection device, wherein the above space image is projected into the space between the half mirror and the curved surface of the cylinder.
하우징 내에 수용된 디스플레이부를 통해 입체 영상 및 UI 영상을 출력하는 단계;
하프미러를 통해 상기 하우징 내부에서 상기 입체 영상 및 상기 UI 영상에 대응하는 공간 영상을 투영하는 단계;
카메라를 통해 사용자의 손의 위치를 검출하고, 상기 검출된 손의 위치에 기초하여 상기 UI 영상에 대한 손의 터치 여부를 판단하는 단계; 및
판단 결과에 기초하여 상기 입체 영상의 시점 영상을 선택하는 단계
를 포함하는 것인, 공간 영상 투영 방법.
A method for projecting a spatial image using a half mirror in a cylindrical spatial image projection device,
A step of outputting a stereoscopic image and a UI image through a display unit accommodated in a housing;
A step of projecting a spatial image corresponding to the stereoscopic image and the UI image inside the housing through a half mirror;
A step of detecting the position of the user's hand through a camera and determining whether the hand touches the UI image based on the detected hand position; and
A step for selecting a viewpoint image of the stereoscopic image based on the judgment result.
A spatial image projection method comprising:
상기 시점 영상을 선택하는 단계는,
상기 UI 영상이 상기 입체 영상의 전방에 오버레이되도록 상기 UI 영상을 구성하는 복수의 시점 영상을 시프트(Shift)하는 단계를 포함하는 것인, 공간 영상 투영 방법.
In Article 9,
The steps for selecting the above time point video are:
A spatial image projection method, comprising a step of shifting a plurality of viewpoint images constituting the UI image so that the UI image is overlaid in front of the stereoscopic image.
상기 UI 영상은 상기 복수의 시점 영상이 시프트되는 픽셀의 이동량에 기초하여 특정 깊이 평면에 결상되는 것인, 공간 영상 투영 방법.
In Article 10,
A spatial image projection method, wherein the above UI image is projected onto a specific depth plane based on the amount of movement of pixels by which the multiple viewpoint images are shifted.
상기 시점 영상을 선택하는 단계는,
상기 하우징의 크기 정보에 따른 투영 거리 정보에 기초하여 상기 UI 영상에 대응하는 공간 영상을 상기 하우징의 표면에 투영시키는 단계를 포함하는 것인, 공간 영상 투영 방법.
In Article 10,
The steps for selecting the above time point video are:
A spatial image projection method, comprising a step of projecting a spatial image corresponding to the UI image onto a surface of the housing based on projection distance information according to size information of the housing.
상기 손의 터치 여부를 판단하는 단계는,
상기 UI 영상의 픽셀 수 및 위치 정보에 기초하여 터치 영역을 설정하는 단계; 및
상기 터치 영역 및 상기 손의 위치에 기초하여 상기 손의 터치 여부를 판단하는 단계를 포함하는 것인, 공간 영상 투영 방법.
In Article 9,
The step of determining whether the above hand touches or not is as follows:
A step of setting a touch area based on the number of pixels and location information of the above UI image; and
A spatial image projection method, comprising a step of determining whether the hand is touched based on the touch area and the position of the hand.
상기 손의 터치 여부를 판단하는 단계는,
상기 카메라와 상기 디스플레이부의 위치에 대한 상관 관계 정보 및 상기 카메라의 화각에 의한 촬영 가능 폭에 기초하여 상기 터치 영역의 시작 위치 및 종료 위치를 산출하는 단계; 및
상기 터치 영역의 시작 위치 및 종료 위치에 기초하여 상기 터치 영역에 대한 x축 좌표 정보를 도출하는 단계를 포함하는 것인, 공간 영상 투영 방법.
In Article 13,
The step of determining whether the above hand touches or not is as follows:
A step of calculating the start and end positions of the touch area based on the correlation information on the positions of the camera and the display unit and the shooting range by the angle of view of the camera; and
A spatial image projection method, comprising a step of deriving x-axis coordinate information for the touch area based on a start position and an end position of the touch area.
상기 하우징은 원통 형태를 가지고,
상기 입체 영상은 상기 원통의 곡면을 향해 출력되도록 배치되는 것인, 공간 영상 투영 방법.
In Article 9,
The above housing has a cylindrical shape,
A spatial image projection method, wherein the above stereoscopic image is arranged so as to be output toward the curved surface of the cylinder.
상기 하프미러는 상기 디스플레이부의 전면에 배치되고,
상기 공간 영상은 상기 하프미러와 상기 원통의 곡면 사이의 공간에 투영되는 것인, 공간 영상 투영 방법.
In Article 15,
The above half mirror is placed on the front of the display unit,
A spatial image projection method, wherein the above spatial image is projected into the space between the half mirror and the curved surface of the cylinder.
상기 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우,
하우징 내에 수용된 디스플레이부를 통해 입체 영상 및 UI 영상을 출력하고,
하프미러를 통해 상기 하우징 내부에서 상기 입체 영상 및 상기 UI 영상에 대응하는 공간 영상을 투영하고,
카메라를 통해 사용자의 손의 위치를 검출하고, 상기 검출된 손의 위치에 기초하여 상기 UI 영상에 대한 손의 터치 여부를 판단하고,
판단 결과에 기초하여 상기 입체 영상의 시점 영상을 선택하도록 하는 명령어들의 시퀀스를 포함하는, 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램. A computer program stored on a computer-readable recording medium including a sequence of commands for projecting a spatial image using a half mirror,
When the above computer program is executed by a computing device,
Outputs stereoscopic images and UI images through the display unit housed within the housing,
Projecting a spatial image corresponding to the stereoscopic image and the UI image inside the housing through a half mirror,
Detecting the position of the user's hand through the camera, and determining whether the hand touches the UI image based on the detected hand position,
A computer program stored on a computer-readable recording medium, comprising a sequence of commands for selecting a viewpoint image of the stereoscopic image based on the judgment result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230020421A KR20240127555A (en) | 2023-02-16 | 2023-02-16 | Cylindrical three-dimensional image projection apparatus using half-mirror, method and computer program for projecting three-dimensional image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230020421A KR20240127555A (en) | 2023-02-16 | 2023-02-16 | Cylindrical three-dimensional image projection apparatus using half-mirror, method and computer program for projecting three-dimensional image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240127555A true KR20240127555A (en) | 2024-08-23 |
Family
ID=92568235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230020421A KR20240127555A (en) | 2023-02-16 | 2023-02-16 | Cylindrical three-dimensional image projection apparatus using half-mirror, method and computer program for projecting three-dimensional image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240127555A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190080590A (en) | 2017-12-28 | 2019-07-08 | 주식회사 케이티 | Three-dimensional image projection apparatus |
KR102290145B1 (en) | 2018-09-19 | 2021-08-19 | 주식회사 케이티 | Cylindrical three-dimensional image projection apparatus using half-mirror |
-
2023
- 2023-02-16 KR KR1020230020421A patent/KR20240127555A/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190080590A (en) | 2017-12-28 | 2019-07-08 | 주식회사 케이티 | Three-dimensional image projection apparatus |
KR102290145B1 (en) | 2018-09-19 | 2021-08-19 | 주식회사 케이티 | Cylindrical three-dimensional image projection apparatus using half-mirror |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230377183A1 (en) | Depth-Aware Photo Editing | |
US10656721B2 (en) | Interactive three-dimensional display apparatus and method | |
JP5087532B2 (en) | Terminal device, display control method, and display control program | |
US8970478B2 (en) | Autostereoscopic rendering and display apparatus | |
US8570372B2 (en) | Three-dimensional imager and projection device | |
US8890812B2 (en) | Graphical user interface adjusting to a change of user's disposition | |
JP4579295B2 (en) | Image display device | |
WO2018188499A1 (en) | Image processing method and device, video processing method and device, virtual reality device and storage medium | |
JP2008219788A (en) | Stereoscopic image display device, and method and program therefor | |
US9766793B2 (en) | Information processing device, information processing method and program | |
US20140129988A1 (en) | Parallax and/or three-dimensional effects for thumbnail image displays | |
KR101096617B1 (en) | Spatial multi interaction-based 3d stereo interactive vision system and method of the same | |
US20100238184A1 (en) | Method and apparatus for three-dimensional visualization in mobile devices | |
JPWO2018003861A1 (en) | Display device and control device | |
US9703400B2 (en) | Virtual plane in a stylus based stereoscopic display system | |
US20110273731A1 (en) | Printer with attention based image customization | |
JP2013016018A (en) | Display control apparatus, control method, and program | |
US12069231B1 (en) | Integrated display rendering | |
EP3747191A1 (en) | Autostereoscopic display with viewer tracking | |
Osato et al. | Compact optical system displaying mid-air images movable in depth by rotating light source and mirror | |
KR20240127555A (en) | Cylindrical three-dimensional image projection apparatus using half-mirror, method and computer program for projecting three-dimensional image | |
US11697068B2 (en) | Mobile platform as a physical interface for interaction | |
US20240203012A1 (en) | Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor | |
US11417055B1 (en) | Integrated display rendering | |
US11682162B1 (en) | Nested stereoscopic projections |