KR102124564B1 - Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality - Google Patents
Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality Download PDFInfo
- Publication number
- KR102124564B1 KR102124564B1 KR1020180135199A KR20180135199A KR102124564B1 KR 102124564 B1 KR102124564 B1 KR 102124564B1 KR 1020180135199 A KR1020180135199 A KR 1020180135199A KR 20180135199 A KR20180135199 A KR 20180135199A KR 102124564 B1 KR102124564 B1 KR 102124564B1
- Authority
- KR
- South Korea
- Prior art keywords
- light source
- image
- source unit
- virtual object
- background
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치를 개시한다.
본 발명에 따른 일 실시예는 a) 사용자에 의해 움직이는 광원부와 서로 다른 곳에 위치하는 복수의 광학 송수신기가 서로 빔을 송수신하는 단계; b) 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자가 서로 송수신한 상기 빔과 상기 광원부 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하는 단계; c) 상기 b) 단계에서의 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 단계; 및 d) 상기 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 단계를 포함하고, 상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 가상 영상인 것을 특징으로 한다.The present invention discloses a method and apparatus for processing an image by reflecting the position of a moving light source in augmented reality.
According to an embodiment of the present invention, a) a plurality of optical transceivers located at different locations from a light source unit moved by a user transmits and receives beams to each other; b) 3D position and direction of the light source unit based on the 3D information of the light source unit measured by the inertial sensor located inside the light source unit and the beam transmitted or received by one or both of the light source unit and the plurality of optical transceivers , And checking an angle; c) processing an object illuminated by the light source and a virtual object image to be displayed on the background based on the check result in step b); And d) displaying the virtual object image on one or both of the object and the background, wherein the virtual object image is either the shadow of the object generated by the object and the light source or the background. Or it is characterized by a virtual image that is combined with both to realize augmented reality.
Description
본 발명은 영상 처리 방법 및 장치에 관한 것으로, 좀 더 구체적으로 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치에 관한 것이다.The present invention relates to an image processing method and apparatus, and more particularly, to a method and apparatus for processing an image by reflecting the position of a moving light source in augmented reality.
최근 증강현실, 실감몰입형 영상 등 새로운 기술을 활용한 영상플랫폼 개발이 활발하다. 활용처 또한 기존의 게임 분야에서 벗어나, 순수미술, 광고, 엔터테인먼트, 교육, 박물관 전시 등 다양한 분야로 넓어지고 있다. 따라서 관련 기술의 발전과, 이를 활용한 다양한 영상플랫폼 개발 사례가 필요한 실정이다.Recently, the development of an image platform that utilizes new technologies such as augmented reality and immersive images is active. The application area is also widening from the existing game field to various fields such as fine art, advertisement, entertainment, education, and museum exhibition. Therefore, the development of related technologies and the development of various video platforms using them are in need.
증강현실이란 현실에 가상현실 영상을 겹쳐서 사용자에게 보여주는 것이다. 이를 위한 여러 영상 표시 방법들 중 본 발명이 발전시키고자 하는 것은, 실재하는 물체의 표면에 가상 물체 영상을 표시하는 방식이다. 예를 들어, 프로젝터를 이용하여 영상을 물체의 표면에 투사할 수 있거나, 또는 모니터를 물체의 표면에 부착하여, 모니터가 물체의 일부인 듯이 영상을 표시할 수도 있다. 이를 통해 현실의 물체에 가상현실이 덧씌워진 증강현실 물체가 만들어질 수 있으며, 마치 가상물체가 실재하는 것과 같은 착각을 사용자에게 일으킨다. 이러한 방식은 다른 증강현실 영상 표시 방식들에 비해 특수한 장점들을 인정받고 있지만, 아직까지 증강현실 영상에 인터랙티브 콘텐츠를 결합한 사례는 많지 않은 실정이다. 따라서, 현 단계의 증강현실 기술과 인터랙티브 콘텐츠의 결합을 통한 보다 높은 현실감과 몰입감을 제공할 수 있는 새로운 기술 개발이 필요하다.Augmented reality refers to a virtual reality image superimposed on the reality. Among the various image display methods for this purpose, the present invention is to develop a method of displaying a virtual object image on the surface of an actual object. For example, an image may be projected onto the surface of an object using a projector, or the monitor may be attached to the surface of an object to display the image as if the monitor is part of the object. Through this, an augmented reality object in which virtual reality is overlaid on an object of reality can be created, and an illusion as if a virtual object exists is caused to the user. Although this method is recognized for its special advantages over other augmented reality video display methods, there have not been many cases in which interactive content is combined with augmented reality video. Therefore, it is necessary to develop a new technology capable of providing a higher sense of reality and immersion through the combination of augmented reality technology and interactive content at this stage.
한편, 실감형 영상이란 실감형 인터페이스를 통해 영상의 내용을 시각 이외의 추가적인 감각을 통해 전달하는 것으로 정의될 수 있다. 이러한 실감형 인터페이스의 대표적인 예로, 자동차 게임에서 촉각을 이용하여 사용자가 직접 몸으로 느낄 수 있는 자동차 운전대 컨트롤러를 들 수 있다. 그런데 이러한 실감형 인터페이스는 이미 오래 전부터 전형적인 형태 몇 가지만이 널리 쓰이는데 그쳐, 새로운 환경에도 적용 가능한 사례의 개발이 필요하다. 구체적으로, 최근에 실감형 인터페이스 장치에 필수적인 위치추적 센서의 정밀도가 현저하게 개선되었고, 그에 따라 다양한 가능성이 모색되고 있다. 특히 실감형 인터페이스가 증강현실 영상과 결합되면 새로운 형식의 인터랙티브 영상플랫폼을 구현할 수 있을 것으로 기대된다. On the other hand, the tangible image may be defined as delivering the contents of the image through an additional sensation other than visual through the tangible interface. A typical example of such a tangible interface is a car steering wheel controller that a user can directly feel by using tactile sense in a car game. However, these tangible interfaces have been used only in a few typical forms for a long time, and it is necessary to develop cases applicable to new environments. Specifically, in recent years, the precision of the position tracking sensor essential for the sensory interface device has been significantly improved, and various possibilities have been sought accordingly. In particular, if the tangible interface is combined with augmented reality video, it is expected that a new format of interactive video platform can be realized.
본 발명은 상기와 같은 배경 기술에 기초하여 안출된 것으로, 기존 기술을 보다 발전시켜 증강현실의 현실감을 높이고, 증강현실과 실감형 인터페이스를 결합하여 인터랙션이 가능하게 하여, 궁극적으로 몰입감을 높일 수 있는 영상 처리 방법 및 장치를 제공하는 것을 목적으로 한다. 다양한 실시예예 따른 본 발명의 영상 처리 방법 및 장치를 통해 재미, 아름다움, 독특함 등의 예술성과 유희성을 향상시키는 것뿐만 아니라, 새로운 유형의 사용자 경험을 구현하고, 다양한 콘텐츠에 활용 가능한 플랫폼을 구현할 수 있는 가능성을 제시할 수 있다.The present invention was devised on the basis of the background technology as described above, and further enhances the reality of augmented reality by developing the existing technology, and enables interaction by combining augmented reality and a tangible interface, thereby ultimately enhancing immersion. It is an object to provide an image processing method and apparatus. Through the image processing method and apparatus of the present invention according to various embodiments, it is possible to implement a new type of user experience and to implement a platform that can be used for various contents, as well as to improve artistic and playfulness such as fun, beauty, and uniqueness. Can suggest potential.
상기와 같은 목적을 달성하기 위한 본 발명의 일 특징에 따른 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법은 a) 사용자에 의해 움직이는 광원부와 서로 다른 곳에 위치하는 복수의 광학 송수신기가 서로 빔을 송수신하는 단계; b) 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자가 서로 송수신한 상기 빔과 상기 광원부 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하는 단계; c) 상기 b) 단계에서의 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 단계; 및 d) 상기 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 단계를 포함하고, 상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 가상 영상인 것을 특징으로 한다. A method for processing an image by reflecting the position of a moving light source in augmented reality according to an aspect of the present invention for achieving the above object is a) a plurality of optical transceivers located at different locations from the light source unit moving by the user Transmitting and receiving a beam; b) 3D position and direction of the light source unit based on the 3D information of the light source unit measured by the inertial sensor located inside the light source unit and the beam transmitted or received by one or both of the light source unit and the plurality of optical transceivers , And checking an angle; c) processing an object illuminated by the light source and a virtual object image to be displayed on the background based on the check result in step b); And d) displaying the virtual object image on one or both of the object and the background, wherein the virtual object image is either the shadow of the object generated by the object and the light source or the background. Or it is characterized by a virtual image that is combined with both to realize augmented reality.
또한, 본 발명의 제 2 특징에 따른 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 장치는 서로 빔을 송수신하는 사용자에 의해 움직이는 광원부 및 복수의 광학 송수신기; 상기 복수의 광학 송수신기 및 상기 광원부 중 어느 하나 또는 양자가 서로 상기 송수신된 상기 빔과 상기 광원부의 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보를 수신하며, 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자로부터 수신한 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하고, 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 제어부; 및 상기 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 영상표시부를 포함하고, 상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 가상 영상인 것을 특징으로 한다. In addition, in the augmented reality according to the second aspect of the present invention, an apparatus for processing an image by reflecting a position of a moving light source includes: a light source unit and a plurality of optical transceivers moved by users transmitting and receiving beams to each other; One or both of the plurality of optical transceivers and the light source unit receive three-dimensional information of the light source unit measured by the beam transmitted and received and an inertial sensor located inside the light source unit, and the light source unit and the plurality of optical units Based on the 3D information of the light source unit received from any one or both of the transceivers, the 3D position, direction, and angle of the light source unit are checked and displayed on the object and background illuminated by the light source unit based on the verification result. A control unit for processing the virtual object image; And an image display unit for displaying the virtual object image on either or both of the object and the background, wherein the virtual object image is synthesized with either or both of the shadow or the background generated by the object and the light source unit. It is characterized by being a virtual image to realize augmented reality.
상술한 본 발명에 따르면, 현실의 실제 물체 상에 광원부의 위치에 기반하여 생성되는 가상물체 영상이 합성되어, 증강현실의 현실감을 한 단계 더 높일 수 있게 되었다. 특히, 광원부의 3차원 위치를 추적하고 빛 특성을 컴퓨터 그래픽에 그대로 적용함으로 인해, 기존에 공지된 증강현실 관련 광원 인식 및 적용 방법들보다 더욱 정밀하고 풍부한 표현이 가능해진다.According to the present invention described above, a virtual object image generated based on the position of a light source unit on a real object of reality is synthesized, and the reality of augmented reality can be further enhanced. In particular, by tracking the three-dimensional position of the light source unit and applying the light characteristics as it is to the computer graphic, it is possible to express more precisely and abundantly than the conventionally known augmented reality related light source recognition and application methods.
또한, 본 발명에 따르면, 사용자가 실감형 인터페이스를 통해 증강현실 물체와 상호작용하므로, 상기 사용자는 자신이 사용하는 광원부의 위치에 따른 조명 상태를 반영하여 실제 물체 상에 3차원 효과를 갖는 가상물체 영상의 투사가 가능하여 향상된 현실감 뿐만 아니라 광원부의 조명 변화를 사용자가 직접 제어하게 함으로써 보다 향상된 몰입감과 독특한 사용자 경험을 얻을 수 있다.In addition, according to the present invention, since the user interacts with the augmented reality object through the tangible interface, the user reflects the lighting state according to the position of the light source unit used by the user, and the virtual object has a three-dimensional effect on the real object It is possible to project the image so that the user can directly control the lighting change of the light source unit as well as the improved realism, thereby obtaining an improved immersion and a unique user experience.
도 1a는 본 발명의 일 실시예에 따른 광원의 위치를 반영하여 영상을 처리하는 방법의 순서도이다.
도 1b는 본 발명의 일 실시예에 따른 영상 처리 장치의 내부 구조를 도시하는 블록도이다.
도 2a 와 도 2b는 본 발명의 제1 실시예에 따른 가상물체 영상을 투사하기 전과 후를 비교하는 도면이다.
도 3a, 도3b, 도 3c, 및 도 3d는 각각 도 2b에 도시된 본 발명의 제1 실시예에서, 상이한 광원부의 위치가 반영된 결과를 도시하는 도면이다.
도 4a, 도4b, 및 도4c는 각각 본 발명의 제2 실시예에 따른 영상 처리 결과를 도시하는 도면이다.
도 5는 본 발명의 제3 실시예에 따른 나뭇잎의 생장을 주제로 하는 가상물체 영상을 순차적으로 도시하는 도면이다.
도 6은 본 발명의 제4 실시예에 따른 꽃과 나비를 주제로 하는 가상물체 영상을 순차적으로 도시하는 도면이다.
도 7은 본 발명의 제5 실시예에 따른 물의 순환과정을 순차적으로 나타내는 도면이다.
도 8은 본 발명의 제6 실시예에 따른 사용자가 어둠 속을 탐험하면서 증강현실을 체험하는 것을 나타내는 도면이다. 1A is a flowchart of a method of processing an image by reflecting the position of a light source according to an embodiment of the present invention.
1B is a block diagram showing the internal structure of an image processing apparatus according to an embodiment of the present invention.
2A and 2B are diagrams comparing before and after projecting a virtual object image according to a first embodiment of the present invention.
3A, 3B, 3C, and 3D are diagrams showing results of reflecting positions of different light sources in the first embodiment of the present invention shown in FIG. 2B, respectively.
4A, 4B, and 4C are diagrams respectively showing image processing results according to the second embodiment of the present invention.
5 is a view sequentially showing a virtual object image with the theme of growth of leaves according to a third embodiment of the present invention.
6 is a view sequentially showing a virtual object image with the theme of a flower and a butterfly according to a fourth embodiment of the present invention.
7 is a view sequentially showing a water circulation process according to a fifth embodiment of the present invention.
8 is a diagram illustrating a user experiencing augmented reality while exploring in the dark according to a sixth embodiment of the present invention.
본 명세서에서 실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments in the present specification, descriptions of technical contents well known in the technical field to which the present invention pertains and which are not directly related to the present invention will be omitted. This is to more clearly communicate the subject matter of the present invention by omitting unnecessary description.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some components in the accompanying drawings are exaggerated, omitted, or schematically illustrated. Also, the size of each component does not entirely reflect the actual size. The same reference numbers are assigned to the same or corresponding elements in each drawing.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the person having the scope of the invention, and the present invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다. Also, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative implementations, it is also possible that the functions mentioned in the blocks occur out of order. For example, two blocks shown in succession may in fact be executed substantially simultaneously, or it is also possible that the blocks are sometimes executed in reverse order according to a corresponding function.
이 때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.At this time, the term'~ unit' used in this embodiment means a software or hardware component, and'~ unit' performs certain roles. However,'~ wealth' is not limited to software or hardware. The'~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. The functions provided within components and'~units' may be combined into a smaller number of components and'~units' or further separated into additional components and'~units'.
이하에서 본 발명의 실시예 및 도면을 참조하여 본 발명을 상세히 기술한다. Hereinafter, the present invention will be described in detail with reference to examples and drawings of the present invention.
본 발명은 실재하는 물체의 표면에 가상 물체 영상을 표시하는 방식의 증강현실을 발전시켜 더 높은 현실감을 표현할 수 있는 방법에 대한 것이다. 본 발명은, 하나의 예시로, 영상 관람 인터페이스 장치로서, 조명 장치를 사용자에게 제공할 수 있다. 그리고 컴퓨터그래픽(CG)을 통해 상기 조명 장치와 동일한 특성(예를 들어, 밝기, 색상, 발광 방향 등)을 제공하는 별도의 영상 표시 장치(이하에서 "영상 표시 장치"는 필요한 경우"CG 광원"과 호환적으로 사용될 수 있습니다)로 가상 물체를 조명하여 현실감을 높일 수 있다. 사용자가 상기 조명 장치를 움직이면 현실 물체의 음영(그림자)이 변화하는 것은 물론, 동시에 CG 광원의 위치 또는 위치 좌표의 변화를 반영하여, 상술한 조명 장치의 특성(예를 들어, 밝기, 색상, 발광 방향 등)과 동일한 특성의 CG 광원의 빛에 의해 제공되는 가상 물체의 영상이 조명된다. 이를 위해 조명 장치로서 위치추적 센서가 부착된 특수한 광원 장치가 사용되고, 광원 장치가 움직이는 위치 및 방향을 실시간으로 영상 처리 장치에 무선 송신하도록 할 수 있다. 또한 영상 처리 장치를 이용하여 추적한 광원 장치의 위치 및 방향에 따라 CG 광원의 빛에 의해 제공되는 가상물체 영상을 실제하는 물체 상에 실시간 랜더링하도록 할 수 있다. The present invention relates to a method capable of expressing a higher sense of reality by developing augmented reality in a manner of displaying a virtual object image on the surface of a real object. The present invention, as one example, as a video viewing interface device, may provide a lighting device to the user. And a separate video display device that provides the same characteristics (for example, brightness, color, light emission direction, etc.) to the lighting device through computer graphics (CG) (hereinafter referred to as "CG light source" if necessary) It can be used interchangeably with) to illuminate a virtual object to enhance realism. When the user moves the lighting device, not only the shadow (shadow) of the real object changes, but also reflects the change in the position or position coordinate of the CG light source, and thus the characteristics of the lighting device described above (eg, brightness, color, light emission) Direction, etc.), the image of the virtual object provided by the light of the CG light source having the same characteristics is illuminated. To this end, a special light source device with a position tracking sensor is used as a lighting device, and it is possible to wirelessly transmit the moving position and direction of the light source device to the image processing device in real time. In addition, the virtual object image provided by the light of the CG light source may be rendered in real time on an actual object according to the position and direction of the light source device tracked using the image processing device.
좀 더 구체적으로, 상기 실시간으로 렌더링되는 가상물체 영상은 영상 표시 장치를 통하여 실제 물체 표면에 매핑될 수 있으며, 상기 가상물체 영상이 실제 광원 장치의 조명에 의해 생성되는 음영과 겹쳐지며 독특한 증강현실이 구현될 수 있다. 본 발명의 실시예에서는, 사용자의 움직임에 따른 광원 장치의 위치 및 방향에 따른 특성(예를 들어, 밝기, 색상, 발광 방향 등)에 기초하여 영상 표시 장치를 통해 제공되는 CG 광원의 빛에 의해 제공되는 가상물체 영상이 상기 사용자의 광원 장치의 특성과 동일한 특성을 구비하여 실제 물체 상에 렌더링되므로, 가상물체 영상에 의해 실제 물체 상에 구현되는 가상 물체(이하 "증강현실 물체"라 합니다) 자체도 음영을 포함한 3차원적인 표현이 가능하게 된다. 그 결과, 본 발명은 증강현실 물체가 마치 실재하는 것과 같은 향상된 현실감을 표현하는 것이 가능하다. 동시에 여러 사용자가 각자의 광원 장치를 사용하여 움직이는 경우에도, 상술한 바와 동일한 방식으로, 각각의 광원의 위치 및 방향에 기반하여 생성되는 실제 물체의 음영과 합성되는 각각의 실시간으로 제공되는 가상물체 영상이 실제 물체 상에 렌더링될 수 있으므로 모든 사용자에게 현실감 있는 증강현실이 제공될 수 있다.More specifically, the virtual object image rendered in real time may be mapped to a real object surface through an image display device, and the virtual object image overlaps with a shadow generated by illumination of a real light source device, and unique augmented reality Can be implemented. In an embodiment of the present invention, the light of the CG light source provided through the image display device based on characteristics (eg, brightness, color, light emission direction, etc.) according to the position and direction of the light source device according to the movement of the user Since the provided virtual object image is rendered on a real object with the same characteristics as the light source device of the user, a virtual object (hereinafter referred to as "augmented reality object") implemented on the real object by the virtual object image itself It is possible to express three-dimensionally, including shading. As a result, the present invention is capable of expressing an enhanced sense of reality as if the augmented reality object is real. Simultaneously, even when multiple users move using their respective light source devices, in the same manner as described above, virtual object images provided in real time, which are synthesized with shadows of real objects generated based on the position and direction of each light source, respectively. Since it can be rendered on this real object, realistic augmented reality can be provided to all users.
상기 본 발명에서 광원 장치는 CG 광원의 빛에 의해 실시간으로 제공되는 가상물체 영상의 조명을 변화시킬 뿐만 아니라, 추가적으로 해당 가상물체 영상의 내용과 상호작용하는 인터페이스 장치로 활용될 수 있으므로, 실감형 인터페이스로서의 효과를 더욱 높일 수도 있다.In the present invention, the light source device not only changes the illumination of the virtual object image provided in real time by the light of the CG light source, but also can be utilized as an interface device that interacts with the contents of the corresponding virtual object image, so that it is a realistic interface. It is also possible to further enhance the effect as.
도 1a는 본 발명의 일 실시예에 따른 광원의 위치를 반영하여 영상을 처리하는 방법의 순서도이고, 도 1b는 본 발명의 일 실시예에 따른 영상 처리 장치의 내부 구조를 도시하는 블록도이다.1A is a flowchart of a method of processing an image by reflecting a position of a light source according to an embodiment of the present invention, and FIG. 1B is a block diagram showing an internal structure of an image processing apparatus according to an embodiment of the present invention.
이하에서는 도 1a 및 도 1b를 참조하여, 본 발명의 일 실시예에 따른 광원의 위치 및 방향을 반영하여 영상을 처리하는 방법 및 장치를 설명하기로 한다. Hereinafter, a method and apparatus for processing an image by reflecting the position and direction of a light source according to an embodiment of the present invention will be described with reference to FIGS. 1A and 1B.
먼저, 도 1b에 도시된 바와 같이, 본 발명의 일 실시예에 따른 영상 처리 장치는 광원부(110), 광학 송수신부(120), 제어부(130), 및 영상표시부(140)를 포함할 수 있다. 여기서, 광학 송수신부(120)는 복수의 광학 송수신부로 구현될 수 있다. 또한, 광원부(110)는 조명 장치와 조명 장치 제어기를 포함할 수 있으며, 후술하는 바와 같이 영상표시부(140)의 가시성과 배터리 사용량 등에 기반하여 조명 장치의 광량을 적절히 조정할 수 있다. 이 경우. 광원부(110)는 사용자와 함께 움직일 수 있으며 그에 따라 광원부(110)의 3차원 정보(위치, 방향, 및 각도)가 지속적으로 변경될 수 있다.First, as illustrated in FIG. 1B, an image processing apparatus according to an embodiment of the present invention may include a
본 발명의 실시예가 구현되는 공간을 가정하면, 미리 정해진 서로 다른 위치에 위치되는 복수의 광학 송수신기(120)는 각각 사용자에 의해 또는 사용자와 함께 움직이는 광원 장치 또는 광원부(110)(이하 "광원부"라 합니다)과 빔을 송신 및 수신할 수 있다. 상기 복수의 광학 송수신기(120)가 광원부(110)로 송신한 후 광원부(110)로부터 수신한 각각의 빔의 정보와 상기 광원부(110) 내부에 위치한 관성 센서들(예를 들어, (가속도계, 각속도계 등)에 의해 감지된 데이터에 기반하여 상기 복수의 광학 송수신기(120)는 상기 광원부(110)의 3차원 정보(위치, 방향, 및 각도)를 확인하는데 사용될 수 있다. Assuming a space in which an embodiment of the present invention is implemented, a plurality of
그 후, 상기 제어부(130)는 상기 광원부(110)의 확인된 3차원 정보에 기반하여, 상기 광원부(110)에 의해 조명되는 실제 물체와 배경에 표시할 가상물체 영상을 처리하고 표시할 수 있다. Thereafter, the
우선, 도 1a의 S110 단계에서, 사용자에 의해 또는 사용자와 함께 움직이는 광원부(110)가 미리 정해진 서로 다른 위치에 설치되는 복수의 광학 송수신기(120)로부터 각각 빔을 수신할 수 있다. First, in step S110 of FIG. 1A, beams may be received from a plurality of
그 후, S120 단계에서, 상기 광원부(110)와 상기 복수의 송수신부(120)가 서로 송수신한 빔과 상기 광원부(110)) 내부에 위치한 관성 센서에 의해 측정된 광원부(110)의 3차원 정보를 포함한 데이터가 제어부(130)로 송신되고, 제어부(130)는 수신된 광원부(110)의 3차원 정보를 포함한 데이터로부터 광원부(110)의 3차원 위치, 방향, 및 각도를 확인할 수 있다. Thereafter, in step S120, the
좀 더 구체적으로, 상기 복수개의 광학 송수신기(120)는 광원부(110)로부터 상기 광원부(110)의 3차원 정보를 확인하는데 필요한 빔을 송수신할 수 있다. 즉, 복수 개의 광학 송수신기(120)는 광원부(110)에 빔을 송신하고 광원부(110)로부터 빔을 수신하며, 수신된 빔에 기반하여 광원부(110)의 3차원 정보를 확인하기 위한 데이터를 측정하거나, 또는 광원부(110)가 복수 개의 광학 송수신기(120)로부터 복수 개의 광학 송수신기(120)의 미리 정해진 위치 정보를 포함하는 빔을 수신하여, 3차원 정보를 확인하기 위한 데이터를 측정할 수 있다. 이 경우, 상기 광원부(110)와 광학 송수신부(120)는 각각 충전식 배터리와 전원, 충전 제어기, 및 유/무선 데이터 송신부를 포함할 수 있다. 이러한 충전식 배터리와 무선 데이터 송신부는 사용자에 의한 광원부(110)의 무선 이동을 가능하게 하여, 영상관람 인터페이스로서의 사용 편의성을 증대시킬 수 있다. 광원부(110)와 광학 송수신부(120) 각각에 포함된 유/무선 데이터 송신부는 광원부(110)와 광학 송수신부(120)에서 각각 측정 또는 확인된 정보 또는 데이터를 제어부(130)로 전송할 수 있다. 여기서, 상술한 충전식 배터리는 전원 공급부와 배터리 장착부로 구성될 수 있으며, 사용자가 광원부(110)를 단순히 배터리 장착부에 거치하기만 해도 손쉽게 충전할 수 있도록 디자인될 수 있으며, 그에 따라 광원부(110)의 사용 편의성을 증대시킬 수 있다. More specifically, the plurality of
제어부(130)는 광원부(110) 및/또는 복수의 광학 송수신기(120)로부터 각각 수신한 광원부(110)의 3차원 정보 또는 데이터를 이용하여 상기 광원부(110)의 3차원 위치, 방향, 및 각도를 확인할 수 있다. The
상술한 바와 같은 광원부(110)의 3차원 위치, 방향, 및 각도를 확인하는 실시예로, 복수개의 서로 다른 위치에 배치되며, 각각이 레이저 빔을 방출하는 복수의 광학 송수신기(120)로 광원부(110)의 3차원 정보의 측정을 위한 기준점을 표시하게 할 수 있다. 상기 측정의 정확도를 높이기 위하여 복수 개의 광학 송수신기(120)를 미리 정해진, 서로 상이한 위치에 설치할 수 있다. 광원부(110)는 그 내부에 제공되는 복수 개의 레이저 빔 검출기를 포함하여, 기준점으로부터 자신의 3차원 정보(위치, 방향, 및 각도)를 측정하게 할 수 있다. As an embodiment of confirming the three-dimensional position, direction, and angle of the
또한, 상기 광원부(110)의 3차원 위치, 방향, 및 각도 등을 확인하는 또 다른 실시예로, 상기 광원부(110)에는 외부로부터 측정 가능한 마커가 제공될 수 있다. 이때, 마커는 측정의 정확도를 높이기 위하여 적외선 LED 등을 사용한 자체 발광형 마커로 구성할 수도 있다. 상기 복수의 광학 송수신부(120)에 포함되는 레이저 빔 검출기(예를 들어, 카메라 또는 광학 센서 등)는 상기 광원부(110)에 제공되는 마커의 3차원 정보(위치, 방향, 및 각도 등)를 측정할 수 있다. 복수의 광학 송수신부(120)가 상기 광학부(110)에 제공되는 마커를 측정하는 경우, 복수의 광학 송수신부(120)는 제어부(130)로 유/무선 통신을 이용하여 광원부(110)의 측정된 마커의 3차원 정보를 포함한 데이터를 송신할 수 있다. In addition, as another embodiment of confirming the three-dimensional position, direction, and angle of the
그 후, S130 단계에서, 상기 제어부(130)는 상기 광원부(110)의 3차원 정보의 확인 결과에 기반하여 상기 광원부(110)가 조명하는 실제 물체와 배경에 표시할 가상물체 영상을 처리할 수 있다. Thereafter, in step S130, the
구체적으로, 제어부(130)는 광원부(110) 및/또는 복수의 광학 송수신기(120)로부터 수신한 광원부(110)의 3차원 정보 데이터에 기반하여 상기 광원부(110)의 3차원 위치, 방향, 및 각도 등을 확인한다. 그 후, 제어부(130)는 상기 확인 결과에 기반하여 상기 광원부(110)가 조명하는 실제 물체와 배경에 표시할 가상물체 영상을 처리할 수 있다. 이 경우, 제어부(130)는 상기 광원부(110)의 3차원 정보를 미리 정해진 시간 간격마다 확인할 수 있으며, 상기 시간 간격이 짧을수록 상기 광원부(110)의 움직임에 따른 3차원 정보가 실시간으로 반영되므로, 더욱 현실감있는 가상물체 영상의 생성 및 제공이 가능해진다. Specifically, the
상술한 가상물체 영상을 처리하는 하나의 실시예로, 상기 광원부(110)의 위치에 따라 가상물체와 영상 콘텐츠가 상호작용 하는 경우, 상기 제어부(130)는 확인된 상기 광원부(110)의 3차원 위치, 방향, 및 각도에 대한 데이터를 분석할 수 있다. 그 후, 상기 제어부(130)는 상기 분석 결과가 미리 정해진 조건을 만족할 경우, 미리 정해진 가상물체를 생성하여 영상 콘텐츠에 적용시킬 수 있다. 예를 들어, 가상물체로써 나무가 사용자에게 제공되고, 사용자가 상기 광원부(110)의 조명장치를 나무를 향해 비추면, 상기 나무에서 잎사귀가 자라나는 영상콘텐츠가 사용자에게 제공될 수 있다. 이 경우, 상기 제어부(130)는 상기 광원부(110) 의 위치, 방향, 및 각도 등을 분석하여 상기 광원부(110)가 상기 가상물체(나무)를 비추는지 여부를 판단할 수 있으며, 상기 광원부(110)가 상기 가상물체(나무)를 비추는 시간에 기반하여 추가 가상물체가 나타나거나(잎사귀) 사라지는(낙엽) 가상물체 영상을 생성할 수 있다. In one embodiment of processing the above-described virtual object image, when the virtual object interacts with the image content according to the position of the
상기 가상물체 영상을 처리하는 또 다른 실시예로, 상기 제어부(130)는 미리 정해진 3차원 모델 데이터에 따라 가상물체를 생성할 수 있다. 그 후, 제어부(130)는 생성된 가상 물체를 합성될 실제 물체의 실제 좌표와 일치하는 가상 좌표에 위치시킬 수 있다. 상기 실제 좌표와 가상 좌표의 기준점은, 예를 들어, 상기 복수의 광학 송수신기(120)의 각각의 위치, 각도, 및 방향을 기준으로 설정할 수 있다. 그러나, 필요할 경우, 상기 실제 좌표와 가상 좌표의 기준점을 임의로 설정하고, 이들 좌표들 간의 좌표 매핑 과정을 추가로 수행할 수도 있다. As another embodiment of processing the virtual object image, the
한편, 상기 제어부(130)는 상기 광원부(110)의 빛의 특성(밝기, 색상, 발광 방향 등)과 동일한 특성을 제공하는 가상 광원(상술한 CG 광원에 대응될 수 있습니다)을 생성할 수 있다. 그 후, 상기 제어부(130)는 상기 광원부(110)의 실제 좌표와 동일한 좌표에 상기 가상 광원을 위치시키고, 상기 생성된 가상물체를 실제 물체 상에 조명하여 실시간으로 랜더링 작업을 수행할 수 있다.Meanwhile, the
이 경우, 상기 제어부(130)는 자신이 생성한 상기 가상물체 영상을 상기 광원부(110)의 조명시간이나 광량에 기반하여 수정할 수 있다. 즉, 사용자에 의해 상기 광원부(110)가 실제 물체를 비추고 있는 시간에 따라 투사되는 가상물체 영상이 가변적으로 변화될 수 있다. 또한, 상기 제어부(130)는 상기 가상물체 영상과 상기 광원부(110)에 의해 생성된 실제 물체의 음영이 상호작용하도록 하기 위한 그래픽 작업을 수행할 수 있다. 상기 그래픽 작업으로 인하여, 실제 물체 상에 가상물체 영상이 합성된 증강현실 물체의 음영이 후술하는 본 발명의 실시예에서 상세히 기술되는 바와 같이 증강현실 물체의 원래 음영과는 상이한 음영을 제공할 수 있다는 점에서 증강현실에서 사용자의 현실감을 증대시킬 수 있다. In this case, the
한편, 도 1b에는 도시되어 있지 않지만, 제어부(130)는 상기 광원부(110)의 위치 추적 장치 제어부, 상기 광원부(110)의 위치 확인부 등을 더 포함할 수 있다. 상기 위치 확인부는 상기 제어부(130)가 확인한 광원부(110)의 3차원 정보 데이터(위치, 각도, 및 방항)와 광원부(110) 및 복수의 광학 송수신부(120) 간의 이격 거리를 적용하여 상기 광원부(110)의 3차원 위치, 방향, 및 각도를 확인할 수 있으며, 필요한 경우 광원부(110)의 이동 속도, 이동 방향, 움직임 패턴 등을 확인할 수 있다. Meanwhile, although not illustrated in FIG. 1B, the
그 후, S140 단계에서, 상기 제어부(130)에서 처리된 가상물체 영상을 영상표시부(140)가 상기 광원부(110)에 의해 조명되는 실제 물체와 배경에 표시할 수 있다. 이러한 영상표시부(140)는 상기 제어부(130)에 의해 처리된 가상물체 영상을 실제 물체와 배경에 표시할 수 있다. 그에 따라, 상기 가상물체 영상은 실제 물체 및 상기 광원부(110)에 의해 생성되는 실제 물체의 음영과 합성되어 증강현실을 구현할 수 있다.Thereafter, in step S140, the virtual object image processed by the
한편, 상기 가상물체 영상은 상기 실제 물체에 투사되는 가상물체 투사 영상과 배경에 표시되는 가상물체 배경 영상으로 구별될 수 있다. 상기 가상물체 투사 영상과 가상물체 배경 영상 간의 구별은 상기 제어부(130)의 영상 처리 단계(s130)에서 수행되거나, 상기 영상표시부(140)에서 수행될 수 있다. Meanwhile, the virtual object image may be divided into a virtual object projection image projected on the real object and a virtual object background image displayed on the background. The distinction between the virtual object projection image and the virtual object background image may be performed in the image processing step s130 of the
상기 영상표시부(140)는 복수개의 영상표시장치를 이용하여 상기 실제 물체와 배경에 가상물체 영상을 투사할 수 있다. 상기 복수 개의 영상표시장치는 실제 물체 상에 가상물체 투사 영상의 일부만을 투사하거나, 실제 물체 상에 가상물체 배경 영상을 제외한 가상물체 투사 영상만을 투사하거나 실제 물체의 배경에만 가상물체 투사 영상을 제외한 가상물체 배경 영상만을 투사하거나, 실제 물체 및 배경 상에 각각 가상물체 투사 영상 및 가상물체 배경 영상을 투사할 수 있으며, 그에 따라 투사된 적어도 하나의 상기 가상물체 영상(즉, 가상물체 투사 영상과 가상물체 배경 영상 중 어느 하나 또는 양자의 일부 또는 전부)이 실제 물체, 및 상기 실제 물체의 음영 또는 배경 중 어느 하나 또는 양자와 합성되어 상호작용을 이룰 수 있다. The
한편, 상기 영상표시부(140)는 상기 영상표시장치가 모니터인 경우, 모니터 상에 가상물체 영상이 표시되게 할 수 있다. 이 경우, 모니터는 평면 형태의 가상현실 물체를 표시하는데 사용될 수 있다. 상기 영상표시장치가 프로젝터일 경우, 상기 가상물체 영상을 실제 물체의 굴곡진 표면 상에 투사할 수 있으므로, 복잡한 형태의 실제 물체(예를 들어, 조형물) 상에 복잡한 형태의 가상물체 영상을 투사할 수 있다. 구체적인 예시로, 콜라캔을 표현하기 위해 원통 형태의 조형물 상에 콜라캔 표면 무늬의 가상물체 영상을 투사하는 방식의 증강현실 물체를 구현할 수 있다. 상기 영상표시부(140)는 상기 프로젝터의 특성(화각 등)과 실제 위치, 각도, 및 방향과, 가상물체 영상을 랜더링하는 카메라의 특성(화각 등)과 실제 위치, 각도, 및 방향을 일치시킬 수 있다. 또한, 필요에 따라, 상기 가상물체 영상을 와핑 또는 트리밍할 수 있다. Meanwhile, when the image display device is a monitor, the
상기 영상표시장치가 복수개의 프로젝터일 경우, 상기 영상표시부(140)는 복수개의 영상 표시 영역이 끊김 없이 연결되게 하기 위하여 와핑, 트리밍, 에지 블랜딩 등의 처리를 수행할 수 있다. 상기 영상표시부(140)에 의해 표시되는 가상물체 영상은 실제 물체의 음영 및/또는 배경에서 합성될 수 있으며, 이로 인하여 증강현실이 구현될 수 있다. When the image display device is a plurality of projectors, the
또한, 상술한 본 발명의 실시예에 의하면, 상기 실제 물체 상에 표시되는 가상물체 (투사) 영상은 가상의 질감, 특성, 상태변화 등을 반영하여 3차원 증강현실 물체를 표시할 수 있는 효과를 제공할 수 있는 영상이고, 상기 실제 물체의 배경에 표시되는 가상물체 (배경) 영상은 상기 실제 물체와 합성된 증강현실 물체 자체의 음영이거나 또는 상기 실제 물체와 합성된 증강현실 물체의 배경에 표시되는 음영과 합성되어 증강현실 물체의 음영과는 상이한 미리 정해진 콘텐츠에 대응되는 음영을 표시할 수 있는 영상일 수 있다. In addition, according to the above-described embodiment of the present invention, the virtual object (projection) image displayed on the real object reflects the virtual texture, characteristics, state changes, etc., and has the effect of displaying a 3D augmented reality object. An image that can be provided, and the virtual object (background) image displayed on the background of the real object is a shadow of the augmented reality object itself synthesized with the real object or displayed on the background of the augmented reality object synthesized with the real object. It may be an image that is combined with the shadow to display a shadow corresponding to a predetermined content different from that of the augmented reality object.
도 2a 와 도 2b는 본 발명의 제1 실시예에 따른, 가상물체 영상을 투사하기 전과 후를 비교하는 도면이다. 2A and 2B are diagrams comparing before and after projecting a virtual object image according to a first embodiment of the present invention.
본 발명의 제1 실시예에서는 광원의 위치가 실시간으로 제어부에서 확인되고 있다고 가정한다. In the first embodiment of the present invention, it is assumed that the position of the light source is confirmed in real time by the control unit.
먼저, 도 2a는 본 발명의 제1 실시예에 따른, 가상물체 영상이 투사되기 전의 상태를 나타내는 도면이다. 상기 도 2a에서 배경은 모니터(210)로 예시적으로 설정되어 있다. 도 2a를 도 1a 및 도 1b와 함께 참조하면, 광원부(110)가 비추는 대상인 실제 물체(220)는 미리 지정된 위치에 위치되어 있으며, 그에 따라 사용자는 실제 물체(220)의 위치를 미리 알 수 있다. 상기 실제 물체(220)는 현실에 존재하는 물체(상기 증강현실 물체에 대응될 수 있다)일 수 있다. First, FIG. 2A is a diagram showing a state before a virtual object image is projected according to a first embodiment of the present invention. In FIG. 2A, the background is illustratively set as the
상술한 도 2a에 도시된 본 발명의 제1 실시예에서는 설명의 간편성을 위해 한쪽 면만 배경이고, 1개의 광원부만이 사용되는 경우를 예시적으로 도시하고 있지만, 당업자라면 4면이 배경으로 설정되고, 복수 개의 광원을 조명으로 사용할 수 있다는 것을 충분히 이해할 수 있을 것이다. In the first embodiment of the present invention shown in FIG. 2A described above, for convenience of explanation, only one side is a background, and only one light source unit is used as an example, but those skilled in the art have four sides set as the background. , It will be fully understood that a plurality of light sources can be used as illumination.
도 2b는 본 발명의 제1 실시예에 따른, 가상물체 영상이 투사된 후의 상태를 도시하는 도면이다. 상기 제1 실시예에서 실제 물체(220) 표면에 가상물체 영상이 프로젝션(투사)되어 있다.2B is a view showing a state after a virtual object image is projected according to a first embodiment of the present invention. In the first embodiment, a virtual object image is projected (projected) on the surface of the
가상물체 영상이 투사되기 전에는 단색으로 보이던 실제 물체(220)가 가상물체 영상이 투사되자 문과 창문이 있는 벽돌집 형상의 증강현실 물체(230)로 보이는 것을 확인할 수 있다. 즉, 도 2b에 도시된 바와 같이, 본 발명의 제1 실시예에 따르면, 실제 물체(220) 상에 가상물체 영상을 투사함으로써, 가상물체 영상의 투사 전의 단순한 정육면체 형태의 실제 물체(220)의 영상이 문 틀과 창문 틀을 구비한 증강현실 물체(230)의 영상으로 구현하는 것이 가능하여 사용자에게 입체감과 현실감이 표현될 수 있다. 즉, 도 2b에 도시된 실시예에서는, 가상물체 영상 투사 전의 실제 물체(220)에는 없는 증강현실 물체(230)의 상기 문 틀과 창문 틀에도 음영이 표시될 수 있다. 상기 증강현실 물체(230) 상에 표시된 음영은 복수개의 영상 표시 장치를 활용하여 표시될 수 있다. Before the virtual object image is projected, it can be seen that the
또한, 배경인 모니터(210) 상으로 증강현실 물체(230)의 음영(240,250)이 생기는 것을 확인할 수 있다. 음영(240)은 모니터(210)에 가상물체 영상 전체의 음영이 표시되어 있다. 즉, 제어부(130)가 광원부(110)의 빛의 투사 각도에 맞추어 배경인 모니터(210) 상에 증강현실 물체(230)의 음영을 가상으로 생성한 것이다. 상기 음영(240)의 영상은 모니터(210)의 위치에 가상의 벽이 있는 것처럼 가상 공간을 구성하여, 증강현실 물체(230)의 음영(240)의 상부 일부가 가상의 벽에 투사되는 것을 표시하고 있다.In addition, it can be seen that the
또 다른 음영(250)은 광원부(110)에 방출된 실제 빛에 의해 실제 바닥면 위에 형성된 증강현실 물체(230)의 음영이다. Another
상기 제1 실시예에서 상기 음영(240,250)들 간의 연결부분이 일치될 수 있다. 상기 모니터(210)가 바닥에 붙어 있는 경우를 가정하면 사용자가 시각적으로 가상물체 영상과 현실을 구분하기 어렵기 때문에 높은 현실감을 경험할 수 있다. In the first embodiment, connection portions between the
도 3a, 도3b, 도 3c, 및 도 3d는 각각 도 2b에 도시된 본 발명의 제1 실시예에서, 상이한 광원부의 위치가 반영된 결과를 도시하는 도면이다. 3A, 3B, 3C, and 3D are diagrams showing results of reflecting positions of different light sources in the first embodiment of the present invention shown in FIG. 2B, respectively.
구체적으로, 도 3a, 도3b, 도 3c 및 도 3d는 상기 제1 실시예에서 사용자가 광원부(110)의 위치 및/또는 각도를 변경하는 경우, 실시간으로 변화하는 음영을 나타내고 있다. Specifically, FIGS. 3A, 3B, 3C, and 3D show shadows changing in real time when a user changes the position and/or angle of the
좀 더 구체적으로, 도 3a는, 도 2b와 함께 참조하면, 증강현실 물체(220)를 기준으로 우측 상단에 광원부(110)가 위치한 경우를 나타내는 도면이다. 상기 광원부(110)를 움직이는 사용자는 상기 증강현실 물체(220)의 우측이 가장 밝고 증강현실 물체(220)의 좌측에 증강현실 물체(220) 자체의 음영이 생기며, 배경 상에 증강현실 물체(220) 전체의 음영(320)이 생겨 가상의 벽이 있는 것으로 인식할 수 있다. 상기 증강현실 물체(220)의 상단(310)이 밝은 것을 확인할 수 있다.More specifically, FIG. 3A is a diagram illustrating a case in which the
도 3b는, 도 2b와 함께 참조하면, 도 2b의 실시예에서 사용자가 상기 광원부(110)를 우측 하단으로 이동시킨 경우를 나타내는 도면이다. 상기 도 3a에 도시된 실시예의 경우와 비교하면 증강현실 물체(220)의 상부에 음영(330)이 생생되며, 배경에도 변경된 광원부(110)의 위치를 반영하여 증강현실 물체(220) 전체의 변경된 음영(340)이 생성된 것을 알 수 있다. FIG. 3B is a view illustrating a case in which the user moves the
도 3c는, 도 2b와 함께 참조하면, 도 2b의 실시예에서 사용자가 상기 광원부(110)를 좌측 하단으로 이동시킨 경우를 나타내는 도면이다. 도 3c의 실시예에서는, 상기 도 3a에 도시된 실시예와 유사하게 상기 증강현실 물체(220)의 상부(350), 우측(360)과 배경에 상기 광원부(110)의 이동을 반영한 각각의 음영(350,360,370)이 확인될 수 있다. 상기 음영(350,360,370)은 도 3c에 도시된 바와 같은 증강현실 물체(220)를 표시하도록 가상물체 영상의 투사를 통해 이루어질 수 있다. FIG. 3C is a view showing a case in which the user moves the
도 3d는, 도 2b와 함께 참조하면, 도 2b의 실시예에서 상기 사용자가 상기 광원부(110)를 좌측 상단으로 이동시킨 경우를 나타내는 도면이다. 상기 도 3c와 비교하면 증강현실 물체(220)의 상부(380)와 우측(390)의 음영(330,390)으로부터 상기 광원부(110)의 이동이 반영된 것을 알 수 있다. 만일 상기 광원부(110)가 충분히 높은 위치까지 이동하는 경우, 미리 설정된 가상의 벽에 증강현실 물체(220)의 음영이 생기지 않을 수 있다. FIG. 3D is a diagram illustrating a case where the user moves the
도 4a, 도4b, 및 도4c는 각각 본 발명의 제2 실시예에 따른 영상 처리 결과를 도시하는 도면이다. 4A, 4B, and 4C are diagrams respectively showing image processing results according to the second embodiment of the present invention.
구체적으로 도 4a, 도4b, 및 도4c는 각각 상기 도 2a 및 도 2b에 도시된 제1 실시예의 경우에서, 배경에 투사되는 음영 자체가 변화하는 경우를 나타내고 있다. 이러한 음영 자체의 변화는 빛에 의해 생성된 음영이 각도에 따라 왜곡되어 본래 생성되어야 할 음영과는 다른 형태의 음영을 보여주는 그림자 왜곡 현상을 활용하여 구현될 수 있다. 하나의 예로는, CG(컴퓨터 그래픽)를 이용해 증강현실 물체의 가상 음영을 만들어 증강현실 물체와는 다른 형태의 음영을 생성할 수 있다. 상기 다른 형태의 음영은 증강현실 물체로부터 쉽게 상상할 수 있는 형태로 설정될 수 있다. 예를 들어, 후술하는 도 4a의 실시예에서, 증강현실 물체(410)는 직육면체 블록이지만 배경에 표시된 가상 음영(420)은 집을 보여준다. 상기 제2 실시예는 사용자가 익히 알고 있는 공지의 그림자 왜곡 현상을 활용한 것으로, 사용자로 하여금 지적인 유희를 느끼게 하며, 상상력을 자극하고, 증강현실의 신비감과 맞물려 독특한 증강현실 경험을 제공할 수 있다.Specifically, FIGS. 4A, 4B, and 4C respectively show a case in which the shadow itself projected on the background changes in the case of the first embodiment shown in FIGS. 2A and 2B. The change of the shading itself may be implemented by utilizing a shadow distortion phenomenon in which a shading generated by light is distorted according to an angle to show a shading different from the shading to be originally generated. As an example, using CG (computer graphics) to create a virtual shade of an augmented reality object, Other shapes can be created. The other form of shading may be set in a form imaginable from an augmented reality object. For example, in the embodiment of FIG. 4A described below, the
구체적으로, 도 4a는 증강현실 물체를 기준으로 좌측 하단에 광원이 위치하는 경우를 나타낸 것이다. 상기 도 2a 및 도 2b에 도시된 제1 실시예와 비교하면, 도 4a에 도시된 본 발명의 제2 실시예에서는, 상기 증강현실 물체(410)에 벽돌 질감은 표현되지 않았으나, 상기 광원부(110)의 실제 빛에 의해, 증강현실 물체(410)의 상부에 실제 음영이 나타난 것을 알 수 있다. 그리고 상기 실제 음영에 대응되는 방향에 상기 증강현실 물체(410)의 가상 음영(420)이 모니터 상에 생성될 수 있다. 그리고 상기 가상 음영(420)이 단순한 증강현실 물체(410)에 대응되는 정육면체의 음영이 아닌 굴뚝과 창문이 있는 집을 보여주는 가상 음영(420)으로 표시될 수 있다. Specifically, FIG. 4A shows a case in which the light source is located at the bottom left of the augmented reality object. Compared to the first embodiment shown in FIGS. 2A and 2B, in the second embodiment of the present invention shown in FIG. 4A, a brick texture is not expressed on the
상기 도 4a, 4b, 4c에서 사용된 광원부(110)는 스포트라이트 형태일 수 있으며, 상기 광원부(110)에 의해 조명되는 밝은 부분에만 음영이 나타날 수 있다. 그리고, 상기 도 4a의 가상 음영(420)에는 굴뚝 연기와 사람의 음영 등이 표현되지 않았지만, 상기 광원부(110)의 3차원 위치, 방향 및 각도 등에 따라 상기 굴뚝 연기와 사람의 음영 등이 표현될 수 있다.The
도 4b는 사용자가 광원부(110)를 이동시키거나 상기 광원부(110)의 조명시간 또는 광량에 기반하여 배경에 투사되는 음영(430)이 가변 되는 경우를 나타낸 것이다. 사용자는 상기 광원부(110)를 이동시켜 증강현실 물체와의 각도와 거리를 변화시킬 수 있으며, 이에 따라 배경에 투사되는 가상 음영(430)이 변화될 수 있다. 도 4b에 도시된 실시예를 도 4a에 도시된 실시예와 비교하면, 사용자가 상기 광원부(110)와 상기 증강현실 물체 사이의 각도와 거리를 변화시켜 상기 가상 음영(430)이 변화된 것을 알 수 있다. FIG. 4B illustrates a case in which the user moves the
구체적으로, 사용자가 상기 광원부(110)을 이동시켜 상기 증강현실 물체와의 거리를 변화시키면, 상기 광원부(110)의 조명 면적이 넓어짐에 따라 상기 도 4a의 음영(420) 에는 표현되지 못했던 굴뚝 연기가 표현될 수 있다. 그리고 상기 사용자가 상기 광원부(110)을 이동시켜 상기 증강현실 물체와의 각도를 변화시키면, 상기 증강현실 물체의 한쪽 면만이 조명될 수 있다. 상기 각도의 변화에 따라, 상기 가상 음영(430)이 변화되어 가상물체(집)의 한쪽 면과 창문만 표현 될 수 있다.Specifically, when the user changes the distance from the augmented reality object by moving the
도 4c는 사용자가 광원부(110)를 이동시키거나 상기 광원부(110)의 조명시간 또는 광량에 기반하여 배경에 투사되는 음영(430)이 가변 되는 또 다른 경우를 나타낸 것이다. 도 4b에 도시된 실시예와 마찬가지로, 상기 도 4c에 도시된 실시예를 상기 도 4a에 도시된 실시예와 비교하면, 사용자가 상기 광원부(110)와 상기 증강현실 물체 사이의 각도와 거리를 변화시켜 상기 가상 음영(440)이 변화된 것을 알 수 있다. 4C shows another case in which the user moves the
구체적으로, 사용자는 광원부(110)와 증강현실 물체와의 각도 변화시켜 상기 도 4b와는 다른 쪽 면을 조명할 수 있다. 상기 사용자의 조명에 의해 생성된 가상 음영(440)이 실제 음영과 일치하는 방향에 대응하여 배경(모니터)에 생성될 수 있다. 그리고 상기 광원부(110)와 증강현실 물체 사이의 각도와 거리에 따라 상기 도 4a에서는 표현되지 않았던 가상물체(사람)가 표현될 수 있다. Specifically, the user may illuminate the other side of the
상기 도 4a, 4b, 4c에는 사용자가 변화시키는 광원부(110)와 증강현실 물체 사이의 각도 및 거리 중 적어도 하나에 기반하여 변화되는 가상 음영(420, 430, 440)에 대한 실시예가 표현되어 있다. 그리고 사용자는 상기 광원부(110)을 조종 함으로서, 실제 음영과 가상 음영의 상호작용으로 구현되는 증강현실을 경험할 수 있다.4A, 4B, and 4C illustrate embodiments of
또한, 상기 증강현실은 빛과 음영을 매개로 이용하게 되므로, 미리 정해진 주제에 따라 빛의 특성을 활용하여 구현될 수 있다. 예를 들어, 가상물체 영상과 증강현실 물체의 음영이 합성되어 증강현실이 구현될 수 있고, 그림자 왜곡 현상을 이용하여 표현되는 가상물체의 음영이 상이해지는 방식으로 증강현실이 구현될 수 있다. 상기 주제는 후술하는 바와 같이 다양할 수 있다. 그리고 사용자는 상기 증강현실을 체험 함으로서, 재미를 느끼거나 특별한 경험을 할 수 있다.In addition, since the augmented reality uses light and shade as a medium, it can be implemented by utilizing light characteristics according to a predetermined theme. For example, augmented reality may be implemented by combining a virtual object image and a shadow of an augmented reality object, and augmented reality may be implemented in a manner in which the shadow of a virtual object expressed using a shadow distortion phenomenon is different. The subject can be varied as described below. And the user can have fun or have a special experience by experiencing the augmented reality.
도 5는 본 발명의 제3 실시예에 따른 나뭇잎의 생장을 주제로 하는 가상물체 영상을 순차적으로 도시하는 도면이다. 5 is a view sequentially showing a virtual object image with the theme of growth of leaves according to a third embodiment of the present invention.
미리 정해진 위치에 증강현실 물체로 나무가 사용자에게 제공될 수 있다(510). 상기 나무는 잎이 없는 형태로, 가상물체 영상으로 제공되거나, 실제 물체로 구현될 수 있다. 상기 사용자가 상기 나무(증강현실 물체)에 광원부(110)을 일정 시간 조명하게 되면, 영상표시부(140)에 의해 표시된 가상물체 영상과 상기 증강현실 물체에 의해서 나뭇가지에서 잎이 자라나는 것처럼 보일 수 있다(520). A tree may be provided to the user as an augmented reality object at a predetermined location (510). The tree may be provided as a virtual object image in a form without leaves, or may be implemented as a real object. When the user illuminates the
그리고 상기 사용자가 상기 증강현실 물체(나무)를 조명하는 시간이 증가함에 따라 상기 가상물체 영상이 변화할 수 있다. 상기 제3 실시예에서는 상기 가상물체 영상에 의해 생성된 나뭇잎의 색이 변경되어 낙엽이 되고(530), 상기 낙엽이 떨어져서(540) 본래 잎이 없는 형태(510)로 되돌아 갈 수 있다. 상기 사용자가 광원부(110)를 조명하는 시간에 기반하여 상기 가상물체 영상이 반복될 수 있으며, 상기 사용자는 생명의 순환을 반복하여 체험할 수 있다. In addition, as the time for the user to illuminate the augmented reality object (tree) increases, the virtual object image may change. In the third embodiment, the color of the leaves generated by the virtual object image is changed to fall leaves (530), and the leaves fall (540) to return to the original leafless form (510). The virtual object image may be repeated based on the time when the user illuminates the
도 6은 본 발명의 제4 실시예에 따른 꽃과 나비를 주제로 하는 가상물체 영상을 순차적으로 도시하는 도면이다. 6 is a view sequentially showing a virtual object image with the theme of a flower and a butterfly according to a fourth embodiment of the present invention.
상기 도 5에서와 마찬가지로, 미리 정해진 위치에 증강현실 물체로 꽃이 표현되지 않은 복수 개의 꽃밭이 사용자에게 제공될 수 있다(610). 그리고 사용자가 광원부(110)로 조명하는 증강현실 물체(꽃밭)에만 가상물체 영상에 의해 꽃이 표현될 수 있다(620). 상기 꽃이 일정시간 이상 표현되면, 꽃을 따라다니는 벌이 가상물체 영상으로 표현될 수 있다(630).As in FIG. 5, a plurality of flower gardens in which flowers are not expressed as augmented reality objects at predetermined positions may be provided to the user (610). In addition, the flower may be expressed by the virtual object image only on the augmented reality object (flower garden) illuminated by the user with the
그리고 상기 사용자가 조명하는 증강현실 물체(꽃밭)를 변경하면, 조명을 받은 꽃밭에만 꽃과 벌이 표현될 수 있다(640). 상기 제4 실시예에서 사용자가 광원부(110)을 태양처럼 이용하여 자연물을 생장시키는 경험을 할 수 있다.Then, when the augmented reality object (flower field) illuminated by the user is changed, flowers and bees may be expressed only in the illuminated flower field (640). In the fourth embodiment, a user may experience using a
도 7은 본 발명의 제5 실시예에 따른 물의 순환과정을 순차적으로 나타내는 도면이다. 7 is a view sequentially showing a water circulation process according to a fifth embodiment of the present invention.
상기 도 5 및 도 6과 마찬가지로, 미리 정해진 위치에 증강현실 물체로 물과 강(강물의 수위가 0일 수 있다)이 사용자에게 제공될 수 있다(710). 상기 사용자가 광원부(110)를 이용하여 물을 조명하면 가상물체 영상으로 수증기가 생성되어 표현될 수 있다(720). 상기 물을 조명하는 시간이 증가되면 상기 수증기의 발생이 활발해지고(730), 구름이 형성되는 모습이 가상물체 영상으로 표현될 수 있다(740).5 and 6, water and river (water level of the river may be 0) as an augmented reality object at a predetermined location may be provided to the user (710). When the user illuminates the water using the
그리고 구름이 생성되면 비가 내리는 모습(740)이나, 증강현실 물체로 구현된 강의 수위가 증가하는 모습과 강 속에서 사는 물고기가 가상물체 영상으로 표현될 수 있다(750). 상기 사용자는 광원부(110)을 조명하여 물의 순환 과정을 경험할 수 있다.In addition, when a cloud is generated, it may be expressed as a virtual object image (750) when it rains (740), or when the water level of the river realized by the augmented reality object increases and the fish living in the river increase (750). The user can experience the circulation process of the water by illuminating the
상기 도 5, 도 6 및 도 7의 실시예들에 기반하여 생태계의 인과관계를 설명하는 인터랙티브 스토리텔링이 제공될 수 있다. 그리고 상기 실시예들은 어린이 교육용 인터랙티브 영상물 자료로 활용될 수 있으며, 본 발명에 의해서 어린이들의 지적, 정서적 능력이 발달하고 상상력이 증대되는 효과가 달성될 수 있다.Based on the embodiments of FIGS. 5, 6, and 7, interactive storytelling describing a causal relationship of an ecosystem may be provided. In addition, the above embodiments may be used as interactive video material for children's education, and according to the present invention, an effect of developing intellectual and emotional abilities of children and increasing imagination can be achieved.
도 8은 본 발명의 제6 실시예에 따른 사용자가 어둠 속을 탐험하면서 증강현실을 체험하는 것을 나타내는 도면이다. 8 is a diagram illustrating a user experiencing augmented reality while exploring in the dark according to a sixth embodiment of the present invention.
상기 사용자는 광원부(110)를 이용하여 증강현실 물체를 조명하는 적어도 한 명 이상(810, 811)의 탐험자와 광원부(110)를 이용하지 않는 일행(812, 813)으로 구성될 수 있다. 상기 사용자가 체험하는 공간은 조명이 없어 암전 상태이고, 상기 사용자에게 제공된 광원 장치(상술한 광원부(110)에 대응될 수 있음)에만 반응하여 가상물체 영상이 표현되도록 구현될 수 있다. The user may be composed of at least one explorer (810, 811) illuminating the augmented reality object using the light source unit (110) and a party (812, 813) not using the light source unit (110). The space experienced by the user may be implemented such that a virtual object image is expressed in response to only the light source device provided to the user (which may correspond to the
상기 공간에는 상기 제1 실시예 내지 제5 실시예를 포함하는 다양한 증강현실이 구현될 수 있으며(820, 830), 상기 사용자는 빛의 방사 각도가 제한적인 광원부(110)를 이용하여 손전등으로 어둠 속을 탐험하는 듯한 경험을 할 수 있다. 그에 따라, 사용자가 손전등과 같은 광원 장치를 이용하여 빛을 비추어 숨겨진 증강현실 물체를 하나씩 찾아내면 각각의 증강현실 물체 및 음영을 확인하고 그에 따라 사용자로 하여금 상기 전시공간을 구성하고 있는 각각의 증강현실 물체들 간의 인과 관계와 공간의 규칙을 발견하게 할 수 있다. 상기 제6 실시예는 어둠 속 손전등 탐험을 사용자 경험의 주제로 삼아, 사용자에게 실감형 몰입 경험을 제공할 수 있다.Various augmented reality including the first to fifth embodiments may be implemented in the space (820, 830), and the user can use the
상술한 바와 같이, 본 발명에서는, 사용자가 광원부(110) 자체를 움직이도록 조종하여 증강현실의 현실감을 높일 수 있으므로, 사용자에게 독특한 경험과 재미를 제공할 수 있다. 즉, 사용자의 행동이나 동작이 현실감을 상승시키는 독특한 실감몰입 경험을 유발할 수 있다. 또한, 광원부(110)가 없는 사용자의 경우에도, 광원부(110)을 가진 다른 사용자의 행동이나 동작을 지켜봄으로써 다른 사용자와 동일한 현실감 상승을 경험할 수 있다.As described above, in the present invention, since the user can control the
본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정한 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. The embodiments of the present invention disclosed in the specification and drawings are merely intended to easily describe the technical contents of the present invention and to provide specific examples to help understanding of the present invention, and are not intended to limit the scope of the present invention. It is apparent to those skilled in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.
Claims (10)
a) 사용자에 의해 움직이는 광원부와 서로 다른 곳에 위치하는 복수의 광학 송수신기가 빔을 서로 송수신하는 단계;
b) 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자가 서로 송수신한 상기 빔과 상기 광원부 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하는 단계;
c) 상기 b) 단계에서의 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 단계; 및
d) 상기 처리된 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 단계를 포함하고,
상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 영상인 것을 특징으로 하되,
상기 b) 단계는,
상기 광원부의 상기 3차원 위치, 방향, 및 각도를 미리 정해진 시간 간격 마다 확인하는 단계; 및
상기 미리 정해진 시간 간격 마다 확인된 결과를 영상처리장치로 전송하는 단계를 더 포함하는 것을 특징으로 하는 방법.In the method of processing an image by reflecting the position of a moving light source in augmented reality,
a) a plurality of optical transceivers located at different locations from the light source unit moved by the user, transmitting and receiving beams to each other;
b) 3D position and direction of the light source unit based on the 3D information of the light source unit measured by the inertial sensor located inside the light source unit and the beam transmitted or received by one or both of the light source unit and the plurality of optical transceivers , And checking an angle;
c) processing an object illuminated by the light source and a virtual object image to be displayed on the background based on the check result in step b); And
d) displaying the processed virtual object image on one or both of the object and the background,
The virtual object image is characterized in that the image that is combined with any one or both of the shadow or the background of the object generated by the object and the light source to implement augmented reality,
Step b),
Checking the three-dimensional position, direction, and angle of the light source unit at predetermined time intervals; And
And transmitting the result confirmed at the predetermined time interval to the image processing apparatus.
상기 b) 단계에서의 상기 확인 결과에 기반하여 상기 광원부가 조명하는 상기 물체와 상기 배경에 표시할 상기 가상물체 영상을 생성하는 단계;
상기 생성된 가상물체 영상을 상기 광원부의 조명시간 또는 광량에 기반하여 수정하는 단계; 및
상기 수정된 가상물체 영상과 상기 광원부에 의해 생성된 상기 물체의 음영이 상호작용하기 위한 그래픽 작업을 수행하는 단계를 더 포함하는 것을 특징으로 하는 방법. The method of claim 1, wherein step c),
Generating the virtual object image to be displayed on the object and the background illuminated by the light source unit based on the confirmation result in step b);
Correcting the generated virtual object image based on an illumination time or light amount of the light source unit; And
And performing a graphic operation for interacting the shadow of the object generated by the light source unit with the modified virtual object image.
상기 가상물체 영상을 상기 물체에 투사하는 가상물체 투사 영상과 상기 배경에 표시하는 가상물체 배경 영상을 구별하는 단계; 및
적어도 하나의 영상표시장치를 이용하여 상기 구별된 가상물체 투사 영상 및 가상물체 배경 영상 중 적어도 하나 또는 양자를 표시하는 단계를 더 포함하고,
상기 영상표시장치에 의해 표시된 상기 가상물체 투사 영상 및 상기 가상물체 배경 영상 중 적어도 하나 또는 양자는 상기 물체, 및 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 것을 특징으로 하는 방법. The method of claim 1, wherein step d),
Distinguishing a virtual object projection image projecting the virtual object image onto the object and a virtual object background image displayed on the background; And
And displaying at least one or both of the distinguished virtual object projection image and the virtual object background image using at least one image display device,
At least one or both of the virtual object projected image and the virtual object background image displayed by the image display device is combined with either or both of the object and the shadow of the object or the background to realize augmented reality. How to do.
상기 물체에 표시되는 상기 가상물체 영상은 가상의 질감, 특성 및 상태변화 중 적어도 하나를 반영하는 영상이고,
상기 배경에 표시되는 상기 가상물체 영상은 상기 물체의 음영과 합성되어 미리 정해진 콘텐츠를 표현하는 영상인 것을 특징으로 하는 방법. According to claim 1,
The virtual object image displayed on the object is an image that reflects at least one of a virtual texture, characteristic, and state change,
The method of claim 1, wherein the virtual object image displayed on the background is an image that is synthesized with the shadow of the object and expresses predetermined content.
서로 빔을 송수신하는 사용자에 의해 움직이는 광원부 및 복수의 광학 송수신기;
상기 복수의 광학 송수신기 및 상기 광원부 중 어느 하나 또는 양자가 서로 상기 송수신된 상기 빔과 상기 광원부의 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보를 수신하며, 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자로부터 수신한 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하고, 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 제어부; 및
상기 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 영상표시부를 포함하고,
상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 가상 영상인 것을 특징으로 하되,
상기 제어부는,
상기 광원부의 상기 3차원 위치, 방향, 및 각도를 미리 정해진 시간 간격 마다 확인하고, 상기 미리 정해진 시간 간격 마다 확인된 결과를 영상처리장치로 전송하는 것을 특징으로 하는 장치. In the apparatus for processing an image by reflecting the position of a moving light source in augmented reality,
A light source unit and a plurality of optical transceivers that are moved by users transmitting and receiving beams to each other;
One or both of the plurality of optical transceivers and the light source unit receive three-dimensional information of the light source unit measured by the beam transmitted and received and an inertial sensor located inside the light source unit, and the light source unit and the plurality of optical units Based on the 3D information of the light source unit received from any one or both of the transceivers, the 3D position, direction, and angle of the light source unit are checked and displayed on the object and background illuminated by the light source unit based on the verification result. A control unit for processing the virtual object image; And
And an image display unit for displaying the virtual object image on one or both of the object and the background.
The virtual object image is characterized in that the virtual image to realize augmented reality by being synthesized with either or both of the background or the shadow generated by the object and the light source unit,
The control unit,
And confirming the three-dimensional position, direction, and angle of the light source unit at predetermined time intervals, and transmitting the confirmed results at the predetermined time intervals to an image processing apparatus.
상기 확인 결과에 기반하여 상기 광원부가 조명하는 상기 물체와 상기 배경에 표시할 상기 가상물체 영상을 생성하고, 상기 생성된 상기 가상물체 영상을 상기 광원부의 조명시간 또는 광량에 기반하여 수정하고, 상기 수정된 상기 가상물체 영상과 상기 광원부에 의해 생성된 상기 물체의 음영이 상호작용하기 위한 그래픽 작업을 수행하는 것을 특징으로 하는 장치. The method of claim 6, wherein the control unit,
Based on the check result, the virtual object image to be displayed on the object and the background illuminated by the light source unit is generated, and the generated virtual object image is corrected based on the illumination time or the amount of light of the light source unit, and the correction is performed. And performing a graphic operation for interacting with the virtual object image and the shadow of the object generated by the light source unit.
상기 가상물체 영상을 상기 물체에 투사하는 가상물체 투사 영상과 상기 배경에 표시하는 가상물체 배경 영상을 구별하고, 적어도 하나의 영상표시장치를 이용하여 상기 구별된 가상물체 투사 영상 및 가상물체 배경 영상 중 적어도 하나 또는 양자를 표시하고,
상기 영상표시장치에 의해 표시된 상기 가상물체 투사 영상 및 상기 가상물체 배경 영상 중 적어도 하나 또는 양자는 상기 물체, 및 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 것을 특징으로 하는 장치. The method of claim 6, wherein the image display unit,
Distinguish between the virtual object projection image projecting the virtual object image on the object and the virtual object background image displayed on the background, and using at least one image display device to distinguish among the distinguished virtual object projection image and virtual object background image. Indicate at least one or both,
At least one or both of the virtual object projected image and the virtual object background image displayed by the image display device is combined with either or both of the object and the shadow of the object or the background to realize augmented reality. Device.
상기 물체에 표시되는 상기 가상물체 영상은 가상의 질감, 특성 및 상태변화 중 적어도 하나를 반영하는 영상이고,
상기 배경에 표시되는 상기 가상물체 영상은 상기 물체의 음영과 합성되어 미리 정해진 콘텐츠를 표현하는 영상인 것을 특징으로 하는 장치.The method of claim 6,
The virtual object image displayed on the object is an image that reflects at least one of a virtual texture, characteristic, and state change,
And the virtual object image displayed on the background is an image that is synthesized with the shadow of the object to express predetermined content.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180135199A KR102124564B1 (en) | 2018-11-06 | 2018-11-06 | Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180135199A KR102124564B1 (en) | 2018-11-06 | 2018-11-06 | Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200052074A KR20200052074A (en) | 2020-05-14 |
KR102124564B1 true KR102124564B1 (en) | 2020-06-18 |
Family
ID=70737179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180135199A KR102124564B1 (en) | 2018-11-06 | 2018-11-06 | Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102124564B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240114981A (en) | 2023-01-18 | 2024-07-25 | 서강대학교산학협력단 | a 3D background model construction method based on ray tracing for disocclusion filling and a depth image based view synthesis method using the 3D background model construction method |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007018173A (en) * | 2005-07-06 | 2007-01-25 | Canon Inc | Image processing method and image processor |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100912369B1 (en) * | 2007-12-13 | 2009-08-19 | 한국전자통신연구원 | System and method for serving information of spot trial |
-
2018
- 2018-11-06 KR KR1020180135199A patent/KR102124564B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007018173A (en) * | 2005-07-06 | 2007-01-25 | Canon Inc | Image processing method and image processor |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20240114981A (en) | 2023-01-18 | 2024-07-25 | 서강대학교산학협력단 | a 3D background model construction method based on ray tracing for disocclusion filling and a depth image based view synthesis method using the 3D background model construction method |
Also Published As
Publication number | Publication date |
---|---|
KR20200052074A (en) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230087230A1 (en) | Virtual reality system and method | |
US20200368616A1 (en) | Mixed reality gaming system | |
KR102257255B1 (en) | Mixed reality spotlight | |
JP4901539B2 (en) | 3D image display system | |
JP7482881B2 (en) | Augmented reality systems for recreational vehicles | |
US20140160162A1 (en) | Surface projection device for augmented reality | |
CN109643014A (en) | Head-mounted display tracking | |
CN107067456B (en) | A kind of virtual reality rendering method based on depth map optimization | |
US8941654B2 (en) | Virtual flashlight for real-time scene illumination and discovery | |
US20240036353A1 (en) | Aerial imaging using retroreflection | |
KR102124564B1 (en) | Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality | |
US20220323874A1 (en) | Systems and methods for dynamic projection mapping for animated figures | |
RU2772301C1 (en) | Augmented reality system for riding attraction | |
Kurabayashi et al. | Sensing-by-overlaying: A practical implementation of a multiplayer mixed-reality gaming system by integrating a dense point cloud and a real-time camera | |
JP2003123093A (en) | System and program for generating image | |
CN113227884B (en) | Augmented reality system for amusement rides | |
GB2605302A (en) | Virtual reality system and method | |
GB2605298A (en) | Virtual reality system and method | |
Kyriazi | A survey of Augmented Reality technology in the field of Cultural Heritage | |
PATTI | Reducing motion sickness on mobile phone based VR applications using 6DoF tracking | |
GB2605300A (en) | Virtual reality system and method | |
GB2605301A (en) | Virtual reality system and method | |
GB2605299A (en) | Virtual reality system and method | |
ES2332561A1 (en) | Interactive visual immersion system (Machine-translation by Google Translate, not legally binding) | |
JP2011215919A (en) | Program, information storage medium and image generation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right |