Nothing Special   »   [go: up one dir, main page]

KR102124564B1 - Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality - Google Patents

Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality Download PDF

Info

Publication number
KR102124564B1
KR102124564B1 KR1020180135199A KR20180135199A KR102124564B1 KR 102124564 B1 KR102124564 B1 KR 102124564B1 KR 1020180135199 A KR1020180135199 A KR 1020180135199A KR 20180135199 A KR20180135199 A KR 20180135199A KR 102124564 B1 KR102124564 B1 KR 102124564B1
Authority
KR
South Korea
Prior art keywords
light source
image
source unit
virtual object
background
Prior art date
Application number
KR1020180135199A
Other languages
Korean (ko)
Other versions
KR20200052074A (en
Inventor
문준용
Original Assignee
문준용
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 문준용 filed Critical 문준용
Priority to KR1020180135199A priority Critical patent/KR102124564B1/en
Publication of KR20200052074A publication Critical patent/KR20200052074A/en
Application granted granted Critical
Publication of KR102124564B1 publication Critical patent/KR102124564B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치를 개시한다.
본 발명에 따른 일 실시예는 a) 사용자에 의해 움직이는 광원부와 서로 다른 곳에 위치하는 복수의 광학 송수신기가 서로 빔을 송수신하는 단계; b) 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자가 서로 송수신한 상기 빔과 상기 광원부 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하는 단계; c) 상기 b) 단계에서의 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 단계; 및 d) 상기 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 단계를 포함하고, 상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 가상 영상인 것을 특징으로 한다.
The present invention discloses a method and apparatus for processing an image by reflecting the position of a moving light source in augmented reality.
According to an embodiment of the present invention, a) a plurality of optical transceivers located at different locations from a light source unit moved by a user transmits and receives beams to each other; b) 3D position and direction of the light source unit based on the 3D information of the light source unit measured by the inertial sensor located inside the light source unit and the beam transmitted or received by one or both of the light source unit and the plurality of optical transceivers , And checking an angle; c) processing an object illuminated by the light source and a virtual object image to be displayed on the background based on the check result in step b); And d) displaying the virtual object image on one or both of the object and the background, wherein the virtual object image is either the shadow of the object generated by the object and the light source or the background. Or it is characterized by a virtual image that is combined with both to realize augmented reality.

Description

증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치{Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality}Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality}

본 발명은 영상 처리 방법 및 장치에 관한 것으로, 좀 더 구체적으로 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법 및 장치에 관한 것이다.The present invention relates to an image processing method and apparatus, and more particularly, to a method and apparatus for processing an image by reflecting the position of a moving light source in augmented reality.

최근 증강현실, 실감몰입형 영상 등 새로운 기술을 활용한 영상플랫폼 개발이 활발하다. 활용처 또한 기존의 게임 분야에서 벗어나, 순수미술, 광고, 엔터테인먼트, 교육, 박물관 전시 등 다양한 분야로 넓어지고 있다. 따라서 관련 기술의 발전과, 이를 활용한 다양한 영상플랫폼 개발 사례가 필요한 실정이다.Recently, the development of an image platform that utilizes new technologies such as augmented reality and immersive images is active. The application area is also widening from the existing game field to various fields such as fine art, advertisement, entertainment, education, and museum exhibition. Therefore, the development of related technologies and the development of various video platforms using them are in need.

증강현실이란 현실에 가상현실 영상을 겹쳐서 사용자에게 보여주는 것이다. 이를 위한 여러 영상 표시 방법들 중 본 발명이 발전시키고자 하는 것은, 실재하는 물체의 표면에 가상 물체 영상을 표시하는 방식이다. 예를 들어, 프로젝터를 이용하여 영상을 물체의 표면에 투사할 수 있거나, 또는 모니터를 물체의 표면에 부착하여, 모니터가 물체의 일부인 듯이 영상을 표시할 수도 있다. 이를 통해 현실의 물체에 가상현실이 덧씌워진 증강현실 물체가 만들어질 수 있으며, 마치 가상물체가 실재하는 것과 같은 착각을 사용자에게 일으킨다. 이러한 방식은 다른 증강현실 영상 표시 방식들에 비해 특수한 장점들을 인정받고 있지만, 아직까지 증강현실 영상에 인터랙티브 콘텐츠를 결합한 사례는 많지 않은 실정이다. 따라서, 현 단계의 증강현실 기술과 인터랙티브 콘텐츠의 결합을 통한 보다 높은 현실감과 몰입감을 제공할 수 있는 새로운 기술 개발이 필요하다.Augmented reality refers to a virtual reality image superimposed on the reality. Among the various image display methods for this purpose, the present invention is to develop a method of displaying a virtual object image on the surface of an actual object. For example, an image may be projected onto the surface of an object using a projector, or the monitor may be attached to the surface of an object to display the image as if the monitor is part of the object. Through this, an augmented reality object in which virtual reality is overlaid on an object of reality can be created, and an illusion as if a virtual object exists is caused to the user. Although this method is recognized for its special advantages over other augmented reality video display methods, there have not been many cases in which interactive content is combined with augmented reality video. Therefore, it is necessary to develop a new technology capable of providing a higher sense of reality and immersion through the combination of augmented reality technology and interactive content at this stage.

한편, 실감형 영상이란 실감형 인터페이스를 통해 영상의 내용을 시각 이외의 추가적인 감각을 통해 전달하는 것으로 정의될 수 있다. 이러한 실감형 인터페이스의 대표적인 예로, 자동차 게임에서 촉각을 이용하여 사용자가 직접 몸으로 느낄 수 있는 자동차 운전대 컨트롤러를 들 수 있다. 그런데 이러한 실감형 인터페이스는 이미 오래 전부터 전형적인 형태 몇 가지만이 널리 쓰이는데 그쳐, 새로운 환경에도 적용 가능한 사례의 개발이 필요하다. 구체적으로, 최근에 실감형 인터페이스 장치에 필수적인 위치추적 센서의 정밀도가 현저하게 개선되었고, 그에 따라 다양한 가능성이 모색되고 있다. 특히 실감형 인터페이스가 증강현실 영상과 결합되면 새로운 형식의 인터랙티브 영상플랫폼을 구현할 수 있을 것으로 기대된다. On the other hand, the tangible image may be defined as delivering the contents of the image through an additional sensation other than visual through the tangible interface. A typical example of such a tangible interface is a car steering wheel controller that a user can directly feel by using tactile sense in a car game. However, these tangible interfaces have been used only in a few typical forms for a long time, and it is necessary to develop cases applicable to new environments. Specifically, in recent years, the precision of the position tracking sensor essential for the sensory interface device has been significantly improved, and various possibilities have been sought accordingly. In particular, if the tangible interface is combined with augmented reality video, it is expected that a new format of interactive video platform can be realized.

본 발명은 상기와 같은 배경 기술에 기초하여 안출된 것으로, 기존 기술을 보다 발전시켜 증강현실의 현실감을 높이고, 증강현실과 실감형 인터페이스를 결합하여 인터랙션이 가능하게 하여, 궁극적으로 몰입감을 높일 수 있는 영상 처리 방법 및 장치를 제공하는 것을 목적으로 한다. 다양한 실시예예 따른 본 발명의 영상 처리 방법 및 장치를 통해 재미, 아름다움, 독특함 등의 예술성과 유희성을 향상시키는 것뿐만 아니라, 새로운 유형의 사용자 경험을 구현하고, 다양한 콘텐츠에 활용 가능한 플랫폼을 구현할 수 있는 가능성을 제시할 수 있다.The present invention was devised on the basis of the background technology as described above, and further enhances the reality of augmented reality by developing the existing technology, and enables interaction by combining augmented reality and a tangible interface, thereby ultimately enhancing immersion. It is an object to provide an image processing method and apparatus. Through the image processing method and apparatus of the present invention according to various embodiments, it is possible to implement a new type of user experience and to implement a platform that can be used for various contents, as well as to improve artistic and playfulness such as fun, beauty, and uniqueness. Can suggest potential.

상기와 같은 목적을 달성하기 위한 본 발명의 일 특징에 따른 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법은 a) 사용자에 의해 움직이는 광원부와 서로 다른 곳에 위치하는 복수의 광학 송수신기가 서로 빔을 송수신하는 단계; b) 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자가 서로 송수신한 상기 빔과 상기 광원부 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하는 단계; c) 상기 b) 단계에서의 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 단계; 및 d) 상기 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 단계를 포함하고, 상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 가상 영상인 것을 특징으로 한다. A method for processing an image by reflecting the position of a moving light source in augmented reality according to an aspect of the present invention for achieving the above object is a) a plurality of optical transceivers located at different locations from the light source unit moving by the user Transmitting and receiving a beam; b) 3D position and direction of the light source unit based on the 3D information of the light source unit measured by the inertial sensor located inside the light source unit and the beam transmitted or received by one or both of the light source unit and the plurality of optical transceivers , And checking an angle; c) processing an object illuminated by the light source and a virtual object image to be displayed on the background based on the check result in step b); And d) displaying the virtual object image on one or both of the object and the background, wherein the virtual object image is either the shadow of the object generated by the object and the light source or the background. Or it is characterized by a virtual image that is combined with both to realize augmented reality.

또한, 본 발명의 제 2 특징에 따른 증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 장치는 서로 빔을 송수신하는 사용자에 의해 움직이는 광원부 및 복수의 광학 송수신기; 상기 복수의 광학 송수신기 및 상기 광원부 중 어느 하나 또는 양자가 서로 상기 송수신된 상기 빔과 상기 광원부의 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보를 수신하며, 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자로부터 수신한 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하고, 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 제어부; 및 상기 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 영상표시부를 포함하고, 상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 가상 영상인 것을 특징으로 한다. In addition, in the augmented reality according to the second aspect of the present invention, an apparatus for processing an image by reflecting a position of a moving light source includes: a light source unit and a plurality of optical transceivers moved by users transmitting and receiving beams to each other; One or both of the plurality of optical transceivers and the light source unit receive three-dimensional information of the light source unit measured by the beam transmitted and received and an inertial sensor located inside the light source unit, and the light source unit and the plurality of optical units Based on the 3D information of the light source unit received from any one or both of the transceivers, the 3D position, direction, and angle of the light source unit are checked and displayed on the object and background illuminated by the light source unit based on the verification result. A control unit for processing the virtual object image; And an image display unit for displaying the virtual object image on either or both of the object and the background, wherein the virtual object image is synthesized with either or both of the shadow or the background generated by the object and the light source unit. It is characterized by being a virtual image to realize augmented reality.

상술한 본 발명에 따르면, 현실의 실제 물체 상에 광원부의 위치에 기반하여 생성되는 가상물체 영상이 합성되어, 증강현실의 현실감을 한 단계 더 높일 수 있게 되었다. 특히, 광원부의 3차원 위치를 추적하고 빛 특성을 컴퓨터 그래픽에 그대로 적용함으로 인해, 기존에 공지된 증강현실 관련 광원 인식 및 적용 방법들보다 더욱 정밀하고 풍부한 표현이 가능해진다.According to the present invention described above, a virtual object image generated based on the position of a light source unit on a real object of reality is synthesized, and the reality of augmented reality can be further enhanced. In particular, by tracking the three-dimensional position of the light source unit and applying the light characteristics as it is to the computer graphic, it is possible to express more precisely and abundantly than the conventionally known augmented reality related light source recognition and application methods.

또한, 본 발명에 따르면, 사용자가 실감형 인터페이스를 통해 증강현실 물체와 상호작용하므로, 상기 사용자는 자신이 사용하는 광원부의 위치에 따른 조명 상태를 반영하여 실제 물체 상에 3차원 효과를 갖는 가상물체 영상의 투사가 가능하여 향상된 현실감 뿐만 아니라 광원부의 조명 변화를 사용자가 직접 제어하게 함으로써 보다 향상된 몰입감과 독특한 사용자 경험을 얻을 수 있다.In addition, according to the present invention, since the user interacts with the augmented reality object through the tangible interface, the user reflects the lighting state according to the position of the light source unit used by the user, and the virtual object has a three-dimensional effect on the real object It is possible to project the image so that the user can directly control the lighting change of the light source unit as well as the improved realism, thereby obtaining an improved immersion and a unique user experience.

도 1a는 본 발명의 일 실시예에 따른 광원의 위치를 반영하여 영상을 처리하는 방법의 순서도이다.
도 1b는 본 발명의 일 실시예에 따른 영상 처리 장치의 내부 구조를 도시하는 블록도이다.
도 2a 와 도 2b는 본 발명의 제1 실시예에 따른 가상물체 영상을 투사하기 전과 후를 비교하는 도면이다.
도 3a, 도3b, 도 3c, 및 도 3d는 각각 도 2b에 도시된 본 발명의 제1 실시예에서, 상이한 광원부의 위치가 반영된 결과를 도시하는 도면이다.
도 4a, 도4b, 및 도4c는 각각 본 발명의 제2 실시예에 따른 영상 처리 결과를 도시하는 도면이다.
도 5는 본 발명의 제3 실시예에 따른 나뭇잎의 생장을 주제로 하는 가상물체 영상을 순차적으로 도시하는 도면이다.
도 6은 본 발명의 제4 실시예에 따른 꽃과 나비를 주제로 하는 가상물체 영상을 순차적으로 도시하는 도면이다.
도 7은 본 발명의 제5 실시예에 따른 물의 순환과정을 순차적으로 나타내는 도면이다.
도 8은 본 발명의 제6 실시예에 따른 사용자가 어둠 속을 탐험하면서 증강현실을 체험하는 것을 나타내는 도면이다.
1A is a flowchart of a method of processing an image by reflecting the position of a light source according to an embodiment of the present invention.
1B is a block diagram showing the internal structure of an image processing apparatus according to an embodiment of the present invention.
2A and 2B are diagrams comparing before and after projecting a virtual object image according to a first embodiment of the present invention.
3A, 3B, 3C, and 3D are diagrams showing results of reflecting positions of different light sources in the first embodiment of the present invention shown in FIG. 2B, respectively.
4A, 4B, and 4C are diagrams respectively showing image processing results according to the second embodiment of the present invention.
5 is a view sequentially showing a virtual object image with the theme of growth of leaves according to a third embodiment of the present invention.
6 is a view sequentially showing a virtual object image with the theme of a flower and a butterfly according to a fourth embodiment of the present invention.
7 is a view sequentially showing a water circulation process according to a fifth embodiment of the present invention.
8 is a diagram illustrating a user experiencing augmented reality while exploring in the dark according to a sixth embodiment of the present invention.

본 명세서에서 실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments in the present specification, descriptions of technical contents well known in the technical field to which the present invention pertains and which are not directly related to the present invention will be omitted. This is to more clearly communicate the subject matter of the present invention by omitting unnecessary description.

마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. 각 도면에서 동일한 또는 대응하는 구성요소에는 동일한 참조 번호를 부여하였다.For the same reason, some components in the accompanying drawings are exaggerated, omitted, or schematically illustrated. Also, the size of each component does not entirely reflect the actual size. The same reference numbers are assigned to the same or corresponding elements in each drawing.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the person having the scope of the invention, and the present invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다. Also, each block may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function(s). It should also be noted that in some alternative implementations, it is also possible that the functions mentioned in the blocks occur out of order. For example, two blocks shown in succession may in fact be executed substantially simultaneously, or it is also possible that the blocks are sometimes executed in reverse order according to a corresponding function.

이 때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.At this time, the term'~ unit' used in this embodiment means a software or hardware component, and'~ unit' performs certain roles. However,'~ wealth' is not limited to software or hardware. The'~ unit' may be configured to be in an addressable storage medium or may be configured to reproduce one or more processors. The functions provided within components and'~units' may be combined into a smaller number of components and'~units' or further separated into additional components and'~units'.

이하에서 본 발명의 실시예 및 도면을 참조하여 본 발명을 상세히 기술한다. Hereinafter, the present invention will be described in detail with reference to examples and drawings of the present invention.

본 발명은 실재하는 물체의 표면에 가상 물체 영상을 표시하는 방식의 증강현실을 발전시켜 더 높은 현실감을 표현할 수 있는 방법에 대한 것이다. 본 발명은, 하나의 예시로, 영상 관람 인터페이스 장치로서, 조명 장치를 사용자에게 제공할 수 있다. 그리고 컴퓨터그래픽(CG)을 통해 상기 조명 장치와 동일한 특성(예를 들어, 밝기, 색상, 발광 방향 등)을 제공하는 별도의 영상 표시 장치(이하에서 "영상 표시 장치"는 필요한 경우"CG 광원"과 호환적으로 사용될 수 있습니다)로 가상 물체를 조명하여 현실감을 높일 수 있다. 사용자가 상기 조명 장치를 움직이면 현실 물체의 음영(그림자)이 변화하는 것은 물론, 동시에 CG 광원의 위치 또는 위치 좌표의 변화를 반영하여, 상술한 조명 장치의 특성(예를 들어, 밝기, 색상, 발광 방향 등)과 동일한 특성의 CG 광원의 빛에 의해 제공되는 가상 물체의 영상이 조명된다. 이를 위해 조명 장치로서 위치추적 센서가 부착된 특수한 광원 장치가 사용되고, 광원 장치가 움직이는 위치 및 방향을 실시간으로 영상 처리 장치에 무선 송신하도록 할 수 있다. 또한 영상 처리 장치를 이용하여 추적한 광원 장치의 위치 및 방향에 따라 CG 광원의 빛에 의해 제공되는 가상물체 영상을 실제하는 물체 상에 실시간 랜더링하도록 할 수 있다. The present invention relates to a method capable of expressing a higher sense of reality by developing augmented reality in a manner of displaying a virtual object image on the surface of a real object. The present invention, as one example, as a video viewing interface device, may provide a lighting device to the user. And a separate video display device that provides the same characteristics (for example, brightness, color, light emission direction, etc.) to the lighting device through computer graphics (CG) (hereinafter referred to as "CG light source" if necessary) It can be used interchangeably with) to illuminate a virtual object to enhance realism. When the user moves the lighting device, not only the shadow (shadow) of the real object changes, but also reflects the change in the position or position coordinate of the CG light source, and thus the characteristics of the lighting device described above (eg, brightness, color, light emission) Direction, etc.), the image of the virtual object provided by the light of the CG light source having the same characteristics is illuminated. To this end, a special light source device with a position tracking sensor is used as a lighting device, and it is possible to wirelessly transmit the moving position and direction of the light source device to the image processing device in real time. In addition, the virtual object image provided by the light of the CG light source may be rendered in real time on an actual object according to the position and direction of the light source device tracked using the image processing device.

좀 더 구체적으로, 상기 실시간으로 렌더링되는 가상물체 영상은 영상 표시 장치를 통하여 실제 물체 표면에 매핑될 수 있으며, 상기 가상물체 영상이 실제 광원 장치의 조명에 의해 생성되는 음영과 겹쳐지며 독특한 증강현실이 구현될 수 있다. 본 발명의 실시예에서는, 사용자의 움직임에 따른 광원 장치의 위치 및 방향에 따른 특성(예를 들어, 밝기, 색상, 발광 방향 등)에 기초하여 영상 표시 장치를 통해 제공되는 CG 광원의 빛에 의해 제공되는 가상물체 영상이 상기 사용자의 광원 장치의 특성과 동일한 특성을 구비하여 실제 물체 상에 렌더링되므로, 가상물체 영상에 의해 실제 물체 상에 구현되는 가상 물체(이하 "증강현실 물체"라 합니다) 자체도 음영을 포함한 3차원적인 표현이 가능하게 된다. 그 결과, 본 발명은 증강현실 물체가 마치 실재하는 것과 같은 향상된 현실감을 표현하는 것이 가능하다. 동시에 여러 사용자가 각자의 광원 장치를 사용하여 움직이는 경우에도, 상술한 바와 동일한 방식으로, 각각의 광원의 위치 및 방향에 기반하여 생성되는 실제 물체의 음영과 합성되는 각각의 실시간으로 제공되는 가상물체 영상이 실제 물체 상에 렌더링될 수 있으므로 모든 사용자에게 현실감 있는 증강현실이 제공될 수 있다.More specifically, the virtual object image rendered in real time may be mapped to a real object surface through an image display device, and the virtual object image overlaps with a shadow generated by illumination of a real light source device, and unique augmented reality Can be implemented. In an embodiment of the present invention, the light of the CG light source provided through the image display device based on characteristics (eg, brightness, color, light emission direction, etc.) according to the position and direction of the light source device according to the movement of the user Since the provided virtual object image is rendered on a real object with the same characteristics as the light source device of the user, a virtual object (hereinafter referred to as "augmented reality object") implemented on the real object by the virtual object image itself It is possible to express three-dimensionally, including shading. As a result, the present invention is capable of expressing an enhanced sense of reality as if the augmented reality object is real. Simultaneously, even when multiple users move using their respective light source devices, in the same manner as described above, virtual object images provided in real time, which are synthesized with shadows of real objects generated based on the position and direction of each light source, respectively. Since it can be rendered on this real object, realistic augmented reality can be provided to all users.

상기 본 발명에서 광원 장치는 CG 광원의 빛에 의해 실시간으로 제공되는 가상물체 영상의 조명을 변화시킬 뿐만 아니라, 추가적으로 해당 가상물체 영상의 내용과 상호작용하는 인터페이스 장치로 활용될 수 있으므로, 실감형 인터페이스로서의 효과를 더욱 높일 수도 있다.In the present invention, the light source device not only changes the illumination of the virtual object image provided in real time by the light of the CG light source, but also can be utilized as an interface device that interacts with the contents of the corresponding virtual object image, so that it is a realistic interface. It is also possible to further enhance the effect as.

도 1a는 본 발명의 일 실시예에 따른 광원의 위치를 반영하여 영상을 처리하는 방법의 순서도이고, 도 1b는 본 발명의 일 실시예에 따른 영상 처리 장치의 내부 구조를 도시하는 블록도이다.1A is a flowchart of a method of processing an image by reflecting a position of a light source according to an embodiment of the present invention, and FIG. 1B is a block diagram showing an internal structure of an image processing apparatus according to an embodiment of the present invention.

이하에서는 도 1a 및 도 1b를 참조하여, 본 발명의 일 실시예에 따른 광원의 위치 및 방향을 반영하여 영상을 처리하는 방법 및 장치를 설명하기로 한다. Hereinafter, a method and apparatus for processing an image by reflecting the position and direction of a light source according to an embodiment of the present invention will be described with reference to FIGS. 1A and 1B.

먼저, 도 1b에 도시된 바와 같이, 본 발명의 일 실시예에 따른 영상 처리 장치는 광원부(110), 광학 송수신부(120), 제어부(130), 및 영상표시부(140)를 포함할 수 있다. 여기서, 광학 송수신부(120)는 복수의 광학 송수신부로 구현될 수 있다. 또한, 광원부(110)는 조명 장치와 조명 장치 제어기를 포함할 수 있으며, 후술하는 바와 같이 영상표시부(140)의 가시성과 배터리 사용량 등에 기반하여 조명 장치의 광량을 적절히 조정할 수 있다. 이 경우. 광원부(110)는 사용자와 함께 움직일 수 있으며 그에 따라 광원부(110)의 3차원 정보(위치, 방향, 및 각도)가 지속적으로 변경될 수 있다.First, as illustrated in FIG. 1B, an image processing apparatus according to an embodiment of the present invention may include a light source unit 110, an optical transmission/reception unit 120, a control unit 130, and an image display unit 140. . Here, the optical transceiver 120 may be implemented with a plurality of optical transceivers. In addition, the light source unit 110 may include a lighting device and a lighting device controller, and as described later, the light amount of the lighting device may be appropriately adjusted based on the visibility of the image display unit 140 and battery usage. in this case. The light source unit 110 may move together with a user, and accordingly, three-dimensional information (position, direction, and angle) of the light source unit 110 may be continuously changed.

본 발명의 실시예가 구현되는 공간을 가정하면, 미리 정해진 서로 다른 위치에 위치되는 복수의 광학 송수신기(120)는 각각 사용자에 의해 또는 사용자와 함께 움직이는 광원 장치 또는 광원부(110)(이하 "광원부"라 합니다)과 빔을 송신 및 수신할 수 있다. 상기 복수의 광학 송수신기(120)가 광원부(110)로 송신한 후 광원부(110)로부터 수신한 각각의 빔의 정보와 상기 광원부(110) 내부에 위치한 관성 센서들(예를 들어, (가속도계, 각속도계 등)에 의해 감지된 데이터에 기반하여 상기 복수의 광학 송수신기(120)는 상기 광원부(110)의 3차원 정보(위치, 방향, 및 각도)를 확인하는데 사용될 수 있다. Assuming a space in which an embodiment of the present invention is implemented, a plurality of optical transceivers 120 positioned at different predetermined positions are each moved by or with a user, or a light source device 110 or a light source unit 110 (hereinafter referred to as a “light source unit”) And can transmit and receive beams. After the plurality of optical transceivers 120 are transmitted to the light source unit 110, information on each beam received from the light source unit 110 and inertial sensors located inside the light source unit 110 (eg, (accelerometer, each The plurality of optical transceivers 120 may be used to check three-dimensional information (position, direction, and angle) of the light source unit 110 based on data sensed by a speedometer or the like.

그 후, 상기 제어부(130)는 상기 광원부(110)의 확인된 3차원 정보에 기반하여, 상기 광원부(110)에 의해 조명되는 실제 물체와 배경에 표시할 가상물체 영상을 처리하고 표시할 수 있다. Thereafter, the control unit 130 may process and display an actual object illuminated by the light source unit 110 and a virtual object image to be displayed on the background, based on the identified 3D information of the light source unit 110. .

우선, 도 1a의 S110 단계에서, 사용자에 의해 또는 사용자와 함께 움직이는 광원부(110)가 미리 정해진 서로 다른 위치에 설치되는 복수의 광학 송수신기(120)로부터 각각 빔을 수신할 수 있다. First, in step S110 of FIG. 1A, beams may be received from a plurality of optical transceivers 120 that are installed at different positions by a user or a light source unit 110 moving together with the user.

그 후, S120 단계에서, 상기 광원부(110)와 상기 복수의 송수신부(120)가 서로 송수신한 빔과 상기 광원부(110)) 내부에 위치한 관성 센서에 의해 측정된 광원부(110)의 3차원 정보를 포함한 데이터가 제어부(130)로 송신되고, 제어부(130)는 수신된 광원부(110)의 3차원 정보를 포함한 데이터로부터 광원부(110)의 3차원 위치, 방향, 및 각도를 확인할 수 있다. Thereafter, in step S120, the light source unit 110 and the plurality of transmitting and receiving units 120 transmit and receive each other, and the three-dimensional information of the light source unit 110 measured by the inertial sensor located inside the light source unit 110) Data including is transmitted to the control unit 130, the control unit 130 may check the three-dimensional position, direction, and angle of the light source unit 110 from the data including the three-dimensional information of the received light source unit 110.

좀 더 구체적으로, 상기 복수개의 광학 송수신기(120)는 광원부(110)로부터 상기 광원부(110)의 3차원 정보를 확인하는데 필요한 빔을 송수신할 수 있다. 즉, 복수 개의 광학 송수신기(120)는 광원부(110)에 빔을 송신하고 광원부(110)로부터 빔을 수신하며, 수신된 빔에 기반하여 광원부(110)의 3차원 정보를 확인하기 위한 데이터를 측정하거나, 또는 광원부(110)가 복수 개의 광학 송수신기(120)로부터 복수 개의 광학 송수신기(120)의 미리 정해진 위치 정보를 포함하는 빔을 수신하여, 3차원 정보를 확인하기 위한 데이터를 측정할 수 있다. 이 경우, 상기 광원부(110)와 광학 송수신부(120)는 각각 충전식 배터리와 전원, 충전 제어기, 및 유/무선 데이터 송신부를 포함할 수 있다. 이러한 충전식 배터리와 무선 데이터 송신부는 사용자에 의한 광원부(110)의 무선 이동을 가능하게 하여, 영상관람 인터페이스로서의 사용 편의성을 증대시킬 수 있다. 광원부(110)와 광학 송수신부(120) 각각에 포함된 유/무선 데이터 송신부는 광원부(110)와 광학 송수신부(120)에서 각각 측정 또는 확인된 정보 또는 데이터를 제어부(130)로 전송할 수 있다. 여기서, 상술한 충전식 배터리는 전원 공급부와 배터리 장착부로 구성될 수 있으며, 사용자가 광원부(110)를 단순히 배터리 장착부에 거치하기만 해도 손쉽게 충전할 수 있도록 디자인될 수 있으며, 그에 따라 광원부(110)의 사용 편의성을 증대시킬 수 있다. More specifically, the plurality of optical transceivers 120 may transmit/receive beams necessary to confirm 3D information of the light source unit 110 from the light source unit 110. That is, the plurality of optical transceivers 120 transmit beams to the light source unit 110 and receive beams from the light source unit 110, and measure data for confirming three-dimensional information of the light source unit 110 based on the received beam Alternatively, the light source unit 110 may receive a beam including predetermined location information of the plurality of optical transceivers 120 from the plurality of optical transceivers 120 to measure data for confirming 3D information. In this case, the light source unit 110 and the optical transmitting and receiving unit 120 may include a rechargeable battery and a power supply, a charging controller, and a wired/wireless data transmission unit, respectively. The rechargeable battery and the wireless data transmission unit enable wireless movement of the light source unit 110 by the user, thereby increasing convenience of use as an image viewing interface. The wire/wireless data transmission unit included in each of the light source unit 110 and the optical transmission/reception unit 120 may transmit information or data measured or confirmed by the light source unit 110 and the optical transmission/reception unit 120 to the control unit 130, respectively. . Here, the above-described rechargeable battery may be composed of a power supply unit and a battery mounting unit, and may be designed to be easily charged even if the user simply mounts the light source unit 110 on the battery mounting unit. Ease of use can be increased.

제어부(130)는 광원부(110) 및/또는 복수의 광학 송수신기(120)로부터 각각 수신한 광원부(110)의 3차원 정보 또는 데이터를 이용하여 상기 광원부(110)의 3차원 위치, 방향, 및 각도를 확인할 수 있다. The control unit 130 uses the 3D information or data of the light source unit 110 received from the light source unit 110 and/or the plurality of optical transceivers 120, respectively, to provide a three-dimensional position, direction, and angle of the light source unit 110. You can check

상술한 바와 같은 광원부(110)의 3차원 위치, 방향, 및 각도를 확인하는 실시예로, 복수개의 서로 다른 위치에 배치되며, 각각이 레이저 빔을 방출하는 복수의 광학 송수신기(120)로 광원부(110)의 3차원 정보의 측정을 위한 기준점을 표시하게 할 수 있다. 상기 측정의 정확도를 높이기 위하여 복수 개의 광학 송수신기(120)를 미리 정해진, 서로 상이한 위치에 설치할 수 있다. 광원부(110)는 그 내부에 제공되는 복수 개의 레이저 빔 검출기를 포함하여, 기준점으로부터 자신의 3차원 정보(위치, 방향, 및 각도)를 측정하게 할 수 있다. As an embodiment of confirming the three-dimensional position, direction, and angle of the light source unit 110 as described above, the light source unit 120 is disposed in a plurality of different locations, each of which is a plurality of optical transceivers 120 emitting a laser beam ( It is possible to display a reference point for measuring the 3D information of 110). In order to increase the accuracy of the measurement, a plurality of optical transceivers 120 may be installed at predetermined and different locations. The light source unit 110 may include a plurality of laser beam detectors provided therein to measure its own 3D information (position, direction, and angle) from a reference point.

또한, 상기 광원부(110)의 3차원 위치, 방향, 및 각도 등을 확인하는 또 다른 실시예로, 상기 광원부(110)에는 외부로부터 측정 가능한 마커가 제공될 수 있다. 이때, 마커는 측정의 정확도를 높이기 위하여 적외선 LED 등을 사용한 자체 발광형 마커로 구성할 수도 있다. 상기 복수의 광학 송수신부(120)에 포함되는 레이저 빔 검출기(예를 들어, 카메라 또는 광학 센서 등)는 상기 광원부(110)에 제공되는 마커의 3차원 정보(위치, 방향, 및 각도 등)를 측정할 수 있다. 복수의 광학 송수신부(120)가 상기 광학부(110)에 제공되는 마커를 측정하는 경우, 복수의 광학 송수신부(120)는 제어부(130)로 유/무선 통신을 이용하여 광원부(110)의 측정된 마커의 3차원 정보를 포함한 데이터를 송신할 수 있다. In addition, as another embodiment of confirming the three-dimensional position, direction, and angle of the light source unit 110, the light source unit 110 may be provided with a marker that can be measured from the outside. At this time, the marker may be configured as a self-luminous marker using an infrared LED or the like in order to increase the accuracy of the measurement. The laser beam detector (for example, a camera or an optical sensor) included in the plurality of optical transmission/reception units 120 may display three-dimensional information (position, direction, and angle, etc.) of the marker provided to the light source unit 110. Can be measured. When a plurality of optical transmission/reception units 120 measure markers provided to the optical unit 110, the plurality of optical transmission/reception units 120 may use the wired/wireless communication to the control unit 130 to control the light source unit 110. Data including 3D information of the measured marker can be transmitted.

그 후, S130 단계에서, 상기 제어부(130)는 상기 광원부(110)의 3차원 정보의 확인 결과에 기반하여 상기 광원부(110)가 조명하는 실제 물체와 배경에 표시할 가상물체 영상을 처리할 수 있다. Thereafter, in step S130, the control unit 130 may process the actual object illuminated by the light source unit 110 and a virtual object image to be displayed on the background based on the result of checking the 3D information of the light source unit 110. have.

구체적으로, 제어부(130)는 광원부(110) 및/또는 복수의 광학 송수신기(120)로부터 수신한 광원부(110)의 3차원 정보 데이터에 기반하여 상기 광원부(110)의 3차원 위치, 방향, 및 각도 등을 확인한다. 그 후, 제어부(130)는 상기 확인 결과에 기반하여 상기 광원부(110)가 조명하는 실제 물체와 배경에 표시할 가상물체 영상을 처리할 수 있다. 이 경우, 제어부(130)는 상기 광원부(110)의 3차원 정보를 미리 정해진 시간 간격마다 확인할 수 있으며, 상기 시간 간격이 짧을수록 상기 광원부(110)의 움직임에 따른 3차원 정보가 실시간으로 반영되므로, 더욱 현실감있는 가상물체 영상의 생성 및 제공이 가능해진다. Specifically, the control unit 130 based on the 3D information data of the light source unit 110 and/or the light source unit 110 received from the plurality of optical transceivers 120, the 3D position, direction, and Check the angle, etc. Thereafter, the controller 130 may process a real object illuminated by the light source 110 and a virtual object image to be displayed on the background based on the check result. In this case, the control unit 130 may check the 3D information of the light source unit 110 at predetermined time intervals. As the time interval is shorter, 3D information according to the movement of the light source unit 110 is reflected in real time. , It is possible to create and provide a more realistic virtual object image.

상술한 가상물체 영상을 처리하는 하나의 실시예로, 상기 광원부(110)의 위치에 따라 가상물체와 영상 콘텐츠가 상호작용 하는 경우, 상기 제어부(130)는 확인된 상기 광원부(110)의 3차원 위치, 방향, 및 각도에 대한 데이터를 분석할 수 있다. 그 후, 상기 제어부(130)는 상기 분석 결과가 미리 정해진 조건을 만족할 경우, 미리 정해진 가상물체를 생성하여 영상 콘텐츠에 적용시킬 수 있다. 예를 들어, 가상물체로써 나무가 사용자에게 제공되고, 사용자가 상기 광원부(110)의 조명장치를 나무를 향해 비추면, 상기 나무에서 잎사귀가 자라나는 영상콘텐츠가 사용자에게 제공될 수 있다. 이 경우, 상기 제어부(130)는 상기 광원부(110) 의 위치, 방향, 및 각도 등을 분석하여 상기 광원부(110)가 상기 가상물체(나무)를 비추는지 여부를 판단할 수 있으며, 상기 광원부(110)가 상기 가상물체(나무)를 비추는 시간에 기반하여 추가 가상물체가 나타나거나(잎사귀) 사라지는(낙엽) 가상물체 영상을 생성할 수 있다. In one embodiment of processing the above-described virtual object image, when the virtual object interacts with the image content according to the position of the light source unit 110, the control unit 130 determines the 3D of the identified light source unit 110 Analyze data for position, direction, and angle. Thereafter, when the analysis result satisfies a predetermined condition, the control unit 130 may generate a predetermined virtual object and apply it to the video content. For example, as a virtual object, a tree is provided to the user, and when the user shines the lighting device of the light source 110 toward the tree, video content in which leaves grow on the tree may be provided to the user. In this case, the control unit 130 may analyze the position, direction, and angle of the light source unit 110 to determine whether the light source unit 110 illuminates the virtual object (tree), and the light source unit ( Based on the time when 110) illuminates the virtual object (tree), an additional virtual object may appear (leaves) or disappear (deciduous) to generate a virtual object image.

상기 가상물체 영상을 처리하는 또 다른 실시예로, 상기 제어부(130)는 미리 정해진 3차원 모델 데이터에 따라 가상물체를 생성할 수 있다. 그 후, 제어부(130)는 생성된 가상 물체를 합성될 실제 물체의 실제 좌표와 일치하는 가상 좌표에 위치시킬 수 있다. 상기 실제 좌표와 가상 좌표의 기준점은, 예를 들어, 상기 복수의 광학 송수신기(120)의 각각의 위치, 각도, 및 방향을 기준으로 설정할 수 있다. 그러나, 필요할 경우, 상기 실제 좌표와 가상 좌표의 기준점을 임의로 설정하고, 이들 좌표들 간의 좌표 매핑 과정을 추가로 수행할 수도 있다. As another embodiment of processing the virtual object image, the controller 130 may generate a virtual object according to predetermined 3D model data. Thereafter, the controller 130 may position the generated virtual object at virtual coordinates that match the actual coordinates of the actual object to be synthesized. The reference points of the real coordinates and the virtual coordinates may be set based on respective positions, angles, and directions of the plurality of optical transceivers 120, for example. However, if necessary, the reference points of the actual and virtual coordinates may be arbitrarily set, and a coordinate mapping process between these coordinates may be additionally performed.

한편, 상기 제어부(130)는 상기 광원부(110)의 빛의 특성(밝기, 색상, 발광 방향 등)과 동일한 특성을 제공하는 가상 광원(상술한 CG 광원에 대응될 수 있습니다)을 생성할 수 있다. 그 후, 상기 제어부(130)는 상기 광원부(110)의 실제 좌표와 동일한 좌표에 상기 가상 광원을 위치시키고, 상기 생성된 가상물체를 실제 물체 상에 조명하여 실시간으로 랜더링 작업을 수행할 수 있다.Meanwhile, the control unit 130 may generate a virtual light source (which may correspond to the above-described CG light source) that provides the same characteristics as the light characteristics (brightness, color, light emission direction, etc.) of the light source unit 110. . Thereafter, the control unit 130 may place the virtual light source at the same coordinates as the actual coordinates of the light source unit 110 and illuminate the generated virtual object on a real object to perform a rendering operation in real time.

이 경우, 상기 제어부(130)는 자신이 생성한 상기 가상물체 영상을 상기 광원부(110)의 조명시간이나 광량에 기반하여 수정할 수 있다. 즉, 사용자에 의해 상기 광원부(110)가 실제 물체를 비추고 있는 시간에 따라 투사되는 가상물체 영상이 가변적으로 변화될 수 있다. 또한, 상기 제어부(130)는 상기 가상물체 영상과 상기 광원부(110)에 의해 생성된 실제 물체의 음영이 상호작용하도록 하기 위한 그래픽 작업을 수행할 수 있다. 상기 그래픽 작업으로 인하여, 실제 물체 상에 가상물체 영상이 합성된 증강현실 물체의 음영이 후술하는 본 발명의 실시예에서 상세히 기술되는 바와 같이 증강현실 물체의 원래 음영과는 상이한 음영을 제공할 수 있다는 점에서 증강현실에서 사용자의 현실감을 증대시킬 수 있다. In this case, the controller 130 may modify the virtual object image generated by itself based on the illumination time or the amount of light of the light source 110. That is, the virtual object image projected by the user according to the time when the light source 110 illuminates a real object may be variably changed. In addition, the control unit 130 may perform a graphic operation for allowing the virtual object image to interact with the shadow of the actual object generated by the light source unit 110. Due to the graphic work, the shadow of the augmented reality object in which a virtual object image is synthesized on a real object may provide a different shade from the original shadow of the augmented reality object as described in detail in the embodiment of the present invention described later. In this regard, augmented reality can increase a user's realism.

한편, 도 1b에는 도시되어 있지 않지만, 제어부(130)는 상기 광원부(110)의 위치 추적 장치 제어부, 상기 광원부(110)의 위치 확인부 등을 더 포함할 수 있다. 상기 위치 확인부는 상기 제어부(130)가 확인한 광원부(110)의 3차원 정보 데이터(위치, 각도, 및 방항)와 광원부(110) 및 복수의 광학 송수신부(120) 간의 이격 거리를 적용하여 상기 광원부(110)의 3차원 위치, 방향, 및 각도를 확인할 수 있으며, 필요한 경우 광원부(110)의 이동 속도, 이동 방향, 움직임 패턴 등을 확인할 수 있다. Meanwhile, although not illustrated in FIG. 1B, the control unit 130 may further include a location tracking device control unit of the light source unit 110, a location confirmation unit of the light source unit 110, and the like. The position confirmation unit applies the separation distance between the three-dimensional information data (position, angle, and direction) of the light source unit 110 checked by the control unit 130 and the light source unit 110 and the plurality of optical transmission/reception units 120 to the light source unit The three-dimensional position, direction, and angle of 110 may be checked, and if necessary, the moving speed, moving direction, and movement pattern of the light source unit 110 may be checked.

그 후, S140 단계에서, 상기 제어부(130)에서 처리된 가상물체 영상을 영상표시부(140)가 상기 광원부(110)에 의해 조명되는 실제 물체와 배경에 표시할 수 있다. 이러한 영상표시부(140)는 상기 제어부(130)에 의해 처리된 가상물체 영상을 실제 물체와 배경에 표시할 수 있다. 그에 따라, 상기 가상물체 영상은 실제 물체 및 상기 광원부(110)에 의해 생성되는 실제 물체의 음영과 합성되어 증강현실을 구현할 수 있다.Thereafter, in step S140, the virtual object image processed by the control unit 130 may be displayed on the real object and the background illuminated by the light source unit 110 by the image display unit 140. The image display unit 140 may display a virtual object image processed by the controller 130 on a real object and a background. Accordingly, the virtual object image may be synthesized with a shadow of a real object and a real object generated by the light source unit 110 to realize augmented reality.

한편, 상기 가상물체 영상은 상기 실제 물체에 투사되는 가상물체 투사 영상과 배경에 표시되는 가상물체 배경 영상으로 구별될 수 있다. 상기 가상물체 투사 영상과 가상물체 배경 영상 간의 구별은 상기 제어부(130)의 영상 처리 단계(s130)에서 수행되거나, 상기 영상표시부(140)에서 수행될 수 있다. Meanwhile, the virtual object image may be divided into a virtual object projection image projected on the real object and a virtual object background image displayed on the background. The distinction between the virtual object projection image and the virtual object background image may be performed in the image processing step s130 of the control unit 130 or in the image display unit 140.

상기 영상표시부(140)는 복수개의 영상표시장치를 이용하여 상기 실제 물체와 배경에 가상물체 영상을 투사할 수 있다. 상기 복수 개의 영상표시장치는 실제 물체 상에 가상물체 투사 영상의 일부만을 투사하거나, 실제 물체 상에 가상물체 배경 영상을 제외한 가상물체 투사 영상만을 투사하거나 실제 물체의 배경에만 가상물체 투사 영상을 제외한 가상물체 배경 영상만을 투사하거나, 실제 물체 및 배경 상에 각각 가상물체 투사 영상 및 가상물체 배경 영상을 투사할 수 있으며, 그에 따라 투사된 적어도 하나의 상기 가상물체 영상(즉, 가상물체 투사 영상과 가상물체 배경 영상 중 어느 하나 또는 양자의 일부 또는 전부)이 실제 물체, 및 상기 실제 물체의 음영 또는 배경 중 어느 하나 또는 양자와 합성되어 상호작용을 이룰 수 있다. The image display unit 140 may project a virtual object image on the real object and the background using a plurality of image display devices. The plurality of image display devices project only a part of the virtual object projected image on the real object, or project only the virtual object projected image excluding the virtual object background image on the real object, or the virtual object projected only on the background of the real object. Only the object background image may be projected, or the virtual object projection image and the virtual object background image may be projected on the real object and the background, respectively, and the at least one projected virtual object image (ie, the virtual object projection image and the virtual object) may be projected accordingly. Any one or both of the background images or some or all of them) may be combined with a real object, and either or both of a shadow or a background of the real object to form an interaction.

한편, 상기 영상표시부(140)는 상기 영상표시장치가 모니터인 경우, 모니터 상에 가상물체 영상이 표시되게 할 수 있다. 이 경우, 모니터는 평면 형태의 가상현실 물체를 표시하는데 사용될 수 있다. 상기 영상표시장치가 프로젝터일 경우, 상기 가상물체 영상을 실제 물체의 굴곡진 표면 상에 투사할 수 있으므로, 복잡한 형태의 실제 물체(예를 들어, 조형물) 상에 복잡한 형태의 가상물체 영상을 투사할 수 있다. 구체적인 예시로, 콜라캔을 표현하기 위해 원통 형태의 조형물 상에 콜라캔 표면 무늬의 가상물체 영상을 투사하는 방식의 증강현실 물체를 구현할 수 있다. 상기 영상표시부(140)는 상기 프로젝터의 특성(화각 등)과 실제 위치, 각도, 및 방향과, 가상물체 영상을 랜더링하는 카메라의 특성(화각 등)과 실제 위치, 각도, 및 방향을 일치시킬 수 있다. 또한, 필요에 따라, 상기 가상물체 영상을 와핑 또는 트리밍할 수 있다. Meanwhile, when the image display device is a monitor, the image display unit 140 may display a virtual object image on the monitor. In this case, the monitor can be used to display a virtual reality object in the form of a plane. When the image display apparatus is a projector, since the virtual object image can be projected on a curved surface of a real object, a complex shape virtual object image can be projected on a complex real object (for example, a sculpture). Can be. As a specific example, an augmented reality object in a manner of projecting a virtual object image of a coke can pattern onto a cylindrical shaped object can be implemented to represent a coke can. The image display unit 140 may match the characteristics of the projector (such as an angle of view) with the actual location, angle, and direction, and characteristics of the camera rendering the virtual object image (such as an angle of view) with the actual location, angle, and direction. have. In addition, if necessary, the virtual object image may be warped or trimmed.

상기 영상표시장치가 복수개의 프로젝터일 경우, 상기 영상표시부(140)는 복수개의 영상 표시 영역이 끊김 없이 연결되게 하기 위하여 와핑, 트리밍, 에지 블랜딩 등의 처리를 수행할 수 있다. 상기 영상표시부(140)에 의해 표시되는 가상물체 영상은 실제 물체의 음영 및/또는 배경에서 합성될 수 있으며, 이로 인하여 증강현실이 구현될 수 있다. When the image display device is a plurality of projectors, the image display unit 140 may perform processing such as warping, trimming, edge blending, and the like so that a plurality of image display areas are seamlessly connected. The virtual object image displayed by the image display unit 140 may be synthesized in a shadow and/or a background of a real object, thereby realizing augmented reality.

또한, 상술한 본 발명의 실시예에 의하면, 상기 실제 물체 상에 표시되는 가상물체 (투사) 영상은 가상의 질감, 특성, 상태변화 등을 반영하여 3차원 증강현실 물체를 표시할 수 있는 효과를 제공할 수 있는 영상이고, 상기 실제 물체의 배경에 표시되는 가상물체 (배경) 영상은 상기 실제 물체와 합성된 증강현실 물체 자체의 음영이거나 또는 상기 실제 물체와 합성된 증강현실 물체의 배경에 표시되는 음영과 합성되어 증강현실 물체의 음영과는 상이한 미리 정해진 콘텐츠에 대응되는 음영을 표시할 수 있는 영상일 수 있다. In addition, according to the above-described embodiment of the present invention, the virtual object (projection) image displayed on the real object reflects the virtual texture, characteristics, state changes, etc., and has the effect of displaying a 3D augmented reality object. An image that can be provided, and the virtual object (background) image displayed on the background of the real object is a shadow of the augmented reality object itself synthesized with the real object or displayed on the background of the augmented reality object synthesized with the real object. It may be an image that is combined with the shadow to display a shadow corresponding to a predetermined content different from that of the augmented reality object.

도 2a 와 도 2b는 본 발명의 제1 실시예에 따른, 가상물체 영상을 투사하기 전과 후를 비교하는 도면이다. 2A and 2B are diagrams comparing before and after projecting a virtual object image according to a first embodiment of the present invention.

본 발명의 제1 실시예에서는 광원의 위치가 실시간으로 제어부에서 확인되고 있다고 가정한다. In the first embodiment of the present invention, it is assumed that the position of the light source is confirmed in real time by the control unit.

먼저, 도 2a는 본 발명의 제1 실시예에 따른, 가상물체 영상이 투사되기 전의 상태를 나타내는 도면이다. 상기 도 2a에서 배경은 모니터(210)로 예시적으로 설정되어 있다. 도 2a를 도 1a 및 도 1b와 함께 참조하면, 광원부(110)가 비추는 대상인 실제 물체(220)는 미리 지정된 위치에 위치되어 있으며, 그에 따라 사용자는 실제 물체(220)의 위치를 미리 알 수 있다. 상기 실제 물체(220)는 현실에 존재하는 물체(상기 증강현실 물체에 대응될 수 있다)일 수 있다. First, FIG. 2A is a diagram showing a state before a virtual object image is projected according to a first embodiment of the present invention. In FIG. 2A, the background is illustratively set as the monitor 210. Referring to FIG. 2A together with FIGS. 1A and 1B, the actual object 220, which is the object illuminated by the light source 110, is located at a predetermined location, and accordingly, the user can know the location of the actual object 220 in advance. . The real object 220 may be an object existing in reality (which may correspond to the augmented reality object).

상술한 도 2a에 도시된 본 발명의 제1 실시예에서는 설명의 간편성을 위해 한쪽 면만 배경이고, 1개의 광원부만이 사용되는 경우를 예시적으로 도시하고 있지만, 당업자라면 4면이 배경으로 설정되고, 복수 개의 광원을 조명으로 사용할 수 있다는 것을 충분히 이해할 수 있을 것이다. In the first embodiment of the present invention shown in FIG. 2A described above, for convenience of explanation, only one side is a background, and only one light source unit is used as an example, but those skilled in the art have four sides set as the background. , It will be fully understood that a plurality of light sources can be used as illumination.

도 2b는 본 발명의 제1 실시예에 따른, 가상물체 영상이 투사된 후의 상태를 도시하는 도면이다. 상기 제1 실시예에서 실제 물체(220) 표면에 가상물체 영상이 프로젝션(투사)되어 있다.2B is a view showing a state after a virtual object image is projected according to a first embodiment of the present invention. In the first embodiment, a virtual object image is projected (projected) on the surface of the real object 220.

가상물체 영상이 투사되기 전에는 단색으로 보이던 실제 물체(220)가 가상물체 영상이 투사되자 문과 창문이 있는 벽돌집 형상의 증강현실 물체(230)로 보이는 것을 확인할 수 있다. 즉, 도 2b에 도시된 바와 같이, 본 발명의 제1 실시예에 따르면, 실제 물체(220) 상에 가상물체 영상을 투사함으로써, 가상물체 영상의 투사 전의 단순한 정육면체 형태의 실제 물체(220)의 영상이 문 틀과 창문 틀을 구비한 증강현실 물체(230)의 영상으로 구현하는 것이 가능하여 사용자에게 입체감과 현실감이 표현될 수 있다. 즉, 도 2b에 도시된 실시예에서는, 가상물체 영상 투사 전의 실제 물체(220)에는 없는 증강현실 물체(230)의 상기 문 틀과 창문 틀에도 음영이 표시될 수 있다. 상기 증강현실 물체(230) 상에 표시된 음영은 복수개의 영상 표시 장치를 활용하여 표시될 수 있다. Before the virtual object image is projected, it can be seen that the real object 220, which appeared as a single color, appears as the augmented reality object 230 in the shape of a brick house with doors and windows when the virtual object image is projected. That is, as shown in FIG. 2B, according to the first embodiment of the present invention, by projecting the virtual object image on the real object 220, the real object 220 in the form of a simple cube before projection of the virtual object image It is possible to implement the image as an image of the augmented reality object 230 having a door frame and a window frame, so that a stereoscopic and realistic feeling can be expressed to the user. That is, in the embodiment illustrated in FIG. 2B, shadows may be displayed on the door frame and the window frame of the augmented reality object 230 that are not present on the real object 220 before projecting the virtual object image. The shadow displayed on the augmented reality object 230 may be displayed using a plurality of image display devices.

또한, 배경인 모니터(210) 상으로 증강현실 물체(230)의 음영(240,250)이 생기는 것을 확인할 수 있다. 음영(240)은 모니터(210)에 가상물체 영상 전체의 음영이 표시되어 있다. 즉, 제어부(130)가 광원부(110)의 빛의 투사 각도에 맞추어 배경인 모니터(210) 상에 증강현실 물체(230)의 음영을 가상으로 생성한 것이다. 상기 음영(240)의 영상은 모니터(210)의 위치에 가상의 벽이 있는 것처럼 가상 공간을 구성하여, 증강현실 물체(230)의 음영(240)의 상부 일부가 가상의 벽에 투사되는 것을 표시하고 있다.In addition, it can be seen that the shadows 240 and 250 of the augmented reality object 230 are generated on the monitor 210 that is the background. The shade 240 is displayed on the monitor 210 as a shadow of the entire virtual object image. That is, the controller 130 virtually generates the shadow of the augmented reality object 230 on the monitor 210 in the background in accordance with the light projection angle of the light source 110. The image of the shadow 240 constitutes a virtual space as if there is a virtual wall at the position of the monitor 210, indicating that the upper part of the shadow 240 of the augmented reality object 230 is projected on the virtual wall Doing.

또 다른 음영(250)은 광원부(110)에 방출된 실제 빛에 의해 실제 바닥면 위에 형성된 증강현실 물체(230)의 음영이다. Another shade 250 is a shadow of the augmented reality object 230 formed on the actual bottom surface by the actual light emitted from the light source unit 110.

상기 제1 실시예에서 상기 음영(240,250)들 간의 연결부분이 일치될 수 있다. 상기 모니터(210)가 바닥에 붙어 있는 경우를 가정하면 사용자가 시각적으로 가상물체 영상과 현실을 구분하기 어렵기 때문에 높은 현실감을 경험할 수 있다. In the first embodiment, connection portions between the shades 240 and 250 may be matched. Assuming that the monitor 210 is attached to the floor, it is difficult for a user to visually distinguish a virtual object image from reality, so that a high reality can be experienced.

도 3a, 도3b, 도 3c, 및 도 3d는 각각 도 2b에 도시된 본 발명의 제1 실시예에서, 상이한 광원부의 위치가 반영된 결과를 도시하는 도면이다. 3A, 3B, 3C, and 3D are diagrams showing results of reflecting positions of different light sources in the first embodiment of the present invention shown in FIG. 2B, respectively.

구체적으로, 도 3a, 도3b, 도 3c 및 도 3d는 상기 제1 실시예에서 사용자가 광원부(110)의 위치 및/또는 각도를 변경하는 경우, 실시간으로 변화하는 음영을 나타내고 있다. Specifically, FIGS. 3A, 3B, 3C, and 3D show shadows changing in real time when a user changes the position and/or angle of the light source unit 110 in the first embodiment.

좀 더 구체적으로, 도 3a는, 도 2b와 함께 참조하면, 증강현실 물체(220)를 기준으로 우측 상단에 광원부(110)가 위치한 경우를 나타내는 도면이다. 상기 광원부(110)를 움직이는 사용자는 상기 증강현실 물체(220)의 우측이 가장 밝고 증강현실 물체(220)의 좌측에 증강현실 물체(220) 자체의 음영이 생기며, 배경 상에 증강현실 물체(220) 전체의 음영(320)이 생겨 가상의 벽이 있는 것으로 인식할 수 있다. 상기 증강현실 물체(220)의 상단(310)이 밝은 것을 확인할 수 있다.More specifically, FIG. 3A is a diagram illustrating a case in which the light source unit 110 is located at the upper right of the augmented reality object 220 with reference to FIG. 2B. The user moving the light source unit 110 has the brightest right side of the augmented reality object 220 and a shadow of the augmented reality object 220 itself on the left side of the augmented reality object 220, and augmented reality object 220 on the background. ) It can be recognized that there is a virtual wall because the entire shadow 320 is formed. It can be seen that the top 310 of the augmented reality object 220 is bright.

도 3b는, 도 2b와 함께 참조하면, 도 2b의 실시예에서 사용자가 상기 광원부(110)를 우측 하단으로 이동시킨 경우를 나타내는 도면이다. 상기 도 3a에 도시된 실시예의 경우와 비교하면 증강현실 물체(220)의 상부에 음영(330)이 생생되며, 배경에도 변경된 광원부(110)의 위치를 반영하여 증강현실 물체(220) 전체의 변경된 음영(340)이 생성된 것을 알 수 있다. FIG. 3B is a view illustrating a case in which the user moves the light source unit 110 to the lower right in the embodiment of FIG. 2B with reference to FIG. 2B. Compared to the case of the embodiment shown in FIG. 3A, a shadow 330 is formed on the upper portion of the augmented reality object 220, and the background changes the entire augmented reality object 220 by reflecting the changed position of the light source unit 110. It can be seen that the shade 340 is generated.

도 3c는, 도 2b와 함께 참조하면, 도 2b의 실시예에서 사용자가 상기 광원부(110)를 좌측 하단으로 이동시킨 경우를 나타내는 도면이다. 도 3c의 실시예에서는, 상기 도 3a에 도시된 실시예와 유사하게 상기 증강현실 물체(220)의 상부(350), 우측(360)과 배경에 상기 광원부(110)의 이동을 반영한 각각의 음영(350,360,370)이 확인될 수 있다. 상기 음영(350,360,370)은 도 3c에 도시된 바와 같은 증강현실 물체(220)를 표시하도록 가상물체 영상의 투사를 통해 이루어질 수 있다. FIG. 3C is a view showing a case in which the user moves the light source unit 110 to the lower left in the embodiment of FIG. 2B with reference to FIG. 2B. In the embodiment of FIG. 3C, similar to the embodiment shown in FIG. 3A, each shade reflecting the movement of the light source unit 110 on the upper 350, right 360, and background of the augmented reality object 220. (350,360,370) can be identified. The shadows 350, 360, and 370 may be made through projection of a virtual object image to display the augmented reality object 220 as shown in FIG. 3C.

도 3d는, 도 2b와 함께 참조하면, 도 2b의 실시예에서 상기 사용자가 상기 광원부(110)를 좌측 상단으로 이동시킨 경우를 나타내는 도면이다. 상기 도 3c와 비교하면 증강현실 물체(220)의 상부(380)와 우측(390)의 음영(330,390)으로부터 상기 광원부(110)의 이동이 반영된 것을 알 수 있다. 만일 상기 광원부(110)가 충분히 높은 위치까지 이동하는 경우, 미리 설정된 가상의 벽에 증강현실 물체(220)의 음영이 생기지 않을 수 있다. FIG. 3D is a diagram illustrating a case where the user moves the light source unit 110 to the upper left in the embodiment of FIG. 2B with reference to FIG. 2B. Compared to FIG. 3C, it can be seen that the movement of the light source unit 110 is reflected from the shadows 330 and 390 of the upper 380 and the right 390 of the augmented reality object 220. If the light source unit 110 moves to a sufficiently high position, a shadow of the augmented reality object 220 may not be generated on a preset virtual wall.

도 4a, 도4b, 및 도4c는 각각 본 발명의 제2 실시예에 따른 영상 처리 결과를 도시하는 도면이다. 4A, 4B, and 4C are diagrams respectively showing image processing results according to the second embodiment of the present invention.

구체적으로 도 4a, 도4b, 및 도4c는 각각 상기 도 2a 및 도 2b에 도시된 제1 실시예의 경우에서, 배경에 투사되는 음영 자체가 변화하는 경우를 나타내고 있다. 이러한 음영 자체의 변화는 빛에 의해 생성된 음영이 각도에 따라 왜곡되어 본래 생성되어야 할 음영과는 다른 형태의 음영을 보여주는 그림자 왜곡 현상을 활용하여 구현될 수 있다. 하나의 예로는, CG(컴퓨터 그래픽)를 이용해 증강현실 물체의 가상 음영을 만들어 증강현실 물체와는 다른 형태의 음영을 생성할 수 있다. 상기 다른 형태의 음영은 증강현실 물체로부터 쉽게 상상할 수 있는 형태로 설정될 수 있다. 예를 들어, 후술하는 도 4a의 실시예에서, 증강현실 물체(410)는 직육면체 블록이지만 배경에 표시된 가상 음영(420)은 집을 보여준다. 상기 제2 실시예는 사용자가 익히 알고 있는 공지의 그림자 왜곡 현상을 활용한 것으로, 사용자로 하여금 지적인 유희를 느끼게 하며, 상상력을 자극하고, 증강현실의 신비감과 맞물려 독특한 증강현실 경험을 제공할 수 있다.Specifically, FIGS. 4A, 4B, and 4C respectively show a case in which the shadow itself projected on the background changes in the case of the first embodiment shown in FIGS. 2A and 2B. The change of the shading itself may be implemented by utilizing a shadow distortion phenomenon in which a shading generated by light is distorted according to an angle to show a shading different from the shading to be originally generated. As an example, using CG (computer graphics) to create a virtual shade of an augmented reality object, Other shapes can be created. The other form of shading may be set in a form imaginable from an augmented reality object. For example, in the embodiment of FIG. 4A described below, the augmented reality object 410 is a cuboid block, but the virtual shade 420 displayed in the background shows the house. The second embodiment utilizes a well-known shadow distortion phenomenon known to the user, and allows the user to feel an intellectual play, stimulates the imagination, and provides a unique augmented reality experience by engaging with the mystery of augmented reality. .

구체적으로, 도 4a는 증강현실 물체를 기준으로 좌측 하단에 광원이 위치하는 경우를 나타낸 것이다. 상기 도 2a 및 도 2b에 도시된 제1 실시예와 비교하면, 도 4a에 도시된 본 발명의 제2 실시예에서는, 상기 증강현실 물체(410)에 벽돌 질감은 표현되지 않았으나, 상기 광원부(110)의 실제 빛에 의해, 증강현실 물체(410)의 상부에 실제 음영이 나타난 것을 알 수 있다. 그리고 상기 실제 음영에 대응되는 방향에 상기 증강현실 물체(410)의 가상 음영(420)이 모니터 상에 생성될 수 있다. 그리고 상기 가상 음영(420)이 단순한 증강현실 물체(410)에 대응되는 정육면체의 음영이 아닌 굴뚝과 창문이 있는 집을 보여주는 가상 음영(420)으로 표시될 수 있다. Specifically, FIG. 4A shows a case in which the light source is located at the bottom left of the augmented reality object. Compared to the first embodiment shown in FIGS. 2A and 2B, in the second embodiment of the present invention shown in FIG. 4A, a brick texture is not expressed on the augmented reality object 410, but the light source unit 110 ), it can be seen that the actual shadow appears on the top of the augmented reality object 410. In addition, a virtual shadow 420 of the augmented reality object 410 may be generated on the monitor in a direction corresponding to the actual shadow. In addition, the virtual shadow 420 may be displayed as a virtual shadow 420 showing a house with a chimney and a window rather than a cube of a cube corresponding to the simple augmented reality object 410.

상기 도 4a, 4b, 4c에서 사용된 광원부(110)는 스포트라이트 형태일 수 있으며, 상기 광원부(110)에 의해 조명되는 밝은 부분에만 음영이 나타날 수 있다. 그리고, 상기 도 4a의 가상 음영(420)에는 굴뚝 연기와 사람의 음영 등이 표현되지 않았지만, 상기 광원부(110)의 3차원 위치, 방향 및 각도 등에 따라 상기 굴뚝 연기와 사람의 음영 등이 표현될 수 있다.The light source unit 110 used in FIGS. 4A, 4B, and 4C may be in the form of a spotlight, and shadows may appear only on bright portions illuminated by the light source unit 110. In addition, although the chimney smoke and the shadow of the person are not expressed in the virtual shade 420 of FIG. 4A, the chimney smoke and the shadow of the person may be expressed according to the three-dimensional position, direction, and angle of the light source 110. Can be.

도 4b는 사용자가 광원부(110)를 이동시키거나 상기 광원부(110)의 조명시간 또는 광량에 기반하여 배경에 투사되는 음영(430)이 가변 되는 경우를 나타낸 것이다. 사용자는 상기 광원부(110)를 이동시켜 증강현실 물체와의 각도와 거리를 변화시킬 수 있으며, 이에 따라 배경에 투사되는 가상 음영(430)이 변화될 수 있다. 도 4b에 도시된 실시예를 도 4a에 도시된 실시예와 비교하면, 사용자가 상기 광원부(110)와 상기 증강현실 물체 사이의 각도와 거리를 변화시켜 상기 가상 음영(430)이 변화된 것을 알 수 있다. FIG. 4B illustrates a case in which the user moves the light source unit 110 or the shadow 430 projected on the background varies based on the illumination time or the amount of light of the light source unit 110. The user may change the angle and distance from the augmented reality object by moving the light source unit 110, and accordingly, the virtual shadow 430 projected on the background may be changed. When the embodiment shown in FIG. 4B is compared with the embodiment shown in FIG. 4A, the user can see that the virtual shadow 430 has been changed by changing the angle and distance between the light source unit 110 and the augmented reality object. have.

구체적으로, 사용자가 상기 광원부(110)을 이동시켜 상기 증강현실 물체와의 거리를 변화시키면, 상기 광원부(110)의 조명 면적이 넓어짐에 따라 상기 도 4a의 음영(420) 에는 표현되지 못했던 굴뚝 연기가 표현될 수 있다. 그리고 상기 사용자가 상기 광원부(110)을 이동시켜 상기 증강현실 물체와의 각도를 변화시키면, 상기 증강현실 물체의 한쪽 면만이 조명될 수 있다. 상기 각도의 변화에 따라, 상기 가상 음영(430)이 변화되어 가상물체(집)의 한쪽 면과 창문만 표현 될 수 있다.Specifically, when the user changes the distance from the augmented reality object by moving the light source unit 110, chimney smoke that was not expressed in the shadow 420 of FIG. 4A as the lighting area of the light source unit widens. Can be expressed. In addition, when the user changes the angle with the augmented reality object by moving the light source unit 110, only one side of the augmented reality object may be illuminated. According to the change of the angle, the virtual shade 430 is changed so that only one side and a window of the virtual object (house) can be expressed.

도 4c는 사용자가 광원부(110)를 이동시키거나 상기 광원부(110)의 조명시간 또는 광량에 기반하여 배경에 투사되는 음영(430)이 가변 되는 또 다른 경우를 나타낸 것이다. 도 4b에 도시된 실시예와 마찬가지로, 상기 도 4c에 도시된 실시예를 상기 도 4a에 도시된 실시예와 비교하면, 사용자가 상기 광원부(110)와 상기 증강현실 물체 사이의 각도와 거리를 변화시켜 상기 가상 음영(440)이 변화된 것을 알 수 있다. 4C shows another case in which the user moves the light source unit 110 or the shadow 430 projected on the background is variable based on the illumination time or the amount of light of the light source unit 110. Similar to the embodiment shown in FIG. 4B, when the embodiment shown in FIG. 4C is compared with the embodiment shown in FIG. 4A, the user changes the angle and distance between the light source unit 110 and the augmented reality object It can be seen that the virtual shadow 440 has been changed.

구체적으로, 사용자는 광원부(110)와 증강현실 물체와의 각도 변화시켜 상기 도 4b와는 다른 쪽 면을 조명할 수 있다. 상기 사용자의 조명에 의해 생성된 가상 음영(440)이 실제 음영과 일치하는 방향에 대응하여 배경(모니터)에 생성될 수 있다. 그리고 상기 광원부(110)와 증강현실 물체 사이의 각도와 거리에 따라 상기 도 4a에서는 표현되지 않았던 가상물체(사람)가 표현될 수 있다. Specifically, the user may illuminate the other side of the light source unit 110 and the augmented reality object by changing the angle of FIG. 4B. The virtual shadow 440 generated by the lighting of the user may be generated in the background (monitor) in correspondence to a direction matching the actual shadow. In addition, a virtual object (person) not represented in FIG. 4A may be expressed according to the angle and distance between the light source unit 110 and the augmented reality object.

상기 도 4a, 4b, 4c에는 사용자가 변화시키는 광원부(110)와 증강현실 물체 사이의 각도 및 거리 중 적어도 하나에 기반하여 변화되는 가상 음영(420, 430, 440)에 대한 실시예가 표현되어 있다. 그리고 사용자는 상기 광원부(110)을 조종 함으로서, 실제 음영과 가상 음영의 상호작용으로 구현되는 증강현실을 경험할 수 있다.4A, 4B, and 4C illustrate embodiments of virtual shadows 420, 430, and 440 that change based on at least one of an angle and a distance between a light source unit 110 and augmented reality objects that the user changes. And the user can experience the augmented reality realized by the interaction of the actual shade and the virtual shade by manipulating the light source 110.

또한, 상기 증강현실은 빛과 음영을 매개로 이용하게 되므로, 미리 정해진 주제에 따라 빛의 특성을 활용하여 구현될 수 있다. 예를 들어, 가상물체 영상과 증강현실 물체의 음영이 합성되어 증강현실이 구현될 수 있고, 그림자 왜곡 현상을 이용하여 표현되는 가상물체의 음영이 상이해지는 방식으로 증강현실이 구현될 수 있다. 상기 주제는 후술하는 바와 같이 다양할 수 있다. 그리고 사용자는 상기 증강현실을 체험 함으로서, 재미를 느끼거나 특별한 경험을 할 수 있다.In addition, since the augmented reality uses light and shade as a medium, it can be implemented by utilizing light characteristics according to a predetermined theme. For example, augmented reality may be implemented by combining a virtual object image and a shadow of an augmented reality object, and augmented reality may be implemented in a manner in which the shadow of a virtual object expressed using a shadow distortion phenomenon is different. The subject can be varied as described below. And the user can have fun or have a special experience by experiencing the augmented reality.

도 5는 본 발명의 제3 실시예에 따른 나뭇잎의 생장을 주제로 하는 가상물체 영상을 순차적으로 도시하는 도면이다. 5 is a view sequentially showing a virtual object image with the theme of growth of leaves according to a third embodiment of the present invention.

미리 정해진 위치에 증강현실 물체로 나무가 사용자에게 제공될 수 있다(510). 상기 나무는 잎이 없는 형태로, 가상물체 영상으로 제공되거나, 실제 물체로 구현될 수 있다. 상기 사용자가 상기 나무(증강현실 물체)에 광원부(110)을 일정 시간 조명하게 되면, 영상표시부(140)에 의해 표시된 가상물체 영상과 상기 증강현실 물체에 의해서 나뭇가지에서 잎이 자라나는 것처럼 보일 수 있다(520). A tree may be provided to the user as an augmented reality object at a predetermined location (510). The tree may be provided as a virtual object image in a form without leaves, or may be implemented as a real object. When the user illuminates the light source unit 110 on the tree (augmented reality object) for a certain time, the virtual object image displayed by the image display unit 140 and the augmented reality object may appear to grow leaves on the tree branch. (520).

그리고 상기 사용자가 상기 증강현실 물체(나무)를 조명하는 시간이 증가함에 따라 상기 가상물체 영상이 변화할 수 있다. 상기 제3 실시예에서는 상기 가상물체 영상에 의해 생성된 나뭇잎의 색이 변경되어 낙엽이 되고(530), 상기 낙엽이 떨어져서(540) 본래 잎이 없는 형태(510)로 되돌아 갈 수 있다. 상기 사용자가 광원부(110)를 조명하는 시간에 기반하여 상기 가상물체 영상이 반복될 수 있으며, 상기 사용자는 생명의 순환을 반복하여 체험할 수 있다. In addition, as the time for the user to illuminate the augmented reality object (tree) increases, the virtual object image may change. In the third embodiment, the color of the leaves generated by the virtual object image is changed to fall leaves (530), and the leaves fall (540) to return to the original leafless form (510). The virtual object image may be repeated based on the time when the user illuminates the light source unit 110, and the user may repeatedly experience the cycle of life.

도 6은 본 발명의 제4 실시예에 따른 꽃과 나비를 주제로 하는 가상물체 영상을 순차적으로 도시하는 도면이다. 6 is a view sequentially showing a virtual object image with the theme of a flower and a butterfly according to a fourth embodiment of the present invention.

상기 도 5에서와 마찬가지로, 미리 정해진 위치에 증강현실 물체로 꽃이 표현되지 않은 복수 개의 꽃밭이 사용자에게 제공될 수 있다(610). 그리고 사용자가 광원부(110)로 조명하는 증강현실 물체(꽃밭)에만 가상물체 영상에 의해 꽃이 표현될 수 있다(620). 상기 꽃이 일정시간 이상 표현되면, 꽃을 따라다니는 벌이 가상물체 영상으로 표현될 수 있다(630).As in FIG. 5, a plurality of flower gardens in which flowers are not expressed as augmented reality objects at predetermined positions may be provided to the user (610). In addition, the flower may be expressed by the virtual object image only on the augmented reality object (flower garden) illuminated by the user with the light source unit 620. If the flower is expressed for a certain period of time or more, a bee following the flower may be expressed as a virtual object image (630).

그리고 상기 사용자가 조명하는 증강현실 물체(꽃밭)를 변경하면, 조명을 받은 꽃밭에만 꽃과 벌이 표현될 수 있다(640). 상기 제4 실시예에서 사용자가 광원부(110)을 태양처럼 이용하여 자연물을 생장시키는 경험을 할 수 있다.Then, when the augmented reality object (flower field) illuminated by the user is changed, flowers and bees may be expressed only in the illuminated flower field (640). In the fourth embodiment, a user may experience using a light source unit 110 like the sun to grow natural objects.

도 7은 본 발명의 제5 실시예에 따른 물의 순환과정을 순차적으로 나타내는 도면이다. 7 is a view sequentially showing a water circulation process according to a fifth embodiment of the present invention.

상기 도 5 및 도 6과 마찬가지로, 미리 정해진 위치에 증강현실 물체로 물과 강(강물의 수위가 0일 수 있다)이 사용자에게 제공될 수 있다(710). 상기 사용자가 광원부(110)를 이용하여 물을 조명하면 가상물체 영상으로 수증기가 생성되어 표현될 수 있다(720). 상기 물을 조명하는 시간이 증가되면 상기 수증기의 발생이 활발해지고(730), 구름이 형성되는 모습이 가상물체 영상으로 표현될 수 있다(740).5 and 6, water and river (water level of the river may be 0) as an augmented reality object at a predetermined location may be provided to the user (710). When the user illuminates the water using the light source 110, water vapor may be generated and expressed as a virtual object image (720). When the time to illuminate the water is increased, the generation of water vapor becomes active (730), and a cloud formation may be expressed as a virtual object image (740).

그리고 구름이 생성되면 비가 내리는 모습(740)이나, 증강현실 물체로 구현된 강의 수위가 증가하는 모습과 강 속에서 사는 물고기가 가상물체 영상으로 표현될 수 있다(750). 상기 사용자는 광원부(110)을 조명하여 물의 순환 과정을 경험할 수 있다.In addition, when a cloud is generated, it may be expressed as a virtual object image (750) when it rains (740), or when the water level of the river realized by the augmented reality object increases and the fish living in the river increase (750). The user can experience the circulation process of the water by illuminating the light source unit 110.

상기 도 5, 도 6 및 도 7의 실시예들에 기반하여 생태계의 인과관계를 설명하는 인터랙티브 스토리텔링이 제공될 수 있다. 그리고 상기 실시예들은 어린이 교육용 인터랙티브 영상물 자료로 활용될 수 있으며, 본 발명에 의해서 어린이들의 지적, 정서적 능력이 발달하고 상상력이 증대되는 효과가 달성될 수 있다.Based on the embodiments of FIGS. 5, 6, and 7, interactive storytelling describing a causal relationship of an ecosystem may be provided. In addition, the above embodiments may be used as interactive video material for children's education, and according to the present invention, an effect of developing intellectual and emotional abilities of children and increasing imagination can be achieved.

도 8은 본 발명의 제6 실시예에 따른 사용자가 어둠 속을 탐험하면서 증강현실을 체험하는 것을 나타내는 도면이다. 8 is a diagram illustrating a user experiencing augmented reality while exploring in the dark according to a sixth embodiment of the present invention.

상기 사용자는 광원부(110)를 이용하여 증강현실 물체를 조명하는 적어도 한 명 이상(810, 811)의 탐험자와 광원부(110)를 이용하지 않는 일행(812, 813)으로 구성될 수 있다. 상기 사용자가 체험하는 공간은 조명이 없어 암전 상태이고, 상기 사용자에게 제공된 광원 장치(상술한 광원부(110)에 대응될 수 있음)에만 반응하여 가상물체 영상이 표현되도록 구현될 수 있다. The user may be composed of at least one explorer (810, 811) illuminating the augmented reality object using the light source unit (110) and a party (812, 813) not using the light source unit (110). The space experienced by the user may be implemented such that a virtual object image is expressed in response to only the light source device provided to the user (which may correspond to the light source unit 110 described above) without lighting.

상기 공간에는 상기 제1 실시예 내지 제5 실시예를 포함하는 다양한 증강현실이 구현될 수 있으며(820, 830), 상기 사용자는 빛의 방사 각도가 제한적인 광원부(110)를 이용하여 손전등으로 어둠 속을 탐험하는 듯한 경험을 할 수 있다. 그에 따라, 사용자가 손전등과 같은 광원 장치를 이용하여 빛을 비추어 숨겨진 증강현실 물체를 하나씩 찾아내면 각각의 증강현실 물체 및 음영을 확인하고 그에 따라 사용자로 하여금 상기 전시공간을 구성하고 있는 각각의 증강현실 물체들 간의 인과 관계와 공간의 규칙을 발견하게 할 수 있다. 상기 제6 실시예는 어둠 속 손전등 탐험을 사용자 경험의 주제로 삼아, 사용자에게 실감형 몰입 경험을 제공할 수 있다.Various augmented reality including the first to fifth embodiments may be implemented in the space (820, 830), and the user can use the light source unit 110 having a limited emission angle of light to darken it with a flashlight. You can experience exploring the inside. Accordingly, when the user illuminates light using a light source device such as a flashlight to find the hidden augmented reality objects one by one, each augmented reality object and a shadow are checked, and accordingly, each augmented reality constituting the user to configure the exhibition space Causal relationships between objects and rules of space can be discovered. The sixth embodiment may use a flashlight exploration in the dark as a theme of a user experience, to provide a immersive experience to the user.

상술한 바와 같이, 본 발명에서는, 사용자가 광원부(110) 자체를 움직이도록 조종하여 증강현실의 현실감을 높일 수 있으므로, 사용자에게 독특한 경험과 재미를 제공할 수 있다. 즉, 사용자의 행동이나 동작이 현실감을 상승시키는 독특한 실감몰입 경험을 유발할 수 있다. 또한, 광원부(110)가 없는 사용자의 경우에도, 광원부(110)을 가진 다른 사용자의 행동이나 동작을 지켜봄으로써 다른 사용자와 동일한 현실감 상승을 경험할 수 있다.As described above, in the present invention, since the user can control the light source unit 110 to move itself, the augmented reality reality can be increased, thereby providing a unique experience and fun to the user. That is, a user's action or motion may cause a unique immersive experience that increases the sense of reality. In addition, even in the case of a user without the light source 110, it is possible to experience the same realism increase as other users by watching the actions or actions of other users with the light source 110.

본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정한 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. The embodiments of the present invention disclosed in the specification and drawings are merely intended to easily describe the technical contents of the present invention and to provide specific examples to help understanding of the present invention, and are not intended to limit the scope of the present invention. It is apparent to those skilled in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

Claims (10)

증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 방법에 있어서,
a) 사용자에 의해 움직이는 광원부와 서로 다른 곳에 위치하는 복수의 광학 송수신기가 빔을 서로 송수신하는 단계;
b) 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자가 서로 송수신한 상기 빔과 상기 광원부 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하는 단계;
c) 상기 b) 단계에서의 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 단계; 및
d) 상기 처리된 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 단계를 포함하고,
상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 영상인 것을 특징으로 하되,
상기 b) 단계는,
상기 광원부의 상기 3차원 위치, 방향, 및 각도를 미리 정해진 시간 간격 마다 확인하는 단계; 및
상기 미리 정해진 시간 간격 마다 확인된 결과를 영상처리장치로 전송하는 단계를 더 포함하는 것을 특징으로 하는 방법.
In the method of processing an image by reflecting the position of a moving light source in augmented reality,
a) a plurality of optical transceivers located at different locations from the light source unit moved by the user, transmitting and receiving beams to each other;
b) 3D position and direction of the light source unit based on the 3D information of the light source unit measured by the inertial sensor located inside the light source unit and the beam transmitted or received by one or both of the light source unit and the plurality of optical transceivers , And checking an angle;
c) processing an object illuminated by the light source and a virtual object image to be displayed on the background based on the check result in step b); And
d) displaying the processed virtual object image on one or both of the object and the background,
The virtual object image is characterized in that the image that is combined with any one or both of the shadow or the background of the object generated by the object and the light source to implement augmented reality,
Step b),
Checking the three-dimensional position, direction, and angle of the light source unit at predetermined time intervals; And
And transmitting the result confirmed at the predetermined time interval to the image processing apparatus.
삭제delete 제1항에 있어서, 상기 c) 단계는,
상기 b) 단계에서의 상기 확인 결과에 기반하여 상기 광원부가 조명하는 상기 물체와 상기 배경에 표시할 상기 가상물체 영상을 생성하는 단계;
상기 생성된 가상물체 영상을 상기 광원부의 조명시간 또는 광량에 기반하여 수정하는 단계; 및
상기 수정된 가상물체 영상과 상기 광원부에 의해 생성된 상기 물체의 음영이 상호작용하기 위한 그래픽 작업을 수행하는 단계를 더 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein step c),
Generating the virtual object image to be displayed on the object and the background illuminated by the light source unit based on the confirmation result in step b);
Correcting the generated virtual object image based on an illumination time or light amount of the light source unit; And
And performing a graphic operation for interacting the shadow of the object generated by the light source unit with the modified virtual object image.
제1항에 있어서, 상기 d) 단계는,
상기 가상물체 영상을 상기 물체에 투사하는 가상물체 투사 영상과 상기 배경에 표시하는 가상물체 배경 영상을 구별하는 단계; 및
적어도 하나의 영상표시장치를 이용하여 상기 구별된 가상물체 투사 영상 및 가상물체 배경 영상 중 적어도 하나 또는 양자를 표시하는 단계를 더 포함하고,
상기 영상표시장치에 의해 표시된 상기 가상물체 투사 영상 및 상기 가상물체 배경 영상 중 적어도 하나 또는 양자는 상기 물체, 및 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 것을 특징으로 하는 방법.
The method of claim 1, wherein step d),
Distinguishing a virtual object projection image projecting the virtual object image onto the object and a virtual object background image displayed on the background; And
And displaying at least one or both of the distinguished virtual object projection image and the virtual object background image using at least one image display device,
At least one or both of the virtual object projected image and the virtual object background image displayed by the image display device is combined with either or both of the object and the shadow of the object or the background to realize augmented reality. How to do.
제1항에 있어서,
상기 물체에 표시되는 상기 가상물체 영상은 가상의 질감, 특성 및 상태변화 중 적어도 하나를 반영하는 영상이고,
상기 배경에 표시되는 상기 가상물체 영상은 상기 물체의 음영과 합성되어 미리 정해진 콘텐츠를 표현하는 영상인 것을 특징으로 하는 방법.
According to claim 1,
The virtual object image displayed on the object is an image that reflects at least one of a virtual texture, characteristic, and state change,
The method of claim 1, wherein the virtual object image displayed on the background is an image that is synthesized with the shadow of the object and expresses predetermined content.
증강현실에서 움직이는 광원의 위치를 반영하여 영상을 처리하는 장치에 있어서,
서로 빔을 송수신하는 사용자에 의해 움직이는 광원부 및 복수의 광학 송수신기;
상기 복수의 광학 송수신기 및 상기 광원부 중 어느 하나 또는 양자가 서로 상기 송수신된 상기 빔과 상기 광원부의 내부에 위치한 관성 센서에 의해 측정된 상기 광원부의 3차원 정보를 수신하며, 상기 광원부 및 상기 복수의 광학 송수신기 중 어느 하나 또는 양자로부터 수신한 상기 광원부의 3차원 정보에 기반하여 상기 광원부의 3차원 위치, 방향, 및 각도를 확인하고, 상기 확인 결과에 기반하여 상기 광원부가 조명하는 물체와 배경에 표시할 가상물체 영상을 처리하는 제어부; 및
상기 가상물체 영상을 상기 물체와 상기 배경 중 어느 하나 또는 양자에 표시하는 영상표시부를 포함하고,
상기 가상물체 영상은 상기 물체 및 상기 광원부에 의해 생성되는 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 가상 영상인 것을 특징으로 하되,
상기 제어부는,
상기 광원부의 상기 3차원 위치, 방향, 및 각도를 미리 정해진 시간 간격 마다 확인하고, 상기 미리 정해진 시간 간격 마다 확인된 결과를 영상처리장치로 전송하는 것을 특징으로 하는 장치.
In the apparatus for processing an image by reflecting the position of a moving light source in augmented reality,
A light source unit and a plurality of optical transceivers that are moved by users transmitting and receiving beams to each other;
One or both of the plurality of optical transceivers and the light source unit receive three-dimensional information of the light source unit measured by the beam transmitted and received and an inertial sensor located inside the light source unit, and the light source unit and the plurality of optical units Based on the 3D information of the light source unit received from any one or both of the transceivers, the 3D position, direction, and angle of the light source unit are checked and displayed on the object and background illuminated by the light source unit based on the verification result. A control unit for processing the virtual object image; And
And an image display unit for displaying the virtual object image on one or both of the object and the background.
The virtual object image is characterized in that the virtual image to realize augmented reality by being synthesized with either or both of the background or the shadow generated by the object and the light source unit,
The control unit,
And confirming the three-dimensional position, direction, and angle of the light source unit at predetermined time intervals, and transmitting the confirmed results at the predetermined time intervals to an image processing apparatus.
삭제delete 제6항에 있어서, 상기 제어부는,
상기 확인 결과에 기반하여 상기 광원부가 조명하는 상기 물체와 상기 배경에 표시할 상기 가상물체 영상을 생성하고, 상기 생성된 상기 가상물체 영상을 상기 광원부의 조명시간 또는 광량에 기반하여 수정하고, 상기 수정된 상기 가상물체 영상과 상기 광원부에 의해 생성된 상기 물체의 음영이 상호작용하기 위한 그래픽 작업을 수행하는 것을 특징으로 하는 장치.
The method of claim 6, wherein the control unit,
Based on the check result, the virtual object image to be displayed on the object and the background illuminated by the light source unit is generated, and the generated virtual object image is corrected based on the illumination time or the amount of light of the light source unit, and the correction is performed. And performing a graphic operation for interacting with the virtual object image and the shadow of the object generated by the light source unit.
제6항에 있어서, 상기 영상표시부는,
상기 가상물체 영상을 상기 물체에 투사하는 가상물체 투사 영상과 상기 배경에 표시하는 가상물체 배경 영상을 구별하고, 적어도 하나의 영상표시장치를 이용하여 상기 구별된 가상물체 투사 영상 및 가상물체 배경 영상 중 적어도 하나 또는 양자를 표시하고,
상기 영상표시장치에 의해 표시된 상기 가상물체 투사 영상 및 상기 가상물체 배경 영상 중 적어도 하나 또는 양자는 상기 물체, 및 상기 물체의 음영 또는 상기 배경 중 어느 하나 또는 양자와 합성되어 증강현실을 구현하는 것을 특징으로 하는 장치.
The method of claim 6, wherein the image display unit,
Distinguish between the virtual object projection image projecting the virtual object image on the object and the virtual object background image displayed on the background, and using at least one image display device to distinguish among the distinguished virtual object projection image and virtual object background image. Indicate at least one or both,
At least one or both of the virtual object projected image and the virtual object background image displayed by the image display device is combined with either or both of the object and the shadow of the object or the background to realize augmented reality. Device.
제6항에 있어서,
상기 물체에 표시되는 상기 가상물체 영상은 가상의 질감, 특성 및 상태변화 중 적어도 하나를 반영하는 영상이고,
상기 배경에 표시되는 상기 가상물체 영상은 상기 물체의 음영과 합성되어 미리 정해진 콘텐츠를 표현하는 영상인 것을 특징으로 하는 장치.
The method of claim 6,
The virtual object image displayed on the object is an image that reflects at least one of a virtual texture, characteristic, and state change,
And the virtual object image displayed on the background is an image that is synthesized with the shadow of the object to express predetermined content.
KR1020180135199A 2018-11-06 2018-11-06 Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality KR102124564B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180135199A KR102124564B1 (en) 2018-11-06 2018-11-06 Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180135199A KR102124564B1 (en) 2018-11-06 2018-11-06 Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality

Publications (2)

Publication Number Publication Date
KR20200052074A KR20200052074A (en) 2020-05-14
KR102124564B1 true KR102124564B1 (en) 2020-06-18

Family

ID=70737179

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180135199A KR102124564B1 (en) 2018-11-06 2018-11-06 Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality

Country Status (1)

Country Link
KR (1) KR102124564B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240114981A (en) 2023-01-18 2024-07-25 서강대학교산학협력단 a 3D background model construction method based on ray tracing for disocclusion filling and a depth image based view synthesis method using the 3D background model construction method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018173A (en) * 2005-07-06 2007-01-25 Canon Inc Image processing method and image processor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100912369B1 (en) * 2007-12-13 2009-08-19 한국전자통신연구원 System and method for serving information of spot trial

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018173A (en) * 2005-07-06 2007-01-25 Canon Inc Image processing method and image processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240114981A (en) 2023-01-18 2024-07-25 서강대학교산학협력단 a 3D background model construction method based on ray tracing for disocclusion filling and a depth image based view synthesis method using the 3D background model construction method

Also Published As

Publication number Publication date
KR20200052074A (en) 2020-05-14

Similar Documents

Publication Publication Date Title
US20230087230A1 (en) Virtual reality system and method
US20200368616A1 (en) Mixed reality gaming system
KR102257255B1 (en) Mixed reality spotlight
JP4901539B2 (en) 3D image display system
JP7482881B2 (en) Augmented reality systems for recreational vehicles
US20140160162A1 (en) Surface projection device for augmented reality
CN109643014A (en) Head-mounted display tracking
CN107067456B (en) A kind of virtual reality rendering method based on depth map optimization
US8941654B2 (en) Virtual flashlight for real-time scene illumination and discovery
US20240036353A1 (en) Aerial imaging using retroreflection
KR102124564B1 (en) Apparatus and Method For Image Processing Based on Position of Moving Light Source in Augmented Reality
US20220323874A1 (en) Systems and methods for dynamic projection mapping for animated figures
RU2772301C1 (en) Augmented reality system for riding attraction
Kurabayashi et al. Sensing-by-overlaying: A practical implementation of a multiplayer mixed-reality gaming system by integrating a dense point cloud and a real-time camera
JP2003123093A (en) System and program for generating image
CN113227884B (en) Augmented reality system for amusement rides
GB2605302A (en) Virtual reality system and method
GB2605298A (en) Virtual reality system and method
Kyriazi A survey of Augmented Reality technology in the field of Cultural Heritage
PATTI Reducing motion sickness on mobile phone based VR applications using 6DoF tracking
GB2605300A (en) Virtual reality system and method
GB2605301A (en) Virtual reality system and method
GB2605299A (en) Virtual reality system and method
ES2332561A1 (en) Interactive visual immersion system (Machine-translation by Google Translate, not legally binding)
JP2011215919A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right