KR101242764B1 - Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu - Google Patents
Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu Download PDFInfo
- Publication number
- KR101242764B1 KR101242764B1 KR1020110056179A KR20110056179A KR101242764B1 KR 101242764 B1 KR101242764 B1 KR 101242764B1 KR 1020110056179 A KR1020110056179 A KR 1020110056179A KR 20110056179 A KR20110056179 A KR 20110056179A KR 101242764 B1 KR101242764 B1 KR 101242764B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- stereoscopic
- generating
- augmented reality
- right eye
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
입체 3D 영상과 GPU를 사용한 입체 증강현실 구현 장치 및 방법에 관한 것으로, 보다 상세하게는 양안 카메라를 통해 입력된 좌안 및 우안 영상 또는 단안 카메라를 통해 입력된 단일 시점 영상으로 변환한 좌안 및 우안 영상으로 입체 3D 영상을 생성함과 동시에, GPU를 이용하여 좌안과 우안의 3D 그래픽 물체를 생성하여 오버레이(Overlay)함으로써 사용자들이 진정한 입체 증강 현실을 느낄 수 있는 입체 증강 현실 영상을 생성하는 기술에 관한 것이다.The present invention relates to a device and a method for implementing stereoscopic augmented reality using a stereoscopic 3D image and a PPP, and more specifically, to a left eye and a right eye image inputted through a binocular camera or a single view image input through a monocular camera. The present invention relates to a technology for generating a stereoscopic augmented reality image that allows users to feel true stereoscopic augmented reality by generating and overlaying a 3D graphic object of left and right eyes using a GPU while simultaneously generating a stereoscopic 3D image.
Description
입체 3D 영상과 GPU를 사용한 입체 증강현실 영상 생성 장치 및 방법에 관한 것으로, 보다 상세하게는 양안 카메라를 통해 입력된 좌안 및 우안 영상 또는 단안 카메라를 통해 2D 영상을 3D 영상으로 변환하여 생성된 좌안 및 우안 영상으로 입체 3D 영상을 생성함과 동시에 일정 패턴을 인식하여 그 주위에 3D 그래픽 물체를 생성하되 좌안과 우안을 각각 생성하여 오버레이(Overlay)함으로써 입체 증강 현실 영상을 생성하는 기술에 관한 것이다.The present invention relates to an apparatus and method for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a PPP, and more specifically, to a left eye and a right eye or a monocular camera input through a binocular camera. The present invention relates to a technology for generating a stereoscopic augmented reality image by generating a 3D image with a right eye image and simultaneously generating a 3D graphic object around a predetermined pattern by recognizing a predetermined pattern and generating an overlay of the left eye and the right eye, respectively.
증강현실이란 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다. 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)으로 1990년대 후반부터 미국 일본을 중심으로 연구 개발이 진행되고 있다.Augmented reality is a technology that superimposes a virtual object on the real world seen by the user. It is also called Mixed Reality (MR) because it combines the virtual world with additional information in real time into one image. It is a hybrid VR system that converges the real environment and the virtual environment. Since the late 1990s, R & D has been focused on the United States and Japan.
현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보고 있는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다는 뜻이다. Augmented reality, a concept that complements the real world with the virtual world, uses a virtual environment made of computer graphics, but the main role is the real environment. Computer graphics serve to provide additional information needed for the real world. By overlapping the three-dimensional virtual image on the real image that the user is viewing, it means that the distinction between the real environment and the virtual screen becomes blurred.
가상현실기술은 가상환경에 사용자를 몰입하게 하여 실제환경을 볼 수 없다. 하지만 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다. 예를 들어 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기된다. Virtual reality technology immerses the user in the virtual environment and cannot see the real environment. However, augmented reality technology, which is a mixture of real environment and virtual objects, allows the user to see the real environment, providing better realism and additional information. For example, when the camera is illuminated with a smartphone camera, information such as the location and phone number of a nearby store is displayed as a stereoscopic image.
그러나, 종래에는 주로 입체가 아닌 패널을 사용하고 단일 카메라로 촬영된 실사 영상을 입체로 증강현실을 구현함으로써, 즉 일정 패턴 카드 위에 3D 물체(Object)를 나타냄으로써 입체의 느낌을 주긴 하지만 사용자가 인식하는 것이 2D이므로 그 느낌이 반감되었다.However, in the past, the user perceives a stereoscopic feeling by using a non-stereoscopic panel and implementing augmented reality in stereoscopic images of a single camera, that is, displaying a 3D object on a certain pattern card. It was 2D, so the feeling was antagonized.
또한, 종래에는 카메라의 프리뷰 이미지에 대해서만 증강현실을 지원함에 따라 카메라 연동이 항상 필요하였다.In addition, in the related art, camera augmentation has always been necessary since augmented reality is supported only for a preview image of a camera.
2D 영상이 아닌 입체 3D 영상과 GPU를 이용하여 생성된 3D 오브젝트를 오버레이하여 입체 증강현실 영상을 생성하는 기술을 제시한다.The present invention proposes a technique for generating a stereoscopic augmented reality image by overlaying a 3D object generated using a 3D image and a GPU, not a 2D image.
또한, 양안 카메라를 통해 입력된 좌안 및 우안 영상으로 입체 3D 영상을 생성하고, GPU를 이용하여 생성된 3D 오브젝트를 오버레이하여 입체 증강 현실 영상을 생성하는 기술을 제시한다.In addition, the present invention proposes a technique for generating a stereoscopic 3D image from left and right eye images input through a binocular camera, and generating a stereoscopic augmented reality image by overlaying a 3D object generated using a GPU.
또한, 단안 카메라를 통해 입력된 단일 시점 영상을 좌안 및 우안 영상으로 변환하여 입체 3D 영상을 생성하고, GPU를 이용하여 생성된 3D 오브젝트를 오버레이하여 입체 증강 현실 영상을 생성하는 기술을 제시한다.In addition, a stereoscopic 3D image is generated by converting a single viewpoint image input through a monocular camera into a left eye and a right eye image, and a technique of generating a stereoscopic augmented reality image by overlaying a 3D object generated using a GPU.
또한, 양안 카메라나 단안 카메라의 프리뷰 이미지 뿐만 아니라 다운로드 받은 입체 영상이나 단일 시점 영상을 이용하여 입체 3D 영상을 생성하고 동시에 3D 그래픽 물체를 생성하여 입체 증강 현실 영상을 생성할 수 있는 기술을 제시한다. In addition, the present invention proposes a technique for generating a stereoscopic 3D image using a downloaded stereoscopic image or a single viewpoint image as well as a preview image of a binocular camera or a monocular camera and simultaneously generating a 3D graphic object to generate a stereoscopic augmented reality image.
또한, 단일 시점 영상이나 좌안 및 우안 영상에 포함된 패턴 정보를 통해 GPU를 이용하여 3D 오브젝트를 생성하거나, 사용자로부터 입력받은 정보를 바탕으로 3D 오브젝트를 생성하여 입체 증강 현실 영상을 생성할 수 있는 기술을 제시한다.In addition, a technology capable of generating a 3D object using a GPU through a single view image or the pattern information included in the left and right eye images, or generating a 3D object based on information received from a user, to generate a stereoscopic augmented reality image. To present.
일 양상에 따르면, 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치는 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성하는 입체 영상 생성부와 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay) 될 좌안 및 우안의 3D 오브젝트(Object)를 생성하는 오브젝트 생성부 및 생성된 좌안 및 우안의 3D 오브젝트를 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이하여 입체 증강 현실 영상을 생성하는 입체 증강 현실 영상 생성부를 포함한다.According to an aspect, the apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a PGP receives a left eye and a right eye image, and generates a stereoscopic image generator and a left eye and right eye image for generating a stereoscopic 3D image from the received left and right eye images. And an object generator for generating 3D objects of left and right eyes to be overlayed at predetermined positions of the received left and right eye images, and the generated 3D objects of left and right eyes and the left and right eyes of a stereoscopic 3D image. It includes a stereoscopic augmented reality image generating unit for generating a stereoscopic augmented reality image by overlaying a predetermined position of the right eye image.
추가적인 양상에 따르면, 양안 카메라 모듈로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상입력부를 더 포함할 수 있다.According to an additional aspect, the left and right eye images from the binocular camera module may further include an image input unit for transmitting to the stereoscopic image generating unit and the object generating unit.
다른 양상에 따르면, 단안 카메라 모듈로부터 단일 시점 영상을 입력받아 영상 변환부로 전송하는 영상입력부와 영상입력부로부터 단일 시점 영상을 수신하고 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상변환부를 더 포함할 수 있다.According to another aspect, an image input unit which receives a single view image from a monocular camera module and transmits the image to the image conversion unit, receives a single view image from the image input unit, converts the image into left and right eyes, and transmits the image to the stereoscopic image generating unit and the object generating unit. The conversion unit may further include.
또 다른 양상에 따르면, 영상저장부로부터 단일 시점 영상 또는 좌안 및 우안 영상을 입력받아 영상변환부로 전송하는 영상입력부와 영상입력부로부터 수신된 영상이 좌안 및 우안 영상인 경우 입체 영상 생성부와 오브젝트 생성부로 바로 전송하고, 수신된 영상이 단일 시점 영상인 경우 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상변환부를 더 포함할 수 있다.According to another aspect, the image input unit receives a single view image or a left eye and right eye image from the image storage unit and transmits the image to the image converting unit and the stereoscopic image generating unit and the object generating unit when the image received from the image input unit is left and right eye images. When the received image is a single view image, the transmission unit may further include an image converter for converting the image into the left and right eyes and transmitting the image to the stereoscopic image generator and the object generator.
추가적인 양상에 따르면, 오브젝트 생성부는, 수신된 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 좌안 및 우안의 3D 오브젝트를 생성하기 위한 패턴 정보를 추출하는 패턴인식부 및 패턴 인식부에서 추출된 패턴 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 좌안 및 우안의 3D 오브젝트를 생성하는 그래픽 처리부를 포함할 수 있다.According to an additional aspect, the object generating unit, a pattern recognition unit and a pattern recognition unit for recognizing at least one of the patterns included in the received left eye and right eye image to extract pattern information for generating 3D objects of the left eye and right eye It may include a graphic processing unit for generating a 3D object of the left eye and the right eye by rendering using the GPU (Graphic Processing Unit) based on the pattern information extracted from.
다른 양상에 따르면, 오브젝트 생성부는, 사용자로부터 3D 오브젝트 생성 정보를 입력받는 오브젝트 정보 입력부 및 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 좌안 및 우안의 3D 오브젝트를 생성하는 그래픽 처리부를 포함할 수 있다.According to another aspect, the object generator generates a 3D object for left and right eyes by rendering using a graphic processing unit (GPU) based on an object information input unit for receiving 3D object generation information from a user and the received 3D object generation information. It may include a graphics processing unit.
일 양상에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법은, 입체 영상 생성부가 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성하는 단계와 오브젝트 생성부가 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)될 좌안 및 우안의 3D 오브젝트(Object)를 생성하는 단계 및 입체 증강 현실 영상 생성부가 생성된 좌안 및 우안의 3D 오브젝트를 입체 3D 영상의 좌안과 우안 영상의 소정의 위치에 오버레이하여 입체 증강 현실 영상을 생성하는 단계를 포함한다.According to one or more exemplary embodiments, a stereoscopic augmented reality image generation method using a stereoscopic 3D image and a PGP includes: receiving a left eye and a right eye image from a stereoscopic image generator, generating a stereoscopic 3D image from the left and right eye images, and an object generating unit from a left eye And receiving a right eye image, generating a 3D object of left and right eyes to be overlayed on a predetermined position of the received left and right eye images, and generating a 3D augmented reality image generator. And overlaying the object on predetermined positions of the left and right eyes of the stereoscopic 3D image to generate a stereoscopic augmented reality image.
추가적인 양상에 따르면, 입체 3D 영상을 생성하는 단계는, 영상입력부가 양안 카메라 모듈로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계를 포함할 수 있다.According to an additional aspect, the generating of the stereoscopic 3D image may include transmitting the left and right eye images from the binocular camera module to the stereoscopic image generator and the object generator.
다른 양상에 따르면, 입체 3D 영상을 생성하는 단계는, 영상입력부가 단안 카메라 모듈로부터 단일 시점 영상을 입력받아 영상변환부로 전송하는 단계와 영상변환부가 단일 시점 영상을 수신하고 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계를 포함할 수 있다.According to another aspect, the step of generating a stereoscopic 3D image, the image input unit receives a single view image from the monocular camera module and transmits to the image conversion unit and the image conversion unit receives the single view image and converts to the left eye and right eye image The method may include transmitting the stereoscopic image generator and the object generator.
또 다른 양상에 따르면, 입체 3D 영상을 생성하는 단계는, 영상입력부가 영상 저장부로부터 영상을 입력받아 영상변환부로 전송하는 단계와 영상변환부가 수신한 영상이 좌안 및 우안 영상인 경우 입체 영상 생성부와 오브젝트 생성부로 바로 전송하고, 그 수신한 영상이 단일 시점 영상인 경우 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계를 포함할 수 있다.According to another aspect, the step of generating a stereoscopic 3D image, the image input unit receives the image from the image storage unit and transmits the image to the image conversion unit and the stereoscopic image generation unit when the image received by the image conversion unit is left eye and right eye image And transmitting directly to the object generating unit and converting the received image into a left eye and right eye image to the stereoscopic image generating unit and the object generating unit when the received image is a single view image.
추가적인 양상에 따르면, 3D 오브젝트 생성 단계는, 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나 패턴을 인식하여 좌안 및 우안 각각의 3D 오브젝트를 생성하기 위한 패턴 정보를 추출하는 단계 및 추출된 패턴 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 좌안 및 우안의 3D 오브젝트 를 생성하는 단계를 포함할 수 있다.According to an additional aspect, the generating of the 3D object may include: extracting pattern information for generating 3D objects of each of the left and right eyes by recognizing at least one of patterns included in the left and right eye images, and extracting the extracted pattern information. Based on the rendering using the GPU (Graphic Processing Unit) may include the step of generating a 3D object of the left and right eyes.
다른 양상에 따르면, 3D 오브젝트 생성 단계는, 사용자로부터 3D 오브젝트 생성 정보를 입력받는 단계 및 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 좌안 및 우안의 3D 오브젝트를 생성하는 단계를 포함할 수 있다.According to another aspect, the 3D object generation step may include receiving 3D object generation information from a user and generating 3D objects of left and right eyes using a GPU (Graphic Processing Unit) based on the received 3D object generation information. It may include.
2D 영상이 아닌 입체 3D 영상과 GPU를 이용하여 생성된 3D 오브젝트를 오버레이하여 사용자가 증강현실을 진정한 입체로 느낄 수 있도록 하는 입체 증강현실 영상을 생성하는 장치 및 방법을 제공할 수 있다.It is possible to provide an apparatus and method for generating a stereoscopic augmented reality image that allows a user to feel augmented reality in true stereoscopic by overlaying a 3D object generated using a 3D image and a PGP, not a 2D image.
또한, 입체 3D 생성과 3D 그래픽의 시너지를 통해 입체 3D 시장 확대와 3D 그래픽 시장 확대에 기여할 수 있도록 하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치 및 방법을 제공할 수 있다. In addition, it is possible to provide an apparatus and method for generating stereoscopic 3D images and a stereoscopic augmented reality image using a WiFi to contribute to the expansion of the stereoscopic 3D market and 3D graphics market through synergy of stereoscopic 3D generation and 3D graphics.
도 1은 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성의 개념도이다.
도 2는 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다.
도 3은 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다.
도 4는 또 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다.
도 5는 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법의 흐름도이다.
도 6은 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법의 흐름도이다.FIG. 1 is a conceptual diagram of stereoscopic augmented reality image generation using a stereoscopic 3D image and a WiFi.
2 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to an exemplary embodiment.
3 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment.
4 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment.
5 is a flowchart illustrating a method of generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to an exemplary embodiment.
6 is a flowchart illustrating a method of generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
Specific details of other embodiments are included in the detailed description and the drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
이하, 실시예들에 의해 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치 및 그 방법을 설명하기 위하여 도면들을 참고하여 상세히 설명하도록 한다. Hereinafter, an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a GPU and a method thereof will be described in detail with reference to the accompanying drawings.
도 1은 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성의 개념도이다. 도 1에는 일 실시예에 따라 양안 카메라 모듈이 장착되어 입체 증강 현실 영상을 생성하는 장치가 개시되어 있다. 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치는 이하 다양한 실시예를 들어 설명하는 바와 같이, 반드시 양안 카메라 모듈이 장착되어 있는 장치임을 의미하는 것이 아니고, 단안 카메라 모듈이 장착되어 있거나, 카메라 모듈이 전혀 장착되어 있지 아니한 장치일 수 있다.FIG. 1 is a conceptual diagram of stereoscopic augmented reality image generation using a stereoscopic 3D image and a WiFi. 1 illustrates an apparatus for generating a stereoscopic augmented reality image by mounting a binocular camera module according to an embodiment. An apparatus for generating stereoscopic augmented reality images using stereoscopic 3D images and GPUs does not necessarily mean that the binocular camera module is mounted, as described with reference to various embodiments below, and is equipped with a monocular camera module or a camera module. This may be a device that is not mounted at all.
도 1을 참조하여 입체 증강 현실 영상을 생성하는 개념을 설명하면, 먼저, 양안 카메라 모듈을 통해 일정 패턴 카드와 함께 실 물체의 좌안 및 우안 영상이 촬영된다. 일정 패턴 카드는 3D 그래픽 물체(Object)를 생성하기 위한 패턴 정보를 포함하고 있다. 패턴 카드는 증강 현실에서 사용되는 마커라고 할 수 있는데, 패턴 카드(마커)는 컴퓨터 비전 기술로 인식하기 쉬운 어떤 물체를 의미하는 것이며, 예를 들어 검은 바탕에 똑바로 쓰여진 평면 문양이나 특이한 색상을 갖는 기하학적인 물체라고 할 수 있다. Referring to FIG. 1, a concept of generating a stereoscopic augmented reality image is described. First, a left eye and a right eye image of a real object are photographed together with a predetermined pattern card through a binocular camera module. The certain pattern card includes pattern information for generating a 3D graphic object. A pattern card is a marker used in augmented reality. A pattern card (marker) refers to an object that can be easily recognized by computer vision technology, for example, a flat pattern written on a black background or a geometric with unusual colors. It can be said to be an object.
입체 증강 현실 영상 생성 장치는 양안 카메라 모듈을 통해 촬영된 패턴 카드가 포함된 좌안 및 우안의 실사 영상을 입력받아 패턴 카드가 위치한 곳에 GPU(Graphic Processing Unit)을 사용하여 렌더링하여 좌안 및 우안의 3D 그래픽 물체를 생성한다. 이때, 입체 증강 현실 영상 생성 장치는 패턴 카드에 포함된 패턴 정보를 인식하고 분석하여 생성될 3D 그래픽 물체의 크기와 오버레이(Overlay)될 위치 등에 관한 정보를 추출한다. 입체 증강 현실 영상 생성 장치는 추출된 정보들을 이용하여 좌안 및 우안의 3D 그래픽 물체를 생성하고 이를 대응되는 좌안 및 우안의 실사 영상의 소정의 위치에 오버레이(Overlay)하여 입체 증강 현실 영상을 생성한다. The 3D augmented reality image generating device receives 3D graphics of the left and right eyes including the pattern card photographed through the binocular camera module and renders the image using the GPU (Graphic Processing Unit) where the pattern card is located. Create an object. At this time, the 3D augmented reality image generating apparatus recognizes and analyzes the pattern information included in the pattern card and extracts information about the size of the 3D graphic object to be generated and the position to be overlayed. The apparatus for generating a stereoscopic augmented reality image generates a 3D graphic object of left and right eyes using the extracted information, and generates a 3D augmented reality image by overlaying the 3D graphic object on the corresponding left and right eyes.
도 2는 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다. 이하, 도 2를 참조하여 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강 현실 영상 생성 장치(100)에 대해 상세히 설명한다. 도 2는 양안 카메라 모듈이 장착되어 있는 입체 증강 현실 영상 생성 장치(100)를 이용하여 입체 증강 현실 영상을 생성하는 실시예를 나타내고 있다.2 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to an exemplary embodiment. Hereinafter, the stereoscopic augmented reality
도 2에 도시된 바와 같이, 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치(100)는 입체 영상 생성부(140)와 오브젝트 생성부(150) 및 입체 증강 현실 영상 생성부(160)를 포함한다. As shown in FIG. 2, the apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a
입체 영상 생성부(140)는 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다. 양안 입체 영상에서는 카메라 시스템을 구성하는 좌, 우 두 대의 양 카메라모듈이 동일한 대상물을 촬영하고 있어도, 사람의 눈과 같이 그 대상물은 약간의 수평적 차이를 가지고 촬영되는데 이때 발생하는 좌우 영상의 차이를 시차라 한다. 입체영상으로 촬영한 것을 사람의 눈으로 감지하여 두뇌에서 입체감을 재현할 때, 좌, 우 카메라 간격과 물체를 향한 좌,우 영상의 시차 크기에 따라 영상이 매칭되지 않는 경우 눈이 피로해지고 두통을 일으키는 등의 문제를 발생하게 된다. The
양안 카메라로 촬영한 두 영상 사이의 시차는 원거리에서 근거리로 갈수록 시차가 커지게 되는 특성을 갖는 것이다. 좌우 영상은 서로 닮은 영상이지만 원거리에 있는 물체와 근거리에 있는 물체들이 혼재한 형태이기 때문에 배경과 피사체들이 놓인 상태에 따라 일치점에 차이가 발생하게 된다. 따라서, 어느 하나의 기준이 되는 대상 물체나 주시영역(depth = 0인 지점)을 중심으로 양 영상을 좌우 또는 상하로 이동하여 주시점을 일치시켜 컨버전스를 조절하여 입체 3D 영상을 생성하게 된다.The parallax between two images taken with a binocular camera has a characteristic that the parallax increases from a distance to a near distance. The left and right images are similar to each other, but because the objects in the distance and the objects in the short distance are mixed, a difference occurs in the matching point depending on the state of the background and the subjects. Accordingly, the stereoscopic 3D image is generated by adjusting the convergence by matching the gaze points by moving both images left and right or up and down about a target object or gaze area (a point where depth = 0) as a reference.
본 실시예의 추가적인 양상에 따르면, 입체 증강현실 영상 생성 장치(100)는 양안 카메라 모듈과 영상입력부(120)를 더 포함할 수 있다.According to an additional aspect of the present embodiment, the stereoscopic augmented reality
양안 카메라 모듈은 사람의 눈과 같이 일정하게 이격되어 동일한 대상물에 대한 좌안 및 우안의 실사 영상을 촬영한다. 영상입력부(120)는 양안 카메라 모듈로부터 촬영된 좌안 및 우안 영상을 입력받아 입체 영상 생성부(140)로 전송한다.The binocular camera module captures live images of the left and right eyes of the same object at regular intervals, such as a human eye. The
한편, 입체 증강 현실 영상 생성 장치(100)는 영상저장부(110)를 더 포함할 수 있다. 영상 저장부(110)는 외부 장치(PC, 다른 양안 카메라 등)로부터 유무선 연결(USB, 블루투스, 적외선 통신 등)을 통해 다운로드 받은 입체 영상이나, 무선 네트워크 통신을 통해 입체 영상 콘텐츠를 제공하는 서버에 접속하여 다운로드 받은 입체 영상을 저장할 수 있다. 영상 입력부(120)는 사용자의 UI 조작에 의해 영상저장부(110)에 저장되어 있는 좌안 및 우안의 입체 영상을 입력받을 수 있다. Meanwhile, the 3D augmented reality
즉, 영상입력부(120)는 사용자의 UI 조작에 의해 선택적으로 양안 카메라 모듈로부터 촬영된 좌안 및 우안 영상 또는 영상저장부(110)에 저장되어 있는 좌안 및 우안 영상을 입력받을 수 있다. 따라서, 입체 증강 현실 영상 생성 장치(100)는 양안 카메라 모듈에 의해 촬영된 프리뷰 영상뿐만 아니라, 영상 저장부(110)로부터 저장되어 있는 다운로드 받은 입체 영상을 이용하여 입체 증강 현실 영상을 생성할 수 있다.That is, the
오브젝트 생성부(150)는 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이될 좌안 및 우안의 3D 오브젝트(Object) 영상을 생성한다. 오브젝트 생성부(150)는 영상입력부(120)로부터 좌안 및 우안 영상 중 적어도 어느 하나를 수신할 수 있다. 이때, 3D 오브젝트는 좌안 및 우안 영상 각각 생성된다. 3D 오브젝트는 실사 영상에 오버레이하여 증강 현실 영상을 생성하기 위한 가상의 물체로서, GPU(Graphic Processing Unit)를 사용하여 렌더링 과정을 거쳐 생성된다. The
오브젝트 생성부(150)는 3D 오브젝트를 생성하기 위한 정보들을 이용하여 GPU를 사용하여 렌더링하여 3D 그래픽 오브젝트를 생성한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 지오메트리(geometry), 시점, 텍스처 매핑(texture mapping), 조명, 셰이딩(shading) 정보 등의 3D 그래픽 물체를 생성하기 위한 모델링와, 3D 오브젝트가 오버레이 될 위치, 크기(Scaling), 비틀림(Tilt) 정보 등의 증강현실 영상 생성을 위한 정보 등을 포함한다. The
렌더링(Realtime Rendering)은 컴퓨터 프로그램을 이용하여 3D 모델 정보로부터 래스터 그래픽스 이미지라 불리는 영상을 실시간으로 만드는 과정을 의미한다. 실시간 렌더링은 아키텍처, 비디오 게임, 시뮬레이터, 특수효과, 디자인 시각화 등 다양한 분야에 사용된다. 실시간 렌더링은 많은 연산이 필요로 하기 때문에 렌더링 속도 향상을 위하여 그래픽 가속기(GPU)를 사용한다. Realtime Rendering refers to the process of creating an image called raster graphics image in real time from 3D model information using a computer program. Real-time rendering is used in a variety of fields, including architecture, video games, simulators, special effects, and design visualization. Real-time rendering requires a lot of computation, so we use a graphics accelerator (GPU) to speed up rendering.
좀 더 구체적인 양상에 따르면, 오브젝트 생성부(150)는 오브젝트 정보 입력부(152)와 그래픽 처리부(153)를 포함할 수 있다. 사용자는 입체 증강 현실 영상 생성 장치(100)의 UI를 선택적으로 조작하여 3D 오브젝트 생성 정보를 직접 입력할 수 있다. 오브젝트 정보 입력부(152)는 사용자가 입체 증강 현실 영상 생성 장치(100)의 UI 조작에 의해 입력하는 3D 오브젝트 생성에 필요한 정보를 입력받는다. According to a more specific aspect, the
즉, 오브젝트 정보 입력부(152)는 입체 영상 생성부(140)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 3D 오브젝트 생성 정보를 직접 사용자로부터 입력받을 수 있다.That is, the object
그래픽 처리부(153)는 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 수신한 좌안 및 우안 영상의 시차와 일치되도록 렌더링하여 좌안 및 우안의 3D 오브젝트 영상을 생성한다.The
본 실시예의 추가적인 양상에 따르면, 영상입력부(120)에 입력되는 좌안 및 우안 영상의 소정의 위치에는 일정 패턴이 포함될 수 있고, 오브젝트 생성부(150)는 패턴인식부(151)를 더 포함할 수 있다. 일정 패턴은 체스판 무늬 등 다양한 종류의 이미지를 포함하며, 패턴의 종류에 따라서 현실세계 영상과 합성되는 3차원 오브젝트의 종류가 결정될 수 있다. 좌안 및 우안 영상 내에 포함된 일정 패턴은 양안 카메라 모듈로부터 실사 영상 촬영시 함께 촬영될 수 있고, 다른 양안 카메라를 통해 패턴이 포함되어 촬영된 실사 영상을 다운로드 받아 영상저장부(110)에 저장되어 있는 것일 수 있다.According to an additional aspect of the present embodiment, a predetermined pattern may be included in predetermined positions of the left and right eye images input to the
패턴인식부(151)는 영상입력부(120)로부터 수신한 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 좌안 및 우안의 3D 오브젝트 영상을 생성하기 위한 패턴 정보를 추출한다. 즉, 패턴인식부(151)는 영상입력부(120)로부터 수신한 좌안 및 우안 영상 중 어느 하나의 영상을 탐색하여 패턴의 경계를 인식한다. 실사 영상에서 패턴의 경계가 파악되면 그 패턴의 위치인 3차원 위치 정보를 산출하고, 패턴의 크기와 비틀린 정도(Tilt) 등을 추산하여 패턴 정보를 추출하게 된다. 패턴인식부(151)는 패턴 정보가 추출되면 패턴 정보와 3D 그래픽 모델링 정보를 그래픽처리부(153)에 전송한다. 이때, 각종 패턴에 대응되는 3D 그래픽 모델링 정보는 별도의 메모리부(미도시)에 저장되어 있을 수 있고, 패턴인식부(151)는 패턴 정보 추출이 완료되면 그 패턴 정보를 이용하여 해당하는 패턴의 3D 모델링 정보를 메모리부(미도시)에서 읽어 그래픽 처리부(153)로 전송할 수 있다.The
이때, 오브젝트 정보 입력부(152)는 사용자의 UI 조작에 의해 사용자로부터 증강현실 영상에서 3D 오브젝트의 입체감을 나타내기 위한 시차 정보 등을 추가로 입력받아 그래픽처리부(153)로 전송할 수 있다. 사용자로부터 입력되는 시차 정보는 입체 영상 생성부(140)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 시차 정보일 수 있다.In this case, the object
그래픽처리부(153)는 패턴 정보와 3D 오브젝트 생성 모델링 정보 또는 시차 정보 등을 바탕으로 그래픽가속기(GPU)를 사용하여 렌더링하여 3D 오브젝트를 생성한다. 일반적으로, 3D 그래픽 가속기를 이용하여 3D 그래픽 물체를 생성하는 렌더링 과정은 크게 지오메트리 처리(Geometry processing) 과정과 래스터 처리(rasterization) 과정으로 나눌 수 있다. The
먼저 지오메트리 처리 과정은 주로 3D 좌표계의 물체를 시점에 따라 변환하고, 조명 처리와 셰이딩을 수행하며, 2차원 좌표계로 투영 처리하는 과정을 말한다. 기하학적 처리 과정은 상당한 량의 행렬 연산과 삼각함수 연산을 포함하므로 상당한 연산부하가 발생한다. 종래의 3D 그래픽 처리 방식에서는 CPU가 이러한 기하학적 처리 과정을 수행하였으나, 최근에는 3D 그래픽 가속기에서 이러한 기하학적 처리 과정을 수행하도록 함으로써 CPU의 연산 부하를 대폭 감소시켜, 전체 시스템의 성능을 향상시켰다. First, the geometry processing process mainly refers to a process of transforming an object of a 3D coordinate system according to a viewpoint, performing lighting processing and shading, and projecting the object to a two-dimensional coordinate system. The geometrical process involves a significant amount of matrix and trigonometric operations, resulting in significant computational load. In the conventional 3D graphics processing method, the CPU performs this geometric processing, but recently, by performing the geometric processing in the 3D graphics accelerator, the computational load of the CPU is greatly reduced, thereby improving the performance of the entire system.
래스터 처리 과정은 2차원 좌표계의 이미지에 색깔 값을 결정하며 프레임 버퍼에 저장하는 과정을 말한다. 래스터 처리 과정은 지오메트리 변환에 의해 벡터 그래픽스로 변환된 3D 그래픽 모델에 대해 래스터화(rasterization)를 수행한다. 래스터화는 벡터 그래픽스를 픽셀 패턴 이미지로 변환하는 과정이다. 즉, 래스터 처리 과정은 실태가 없었던 3D 그래픽 모델의 폴리곤(polygon)을 화면상의 픽셀에 대응시켜 붙여주는 과정을 수행하여 생성되는 영상을 프레임 버퍼에 저장한다.Raster processing is the process of determining the color value in the image of the 2D coordinate system and storing it in the frame buffer. The raster process performs rasterization on the 3D graphic model converted to vector graphics by geometry transformation. Rasterization is the process of converting vector graphics into pixel pattern images. That is, the raster processing process stores a generated image in a frame buffer by attaching a polygon of a 3D graphic model, which has never existed, to correspond to pixels on a screen.
입체 증강 현실 영상 생성부(160)는 오브젝트 생성부(150)에서 생성된 좌안 및 우안의 3D 오브젝트를 입체 영상 생성부(140)에서 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)하여 입체 증강 현실 영상을 생성한다.The stereoscopic augmented
또한, 추가적인 양상에 따르면, 입체 증강 현실 영상 생성 장치(100)는 영상출력부(170)를 더 포함할 수 있다. 영상출력부(170)는 디스플레이의 출력 포맷(line base, pixel_base, sub-pixel base, side-by-side, top-bottom, red-blue, red-green 등)에 맞도록 입체 증강 현실 생성부(160)에서 생성된 입체 증강 현실 영상을 포맷팅하여 디스플레이에 출력한다.
According to an additional aspect, the stereoscopic augmented reality
도 3은 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다. 이하, 도 3을 참조하여 단일 시점 영상을 이용하여 입체 증강 현실 영상을 생성하는 장치(300)에 대해 설명하기로 한다. 도 3은 단안 카메라 모듈이 장착되어 있는 입체 증강 현실 영상 생성 장치(300)를 이용하여 입체 증강 현실 영상을 생성하는 실시예를 나타내고 있다.3 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment. Hereinafter, an
도 3에 도시된 바와 같이, 입체 증강현실 영상 생성 장치(300)는 영상변환부(330), 입체 영상 생성부(340), 오브젝트 생성부(350) 및 입체 증강 현실 영상 생성부(360)를 포함한다.As shown in FIG. 3, the stereoscopic augmented reality
영상변환부(330)는 단일 시점 영상을 수신하고, 수신된 단일 시점 영상을 좌안 및 우안 영상으로 변환하여 입체 영상 생성부(340)와 오브젝트 생성부(350)로 전송한다. 한편, 영상변환부(330)는 좌안 및 우안의 입체 영상을 수신할 수 있고, 입체 영상이 수신되는 경우 영상 변환 과정을 수행하지 않고 바로 입체 영상 생성부(340)과 오브젝트 생성부(350)에 전송한다. 여기서, 단일 시점 영상을 좌안 및 우안의 다시점 영상으로 변환하는 방법 자체에 대해서는 이미 알려진 다양한 방법들이 사용될 수 있다.The
본 실시예의 추가적인 양상에 따르면, 입체 증강현실 영상 생성 장치(300)는 단안 카메라 모듈과 영상입력부(320)를 더 포함할 수 있다.According to an additional aspect of the present embodiment, the stereoscopic augmented reality
단안 카메라 모듈은 실사 영상을 촬영한다. 영상입력부(320)는 단안 카메라 모듈로부터 촬영된 실사 영상을 입력받아 영상 변환부(330)로 전송한다.The monocular camera module captures live-action images. The
한편, 입체 증강 현실 영상 생성 장치(300)는 영상저장부(310)를 더 포함할 수 있다. 영상 저장부(310)는 외부 장치(PC, 다른 단안 카메라, 양안 카메라 등)로부터 유무선 연결(USB, 블루투스, 적외선 통신 등)을 통해 다운로드 받은 영상이나, 무선 네트워크 통신을 통해 입체 영상 콘텐츠를 제공하는 서버에 접속하여 다운로드 받은 영상을 저장할 수 있다. 영상 입력부(320)는 사용자의 UI 조작에 의해 영상저장부(310)에 저장되어 있는 단일 시점 영상 또는 좌안 및 우안 영상을 입력받아 영상 변환부(330)로 전송할 수 있다.On the other hand, the stereoscopic augmented reality
즉, 영상입력부(320)는 사용자의 UI 조작에 의해 선택적으로 단안 카메라 모듈로부터 촬영된 단일 시점 영상 또는 영상저장부(310)에 저장되어 있는 단일 시점영상 또는 좌안 및 우안의 입체 영상을 입력받을 수 있다. 따라서, 입체 증강 현실 영상 생성 장치(300)는 단안 카메라 모듈에 의해 촬영된 프리뷰 영상뿐만 아니라, 영상 저장부(310)로부터 저장되어 있는 다운로드 받은 단일 시점/다시점 영상을 이용하여 입체 증강 현실 영상을 생성할 수 있다.That is, the
입체 영상 생성부(340)는 영상 변환부(330)에서 전송된 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다. The
오브젝트 생성부(350)는 영상 변환부(330)에서 전송된 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이될 좌안 및 우안의 3D 오브젝트(Object) 영상을 생성한다. 이때, 3D 오브젝트는 좌안 및 우안 영상 각각 생성된다. 3D 오브젝트는 실사 영상에 오버레이하여 증강 현실 영상을 생성하기 위한 가상의 물체로서, GPU(Graphic Processing Unit)를 사용하여 렌더링 과정을 거쳐 생성된다. The
오브젝트 생성부(350)는 3D 오브젝트를 생성하기 위한 정보들을 이용하여 GPU를 사용하여 렌더링하여 3D 그래픽 오브젝트를 생성한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 지오메트리(geometry), 시점, 텍스처 매핑(texture mapping), 조명, 셰이딩(shading) 정보 등의 3D 그래픽 물체를 생성하기 위한 모델링와, 3D 오브젝트가 오버레이 될 위치, 크기(Scaling), 비틀림(Tilt) 정보 등의 증강현실 영상 생성을 위한 정보 등을 포함한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 사용자의 UI 조작에 의해 선택될 수 있다.The
좀 더 구체적인 양상에 따르면, 오브젝트 생성부(350)는 오브젝트 정보 입력부(352)와 그래픽 처리부(353)를 포함할 수 있다. 사용자는 입체 증강 현실 영상 생성 장치(300)의 UI를 선택적으로 조작하여 3D 오브젝트 생성 정보를 직접 입력할 수 있다. 오브젝트 정보 입력부(352)는 사용자가 입체 증강 현실 영상 생성 장치(300)의 UI 조작에 의해 입력하는 3D 오브젝트 생성에 필요한 정보를 입력받는다. According to a more specific aspect, the
즉, 오브젝트 정보 입력부(352)는 입체 영상 생성부(340)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 3D 오브젝트 생성 정보를 직접 사용자로부터 입력받을 수 있다.That is, the object
그래픽 처리부(353)는 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 수신한 좌안 및 우안 영상의 시차와 일치되도록 렌더링하여 좌안 및 우안의 3D 오브젝트 영상을 생성한다.The
본 실시예의 추가적인 양상에 따르면, 영상입력부(320)에 입력되는 단일 시점 영상의 소정의 위치에는 일정 패턴이 포함될 수 있고, 오브젝트 생성부(350)는 패턴인식부(351)를 더 포함할 수 있다. 일정 패턴은 체스판 무늬 등 다양한 종류의 이미지를 포함하며, 패턴의 종류에 따라서 현실세계 영상과 합성되는 3차원 그래픽 영상의 종류가 결정될 수 있다. 단일 시점 영상 내에 포함된 일정 패턴은 단안 카메라 모듈로부터 실사 영상 촬영시 함께 촬영될 수 있고, 다른 단안 카메라를 통해 패턴이 포함되어 촬영된 실사 영상을 다운로드 받아 영상저장부(110)에 저장되어 있는 것일 수 있다.According to an additional aspect of the present embodiment, a predetermined pattern may be included in a predetermined position of the single view image input to the
패턴인식부(351)는 영상변환부(330)로부터 수신한 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 좌안 및 우안의 3D 오브젝트 영상을 생성하기 위한 패턴 정보를 추출한다. 즉, 패턴인식부(351)는 영상변환부(330)로부터 수신한 좌안 및 우안 영상 중 어느 하나의 영상을 탐색하여 패턴의 경계를 인식한다. 실사 영상에서 패턴의 경계가 파악되면 그 패턴의 위치한 3차원 위치 정보를 산출하고, 패턴의 크기와 비틀린 정도(Tilt) 등을 추산하여 패턴 정보를 추출하게 된다. 패턴인식부(351)는 패턴 정보가 추출되면 패턴 정보와 3D 그래픽 모델링 정보를 그래픽처리부(353)에 전송한다. 이때, 각종 패턴에 대응되는 3D 그래픽 모델링 정보는 별도의 메모리부(미도시)에 저장되어 있을 수 있고, 패턴인식부(351)는 패턴 정보 추출이 완료되면 그 패턴 정보를 이용하여 해당하는 패턴의 3D 모델링 정보를 메모리부(미도시)에서 읽어 그래픽 처리부(353)로 전송할 수 있다.The
이때, 오브젝트 정보 입력부(352)는 사용자의 UI 조작에 의해 사용자로부터 증강현실 영상에서 3D 오브젝트의 입체감을 나타내기 위한 시차 정보 등을 추가로 입력받아 그래픽처리부(353)로 전송할 수 있다. 사용자로부터 입력되는 시차 정보는 입체 영상 생성부(340)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 시차 정보일 수 있다.In this case, the object
그래픽처리부(353)는 패턴 정보와 3D 오브젝트 생성 모델링 정보 또는 시차 정보 등을 바탕으로 그래픽가속기(GPU)를 사용하여 렌더링하여 3D 오브젝트를 생성한다. The
입체 증강 현실 영상 생성부(360)는 오브젝트 생성부(350)에서 생성된 좌안 및 우안의 3D 오브젝트를 입체 영상 생성부(340)에서 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)하여 입체 증강 현실 영상을 생성한다.The stereoscopic augmented
또한, 추가적인 양상에 따르면, 입체 증강 현실 영상 생성 장치(300)는 영상출력부(370)를 더 포함할 수 있다. 영상출력부(370)는 디스플레이의 출력 포맷(line base, pixel_base, sub-pixel base, side-by-side, top-bottom, red-blue, red-green 등)에 맞도록 입체 증강 현실 생성부(360)에서 생성된 입체 증강 현실 영상을 포맷팅하여 디스플레이에 출력한다.
In addition, according to an additional aspect, the 3D augmented reality
도 4는 또 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다. 이하, 도 4를 참조하여 입체 증강 현실 영상을 생성하는 장치(500)에 대해 설명하기로 한다. 도 4는 카메라 모듈이 장착되어 있지 않은 입체 증강 현실 영상 생성 장치(500)를 이용하여 입체 증강 현실 영상을 생성하는 실시예를 나타내고 있다.4 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment. Hereinafter, an
도 4에 도시된 바와 같이, 입체 증강현실 영상 생성 장치(300)는 영상저장부(510), 영상입력부(520), 영상변환부(530), 입체 영상 생성부(540), 오브젝트 생성부(550) 및 입체 증강 현실 영상 생성부(560)를 포함한다.As shown in FIG. 4, the stereoscopic augmented reality
영상저장부(510)는 외부 장치(PC 등)와 유무선으로 연결되어 영상을 다운로드 받거나, 무선 네트워크 통신을 통해 영상 콘텐츠를 제공하는 서버에 접속하여 다운로드 받은 영상을 저장한다. 영상저장부(510)에 저장된 영상은 단일 시점의 2D영상이나 좌안 및 우안 영상의 입체 영상이 포함될 수 있다.The
영상 입력부(520)는 사용자의 UI 조작에 의해 영상저장부(510)에 저장되어 있는 단일 시점 영상 또는 좌안 및 우안 영상을 입력받아 영상 변환부(530)로 전송한다.The
영상변환부(530)는 단일 시점 영상 또는 좌안 및 우안 영상을 수신한다. 이때, 수신된 영상이 좌안 및 우안 영상인 경우 아무런 변환 과정 없이 바로 입체 영상 생성부(540)와 오브젝트 생성부(550)로 전송한다. 만약, 수신된 영상이 단일 시점 영상인 경우 그 단일 시점 영상을 좌안 및 우안 영상으로 변환하여 입체 영상 생성부(540)와 오브젝트 생성부(550)로 전송한다. 여기서, 단일 시점 영상을 좌안 및 우안의 다시점 영상으로 변환하는 방법 자체에 대해서는 이미 알려진 다양한 방법들이 사용될 수 있다.The
입체 영상 생성부(540)는 영상 변환부(530)에서 전송된 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다. The
오브젝트 생성부(550)는 영상 변환부(530)에서 전송된 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이될 좌안 및 우안의 3D 오브젝트를 생성한다. 이때, 3D 오브젝트는 좌안 및 우안 영상 각각 생성된다. 3D 오브젝트는 실사 영상에 오버레이하여 증강 현실 영상을 생성하기 위한 가상의 물체로서, GPU(Graphic Processing Unit)를 사용하여 렌더링 과정을 거쳐 생성된다. The
오브젝트 생성부(350)는 3D 오브젝트를 생성하기 위한 정보들을 이용하여 GPU를 사용하여 렌더링하여 3D 그래픽 오브젝트를 생성한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 지오메트리(geometry), 시점, 텍스처 매핑(texture mapping), 조명, 셰이딩(shading) 정보 등의 3D 그래픽 물체를 생성하기 위한 모델링와, 3D 오브젝트가 오버레이 될 위치, 크기(Scaling), 비틀림(Tilt) 정보 등의 증강현실 영상 생성을 위한 정보 등을 포함한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 사용자의 UI 조작에 의해 선택될 수 있다.The
좀 더 구체적인 양상에 따르면, 오브젝트 생성부(550)는 오브젝트 정보 입력부(552)와 그래픽 처리부(553)를 포함할 수 있다. 사용자는 입체 증강 현실 영상 생성 장치(500)의 UI를 선택적으로 조작하여 3D 오브젝트 생성 정보를 직접 입력할 수 있다. 오브젝트 정보 입력부(552)는 사용자가 입체 증강 현실 영상 생성 장치(500)의 UI 조작에 의해 입력하는 3D 오브젝트 생성에 필요한 정보를 입력받는다. According to a more specific aspect, the
즉, 오브젝트 정보 입력부(552)는 입체 영상 생성부(540)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 3D 오브젝트 생성 정보를 직접 사용자로부터 입력받을 수 있다.That is, the object
그래픽 처리부(553)는 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 수신한 좌안 및 우안 영상의 시차와 일치되도록 렌더링하여 좌안 및 우안의 3D 오브젝트 영상을 생성한다.The
본 실시예의 추가적인 양상에 따르면, 영상입력부(520)에 입력되는 단일 시점 영상 또는 좌안 및 우안 영상의 소정의 위치에는 일정 패턴이 포함될 수 있다. 이때, 영상 내에 포함된 패턴은 예를 들어, 다른 단안 카메라나 양안 카메라를 통해 실사 영상에 포함되어 함께 촬영된 것으로서, 그 카메라로부터 다운로드 받아 영상저장부(510)에 저장된 것일 수 있다. 일정 패턴은 체스판 무늬 등 다양한 종류의 이미지를 포함하며, 패턴의 종류에 따라서 현실세계 영상과 합성되는 3차원 그래픽 물체의 종류가 결정될 수 있다.According to an additional aspect of the present embodiment, a predetermined pattern may be included in a single view image or a predetermined position of the left eye and right eye images input to the
오브젝트 생성부(550)는 패턴인식부(551)를 더 포함할 수 있다. 패턴인식부(551)는 영상변환부(530)로부터 수신한 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 좌안 및 우안의 3D 오브젝트 영상을 생성하기 위한 패턴 정보를 추출한다. 즉, 패턴인식부(551)는 영상변환부(530)로부터 수신한 좌안 및 우안 영상 중 어느 하나의 영상을 탐색하여 패턴의 경계를 인식한다. 실사 영상에서 패턴의 경계가 파악되면 그 패턴의 위치한 3차원 위치 정보를 산출하고, 패턴의 크기와 비틀린 정도(Tilt) 등을 추산하여 패턴 정보를 추출하게 된다. 패턴인식부(551)는 패턴 정보가 추출되면 패턴 정보와 3D 그래픽 모델링 정보를 그래픽처리부(553)에 전송한다. 이때, 각종 패턴에 대응되는 3D 그래픽 모델링 정보는 별도의 메모리부(미도시)에 저장되어 있을 수 있고, 패턴인식부(551)는 패턴 정보 추출이 완료되면 그 패턴 정보를 이용하여 해당하는 패턴의 3D 모델링 정보를 메모리부(미도시)에서 읽어 그래픽 처리부(553)로 전송할 수 있다.The
이때, 오브젝트 정보 입력부(552)는 사용자의 UI 조작에 의해 사용자로부터 증강현실 영상에서 3D 오브젝트의 입체감을 나타내기 위한 시차 정보 등을 추가로 입력받아 그래픽처리부(553)로 전송할 수 있다. 사용자로부터 입력되는 시차 정보는 입체 영상 생성부(540)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 시차 정보일 수 있다.In this case, the object
그래픽처리부(553)는 패턴 정보와 3D 오브젝트 생성 모델링 정보 또는 시차 정보 등을 바탕으로 그래픽가속기(GPU)를 사용하여 렌더링하여 3D 오브젝트를 생성한다. The
입체 증강 현실 영상 생성부(560)는 오브젝트 생성부(550)에서 생성된 좌안 및 우안의 3D 오브젝트를 입체 영상 생성부(540)에서 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)하여 입체 증강 현실 영상을 생성한다.The stereoscopic augmented
또한, 추가적인 양상에 따르면, 입체 증강 현실 영상 생성 장치(500)는 영상출력부(570)를 더 포함할 수 있다. 영상출력부(570)는 디스플레이의 출력 포맷(line base, pixel_base, sub-pixel base, side-by-side, top-bottom, red-blue, red-green 등)에 맞도록 입체 증강 현실 생성부(560)에서 생성된 입체 증강 현실 영상을 포맷팅하여 디스플레이에 출력한다.
According to an additional aspect, the stereoscopic augmented reality
도 5는 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법의 흐름도이다. 도 5를 참조하여 좌안 및 우안 영상을 이용하여 입체 증강 현실 영상을 생성하는 방법에 대해 기술한다. 5 is a flowchart illustrating a method of generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to an exemplary embodiment. A method of generating a stereoscopic augmented reality image using left and right eye images will be described with reference to FIG. 5.
도 5는 도 2의 실시예에 따른 입체 증강 현실 영상 생성 장치(100)를 이용하여 입체 증강 현실 영상을 생성하는 방법을 나타낸 것이다. 도 2의 실시예에 따라 입체 증강 현실 영상을 생성하는 장치(100)에 대해 앞에서 자세히 설명하였으므로, 이하 자세한 설명은 생략하기로 한다.FIG. 5 illustrates a method of generating a stereoscopic augmented reality image using the apparatus for generating a stereoscopic augmented
일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법은, 먼저, 영상입력부(120)는 양안 카메라 모듈 또는 영상 저장부(110)로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부(140)와 오브젝트 생성부(150)로 전송한다(단계 S110).In the stereoscopic augmented reality image generation method using a stereoscopic 3D image and a PPP according to an embodiment, first, the
그 다음, 입체 영상 생성부(140)는 영상입력부(120)로부터 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다(단계 S120). Next, the stereoscopic
그 다음, 오브젝트 생성부(150)가 영상입력부(120)로부터 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상에 오버레이될 좌안 및 우안의 3D 오브젝트를 생성한다(단계 S130). Next, the
좀 더 구체적으로, 3D 그래픽 오브젝트를 생성하는 단계(단계 S130)는 3D 오브젝트를 생성하기 위한 정보를 추출하는 단계(단계 S131)와, 추출된 정보를 바탕으로 3D 오브젝트를 생성하는 단계(단계 S132)를 포함할 수 있다.More specifically, generating the 3D graphic object (step S130) includes extracting information for generating the 3D object (step S131), and generating the 3D object based on the extracted information (step S132). It may include.
3D 오브젝트를 생성하기 위한 정보를 추출하는 단계(단계 S131)는 오브젝트 정보 입력부(152)가 사용자로부터 필요한 정보를 직접 입력받을 수 있고, 반면에 입력되는 영상 내에 일정 패턴이 포함된 경우에는 그 패턴을 인식하여 패턴 정보를 추출할 수 있다. 이하, 3D 오브젝트를 생성하기 위한 정보를 사용자로부터 입력받거나 패턴 정보를 추출하여 그래픽 처리부(153)으로 전송하는 절차에 대해서는 앞의 도 2의 실시예에서 이미 자세히 상술하였으므로 자세한 설명을 생략하기로 한다.In the extracting information for generating the 3D object (step S131), the object
3D 오브젝트를 생성하는 단계(단계 S132)는 그래픽처리부(153)가 패턴인식부(151)로부터 수신된 정보와 3D 오브젝트 생성정보 입력부(152)로부터 수신한 추가 정보를 바탕으로 GPU를 이용하여 좌안 및 우안의 3D 오브젝트를 생성한다.Generating the 3D object (step S132) is performed by the
그 다음, 입체 증강 현실 영상 생성부(160)가 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 좌안 및 우안의 3D 오브젝트를 오버레이하여 입체 증강현실 영상을 생성한다(단계 S140).Next, the stereoscopic augmented reality
마지막으로, 입체증강현실 영상 출력부(170)가 생성된 입체 증강 현실 영상을 디스플레이 장치의 패널에 맞도록 포맷팅하여 출력한다(미도시).
Finally, the stereoscopic augmented reality
도 6은 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법의 흐름도이다. 도 6을 참조하여 단일 시점 영상을 이용하여 입체 증강 현실 영상을 생성하는 방법에 대해 설명한다. 도 6은 도 3의 실시예에 따른 입체 증강 현실 영상 생성 장치(300)를 이용하여 입체 증강 현실 영상을 생성하는 방법을 나타낸 것이다. 도 3의 실시예에 따라 입체 증강 현실 영상을 생성하는 장치(300)에 대해 앞에서 자세히 설명하였으므로, 이하 자세한 설명은 생략하기로 한다.6 is a flowchart illustrating a method of generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment. A method of generating a stereoscopic augmented reality image using a single viewpoint image will be described with reference to FIG. 6. FIG. 6 illustrates a method of generating a stereoscopic augmented reality image using the apparatus for generating a stereoscopic augmented
다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법은, 먼저, 영상입력부(320)가 단안 카메라 모듈 또는 영상 저장부(310)로부터 단일 시점 영상을 입력받는다(단계 S310).In the stereoscopic augmented reality image generating method using a stereoscopic 3D image and a WiFi according to another embodiment, first, the
그 다음, 영상변환부(330)가 입력된 단일 시점 영상을 좌안 및 우안 영상으로 변환한다(단계 S320). Next, the
그 다음, 입체 영상 생성부(340)가 변환된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다(단계 S330).Next, the
그 다음, 변환된 좌안 및 우안 영상으로 3D 그래픽 오브젝트를 생성한다(단계 S340). 좀 더 구체적으로, 3D 그래픽 오브젝트를 생성하는 단계(단계 S340)는 3D 오브젝트 생성 정보를 생성하는 단계(단계 S341)와 생성된 3D 오브젝트 생성 정보를 바탕으로 3D 오브젝트를 생성하는 단계(단계 S342)를 포함할 수 있다.Next, a 3D graphic object is generated from the converted left eye and right eye images (step S340). More specifically, generating the 3D graphic object (step S340) includes generating the 3D object generation information (step S341) and generating the 3D object based on the generated 3D object generation information (step S342). It may include.
3D 오브젝트를 생성하기 위한 정보를 추출하는 단계(단계 S331)는 오브젝트 정보 입력부(352)가 사용자로부터 필요한 정보를 직접 입력받을 수 있고, 반면에 입력되는 영상 내에 일정 패턴이 포함된 경우에는 그 패턴을 인식하여 패턴 정보를 추출할 수 있다. 이하, 3D 오브젝트를 생성하기 위한 정보를 사용자로부터 입력받거나 패턴 정보를 추출하여 그래픽 처리부(353)으로 전송하는 절차에 대해서는 앞의 도 2의 실시예에서 이미 자세히 상술하였으므로 자세한 설명을 생략하기로 한다.In the extracting information for generating the 3D object (step S331), the object
3D 오브젝트를 생성하는 단계(단계 S332)는 그래픽처리부(353)가 패턴인식부(351)로부터 수신된 정보와 3D 오브젝트 생성정보 입력부(352)로부터 수신한 추가 정보를 바탕으로 GPU를 이용하여 좌안 및 우안의 3D 오브젝트를 생성한다.Generating the 3D object (step S332), the
그 다음, 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 생성된 3D 그래픽 오브젝트를 오버레이하여 입체 증강현실 영상을 생성한다(단계 S350).Next, the 3D graphic object is overlaid on predetermined positions of the left and right eye images of the generated stereoscopic 3D image to generate a stereoscopic augmented reality image (step S350).
마지막으로, 생성된 입체 증강 현실 영상을 디스플레이 장치의 패널에 맞도록 포맷팅하여 출력한다(미도시).
Finally, the generated stereoscopic augmented reality image is formatted and output to fit the panel of the display device (not shown).
이하, 도 4의 실시예에 따른 입체 증강 현실 영상 생성 장치(500)를 이용하여 입체 증강 현실 영상을 생성하는 방법을 설명한다. 도 4의 실시예에 따라 입체 증강 현실 영상을 생성하는 장치(500)에 대해 앞에서 자세히 설명하였으므로, 이하 자세한 설명은 생략한다.Hereinafter, a method of generating a stereoscopic augmented reality image using the stereoscopic augmented reality
입체 증강현실 영상 생성 방법은, 먼저, 영상입력부(520)가 영상 저장부(510)로부터 단일 시점 영상 또는 좌안 및 우안의 입체 영상을 입력받아 영상변환부(530)로 전송한다.In the stereoscopic augmented reality image generation method, first, the
그 다음, 영상변환부(530)가 영상입력부(520)로부터 영상을 수신하고, 수신된 영상이 좌안 및 우안의 입체 영상인 경우 바로 입체 영상 생성부(540)와 오브젝트 생성부(550)로 전송하고, 만약, 수신된 영상이 단일 시점 영상인 경우 단일 시점 영상을 좌안 및 우안 영상으로 변환한 후 입체 영상 생성부(540)와 오브젝트 생성부(550)로 전송한다. Next, the
그 다음, 입체 영상 생성부(540)가 좌안 및 우안 영상을 수신하여 입체 3D 영상을 생성한다.Next, the
그 다음, 오브젝트 생성부(550)가 영상 변환부(530)로부터 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상으로 3D 그래픽 오브젝트를 생성한다. 좀 더 구체적으로, 3D 그래픽 오브젝트를 생성하는 단계는 3D 오브젝트 생성 정보를 생성하는 단계와 생성된 3D 오브젝트 생성 정보를 바탕으로 3D 오브젝트를 생성하는 단계를 포함할 수 있다.Next, the
3D 오브젝트를 생성하기 위한 정보를 추출하는 단계는 오브젝트 정보 입력부가 사용자로부터 필요한 정보를 직접 입력받을 수 있고, 반면에 입력되는 영상 내에 일정 패턴이 포함된 경우에는 그 패턴을 인식하여 패턴 정보를 추출할 수 있다. 이하, 3D 오브젝트를 생성하기 위한 정보를 사용자로부터 입력받거나 패턴 정보를 추출하여 그래픽 처리부(553)으로 전송하는 절차에 대해서는 앞의 도 2의 실시예에서 이미 설명하였으므로 자세한 설명을 생략한다.In the extracting information for generating the 3D object, the object information input unit may directly receive necessary information from the user. On the other hand, when a predetermined pattern is included in the input image, the object information input unit may recognize the pattern and extract pattern information. Can be. Hereinafter, a procedure of receiving information for generating a 3D object from a user or extracting pattern information and transmitting the extracted pattern information to the
3D 오브젝트를 생성하는 단계는 그래픽처리부(553)가 패턴인식부(551)로부터 수신된 정보와 3D 오브젝트 생성정보 입력부(552)로부터 수신한 추가 정보를 바탕으로 GPU를 이용하여 좌안 및 우안의 3D 오브젝트를 생성한다.Generating the 3D object may be performed by the
그 다음, 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 생성된 3D 그래픽 오브젝트를 오버레이하여 입체 증강현실 영상을 생성한다.Next, a 3D augmented reality image is generated by overlaying the 3D graphic object generated at predetermined positions of the left and right eye images of the generated stereoscopic 3D image.
마지막으로, 생성된 입체 증강 현실 영상을 디스플레이 장치의 패널에 맞도록 포맷팅하여 출력한다.
Finally, the generated stereoscopic augmented reality image is formatted and output to fit the panel of the display device.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the foregoing detailed description, and all changes or modifications derived from the meaning and scope of the claims and the equivalents thereof are included in the scope of the present invention Should be interpreted.
100 300 500: 입체 증강현실 영상 생성 장치 110 310 510: 영상저장부
120 320 520: 영상입력부 330 530: 영상변환부
140 340 540: 입체영상생성부 150 350 550: 오브젝트 생성부
151 351 551: 패턴인식부 152 352 552: 오브젝트 정보 입력부
153 353 553: 그래픽 처리부 160 360 560: 입체증강현실영상생성부
170 370 570: 입체증강현실영상출력부100 300 500: Stereoscopic augmented reality
120 320 520:
140 340 540: stereoscopic
151 351 551:
153 353 553:
170 370 570: stereoscopic augmented reality image output unit
Claims (12)
좌안 및 우안 영상을 수신하며, 패턴 정보를 포함하는 3D 오브젝트 생성 정보를 기초로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)될 좌안 및 우안의 3D 오브젝트(Object)를 생성하는 그래픽처리부를 포함하는 오브젝트 생성부; 및
상기 생성된 좌안 및 우안의 3D 오브젝트를 상기 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이하여 입체 증강 현실 영상을 생성하는 입체 증강 현실 영상 생성부;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.A stereoscopic image generator which receives left and right eye images and generates stereoscopic 3D images from the received left and right eye images;
Receives left and right eye images, and is rendered using a graphic processing unit (GPU) based on 3D object generation information including pattern information to be overlayed on predetermined positions of the received left and right eye images An object generator including a graphics processor configured to generate a 3D object of the object; And
A stereoscopic augmented reality image generating unit for generating a stereoscopic augmented reality image by overlaying the generated left and right eye 3D objects on a predetermined position of the left and right eye images of the stereoscopic 3D image; Stereoscopic augmented reality image generating device.
양안 카메라 모듈로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상입력부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.The method of claim 1,
A stereoscopic 3D image and a stereoscopic augmented reality image generating apparatus using a WiFi further comprising a; image input unit for receiving the left and right eye images from the binocular camera module and transmits to the stereoscopic image generator and the object generator.
단안 카메라 모듈로부터 단일 시점 영상을 입력받아 영상 변환부로 전송하는 영상입력부; 및
영상입력부로부터 단일 시점 영상을 수신하고 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상변환부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.The method of claim 1,
An image input unit which receives a single view image from the monocular camera module and transmits the single view image to the image converter; And
A stereoscopic 3D image and a stereoscopic augmented reality image generating apparatus using a ppipp; further comprising a; image conversion unit for receiving a single view image from the image input unit and converts the left and right eye images to a stereoscopic image generator and an object generator.
영상저장부로부터 영상을 입력받아 영상변환부로 전송하는 영상입력부; 및
상기 영상입력부로부터 수신된 영상이 좌안 및 우안 영상인 경우 입체 영상 생성부와 오브젝트 생성부로 바로 전송하고, 수신된 영상이 단일 시점 영상인 경우 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상변환부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.The method of claim 1,
An image input unit which receives an image from the image storage unit and transmits the image to the image conversion unit; And
If the image received from the image input unit is a left eye and a right eye image, it is directly transmitted to a stereoscopic image generating unit and an object generating unit. 3D augmented reality image generating apparatus using a three-dimensional 3D image and a WiFi further comprising an image conversion unit for transmitting.
상기 수신된 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 상기 패턴 정보를 추출하는 패턴인식부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강 현실 영상 생성 장치.The method according to any one of claims 1 to 4, wherein the object generating unit,
And a pattern recognition unit recognizing at least one of the patterns included in the received left eye and right eye images to extract the pattern information. 3D augmented reality image generating apparatus using a 3D image and a GPU.
사용자로부터 상기 3D 오브젝트 생성 정보를 입력받는 오브젝트 정보 입력부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.The method according to any one of claims 1 to 4, wherein the object generating unit,
And an object information input unit configured to receive the 3D object generation information from a user. 3D augmented reality image generating apparatus using a stereoscopic 3D image and a WiFi.
오브젝트 생성부가 좌안 및 우안 영상을 수신하고, 패턴 정보를 포함하는 3D 오브젝트 생성 정보를 기초로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)될 좌안 및 우안의 3D 오브젝트(Object)를 생성하는 단계; 및
입체 증강 현실 영상 생성부가 상기 생성된 좌안 및 우안의 3D 오브젝트를 상기 입체 3D 영상의 좌안과 우안 영상의 소정의 위치에 오버레이하여 입체 증강 현실 영상을 생성하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.Receiving, by the stereoscopic image generator, left and right eye images and generating stereoscopic 3D images from the received left and right eye images;
The object generating unit receives the left and right eye images, and renders using the GPU (Graphic Processing Unit) based on the 3D object generation information including the pattern information to be overlayed on predetermined positions of the received left and right eye images. Generating 3D objects of left and right eyes; And
Generating a stereoscopic augmented reality image by overlaying the generated left and right eye 3D objects to a predetermined position of the left and right eye images of the stereoscopic 3D image by a stereoscopic augmented reality image generating unit; 3D augmented reality image generation method using.
영상입력부가 양안 카메라 모듈로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.The method of claim 7, wherein generating the stereoscopic 3D image comprises:
And receiving the left and right eye images from the binocular camera module and transmitting the left and right eye images to the stereoscopic image generating unit and the object generating unit. 3D augmented reality image generation method using a stereoscopic 3D image and a WiFi.
영상입력부가 단안 카메라 모듈로부터 단일 시점 영상을 입력받아 영상변환부로 전송하는 단계; 및
영상변환부가 단일 시점 영상을 수신하고 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.The method of claim 7, wherein generating the stereoscopic 3D image comprises:
The image input unit receives a single view image from the monocular camera module and transmits it to the image conversion unit; And
Receiving a single view image, the image conversion unit converts the left eye and right eye image and transmits to the stereoscopic image generating unit and the object generating unit; stereoscopic 3D image and a stereoscopic augmented reality image generation method using a WiFi.
영상입력부가 영상 저장부로부터 영상을 입력받아 영상변환부로 전송하는 단계; 및
영상변환부가 수신한 영상이 좌안 및 우안 영상인 경우 입체 영상 생성부와 오브젝트 생성부로 바로 전송하고, 그 수신한 영상이 단일 시점 영상인 경우 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.The method of claim 7, wherein generating the stereoscopic 3D image comprises:
The image input unit receives an image from the image storage unit and transmits the image to the image conversion unit; And
If the image received by the image converter is a left eye and a right eye image, it is directly transmitted to the stereoscopic image generating unit and the object generating unit. 3D augmented reality image generation method using a three-dimensional 3D image and JP including a transmitting.
상기 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나 패턴을 인식하여 상기 패턴 정보를 추출하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강 현실 영상 생성 방법.The method of claim 7, wherein the generating of the 3D object comprises:
And extracting the pattern information by recognizing at least one of the patterns included in the left eye and right eye images. 3D augmented reality image generation method using a 3D image and a GPU.
사용자로부터 상기 3D 오브젝트 생성 정보를 입력받는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.
The method of claim 7, wherein the generating of the 3D object comprises:
And receiving the 3D object generation information from a user. 3D augmented reality image generation method using a stereoscopic 3D image and a WiFi.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110056179A KR101242764B1 (en) | 2011-06-10 | 2011-06-10 | Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu |
PCT/KR2011/006816 WO2012169698A1 (en) | 2011-06-10 | 2011-09-15 | Device and method for generating a stereoscopic augmented reality image by using a stereoscopic 3d image and gpu |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110056179A KR101242764B1 (en) | 2011-06-10 | 2011-06-10 | Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120136950A KR20120136950A (en) | 2012-12-20 |
KR101242764B1 true KR101242764B1 (en) | 2013-03-13 |
Family
ID=47296237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110056179A KR101242764B1 (en) | 2011-06-10 | 2011-06-10 | Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101242764B1 (en) |
WO (1) | WO2012169698A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016204323A1 (en) * | 2015-06-17 | 2016-12-22 | (주)에프엑스기어 | User view point-linked image processing device and method therefor |
KR102086733B1 (en) * | 2018-07-19 | 2020-03-09 | (주)아이로보테크 | An Apparatus for Creating an Augmented Reality of a Nail Art Image and a Method for Producing the Same |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09167253A (en) * | 1995-12-14 | 1997-06-24 | Olympus Optical Co Ltd | Image display device |
JPH10336703A (en) | 1997-05-27 | 1998-12-18 | Canon Inc | Image compositing device, its method and storage medium |
JP2005020559A (en) * | 2003-06-27 | 2005-01-20 | Univ Waseda | Three-dimensional video presentation apparatus |
KR20070062703A (en) * | 2005-12-13 | 2007-06-18 | 권영대 | Virtual reality embodiment apparatus and method using 3-d image |
-
2011
- 2011-06-10 KR KR1020110056179A patent/KR101242764B1/en active IP Right Grant
- 2011-09-15 WO PCT/KR2011/006816 patent/WO2012169698A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09167253A (en) * | 1995-12-14 | 1997-06-24 | Olympus Optical Co Ltd | Image display device |
JPH10336703A (en) | 1997-05-27 | 1998-12-18 | Canon Inc | Image compositing device, its method and storage medium |
JP2005020559A (en) * | 2003-06-27 | 2005-01-20 | Univ Waseda | Three-dimensional video presentation apparatus |
KR20070062703A (en) * | 2005-12-13 | 2007-06-18 | 권영대 | Virtual reality embodiment apparatus and method using 3-d image |
Also Published As
Publication number | Publication date |
---|---|
WO2012169698A1 (en) | 2012-12-13 |
KR20120136950A (en) | 2012-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1893675B (en) | Image display device and graphic processor for stereoscopic display of 3d graphic objects | |
US20130071012A1 (en) | Image providing device, image providing method, and image providing program for providing past-experience images | |
TWI531212B (en) | System and method of rendering stereoscopic images | |
JP7197451B2 (en) | Image processing device, method and program | |
CN108885342A (en) | Wide Baseline Stereo for low latency rendering | |
CN109510975B (en) | Video image extraction method, device and system | |
US12100106B2 (en) | Stereoscopic rendering of virtual 3D objects | |
JP2012079291A (en) | Program, information storage medium and image generation system | |
JP5755571B2 (en) | Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device | |
US20230283759A1 (en) | System and method for presenting three-dimensional content | |
CN113253845A (en) | View display method, device, medium and electronic equipment based on eye tracking | |
CN103747236A (en) | 3D (three-dimensional) video processing system and method by combining human eye tracking | |
US9225968B2 (en) | Image producing apparatus, system and method for producing planar and stereoscopic images | |
JPWO2018084087A1 (en) | Image display system, image display apparatus, control method thereof, and program | |
JP2012124885A (en) | Display device and display method | |
US11043019B2 (en) | Method of displaying a wide-format augmented reality object | |
KR101242764B1 (en) | Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu | |
US11297296B2 (en) | Display control apparatus, program, and display control method | |
WO2018173207A1 (en) | Information processing device | |
CN108124148A (en) | A kind of method and device of the multiple view images of single view video conversion | |
KR100728110B1 (en) | Three dimensional effect controllable stereoscopy display device and method thereof | |
CN111405262B (en) | Viewpoint information generation method, apparatus, system, device and medium | |
CN106249858B (en) | A kind of display converting method, device and terminal device | |
JP7261121B2 (en) | Information terminal device and program | |
JP2024062935A (en) | Method of creating solid vision display content and device of them |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160307 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180306 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190305 Year of fee payment: 7 |