Nothing Special   »   [go: up one dir, main page]

KR101242764B1 - Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu - Google Patents

Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu Download PDF

Info

Publication number
KR101242764B1
KR101242764B1 KR1020110056179A KR20110056179A KR101242764B1 KR 101242764 B1 KR101242764 B1 KR 101242764B1 KR 1020110056179 A KR1020110056179 A KR 1020110056179A KR 20110056179 A KR20110056179 A KR 20110056179A KR 101242764 B1 KR101242764 B1 KR 101242764B1
Authority
KR
South Korea
Prior art keywords
image
stereoscopic
generating
augmented reality
right eye
Prior art date
Application number
KR1020110056179A
Other languages
Korean (ko)
Other versions
KR20120136950A (en
Inventor
최한준
양훈모
Original Assignee
주식회사 넥서스칩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 넥서스칩스 filed Critical 주식회사 넥서스칩스
Priority to KR1020110056179A priority Critical patent/KR101242764B1/en
Priority to PCT/KR2011/006816 priority patent/WO2012169698A1/en
Publication of KR20120136950A publication Critical patent/KR20120136950A/en
Application granted granted Critical
Publication of KR101242764B1 publication Critical patent/KR101242764B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

입체 3D 영상과 GPU를 사용한 입체 증강현실 구현 장치 및 방법에 관한 것으로, 보다 상세하게는 양안 카메라를 통해 입력된 좌안 및 우안 영상 또는 단안 카메라를 통해 입력된 단일 시점 영상으로 변환한 좌안 및 우안 영상으로 입체 3D 영상을 생성함과 동시에, GPU를 이용하여 좌안과 우안의 3D 그래픽 물체를 생성하여 오버레이(Overlay)함으로써 사용자들이 진정한 입체 증강 현실을 느낄 수 있는 입체 증강 현실 영상을 생성하는 기술에 관한 것이다.The present invention relates to a device and a method for implementing stereoscopic augmented reality using a stereoscopic 3D image and a PPP, and more specifically, to a left eye and a right eye image inputted through a binocular camera or a single view image input through a monocular camera. The present invention relates to a technology for generating a stereoscopic augmented reality image that allows users to feel true stereoscopic augmented reality by generating and overlaying a 3D graphic object of left and right eyes using a GPU while simultaneously generating a stereoscopic 3D image.

Description

입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치 및 방법{APPARATUS AND METHOD FOR CREATING 3-DIMENSIONAL AUGMENTED REALITY IMAGE USING 3D IMAGE AND GPU} Apparatus and method for generating stereoscopic augmented reality image using stereoscopic 3D image and WiFi {APPARATUS AND METHOD FOR CREATING 3-DIMENSIONAL AUGMENTED REALITY IMAGE USING 3D IMAGE AND GPU}

입체 3D 영상과 GPU를 사용한 입체 증강현실 영상 생성 장치 및 방법에 관한 것으로, 보다 상세하게는 양안 카메라를 통해 입력된 좌안 및 우안 영상 또는 단안 카메라를 통해 2D 영상을 3D 영상으로 변환하여 생성된 좌안 및 우안 영상으로 입체 3D 영상을 생성함과 동시에 일정 패턴을 인식하여 그 주위에 3D 그래픽 물체를 생성하되 좌안과 우안을 각각 생성하여 오버레이(Overlay)함으로써 입체 증강 현실 영상을 생성하는 기술에 관한 것이다.The present invention relates to an apparatus and method for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a PPP, and more specifically, to a left eye and a right eye or a monocular camera input through a binocular camera. The present invention relates to a technology for generating a stereoscopic augmented reality image by generating a 3D image with a right eye image and simultaneously generating a 3D graphic object around a predetermined pattern by recognizing a predetermined pattern and generating an overlay of the left eye and the right eye, respectively.

증강현실이란 사용자가 눈으로 보는 현실세계에 가상 물체를 겹쳐 보여주는 기술이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다. 현실환경과 가상환경을 융합하는 복합형 가상현실 시스템(hybrid VR system)으로 1990년대 후반부터 미국 일본을 중심으로 연구 개발이 진행되고 있다.Augmented reality is a technology that superimposes a virtual object on the real world seen by the user. It is also called Mixed Reality (MR) because it combines the virtual world with additional information in real time into one image. It is a hybrid VR system that converges the real environment and the virtual environment. Since the late 1990s, R & D has been focused on the United States and Japan.

현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다. 사용자가 보고 있는 실사 영상에 3차원 가상영상을 겹침(overlap)으로써 현실환경과 가상화면과의 구분이 모호해지도록 한다는 뜻이다. Augmented reality, a concept that complements the real world with the virtual world, uses a virtual environment made of computer graphics, but the main role is the real environment. Computer graphics serve to provide additional information needed for the real world. By overlapping the three-dimensional virtual image on the real image that the user is viewing, it means that the distinction between the real environment and the virtual screen becomes blurred.

가상현실기술은 가상환경에 사용자를 몰입하게 하여 실제환경을 볼 수 없다. 하지만 실제환경과 가상의 객체가 혼합된 증강현실기술은 사용자가 실제환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다. 예를 들어 스마트폰 카메라로 주변을 비추면 인근에 있는 상점의 위치, 전화번호 등의 정보가 입체영상으로 표기된다. Virtual reality technology immerses the user in the virtual environment and cannot see the real environment. However, augmented reality technology, which is a mixture of real environment and virtual objects, allows the user to see the real environment, providing better realism and additional information. For example, when the camera is illuminated with a smartphone camera, information such as the location and phone number of a nearby store is displayed as a stereoscopic image.

그러나, 종래에는 주로 입체가 아닌 패널을 사용하고 단일 카메라로 촬영된 실사 영상을 입체로 증강현실을 구현함으로써, 즉 일정 패턴 카드 위에 3D 물체(Object)를 나타냄으로써 입체의 느낌을 주긴 하지만 사용자가 인식하는 것이 2D이므로 그 느낌이 반감되었다.However, in the past, the user perceives a stereoscopic feeling by using a non-stereoscopic panel and implementing augmented reality in stereoscopic images of a single camera, that is, displaying a 3D object on a certain pattern card. It was 2D, so the feeling was antagonized.

또한, 종래에는 카메라의 프리뷰 이미지에 대해서만 증강현실을 지원함에 따라 카메라 연동이 항상 필요하였다.In addition, in the related art, camera augmentation has always been necessary since augmented reality is supported only for a preview image of a camera.

2D 영상이 아닌 입체 3D 영상과 GPU를 이용하여 생성된 3D 오브젝트를 오버레이하여 입체 증강현실 영상을 생성하는 기술을 제시한다.The present invention proposes a technique for generating a stereoscopic augmented reality image by overlaying a 3D object generated using a 3D image and a GPU, not a 2D image.

또한, 양안 카메라를 통해 입력된 좌안 및 우안 영상으로 입체 3D 영상을 생성하고, GPU를 이용하여 생성된 3D 오브젝트를 오버레이하여 입체 증강 현실 영상을 생성하는 기술을 제시한다.In addition, the present invention proposes a technique for generating a stereoscopic 3D image from left and right eye images input through a binocular camera, and generating a stereoscopic augmented reality image by overlaying a 3D object generated using a GPU.

또한, 단안 카메라를 통해 입력된 단일 시점 영상을 좌안 및 우안 영상으로 변환하여 입체 3D 영상을 생성하고, GPU를 이용하여 생성된 3D 오브젝트를 오버레이하여 입체 증강 현실 영상을 생성하는 기술을 제시한다.In addition, a stereoscopic 3D image is generated by converting a single viewpoint image input through a monocular camera into a left eye and a right eye image, and a technique of generating a stereoscopic augmented reality image by overlaying a 3D object generated using a GPU.

또한, 양안 카메라나 단안 카메라의 프리뷰 이미지 뿐만 아니라 다운로드 받은 입체 영상이나 단일 시점 영상을 이용하여 입체 3D 영상을 생성하고 동시에 3D 그래픽 물체를 생성하여 입체 증강 현실 영상을 생성할 수 있는 기술을 제시한다. In addition, the present invention proposes a technique for generating a stereoscopic 3D image using a downloaded stereoscopic image or a single viewpoint image as well as a preview image of a binocular camera or a monocular camera and simultaneously generating a 3D graphic object to generate a stereoscopic augmented reality image.

또한, 단일 시점 영상이나 좌안 및 우안 영상에 포함된 패턴 정보를 통해 GPU를 이용하여 3D 오브젝트를 생성하거나, 사용자로부터 입력받은 정보를 바탕으로 3D 오브젝트를 생성하여 입체 증강 현실 영상을 생성할 수 있는 기술을 제시한다.In addition, a technology capable of generating a 3D object using a GPU through a single view image or the pattern information included in the left and right eye images, or generating a 3D object based on information received from a user, to generate a stereoscopic augmented reality image. To present.

일 양상에 따르면, 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치는 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성하는 입체 영상 생성부와 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay) 될 좌안 및 우안의 3D 오브젝트(Object)를 생성하는 오브젝트 생성부 및 생성된 좌안 및 우안의 3D 오브젝트를 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이하여 입체 증강 현실 영상을 생성하는 입체 증강 현실 영상 생성부를 포함한다.According to an aspect, the apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a PGP receives a left eye and a right eye image, and generates a stereoscopic image generator and a left eye and right eye image for generating a stereoscopic 3D image from the received left and right eye images. And an object generator for generating 3D objects of left and right eyes to be overlayed at predetermined positions of the received left and right eye images, and the generated 3D objects of left and right eyes and the left and right eyes of a stereoscopic 3D image. It includes a stereoscopic augmented reality image generating unit for generating a stereoscopic augmented reality image by overlaying a predetermined position of the right eye image.

추가적인 양상에 따르면, 양안 카메라 모듈로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상입력부를 더 포함할 수 있다.According to an additional aspect, the left and right eye images from the binocular camera module may further include an image input unit for transmitting to the stereoscopic image generating unit and the object generating unit.

다른 양상에 따르면, 단안 카메라 모듈로부터 단일 시점 영상을 입력받아 영상 변환부로 전송하는 영상입력부와 영상입력부로부터 단일 시점 영상을 수신하고 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상변환부를 더 포함할 수 있다.According to another aspect, an image input unit which receives a single view image from a monocular camera module and transmits the image to the image conversion unit, receives a single view image from the image input unit, converts the image into left and right eyes, and transmits the image to the stereoscopic image generating unit and the object generating unit. The conversion unit may further include.

또 다른 양상에 따르면, 영상저장부로부터 단일 시점 영상 또는 좌안 및 우안 영상을 입력받아 영상변환부로 전송하는 영상입력부와 영상입력부로부터 수신된 영상이 좌안 및 우안 영상인 경우 입체 영상 생성부와 오브젝트 생성부로 바로 전송하고, 수신된 영상이 단일 시점 영상인 경우 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상변환부를 더 포함할 수 있다.According to another aspect, the image input unit receives a single view image or a left eye and right eye image from the image storage unit and transmits the image to the image converting unit and the stereoscopic image generating unit and the object generating unit when the image received from the image input unit is left and right eye images. When the received image is a single view image, the transmission unit may further include an image converter for converting the image into the left and right eyes and transmitting the image to the stereoscopic image generator and the object generator.

추가적인 양상에 따르면, 오브젝트 생성부는, 수신된 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 좌안 및 우안의 3D 오브젝트를 생성하기 위한 패턴 정보를 추출하는 패턴인식부 및 패턴 인식부에서 추출된 패턴 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 좌안 및 우안의 3D 오브젝트를 생성하는 그래픽 처리부를 포함할 수 있다.According to an additional aspect, the object generating unit, a pattern recognition unit and a pattern recognition unit for recognizing at least one of the patterns included in the received left eye and right eye image to extract pattern information for generating 3D objects of the left eye and right eye It may include a graphic processing unit for generating a 3D object of the left eye and the right eye by rendering using the GPU (Graphic Processing Unit) based on the pattern information extracted from.

다른 양상에 따르면, 오브젝트 생성부는, 사용자로부터 3D 오브젝트 생성 정보를 입력받는 오브젝트 정보 입력부 및 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 좌안 및 우안의 3D 오브젝트를 생성하는 그래픽 처리부를 포함할 수 있다.According to another aspect, the object generator generates a 3D object for left and right eyes by rendering using a graphic processing unit (GPU) based on an object information input unit for receiving 3D object generation information from a user and the received 3D object generation information. It may include a graphics processing unit.

일 양상에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법은, 입체 영상 생성부가 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성하는 단계와 오브젝트 생성부가 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)될 좌안 및 우안의 3D 오브젝트(Object)를 생성하는 단계 및 입체 증강 현실 영상 생성부가 생성된 좌안 및 우안의 3D 오브젝트를 입체 3D 영상의 좌안과 우안 영상의 소정의 위치에 오버레이하여 입체 증강 현실 영상을 생성하는 단계를 포함한다.According to one or more exemplary embodiments, a stereoscopic augmented reality image generation method using a stereoscopic 3D image and a PGP includes: receiving a left eye and a right eye image from a stereoscopic image generator, generating a stereoscopic 3D image from the left and right eye images, and an object generating unit from a left eye And receiving a right eye image, generating a 3D object of left and right eyes to be overlayed on a predetermined position of the received left and right eye images, and generating a 3D augmented reality image generator. And overlaying the object on predetermined positions of the left and right eyes of the stereoscopic 3D image to generate a stereoscopic augmented reality image.

추가적인 양상에 따르면, 입체 3D 영상을 생성하는 단계는, 영상입력부가 양안 카메라 모듈로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계를 포함할 수 있다.According to an additional aspect, the generating of the stereoscopic 3D image may include transmitting the left and right eye images from the binocular camera module to the stereoscopic image generator and the object generator.

다른 양상에 따르면, 입체 3D 영상을 생성하는 단계는, 영상입력부가 단안 카메라 모듈로부터 단일 시점 영상을 입력받아 영상변환부로 전송하는 단계와 영상변환부가 단일 시점 영상을 수신하고 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계를 포함할 수 있다.According to another aspect, the step of generating a stereoscopic 3D image, the image input unit receives a single view image from the monocular camera module and transmits to the image conversion unit and the image conversion unit receives the single view image and converts to the left eye and right eye image The method may include transmitting the stereoscopic image generator and the object generator.

또 다른 양상에 따르면, 입체 3D 영상을 생성하는 단계는, 영상입력부가 영상 저장부로부터 영상을 입력받아 영상변환부로 전송하는 단계와 영상변환부가 수신한 영상이 좌안 및 우안 영상인 경우 입체 영상 생성부와 오브젝트 생성부로 바로 전송하고, 그 수신한 영상이 단일 시점 영상인 경우 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계를 포함할 수 있다.According to another aspect, the step of generating a stereoscopic 3D image, the image input unit receives the image from the image storage unit and transmits the image to the image conversion unit and the stereoscopic image generation unit when the image received by the image conversion unit is left eye and right eye image And transmitting directly to the object generating unit and converting the received image into a left eye and right eye image to the stereoscopic image generating unit and the object generating unit when the received image is a single view image.

추가적인 양상에 따르면, 3D 오브젝트 생성 단계는, 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나 패턴을 인식하여 좌안 및 우안 각각의 3D 오브젝트를 생성하기 위한 패턴 정보를 추출하는 단계 및 추출된 패턴 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 좌안 및 우안의 3D 오브젝트 를 생성하는 단계를 포함할 수 있다.According to an additional aspect, the generating of the 3D object may include: extracting pattern information for generating 3D objects of each of the left and right eyes by recognizing at least one of patterns included in the left and right eye images, and extracting the extracted pattern information. Based on the rendering using the GPU (Graphic Processing Unit) may include the step of generating a 3D object of the left and right eyes.

다른 양상에 따르면, 3D 오브젝트 생성 단계는, 사용자로부터 3D 오브젝트 생성 정보를 입력받는 단계 및 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 좌안 및 우안의 3D 오브젝트를 생성하는 단계를 포함할 수 있다.According to another aspect, the 3D object generation step may include receiving 3D object generation information from a user and generating 3D objects of left and right eyes using a GPU (Graphic Processing Unit) based on the received 3D object generation information. It may include.

2D 영상이 아닌 입체 3D 영상과 GPU를 이용하여 생성된 3D 오브젝트를 오버레이하여 사용자가 증강현실을 진정한 입체로 느낄 수 있도록 하는 입체 증강현실 영상을 생성하는 장치 및 방법을 제공할 수 있다.It is possible to provide an apparatus and method for generating a stereoscopic augmented reality image that allows a user to feel augmented reality in true stereoscopic by overlaying a 3D object generated using a 3D image and a PGP, not a 2D image.

또한, 입체 3D 생성과 3D 그래픽의 시너지를 통해 입체 3D 시장 확대와 3D 그래픽 시장 확대에 기여할 수 있도록 하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치 및 방법을 제공할 수 있다. In addition, it is possible to provide an apparatus and method for generating stereoscopic 3D images and a stereoscopic augmented reality image using a WiFi to contribute to the expansion of the stereoscopic 3D market and 3D graphics market through synergy of stereoscopic 3D generation and 3D graphics.

도 1은 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성의 개념도이다.
도 2는 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다.
도 3은 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다.
도 4는 또 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다.
도 5는 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법의 흐름도이다.
도 6은 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법의 흐름도이다.
FIG. 1 is a conceptual diagram of stereoscopic augmented reality image generation using a stereoscopic 3D image and a WiFi.
2 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to an exemplary embodiment.
3 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment.
4 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment.
5 is a flowchart illustrating a method of generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to an exemplary embodiment.
6 is a flowchart illustrating a method of generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
Specific details of other embodiments are included in the detailed description and the drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

이하, 실시예들에 의해 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치 및 그 방법을 설명하기 위하여 도면들을 참고하여 상세히 설명하도록 한다. Hereinafter, an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a GPU and a method thereof will be described in detail with reference to the accompanying drawings.

도 1은 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성의 개념도이다. 도 1에는 일 실시예에 따라 양안 카메라 모듈이 장착되어 입체 증강 현실 영상을 생성하는 장치가 개시되어 있다. 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치는 이하 다양한 실시예를 들어 설명하는 바와 같이, 반드시 양안 카메라 모듈이 장착되어 있는 장치임을 의미하는 것이 아니고, 단안 카메라 모듈이 장착되어 있거나, 카메라 모듈이 전혀 장착되어 있지 아니한 장치일 수 있다.FIG. 1 is a conceptual diagram of stereoscopic augmented reality image generation using a stereoscopic 3D image and a WiFi. 1 illustrates an apparatus for generating a stereoscopic augmented reality image by mounting a binocular camera module according to an embodiment. An apparatus for generating stereoscopic augmented reality images using stereoscopic 3D images and GPUs does not necessarily mean that the binocular camera module is mounted, as described with reference to various embodiments below, and is equipped with a monocular camera module or a camera module. This may be a device that is not mounted at all.

도 1을 참조하여 입체 증강 현실 영상을 생성하는 개념을 설명하면, 먼저, 양안 카메라 모듈을 통해 일정 패턴 카드와 함께 실 물체의 좌안 및 우안 영상이 촬영된다. 일정 패턴 카드는 3D 그래픽 물체(Object)를 생성하기 위한 패턴 정보를 포함하고 있다. 패턴 카드는 증강 현실에서 사용되는 마커라고 할 수 있는데, 패턴 카드(마커)는 컴퓨터 비전 기술로 인식하기 쉬운 어떤 물체를 의미하는 것이며, 예를 들어 검은 바탕에 똑바로 쓰여진 평면 문양이나 특이한 색상을 갖는 기하학적인 물체라고 할 수 있다. Referring to FIG. 1, a concept of generating a stereoscopic augmented reality image is described. First, a left eye and a right eye image of a real object are photographed together with a predetermined pattern card through a binocular camera module. The certain pattern card includes pattern information for generating a 3D graphic object. A pattern card is a marker used in augmented reality. A pattern card (marker) refers to an object that can be easily recognized by computer vision technology, for example, a flat pattern written on a black background or a geometric with unusual colors. It can be said to be an object.

입체 증강 현실 영상 생성 장치는 양안 카메라 모듈을 통해 촬영된 패턴 카드가 포함된 좌안 및 우안의 실사 영상을 입력받아 패턴 카드가 위치한 곳에 GPU(Graphic Processing Unit)을 사용하여 렌더링하여 좌안 및 우안의 3D 그래픽 물체를 생성한다. 이때, 입체 증강 현실 영상 생성 장치는 패턴 카드에 포함된 패턴 정보를 인식하고 분석하여 생성될 3D 그래픽 물체의 크기와 오버레이(Overlay)될 위치 등에 관한 정보를 추출한다. 입체 증강 현실 영상 생성 장치는 추출된 정보들을 이용하여 좌안 및 우안의 3D 그래픽 물체를 생성하고 이를 대응되는 좌안 및 우안의 실사 영상의 소정의 위치에 오버레이(Overlay)하여 입체 증강 현실 영상을 생성한다. The 3D augmented reality image generating device receives 3D graphics of the left and right eyes including the pattern card photographed through the binocular camera module and renders the image using the GPU (Graphic Processing Unit) where the pattern card is located. Create an object. At this time, the 3D augmented reality image generating apparatus recognizes and analyzes the pattern information included in the pattern card and extracts information about the size of the 3D graphic object to be generated and the position to be overlayed. The apparatus for generating a stereoscopic augmented reality image generates a 3D graphic object of left and right eyes using the extracted information, and generates a 3D augmented reality image by overlaying the 3D graphic object on the corresponding left and right eyes.

도 2는 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다. 이하, 도 2를 참조하여 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강 현실 영상 생성 장치(100)에 대해 상세히 설명한다. 도 2는 양안 카메라 모듈이 장착되어 있는 입체 증강 현실 영상 생성 장치(100)를 이용하여 입체 증강 현실 영상을 생성하는 실시예를 나타내고 있다.2 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to an exemplary embodiment. Hereinafter, the stereoscopic augmented reality image generating apparatus 100 using the stereoscopic 3D image and the WiFi according to an embodiment will be described in detail with reference to FIG. 2. 2 illustrates an embodiment of generating a stereoscopic augmented reality image by using the stereoscopic augmented reality image generating apparatus 100 equipped with a binocular camera module.

도 2에 도시된 바와 같이, 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치(100)는 입체 영상 생성부(140)와 오브젝트 생성부(150) 및 입체 증강 현실 영상 생성부(160)를 포함한다. As shown in FIG. 2, the apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a PPU 100 may include a stereoscopic image generating unit 140, an object generating unit 150, and a stereoscopic augmented reality image generating unit 160. Include.

입체 영상 생성부(140)는 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다. 양안 입체 영상에서는 카메라 시스템을 구성하는 좌, 우 두 대의 양 카메라모듈이 동일한 대상물을 촬영하고 있어도, 사람의 눈과 같이 그 대상물은 약간의 수평적 차이를 가지고 촬영되는데 이때 발생하는 좌우 영상의 차이를 시차라 한다. 입체영상으로 촬영한 것을 사람의 눈으로 감지하여 두뇌에서 입체감을 재현할 때, 좌, 우 카메라 간격과 물체를 향한 좌,우 영상의 시차 크기에 따라 영상이 매칭되지 않는 경우 눈이 피로해지고 두통을 일으키는 등의 문제를 발생하게 된다. The stereoscopic image generator 140 receives left and right eye images, and generates a stereoscopic 3D image from the received left and right eye images. In the binocular stereoscopic image, although the two left and right camera modules of the camera system are photographing the same object, the object is photographed with a slight horizontal difference like the human eye. It is called time difference. When the 3D image is captured by the human eye and the 3D image is reproduced in the brain, if the image does not match according to the left and right camera intervals and the size of the parallax of the left and right images toward the object, the eye becomes tired and headaches occur. Cause problems such as causing.

양안 카메라로 촬영한 두 영상 사이의 시차는 원거리에서 근거리로 갈수록 시차가 커지게 되는 특성을 갖는 것이다. 좌우 영상은 서로 닮은 영상이지만 원거리에 있는 물체와 근거리에 있는 물체들이 혼재한 형태이기 때문에 배경과 피사체들이 놓인 상태에 따라 일치점에 차이가 발생하게 된다. 따라서, 어느 하나의 기준이 되는 대상 물체나 주시영역(depth = 0인 지점)을 중심으로 양 영상을 좌우 또는 상하로 이동하여 주시점을 일치시켜 컨버전스를 조절하여 입체 3D 영상을 생성하게 된다.The parallax between two images taken with a binocular camera has a characteristic that the parallax increases from a distance to a near distance. The left and right images are similar to each other, but because the objects in the distance and the objects in the short distance are mixed, a difference occurs in the matching point depending on the state of the background and the subjects. Accordingly, the stereoscopic 3D image is generated by adjusting the convergence by matching the gaze points by moving both images left and right or up and down about a target object or gaze area (a point where depth = 0) as a reference.

본 실시예의 추가적인 양상에 따르면, 입체 증강현실 영상 생성 장치(100)는 양안 카메라 모듈과 영상입력부(120)를 더 포함할 수 있다.According to an additional aspect of the present embodiment, the stereoscopic augmented reality image generating apparatus 100 may further include a binocular camera module and an image input unit 120.

양안 카메라 모듈은 사람의 눈과 같이 일정하게 이격되어 동일한 대상물에 대한 좌안 및 우안의 실사 영상을 촬영한다. 영상입력부(120)는 양안 카메라 모듈로부터 촬영된 좌안 및 우안 영상을 입력받아 입체 영상 생성부(140)로 전송한다.The binocular camera module captures live images of the left and right eyes of the same object at regular intervals, such as a human eye. The image input unit 120 receives the left and right eye images photographed from the binocular camera module and transmits the images to the stereoscopic image generator 140.

한편, 입체 증강 현실 영상 생성 장치(100)는 영상저장부(110)를 더 포함할 수 있다. 영상 저장부(110)는 외부 장치(PC, 다른 양안 카메라 등)로부터 유무선 연결(USB, 블루투스, 적외선 통신 등)을 통해 다운로드 받은 입체 영상이나, 무선 네트워크 통신을 통해 입체 영상 콘텐츠를 제공하는 서버에 접속하여 다운로드 받은 입체 영상을 저장할 수 있다. 영상 입력부(120)는 사용자의 UI 조작에 의해 영상저장부(110)에 저장되어 있는 좌안 및 우안의 입체 영상을 입력받을 수 있다. Meanwhile, the 3D augmented reality image generating apparatus 100 may further include an image storage unit 110. The image storage unit 110 may be a stereoscopic image downloaded from an external device (PC, other binocular camera, etc.) through a wired or wireless connection (USB, Bluetooth, infrared communication, etc.) or a server providing stereoscopic image content through wireless network communication. You can save the downloaded 3D video. The image input unit 120 may receive stereoscopic images of left and right eyes stored in the image storage unit 110 by a user's UI manipulation.

즉, 영상입력부(120)는 사용자의 UI 조작에 의해 선택적으로 양안 카메라 모듈로부터 촬영된 좌안 및 우안 영상 또는 영상저장부(110)에 저장되어 있는 좌안 및 우안 영상을 입력받을 수 있다. 따라서, 입체 증강 현실 영상 생성 장치(100)는 양안 카메라 모듈에 의해 촬영된 프리뷰 영상뿐만 아니라, 영상 저장부(110)로부터 저장되어 있는 다운로드 받은 입체 영상을 이용하여 입체 증강 현실 영상을 생성할 수 있다.That is, the image input unit 120 may receive the left and right eye images captured by the binocular camera module or the left and right eye images stored in the image storage unit 110 selectively by a user's UI manipulation. Accordingly, the apparatus 100 for generating a stereoscopic augmented reality image may generate a stereoscopic augmented reality image using not only the preview image captured by the binocular camera module but also the downloaded stereoscopic image stored in the image storage unit 110. .

오브젝트 생성부(150)는 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이될 좌안 및 우안의 3D 오브젝트(Object) 영상을 생성한다. 오브젝트 생성부(150)는 영상입력부(120)로부터 좌안 및 우안 영상 중 적어도 어느 하나를 수신할 수 있다. 이때, 3D 오브젝트는 좌안 및 우안 영상 각각 생성된다. 3D 오브젝트는 실사 영상에 오버레이하여 증강 현실 영상을 생성하기 위한 가상의 물체로서, GPU(Graphic Processing Unit)를 사용하여 렌더링 과정을 거쳐 생성된다. The object generator 150 receives left and right eye images, and generates 3D object images of left and right eyes to be overlaid on predetermined positions of the received left and right eye images. The object generator 150 may receive at least one of a left eye and a right eye image from the image inputter 120. In this case, the 3D object is generated for each of the left eye and right eye images. The 3D object is a virtual object for generating an augmented reality image by overlaying the photo-realistic image and is generated through a rendering process using a graphic processing unit (GPU).

오브젝트 생성부(150)는 3D 오브젝트를 생성하기 위한 정보들을 이용하여 GPU를 사용하여 렌더링하여 3D 그래픽 오브젝트를 생성한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 지오메트리(geometry), 시점, 텍스처 매핑(texture mapping), 조명, 셰이딩(shading) 정보 등의 3D 그래픽 물체를 생성하기 위한 모델링와, 3D 오브젝트가 오버레이 될 위치, 크기(Scaling), 비틀림(Tilt) 정보 등의 증강현실 영상 생성을 위한 정보 등을 포함한다. The object generator 150 generates a 3D graphic object by rendering using the GPU using information for generating the 3D object. In this case, the information for generating a 3D object includes modeling for generating a 3D graphic object such as geometry, viewpoint, texture mapping, lighting, and shading information, and location and size of the 3D object to be overlaid. Information for generating an augmented reality image, such as scaling and torsion information.

렌더링(Realtime Rendering)은 컴퓨터 프로그램을 이용하여 3D 모델 정보로부터 래스터 그래픽스 이미지라 불리는 영상을 실시간으로 만드는 과정을 의미한다. 실시간 렌더링은 아키텍처, 비디오 게임, 시뮬레이터, 특수효과, 디자인 시각화 등 다양한 분야에 사용된다. 실시간 렌더링은 많은 연산이 필요로 하기 때문에 렌더링 속도 향상을 위하여 그래픽 가속기(GPU)를 사용한다. Realtime Rendering refers to the process of creating an image called raster graphics image in real time from 3D model information using a computer program. Real-time rendering is used in a variety of fields, including architecture, video games, simulators, special effects, and design visualization. Real-time rendering requires a lot of computation, so we use a graphics accelerator (GPU) to speed up rendering.

좀 더 구체적인 양상에 따르면, 오브젝트 생성부(150)는 오브젝트 정보 입력부(152)와 그래픽 처리부(153)를 포함할 수 있다. 사용자는 입체 증강 현실 영상 생성 장치(100)의 UI를 선택적으로 조작하여 3D 오브젝트 생성 정보를 직접 입력할 수 있다. 오브젝트 정보 입력부(152)는 사용자가 입체 증강 현실 영상 생성 장치(100)의 UI 조작에 의해 입력하는 3D 오브젝트 생성에 필요한 정보를 입력받는다. According to a more specific aspect, the object generator 150 may include an object information input unit 152 and a graphic processor 153. The user may directly input the 3D object generation information by selectively operating the UI of the 3D augmented reality image generating apparatus 100. The object information input unit 152 receives information necessary for generating a 3D object input by a user through UI manipulation of the 3D augmented reality image generating apparatus 100.

즉, 오브젝트 정보 입력부(152)는 입체 영상 생성부(140)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 3D 오브젝트 생성 정보를 직접 사용자로부터 입력받을 수 있다.That is, the object information input unit 152 may directly receive 3D object generation information corresponding to the parallax of the stereoscopic image, which is a live image, in order to have the same stereoscopic sense as the stereoscopic image generated by the stereoscopic image generator 140. .

그래픽 처리부(153)는 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 수신한 좌안 및 우안 영상의 시차와 일치되도록 렌더링하여 좌안 및 우안의 3D 오브젝트 영상을 생성한다.The graphic processor 153 renders 3D object images of the left and right eyes by rendering them to match the parallax of the received left and right eyes using a GPU (Graphic Processing Unit) based on the received 3D object generation information.

본 실시예의 추가적인 양상에 따르면, 영상입력부(120)에 입력되는 좌안 및 우안 영상의 소정의 위치에는 일정 패턴이 포함될 수 있고, 오브젝트 생성부(150)는 패턴인식부(151)를 더 포함할 수 있다. 일정 패턴은 체스판 무늬 등 다양한 종류의 이미지를 포함하며, 패턴의 종류에 따라서 현실세계 영상과 합성되는 3차원 오브젝트의 종류가 결정될 수 있다. 좌안 및 우안 영상 내에 포함된 일정 패턴은 양안 카메라 모듈로부터 실사 영상 촬영시 함께 촬영될 수 있고, 다른 양안 카메라를 통해 패턴이 포함되어 촬영된 실사 영상을 다운로드 받아 영상저장부(110)에 저장되어 있는 것일 수 있다.According to an additional aspect of the present embodiment, a predetermined pattern may be included in predetermined positions of the left and right eye images input to the image input unit 120, and the object generator 150 may further include a pattern recognition unit 151. have. The predetermined pattern includes various kinds of images such as a chessboard pattern, and the type of the 3D object synthesized with the real world image may be determined according to the type of the pattern. The predetermined pattern included in the left and right eye images may be taken together when the real image is taken from the binocular camera module, and the real pattern image including the pattern is downloaded and stored in the image storage unit 110 through another binocular camera. It may be.

패턴인식부(151)는 영상입력부(120)로부터 수신한 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 좌안 및 우안의 3D 오브젝트 영상을 생성하기 위한 패턴 정보를 추출한다. 즉, 패턴인식부(151)는 영상입력부(120)로부터 수신한 좌안 및 우안 영상 중 어느 하나의 영상을 탐색하여 패턴의 경계를 인식한다. 실사 영상에서 패턴의 경계가 파악되면 그 패턴의 위치인 3차원 위치 정보를 산출하고, 패턴의 크기와 비틀린 정도(Tilt) 등을 추산하여 패턴 정보를 추출하게 된다. 패턴인식부(151)는 패턴 정보가 추출되면 패턴 정보와 3D 그래픽 모델링 정보를 그래픽처리부(153)에 전송한다. 이때, 각종 패턴에 대응되는 3D 그래픽 모델링 정보는 별도의 메모리부(미도시)에 저장되어 있을 수 있고, 패턴인식부(151)는 패턴 정보 추출이 완료되면 그 패턴 정보를 이용하여 해당하는 패턴의 3D 모델링 정보를 메모리부(미도시)에서 읽어 그래픽 처리부(153)로 전송할 수 있다.The pattern recognition unit 151 recognizes at least one of the patterns included in the left and right eye images received from the image input unit 120 and extracts pattern information for generating 3D object images of the left and right eyes. That is, the pattern recognition unit 151 searches for one of the left eye and right eye images received from the image input unit 120 to recognize the boundary of the pattern. When the boundary of the pattern is identified in the live image, the 3D position information, which is the position of the pattern, is calculated, and the pattern information is extracted by estimating the size of the pattern and the degree of twist. When the pattern information is extracted, the pattern recognition unit 151 transmits the pattern information and the 3D graphic modeling information to the graphic processing unit 153. In this case, the 3D graphic modeling information corresponding to various patterns may be stored in a separate memory unit (not shown), and when the pattern information extraction is completed, the pattern recognition unit 151 may use the pattern information to determine the corresponding pattern. The 3D modeling information may be read from the memory unit (not shown) and transmitted to the graphic processor 153.

이때, 오브젝트 정보 입력부(152)는 사용자의 UI 조작에 의해 사용자로부터 증강현실 영상에서 3D 오브젝트의 입체감을 나타내기 위한 시차 정보 등을 추가로 입력받아 그래픽처리부(153)로 전송할 수 있다. 사용자로부터 입력되는 시차 정보는 입체 영상 생성부(140)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 시차 정보일 수 있다.In this case, the object information input unit 152 may further receive parallax information for representing a 3D object of the 3D object in the augmented reality image by the user's UI manipulation and transmit the received parallax information to the graphic processing unit 153. The disparity information input from the user may be disparity information corresponding to the disparity of the stereoscopic image which is the real image in order to have the same stereoscopic sense as the stereoscopic image generated by the stereoscopic image generating unit 140.

그래픽처리부(153)는 패턴 정보와 3D 오브젝트 생성 모델링 정보 또는 시차 정보 등을 바탕으로 그래픽가속기(GPU)를 사용하여 렌더링하여 3D 오브젝트를 생성한다. 일반적으로, 3D 그래픽 가속기를 이용하여 3D 그래픽 물체를 생성하는 렌더링 과정은 크게 지오메트리 처리(Geometry processing) 과정과 래스터 처리(rasterization) 과정으로 나눌 수 있다. The graphic processor 153 generates a 3D object by rendering using a graphic accelerator (GPU) based on the pattern information, 3D object generation modeling information, or parallax information. In general, a rendering process for generating a 3D graphic object using a 3D graphics accelerator may be roughly divided into a geometry processing process and a rasterization process.

먼저 지오메트리 처리 과정은 주로 3D 좌표계의 물체를 시점에 따라 변환하고, 조명 처리와 셰이딩을 수행하며, 2차원 좌표계로 투영 처리하는 과정을 말한다. 기하학적 처리 과정은 상당한 량의 행렬 연산과 삼각함수 연산을 포함하므로 상당한 연산부하가 발생한다. 종래의 3D 그래픽 처리 방식에서는 CPU가 이러한 기하학적 처리 과정을 수행하였으나, 최근에는 3D 그래픽 가속기에서 이러한 기하학적 처리 과정을 수행하도록 함으로써 CPU의 연산 부하를 대폭 감소시켜, 전체 시스템의 성능을 향상시켰다. First, the geometry processing process mainly refers to a process of transforming an object of a 3D coordinate system according to a viewpoint, performing lighting processing and shading, and projecting the object to a two-dimensional coordinate system. The geometrical process involves a significant amount of matrix and trigonometric operations, resulting in significant computational load. In the conventional 3D graphics processing method, the CPU performs this geometric processing, but recently, by performing the geometric processing in the 3D graphics accelerator, the computational load of the CPU is greatly reduced, thereby improving the performance of the entire system.

래스터 처리 과정은 2차원 좌표계의 이미지에 색깔 값을 결정하며 프레임 버퍼에 저장하는 과정을 말한다. 래스터 처리 과정은 지오메트리 변환에 의해 벡터 그래픽스로 변환된 3D 그래픽 모델에 대해 래스터화(rasterization)를 수행한다. 래스터화는 벡터 그래픽스를 픽셀 패턴 이미지로 변환하는 과정이다. 즉, 래스터 처리 과정은 실태가 없었던 3D 그래픽 모델의 폴리곤(polygon)을 화면상의 픽셀에 대응시켜 붙여주는 과정을 수행하여 생성되는 영상을 프레임 버퍼에 저장한다.Raster processing is the process of determining the color value in the image of the 2D coordinate system and storing it in the frame buffer. The raster process performs rasterization on the 3D graphic model converted to vector graphics by geometry transformation. Rasterization is the process of converting vector graphics into pixel pattern images. That is, the raster processing process stores a generated image in a frame buffer by attaching a polygon of a 3D graphic model, which has never existed, to correspond to pixels on a screen.

입체 증강 현실 영상 생성부(160)는 오브젝트 생성부(150)에서 생성된 좌안 및 우안의 3D 오브젝트를 입체 영상 생성부(140)에서 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)하여 입체 증강 현실 영상을 생성한다.The stereoscopic augmented reality image generator 160 overlays the left and right eye 3D objects generated by the object generator 150 at predetermined positions of the left and right eye images of the stereoscopic 3D image generated by the stereoscopic image generator 140. (Overlay) to generate a stereoscopic augmented reality image.

또한, 추가적인 양상에 따르면, 입체 증강 현실 영상 생성 장치(100)는 영상출력부(170)를 더 포함할 수 있다. 영상출력부(170)는 디스플레이의 출력 포맷(line base, pixel_base, sub-pixel base, side-by-side, top-bottom, red-blue, red-green 등)에 맞도록 입체 증강 현실 생성부(160)에서 생성된 입체 증강 현실 영상을 포맷팅하여 디스플레이에 출력한다.
According to an additional aspect, the stereoscopic augmented reality image generating apparatus 100 may further include an image output unit 170. The image output unit 170 is a stereoscopic augmented reality generator (3) to fit the output format of the display (line base, pixel_base, sub-pixel base, side-by-side, top-bottom, red-blue, red-green, etc.) The stereoscopic augmented reality image generated at 160 is formatted and output to the display.

도 3은 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다. 이하, 도 3을 참조하여 단일 시점 영상을 이용하여 입체 증강 현실 영상을 생성하는 장치(300)에 대해 설명하기로 한다. 도 3은 단안 카메라 모듈이 장착되어 있는 입체 증강 현실 영상 생성 장치(300)를 이용하여 입체 증강 현실 영상을 생성하는 실시예를 나타내고 있다.3 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment. Hereinafter, an apparatus 300 for generating a stereoscopic augmented reality image using a single viewpoint image will be described with reference to FIG. 3. 3 illustrates an embodiment in which a stereoscopic augmented reality image is generated using a stereoscopic augmented reality image generating apparatus 300 equipped with a monocular camera module.

도 3에 도시된 바와 같이, 입체 증강현실 영상 생성 장치(300)는 영상변환부(330), 입체 영상 생성부(340), 오브젝트 생성부(350) 및 입체 증강 현실 영상 생성부(360)를 포함한다.As shown in FIG. 3, the stereoscopic augmented reality image generating apparatus 300 may include an image converter 330, a stereoscopic image generator 340, an object generator 350, and a stereoscopic augmented reality image generator 360. Include.

영상변환부(330)는 단일 시점 영상을 수신하고, 수신된 단일 시점 영상을 좌안 및 우안 영상으로 변환하여 입체 영상 생성부(340)와 오브젝트 생성부(350)로 전송한다. 한편, 영상변환부(330)는 좌안 및 우안의 입체 영상을 수신할 수 있고, 입체 영상이 수신되는 경우 영상 변환 과정을 수행하지 않고 바로 입체 영상 생성부(340)과 오브젝트 생성부(350)에 전송한다. 여기서, 단일 시점 영상을 좌안 및 우안의 다시점 영상으로 변환하는 방법 자체에 대해서는 이미 알려진 다양한 방법들이 사용될 수 있다.The image converter 330 receives a single view image, converts the received single view image into left and right eye images, and transmits the single view image to the stereoscopic image generator 340 and the object generator 350. On the other hand, the image conversion unit 330 may receive a stereoscopic image of the left eye and the right eye, and when the stereoscopic image is received, the stereoscopic image generation unit 340 and the object generation unit 350 do not perform an image conversion process. send. Here, various known methods may be used for the method itself for converting a single view image into a multiview image of left and right eyes.

본 실시예의 추가적인 양상에 따르면, 입체 증강현실 영상 생성 장치(300)는 단안 카메라 모듈과 영상입력부(320)를 더 포함할 수 있다.According to an additional aspect of the present embodiment, the stereoscopic augmented reality image generating apparatus 300 may further include a monocular camera module and an image input unit 320.

단안 카메라 모듈은 실사 영상을 촬영한다. 영상입력부(320)는 단안 카메라 모듈로부터 촬영된 실사 영상을 입력받아 영상 변환부(330)로 전송한다.The monocular camera module captures live-action images. The image input unit 320 receives a live image captured by the monocular camera module and transmits it to the image converter 330.

한편, 입체 증강 현실 영상 생성 장치(300)는 영상저장부(310)를 더 포함할 수 있다. 영상 저장부(310)는 외부 장치(PC, 다른 단안 카메라, 양안 카메라 등)로부터 유무선 연결(USB, 블루투스, 적외선 통신 등)을 통해 다운로드 받은 영상이나, 무선 네트워크 통신을 통해 입체 영상 콘텐츠를 제공하는 서버에 접속하여 다운로드 받은 영상을 저장할 수 있다. 영상 입력부(320)는 사용자의 UI 조작에 의해 영상저장부(310)에 저장되어 있는 단일 시점 영상 또는 좌안 및 우안 영상을 입력받아 영상 변환부(330)로 전송할 수 있다.On the other hand, the stereoscopic augmented reality image generating apparatus 300 may further include an image storage unit 310. The image storage unit 310 provides an image downloaded from an external device (PC, other monocular camera, binocular camera, etc.) via wired or wireless connection (USB, Bluetooth, infrared communication, etc.) or through wireless network communication. You can connect to the server and save the downloaded video. The image input unit 320 may receive a single view image or a left eye and a right eye image stored in the image storage unit 310 by a user's UI manipulation and transmit the image to the image converter 330.

즉, 영상입력부(320)는 사용자의 UI 조작에 의해 선택적으로 단안 카메라 모듈로부터 촬영된 단일 시점 영상 또는 영상저장부(310)에 저장되어 있는 단일 시점영상 또는 좌안 및 우안의 입체 영상을 입력받을 수 있다. 따라서, 입체 증강 현실 영상 생성 장치(300)는 단안 카메라 모듈에 의해 촬영된 프리뷰 영상뿐만 아니라, 영상 저장부(310)로부터 저장되어 있는 다운로드 받은 단일 시점/다시점 영상을 이용하여 입체 증강 현실 영상을 생성할 수 있다.That is, the image input unit 320 may receive a single viewpoint image captured by the monocular camera module or a single viewpoint image stored in the image storage unit 310 or a stereoscopic image of left and right eyes selectively by a user's UI manipulation. have. Therefore, the stereoscopic augmented reality image generating apparatus 300 not only preview images photographed by the monocular camera module but also stereoscopic augmented reality images using the downloaded single viewpoint / multiview image stored in the image storage unit 310. Can be generated.

입체 영상 생성부(340)는 영상 변환부(330)에서 전송된 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다. The stereoscopic image generator 340 receives the left and right eye images transmitted from the image converter 330, and generates a stereoscopic 3D image from the received left and right eye images.

오브젝트 생성부(350)는 영상 변환부(330)에서 전송된 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이될 좌안 및 우안의 3D 오브젝트(Object) 영상을 생성한다. 이때, 3D 오브젝트는 좌안 및 우안 영상 각각 생성된다. 3D 오브젝트는 실사 영상에 오버레이하여 증강 현실 영상을 생성하기 위한 가상의 물체로서, GPU(Graphic Processing Unit)를 사용하여 렌더링 과정을 거쳐 생성된다. The object generator 350 receives left and right eye images transmitted from the image converter 330 and generates 3D object images of left and right eyes to be overlaid on predetermined positions of the received left and right eye images. . In this case, the 3D object is generated for each of the left eye and right eye images. The 3D object is a virtual object for generating an augmented reality image by overlaying the photo-realistic image and is generated through a rendering process using a graphic processing unit (GPU).

오브젝트 생성부(350)는 3D 오브젝트를 생성하기 위한 정보들을 이용하여 GPU를 사용하여 렌더링하여 3D 그래픽 오브젝트를 생성한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 지오메트리(geometry), 시점, 텍스처 매핑(texture mapping), 조명, 셰이딩(shading) 정보 등의 3D 그래픽 물체를 생성하기 위한 모델링와, 3D 오브젝트가 오버레이 될 위치, 크기(Scaling), 비틀림(Tilt) 정보 등의 증강현실 영상 생성을 위한 정보 등을 포함한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 사용자의 UI 조작에 의해 선택될 수 있다.The object generator 350 generates a 3D graphic object by rendering using the GPU using information for generating the 3D object. In this case, the information for generating a 3D object includes modeling for generating a 3D graphic object such as geometry, viewpoint, texture mapping, lighting, and shading information, and location and size of the 3D object to be overlaid. Information for generating an augmented reality image, such as scaling and torsion information. In this case, the information for generating the 3D object may be selected by a user's UI manipulation.

좀 더 구체적인 양상에 따르면, 오브젝트 생성부(350)는 오브젝트 정보 입력부(352)와 그래픽 처리부(353)를 포함할 수 있다. 사용자는 입체 증강 현실 영상 생성 장치(300)의 UI를 선택적으로 조작하여 3D 오브젝트 생성 정보를 직접 입력할 수 있다. 오브젝트 정보 입력부(352)는 사용자가 입체 증강 현실 영상 생성 장치(300)의 UI 조작에 의해 입력하는 3D 오브젝트 생성에 필요한 정보를 입력받는다. According to a more specific aspect, the object generator 350 may include an object information input unit 352 and a graphic processor 353. The user may directly input the 3D object generation information by selectively manipulating the UI of the 3D augmented reality image generating apparatus 300. The object information input unit 352 receives information necessary for generating a 3D object input by a user through UI manipulation of the 3D augmented reality image generating apparatus 300.

즉, 오브젝트 정보 입력부(352)는 입체 영상 생성부(340)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 3D 오브젝트 생성 정보를 직접 사용자로부터 입력받을 수 있다.That is, the object information input unit 352 may directly receive 3D object generation information that matches the parallax of the stereoscopic image, which is a live image, in order to have the same stereoscopic sense as the stereoscopic image generated by the stereoscopic image generator 340. .

그래픽 처리부(353)는 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 수신한 좌안 및 우안 영상의 시차와 일치되도록 렌더링하여 좌안 및 우안의 3D 오브젝트 영상을 생성한다.The graphic processor 353 generates 3D object images of the left and right eyes by rendering the 3D object generation information to match the parallax of the received left and right eyes using the GPU (Graphic Processing Unit).

본 실시예의 추가적인 양상에 따르면, 영상입력부(320)에 입력되는 단일 시점 영상의 소정의 위치에는 일정 패턴이 포함될 수 있고, 오브젝트 생성부(350)는 패턴인식부(351)를 더 포함할 수 있다. 일정 패턴은 체스판 무늬 등 다양한 종류의 이미지를 포함하며, 패턴의 종류에 따라서 현실세계 영상과 합성되는 3차원 그래픽 영상의 종류가 결정될 수 있다. 단일 시점 영상 내에 포함된 일정 패턴은 단안 카메라 모듈로부터 실사 영상 촬영시 함께 촬영될 수 있고, 다른 단안 카메라를 통해 패턴이 포함되어 촬영된 실사 영상을 다운로드 받아 영상저장부(110)에 저장되어 있는 것일 수 있다.According to an additional aspect of the present embodiment, a predetermined pattern may be included in a predetermined position of the single view image input to the image input unit 320, and the object generator 350 may further include a pattern recognition unit 351. . The predetermined pattern includes various kinds of images such as a chessboard pattern, and the type of the 3D graphic image synthesized with the real world image may be determined according to the type of the pattern. The predetermined pattern included in the single view image may be photographed together when the real image is taken from the monocular camera module, and the actual pattern image including the pattern is downloaded and stored in the image storage unit 110 through another monocular camera. Can be.

패턴인식부(351)는 영상변환부(330)로부터 수신한 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 좌안 및 우안의 3D 오브젝트 영상을 생성하기 위한 패턴 정보를 추출한다. 즉, 패턴인식부(351)는 영상변환부(330)로부터 수신한 좌안 및 우안 영상 중 어느 하나의 영상을 탐색하여 패턴의 경계를 인식한다. 실사 영상에서 패턴의 경계가 파악되면 그 패턴의 위치한 3차원 위치 정보를 산출하고, 패턴의 크기와 비틀린 정도(Tilt) 등을 추산하여 패턴 정보를 추출하게 된다. 패턴인식부(351)는 패턴 정보가 추출되면 패턴 정보와 3D 그래픽 모델링 정보를 그래픽처리부(353)에 전송한다. 이때, 각종 패턴에 대응되는 3D 그래픽 모델링 정보는 별도의 메모리부(미도시)에 저장되어 있을 수 있고, 패턴인식부(351)는 패턴 정보 추출이 완료되면 그 패턴 정보를 이용하여 해당하는 패턴의 3D 모델링 정보를 메모리부(미도시)에서 읽어 그래픽 처리부(353)로 전송할 수 있다.The pattern recognition unit 351 extracts pattern information for generating 3D object images of left and right eyes by recognizing at least one of patterns included in the left and right eye images received from the image converter 330. That is, the pattern recognition unit 351 searches for one of the left eye and right eye images received from the image converter 330 to recognize the boundary of the pattern. When the boundary of the pattern is identified in the live image, the three-dimensional position information of the pattern is calculated, and the pattern information is extracted by estimating the size of the pattern and the degree of twist. When the pattern information is extracted, the pattern recognition unit 351 transmits the pattern information and the 3D graphic modeling information to the graphic processing unit 353. In this case, the 3D graphic modeling information corresponding to various patterns may be stored in a separate memory unit (not shown), and when the pattern information extraction is completed, the pattern recognition unit 351 may use the pattern information to determine the corresponding pattern. The 3D modeling information may be read from the memory unit (not shown) and transmitted to the graphic processor 353.

이때, 오브젝트 정보 입력부(352)는 사용자의 UI 조작에 의해 사용자로부터 증강현실 영상에서 3D 오브젝트의 입체감을 나타내기 위한 시차 정보 등을 추가로 입력받아 그래픽처리부(353)로 전송할 수 있다. 사용자로부터 입력되는 시차 정보는 입체 영상 생성부(340)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 시차 정보일 수 있다.In this case, the object information input unit 352 may further receive parallax information for representing a 3D object of the 3D object in the augmented reality image by the user's UI manipulation and transmit the received parallax information to the graphic processor 353. The parallax information input from the user may be parallax information corresponding to the parallax of a stereoscopic image which is a real image in order to have the same stereoscopic sense as the stereoscopic image generated by the stereoscopic image generating unit 340.

그래픽처리부(353)는 패턴 정보와 3D 오브젝트 생성 모델링 정보 또는 시차 정보 등을 바탕으로 그래픽가속기(GPU)를 사용하여 렌더링하여 3D 오브젝트를 생성한다. The graphic processor 353 generates a 3D object by rendering using a graphic accelerator (GPU) based on pattern information, 3D object generation modeling information, or parallax information.

입체 증강 현실 영상 생성부(360)는 오브젝트 생성부(350)에서 생성된 좌안 및 우안의 3D 오브젝트를 입체 영상 생성부(340)에서 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)하여 입체 증강 현실 영상을 생성한다.The stereoscopic augmented reality image generator 360 overlays the left and right eye 3D objects generated by the object generator 350 at predetermined positions of the left and right eye images of the stereoscopic 3D image generated by the stereoscopic image generator 340. (Overlay) to generate a stereoscopic augmented reality image.

또한, 추가적인 양상에 따르면, 입체 증강 현실 영상 생성 장치(300)는 영상출력부(370)를 더 포함할 수 있다. 영상출력부(370)는 디스플레이의 출력 포맷(line base, pixel_base, sub-pixel base, side-by-side, top-bottom, red-blue, red-green 등)에 맞도록 입체 증강 현실 생성부(360)에서 생성된 입체 증강 현실 영상을 포맷팅하여 디스플레이에 출력한다.
In addition, according to an additional aspect, the 3D augmented reality image generating apparatus 300 may further include an image output unit 370. The image output unit 370 is a stereoscopic augmented reality generator (370) to match the output format of the display (line base, pixel_base, sub-pixel base, side-by-side, top-bottom, red-blue, red-green, etc.) The stereoscopic augmented reality image generated at 360 is formatted and output to the display.

도 4는 또 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치의 블럭도이다. 이하, 도 4를 참조하여 입체 증강 현실 영상을 생성하는 장치(500)에 대해 설명하기로 한다. 도 4는 카메라 모듈이 장착되어 있지 않은 입체 증강 현실 영상 생성 장치(500)를 이용하여 입체 증강 현실 영상을 생성하는 실시예를 나타내고 있다.4 is a block diagram of an apparatus for generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment. Hereinafter, an apparatus 500 for generating a stereoscopic augmented reality image will be described with reference to FIG. 4. 4 illustrates an embodiment in which a stereoscopic augmented reality image is generated by using a stereoscopic augmented reality image generating apparatus 500 in which a camera module is not mounted.

도 4에 도시된 바와 같이, 입체 증강현실 영상 생성 장치(300)는 영상저장부(510), 영상입력부(520), 영상변환부(530), 입체 영상 생성부(540), 오브젝트 생성부(550) 및 입체 증강 현실 영상 생성부(560)를 포함한다.As shown in FIG. 4, the stereoscopic augmented reality image generating apparatus 300 includes an image storage unit 510, an image input unit 520, an image converter 530, a stereoscopic image generator 540, and an object generator ( 550 and a stereoscopic augmented reality image generator 560.

영상저장부(510)는 외부 장치(PC 등)와 유무선으로 연결되어 영상을 다운로드 받거나, 무선 네트워크 통신을 통해 영상 콘텐츠를 제공하는 서버에 접속하여 다운로드 받은 영상을 저장한다. 영상저장부(510)에 저장된 영상은 단일 시점의 2D영상이나 좌안 및 우안 영상의 입체 영상이 포함될 수 있다.The image storage unit 510 is connected to an external device (PC, etc.) by wired or wirelessly to download an image, or connects to a server providing image content through wireless network communication and stores the downloaded image. The image stored in the image storage unit 510 may include a 2D image of a single viewpoint or a stereoscopic image of left and right eye images.

영상 입력부(520)는 사용자의 UI 조작에 의해 영상저장부(510)에 저장되어 있는 단일 시점 영상 또는 좌안 및 우안 영상을 입력받아 영상 변환부(530)로 전송한다.The image input unit 520 receives a single view image or left and right eye images stored in the image storage unit 510 by a user's UI operation and transmits the image to the image converter 530.

영상변환부(530)는 단일 시점 영상 또는 좌안 및 우안 영상을 수신한다. 이때, 수신된 영상이 좌안 및 우안 영상인 경우 아무런 변환 과정 없이 바로 입체 영상 생성부(540)와 오브젝트 생성부(550)로 전송한다. 만약, 수신된 영상이 단일 시점 영상인 경우 그 단일 시점 영상을 좌안 및 우안 영상으로 변환하여 입체 영상 생성부(540)와 오브젝트 생성부(550)로 전송한다. 여기서, 단일 시점 영상을 좌안 및 우안의 다시점 영상으로 변환하는 방법 자체에 대해서는 이미 알려진 다양한 방법들이 사용될 수 있다.The image converter 530 receives a single view image or a left eye and a right eye image. In this case, when the received image is a left eye and a right eye image, the image is directly transmitted to the stereoscopic image generator 540 and the object generator 550 without any conversion process. If the received image is a single view image, the single view image is converted into a left eye and a right eye image and transmitted to the stereoscopic image generator 540 and the object generator 550. Here, various known methods may be used for the method itself for converting a single view image into a multiview image of left and right eyes.

입체 영상 생성부(540)는 영상 변환부(530)에서 전송된 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다. The stereoscopic image generator 540 receives the left and right eye images transmitted from the image converter 530, and generates a stereoscopic 3D image from the received left and right eye images.

오브젝트 생성부(550)는 영상 변환부(530)에서 전송된 좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이될 좌안 및 우안의 3D 오브젝트를 생성한다. 이때, 3D 오브젝트는 좌안 및 우안 영상 각각 생성된다. 3D 오브젝트는 실사 영상에 오버레이하여 증강 현실 영상을 생성하기 위한 가상의 물체로서, GPU(Graphic Processing Unit)를 사용하여 렌더링 과정을 거쳐 생성된다. The object generator 550 receives the left and right eye images transmitted from the image converter 530 and generates 3D objects of the left and right eyes to be overlaid on predetermined positions of the received left and right eye images. In this case, the 3D object is generated for each of the left eye and right eye images. The 3D object is a virtual object for generating an augmented reality image by overlaying the photo-realistic image and is generated through a rendering process using a graphic processing unit (GPU).

오브젝트 생성부(350)는 3D 오브젝트를 생성하기 위한 정보들을 이용하여 GPU를 사용하여 렌더링하여 3D 그래픽 오브젝트를 생성한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 지오메트리(geometry), 시점, 텍스처 매핑(texture mapping), 조명, 셰이딩(shading) 정보 등의 3D 그래픽 물체를 생성하기 위한 모델링와, 3D 오브젝트가 오버레이 될 위치, 크기(Scaling), 비틀림(Tilt) 정보 등의 증강현실 영상 생성을 위한 정보 등을 포함한다. 이때, 3D 오브젝트를 생성하기 위한 정보는 사용자의 UI 조작에 의해 선택될 수 있다.The object generator 350 generates a 3D graphic object by rendering using the GPU using information for generating the 3D object. In this case, the information for generating a 3D object includes modeling for generating a 3D graphic object such as geometry, viewpoint, texture mapping, lighting, and shading information, and location and size of the 3D object to be overlaid. Information for generating an augmented reality image, such as scaling and torsion information. In this case, the information for generating the 3D object may be selected by a user's UI manipulation.

좀 더 구체적인 양상에 따르면, 오브젝트 생성부(550)는 오브젝트 정보 입력부(552)와 그래픽 처리부(553)를 포함할 수 있다. 사용자는 입체 증강 현실 영상 생성 장치(500)의 UI를 선택적으로 조작하여 3D 오브젝트 생성 정보를 직접 입력할 수 있다. 오브젝트 정보 입력부(552)는 사용자가 입체 증강 현실 영상 생성 장치(500)의 UI 조작에 의해 입력하는 3D 오브젝트 생성에 필요한 정보를 입력받는다. According to a more specific aspect, the object generator 550 may include an object information input unit 552 and a graphic processor 553. The user may directly input the 3D object generation information by selectively manipulating the UI of the 3D augmented reality image generating apparatus 500. The object information input unit 552 receives information necessary for generating a 3D object input by a user through UI manipulation of the stereoscopic augmented reality image generating apparatus 500.

즉, 오브젝트 정보 입력부(552)는 입체 영상 생성부(540)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 3D 오브젝트 생성 정보를 직접 사용자로부터 입력받을 수 있다.That is, the object information input unit 552 may directly receive 3D object generation information that matches the parallax of the stereoscopic image, which is a live image, in order to have the same stereoscopic effect as the stereoscopic image generated by the stereoscopic image generator 540. .

그래픽 처리부(553)는 입력받은 3D 오브젝트 생성 정보를 바탕으로 GPU(Graphic Processing Unit)를 사용하여 수신한 좌안 및 우안 영상의 시차와 일치되도록 렌더링하여 좌안 및 우안의 3D 오브젝트 영상을 생성한다.The graphic processor 553 generates 3D object images of the left and right eyes by rendering the 3D object generation information to match the parallax of the received left and right eyes using the GPU (Graphic Processing Unit).

본 실시예의 추가적인 양상에 따르면, 영상입력부(520)에 입력되는 단일 시점 영상 또는 좌안 및 우안 영상의 소정의 위치에는 일정 패턴이 포함될 수 있다. 이때, 영상 내에 포함된 패턴은 예를 들어, 다른 단안 카메라나 양안 카메라를 통해 실사 영상에 포함되어 함께 촬영된 것으로서, 그 카메라로부터 다운로드 받아 영상저장부(510)에 저장된 것일 수 있다. 일정 패턴은 체스판 무늬 등 다양한 종류의 이미지를 포함하며, 패턴의 종류에 따라서 현실세계 영상과 합성되는 3차원 그래픽 물체의 종류가 결정될 수 있다.According to an additional aspect of the present embodiment, a predetermined pattern may be included in a single view image or a predetermined position of the left eye and right eye images input to the image input unit 520. At this time, the pattern included in the image is, for example, included in a live image through another monocular camera or binocular camera and photographed together, may be downloaded from the camera and stored in the image storage unit 510. The predetermined pattern includes various kinds of images such as a chessboard pattern, and the type of the 3D graphic object synthesized with the real world image may be determined according to the type of the pattern.

오브젝트 생성부(550)는 패턴인식부(551)를 더 포함할 수 있다. 패턴인식부(551)는 영상변환부(530)로부터 수신한 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 좌안 및 우안의 3D 오브젝트 영상을 생성하기 위한 패턴 정보를 추출한다. 즉, 패턴인식부(551)는 영상변환부(530)로부터 수신한 좌안 및 우안 영상 중 어느 하나의 영상을 탐색하여 패턴의 경계를 인식한다. 실사 영상에서 패턴의 경계가 파악되면 그 패턴의 위치한 3차원 위치 정보를 산출하고, 패턴의 크기와 비틀린 정도(Tilt) 등을 추산하여 패턴 정보를 추출하게 된다. 패턴인식부(551)는 패턴 정보가 추출되면 패턴 정보와 3D 그래픽 모델링 정보를 그래픽처리부(553)에 전송한다. 이때, 각종 패턴에 대응되는 3D 그래픽 모델링 정보는 별도의 메모리부(미도시)에 저장되어 있을 수 있고, 패턴인식부(551)는 패턴 정보 추출이 완료되면 그 패턴 정보를 이용하여 해당하는 패턴의 3D 모델링 정보를 메모리부(미도시)에서 읽어 그래픽 처리부(553)로 전송할 수 있다.The object generation unit 550 may further include a pattern recognition unit 551. The pattern recognition unit 551 recognizes at least one of the patterns included in the left and right eye images received from the image converter 530 and extracts pattern information for generating 3D object images of the left and right eyes. That is, the pattern recognition unit 551 detects any one of the left eye and right eye images received from the image converter 530 to recognize the boundary of the pattern. When the boundary of the pattern is identified in the live image, the three-dimensional position information of the pattern is calculated, and the pattern information is extracted by estimating the size of the pattern and the degree of twist. When the pattern information is extracted, the pattern recognition unit 551 transmits the pattern information and the 3D graphic modeling information to the graphic processing unit 553. In this case, the 3D graphic modeling information corresponding to the various patterns may be stored in a separate memory unit (not shown), and the pattern recognition unit 551 may use the pattern information to extract the pattern information when the pattern information extraction is completed. The 3D modeling information may be read from the memory unit (not shown) and transmitted to the graphic processor 553.

이때, 오브젝트 정보 입력부(552)는 사용자의 UI 조작에 의해 사용자로부터 증강현실 영상에서 3D 오브젝트의 입체감을 나타내기 위한 시차 정보 등을 추가로 입력받아 그래픽처리부(553)로 전송할 수 있다. 사용자로부터 입력되는 시차 정보는 입체 영상 생성부(540)에서 생성되는 입체 영상과 동일한 입체감을 갖도록 하기 위해 실사 영상인 입체 영상의 시차와 일치하는 시차 정보일 수 있다.In this case, the object information input unit 552 may further receive parallax information for representing a 3D object of the 3D object in the augmented reality image by the user's UI manipulation, and transmit the received parallax information to the graphic processor 553. The disparity information input from the user may be disparity information corresponding to the disparity of the stereoscopic image which is the real image in order to have the same stereoscopic sense as the stereoscopic image generated by the stereoscopic image generating unit 540.

그래픽처리부(553)는 패턴 정보와 3D 오브젝트 생성 모델링 정보 또는 시차 정보 등을 바탕으로 그래픽가속기(GPU)를 사용하여 렌더링하여 3D 오브젝트를 생성한다. The graphic processor 553 generates a 3D object by rendering using a graphic accelerator (GPU) based on pattern information, 3D object generation modeling information, parallax information, and the like.

입체 증강 현실 영상 생성부(560)는 오브젝트 생성부(550)에서 생성된 좌안 및 우안의 3D 오브젝트를 입체 영상 생성부(540)에서 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)하여 입체 증강 현실 영상을 생성한다.The stereoscopic augmented reality image generator 560 overlays the left and right eye 3D objects generated by the object generator 550 at predetermined positions of the left and right eye images of the stereoscopic 3D image generated by the stereoscopic image generator 540. (Overlay) to generate a stereoscopic augmented reality image.

또한, 추가적인 양상에 따르면, 입체 증강 현실 영상 생성 장치(500)는 영상출력부(570)를 더 포함할 수 있다. 영상출력부(570)는 디스플레이의 출력 포맷(line base, pixel_base, sub-pixel base, side-by-side, top-bottom, red-blue, red-green 등)에 맞도록 입체 증강 현실 생성부(560)에서 생성된 입체 증강 현실 영상을 포맷팅하여 디스플레이에 출력한다.
According to an additional aspect, the stereoscopic augmented reality image generating apparatus 500 may further include an image output unit 570. The image output unit 570 may include a stereoscopic augmented reality generator to match an output format of a display (line base, pixel_base, sub-pixel base, side-by-side, top-bottom, red-blue, red-green, etc.). The stereoscopic augmented reality image generated at 560 is formatted and output to the display.

도 5는 일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법의 흐름도이다. 도 5를 참조하여 좌안 및 우안 영상을 이용하여 입체 증강 현실 영상을 생성하는 방법에 대해 기술한다. 5 is a flowchart illustrating a method of generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to an exemplary embodiment. A method of generating a stereoscopic augmented reality image using left and right eye images will be described with reference to FIG. 5.

도 5는 도 2의 실시예에 따른 입체 증강 현실 영상 생성 장치(100)를 이용하여 입체 증강 현실 영상을 생성하는 방법을 나타낸 것이다. 도 2의 실시예에 따라 입체 증강 현실 영상을 생성하는 장치(100)에 대해 앞에서 자세히 설명하였으므로, 이하 자세한 설명은 생략하기로 한다.FIG. 5 illustrates a method of generating a stereoscopic augmented reality image using the apparatus for generating a stereoscopic augmented reality image 100 according to the embodiment of FIG. 2. Since the apparatus 100 for generating a stereoscopic augmented reality image according to the exemplary embodiment of FIG. 2 has been described in detail above, a detailed description thereof will be omitted.

일 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법은, 먼저, 영상입력부(120)는 양안 카메라 모듈 또는 영상 저장부(110)로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부(140)와 오브젝트 생성부(150)로 전송한다(단계 S110).In the stereoscopic augmented reality image generation method using a stereoscopic 3D image and a PPP according to an embodiment, first, the image input unit 120 receives a left eye and a right eye image from a binocular camera module or an image storage unit 110, a stereoscopic image generation unit 140 and the object generating unit 150 (step S110).

그 다음, 입체 영상 생성부(140)는 영상입력부(120)로부터 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다(단계 S120). Next, the stereoscopic image generating unit 140 receives the left and right eye images from the image input unit 120 and generates a stereoscopic 3D image from the received left and right eye images (step S120).

그 다음, 오브젝트 생성부(150)가 영상입력부(120)로부터 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상에 오버레이될 좌안 및 우안의 3D 오브젝트를 생성한다(단계 S130). Next, the object generator 150 receives the left and right eye images from the image input unit 120 and generates 3D objects of the left and right eyes to be overlaid on the received left and right eye images (step S130).

좀 더 구체적으로, 3D 그래픽 오브젝트를 생성하는 단계(단계 S130)는 3D 오브젝트를 생성하기 위한 정보를 추출하는 단계(단계 S131)와, 추출된 정보를 바탕으로 3D 오브젝트를 생성하는 단계(단계 S132)를 포함할 수 있다.More specifically, generating the 3D graphic object (step S130) includes extracting information for generating the 3D object (step S131), and generating the 3D object based on the extracted information (step S132). It may include.

3D 오브젝트를 생성하기 위한 정보를 추출하는 단계(단계 S131)는 오브젝트 정보 입력부(152)가 사용자로부터 필요한 정보를 직접 입력받을 수 있고, 반면에 입력되는 영상 내에 일정 패턴이 포함된 경우에는 그 패턴을 인식하여 패턴 정보를 추출할 수 있다. 이하, 3D 오브젝트를 생성하기 위한 정보를 사용자로부터 입력받거나 패턴 정보를 추출하여 그래픽 처리부(153)으로 전송하는 절차에 대해서는 앞의 도 2의 실시예에서 이미 자세히 상술하였으므로 자세한 설명을 생략하기로 한다.In the extracting information for generating the 3D object (step S131), the object information input unit 152 may directly receive necessary information from the user. The pattern information can be extracted by recognizing. Hereinafter, a procedure of receiving information for generating a 3D object from a user or extracting pattern information and transmitting the extracted pattern information to the graphic processor 153 has been described above in detail with reference to the embodiment of FIG. 2, and thus a detailed description thereof will be omitted.

3D 오브젝트를 생성하는 단계(단계 S132)는 그래픽처리부(153)가 패턴인식부(151)로부터 수신된 정보와 3D 오브젝트 생성정보 입력부(152)로부터 수신한 추가 정보를 바탕으로 GPU를 이용하여 좌안 및 우안의 3D 오브젝트를 생성한다.Generating the 3D object (step S132) is performed by the graphic processor 153 based on the information received from the pattern recognition unit 151 and the additional information received from the 3D object generation information input unit 152 using the left eye and the GPU. Create a 3D object in the right eye.

그 다음, 입체 증강 현실 영상 생성부(160)가 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 좌안 및 우안의 3D 오브젝트를 오버레이하여 입체 증강현실 영상을 생성한다(단계 S140).Next, the stereoscopic augmented reality image generating unit 160 generates a stereoscopic augmented reality image by overlaying the 3D objects of the left and right eyes on a predetermined position of the left and right eye images of the generated stereoscopic 3D image.

마지막으로, 입체증강현실 영상 출력부(170)가 생성된 입체 증강 현실 영상을 디스플레이 장치의 패널에 맞도록 포맷팅하여 출력한다(미도시).
Finally, the stereoscopic augmented reality image output unit 170 formats and outputs the generated stereoscopic augmented reality image to fit the panel of the display device (not shown).

도 6은 다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법의 흐름도이다. 도 6을 참조하여 단일 시점 영상을 이용하여 입체 증강 현실 영상을 생성하는 방법에 대해 설명한다. 도 6은 도 3의 실시예에 따른 입체 증강 현실 영상 생성 장치(300)를 이용하여 입체 증강 현실 영상을 생성하는 방법을 나타낸 것이다. 도 3의 실시예에 따라 입체 증강 현실 영상을 생성하는 장치(300)에 대해 앞에서 자세히 설명하였으므로, 이하 자세한 설명은 생략하기로 한다.6 is a flowchart illustrating a method of generating a stereoscopic augmented reality image using a stereoscopic 3D image and a WiFi according to another embodiment. A method of generating a stereoscopic augmented reality image using a single viewpoint image will be described with reference to FIG. 6. FIG. 6 illustrates a method of generating a stereoscopic augmented reality image using the apparatus for generating a stereoscopic augmented reality image 300 according to the embodiment of FIG. 3. Since the apparatus 300 for generating a stereoscopic augmented reality image according to the embodiment of FIG. 3 has been described in detail above, a detailed description thereof will be omitted.

다른 실시예에 따른 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법은, 먼저, 영상입력부(320)가 단안 카메라 모듈 또는 영상 저장부(310)로부터 단일 시점 영상을 입력받는다(단계 S310).In the stereoscopic augmented reality image generating method using a stereoscopic 3D image and a WiFi according to another embodiment, first, the image input unit 320 receives a single view image from the monocular camera module or the image storage unit 310 (step S310).

그 다음, 영상변환부(330)가 입력된 단일 시점 영상을 좌안 및 우안 영상으로 변환한다(단계 S320). Next, the image converter 330 converts the input single-view image into left and right eye images (step S320).

그 다음, 입체 영상 생성부(340)가 변환된 좌안 및 우안 영상으로 입체 3D 영상을 생성한다(단계 S330).Next, the stereoscopic image generator 340 generates a stereoscopic 3D image from the converted left eye and right eye images (step S330).

그 다음, 변환된 좌안 및 우안 영상으로 3D 그래픽 오브젝트를 생성한다(단계 S340). 좀 더 구체적으로, 3D 그래픽 오브젝트를 생성하는 단계(단계 S340)는 3D 오브젝트 생성 정보를 생성하는 단계(단계 S341)와 생성된 3D 오브젝트 생성 정보를 바탕으로 3D 오브젝트를 생성하는 단계(단계 S342)를 포함할 수 있다.Next, a 3D graphic object is generated from the converted left eye and right eye images (step S340). More specifically, generating the 3D graphic object (step S340) includes generating the 3D object generation information (step S341) and generating the 3D object based on the generated 3D object generation information (step S342). It may include.

3D 오브젝트를 생성하기 위한 정보를 추출하는 단계(단계 S331)는 오브젝트 정보 입력부(352)가 사용자로부터 필요한 정보를 직접 입력받을 수 있고, 반면에 입력되는 영상 내에 일정 패턴이 포함된 경우에는 그 패턴을 인식하여 패턴 정보를 추출할 수 있다. 이하, 3D 오브젝트를 생성하기 위한 정보를 사용자로부터 입력받거나 패턴 정보를 추출하여 그래픽 처리부(353)으로 전송하는 절차에 대해서는 앞의 도 2의 실시예에서 이미 자세히 상술하였으므로 자세한 설명을 생략하기로 한다.In the extracting information for generating the 3D object (step S331), the object information input unit 352 may directly receive necessary information from the user. On the other hand, if a predetermined pattern is included in the input image, the pattern information may be extracted. The pattern information can be extracted by recognizing. Hereinafter, a procedure of receiving information for generating a 3D object from a user or extracting pattern information and transmitting the extracted pattern information to the graphic processor 353 has been described above in detail with reference to the embodiment of FIG. 2, and thus a detailed description thereof will be omitted.

3D 오브젝트를 생성하는 단계(단계 S332)는 그래픽처리부(353)가 패턴인식부(351)로부터 수신된 정보와 3D 오브젝트 생성정보 입력부(352)로부터 수신한 추가 정보를 바탕으로 GPU를 이용하여 좌안 및 우안의 3D 오브젝트를 생성한다.Generating the 3D object (step S332), the graphic processor 353 uses the GPU based on the information received from the pattern recognition unit 351 and the additional information received from the 3D object generation information input unit 352 to determine the left eye and the eye. Create a 3D object in the right eye.

그 다음, 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 생성된 3D 그래픽 오브젝트를 오버레이하여 입체 증강현실 영상을 생성한다(단계 S350).Next, the 3D graphic object is overlaid on predetermined positions of the left and right eye images of the generated stereoscopic 3D image to generate a stereoscopic augmented reality image (step S350).

마지막으로, 생성된 입체 증강 현실 영상을 디스플레이 장치의 패널에 맞도록 포맷팅하여 출력한다(미도시).
Finally, the generated stereoscopic augmented reality image is formatted and output to fit the panel of the display device (not shown).

이하, 도 4의 실시예에 따른 입체 증강 현실 영상 생성 장치(500)를 이용하여 입체 증강 현실 영상을 생성하는 방법을 설명한다. 도 4의 실시예에 따라 입체 증강 현실 영상을 생성하는 장치(500)에 대해 앞에서 자세히 설명하였으므로, 이하 자세한 설명은 생략한다.Hereinafter, a method of generating a stereoscopic augmented reality image using the stereoscopic augmented reality image generating apparatus 500 according to the embodiment of FIG. 4 will be described. Since the apparatus 500 for generating a stereoscopic augmented reality image according to the exemplary embodiment of FIG. 4 has been described in detail above, a detailed description thereof will be omitted.

입체 증강현실 영상 생성 방법은, 먼저, 영상입력부(520)가 영상 저장부(510)로부터 단일 시점 영상 또는 좌안 및 우안의 입체 영상을 입력받아 영상변환부(530)로 전송한다.In the stereoscopic augmented reality image generation method, first, the image input unit 520 receives a single view image or a stereoscopic image of left and right eyes from the image storage unit 510 and transmits it to the image conversion unit 530.

그 다음, 영상변환부(530)가 영상입력부(520)로부터 영상을 수신하고, 수신된 영상이 좌안 및 우안의 입체 영상인 경우 바로 입체 영상 생성부(540)와 오브젝트 생성부(550)로 전송하고, 만약, 수신된 영상이 단일 시점 영상인 경우 단일 시점 영상을 좌안 및 우안 영상으로 변환한 후 입체 영상 생성부(540)와 오브젝트 생성부(550)로 전송한다. Next, the image converter 530 receives an image from the image input unit 520, and if the received image is a stereoscopic image of left and right eyes, the image converter 530 immediately transmits the image to the stereoscopic image generator 540 and the object generator 550. If the received image is a single view image, the single view image is converted into a left eye and a right eye image and then transmitted to the stereoscopic image generator 540 and the object generator 550.

그 다음, 입체 영상 생성부(540)가 좌안 및 우안 영상을 수신하여 입체 3D 영상을 생성한다.Next, the stereoscopic image generator 540 receives the left and right eye images to generate a stereoscopic 3D image.

그 다음, 오브젝트 생성부(550)가 영상 변환부(530)로부터 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상으로 3D 그래픽 오브젝트를 생성한다. 좀 더 구체적으로, 3D 그래픽 오브젝트를 생성하는 단계는 3D 오브젝트 생성 정보를 생성하는 단계와 생성된 3D 오브젝트 생성 정보를 바탕으로 3D 오브젝트를 생성하는 단계를 포함할 수 있다.Next, the object generator 550 receives left and right eye images from the image converter 530, and generates a 3D graphic object from the received left and right eye images. More specifically, generating the 3D graphic object may include generating 3D object generation information and generating a 3D object based on the generated 3D object generation information.

3D 오브젝트를 생성하기 위한 정보를 추출하는 단계는 오브젝트 정보 입력부가 사용자로부터 필요한 정보를 직접 입력받을 수 있고, 반면에 입력되는 영상 내에 일정 패턴이 포함된 경우에는 그 패턴을 인식하여 패턴 정보를 추출할 수 있다. 이하, 3D 오브젝트를 생성하기 위한 정보를 사용자로부터 입력받거나 패턴 정보를 추출하여 그래픽 처리부(553)으로 전송하는 절차에 대해서는 앞의 도 2의 실시예에서 이미 설명하였으므로 자세한 설명을 생략한다.In the extracting information for generating the 3D object, the object information input unit may directly receive necessary information from the user. On the other hand, when a predetermined pattern is included in the input image, the object information input unit may recognize the pattern and extract pattern information. Can be. Hereinafter, a procedure of receiving information for generating a 3D object from a user or extracting pattern information and transmitting the extracted pattern information to the graphic processor 553 has been described above in the embodiment of FIG. 2, and thus a detailed description thereof will be omitted.

3D 오브젝트를 생성하는 단계는 그래픽처리부(553)가 패턴인식부(551)로부터 수신된 정보와 3D 오브젝트 생성정보 입력부(552)로부터 수신한 추가 정보를 바탕으로 GPU를 이용하여 좌안 및 우안의 3D 오브젝트를 생성한다.Generating the 3D object may be performed by the graphic processing unit 553 based on the information received from the pattern recognition unit 551 and the additional information received from the 3D object generation information input unit 552. Create

그 다음, 생성된 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 생성된 3D 그래픽 오브젝트를 오버레이하여 입체 증강현실 영상을 생성한다.Next, a 3D augmented reality image is generated by overlaying the 3D graphic object generated at predetermined positions of the left and right eye images of the generated stereoscopic 3D image.

마지막으로, 생성된 입체 증강 현실 영상을 디스플레이 장치의 패널에 맞도록 포맷팅하여 출력한다.
Finally, the generated stereoscopic augmented reality image is formatted and output to fit the panel of the display device.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. The scope of the present invention is defined by the appended claims rather than the foregoing detailed description, and all changes or modifications derived from the meaning and scope of the claims and the equivalents thereof are included in the scope of the present invention Should be interpreted.

100 300 500: 입체 증강현실 영상 생성 장치 110 310 510: 영상저장부
120 320 520: 영상입력부 330 530: 영상변환부
140 340 540: 입체영상생성부 150 350 550: 오브젝트 생성부
151 351 551: 패턴인식부 152 352 552: 오브젝트 정보 입력부
153 353 553: 그래픽 처리부 160 360 560: 입체증강현실영상생성부
170 370 570: 입체증강현실영상출력부
100 300 500: Stereoscopic augmented reality image generating apparatus 110 310 510: Image storage unit
120 320 520: Image input unit 330 530: Image converter
140 340 540: stereoscopic image generating unit 150 350 550: object generating unit
151 351 551: Pattern recognition unit 152 352 552: Object information input unit
153 353 553: graphics processing unit 160 360 560: stereoscopic augmented reality image generation unit
170 370 570: stereoscopic augmented reality image output unit

Claims (12)

좌안 및 우안 영상을 수신하며, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성하는 입체 영상 생성부;
좌안 및 우안 영상을 수신하며, 패턴 정보를 포함하는 3D 오브젝트 생성 정보를 기초로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)될 좌안 및 우안의 3D 오브젝트(Object)를 생성하는 그래픽처리부를 포함하는 오브젝트 생성부; 및
상기 생성된 좌안 및 우안의 3D 오브젝트를 상기 입체 3D 영상의 좌안 및 우안 영상의 소정의 위치에 오버레이하여 입체 증강 현실 영상을 생성하는 입체 증강 현실 영상 생성부;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.
A stereoscopic image generator which receives left and right eye images and generates stereoscopic 3D images from the received left and right eye images;
Receives left and right eye images, and is rendered using a graphic processing unit (GPU) based on 3D object generation information including pattern information to be overlayed on predetermined positions of the received left and right eye images An object generator including a graphics processor configured to generate a 3D object of the object; And
A stereoscopic augmented reality image generating unit for generating a stereoscopic augmented reality image by overlaying the generated left and right eye 3D objects on a predetermined position of the left and right eye images of the stereoscopic 3D image; Stereoscopic augmented reality image generating device.
제1항에 있어서,
양안 카메라 모듈로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상입력부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.
The method of claim 1,
A stereoscopic 3D image and a stereoscopic augmented reality image generating apparatus using a WiFi further comprising a; image input unit for receiving the left and right eye images from the binocular camera module and transmits to the stereoscopic image generator and the object generator.
제1항에 있어서,
단안 카메라 모듈로부터 단일 시점 영상을 입력받아 영상 변환부로 전송하는 영상입력부; 및
영상입력부로부터 단일 시점 영상을 수신하고 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상변환부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.
The method of claim 1,
An image input unit which receives a single view image from the monocular camera module and transmits the single view image to the image converter; And
A stereoscopic 3D image and a stereoscopic augmented reality image generating apparatus using a ppipp; further comprising a; image conversion unit for receiving a single view image from the image input unit and converts the left and right eye images to a stereoscopic image generator and an object generator.
제1항에 있어서,
영상저장부로부터 영상을 입력받아 영상변환부로 전송하는 영상입력부; 및
상기 영상입력부로부터 수신된 영상이 좌안 및 우안 영상인 경우 입체 영상 생성부와 오브젝트 생성부로 바로 전송하고, 수신된 영상이 단일 시점 영상인 경우 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 영상변환부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.
The method of claim 1,
An image input unit which receives an image from the image storage unit and transmits the image to the image conversion unit; And
If the image received from the image input unit is a left eye and a right eye image, it is directly transmitted to a stereoscopic image generating unit and an object generating unit. 3D augmented reality image generating apparatus using a three-dimensional 3D image and a WiFi further comprising an image conversion unit for transmitting.
제1항 내지 제4항 중 어느 한 항에 있어서, 상기 오브젝트 생성부는,
상기 수신된 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나의 패턴을 인식하여 상기 패턴 정보를 추출하는 패턴인식부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강 현실 영상 생성 장치.
The method according to any one of claims 1 to 4, wherein the object generating unit,
And a pattern recognition unit recognizing at least one of the patterns included in the received left eye and right eye images to extract the pattern information. 3D augmented reality image generating apparatus using a 3D image and a GPU.
제1항 내지 제4항 중 어느 한 항에 있어서, 상기 오브젝트 생성부는,
사용자로부터 상기 3D 오브젝트 생성 정보를 입력받는 오브젝트 정보 입력부;를 더 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 장치.
The method according to any one of claims 1 to 4, wherein the object generating unit,
And an object information input unit configured to receive the 3D object generation information from a user. 3D augmented reality image generating apparatus using a stereoscopic 3D image and a WiFi.
입체 영상 생성부가 좌안 및 우안 영상을 수신하고, 수신된 좌안 및 우안 영상으로 입체 3D 영상을 생성하는 단계;
오브젝트 생성부가 좌안 및 우안 영상을 수신하고, 패턴 정보를 포함하는 3D 오브젝트 생성 정보를 기초로 GPU(Graphic Processing Unit)를 사용하여 렌더링하여 수신된 좌안 및 우안 영상의 소정의 위치에 오버레이(Overlay)될 좌안 및 우안의 3D 오브젝트(Object)를 생성하는 단계; 및
입체 증강 현실 영상 생성부가 상기 생성된 좌안 및 우안의 3D 오브젝트를 상기 입체 3D 영상의 좌안과 우안 영상의 소정의 위치에 오버레이하여 입체 증강 현실 영상을 생성하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.
Receiving, by the stereoscopic image generator, left and right eye images and generating stereoscopic 3D images from the received left and right eye images;
The object generating unit receives the left and right eye images, and renders using the GPU (Graphic Processing Unit) based on the 3D object generation information including the pattern information to be overlayed on predetermined positions of the received left and right eye images. Generating 3D objects of left and right eyes; And
Generating a stereoscopic augmented reality image by overlaying the generated left and right eye 3D objects to a predetermined position of the left and right eye images of the stereoscopic 3D image by a stereoscopic augmented reality image generating unit; 3D augmented reality image generation method using.
제7항에 있어서, 상기 입체 3D 영상을 생성하는 단계는,
영상입력부가 양안 카메라 모듈로부터 좌안 및 우안 영상을 입력받아 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.
The method of claim 7, wherein generating the stereoscopic 3D image comprises:
And receiving the left and right eye images from the binocular camera module and transmitting the left and right eye images to the stereoscopic image generating unit and the object generating unit. 3D augmented reality image generation method using a stereoscopic 3D image and a WiFi.
제7항에 있어서, 상기 입체 3D 영상을 생성하는 단계는,
영상입력부가 단안 카메라 모듈로부터 단일 시점 영상을 입력받아 영상변환부로 전송하는 단계; 및
영상변환부가 단일 시점 영상을 수신하고 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.
The method of claim 7, wherein generating the stereoscopic 3D image comprises:
The image input unit receives a single view image from the monocular camera module and transmits it to the image conversion unit; And
Receiving a single view image, the image conversion unit converts the left eye and right eye image and transmits to the stereoscopic image generating unit and the object generating unit; stereoscopic 3D image and a stereoscopic augmented reality image generation method using a WiFi.
제7항에 있어서, 상기 입체 3D 영상을 생성하는 단계는,
영상입력부가 영상 저장부로부터 영상을 입력받아 영상변환부로 전송하는 단계; 및
영상변환부가 수신한 영상이 좌안 및 우안 영상인 경우 입체 영상 생성부와 오브젝트 생성부로 바로 전송하고, 그 수신한 영상이 단일 시점 영상인 경우 좌안 및 우안 영상으로 변환하여 입체 영상 생성부와 오브젝트 생성부로 전송하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.
The method of claim 7, wherein generating the stereoscopic 3D image comprises:
The image input unit receives an image from the image storage unit and transmits the image to the image conversion unit; And
If the image received by the image converter is a left eye and a right eye image, it is directly transmitted to the stereoscopic image generating unit and the object generating unit. 3D augmented reality image generation method using a three-dimensional 3D image and JP including a transmitting.
제7항 내지 제10항 중 어느 한 항에 있어서, 상기 3D 오브젝트 생성 단계는,
상기 좌안 및 우안 영상에 포함된 패턴 중 적어도 어느 하나 패턴을 인식하여 상기 패턴 정보를 추출하는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강 현실 영상 생성 방법.
The method of claim 7, wherein the generating of the 3D object comprises:
And extracting the pattern information by recognizing at least one of the patterns included in the left eye and right eye images. 3D augmented reality image generation method using a 3D image and a GPU.
제7항 내지 제10항 중 어느 한 항에 있어서, 상기 3D 오브젝트 생성 단계는,
사용자로부터 상기 3D 오브젝트 생성 정보를 입력받는 단계;를 포함하는 입체 3D 영상과 GPU를 이용한 입체 증강현실 영상 생성 방법.
The method of claim 7, wherein the generating of the 3D object comprises:
And receiving the 3D object generation information from a user. 3D augmented reality image generation method using a stereoscopic 3D image and a WiFi.
KR1020110056179A 2011-06-10 2011-06-10 Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu KR101242764B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020110056179A KR101242764B1 (en) 2011-06-10 2011-06-10 Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu
PCT/KR2011/006816 WO2012169698A1 (en) 2011-06-10 2011-09-15 Device and method for generating a stereoscopic augmented reality image by using a stereoscopic 3d image and gpu

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110056179A KR101242764B1 (en) 2011-06-10 2011-06-10 Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu

Publications (2)

Publication Number Publication Date
KR20120136950A KR20120136950A (en) 2012-12-20
KR101242764B1 true KR101242764B1 (en) 2013-03-13

Family

ID=47296237

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110056179A KR101242764B1 (en) 2011-06-10 2011-06-10 Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu

Country Status (2)

Country Link
KR (1) KR101242764B1 (en)
WO (1) WO2012169698A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016204323A1 (en) * 2015-06-17 2016-12-22 (주)에프엑스기어 User view point-linked image processing device and method therefor
KR102086733B1 (en) * 2018-07-19 2020-03-09 (주)아이로보테크 An Apparatus for Creating an Augmented Reality of a Nail Art Image and a Method for Producing the Same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09167253A (en) * 1995-12-14 1997-06-24 Olympus Optical Co Ltd Image display device
JPH10336703A (en) 1997-05-27 1998-12-18 Canon Inc Image compositing device, its method and storage medium
JP2005020559A (en) * 2003-06-27 2005-01-20 Univ Waseda Three-dimensional video presentation apparatus
KR20070062703A (en) * 2005-12-13 2007-06-18 권영대 Virtual reality embodiment apparatus and method using 3-d image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09167253A (en) * 1995-12-14 1997-06-24 Olympus Optical Co Ltd Image display device
JPH10336703A (en) 1997-05-27 1998-12-18 Canon Inc Image compositing device, its method and storage medium
JP2005020559A (en) * 2003-06-27 2005-01-20 Univ Waseda Three-dimensional video presentation apparatus
KR20070062703A (en) * 2005-12-13 2007-06-18 권영대 Virtual reality embodiment apparatus and method using 3-d image

Also Published As

Publication number Publication date
WO2012169698A1 (en) 2012-12-13
KR20120136950A (en) 2012-12-20

Similar Documents

Publication Publication Date Title
CN1893675B (en) Image display device and graphic processor for stereoscopic display of 3d graphic objects
US20130071012A1 (en) Image providing device, image providing method, and image providing program for providing past-experience images
TWI531212B (en) System and method of rendering stereoscopic images
JP7197451B2 (en) Image processing device, method and program
CN108885342A (en) Wide Baseline Stereo for low latency rendering
CN109510975B (en) Video image extraction method, device and system
US12100106B2 (en) Stereoscopic rendering of virtual 3D objects
JP2012079291A (en) Program, information storage medium and image generation system
JP5755571B2 (en) Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
US20230283759A1 (en) System and method for presenting three-dimensional content
CN113253845A (en) View display method, device, medium and electronic equipment based on eye tracking
CN103747236A (en) 3D (three-dimensional) video processing system and method by combining human eye tracking
US9225968B2 (en) Image producing apparatus, system and method for producing planar and stereoscopic images
JPWO2018084087A1 (en) Image display system, image display apparatus, control method thereof, and program
JP2012124885A (en) Display device and display method
US11043019B2 (en) Method of displaying a wide-format augmented reality object
KR101242764B1 (en) Apparatus and method for creating 3-dimensional augmented reality image using 3d image and gpu
US11297296B2 (en) Display control apparatus, program, and display control method
WO2018173207A1 (en) Information processing device
CN108124148A (en) A kind of method and device of the multiple view images of single view video conversion
KR100728110B1 (en) Three dimensional effect controllable stereoscopy display device and method thereof
CN111405262B (en) Viewpoint information generation method, apparatus, system, device and medium
CN106249858B (en) A kind of display converting method, device and terminal device
JP7261121B2 (en) Information terminal device and program
JP2024062935A (en) Method of creating solid vision display content and device of them

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160307

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180306

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190305

Year of fee payment: 7