Nothing Special   »   [go: up one dir, main page]

KR102412595B1 - 3d 캐릭터를 활용한 특수촬영물 제작 서비스 제공 방법 및 장치 - Google Patents

3d 캐릭터를 활용한 특수촬영물 제작 서비스 제공 방법 및 장치 Download PDF

Info

Publication number
KR102412595B1
KR102412595B1 KR1020210120523A KR20210120523A KR102412595B1 KR 102412595 B1 KR102412595 B1 KR 102412595B1 KR 1020210120523 A KR1020210120523 A KR 1020210120523A KR 20210120523 A KR20210120523 A KR 20210120523A KR 102412595 B1 KR102412595 B1 KR 102412595B1
Authority
KR
South Korea
Prior art keywords
actor
terminal
information
image
server
Prior art date
Application number
KR1020210120523A
Other languages
English (en)
Inventor
최종덕
Original Assignee
주식회사 치즈앤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 치즈앤 filed Critical 주식회사 치즈앤
Priority to KR1020210120523A priority Critical patent/KR102412595B1/ko
Priority to KR1020220075034A priority patent/KR102605144B1/ko
Application granted granted Critical
Publication of KR102412595B1 publication Critical patent/KR102412595B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Human Resources & Organizations (AREA)
  • Optics & Photonics (AREA)
  • Remote Sensing (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

특수촬영물 제작 서비스 제공 서버는 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공할 수 있다. 서버는 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득할 수 있다. 서버는 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작할 수 있다.

Description

3D 캐릭터를 활용한 특수촬영물 제작 서비스 제공 방법 및 장치{METHOD AND DEVICE FOR PROVIDING SPECIAL FILM PRODUCTION SERVICE USING 3D CHARACTER}
본 발명의 실시예들은 특수촬영물 제작 서비스 제공 서버 및 그 동작 방법에 대한 것이다.
특수효과(special effects, SFX, SPFX, FX)는 영화, 텔레비전, 엔터테인먼트 산업에서 어떠한 이야기 안의 영상화된 사건을 시뮬레이트하는 데 쓰이는 효과를 말한다. 현대의 영화에서 특수 효과는 장면 안의 물체를 제거하거나 추가하거나 강화함으로써 이전의 영화 요소를 변경하는 데 주로 사용한다. 특수 효과는 예산을 많이 들이는 영화에 흔히 쓰이지만 애니메이션과 합성 소프트웨어를 통해 아마추어 영화 제작자들도 전문가급의 효과를 만들고 다룰 수 있게 되었다.
특수 효과는 전통적으로 장면 효과와 기계적 효과로 나뉜다. 최근 들어 특수 효과와 시각 효과(VFX)의 차이가 두드러졌으며, 시각 효과는 광학 효과와 후반 작업을 일컫는 반면, 특수 효과는 기계적 효과를 일컫는다.
광학 효과는 영상이나 영화 프레임을 만들어 처리하는 기술이다. 광학 효과는 사진과 같이 만들어지며, 배우를 다른 배경 뒤에 삽입하거나 동물이 말하는 것처럼 말하는 효과를 낼 수 있다.
기계적 효과는 보통 라이브 액션을 촬영하는 동안 이루어진다. 자동차가 스스로 운전한다든지 배우가 괴물같이 보이게 한다든지 등의 효과를 낼 수 있다.
1990년대 이후로, CGI(computer-generated imagery)가 본격적으로 특수 효과 기술로 들어오게 되었다. CGI는 영화 제작자에게 더 나은 제어권을 제공하며, 낮은 비용으로 더 안전하고 신뢰감 있는 효과를 만들어낼 수 있게 한다. 그 결과, 수많은 광학 효과와 기계적 효과 기술은 CGI에 압도당하게 되었다.
컴퓨터 그래픽으로 캐릭터를 생성하는 경우, 배우는 아무것도 없는 허공에 상대를 상상하며 연기하거나, 크로마키 촬영을 하게 되는데, 이는 배우가 연기하는 데 부담이 될 수 있고, 완성된 작품에서도 어색함을 유발할 수 있다.
본 발명의 실시예들은, 특수촬영물 제작 서비스 제공 서버 및 그 동작 방법을 제공할 수 있다.
실시예들에서 이루고자 하는 기술적 과제들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 다양한 실시예들로부터 당해 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.
실시예들에 따르면, 적어도 하나의 서버에 의해 수행되는 특수촬영물 제작 서비스 제공 방법에 있어서, 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하는 단계; 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하는 단계; 및 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하는 단계를 포함할 수 있다.
여기서, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간일 수 있다.
여기서, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.
여기서, 상기 서버가, 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공하는 단계를 더 포함할 수 있다.
여기서, 상기 서버가, 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하는 단계; 및 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예는 특수촬영물 제작 서비스를 제공하는 서버에 있어서, 프로세서(processor); 송수신기(transceiver); 및 메모리(memory); 를 포함하고, 상기 프로세서는: 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하고; 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하고; 그리고 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하도록 설정될 수 있다.
여기서, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간일 수 있다.
여기서, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.
여기서, 상기 서버는 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공하도록 더 설정될 수 있다.
여기서, 상기 서버는 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하고; 그리고 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하도록 더 설정될 수 있다.
실시예들에 따르면, 배우는 VR 단말을 착용하고 VR 단말에서 보이는 가상 캐릭터와 연기를 할 수 있으므로, 자연스러운 연기가 가능하다. 이후 편집 과정에서도 VR 단말에 제공된 3D 가상 캐릭터 정보를 기초로 배우의 영상과 합성할 수 있으므로 자연스러운 특수촬영물 영상이 제작될 수 있다.
실시예들로부터 얻을 수 있는 효과들은 이상에서 언급된 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 이하의 상세한 설명을 기반으로 당해 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다.
실시예들에 대한 이해를 돕기 위해 상세한 설명의 일부로 포함된, 첨부 도면은 다양한 실시예들을 제공하고, 상세한 설명과 함께 다양한 실시예들의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 특수촬영물 제작 서비스 제공 서버를 포함하는 시스템도이다.
도 2는 본 발명의 일 실시예에 따른 특수촬영물 제작 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.
도 3은 특수촬영물 제작 서비스 제공 서버 동작 방법의 일 실시예를 도시한 도면이다.
도 4는 배우 VR 단말에 도시되는 화면의 일 실시예를 도시한 도면이다.
도 5는 특수촬영물 촬영장 모습의 일 실시예를 도시한 도면이다.
도 6은 특수촬영물에 가상 캐릭터를 합성한 화면의 일 실시예를 도시한 도면이다.
이하의 실시예들은 실시예들의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 다양한 실시예들을 구성할 수도 있다. 다양한 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.
도면에 대한 설명에서, 다양한 실시예들의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당해 기술분야에서 통상의 지식을 가진 자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 다양한 실시예들을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.
이하, 다양한 실시예들에 따른 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 다양한 실시예들의 예시적인 실시형태를 설명하고자 하는 것이며, 유일한 실시형태를 나타내고자 하는 것이 아니다.
또한, 다양한 실시예들에서 사용되는 특정(特定) 용어들은 다양한 실시예들의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 다양한 실시예들의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
도 1을 참조하면, 본 발명의 실시예에 따른 특수촬영물 제작 서비스 제공 방법은 PC(Personal Computer) 등과 같이 저장공간을 구비하고 인터넷에 연결될 수 있으며 휴대가 용이하지 않는 컴퓨팅 장치에서 수행되거나 스마트폰 등과 같이 휴대용 단말기에서 수행될 수 있다. 이때 상기 특수촬영물 제작 서비스 제공 방법은 상기 특수촬영물 제작 서비스 제공 방법이 구현된 어플리케이션(application)이 앱스토어(App store)등에서 다운되어 상기 휴대용 단말기에 설치된 후 실행될 수 있다.
그리고 상기 특수촬영물 제작 서비스 제공 방법은 CD(Compact Disc) 또는 USB(Universal Serial Bus) 메모리 등과 같은 기록매체에 기록된 상태에서 PC 등과 같은 컴퓨팅 장치에 삽입되어 상기 컴퓨팅 장치의 액세스 동작을 통해서 수행되거나 상기 기록매체로부터 컴퓨팅 장치의 저장공간에 저장된 후 컴퓨팅 장치의 액세스 동작을 통해서 수행될 수도 있다.
한편 상기 컴퓨팅 장치 또는 휴대용 단말기가 인터넷에 연결된 서버에 접속가능한 경우, 상기 특수촬영물 제작 서비스 제공 방법은 상기 컴퓨팅 장치 또는 휴대용 단말기의 요청에 따라 서버에서도 실행될 수 있다.
이하에서 상기 특수촬영물 제작 서비스 제공 방법이 실행되는 컴퓨팅 장치, 휴대용 단말기 또는 서버 등을 통칭하여 특수촬영물 제작 서비스 제공 장치라고 칭할 수 있다.
상기 특수촬영물 제작 서비스 제공 장치는 도 2에 예시된 특수촬영물 제작 서비스 제공 장치와 동일한 구성을 가질 수 있으며, 상기 특수촬영물 제작 서비스 제공 장치는 도 1에 도시된 특수촬영물 제작 서비스 제공 장치에 국한되지 않을 수 있다.
일 실시예에 따른 시스템은 배우 VR 단말(100), 카메라 단말(110), 및 특수촬영물 제작 서비스 제공 서버(200)(이하, 서버(200))를 포함할 수 있다. 네트워크는 인터넷 포털 사이트 서버, SNS 서버, 블로그를 운영하는 서버 등을 포함할 수 있다.
배우 VR 단말(100), 카메라 단말(110)은, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기, 카메라가 탑재된 디바이스 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 제한되지 않는다. 또한, 배우 VR 단말(100), 카메라 단말(110)은 통신 기능 및 데이터 프로세싱 기능을 구비한 웨어러블 디바이스일 수 있다. 그러나, 이에 제한되지 않는다.
서버(200)는 배우 VR 단말(100), 카메라 단말(110)과, 네트워크를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.
일례로, 서버(200)는 네트워크를 통해 접속한 배우 VR 단말(100), 카메라 단말(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 배우 VR 단말(100), 카메라 단말(110)은 서버(200)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다.
또한, 배우 VR 단말(100), 카메라 단말(110)은 운영체제(Operating System, OS) 및 적어도 하나의 프로그램(일례로 브라우저나 설치된 어플리케이션)의 제어에 따라 서버(200)에 접속하여, 서버(200)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다.
다른 예로, 서버(200)는 데이터 송수신을 위한 통신 세션을 설정하고, 설정된 통신 세션을 통해 배우 VR 단말(100), 카메라 단말(110) 간의 데이터 송수신을 라우팅할 수도 있다.
배우 VR 단말(100), 카메라 단말(110) 및 특수촬영물 제작 서비스 제공 서버(200)는 네트워크를 이용하여 통신을 수행할 수 있다. 예를 들어, 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 이동 통신망(mobile radio communication network), 위성 통신망 및 이들의 상호 조합을 포함하며, 도 1에 도시된 각 네트워크 구성 주체가 서로 원활하게 통신을 할 수 있도록 하는 포괄적인 의미의 데이터 통신망이며, 유선 인터넷, 무선 인터넷 및 모바일 무선 통신망을 포함할 수 있다. 또한, 무선 통신은 예를 들어, 무선 랜(Wi-Fi), 블루투스, 블루투스 저 에너지(Bluetooth low energy), 지그비, WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), NFC(Near Field Communication) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
도 2는 본 발명의 일 실시예에 따른 특수촬영물 제작 서비스를 제공하는 서버의 구성을 나타내는 블록도이다.
도 2를 참조하면, 특수촬영물 제작 서비스를 제공하는 서버(200)(이하, 서버(200))는 통신부(210), 프로세서(220) 및 DB(230)를 포함할 수 있다. 도 2의 서버(200)에는 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 2에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 당해 기술분야의 통상의 기술자라면 이해할 수 있다.
통신부(210)는 단말들 간 유선/무선 통신을 하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어, 통신부(210)는, 근거리 통신부(미도시), 이동 통신부(미도시) 및 방송 수신부(미도시) 중 적어도 하나를 포함할 수 있다.
일례로, DB(230)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신부(210)의 제어에 따라 네트워크를 통해 단말로 전달될 수 있다. 역으로, 단말의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 네트워크를 거쳐 통신부(210)을 통해 서버(200)로 수신될 수 있다. 예를 들어, 통신부(210)를 통해 수신된 서버(200)의 제어 신호나 명령, 컨텐츠 및 파일 등은 프로세서(220)로 전달되거나 DB(230)로 전달되어 저장될 수 있다.
DB(230)는 서버(200) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다.
DB(230)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다. DB(230)는 메모리라고 나타낼 수도 있다.
프로세서(220)는 서버(200)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(220)는 DB(230)에 저장된 프로그램들을 실행함으로써, 입력부(미도시), 디스플레이(미도시), 통신부(210), DB(230) 등을 전반적으로 제어할 수 있다. 프로세서(220)는, DB(230)에 저장된 프로그램들을 실행함으로써, 외부 서버(200)의 동작을 제어할 수 있다.
통신부(210)는, 서버(200)가 다른 장치(미도시) 및 서버(미도시)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 서버(200)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 제한되지 않는다. 통신부(210)는 네트워크를 통해, 다른 전자 장치로부터의 사용자 입력을 수신하거나, 외부 장치로부터 외부 장치에 저장된 데이터를 수신할 수 있다.
DB(230)는, 프로세서(220)의 처리 및 제어를 위한 프로그램을 저장할 수 있다. 예를 들어, DB(230)는 서비스 제공을 위한 인스트럭션(instruction)을 저장할 수 있다. 또한 DB(230)는 프로세서(220)에서 생성된 데이터를 저장할 수 있다. 예를 들어, DB(230)는 프로세서(220)가 제공하는 특수촬영물 제작 서비스와 관련된 정보를 저장할 수 있다. DB(230)는 서버(200)로 입력되거나 서버(200)로부터 출력되는 정보를 저장할 수도 있다.
프로세서(220)는 ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.
DB(230)는 프로세서(220)를 통해 실행되는 적어도 하나의 명령을 저장하고 있을 수 있다. 적어도 하나의 명령은 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하고; 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하고; 그리고 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하도록 설정될 수 있다.
여기서, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간일 수 있다.
여기서, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.
여기서, 상기 적어도 하나의 명령은 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공하도록 더 설정될 수 있다.
여기서, 상기 적어도 하나의 명령은 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하고; 그리고 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하도록 더 설정될 수 있다.
도 3은 특수촬영물 제작 서비스 제공 서버 동작 방법의 일 실시예를 도시한 도면이다.
도 3을 참조하면, 서버는 가상 공간 및 가상 캐릭터 영상을 제공할 수 있다(S300). 예를 들어, 서버는 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공할 수 있다.
예를 들어, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간일 수 있다.
먼저 촬영장의 환경을 실제로 구축한 후, 360도 촬영 등의 방법으로 촬영장의 환경 정보를 획득할 수 있다. 획득한 촬영장의 환경 정보를 기초로 서버는 3D 모델링을 수행할 수 있다. 이를 통해 배우 VR 단말 상에 촬영장과 같은 환경의 가상 공간을 구축할 수 있다.
도 4는 배우 VR 단말에 도시되는 화면의 일 실시예를 도시한 도면이다.
도 4를 참조하면, 배우 VR 단말(520)의 디스플레이에는 가상 공간이 도시될 수 있다. 가상 공간 상에 배우의 상대 배역인 가상 캐릭터가 등장할 수 있다. 가상 캐릭터는 적어도 하나의 캐릭터를 포함할 수 있다. 가상 캐릭터의 동작 및 대사는 미리 설정되어 있을 수 있다. 배우는 배우 VR 단말(520)을 착용한 채 배우 VR 단말(520)의 디스플레이에 등장하는 가상 캐릭터와 합을 맞추어 연기를 할 수 있다. 가상
예를 들어, 배우 VR 단말(520)의 디스플레이에는 촬영시간 정보, 동작에 관련된 정보, 대사에 관련된 정보가 더 도시될 수 있다.
여기서, 상기 동작에 관련된 정보는, 상기 배우가 다음에 수행할 제1 동작의 명칭 및 몇 초 후에 상기 제1 동작이 수행되어야 하는지에 대한 정보를 포함할 수 있다. 상기 동작에 관련된 정보는, 상기 가상 캐릭터가 다음에 수행할 제2 동작의 명칭 및 몇 초 후에 상기 제2 동작이 수행되는지에 대한 정보를 포함할 수 있다.
예를 들어, 3초 후에 상대의 왼손 주먹이 날아온다는 정보가 배우 VR 단말(520) 디스플레이에 도시될 수 있다.
여기서, 상기 대사에 관련된 정보는 상기 배우가 다음에 수행할 제1 대사 내용 및 몇 초 후에 상기 제1 대사가 수행되어야 하는지에 대한 정보를 포함할 수 있다. 상기 대사에 관련된 정보는 상기 가상 캐릭터가 다음에 수행할 제2 대사 내용 및 몇 초 후에 상기 제2 대사가 수행되는지에 대한 정보를 포함할 수 있다.
예를 들어, 가상 캐릭터의 A 대사가 2초 후에 수행되고, 5초 후에는 배우의 B 대사가 수행되어야 한다는 정보가 배우 VR 단말(520)의 디스플레이에 도시될 수 있다. 대사까지 남은 시간은 실시간으로 변경될 수 있다.
예를 들어, 동작에 관련된 정보, 대사에 관련된 정보는 배우 VR 단말(520)에서 배우가 들을 수 있는 음성으로 재생될 수 있다. 즉, 영상에는 삽입되지 않으나 배우만 들을 수 있도록 배우 VR 단말(520)에 포함된 스피커 등을 통해 배우에게 동작에 관련된 정보, 대사에 관련된 정보가 음성의 형태로 전달될 수 있다.
도 5는 특수촬영물 촬영장 모습의 일 실시예를 도시한 도면이다.
도 5를 참조하면, 촬영장(500)에서 배우(510)는 배우 VR 단말(520, 530)을 착용하고 연기를 수행할 수 있고, 배우(510)의 모습을 카메라 단말(550)이 촬영할 수 있다. 배우(510)는 배우 VR 단말(520) 상에 도시되는 화면에 기반하여 연기를 수행할 수 있다. 배우(510)는 촬영장(500)을 3D 모델링한 가상 공간 상에서 마치 앞에 가상 캐릭터가 존재하는 것처럼 가상 캐릭터 상대 연기를 할 수 있다. 배우(510)는 배우 VR 단말(530)을 착용하고 연기를 할 수 있는데, 배우 VR 단말(530)은 배우가 정확한 동작을 수행하는지에 대한 피드백을 진동 등으로 알려줄 수 있다. 배우 VR 단말(530)은 생략될 수 있고, 또는 다른 형태의 배우 VR 단말이 사용될 수 있다.
다시 도 3을 참조하면, 서버는 단독 영상을 획득할 수 있다(S310). 예를 들어, 서버는 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득할 수 있다.
예를 들어, 상기 단독 영상은 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.
예를 들어, 상기 단독 영상은 도 5에서 카메라 단말(550)이 배우(510)의 연기를 촬영한 영상일 수 있다.
서버는 특수촬영물 영상을 제작할 수 있다(S320). 예를 들어, 서버는 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작할 수 있다. 다음으로 특수촬영물 영상의 일 실시예를 설명한다.
도 6은 특수촬영물에 가상 캐릭터를 합성한 화면의 일 실시예를 도시한 도면이다.
도 6을 참조하면, 촬영장(500)에서 배우(510)가 연기한 단독 영상에 가상 캐릭터(540)를 합성할 수 있다. 배우 VR 단말(520)에 제공했던 가상 캐릭터 영상을 기초로 단독 영상에 상기 가상 캐릭터 영상을 합성함으로써 배우(510)가 배우 VR 단말(520)을 통해서 봤던 가상 캐릭터를 특수촬영물에 구현할 수 있다. 따라서 제작된 특수촬영물은 실제 촬영장(500) 배경에서 연기하는 배우(510)와 가상 캐릭터(540)이 모두 등장할 수 있다.
다시 도 3을 참조하면, 서버는 특수촬영물 영상을 제공할 수 있다(S330). 예를 들어, 서버는 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공할 수 있다. 배우는 배우 VR 단말을 통해 자신이 수행했던 연기에 가상 캐릭터가 합성된 특수촬영물 영상을 확인할 수 있다.
서버는 움직임 분석 정보를 획득할 수 있다(S340). 예를 들어, 서버는 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득할 수 있다. 예를 들어, 배우 VR 단말은 센서 등을 통해 촬영 중 배우 동작에 대한 정보를 수집할 수 있다. 서버는 배우 VR 단말로부터 분석 정보를 획득하면, 원래 배우가 수행했어야 하는 동작의 이상적인 움직임과 비교할 수 있다. 예를 들어, 서버는 배우가 시나리오 상에서 수행할 동작의 이상적인 움직임들에 대한 정보를 저장하고 있을 수 있고, 배우 VR 단말로부터 획득한 분석 정보를 기초로 동작이 잘 수행되었는지에 대한 비교를 수행할 수 있다.
서버는 피드백 정보를 제공할 수 있다(S350). 예를 들어, 서버는 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공할 수 있다.
예를 들어, 수정이 필요한 부분은 해당 씬의 1분 30초 경에 휘둘렀던 왼손 주먹의 궤도가 더 높아져야 하고, 이후 이어지는 발차기가 더 신속히 이루어져야 한다는 등의 정보를 포함할 수 있다.
배우는 배우 VR 단말을 통해 서버로부터 피드백 정보를 수신하면, 다음 회차 연기 때 이를 반영할 수 있게 된다. 또한, 배우는 이전 씬의 자신의 연기와 가상 캐릭터가 합성된 특수촬영물 영상을 배우 VR 단말을 통해 확인할 수 있으므로, 이를 통해 자신의 연기를 확실히 되짚어 볼 수 있는 효과가 있다.
도 3의 일례에 표시된 세부 단계 중 일부는 필수 단계가 아닐 수 있고, 생략될 수 있다. 도 3에 도시된 단계 외에 다른 단계가 추가될 수 있고, 상기 단계들의 순서는 달라질 수 있다. 상기 단계들 중 일부 단계가 독자적 기술적 의미를 가질 수 있다.
적어도 하나의 서버에 의해 수행되는 특수촬영물 제작 서비스를 제공하는 방법에 있어서, 배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하는 단계; 카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하는 단계; 및 상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하는 단계를 포함할 수 있다.
여기서, 상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간을 포함할 수 있다.
여기서, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함할 수 있다.
여기서, 상기 서버가, 상기 배우 VR 단말에 상기 특수촬영물 영상을 제공하는 단계를 더 포함할 수 있다.
여기서, 상기 서버가, 상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하는 단계; 및 상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하는 단계를 더 포함할 수 있다.
여기서, 상기 가상 캐릭터 영상은, 촬영시간 정보, 동작에 관련된 정보, 대사에 관련된 정보를 더 포함할 수 있다.
여기서, 상기 동작에 관련된 정보는, 상기 배우가 다음에 수행할 제1 동작의 명칭 및 몇 초 후에 상기 제1 동작이 수행되어야 하는지에 대한 정보를 포함할 수 있다. 상기 동작에 관련된 정보는, 상기 가상 캐릭터가 다음에 수행할 제2 동작의 명칭 및 몇 초 후에 상기 제2 동작이 수행되는지에 대한 정보를 포함할 수 있다.
여기서, 상기 대사에 관련된 정보는 상기 배우가 다음에 수행할 제1 대사 내용 및 몇 초 후에 상기 제1 대사가 수행되어야 하는지에 대한 정보를 포함할 수 있다. 상기 대사에 관련된 정보는 상기 가상 캐릭터가 다음에 수행할 제2 대사 내용 및 몇 초 후에 상기 제2 대사가 수행되는지에 대한 정보를 포함할 수 있다.
여기서, 상기 수정이 필요한 부분에 관련된 정보는 상기 배우의 움직임의 시점이 수정되어야 하는 정도, 상기 배우의 움직임의 종점이 수정되어야 하는 정도, 상기 배우의 움직임 궤도가 수정되어야 하는 정도에 관련된 정보를 포함할 수 있다.
여기서, 상기 배우의 움직임 궤도가 수정되어야 하는 정도에 관련된 정보는, 올바른 움직임 궤도에 대한 영상 정보를 포함할 수 있다.
본 명세서의 실시예에 따른 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.
실시예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다.
또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.
본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다.
실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그래머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그래머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.
상술한 다양한 실시예들은 그 기술적 아이디어 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 다양한 실시예들의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 다양한 실시예들의 등가적 범위 내에서의 모든 변경은 다양한 실시예들의 범위에 포함된다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.

Claims (5)

  1. 적어도 하나의 서버에 의해 수행되는 특수촬영물 제작 서비스를 제공하는 방법에 있어서,
    배우 VR(virtual reality) 단말에 가상 공간 및 상기 가상 공간 상에서 움직이는 상대 배역에 대한 가상 캐릭터 영상을 제공하되,
    상기 가상 공간은 상기 배우가 연기하는 실제 공간을 기초로 구현된 가상 공간이고, 상기 가상 캐릭터 영상은, 촬영시간 정보, 동작에 관련된 정보, 대사에 관련된 정보를 포함하고,
    상기 동작에 관련된 정보는, 상기 배우가 다음에 수행할 제1 동작의 명칭, 몇 초 후에 상기 제1 동작이 수행되어야 하는지에 대한 정보, 상기 가상 캐릭터가 다음에 수행할 제2 동작의 명칭, 및 몇 초 후에 상기 제2 동작이 수행되는지에 대한 정보를 포함하고, 그리고
    상기 대사에 관련된 정보는, 상기 배우가 다음에 수행할 제1 대사 내용, 몇 초 후에 상기 제1 대사가 수행되어야 하는지에 대한 정보, 상기 가상 캐릭터가 다음에 수행할 제2 대사 내용, 및 몇 초 후에 상기 제2 대사가 수행되는지에 대한 정보를 포함하는, 단계;
    카메라 단말로부터 상기 배우 VR 단말을 착용한 배우를 촬영한 단독 영상을 획득하되, 상기 단독 영상은, 상기 실제 공간 상에서 상기 배우의 움직임 및 대사를 포함하는 영상을 포함하는, 단계;
    상기 가상 캐릭터 영상 및 상기 단독 영상을 이용하여 상기 배우와 상기 가상 캐릭터가 모두 등장하는 특수촬영물 영상을 제작하는 단계;
    상기 배우의 움직임 및 대사가 종료된 후, 상기 배우 VR 단말에, 상기 배우가 상기 배우의 움직임 및 대사를 확인할 수 있도록 상기 특수촬영물 영상을 제공하는 단계;
    상기 배우 VR 단말로부터 상기 배우의 움직임에 관련된 분석 정보를 획득하는 단계; 및
    상기 분석 정보를 기초로 상기 배우의 움직임 중 수정이 필요한 부분에 관련된 정보를 상기 배우 VR 단말에 제공하되,
    상기 수정이 필요한 부분에 관련된 정보는 상기 배우의 움직임의 시점이 수정되어야 하는 정도, 상기 배우의 움직임의 종점이 수정되어야 하는 정도, 상기 배우의 움직임 궤도가 수정되어야 하는 정도에 관련된 정보를 포함하고,
    상기 배우의 움직임 궤도가 수정되어야 하는 정도에 관련된 정보는, 올바른 움직임 궤도에 대한 영상 정보를 포함하는, 단계를 포함하는,
    특수촬영물 제작 서비스 제공 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
KR1020210120523A 2021-09-09 2021-09-09 3d 캐릭터를 활용한 특수촬영물 제작 서비스 제공 방법 및 장치 KR102412595B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210120523A KR102412595B1 (ko) 2021-09-09 2021-09-09 3d 캐릭터를 활용한 특수촬영물 제작 서비스 제공 방법 및 장치
KR1020220075034A KR102605144B1 (ko) 2021-09-09 2022-06-20 Vr 단말을 이용한 특수촬영물의 촬영 및 제작 보조 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210120523A KR102412595B1 (ko) 2021-09-09 2021-09-09 3d 캐릭터를 활용한 특수촬영물 제작 서비스 제공 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220075034A Division KR102605144B1 (ko) 2021-09-09 2022-06-20 Vr 단말을 이용한 특수촬영물의 촬영 및 제작 보조 방법

Publications (1)

Publication Number Publication Date
KR102412595B1 true KR102412595B1 (ko) 2022-06-24

Family

ID=82215987

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020210120523A KR102412595B1 (ko) 2021-09-09 2021-09-09 3d 캐릭터를 활용한 특수촬영물 제작 서비스 제공 방법 및 장치
KR1020220075034A KR102605144B1 (ko) 2021-09-09 2022-06-20 Vr 단말을 이용한 특수촬영물의 촬영 및 제작 보조 방법

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220075034A KR102605144B1 (ko) 2021-09-09 2022-06-20 Vr 단말을 이용한 특수촬영물의 촬영 및 제작 보조 방법

Country Status (1)

Country Link
KR (2) KR102412595B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000074633A (ko) * 1999-05-24 2000-12-15 박권상 실시간 가상캐릭터 시스템
KR20130090621A (ko) * 2012-02-06 2013-08-14 한국전자통신연구원 사전 시각화 영상 생성 장치 및 방법
KR20150114016A (ko) * 2014-03-28 2015-10-12 주식회사 다림비젼 3d 객체 모듈을 이용한 가상 스튜디오 영상 생성 방법 및 장치
KR20200025285A (ko) * 2018-08-30 2020-03-10 김재윤 컨텐츠 체험관

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101613777B1 (ko) * 2014-01-15 2016-04-19 (주)디스트릭트홀딩스 라이브 댄스 클래스 및 라이브 뮤직 룸을 위한 서비스 시스템 및 서비스 방법
KR101711488B1 (ko) * 2015-01-28 2017-03-03 한국전자통신연구원 동작 기반 인터랙티브 서비스 방법 및 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000074633A (ko) * 1999-05-24 2000-12-15 박권상 실시간 가상캐릭터 시스템
KR20130090621A (ko) * 2012-02-06 2013-08-14 한국전자통신연구원 사전 시각화 영상 생성 장치 및 방법
KR20150114016A (ko) * 2014-03-28 2015-10-12 주식회사 다림비젼 3d 객체 모듈을 이용한 가상 스튜디오 영상 생성 방법 및 장치
KR20200025285A (ko) * 2018-08-30 2020-03-10 김재윤 컨텐츠 체험관

Also Published As

Publication number Publication date
KR20230037431A (ko) 2023-03-16
KR102605144B1 (ko) 2023-11-24

Similar Documents

Publication Publication Date Title
KR101926018B1 (ko) 동영상 녹화 방법 및 시스템
CN108021229B (zh) 通过脱机计算记录高保真度数字沉浸式体验
WO2017107758A1 (zh) 应用于图像或视频的ar显示系统及方法
CN105635712A (zh) 基于增强现实的视频实时录制方法及录制设备
CN109743584B (zh) 全景视频合成方法、服务器、终端设备及存储介质
WO2015164155A1 (en) Artist-directed volumetric dynamic virtual cameras
US8610713B1 (en) Reconstituting 3D scenes for retakes
US11871089B2 (en) Video modification and transmission using tokens
JP2022510658A (ja) 仮想カメラパスを決定するシステム及び方法
US20130050190A1 (en) Dressing simulation system and method
KR102086780B1 (ko) 만화 데이터 생성 장치, 방법 및 프로그램
CN106817538A (zh) 电子设备、图片拍摄方法及装置
US11418857B2 (en) Method for controlling VR video playing and related apparatus
KR102412595B1 (ko) 3d 캐릭터를 활용한 특수촬영물 제작 서비스 제공 방법 및 장치
KR101644496B1 (ko) 게임 동영상을 이용한 광고 서비스 시스템
KR20170090856A (ko) 오픈 시나리오 생성 방법
US20150162049A1 (en) Image processing device, image processing method, and program
CN109636917B (zh) 三维模型的生成方法、装置、硬件装置
KR102533209B1 (ko) 다이나믹 확장현실(xr) 콘텐츠 생성 방법 및 시스템
CN114357554A (zh) 模型的渲染方法、渲染装置、终端、服务器和存储介质
KR20170139202A (ko) 파노라마 영상을 이용하여 새로운 컨텐츠를 생성하는 방법 및 시스템
US20170287521A1 (en) Methods, circuits, devices, systems and associated computer executable code for composing composite content
KR102575771B1 (ko) 3d 인터랙티브 동영상 생성 방법 및 시스템
KR102684394B1 (ko) 가상현실 기반의 메타버스 사용자 간 커뮤니케이션 서비스 제공 방법 및 장치
CN117596377B (zh) 画面推流方法、装置、电子设备、存储介质及程序产品

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant