Nothing Special   »   [go: up one dir, main page]

KR20160021146A - 가상 동영상 통화 방법 및 단말 - Google Patents

가상 동영상 통화 방법 및 단말 Download PDF

Info

Publication number
KR20160021146A
KR20160021146A KR1020157036602A KR20157036602A KR20160021146A KR 20160021146 A KR20160021146 A KR 20160021146A KR 1020157036602 A KR1020157036602 A KR 1020157036602A KR 20157036602 A KR20157036602 A KR 20157036602A KR 20160021146 A KR20160021146 A KR 20160021146A
Authority
KR
South Korea
Prior art keywords
terminal
expression information
facial
facial expression
moving image
Prior art date
Application number
KR1020157036602A
Other languages
English (en)
Other versions
KR101768980B1 (ko
Inventor
강 리
Original Assignee
바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 filed Critical 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드
Publication of KR20160021146A publication Critical patent/KR20160021146A/ko
Application granted granted Critical
Publication of KR101768980B1 publication Critical patent/KR101768980B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • G06K9/00268
    • G06K9/00302
    • G06K9/00335
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06K2009/00328

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 한가지 가상 동영상 통화 방법 및 단말을 제공한다. 여기서, 당해 방법은: 제1 단말 사용자의 동영상 이미지를 채집하는 단계; 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하는 단계; 얼굴 표정 정보를 제1 단말과 통화연결을 구성하는 제2 단말로 송신하는 단계를 포함하고, 얼굴 표정 정보는 제2 단말이 얼굴 표정 정보와 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것이다. 본 발명의 실시예의 방법은 얼굴 인식 기술을 이용하여 송신단(예를 들어, 제1 단말)에서 얼굴 표정 정보를 추출하고, 수신단(예를 들어, 제2 단말)에서 송신한 얼굴 표정 정보와 미리 설정된 안면 이미지 모듈에 의거하여 안면 이미지의 합성과 환원을 실현한다. 전송된 얼굴 표정 데이터량이 매우 작아 동영상 통화과정에서 전송되는 데이터량을 대폭 낮춤으로써 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한 등이 동영상 통화에 대한 영향을 줄인다.

Description

가상 동영상 통화 방법 및 단말{VIRTUAL VIDEO CALL METHOD AND TERMINAL}
본 출원은 바이두 온라인 네트웍 테크놀로지(베이징)캄파니 리미티드가 2013년 12월 20일 제출한 발명의 명칭이 "가상 동영상 통화 방법 및 단말"이고, 중국 특허 출원 번호가 "201310714667.3"인 우선권을 요구한다.
본 발명은 통신 기술 분야에 관한 것으로, 더욱 상세하게는 가상 동영상 통화 방법 및 단말에 관한 것이다.
네트워크 브로드밴드가 쾌속으로 진급 및 하드웨어 설비가 발전하고 보급됨에 따라 동영상 통화의 시장도 빠른 속도로 발전단계에 진입하였다. 현재, 가상 동영상 통화의 주요 방법은 송신단에서 이미지를 채집하고, 이미지 중의 얼굴 구역을 확정하고, 얼굴 구역 내의 얼굴 특징 정보에 대해 추출을 행하고, 추출해낸 얼굴 특징 정보를 수신단으로 송신하여, 수신단에서 얼굴 특징 정보를 이용하여 대응되는 사용자의 얼굴 표정을 재현하는 것이다.
현재 존재하는 결함은, 사람마다 얼굴 특징이 다르므로, 추출한 얼굴 특징 정보의 데이터는 여전히 매우 크며, 또한 상기 방법은 얼굴 특징 정보에 의거하여 특정된 대상 얼굴 모형(예를 들어, 송신단의 사용자의 얼굴 모형)도 재건해야 한다는 것이다. 이에 따라 알 수 있다시피, 종래의 기술에서 전송하는 동영상 데이터량은 매우 큰바, 대량의 데이터 트래픽을 소모하고, 동영상 통화가 유창하지 못함을 초래할 수 있어 대역폭이 제한된 모바일 네트워크 또는 트래픽이 제한된 장소에 적합하지 않는바, 이에 따라 동영상 통화의 보급과 확장을 심각하게 가로막고 있다.
본 발명은 적어도 상기 기술 문제 중의 하나를 해결하고자 한다.
이를 위해, 본 발명의 첫번째 목적은 한가지 가상 동영상 통화 방법을 제공하는데 있다. 당해 방법은 동영상 통화과정에서 전송되는 데이터량을 대폭 줄이고, 데이터트래픽을 절약함으로써, 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한이 동영상 통화에 대한 영향을 줄이고, 사용자 체험을 향상시킨다.
본 발명의 두번째 목적은 다른 한가지 가상 동영상 통화 방법을 제공하는데 있다.
본 발명의 세번째 목적은 한가지 단말을 제공하는데 있다.
본 발명의 네번째 목적은 다른 한가지 단말을 제공하는데 있다.
본 발명의 다섯번째 목적은 한가지 단말설비를 제공하는데 있다.
본 발명의 여섯번째 목적은 다른 한가지 단말설비를 제공하는데 있다.
상기 목적을 실현하기 위하여, 본 발명의 제1측면의 실시예의 가상 동영상 통화 방법은, 제1 단말 사용자의 동영상 이미지를 채집하는 단계; 상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하는 단계; 상기 얼굴 표정 정보를 상기 제1 단말과 통화를 형성하는 제2 단말로 송신하는 단계를 포함하며, 상기 얼굴 표정 정보는 상기 제2 단말이 상기 얼굴 표정 정보와 상기 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것이다.
본 발명의 실시예의 가상 동영상 통화 방법은 얼굴 인식 기술을 이용하여 송신단(예를 들어, 제1 단말)에서 얼굴 표정 정보를 추출하고, 수신단(예를 들어, 제2 단말)에서 송신된 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 안면 이미지의 간단한 합성과 환원을 실현한다. 송신단과 수신단에서 전송되는 정보는 얼굴 표정 정보에만 한정되고, 당해 얼굴 표정 정보는 완전한 안면 이미지를 합성하는 것을 필요로 하지 않으므로, 포함된 정보량이 적고, 코딩한 후 얼굴 표정 정보의 데이터량은 몇 개의 비트바이트만 차지한다. 따라서 배경 기술이 전송하는 정보와 비교할 때, 동영상 통화과정에서 전송되는 데이터량을 대폭 줄이고, 데이터트래픽을 절약함으로써, 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한이 동영상 통화에 대한 영향을 줄여, 특히 모바일 네트워크에서의 전송에 적합하고, 사용자 체험을 향상시킨다. 이 외에, 제2 단말에서 제1 단말 사용자의 안면 이미지 모형을 재건할 필요 없이 제2 단말이 얼굴 표정 정보에 의거하여 미리 설정된 안면 이미지 모형에 대응되는 얼굴 표정을 디스플레이하기만 하면 되는바, 제2 단말이 조정하기 용이하도록 한다.
상기 목적을 실현하기 위하여, 본 발명의 제2측면의 실시예의 가상 동영상 통화 방법은 제2 단말과 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신하는 단계; 상기 얼굴 표정 정보와 상기 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하는 단계를 포함한다.
본 발명의 실시예의 가상 동영상 통화 방법은 얼굴 인식 기술을 이용하여 송신단(예를 들어, 제1 단말)에서 얼굴 표정 정보를 추출하고, 수신단(예를 들어, 제2 단말)에서 송신한 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 안면 이미지의 간단한 합성과 환원을 실현한다. 송신단과 수신단에서 전송되는 정보는 얼굴 표정 정보에만 한정되고, 당해 얼굴 표정 정보는 완전한 안면 이미지를 합성하는 것은 필요하지 않으므로, 포함된 정보량이 적고, 코딩한 후 얼굴 표정 정보의 데이터량은 몇 개의 비트바이트만 차지한다. 따라서 배경 기술이 전송한 정보와 비교할 때, 동영상 통화과정에서 전송되는 데이터량을 대폭 줄이고, 데이터트래픽을 절약함으로써, 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한이 동영상 통화에 대한 영향을 줄여, 특히 모바일 네트워크에서의 전송에 적합하고, 사용자 체험을 향상시킨다. 이 외에, 제2 단말에서 제1 단말 사용자의 안면 이미지 모형을 재건할 필요 없이 제2 단말이 얼굴 표정 정보에 의거하여 미리 설정된 안면 이미지 모형에 대응되는 얼굴 표정을 디스플레이하기만 하면 되는바, 제2 단말이 조정하기 용이하도록 한다.
상기 목적을 실현하기 위하여, 본 발명의 세번째 실시예의 단말은 사용자의 동영상 이미지를 채집하기 위한 채집 모듈; 상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하기 위한 인식 모듈; 상기 얼굴 표정 정보를 단말과 통화를 형성하는 제2 단말로 송신하기 위한 송신 모듈을 포함하며, 상기 얼굴 표정 정보는 상기 제2 단말이 상기 얼굴 표정 정보와 상기 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것이다.
본 발명의 실시예의 단말은 얼굴 인식 기술을 이용하여 얼굴 표정 정보를 추출하고, 단말과 통화를 형성하는 제2 단말이 송신된 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 안면 이미지의 간단한 합성과 환원을 실현하도록 한다. 전송한 정보는 얼굴 표정 정보에만 한정되고, 또 당해 얼굴 표정 정보는 완전한 안면 이미지를 합성하는 것을 필요로 하지 않으므로, 포함된 정보량이 적고, 코딩한 후 얼굴 표정 정보의 데이터량은 몇 개의 비트바이트만 차지한다. 따라서 배경 기술이 전송한 정보와 비교할 때, 동영상 통화과정에서 전송되는 데이터량을 대폭 줄이고, 데이터트래픽을 절약함으로써, 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한이 동영상 통화에 대한 영향을 줄여, 특히 모바일 네트워크에서의 전송에 적합하고, 사용자 체험을 향상시킨다. 이 외에, 제2 단말에서 사용자의 안면 이미지 모형을 재건할 필요 없이 제2 단말은 얼굴 표정 정보에 의거하여 미리 설정된 안면 이미지 모형에 대응되는 얼굴 표정을 디스플레이하기만 하면 되는바, 제2 단말이 조정하기 용이하도록 한다.
상기 목적을 실현하기 위하여, 본 발명의 제4측면의 실시예의 단말은 단말과 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신하기 위한 수신 모듈; 상기 얼굴 표정 정보와 상기 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하기 위한 합성 모듈을 포함한다.
본 발명의 실시예의 단말은, 얼굴 인식 기술을 이용하여 얼굴 표정 정보를 추출하고, 단말과 통화를 형성하는 제1 단말이 송신한 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 안면 이미지의 간단한 합성과 환원을 실현한다. 송신단과 수신단에서 전송되는 정보는 얼굴 표정 정보에만 한정되고, 당해 얼굴 표정 정보는 완전한 안면 이미지를 합성하는 것을 필요로 하지 않으므로, 포함된 정보량이 적고, 코딩한 후 얼굴 표정 정보의 데이터량은 몇 개의 비트바이트만 차지한다. 따라서 배경 기술이 전송하는 정보와 비교할 때, 동영상 통화과정에서 전송되는 데이터량을 대폭 줄이고, 데이터트래픽을 절약함으로써, 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한이 동영상 통화에 대한 영향을 줄여, 특히 모바일 네트워크에서의 전송에 적합하고, 사용자 체험을 향상시킨다. 이 외에, 안면 이미지 모형을 재건할 필요 없이 얼굴 표정 정보에 의거하여 미리 설정된 안면 이미지 모형에 대응되는 얼굴 표정만 디스플레이하기만 하면 되는바, 조정하기 용이하고, 단말이 조정하기 용이하도록 한다.
상기 목적을 실현하기 위하여, 본 발명의 제5측면의 실시예의 단말설비는 하나 또는 복수의 프로세서; 메모리; 하나 또는 복수의 프로그램을 포함하고, 상기 하나 또는 복수의 프로그램은 상기 메모리에 저장되고, 상기 하나 또는 복수의 프로세서에 의해 수행될 때, 상기 단말설비 사용자의 동영상 이미지를 채집하는 조작; 상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하는 조작; 상기 얼굴 표정 정보를 상기 단말설비와 통화를 형성하는 제2 단말로 송신하는 조작을 행하며, 상기 얼굴 표정 정보는 상기 제2 단말이 상기 얼굴 표정 정보와 상기 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것이다.
상기 목적을 실현하기 위하여, 본 발명의 제6측면의 실시예의 단말설비는 하나 또는 복수의 프로세서; 메모리; 하나 또는 복수의 프로그램을 포함하고, 상기 하나 또는 복수의 프로그램은 상기 메모리에 저장되고, 상기 하나 또는 복수의 프로세서에 의해 수행될 때, 상기 단말설비와 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신하는 조작; 상기 얼굴 표정 정보와 상기 단말설비에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하는 조작을 행한다.
본 발명의 부가된 방면과 장점은 아래의 설명에서 부분적으로 제시되고, 일부는 아래의 설명에서 뚜렷해지거나 본 발명의 실천을 통하여 요해되게 될 것이다.
본 발명의 상기 및/또는 부가된 방면과 장점은 아래에서 첨부된 도면을 결합한 실시예에 대한 설명으로부터 뚜렷해지고 이해하기 용이해진다. 여기서,
도 1은 본 발명의 일 실시예에 따른 가상 동영상 통화 방법의 플로차트이고;
도 2는 본 발명의 다른 한 실시예에 따른 가상 동영상 통화 방법의 플로차트이며;
도 3은 본 발명의 또 하나의 실시예에 따른 가상 동영상 통화 방법의 플로차트이고;
도 4는 발명의 일 실시예에 따른 단말의 구조 설명도이며;
도 5는 본 발명의 다른 한 실시예에 따른 단말의 구조 설명도이고; 그리고,
도 6은 본 발명의 또 하나의 실시예에 따른 단말의 구조 설명도이다.
아래에서는 본 발명의 실시예를 상세하게 설명하기로 한다. 상기 실시예의 예시는 첨부된 도면에서 제시되고, 여기서 처음부터 끝까지 동일하거나 유사한 번호는 동일하거나 유사한 구성 요소나 동일하거나 유사한 기능을 갖는 구성 요소를 나타낸다. 아래에서 첨부 도면을 참조하는 것을 통하여 설명되는 실시예는 예시적인 것으로, 본 발명을 해석하기 위한 것일 뿐, 본 발명에 대한 한정으로 이해해서는 안된다. 반대로, 본 발명의 실시예는 청구범위의 취지와 내포된 의미 범위내에 놓이는 모든 변화, 수정과 균등물을 포함한다.
해석해야 할 바로는, 본 발명의 설명에서, 용어 "제 1", "제 2"는 설명을 하기 위한 것일 뿐, 상대적인 중요성을 가리키거나 암시하는 것으로 이해해서는 안된다. 해석해야 할 바로는, 본 발명의 설명에서, 별도의 명확한 규정과 한정이 있지 않는 한, 용어 "연결", "연접"은 광의의 의미로 이해되어야 한다. 예를 들어, 고정 연결일 수 있고, 탈착식 연결일 수도 있으며 또는 일체형 연결일 수도 있다. 기계적 연결일 수 있고, 전기적 연결일 수도 있고; 직접 연결일 수도 있고, 중간 매개물을 통한 간접 연결일 수도 있다. 본 기술 분야의 통상의 지식을 가진 자들은 구체적인 상황에 따라 상기 용어가 본 발명에서 뜻하는 구체적인 함의를 이해할 것이다. 이 외에, 본 발명의 설명에서 별도의 설명이 있지 않는 한 "복수"의 함의는 두개 또는 두개 이상이다.
플로차트에서 또는 여기서 기타 방식으로 설명되는 그 어떤 과정 또는 방법 설명은 하나의 또는 더 많은 특정 로직 기능 또는 과정의 단계를 실현하기 위한 수행 가능한 명령의 코드의 모듈, 단락 또는 부분을 포함함을 나타내는 것으로 이해할 수 있다. 아울러, 본 발명의 바람직한 실시 방식의 범위는 별도의 실현을 포함하고, 여기서 제시되거나 토론된 순서대로가 아닌 관련된 기능에 의하여 거의 동시의 방식 또는 상반되는 순서를 포함한 순서에 따라 기능을 수행할 수 있는바 이는 마땅히 본 발명의 실시예가 속하는 기술분야의 기술자들에 의하여 이해되어야 한다.
동영상 통화를 행할 때의 전송되는 동영상 데이터량이 너무 큰 문제를 해결하기 위하여, 본 발명은 한가지 가상 동영상 통화 방법 및 단말을 제공한다. 아래에서는 첨부된 도면을 참조하여 본 발명의 실시예에 따른 가상 동영상 통화 방법 및 단말을 설명하기로 한다.
가상 동영상 통화 방법으로서, 제1 단말 사용자의 동영상 이미지를 채집하는 단계; 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하는 단계; 얼굴 표정 정보를 제1 단말과 통화를 형성하는 제2 단말로 송신하는 단계를 포함하고, 상기 얼굴 표정 정보는 제2 단말이 얼굴 표정 정보와 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것이다.
도 1은 본 발명의 일 실시예에 따른 가상 동영상 통화 방법의 플로차트이다.
도 1이 도시하는 바와 같이, 가상 동영상 통화 방법은 아래의 단계 S101 내지 S103을 포함한다.
S101: 제1 단말 사용자의 동영상 이미지를 채집한다.
구체적으로, 제1 단말은 자체의 또는 외장된 카메라를 통하여 촬영을 행하여 제1 단말 사용자의 동영상 이미지를 채집할 수 있다.
S102: 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득한다.
구체적으로, 제1 단말은 종래의 여러가지 컴퓨터 이미지 프로세싱 기술, 예를 들어 유전 알고리즘의 안면 인식, 뉴럴 네트워크의 안면 인식 등을 통하여 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득할 수 있다. 얼굴 표정의 데이터량은 매우 작다. 후속의 실시예에서 얼굴 표정의 획득과정을 상세하게 기술하기로 한다.
S103: 얼굴 표정 정보를 제1 단말과 통화를 형성하는 제2 단말로 송신한다. 상기 얼굴 표정 정보는 제2 단말이 얼굴 표정 정보와 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것이다.
여기서, 제1 단말이 서버를 통하여 제2 단말로 동영상 통화 청구를 송신하거나, 또는 제2 단말이 서버를 통하여 제1 단말로 동영상 통화 청구를 송신한다. 만약 제2 단말이 제1 단말의 동영상 통화 요청에 동의하였다면, 또는 제1 단말이 제2 단말의 동영상 통화 요청에 동의하였다면, 서버는 바로 제1 단말과 제2 단말간의 동영상 통화를 형성할 수 있다.
구체적으로, 제1 단말은 제1 단말 사용자의 얼굴 표정 정보에 대해 코딩을 행하여 디지털 표현을 형성하고, 당해 얼굴 표정 정보를 서버를 통하여 형성한 동영상 통화를 통하여 제2 단말로 송신할 수 있다.
제1 단말이 제1 단말 사용자의 얼굴 표정 정보를 제2 단말로 송신한 후, 제2 단말은 제1 단말 사용자의 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 합성을 행하여 제1 단말 사용자의 얼굴 이미지를 재현하고 제2단말의 동영상 통화 인터페이스에 디스플레이할 수 있다. 여기서, 미리 설정된 안면 이미지 모형은 사용자 자신이 설정한 것일 수 있고, 서버가 디폴트 설정한 것일 수도 있다. 이 외에, 제2 단말의 사용자는 자신의 사진 또는 제1 단말 사용자의 사진과 얼굴 표정 정보를 적용하여 합성을 행하여 제1 단말 사용자의 얼굴 이미지를 재현할 수도 있다.
이 외에, 동영상을 한 프레임 한 프레임의 동영상 이미지로 간주할 수 있는바, 제1 단말에서 각각의 프레임의 이미지의 얼굴 표정 정보를 획득하고, 제2 단말에서도 각각의 프레임의 이미지에 대해 얼굴 표정 정보의 합성을 행하며, 이에 따라 가상 동영상 통화를 실현한다. 여기서 합성 과정은 종래의 기술로서, 여기에서는 더 이상 세세하게 기술하지 않기로 한다.
본 발명의 실시예의 가상 동영상 통화 방법은 얼굴 인식 기술을 이용하여 송신단(예를 들어, 제1 단말)에서 얼굴 표정 정보를 추출하고, 수신단(예를 들어, 제2 단말)에서 송신된 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 안면 이미지의 간단한 합성과 환원을 실현한다. 송신단과 수신단에서 전송되는 정보는 얼굴 표정 정보에만 한정되고, 당해 얼굴 표정 정보는 완전한 안면 이미지를 합성하는 것을 필요하지 않으므로, 포함된 정보량이 적고, 코딩한 후 얼굴 표정 정보의 데이터량은 몇 개의 비트바이트만 차지한다. 따라서 배경 기술이 전송하는 정보와 비교할 때, 동영상 통화과정에서 전송되는 데이터량을 대폭 줄이고, 데이터트래픽을 절약함으로써, 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한이 동영상 통화에 대한 영향을 줄여, 특히 모바일 네트워크에서의 전송에 적합하고, 사용자 체험을 향상시킨다. 이 외에, 제2 단말에서 제1 단말 사용자의 안면 이미지 모형을 재건할 필요 없이 제2 단말이 얼굴 표정 정보에 의거하여 미리 설정된 안면 이미지 모형에 대응되는 얼굴 표정을 디스플레이하기만 하면 되는바, 제2 단말이 조정하기 용이하도록 한다.
본 측면의 일 실시예에서, 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하는 단계는(즉: S102): 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 특징을 획득하고, 얼굴 특징으로부터 얼굴 표정 정보를 추출하는 단계를 포함한다.
구체적으로, 우선 동영상 이미지에서 얼굴 특징을 추출하는바, 얼굴 특징에는 안면 특징(예컨대 눈, 코, 입, 귀 등)의 기하학적 정보, 예를 들어, 눈썹의 위치, 입의 각도, 눈의 크기 등을 포함할 수 있으나 이들에 제한되지 않는다. 기타 방법을 통하여 얼굴 특징을 획득할 수 도 있는바, 미래의 새로운 안면 인식 기술에 대하여, 본 실시예의 제1 단말은 모두 미래의 새로운 안면 인식 기술을 사용하여 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 특징을 획득할 수 있다는 것을 이해해야 한다. 그 다음 얼굴 특징으로부터 얼굴 표정 정보를 추출하고, 제1 단말이 얼굴 특징 분석에 의거하여 제1 단말 사용자의 얼굴 표정 정보를 획득할 수 있다.
본 측면의 일 실시예에서, 얼굴 표정 정보는 눈살을 찌푸리는지, 입을 벌리거나 다무는지, 입가의 라디안(radian, 호도(弧度)), 눈을 떴는지 감았는지, 눈의 크기, 눈물이 있는지 등 내용 중의 하나 또는 여러 개를 포함한다.
이 외에, 얼굴 표정 정보는 주로 사람의 정서 정보를 반영하는바, 예를 들어, 눈썹의 위치, 입의 각도, 눈의 크기 등에 대해 분석을 행하는 것을 통하여 사용자의 표정이 미소인지, 크게 웃는 것인지, 통곡인지, 침울인지, 흥분 또는 화를 내는 것인지 등등을 획득할 수 있다. 마찬가지로, 종래의 여러가지 얼굴 표정 정보 분석 기술(예컨대: 기계 학습 알고리즘 등)을 적용하여 분석을 행할 수 있다. 이 외에, 미래의 유사한 기능을 갖는 알고리즘에 대하여, 본 실시예의 제1 단말은 모두 미래의 유사한 기능을 갖는 알고리즘을 사용하여 얼굴 특징 분석을 행하여 얼굴 표정 정보를 획득할 수 있다.
제1 단말은 제1 단말 사용자의 얼굴 표정 정보에 대해 코딩을 행하여 디지털 표현을 형성하고 - 예를 들어 간단한 몇 개의 문자 부호이고 몇 비트만 차지하는 것일 수 있는바, 예를 들어 "크게 웃는 것"에 대해 직접 문자 부호"D: "를 송신하여 코드 전송을 행하는 것 등 일 수 있다. 물론 코딩방식이 더 풍부할 수 있는바, 여기에서는 단지 이해를 돕기 위해 예를 들어 설명하는 것일 뿐임 -, 당해 얼굴 표정 정보를 서버를 통하여 형성한 동영상 통화를 통하여 제2 단말로 송신한다.
해석해야 할 바로는, 미리 설정된 안면 이미지 모형은 더욱 다양화된 것일 수 있다. 본 발명의 일 실시예에서, 제2 단말에 미리 설정된 안면 이미지 모형은 진실 안면 이미지 모형과 만화 캐릭터 안면 이미지 모형을 포함한다. 이 외에, 제2 단말에 저장된 사진 등일 수도 있다.
영상 통화과정이 더욱 개성적이고 즐거움을 향상하기 위하여 제2 단말 사용자는 자신의 수요에 따라 좋아하는 만화 캐릭터 안면 이미지 모형을 선택할 수 있다. 본 발명의 일 실시예에서, 가상 동영상 통화 방법은, 제2 단말이 제2 단말의 사용자에게 적어도 하나의 만화 캐릭터 안면 이미지 모형을 제공하는 단계; 제2 단말이 제2 단말의 사용자가 선택한 만화 캐릭터 안면 이미지 모형을 수신하고, 얼굴 표정 정보와 선택된 안면 이미지 모형에 의거하여 합성과 디스플레이를 행하는 단계를 더 포함한다. 구체적으로, 제2 단말의 사용자가 자신의 수요에 의거하여 제1 단말 사용자를 위해 좋아하는 만화 캐릭터 안면 이미지 모형을 선택한 후, 제2 단말은 제2 단말의 사용자가 선택한 만화 캐릭터 안면 이미지 모형을 수신하고, 제1 단말 사용자의 얼굴 표정 정보와 제2 단말 사용자가 선택한 만화 캐릭터 안면 이미지 모형에 의거하여 합성을 행하여 제1 단말 사용자의 얼굴 이미지를 재현하고, 제2 단말 동영상 통화 인터페이스에 디스플레이한다. 예를 들어, 제1 단말 사용자의 얼굴 표정 정보는 입을 벌리고, 입가의 라디안이 많고, 눈을 약간 가늘게 뜨고, 이때 제1 단말 사용자가 크게 웃고 있으며, 제2 단말 사용자가 선택한 것이 슈퍼맨의 안면 이미지 모형이면, 제2 단말은 제1 단말 사용자의 얼굴 표정 정보와 슈퍼맨의 만화 캐릭터 이미지를 합성하여 제1 단말 사용자의 얼굴 표정을 크게 웃고 있는 이미지로 재현한다.
본 발명의 실시예는 다른 한가지 가상 동영상 통화 방법을 더 제공한다.
도 2는 본 발명의 다른 한 실시예에 따른 가상 동영상 통화 방법의 플로차트이다.
도 2가 도시하는 바와 같이, 가상 동영상 통화 방법은 아래의 단계 S201, S202를 포함한다.
S201: 제2 단말과 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신한다.
구체적으로, 우선 제1 단말이 서버를 통하여 제2 단말로 동영상 통화 청구를 송신하거나 또는 제2 단말이 서버를 통하여 제1 단말로 동영상 통화 청구를 송신한다. 만약 제2 단말이 제1 단말의 동영상 통화 요청에 동의하였다면, 또는 제1 단말이 제2 단말의 동영상 통화 요청에 동의하였다면, 서버는 바로 제1 단말과 제2 단말간의 동영상 통화를 형성할 수 있다.
여기서, 제1 단말은 자체의 또는 외장된 카메라를 통하여 촬영을 하여 제1 단말 사용자의 동영상 이미지를 채집할 수 있고, 상기 어느 한 항의 실시예 따른 방법에 의거하여 얼굴 표정 정보를 획득하고 제2 단말로 송신할 수 있다.
S202: 얼굴 표정 정보와 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이한다.
구체적으로, 제2 단말은 제1 단말 사용자의 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 합성을 행하여 제1 단말 사용자의 얼굴 이미지를 재현하고, 제2 단말의 동영상 통화 인터페이스에 디스플레이할 수 있다. 여기서, 미리 설정된 안면 이미지 모형은 사용자 자신이 설정한 것일 수 있고, 서버가 디폴트 설정한 것일 수도 있다. 이 외에, 제2 단말의 사용자는 자신의 사진 또는 제1 단말 사용자의 사진이 디스플레이된 것을 적용하여 안면 이미지 모형으로 하여 제1 단말 사용자의 얼굴 이미지를 재현할 수도 있다.
본 발명의 실시예의 가상 동영상 통화 방법은, 얼굴 인식 기술을 이용하여 송신단(예를 들어, 제1 단말)에서 얼굴 표정 정보를 추출하고, 수신단(예를 들어, 제2 단말)에서 송신된 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 안면 이미지의 간단한 합성과 환원을 실현한다. 송신단과 수신단에서 전송되는 정보는 얼굴 표정 정보에만 한정되고, 당해 얼굴 표정 정보는 완전한 안면 이미지를 합성하는 것을 필요로 하지 않으므로, 포함된 정보량이 적고, 코딩한 후 얼굴 표정 정보의 데이터량은 몇 개의 비트바이트만 차지한다. 따라서 배경 기술이 전송하는 정보와 비교할 때, 동영상 통화과정에서 전송되는 데이터량을 대폭 줄이고, 데이터트래픽을 절약함으로써, 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한이 동영상 통화에 대한 영향을 줄여, 특히 모바일 네트워크에서의 전송에 적합하고, 사용자 체험을 향상시킨다. 이 외에, 제2 단말에서 제1 단말 사용자의 안면 이미지 모형을 재건할 필요 없이 제2 단말이 얼굴 표정 정보에 의거하여 미리 설정된 안면 이미지 모형에 대응되는 얼굴 표정을 디스플레이하기만 하면 되는바, 제2 단말이 조정하기 용이하도록 한다.
도 3은 본 발명의 또 하나의 실시예에 따른 가상 동영상 통화 방법의 플로차트이다.
도 3이 도시하는 바와 같이, 가상 동영상 통화 방법은 아래의 단계 S301 내지 S303을 포함한다.
S301: 제2 단말과 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신한다.
S302: 진실한 또는 만화 캐릭터의 안면 이미지 모형을 선택한다. 선택된 상기 진실한 또는 만화 캐릭터의 안면 이미지 모형은 얼굴 표정 정보와 동영상 이미지를 합성하고 디스플레이하기 위한 것이다.
구체적으로, 동영상 통화과정이 더욱 개성적이고 즐거움을 향상하기 위하여 제2 단말은 사용자에게 복수의 진실한 또는 만화 캐릭터의 안면 이미지 모형, 예를 들어 복수의 만화 캐릭터 안면 이미지 모형 또는 사진, 진실한 안면 이미지 모형 등을 제공할 수 있다. 제2 단말 사용자는 자신의 수요에 의거하여 자신이 좋아하는 안면 이미지 모형을 선택할 수 있다. 예를 들어, 제1 단말 사용자의 얼굴 표정 정보는 입을 벌리고, 입가의 라디안이 많고, 눈을 약간 가늘게 뜨고, 이때 제1 단말 사용자가 크게 웃고 있으며, 제2 단말 사용자가 선택한 것이 슈퍼맨의 안면 이미지 모형이면, 제2 단말은 제1 단말 사용자의 얼굴 표정 정보와 슈퍼맨의 만화 캐릭터 이미지를 합성하여 제1 단말 사용자의 얼굴 표정을 크게 웃고 있는 이미지로 재현한다.
S303: 선택된 진실한 또는 만화 캐릭터의 안면 이미지 모형과 얼굴 표정 정보에 의거하여 동영상 이미지를 합성하고 디스플레이한다.
본 발명의 실시예의 가상 동영상 통화 방법은, 제2 단말의 사용자가 진실한 또는 만화 캐릭터의 안면 이미지 모형을 선택하고, 선택한 진실한 또는 만화 캐릭터의 안면 이미지 모형과 얼굴 표정 정보에 의거하여 동영상 이미지를 합성하고 디스플레이할 수 있는 것으로, 즐거움을 향상하고, 사용자의 체험을 향상시킨다.
본 발명의 실시예에서, 재현한 얼굴 이미지가 더욱 진실성을 갖게 하기 위하여, 제2 단말은 제1 단말 사용자의 진실한 안면 이미지 모형을 획득하여 얼굴 표정 재현을 행할 수 있다. 구체적으로, 제1 단말은 카메라를 통하여 동영상 이미지를 촬영하고, 촬영한 동영상 이미지에 대해 분석을 행할 수 있고, 이에 따라 진실한 안면 이미지 모형을 획득하거나, 또는 촬영할 필요없이 제1 단말이 사용자 자신이 선택한 안면 이미지에 의거하여 분석을 행하여 진실한 안면 이미지 모형을 획득한 후, 제2 단말로 송신하여 저장을 행할 수 있다.
이 외에, 제2 단말은 제1 단말 사용자의 안면 이미지를 더 획득하고, 안면 이미지에 의거하여 분석을 행하여 진실한 안면 이미지 모형을 획득할 수 있는바, 즉 진실한 안면 이미지 모형은 제2 단말에서 생성될 수 있다. 제2 단말은 제1 단말 사용자의 진실한 안면 이미지 모형과 제1 단말 사용자의 얼굴 표정 정보에 의거하여 제1 단말 사용자의 얼굴 이미지를 합성하여 제2 단말의 동영상 통화 인터페이스에 재현할 수 있다. 이에 따라, 재현한 얼굴 이미지가 더욱 진실성을 갖도록 할 수 있다.
진실한 안면 이미지 모형은 한 번만 형성하여, 제2 단말로 송신되어 저장될 수 있고, 추후의 데이터 송신과정에서는 얼굴 표정 정보만 송신하면 된다는 것을 이해해야 한다. 이 외에, 제2 단말에 선택 버튼을 제공할 수도 있는바, 제2 단말 사용자는 제1 단말 사용자의 진실한 얼굴 이미지를 재현한 것을 선택하여 디스플레이할 수 있고, 또는 만화 캐릭터 안면 이미지 모형을 선택하여 얼굴 이미지를 재현할 수 있다. 더욱 구체적으로, 제2 단말의 사용자는 구체적인 네트워크 환경과 단말 성능에 의거하여 선택할 수 있는바, 예를 들어 모바일 단말에서 만화 캐릭터 안면 이미지 모형을 선택하고 얼굴 표정 정보만 송신하여 동영상 통화를 실현하고, 개인용 컴퓨터에서 진실한 안면 이미지 모형을 선택하여 진실감을 증가할수 있다.
본 발명의 실시예의 가상 동영상 통화 방법은 제1 단말 사용자의 진실한 안면 이미지 모형과 얼굴 표정 정보에 의거하여 제1 단말 사용자의 얼굴 이미지를 재현하고, 이에 따라 재현된 얼굴 이미지가 더욱 진실성을 갖게 할 수 있다. 이 외에, 진실한 안면 이미지 모형은 한번 전송되면 여러 번 사용할 수 있어 수신단이 통화과정에서 실시간으로 진실한 안면 이미지 모형을 재건할 필요가 없게 되어, 수신단의 조작과정을 간략화하고 사용자 체험을 향상시킨다.
상기 실시예를 실현하기 위하여, 본 발명은 단말을 더 제공한다.
단말로서, 사용자의 동영상 이미지를 채집하기 위한 채집 모듈; 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하기 위한 인식 모듈; 얼굴 표정 정보를 단말과 통화를 형성하는 제2 단말로 송신하기 위한 송신 모듈, 을 포함하고, 상기 얼굴 표정 정보는 제2 단말이 얼굴 표정 정보와 기타 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하 하기 위한 것이다.
도 4는 본 발명의 일 실시예에 따른 단말의 구조 설명도이다.
도 4가 도시하는 바와 같이, 단말은 채집 모듈(110), 인식 모듈(120)과 송신 모듈(130)을 포함한다.
구체적으로, 채집 모듈(110)은 사용자의 동영상 이미지를 채집하기 위한 것이다. 더욱 구체적으로, 채집 모듈(110)은 단말 자체의 또는 외장된 카메라를 통하여 촬영을 행하여 사용자의 동영상 이미지를 채집할 수 있다.
인식 모듈(120)은 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하기 위한 것이다. 더욱 구체적으로, 인식 모듈(120)은 종래의 여러가지 컴퓨터 이미지 프로세싱 기술, 예를 들어 유전 알고리즘의 안면 인식, 뉴럴 네트워크의 안면 인식 등을 통하여 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득할 수 있다. 얼굴 표정 정보의 데이터량은 매우 작다. 후속의 실시예에서 얼굴 표정의 획득 과정을 상세하게 기술하기로 한다.
송신 모듈(130)은 얼굴 표정 정보를 단말과 통화를 형성하는 제2 단말로 송신하기 위한 것이고, 상기 얼굴 표정 정보는 제2 단말이 얼굴 표정 정보와 기타 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것이다.
여기서, 단말이 서버를 통하여 제2 단말로 동영상 통화 청구를 송신하거나 또는 제2 단말이 서버를 통하여 단말로 동영상 통화 청구를 송신한다. 만약 제2 단말이 단말의 동영상 통화 요청을 동의했다면, 또는 단말이 제2 단말이 동영상 통화 요청을 동의했다면, 서버는 바로 단말과 제2 단말간의 동영상 통화를 형성할 수 있다.
더욱 구체적으로, 송신 모듈(130)은 얼굴 표정 정보에 대해 코딩을 행하여 디지털 표현을 형성하고, 당해 얼굴 표정 정보를 서버를 통하여 형성한 동영상 통화를 통하여 제2 단말로 송신할 수 있다.
얼굴 표정 정보를 제2 단말로 송신한 후, 제2 단말은 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 합성을 행하여 단말 사용자의 얼굴 이미지를 재현하고, 제2 단말의 동영상 통화 인터페이스에 디스플레이할 수 있다. 여기서, 미리 설정된 안면 이미지 모형은 사용자 자신이 설정한 것일 수 있고, 서버가 디폴트 설정한 것일 수도 있다. 이 외에, 제2 단말의 사용자는 자신의 사진 또는 단말 사용자의 사진과 얼굴 표정 정보를 적용하여 합성을 행하여 제1 단말 사용자의 얼굴 이미지를 재현할 수도 있다.
본 발명의 실시예의 단말은 얼굴 인식 기술을 이용하여 얼굴 표정 정보를 추출하고, 단말과 통화를 형성하는 제2 단말이 송신된 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 안면 이미지의 간단한 합성과 환원을 실현하도록 한다. 전송한 정보는 얼굴 표정 정보에만 한정되고, 또 당해 얼굴 표정 정보는 완전한 안면 이미지를 합성하는 것이 필요하지 않으므로, 포함된 정보량이 적고, 코딩한 후 얼굴 표정 정보의 데이터량은 몇 개의 비트바이트만 차지한다. 따라서 배경 기술이 전송하는 정보와 비교할 때, 동영상 통화과정에서 전송되는 데이터량을 대폭 줄이고, 데이터트래픽을 절약함으로써, 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한이 동영상 통화에 대한 영향을 줄여, 특히 모바일 네트워크에서의 전송에 적합하고, 사용자 체험을 향상시킨다. 이 외에, 제2 단말에서 사용자의 안면 이미지 모형을 재건할 필요 없이 제2 단말이 얼굴 표정 정보에 의거하여 미리 설정된 안면 이미지 모형에 대응되는 얼굴 표정을 디스플레이하기만 하면 되는바, 제2 단말이 조정하기 용이하도록 한다.
본 발명의 일 실시예에서, 인식 모듈(120)은 또 동영상 이미지 얼굴에 대해 인식을 행하여 얼굴 특징을 획득하고, 얼굴 특징으로부터 얼굴 표정 정보를 추출하기 위한 것이다.
구체적으로, 우선, 인식 모듈(120)이 동영상 이미지로부터 추출한 얼굴 특징에 대해 말하자면, 얼굴 특징은 안면 특징(예컨대 눈, 코, 입, 귀 등)의 기하학적 정보, 예를 들어, 눈썹의 위치, 입의 각도, 눈의 크기 등을 포함할 수 있으나 이들에 한정되지 않는다. 기타 방법을 통하여 얼굴 특징 정보를 획득할 수도 있고, 미래의 새로운 안면 인식 기술에 대하여, 모두 미래의 새로운 안면 인식 기술을 사용하여 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 특징 정보를 획득할 수 있다는 것을 이해해야 한다. 그 다음 인식 모듈(120)이 얼굴 특징으로부터 얼굴 표정 정보를 추출하고, 인식 모듈(120)이 얼굴 특징 정보에 의거하여 분석을 하여 사용자의 얼굴 표정 정보를 획득할 수 있다.
본 측면의 일 실시예에서, 얼굴 표정 정보는 눈살을 찌푸리는지, 입을 벌리거나 다무는지, 입가의 라디안, 눈을 떴는지 감았는지, 눈의 크기, 눈물이 있는지 등 내용 중의 하나 또는 여러 개를 포함한다.
이 외에, 얼굴 표정 정보는 주로 사람의 정서 정보를 반영하는바, 예를 들어, 눈썹의 위치, 입의 각도, 눈의 크기 등에 대해 분석을 행하는 것을 통하여 사용자의 표정이 미소인지, 크게 웃는 것인지, 통곡인지, 침울인지, 흥분 또는 화를 내는 것인지 등등을 획득할 수 있다. 마찬가지로, 종래의 여러가지 얼굴 표정 정보 분석 기술(예컨대: 기계 학습 알고리즘 등)을 적용하여 분석을 행할 수 있다. 이 외에, 미래의 유사한 기능을 갖는 알고리즘에 대하여 모두 미래의 유사한 기능을 갖는 알고리즘을 사용하여 얼굴 특징 정보 분석을 행하여 얼굴 표정 정보를 획득할 수 있다.
본 측면의 일 실시예에서, 얼굴 표정 정보는 눈살을 찌푸리는지, 입을 벌리거나 다무는지, 입가의 라디안, 눈을 떴는지 감았는지, 눈의 크기, 눈물이 있는지 등 내용 중의 하나 또는 여러 개를 포함한다.
이 외에, 송신 모듈(130)은 얼굴 표정 정보에 대해 코딩을 행하여 디지털 표현을 형성하고 - 예를 들어, 간단한 몇 개의 문자 부호이고 몇 비트만 차지하는 것일 수 있는바, 예를 들어, "크게 웃는 것"에 대해 직접 문자 부호"D: "송신하여 코드 전송을 행하는 것 등 일 수 있다. 물론 코딩방식이 더 풍부할 수 있는바, 여기서에는 단지 이해를 돕기 위해 예를 들어 설명하는 것일 뿐임 -, 당해 얼굴 표정 정보를 서버를 통하여 형성한 동영상 통화를 통하여 제2 단말로 송신할 수 있다.
상기 실시예를 실현하기 위하여, 본 발명은 다른 한가지 단말을 더 제공한다.
도 5는 본 발명의 다른 한 실시예에 따른 단말의 구조 설명도이다.
도 5가 도시하는바와 같이, 단말은 수신 모듈(210)과 합성 모듈(220)을 포함한다.
구체적으로, 수신 모듈(210)은 단말과 통화를 형성하는 제1 단말이 송신하는 동영상 이미지의 얼굴 표정 정보를 수신하기 위한 것이다. 합성 모듈(220)은 얼굴 표정 정보와 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하기 위한 것이다.
더 구체적으로, 합성 모듈(220)은 제1 단말 사용자의 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 합성을 행하여 제1 단말 사용자의 얼굴 이미지를 재현하고, 단말의 동영상 통화 인터페이스에 디스플레이할 수 있다. 여기서, 미리 설정된 안면 이미지 모형은 사용자 자신이 설정한 것일 수 있고, 디폴트 설정한 것일 수도 있다. 이 외에, 단말의 사용자는 자신의 사진 또는 제1 단말 사용자의 사진이 디스플레이된 것을 적용하여 안면 이미지 모형으로 하여 제1 단말 사용자의 얼굴 이미지를 재현할 수도 있다.
본 발명의 실시예의 단말은, 얼굴 인식 기술을 이용하여 얼굴 표정 정보를 추출하고, 단말과 통화를 형성하는 제1 단말이 송신한 얼굴 표정 정보와 미리 설정된 안면 이미지 모형에 의거하여 안면 이미지의 간단한 합성과 환원을 실현한다. 송신단과 수신단에서 전송되는 정보는 얼굴 표정 정보에만 한정되고, 당해 얼굴 표정 정보는 완전한 안면 이미지를 합성하는 것을 필요로 하지 않으므로, 포함된 정보량이 적고, 코딩한 후 얼굴 표정 정보의 데이터량은 몇 개의 비트바이트만 차지한다. 따라서 배경 기술이 전송하는 정보와 비교할 때, 동영상 통화과정에서 전송되는 데이터량을 대폭 줄이고, 데이터트래픽을 절약함으로써, 동영상 통화가 더욱 유창하도록 하고, 네트워크 대역폭 한정 또는 트래픽 제한이 동영상 통화에 대한 영향을 줄여 특히 모바일 네트워크에서의 전송에 적합하고, 사용자 체험을 향상시킨다. 이 외에, 안면 이미지 모형을 재건할 필요 없이, 얼굴 표정 정보에 의거하여 미리 설정된 안면 이미지 모형에 대응되는 얼굴 표정만 디스플레이하기만 하면 되는바, 조정하기 용이하고, 단말이 조정하기 용이하도록 한다.
도 6은 본 발명의 또 하나의 실시예에 따른 단말의 구조 설명도이다.
도 6이 도시하는 바와 같이, 도 5가 도시하는 기초 상에서 단말은 선택 모듈(230)을 더 포함한다.
구체적으로, 선택 모듈(230)은 수신 모듈(210)이 제2 단말과 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신한 후, 진실한 또는 만화 캐릭터의 안면 이미지 모형을 선택하기 위한 것이고, 선택된 상기 진실한 또는 만화 캐릭터의 안면 이미지 모형은 얼굴 표정 정보와 동영상 이미지를 합성하고 디스플레이하기 위한 것이다.
더욱 구체적으로, 동영상 통화과정이 더욱 개성적이고 즐거움을 향상하기 위하여 단말은 사용자에게 복수의 진실한 또는 만화 캐릭터의 안면 이미지 모형, 예를 들어, 복수의 만화 캐릭터 안면 이미지 모형, 또는 사진, 진실한 안면 이미지 모형 등을 제공할 수 있는바, 사용자는 자신의 수요에 의거하여 자신이 좋아하는 안면 이미지 모형을 선택할 수 있다. 예를 들어, 제1 단말 사용자의 얼굴 표정 정보가 크게 웃는 것이고, 단말 사용자가 선택한 것은 슈퍼맨의 안면 이미지 모형이면, 단말은 제1 단말 사용자의 얼굴 표정 정보와 슈퍼맨의 만화 캐릭터 이미지를 합성하여 기타 단말 사용자의 얼굴 표정을 크게 웃고 있는 이미지로 재현한다.
이에 따라, 사용자는 진실한 또는 만화 캐릭터의 안면 이미지 모형을 선택하고, 선택된 진실한 또는 만화 캐릭터의 안면 이미지 모형과 얼굴 표정 정보에 의거하여 동영상 이미지를 합성하고 디스플레이할 수 있어, 즐거움을 향상하고 사용자의 체험을 향상시킨다.
상기 목적을 실현하기 위하여, 본 발명은 단말설비를 더 제공한다.
본 발명의 실시예의 단말설비는 하나 또는 복수의 프로세서; 메모리; 하나 또는 복수의 프로그램을 포함하고, 상기 하나 또는 복수의 프로그램은 상기 메모리에 저장되고, 상기 하나 또는 복수의 프로세서에 의해 수행될 때, 상기 단말설비 사용자의 동영상 이미지를 채집하는 조작; 상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하는 조작; 상기 얼굴 표정 정보를 상기 단말설비와 통화를 형성하는 제2 단말로 송신하는 조작을 행하며, 상기 얼굴 표정 정보는 상기 제2 단말이 상기 얼굴 표정 정보와 상기 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것이다.
상기 목적을 실현하기 위하여, 본 발명은 다른 한가지 단말설비를 더 제공한다.
본 발명의 실시예의 단말설비는 하나 또는 복수의 프로세서; 메모리; 하나 또는 복수의 프로그램을 포함하고, 상기 하나 또는 복수의 프로그램은 상기 메모리에 저장되고, 상기 하나 또는 복수의 프로세서에 의해 수행될 때, 상기 단말설비와 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신하는 조작; 상기 얼굴 표정 정보와 상기 단말설비에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하는 조작을 행한다.
본 발명의 각 부분은 하드웨어, 소프트웨어, 펌웨어 또는 그들의 조합으로 실현될 수 있다는 것으로 이해되어야 한다. 상기 실시 방식에서, 복수 개의 단계나 방법은 메모리에 저장된 적합한 명령으로 시스템 실행을 실행하는 소프트웨어 또는 펌웨어로 실현할 수 있다. 예를 들어, 만약 하드웨어로 실현한다면 다른 한 실시 방식에서처럼 본 분야에서의 데이터 신호에 대해 로직 기능을 실현하기 위한 로직 게이트 회로를 구비한 이산 로직 회로, 적합한 조합 로직 게이트 회로를 구비한 전용 집적 회로, 프로그램 가능 게이트 어레이(PGA), 필드 프로그램 가능 게이트 어레이(FPGA)등 공지된 기술 중의 어느 하나 또는 그들의 조합으로 실현할 수 있다.
본 명세서의 설명에서 참조 용어 "일 실시예", "일부 실시예", "예시", "구체적 예시" 또는 "일부 예시" 등의 설명은 당해 실시예 또는 예시를 결부하여 설명하는 구체적인 특징, 구조, 재료 또는 특점이 본 발명의 적어도 하나의 실시예 또는 예시에 포함된다는 것을 의미한다. 본 명세서에서 상기 용어에 대한 함축적인 표달이 반드시 동일한 실시예 또는 예시를 가리키는 것은 아니다. 그리고, 설명된 구체적 특징, 구조, 재료 또는 특점은 임의의 하나 또는 복수의 실시예 또는 예시에서 적합한 방식으로 결합될 수 있다.
비록 위에서 이미 본 발명의 실시예를 제시하고 설명하였지만 본 기술 분야의 통상의 지식을 가진 자들은 본 발명의 범위내에서 상기 실시예에 대해 변화, 수정, 대체와 변형을 진행할 수 있고, 본 발명의 범위는 청구항 및 그 균등물에 의해 한정된다는 것을 이해할 것이다.

Claims (12)

  1. 가상 동영상 통화 방법으로서,
    제1 단말 사용자의 동영상 이미지를 채집하는 단계;
    상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하는 단계;
    상기 얼굴 표정 정보를 상기 제1 단말과 통화를 형성하는 제2 단말로 송신하는 단계를 포함하되,
    상기 얼굴 표정 정보는 상기 제2 단말이 상기 얼굴 표정 정보와 상기 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것,
    을 특징으로 하는 가상 동영상 통화 방법.
  2. 제1항에 있어서,
    상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하는 단계는,
    상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 특징을 획득하고, 상기 얼굴 특징으로부터 상기 얼굴 표정 정보를 추출하는 것,
    을 포함하는 것을 특징으로 하는 가상 동영상 통화 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 얼굴 표정 정보는 눈살을 찌푸리는지, 입을 벌리거나 다무는지, 입가의 라디안, 눈을 떴는지 감았는지, 눈의 크기, 눈물이 있는지 등 내용 중의 하나 또는 여러 개를 포함하는 것,
    을 특징으로 하는 가상 동영상 통화 방법.
  4. 가상 동영상 통화 방법으로서,
    제2 단말과 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신하는 단계;
    상기 얼굴 표정 정보와 상기 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하는 단계,
    를 포함하는 것을 특징으로 하는 가상 동영상 통화 방법.
  5. 제4항에 있어서,
    상기 제2 단말과 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신하는 단계 이후,
    진실한 또는 만화 캐릭터의 안면 이미지 모형을 선택하는 단계를 더 포함하되, 선택된 상기 진실한 또는 만화 캐릭터의 안면 이미지 모형은 상기 얼굴 표정 정보와 동영상 이미지를 합성하고 디스플레이하기 위한 것,
    을 특징으로 하는 가상 동영상 통화 방법.
  6. 단말로서,
    사용자의 동영상 이미지를 채집하기 위한 채집 모듈;
    상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하기 위한 인식 모듈;
    상기 얼굴 표정 정보를 단말과 통화를 형성하는 제2 단말로 송신하기 위한 송신 모듈을 포함하되,
    상기 얼굴 표정 정보는 상기 제2 단말이 상기 얼굴 표정 정보와 상기 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것,
    을 특징으로 하는 단말.
  7. 제6항에 있어서,
    상기 인식 모듈은 또 상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 특징을 획득하고, 상기 얼굴 특징으로부터 상기 얼굴 표정 정보를 추출하기 위한 것,
    을 특징으로 하는 단말.
  8. 제6항 또는 제7항에 있어서,
    상기 얼굴 표정 정보는 눈살을 찌푸리는지, 입을 벌리거나 다무는지, 입가의 라디안, 눈을 떴는지 감았는지, 눈의 크기, 눈물이 있는지 등 내용 중의 하나 또는 여러개를 포함하는 것,
    을 특징으로 하는 단말.
  9. 단말로서,
    단말과 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신하기 위한 수신 모듈;
    상기 얼굴 표정 정보와 상기 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하기 위한 합성 모듈,
    을 포함하는 것을 특징으로 하는 단말.
  10. 제9항에 있어서,
    상기 수신 모듈이 제2 단말과 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신한 후, 진실한 또는 만화 캐릭터의 안면 이미지 모형을 선택하기 위한 선택 모듈을 더 포함하되,
    선택된 상기 진실한 또는 만화 캐릭터의 안면 이미지 모형은 상기 얼굴 표정 정보와 동영상 이미지를 합성하고 디스플레이하기 위한 것,
    을 특징으로 하는 단말.
  11. 단말설비로서,
    하나 또는 복수의 프로세서;
    메모리;
    하나 또는 복수의 프로그램을 포함하되,
    상기 하나 또는 복수의 프로그램은 상기 메모리에 저장되고, 상기 하나 또는 복수의 프로세서에 의해 수행될 때,
    상기 단말설비 사용자의 동영상 이미지를 채집하는 조작;
    상기 동영상 이미지에 대해 얼굴 인식을 행하여 얼굴 표정 정보를 획득하는 조작;
    상기 얼굴 표정 정보를 상기 단말설비와 통화를 형성하는 제2 단말로 송신하는 조작을 행하고,
    상기 얼굴 표정 정보는 상기 제2 단말이 상기 얼굴 표정 정보와 상기 제2 단말에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하도록 하기 위한 것,
    을 특징으로 하는 단말설비.
  12. 단말설비로서,
    하나 또는 복수의 프로세서;
    메모리;
    하나 또는 복수의 프로그램을 포함하되,
    상기 하나 또는 복수의 프로그램은 상기 메모리에 저장되고, 상기 하나 또는 복수의 프로세서에 의해 수행될 때,
    상기 단말설비와 통화를 형성하는 제1 단말이 송신한 동영상 이미지의 얼굴 표정 정보를 수신하는 조작;
    상기 얼굴 표정 정보와 상기 단말설비에 미리 설정된 안면 이미지 모형에 의거하여 동영상 이미지를 합성하고 디스플레이하는 조작을 행하는 것,
    을 특징으로 하는 단말설비.
KR1020157036602A 2013-12-20 2014-12-05 가상 동영상 통화 방법 및 단말 KR101768980B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310714667.3 2013-12-20
CN201310714667.3A CN103647922A (zh) 2013-12-20 2013-12-20 虚拟视频通话方法和终端
PCT/CN2014/093187 WO2015090147A1 (zh) 2013-12-20 2014-12-05 虚拟视频通话方法和终端

Publications (2)

Publication Number Publication Date
KR20160021146A true KR20160021146A (ko) 2016-02-24
KR101768980B1 KR101768980B1 (ko) 2017-08-17

Family

ID=50253066

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157036602A KR101768980B1 (ko) 2013-12-20 2014-12-05 가상 동영상 통화 방법 및 단말

Country Status (4)

Country Link
JP (1) JP2016537922A (ko)
KR (1) KR101768980B1 (ko)
CN (1) CN103647922A (ko)
WO (1) WO2015090147A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210100707A (ko) * 2019-01-23 2021-08-17 광저우 스위엔 일렉트로닉스 코., 엘티디. 비디오 이미지 전송 방법, 장치, 인터랙티브 지능형 태블릿 및 저장 매체

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103647922A (zh) * 2013-12-20 2014-03-19 百度在线网络技术(北京)有限公司 虚拟视频通话方法和终端
CN105282621A (zh) * 2014-07-22 2016-01-27 中兴通讯股份有限公司 一种语音消息可视化服务的实现方法及装置
CN104333730B (zh) * 2014-11-26 2019-03-15 北京奇艺世纪科技有限公司 一种视频通信方法及装置
CN106162052A (zh) * 2015-03-30 2016-11-23 联想(北京)有限公司 传输视频图像及其装置,显示图像的方法及其装置
CN106162042A (zh) * 2015-04-13 2016-11-23 中兴通讯股份有限公司 一种视频会议的方法、服务器及终端
CN105245702B (zh) * 2015-09-25 2018-09-11 北京奇虎科技有限公司 来电显示图像的优化方法、客户端及系统
CN105263040A (zh) * 2015-10-08 2016-01-20 安徽理工大学 一种节省手机流量观看球赛直播的方法
CN105407313A (zh) * 2015-10-28 2016-03-16 掌赢信息科技(上海)有限公司 一种视频通话方法、设备和系统
CN105847734A (zh) * 2016-03-30 2016-08-10 宁波三博电子科技有限公司 一种基于人脸识别的视频通信方法及系统
CN107465885A (zh) * 2016-06-06 2017-12-12 中兴通讯股份有限公司 一种实现视频通讯的方法和装置
CN106101858A (zh) * 2016-06-27 2016-11-09 乐视控股(北京)有限公司 一种视频生成方法及装置
CN107690055A (zh) * 2016-08-05 2018-02-13 中兴通讯股份有限公司 视频通话的控制方法、装置及系统
CN106506908A (zh) * 2016-10-26 2017-03-15 宇龙计算机通信科技(深圳)有限公司 一种视频合成方法及装置
CN106649712B (zh) * 2016-12-20 2020-03-03 北京小米移动软件有限公司 输入表情信息的方法及装置
CN108347578B (zh) * 2017-01-23 2020-05-08 腾讯科技(深圳)有限公司 视频通话中视频图像的处理方法及装置
KR102256110B1 (ko) * 2017-05-26 2021-05-26 라인 가부시키가이샤 영상 압축 방법 및 영상 복원 방법
CN107396035A (zh) * 2017-08-15 2017-11-24 罗静 立体人脸表情重现构件、装置及3d远程会议系统
CN107509081A (zh) * 2017-08-22 2017-12-22 姚静洁 一种用于人脸识别的图像压缩编码方法
CN108174141B (zh) * 2017-11-30 2019-12-31 维沃移动通信有限公司 一种视频通信的方法和一种移动装置
CN107911644B (zh) * 2017-12-04 2020-05-08 吕庆祥 基于虚拟人脸表情进行视频通话的方法及装置
CN108377356B (zh) * 2018-01-18 2020-07-28 上海掌门科技有限公司 基于虚拟画像的视频通话的方法、设备和计算机可读介质
CN108271058B (zh) * 2018-02-02 2021-10-12 阿里巴巴(中国)有限公司 视频互动方法、用户客户端、服务器及存储介质
CN109803109B (zh) * 2018-12-17 2020-07-31 中国科学院深圳先进技术研究院 一种可穿戴增强现实远程视频系统及视频通话方法
CN109740476B (zh) * 2018-12-25 2021-08-20 北京琳云信息科技有限责任公司 即时通讯方法、装置和服务器
JP7277145B2 (ja) * 2019-01-10 2023-05-18 株式会社Iriam キャラクタを使ったライブ通信システム
CN110460719B (zh) * 2019-07-23 2021-06-18 维沃移动通信有限公司 一种语音通话方法及移动终端
CN110650306B (zh) * 2019-09-03 2022-04-15 平安科技(深圳)有限公司 视频聊天中添加表情的方法、装置、计算机设备及存储介质
CN110599359B (zh) * 2019-09-05 2022-09-16 深圳追一科技有限公司 社交方法、装置、系统、终端设备及存储介质
CN110769186A (zh) * 2019-10-28 2020-02-07 维沃移动通信有限公司 一种视频通话方法、第一电子设备及第二电子设备
CN113099150B (zh) * 2020-01-08 2022-12-02 华为技术有限公司 图像处理的方法、设备及系统
CN111240482B (zh) * 2020-01-10 2023-06-30 北京字节跳动网络技术有限公司 一种特效展示方法及装置
CN113220500B (zh) * 2020-02-05 2024-09-03 伊姆西Ip控股有限责任公司 基于逆向差异恢复的恢复方法、设备和程序产品
CN111641798A (zh) * 2020-06-15 2020-09-08 黑龙江科技大学 一种视频通信方法及装置
CN111814652A (zh) * 2020-07-03 2020-10-23 广州视源电子科技股份有限公司 虚拟人像渲染方法、装置以及存储介质
CN111669662A (zh) * 2020-07-03 2020-09-15 海信视像科技股份有限公司 显示设备、视频通话方法及服务器
CN112116548A (zh) * 2020-09-28 2020-12-22 北京百度网讯科技有限公司 人脸图像的合成方法、装置
CN112218034A (zh) * 2020-10-13 2021-01-12 北京字节跳动网络技术有限公司 视频处理方法、系统、终端和存储介质
CN112235531A (zh) * 2020-10-15 2021-01-15 北京字节跳动网络技术有限公司 视频处理的方法、装置、终端及存储介质
CN114710640B (zh) * 2020-12-29 2023-06-27 华为技术有限公司 基于虚拟形象的视频通话方法、装置和终端
CN113066497A (zh) * 2021-03-18 2021-07-02 Oppo广东移动通信有限公司 数据处理方法、装置、系统、电子设备和可读存储介质
CN113613048A (zh) * 2021-07-30 2021-11-05 武汉微派网络科技有限公司 虚拟形象表情驱动方法和系统
WO2023195426A1 (ja) * 2022-04-05 2023-10-12 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 復号装置、符号化装置、復号方法及び符号化方法
CN117917889A (zh) * 2022-10-21 2024-04-23 摩尔线程智能科技(北京)有限责任公司 视频通话方法、装置、电子设备及存储介质
CN118138792B (zh) * 2024-05-07 2024-07-30 杭州育恩科技有限公司 一种多媒体授课的直播方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004104424A (ja) * 2002-09-09 2004-04-02 Oki Electric Ind Co Ltd データ配信システムおよびそのデータ配信方法
CN102479388A (zh) * 2010-11-22 2012-05-30 北京盛开互动科技有限公司 基于人脸跟踪和分析的表情互动方法
CN102254336B (zh) * 2011-07-14 2013-01-16 清华大学 人脸视频合成方法及装置
CN102271241A (zh) * 2011-09-02 2011-12-07 北京邮电大学 一种基于面部表情/动作识别的图像通信方法及系统
CN102542586A (zh) * 2011-12-26 2012-07-04 暨南大学 一种基于移动终端的个性化卡通肖像生成系统及方法
CN103369289B (zh) * 2012-03-29 2016-05-04 深圳市腾讯计算机系统有限公司 一种视频模拟形象的通信方法和装置
US9357174B2 (en) * 2012-04-09 2016-05-31 Intel Corporation System and method for avatar management and selection
CN103368929B (zh) * 2012-04-11 2016-03-16 腾讯科技(深圳)有限公司 一种视频聊天方法及系统
CN103415003A (zh) * 2013-08-26 2013-11-27 苏州跨界软件科技有限公司 一种虚拟人物通话系统
CN103647922A (zh) * 2013-12-20 2014-03-19 百度在线网络技术(北京)有限公司 虚拟视频通话方法和终端

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210100707A (ko) * 2019-01-23 2021-08-17 광저우 스위엔 일렉트로닉스 코., 엘티디. 비디오 이미지 전송 방법, 장치, 인터랙티브 지능형 태블릿 및 저장 매체

Also Published As

Publication number Publication date
KR101768980B1 (ko) 2017-08-17
CN103647922A (zh) 2014-03-19
JP2016537922A (ja) 2016-12-01
WO2015090147A1 (zh) 2015-06-25

Similar Documents

Publication Publication Date Title
KR101768980B1 (ko) 가상 동영상 통화 방법 및 단말
US9210372B2 (en) Communication method and device for video simulation image
CN104170318B (zh) 使用交互化身的通信
KR102246355B1 (ko) 하이브리드 비쥬얼 커뮤니케이션
CN104782120B (zh) 化身动画制作方法、计算设备和存储介质
JP4449723B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN110493630A (zh) 虚拟礼物特效的处理方法和装置、直播系统
CN110475150A (zh) 虚拟礼物特效的渲染方法和装置、直播系统
CN110536151A (zh) 虚拟礼物特效的合成方法和装置、直播系统
WO2023011221A1 (zh) 混合变形值的输出方法及存储介质、电子装置
US20160353056A1 (en) Hybrid visual communication
CN107705341B (zh) 用户表情头像生成的方法及其装置
WO2021098338A1 (zh) 一种模型训练的方法、媒体信息合成的方法及相关装置
US20220385808A1 (en) Selfie setup and stock videos creation
CN111539882A (zh) 辅助化妆的交互方法、终端、计算机存储介质
CN112348738A (zh) 图像优化方法、图像优化装置、存储介质与电子设备
CN116301322A (zh) 输出方法及电子设备
JP2005018305A (ja) 画像配信システムおよび画像コミュニケーション機能付情報処理装置
CN113453027A (zh) 直播视频、虚拟上妆的图像处理方法、装置及电子设备
KR20210081082A (ko) 객체의 모션 데이터 기반의 아바타 컨텐츠를 제공하는 서버, 방법 및 사용자 단말
EP4248646A1 (en) Providing a 3d representation of a transmitting participant in a virtual meeting
CN107396200A (zh) 基于社交软件进行视频直播的方法
WO2023159897A1 (zh) 视频生成方法及装置
CN115515008B (zh) 一种视频处理方法、终端和视频处理系统
KR20120102275A (ko) 가상 헤어 적용 서비스 시스템과 방법 및 이를 지원하는 단말기

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant