KR102463304B1 - 비디오 처리 방법 및 장치, 전자기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 - Google Patents
비디오 처리 방법 및 장치, 전자기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 Download PDFInfo
- Publication number
- KR102463304B1 KR102463304B1 KR1020210031456A KR20210031456A KR102463304B1 KR 102463304 B1 KR102463304 B1 KR 102463304B1 KR 1020210031456 A KR1020210031456 A KR 1020210031456A KR 20210031456 A KR20210031456 A KR 20210031456A KR 102463304 B1 KR102463304 B1 KR 102463304B1
- Authority
- KR
- South Korea
- Prior art keywords
- display position
- image
- target
- scene
- video stream
- Prior art date
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 31
- 238000004590 computer program Methods 0.000 title claims description 14
- 230000004044 response Effects 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims description 20
- 238000012545 processing Methods 0.000 claims description 19
- 238000005516 engineering process Methods 0.000 abstract description 5
- 230000015654 memory Effects 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23412—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234345—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44012—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving rendering scenes according to scene graphs, e.g. MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440245—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/812—Monomedia components thereof involving advertisement data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8146—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
- H04N21/8153—Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics comprising still images, e.g. texture, background image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Marketing (AREA)
- Business, Economics & Management (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 출원은 컴퓨터 시각 기술분야에 관한 것으로, 비디오 처리 방법 및 장치를 공개한다. 구체적인 실시형태는, 대상 비디오 스트림을 획득한 것에 응답하여, 상기 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내는 단계; 상기 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하는 단계; 및 상기 전경 이미지와 상기 처리된 배경 이미지를 병합하여, 대상 비디오 프레임을 획득하는 단계를 포함한다. 본 출원은 배경에 디스플레이할 콘텐츠를 직접 렌더링하여 배경에 디스플레이되는 콘텐츠가 사람과 같은 전경 중의 피사체를 가리지 않도록 할 수 있다. 아울러 본 출원은 비디오 화면의 가장자리에만 콘텐츠를 디스플레이할 수 있는 단일 디스플레이 형태를 피하고 비디오에서 콘텐츠 디스플레이의 유연성을 향상시킨다.
Description
본 출원의 실시예는 컴퓨터 기술분야에 관한 것으로, 구체적으로 컴퓨터 시각 기술분야에 관한 것이고, 특히 비디오 처리 방법 및 장치에 관한 것이다.
네트워크 및 비디오 산업의 발전에 따라 콘텐츠 디스플레이 형태도 지속적으로 풍부히 발전하였다. 최근에는 라이브 방송, 숏폼 콘텐츠 등 비디오 디스플레이 형식이 사람들의 생활속에서 점점 보편화되면서 사회적 영향력도 점점 높아지고 있다. 흔히 볼 수 있는 라이브 방송으로는 쇼핑 라이브 방송, 개인기 라이브 방송 등이 있다.
위에서 언급한 다양한 형식의 비디오 화면 영역에는 텍스트, 사진, 비디오 또는 모션 그래픽스 등 다양한 콘텐츠를 디스플레이할 수 있다. 비디오에서 상기 콘텐츠를 디스플레이하여 홍보 작용을 할 수 있고 비디오의 디스플레이 기능을 풍부하게 할 수 있다.
본 출원은 비디오 처리 방법, 장치, 전자 기기 및 저장 매체를 제공한다.
제1 양태에 따르면, 비디오 처리 방법을 제공하고, 이는 대상 비디오 스트림을 획득한 것에 응답하여, 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내는 단계; 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하는 단계; 및 전경 이미지와 처리된 배경 이미지를 병합하여, 대상 비디오 프레임을 획득하는 단계를 포함한다.
제2 양태에 따르면, 비디오 처리 장치를 제공하고, 이는 대상 비디오 스트림을 획득한 것에 응답하여, 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내도록 구성되는 분리 유닛; 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하도록 구성되는 추가 유닛; 및 전경 이미지와 처리된 배경 이미지를 병합하여, 대상 비디오 프레임을 획득하도록 구성되는 병합 유닛을 포함한다.
제3 양태에 따르면, 전자 기기를 제공하고, 이는 하나 또는 다수의 프로세서; 및 하나 또는 다수의 프로그램을 저장하기 위한 저장 장치를 포함하되, 하나 또는 다수의 프로그램이 하나 또는 다수의 프로세서에 의해 실행될 경우, 하나 또는 다수의 프로세서가 비디오 처리 방법 중 임의의 하나의 실시예의 방법을 구현한다.
제4 양태에 따르면, 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능한 저장 매체를 제공하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 비디오 처리 방법 중 임의의 하나의 실시예의 방법을 구현한다.
제5 양태에 따르면, 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램을 제공하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 비디오 처리 방법 중 임의의 하나의 실시예의 방법을 구현한다.
본 출원의 해결수단에 따라, 배경에 디스플레이할 콘텐츠를 직접 렌더링하여 배경에 디스플레이되는 콘텐츠가 사람과 같은 전경 중의 피사체를 가리지 않도록 할 수 있다. 아울러 본 출원은 비디오 화면의 가장자리에만 콘텐츠를 디스플레이할 수 있는 단일 디스플레이 형태를 피하고 비디오에서 콘텐츠 디스플레이의 유연성을 향상시킨다.
아래 첨부 도면에 도시된 비제한적인 실시예의 상세한 설명에 대한 열독 및 참조를 통해 본 출원의 다른 특징, 목적 및 장점이 보다 명백해질 것이다.
도 1은 본 출원의 일부 실시예가 적용될 수 있는 예시적 시스템 아키텍처이다.
도 2는 본 출원에 따른 비디오 처리 방법의 일 실시예의 흐름도이다.
도 3은 본 출원에 따른 비디오 처리 방법의 일 응용 장면의 개략도이다.
도 4a는 본 출원에 따른 비디오 처리 방법의 다른 일 실시예의 흐름도이다.
도 4b는 본 출원에 따른 비디오 처리 방법의 장면 이미지 및 대상 비디오 프레임의 개략도이다.
도 5는 본 출원에 따른 비디오 처리 장치의 일 실시예의 구조 개략도이다.
도 6은 본 출원의 실시예를 구현하기 위한 비디오 처리 방법의 전자 기기의 블록도이다.
도 1은 본 출원의 일부 실시예가 적용될 수 있는 예시적 시스템 아키텍처이다.
도 2는 본 출원에 따른 비디오 처리 방법의 일 실시예의 흐름도이다.
도 3은 본 출원에 따른 비디오 처리 방법의 일 응용 장면의 개략도이다.
도 4a는 본 출원에 따른 비디오 처리 방법의 다른 일 실시예의 흐름도이다.
도 4b는 본 출원에 따른 비디오 처리 방법의 장면 이미지 및 대상 비디오 프레임의 개략도이다.
도 5는 본 출원에 따른 비디오 처리 장치의 일 실시예의 구조 개략도이다.
도 6은 본 출원의 실시예를 구현하기 위한 비디오 처리 방법의 전자 기기의 블록도이다.
아래 도면과 결부시켜 본 출원의 예시적 실시예를 설명하되, 여기에 이해를 돕기 위한 본 출원의 실시예의 다양한 세부사항들이 포함되어 있으나, 이들은 단지 예시적인 것으로 이해해야 한다. 따라서, 본 기술분야의 통상의 기술자는 본 출원의 범위 및 정신을 벗어나지 않는 전제 하에 여기서 설명된 실시예에 대해 다양한 변형 및 수정을 진행할 수 있음을 이해해야 한다. 마찬가지로, 명확 및 간략을 위해, 아래의 설명에서 공지 기능 및 구조에 대한 설명을 생략한다.
모순되지 않는 한 본 출원의 실시예 및 실시예의 특징은 서로 조합될 수 있음을 유의해야 한다. 아래 첨부 도면을 참조하고 실시예를 참조하여 본 출원을 상세히 설명하기로 한다.
도 1은 본 출원에 따른 비디오 처리 방법 또는 비디오 처리 장치의 실시예가 적용될 수 있는 예시적 시스템 아키텍처(100)이다.
도 1에 도시된 바와 같이, 시스템 아키텍처(100)는 단말 기기(101, 102), 네트워크(104) 및 서버(103)를 포함할 수 있다. 네트워크(104)는 단말 기기(101, 102)와 서버(103) 사이에서 통신 링크로서 매체 역할을 한다. 네트워크(104)는 다양한 연결 유형을 포함할 수 있는 바, 예를 들면 유선, 무선 통신 링크 또는 광섬유 케이블 등이다.
사용자는 단말 기기(101, 102)를 사용하여 네트워크(104)를 통해 서버(103)와 인터랙션함으로써 메시지 등을 수신 또는 송신할 수 있다. 단말 기기(101, 102)에는 다양한 통신 클라이언트 애플리케이션이 설치될 수 있는 바, 예를 들면 비디오 애플리케이션, 라이브 애플리케이션, 인스턴트 메시징 앱, 이메일 클라이언트, SNS 소프트웨어 등이다.
여기서 단말 기기(101, 102)는 하드웨어일 수 있고 소프트웨어일 수도 있다. 단말 기기(101, 102)가 하드웨어인 경우 디스플레이 스크린을 구비한 다양한 전자 기기일 수 있으며, 스마트폰, 태블릿 PC, 이북 리더기, 휴대형 랩톱 및 데스크톱 등을 포함하나 이에 한정되는 것은 아니다. 단말 기기(101, 102)가 소프트웨어인 경우 상기 열거된 전자 기기에 설치될 수 있다. 다수의 소프트웨어 또는 소프트웨어 모듈(예를 들면 분산형 서비스의 다수의 소프트웨어 또는 소프트웨어 모듈을 제공함)로 구현되거나, 하나의 소프트웨어 또는 소프트웨어 모듈로 구현될 수 있으며 여기서는 구체적으로 한정하지 않는다. 실제로, 단말 기기(101, 102) 중 임의의 하나는 라이브 비디오 스트림의 라이브 방송을 출력할 수 있는 단말 기기이며 다른 하나는 라이브를 시청하는 시청자의 단말기이다.
서버(103)는 다양한 서비스를 제공하는 서버일 수 있고, 예를 들면 단말 기기(101, 102)에 지원을 제공하는 라이브 플랫폼 서버이다. 예를 들면, 백그라운드 서버는 단말 기기(101)에서 획득한 대상 비디오 스트림과 같은 데이터에 대해 분석 등 처리를 진행하고 처리 결과(예를 들면 대상 비디오 프레임)를 단말 기기(102)에 송신할 수 있다.
설명해야 할 것은, 본 출원의 실시예가 제공하는 비디오 처리 방법은 서버(103) 또는 단말 기기(101, 102)에 의해 수행될 수 있고, 상응하게, 비디오 처리 장치는 서버(103) 또는 단말 기기(101, 102)에 설치될 수 있다.
이해해야 할 것은, 도 1 중의 단말 기기, 네트워크 및 서버의 개수는 예시적인 것일 뿐이며, 실제 필요에 따라 임의의 개수의 단말 기기, 네트워크 및 서버를 구비할 수 있다.
이어서 도 2를 참조하면, 본 출원에 따른 비디오 처리 방법의 일 실시예의 흐름(200)이다. 상기 비디오 처리 방법은 아래와 같은 단계를 포함한다.
단계 201: 대상 비디오 스트림을 획득한 것에 응답하여, 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해낸다.
본 실시예에서, 비디오 처리 방법을 수행하는 수행 주체(예를 들면 도 1에 도시된 서버 또는 단말 기기)는 본 전자 기기 또는 다른 전자 기기에서 대상 비디오 스트림을 획득하는 것에 응답하고, 획득한 대상 비디오 스트림 중의 비디오 프레임에 대해 전경 및 배경의 분리를 진행하여, 전경 이미지 및 배경 이미지를 분리해낸다. 획득한 대상 비디오 스트림은 사용자(예를 들면 비제이(BJ))의 단말 기기가 본 전자 기기에 송신한 것일 수 있다. 대상 비디오 프레임에서 분리해낸 전경 이미지 및 배경 이미지의 사이즈는 상기 비디오 프레임의 사이즈와 동일하다. 본 실시예 중의 대상 비디오 스트림은 라이브 비디오 스트림 또는 촬영 비디오 스트림일 수 있다.
단계 202: 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득한다.
본 실시예에서, 상기 수행 주체는 분리해낸 배경 이미지 중의 상기 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 추가한 결과를 처리된 배경 이미지로 사용할 수 있다. 상기 수행 주체는 다양한 형태를 사용해 추가 처리를 진행할 수 있는 바, 예를 들면, 디스플레이할 콘텐츠를 배경 이미지 중의 대상 디스플레이 위치에 커버, 교체 또는 탑 레이어에 배치 등 처리를 할 수 있다.
상기 수행 주체는 상기 대상 디스플레이 위치를 획득할 수 있다. 디스플레이할 콘텐츠는 다양한 콘텐츠일 수 있는 바, 예를 들면 이미지, 텍스트 또는 비디오 등이다. 구체적으로, 디스플레이할 콘텐츠는 홍보용 슬로건, 홍봉용 광고 등이다. 대상 디스플레이 위치는 이미지 중의 좌표 위치로 나타낼 수 있는 바, 예를 들면 대상 디스플레이 위치가 있는 영역의 가장자리(테두리)의 좌표, 및/또는 중심점의 좌표이다. 이 밖에, 대상 디스플레이 위치는 대상 디스플레이 위치가 있는 영역의 폭, 높이 등 정보를 더 포함할 수 있다.
실제 응용에서, 상기 수행 주체는 다양한 형태를 사용해 대상 디스플레이 위치를 획득할 수 있다. 예를 들면 상기 수행 주체는 해당 전자 기기 또는 다른 전자 기기로부터 대상 디스플레이 위치를 직접 획득할 수 있다. 상기 대상 디스플레이 위치는 미리 설정할 수 있고 또는 상기 다른 전자 기기에 의해 생성될 수 있다. 이 밖에, 상기 수행 주체는 본 전자 기기에서 실시간으로 대상 디스플레이 위치를 생성할 수 있고, 구체적으로, 랜덤으로 생성할 수 있거나 기설정된 규칙에 따라 생성할 수 있는 바, 예를 들면 이미지의 가장자리 및 어느 정점(왼쪽 상단 정점 또는 오른쪽 상단 정점)은 디스플레이할 콘텐츠의 부분적 가장자리 및 하나의 정점이고, 디스플레이할 콘텐츠의 사이즈에 적합한 대상 디스플레이 위치를 생성할 수 있다.
단계 203: 전경 이미지와 처리된 배경 이미지를 병합하여, 대상 비디오 프레임을 획득한다.
본 실시예에서, 상기 수행 주체는 분리하여 획득한 전경 이미지와 상기 처리된 배경 이미지를 병합하고, 병합된 결과를 대상 비디오 프레임으로 사용할 수 있다. 실제로, 디스플레이할 콘텐츠의 비디오 화면 중의 안정성을 확보하기 위해 상기 수행 주체는 획득한 대상 비디오 스트림 중의 각각의 비디오 프레임에 대해 모두 단계 201, 202및 203을 진행할 수 있다.
본 출원의 상기 실시예에서 제공한 방법은 배경에 디스플레이할 콘텐츠를 직접 렌더링하여 배경에 디스플레이되는 콘텐츠가 사람과 같은 전경 중의 피사체를 가리지 않도록 할 수 있다. 아울러 상기 실시예는 비디오 화면의 가장자리에만 콘텐츠를 디스플레이할 수 있는 단일 디스플레이 형태를 피하고 비디오에서 콘텐츠 디스플레이의 유연성을 향상시킨다.
이어서 도 3을 참조하면, 도 3은 본 실시예에 따른 비디오 처리 방법의 응용 장면의 일 개략도이다. 도 3의 응용 장면에서, 수행 주체(301)는 대상 비디오 스트림(302)의 획득에 응답하여, 대상 비디오 스트림(302) 중의 비디오 프레임에서 전경 이미지(303) 와 배경 이미지(304)를 분리해낸다. 배경 이미지(304) 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지(305)를 획득한다. 상기 대상 디스플레이 위치는 직사각형 영역(x,y,h,w)이고 여기서 x,y는 대상 디스플레이 위치의 중심점이며 h,w는 대상 디스플레이 위치의 높이 및 폭이다. 전경 이미지(303)와 처리된 배경 이미지(305)를 병합하여, 대상 비디오 프레임(306)을 획득한다.
또한 도 4a를 참조하면, 비디오 처리 방법의 또 다른 실시예의 흐름(400)이고, 여기서 대상 비디오 스트림은 라이브 비디오 스트림이다. 상기 흐름(400)은 아래와 같은 단계를 포함한다.
단계 401: 장면 이미지를 수신하고, 장면 이미지에서, 디스플레이할 콘텐츠의 적어도 하나의 선택 가능한 디스플레이 위치를 식별하되, 상기 장면 이미지는 단일 이미지 또는 비디오 스트림이고, 상기 장면 이미지 중의 장면과 상기 대상 비디오 스트림 중의 장면은 동일한 장면이다.
본 실시예에서, 비디오 처리 방법을 수행하는 수행 주체(예를 들면 도 1에 도시된 서버 또는 단말 기기)가 장면 이미지를 수신하면, 상기 장면 이미지에서 디스플레이할 콘텐츠의 하나 또는 다수의 선택 가능한 디스플레이 위치를 식별할 수 있다. 디스플레이할 콘텐츠는 라이브 비디오 스트림의 화면에서 디스플레이될 콘텐츠이다. 장면 이미지는 촬영된 장면 중 실제 장면을 반영할 수 있는 이미지이다. 장면 이미지는 라이브룸과 같은 라이브 장면일 수 있고, 장면 이미지에는 BJ 등 인물이 나오지 않을 수 있다.
실제 응용에서, 상기 수행 주체는 다양한 형태를 사용하여 적어도 하나의 선택 가능한 디스플레이 위치를 식별할 수 있는바, 예를 들면, 상기 수행 주체는 벽면, 바닥면 등과 같은 큰 면적의 색조각(즉 면적이 기설정된 면적 임계값을 초과하는 색조각)을 식별해낼 수 있고, 식별해 낸 큰 면적의 색조각이 있는 위치를 상기 적어도 하나의 선택 가능한 디스플레이 위치로 사용한다.
장면 이미지는 다수의 이미지일 수 있고, 즉 비디오 스트림 중 각 비디오 프레임이다. 이 밖에, 장면 이미지는 또한 단일 이미지일 수도 있다. 장면 이미지가 비디오 스트림일 경우에, 상기 수행 주체는 비디오 스트림 중에서 선택된 하나의 비디오 프레임을 식별하여, 상기 적어도 하나의 선택 가능한 디스플레이 위치를 획득할 수 있다. 또는, 상기 수행 주체는 비디오 스트림 중 다수의 비디오 프레임을 식별할 수 있고, 각 식별 결과에서, 동일한 객체의 식별 결과에 대하여 위치의 평균치를 결정하며, 각 객체에 대해 결정한 위치의 평균치를 상기 적어도 하나의 선택 가능한 디스플레이 위치로 사용한다. 이 밖에, 상기 수행 주체는 비디오 스트림 중 다수의 비디오 프레임을 식별할 수 있고, 모든 식별 결과를 상기 적어도 하나의 선택 가능한 디스플레이 위치로 사용한다.
선택 가능하게, 상기 장면 이미지는 대상 단말 기기의 사용자를 향하지 않을 수 있고, 여기서 대상 단말 기기의 사용자는 라이브 시청자를 의미하는 바, 즉 상기 장면 이미지는 라이브 시청자의 대상 단말 기기에 발송되지 않고, 따라서 라이브 시청자는 상기 장면 이미지를 보지 못하게 된다. 따라서, 상기 대상 비디오 스트림은 상기 대상 단말 기기의 사용자를 향하는 비디오 스트림일 수 있다.
상기 장면 이미지 및 상기 대상 비디오 스트림, 양자는 동일한 라이브룸에 대해 촬영하여 획득한 것인 바, 즉 동일한 장면에 대해 촬영하여 획득한 것이다. 구체적으로, 상기 수행 주체 또는 다른 전자 기기는 양자 중 적어도 부분적 객체(예를 들면 가장자리 위치에 접근한 객체는 일반적으로 사람과 같은 라이브 주체를 포함하지 않음)가 겹치는 상황이 존재하는지 여부를 통해, 양자가 동일한 장면에 대한 것인지 판단할 수 있다. 존재한다고 판단되면, 양자는 동일한 장면에 대한 것으로 결정될 수 있다. 이 밖에, 생성하여 발송한 장면 이미지 및 대상 비디오 스트림의 전자 기기의 기기 ID가 동일한 ID이면, 상기 수행 주체는 양자가 동일한 장면에 대한 것으로 간주할 수도 있다.
단계 402: 적어도 하나의 선택 가능한 디스플레이 위치에 기반하여, 대상 디스플레이 위치를 결정한다.
본 실시예에서, 상기 수행 주체는 상기 적어도 하나의 선택 가능한 디스플레이 위치에 기반하여, 대상 디스플레이 위치를 결정할 수 있다. 상기 대상 디스플레이 위치는 장면 이미지 중의 디스플레이 위치이다. 실제 응용에서, 상기 수행 주체는 다양한 형태를 사용해 상기 적어도 하나의 선택 가능한 디스플레이 위치에 기반하여 대상 디스플레이 위치를 결정할 수 있는 바, 예를 들면 상기 수행 주체는 직접 식별된 하나의 선택 가능한 디스플레이 위치를 대상 디스플레이 위치로 결정할 수 있다. 이 밖에, 상기 수행 주체는 또한 적어도 하나의 선택 가능한 디스플레이 위치에서 첫 번째로 식별된 선택 가능한 디스플레이 위치를 대상 디스플레이 위치로 사용한다.
단계 403: 대상 비디오 스트림을 획득한 것에 응답하여, 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해낸다.
본 실시예에서, 상기 수행 주체는 본 전자 기기 또는 다른 전자 기기에서 대상 비디오 스트림을 획득하는 것에 응답하여, 획득한 대상 비디오 스트림 중의 비디오 프레임에 대해 전경 및 배경의 분리를 진행하여, 전경 이미지 및 배경 이미지를 분리해낸다. 획득한 대상 비디오 스트림은 사용자 기기가 본 전자 기기에 송신한 것일 수 있다. 비디오 프레임에서 분리해낸 전경 이미지 및 배경 이미지의 사이즈는 상기 비디오 프레임의 사이즈와 동일하다.
단계 404: 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득한다.
본 실시예에서, 상기 수행 주체는 분리해낸 배경 이미지 중의 상기 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 추가된 결과를 처리된 배경 이미지로 사용할 수 있다. 상기 수행 주체는 다양한 형태를 사용해 처리를 수행할 수 있는 바, 예를 들면 디스플레이할 콘텐츠를 배경 이미지 중의 대상 디스플레이 위치에 커버, 교체 또는 탑 레이어에 배치 등 처리를 수행할 수 있다.
단계 405: 전경 이미지와 처리된 배경 이미지를 병합하여, 대상 비디오 프레임을 획득한다.
본 실시예에서, 상기 수행 주체는 분리하여 획득한 전경 이미지와 상기 처리된 배경 이미지를 병합하고, 병합된 결과를 대상 비디오 프레임으로 사용할 수 있다.
도 4b에 도시된 바와 같이, 왼쪽 도면은 장면 이미지이고, 상기 이미지에는 벽시계가 있다. 오른쪽 도면은 라이브 비디오 스트림을 수신한 후 생성된 대상 비디오 프레임 중의 대상 디스플레이 위치는 상기 장면 이미지 중 벽시계가 걸려있는 위치이다.
본 실시예는 라이브가 시작하기 전, 라이브룸의 실제 장면 이미지를 획득하여, 라이브룸의 실제 상황에 기반하여 대상 디스플레이 위치를 결정하고, 대상 디스플레이 위치와 라이브룸 실제 장면의 매칭도를 향상시킨다.
본 실시예의 일부 선택 가능한 실시형태에서, 단계 402는, 적어도 하나의 선택 가능한 디스플레이 위치의 조정 정보를 획득하되, 조정 정보는 위치 선택 정보 및/또는 위치 이동 정보를 포함하는 단계; 및 조정 정보에 기반하여, 적어도 하나의 선택 가능한 디스플레이 위치를 조정하고, 조정 결과를 대상 디스플레이 위치로 사용하는 단계를 포함할 수 있다.
이러한 선택 가능한 실시형태에서, 상기 수행 주체는 선택 가능한 디스플레이 위치의 조정 정보를 획득할 수 있다. 여기서 조정 정보는 라이브 플랫폼의 사용자(예를 들면 라이브 플랫폼의 웹마스터)가 설정한 것일 수 있다. 나아가 상기 수행 주체는 조정 정보에 따라, 조정 정보가 지시한 디스플레이 위치를 선택하고, 및/또는 선택 가능한 디스플레이 위치에 대해 위치 이동을 진행하여 이동 후의 디스플레이 위치를 획득함으로써, 상기 적어도 하나의 선택 가능한 디스플레이 위치의 조정을 구현한다. 이 밖에, 조정 결과에 포함된 선택 가능한 디스플레이 위치의 개수가 디스플레이할 콘텐츠의 개수를 초과한다면, 상기 수행 주체는 조정 결과에 대해 더 조정할 수 있는 바, 예를 들면 기설정된 규칙 또는 디스플레이할 콘텐츠에 부합되는 개수의 디스플레이 위치를 랜덤으로 선택하여 조정을 종료하고, 최종 조정 결과를 대상 디스플레이 위치로 사용한다.
상기 조정 정보는 적어도 하나의 선택 가능한 디스플레이 위치에서 선택된 하나 또는 다수의 선택 가능한 디스플레이 위치를 지시할 수 있고, 적어도 하나의 선택 가능한 디스플레이 위치 중 하나 이상의 선택 가능한 디스플레이 위치의 위치 이동 정보를 지시할 수도 있으며, 위치 이동 정보는 이런 하나 이상의 선택 가능한 디스플레이 위치 및 각각 이런 하나 이상의 선택 가능한 디스플레이 위치에 대해 이동한 대상 위치를 포함할 수 있다.
이러한 실시형태는 사용자가 디스플레이 위치에 대한 조정을 구현하므로, 디스플레이 위치를 사용자의 뜻에 더욱 부합하게 할 수 있다.
본 실시예의 일부 선택 가능한 실시형태에서, 단계 401 중의 장면 이미지에서, 디스플레이할 콘텐츠의 적어도 하나의 선택 가능한 디스플레이 위치를 식별하는 단계는, 장면 이미지에서, 기설정된 그래픽의 위치를 식별하여 디스플레이할 콘텐츠의 선택 가능한 디스플레이 위치로 사용하는 단계를 포함할 수 있다.
이러한 선택 가능한 실시형태에서, 상기 수행 주체는 장면 이미지에서 기설정된 그래픽의 위치를 식별할 수 있다. 여기서 기설정된 그래픽은 다양한 그래픽일 수 있는 바, 예를 들면 원형, 직사각형, 사다리꼴 등이다. 여기서 원형은 장면 이미지 중의 벽시계일 수 있고 직사각형은 장면 이미지 중의 액자일 수 있으며 사다리꼴은 장면 이미지 중의 화분일 수 있다. 이러한 실시형태에 있어서 기설정된 그래픽을 실벽하여 식별된 선택 가능한 디스플레이 위치는 식별된 부분적 선택 가능한 디스플레이 위치 또는 모든 선택 가능한 디스플레이 위치일 수 있고, 즉 상기 적어도 하나의 선택 가능한 디스플레이 위치 중의 부분적 선택 가능한 디스플레이 위치 또는 모든 선택 가능한 디스플레이 위치이다.
이러한 실시형태는 특정된 그래픽의 위치를 식별하여 디스플레이 콘텐츠의 위치로 사용하므로, 라이브 사용자가 디스플레이에 대한 관심을 높일 수 있다.
이러한 실시형태의 일부 선택 가능한 응용 장면에서, 단계 404는, 디스플레이할 콘텐츠와 대상 디스플레이 위치의 사이즈가 매칭되지 않는 것으로 결정된 것에 응답하여, 디스플레이할 콘텐츠의 사이즈를 대상 디스플레이 위치의 사이즈로 조정하는 단계; 및 배경 이미지 중의 대상 디스플레이 위치에, 조정된 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하는 단계를 포함할 수 있다.
이러한 응용 장면에서, 상기 수행 주체는 디스플레이할 콘텐츠의 사이즈와 대상 디스플레이 위치의 사이즈가 매칭되지 않는 경우에, 디스플레이할 콘텐츠의 사이즈를 조정하여, 조정된 디스플레이할 콘텐츠의 사이즈가 대상 디스플레이 위치의 사이즈와 동일하도록 할 수 있다.
이러한 응용 장면은 디스플레이할 콘텐츠의 사이즈를 조정하여, 디스플레이할 콘텐츠가 대상 디스플레이 위치와 더욱 매칭되게 함으로써, 더 좋은 디스플레이 효과를 얻을 수 있도록 한다.
본 실시예의 일부 선택 가능한 실시형태에서, 상기 단계 401 중의 장면 이미지를 수신하는 단계는, 사전 식별 기능의 상태가 인에이블인 것에 응답하여, 장면 이미지를 수신하는 단계를 포함할 수 있되, 장면 이미지와 대상 비디오 스트림 사이의 촬영 시간 간격은 지정된 간격 임계값보다 작다.
이러한 선택 가능한 실시형태에서, 상기 수행 주체는 사전 식별 기능이 켜진 상태의 경우에, 장면 이미지를 수신할 수 있다. 사전 식별 기능은 BJ가 라이브하기 전 즉 대상 비디오 스트림을 획득하기 전에, 대상 디스플레이 위치를 미리 식별하는 기능을 의미한다.
상기 수행 주체에는 본 전자 기기의 사전 식별 기능의 온 또는 오프를 지시하는 상태 파라미터가 존재할 수 있는 바, 예를 들면 1 또는 0이다.
이러한 실시형태는 사전 식별 기능의 상태를 통해, 디스플레이 위치의 사전 식별을 진행할지 여부를 제어할 수 있고, 촬영 시간 간격의 제한을 통해, 식별된 디스플레이 위치와 라이브룸 내 상응한 위치와의 매칭도를 확보할 수 있다.
또한 도 5를 참조하면, 상기 각 도면이 도시한 방법의 구현으로서, 본 출원은 비디오 처리 장치의 일 실시예를 제공하고, 상기 장치 실시예는 도 2에 도시된 방법 실시예와 대응되며, 아래 기재된 특징 외에, 상기 장치 실시예는 또한 도 2에 도시된 방법 실시예와 동일하거나 상응한 특징 또는 효과를 포함할 수 있다. 상기 장치는 구체적으로 다양한 전자 기기에 응용될 수 있다.
도 5에 도시된 바와 같이, 본 실시예의 비디오 처리 장치(500)는, 분리 유닛(501), 추가 유닛(502) 및 병합 유닛(503)을 포함한다. 여기서, 분리 유닛(501)은 대상 비디오 스트림을 획득한 것에 응답하여, 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내도록 구성되고; 추가 유닛(502)은 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하도록 구성되며; 병합 유닛(503)은 전경 이미지와 처리된 배경 이미지를 병합하여, 대상 비디오 프레임을 획득하도록 구성된다.
본 실시예에서, 비디오 처리 장치(500)의 분리 유닛(501), 추가 유닛(502) 및 병합 유닛(503)의 구체적 처리 및 그 기술적 효과는 각각 도 2에 대응되는 실시예 중 단계 201, 단계 202 및 단계 203과 관련된 설명을 참조할 수 있으며, 여기서는 더 이상 반복 설명하지 않는다.
본 실시예의 일부 선택 가능한 실시형태에서, 대상 비디오 스트림은 라이브 비디오 스트림이고; 장치는, 대상 비디오 스트림을 획득한 것에 응답하여, 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내기 전에, 장면 이미지를 수신하고, 장면 이미지에서, 디스플레이할 콘텐츠의 적어도 하나의 선택 가능한 디스플레이 위치를 식별하도록 구성되되, 장면 이미지는 단일 이미지 또는 비디오 스트림이고, 장면 이미지와 대상 비디오 스트림은 동일한 장면에 대한 것인 식별 유닛; 및 적어도 하나의 선택 가능한 디스플레이 위치에 기반하여, 대상 디스플레이 위치를 결정하도록 구성되는 결정 유닛을 더 포함한다.
본 실시예의 일부 선택 가능한 실시형태에서, 적어도 하나의 선택 가능한 디스플레이 위치에 기반하여, 대상 디스플레이 위치를 결정하도록 수행하기 위해 결정 유닛은 또한, 적어도 하나의 선택 가능한 디스플레이 위치의 조정 정보를 획득하되, 조정 정보는 위치 선택 정보 및/또는 위치 이동 정보를 포함하고; 조정 정보에 기반하여, 적어도 하나의 선택 가능한 디스플레이 위치를 조정하고, 조정 결과를 대상 디스플레이 위치로 사용하도록 구성된다.
본 실시예의 일부 선택 가능한 실시형태에서, 장면 이미지에서, 디스플레이할 콘텐츠의 적어도 하나의 선택 가능한 디스플레이 위치를 식별하도록 수행하기 위해 결정 유닛은 또한, 장면 이미지에서, 기설정된 그래픽의 위치를 식별하여 디스플레이할 콘텐츠의 선택 가능한 디스플레이 위치로 사용하도록 구성된다.
본 실시예의 일부 선택 가능한 실시형태에서, 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하도록 수행하기 위해 추가 유닛은 또한, 디스플레이할 콘텐츠와 대상 디스플레이 위치의 사이즈가 매칭되지 않는 것으로 결정된 것에 응답하여, 디스플레이할 콘텐츠의 사이즈를 대상 디스플레이 위치의 사이즈로 조정하고; 배경 이미지 중의 대상 디스플레이 위치에, 조정된 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하도록 구성된다.
본 실시예의 일부 선택 가능한 실시형태에서, 장면 이미지를 수신하도록 수행하기 위해 식별 유닛은 또한, 사전 식별 기능의 상태가 인에이블인 것에 응답하여, 장면 이미지를 수신하도록 구성되되, 장면 이미지와 대상 비디오 스트림 사이의 촬영 시간 간격은 지정된 간격 임계값보다 작다.
본 출원의 실시예에 따라, 본 출원은 전자 기기 및 판독 가능한 저장 매체를 더 제공한다.
도 6에 도시된 바와 같이, 본 출원의 실시예에 따른 비디오 처리 방법의 전자 기기의 블록도이다. 전자 기기는 랩톱 컴퓨터, 데스크톱 컴퓨터, 운영 플랫폼, 개인 정보 단말기, 서버, 블레이드 서버, 대형 컴퓨터, 및 다른 적합한 컴퓨터와 같은 다양한 형태의 디지털 컴퓨터를 의미한다. 전자 기기는 개인 디지털 처리, 셀룰러폰, 스마트폰, 웨어러블 기기 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 이동 장치를 의미할 수도 있다. 본 명세서에서 나타낸 부재, 이들의 연결과 관계, 및 이들의 기능은 단지 예시적인 것으로, 본 명세서에서 설명 및/또는 요구된 본 출원의 구현을 한정하지 않는다.
도 6에 도시된 바와 같이, 상기 전자 기기는 하나 또는 다수의 프로세서(601), 메모리(602), 및 고속 인터페이스 및 저속 인터페이스를 포함하는 각 부재를 연결하기 위한 인터페이스를 포함한다. 각 부재는 상이한 버스를 이용하여 서로 연결되고, 공통 메인보드에 장착될 수 있거나 필요에 따라 다른 방식으로 장착될 수 있다. 프로세서는, 메모리에 저장되거나 메모리에서 외부 입력/출력 장치(예를 들어, 인터페이스에 커플링된 표시 기기)에 GUI의 그래픽 정보를 표시하는 명령을 포함하는 전자 기기 내에서 실행되는 명령을 처리할 수 있다. 다른 실시형태에서, 필요에 따라 다수의 프로세서 및/또는 다수의 버스를 다수의 메모리와 함께 사용할 수 있다. 마찬가지로, 다수의 전자 기기를 연결할 수 있고, 각 기기는 일부 필요한 동작(예를 들어, 서버 어레이, 한 그룹의 블레이드 서버, 또는 다중프로세서 시스템)을 제공한다. 도 6에서 하나의 프로세서(601)를 예로 든다.
메모리(602)는 본 출원에서 제공한 비일시적 컴퓨터 판독 가능한 저장 매체이다. 여기서, 적어도 하나의 프로세서가 본 출원에서 제공한 비디오 처리 방법을 수행할 수 있도록 메모리에는 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장된다. 본 출원의 비일시적 컴퓨터 판독 가능한 저장 매체에는 컴퓨터 명령이 저장되고, 상기 컴퓨터 명령은 컴퓨터가 본 출원에서 제공되는 비디오 처리 방법을 수행하도록 한다.
메모리(602)는 비일시적 컴퓨터 판독 가능한 저장 매체로서, 비일시적 소프트웨어 프로그램, 비일시적 컴퓨터 실행 가능한 프로그램, 및 본 출원의 실시예의 비디오 처리 방법에 대응되는 프로그램 명령/모듈(예를 들어, 도 5에 도시된 분리 유닛(501), 추가 유닛(502) 및 병합 유닛(503))과 같은 모듈을 저장할 수 있다. 프로세서(601)는 메모리(602)에 저장된 비일시적 소프트웨어 프로그램, 명령 및 모듈을 실행함으로써, 서버의 다양한 기능 애플리케이션 및 데이터 처리를 수행하는데, 즉 상기 방법 실시예의 비디오 처리 방법을 구현한다.
메모리(602)는 프로그램 저장 영역 및 데이터 저장 영역을 포함할 수 있고, 여기서, 프로그램 저장 영역은 운영 체제, 적어도 하나의 기능에 필요한 응용 프로그램을 저장할 수 있으며; 데이터 저장 영역은 비디오 처리 전자 기기의 사용에 따라 구축된 데이터 등을 저장할 수 있다. 이 밖에, 메모리(602)는 고속 랜덤 액세스 메모리를 포함할 수 있고, 적어도 하나의 자기 디스크 메모리, 플래시 메모리, 또는 다른 비일시적 고체 상태 메모리와 같은 비일시적 메모리를 더 포함할 수 있다. 일부 실시예에서, 메모리(602)는 프로세서(601)에 대해 원격으로 설치된 메모리를 선택적으로 포함할 수 있고, 이러한 원격 메모리는 네트워크를 통해 비디오 처리 전자 기기에 연결될 수 있다. 상기 네트워크의 구현예로 인터넷, 인트라넷, 근거리 통신망, 이동 통신망 및 이들의 조합을 포함하지만 이에 한정되지 않는다.
비디오 처리 방법의 전자 기기는 입력 장치(603) 및 출력 장치(604)를 더 포함할 수 있다. 프로세서(601), 메모리(602), 입력 장치(603) 및 출력 장치(604)는 버스 또는 다른 방식을 통해 연결될 수 있고, 도 6에서 버스를 통해 연결되는 것을 예로 든다.
입력 장치(603)는 입력된 디지털 또는 캐릭터 정보를 수신할 수 있고, 비디오 처리 전자 기기의 사용자 설정 및 기능 제어와 관련된 키 신호 입력을 발생할 수 있으며, 상기 입력 장치는 예를 들어 터치 스크린, 키패드, 마우스, 트랙 패널, 터치 패널, 지시 바, 하나 또는 다수의 마우스 버튼, 트랙 볼, 조이스틱 등 입력 장치이다. 출력 장치(604)는 표시 기기, 보조 조명 장치(예를 들어, LED) 및 촉각 피드백 장치(예를 들어, 진동 모터) 등을 포함할 수 있다. 상기 표시 기기는 액정 표시 장치(LCD), 발광 다이오드(LED) 표시 장치 및 플라스마 표시 장치를 포함할 수 있지만 이에 한정되지 않는다. 일부 실시형태에서, 표시 기기는 터치 스크린일 수 있다.
여기서 설명된 시스템 및 기술의 다양한 실시형태는 디지털 전자 회로 시스템, 집적 회로 시스템, 전용 ASIC(전용 집적 회로), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 실시형태는 하나 또는 다수의 컴퓨터 프로그램에서의 구현을 포함할 수 있고, 상기 하나 또는 다수의 컴퓨터 프로그램은 적어도 하나의 프로그램 가능 프로세서를 포함하는 프로그램 가능 시스템에서 실행 및/또는 해석될 수 있으며, 상기 프로그램 가능 프로세서는 전용 또는 범용 프로그램 가능 프로세서일 수 있고, 저장 시스템, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터 데이터 및 명령을 수신할 수 있으며, 데이터 및 명령을 상기 저장 시스템, 상기 적어도 하나의 입력 장치, 및 상기 적어도 하나의 출력 장치에 전송할 수 있다.
이러한 컴퓨팅 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 또는 코드라고도 함)은 프로그램 가능 프로세서의 기계 명령을 포함하고, 하이레벨 프로세스 및/또는 객체에 대한 프로그래밍 언어, 및/또는 어셈블리/기계 언어를 이용하여 이러한 컴퓨팅 프로그램을 실행할 수 있다. 사용자와의 인터랙션을 제공하기 위하여, 컴퓨터에서 여기서 설명된 시스템 및 기술을 실시할 수 있고, 상기 컴퓨터는 사용자에게 정보를 표시하기 위한 표시 장치(예를 들어, CRT(음극선관) 또는 LCD(액정 표시 장치) 모니터); 및 키보드 및 지향 장치(예를 들어, 마우스 또는 트랙 볼)를 구비하며, 사용자는 상기 키보드 및 상기 지향 장치를 통해 컴퓨터에 입력을 제공한다. 다른 타입의 장치는 또한 사용자와의 인터랙션을 제공할 수 있는데, 예를 들어, 사용자에게 제공된 피드백은 임의의 형태의 감지 피드백(예를 들어, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고; 임의의 형태(소리 입력, 음성 입력, 또는 촉각 입력)로 사용자로부터의 입력을 수신할 수 있다.
여기서 설명된 시스템 및 기술을 백그라운드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 데이터 서버), 또는 미들웨어 부재를 포함하는 컴퓨팅 시스템(예를 들어, 응용 서버), 또는 프론트 엔드 부재를 포함하는 컴퓨팅 시스템(예를 들어, 그래픽 사용자 인터페이스 또는 웹 브라우저를 구비하는 사용자 컴퓨터이고, 사용자는 상기 그래픽 사용자 인터페이스 또는 웹 브라우저를 통해 여기서 설명된 시스템 및 기술의 실시형태와 인터랙션할 수 있음), 또는 이러한 백그라운드 부재, 미들웨어 부재, 또는 프론트 엔드 부재의 임의의 조합을 포함하는 컴퓨팅 시스템에서 실시할 수 있다. 임의의 형태 또는 매체의 디지털 데이터 통신(예를 들어, 통신 네트워크)을 통해 시스템의 부재를 서로 연결시킬 수 있다. 통신 네트워크의 예시로 근거리 통신망(LAN), 광역 통신망(WAN), 인터넷을 포함한다.
컴퓨터 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있고 일반적으로 통신 네트워크를 통해 서로 인터랙션한다. 대응되는 컴퓨터에서 실행되고 또한 서로 클라이언트-서버 관계를 가지는 컴퓨터 프로그램을 통해 클라이언트 및 서버의 관계를 생성한다.
도면의 흐름도 및 블록도는 본 출원의 다양한 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 구현 가능한 아키텍처, 기능 및 동작을 도시한다. 이 점에서, 흐름도 또는 블록도의 각 블록은 지정된 논리적 기능을 구현하기 위한 하나 또는 하나 이상의 실행 가능한 명령을 포함하는 모듈, 프로그램 세그먼트 또는 코드의 일부를 나타낼 수 있다. 일부 대안적인 구현에서, 블록에 표기된 기능은 또한 도면에 도시된 것과 다른 순서로 구현될 수 있음에 유의해야 한다. 예를 들어, 연속적으로 표현된 2개의 블록은 실제로 병렬 실행될 수 있고, 관련 기능에 따라 때때로 역순으로 실행될 수도 있다. 또한, 블록도 및/또는 흐름도의 각 블록, 및 블록도 및/또는 흐름도에서 블록의 조합은 지정된 기능 또는 동작을 수행하는 전용 하드웨어 기반 시스템에서 구현될 수 있거나 전용 하드웨어와 컴퓨터 명령어를 조합하여 구현할 수도 있음에 유의해야 한다.
본 출원의 실시예에서 설명된 유닛들은 소프트웨어 또는 하드웨어에 의해 구현될 수 있다. 설명된 유닛은 프로세서, 예를 들어 분리 유닛, 추가 유닛 및 병합 유닛을 포함하는 프로세서에 설치될 수도 있다. 여기서 이들 유닛의 명칭은 경우에 따라서는 유닛 자체로 한정되지 않으며, 예를 들어, 분리 유닛은 “대상 비디오 스트림을 획득한 것에 응답하여, 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내는 유닛”으로 기술될 수도 있다.
다른 양태로서, 본 출원은 상기 실시예에서 설명된 장치에 포함될 수 있거나 상기 장치에 조립되지 않고 별도로 존재할 수 있는 컴퓨터 판독 가능 매체를 제공한다. 상기 컴퓨터 판독 가능 매체에는 하나 또는 다수의 프로그램이 베어링되어, 상기 하나 또는 다수의 프로그램이 상기 장치에 의해 실행시 상기 장치로 하여금 대상 비디오 스트림을 획득한 것에 응답하여, 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내는 단계; 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하는 단계; 및 전경 이미지와 처리된 배경 이미지를 병합하여, 대상 비디오 프레임을 획득하는 단계를 수행하도록 한다.
상기 설명은 본 출원의 바람직한 실시예 및 적용된 기술의 원리에 대한 설명일 뿐이다. 본 출원이 속하는 기술분야의 통상의 기술자들은 본 출원에 언급된 본 출원의 범위는 상기 기술적 특징의 특정 조합에 따른 기술적 해결수단에 한정되지 않으며, 동시에 본 출원의 사상을 벗어나지 않으면서 상기 기술적 특징 또는 그 등가 특징에 대해 임의로 조합하여 형성된 다른 기술적 해결수단, 예를 들어, 상기 특징과 본 출원에 공개된(단 이에 한정되지 않음) 유사한 기능을 구비하는 기술적 특징을 서로 교체하여 형성된 기술적 해결수단을 포함함을 이해하여야 한다.
Claims (15)
- 비디오 처리 방법으로서,
대상 비디오 스트림을 획득한 것에 응답하여, 상기 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내는 단계;
상기 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하는 단계; 및
상기 전경 이미지와 상기 처리된 배경 이미지를 병합하여, 대상 비디오 프레임을 획득하는 단계를 포함하고,
상기 대상 비디오 스트림은 라이브 비디오 스트림이고;
상기 대상 비디오 스트림을 획득한 것에 응답하여, 상기 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내는 단계 이전에,
장면 이미지를 수신하고, 상기 장면 이미지에서, 디스플레이할 콘텐츠의 적어도 하나의 선택 가능한 디스플레이 위치를 식별하는 단계 - 상기 장면 이미지는 단일 이미지 또는 비디오 스트림이고, 상기 장면 이미지 중의 장면과 상기 대상 비디오 스트림 중의 장면은 동일한 장면에 대해 촬영하여 획득되고, 적어도 부분적 객체가 겹치는 상황이 존재하는지 여부를 통해, 상기 장면 이미지 중의 장면과 상기 대상 비디오 스트림 중의 장면이 동일한 장면에 대한 것인지 판단됨 -; 및
상기 적어도 하나의 선택 가능한 디스플레이 위치에 기반하여, 상기 대상 디스플레이 위치를 결정하는 단계를 더 포함하는 비디오 처리 방법. - 삭제
- 제1항에 있어서,
상기 적어도 하나의 선택 가능한 디스플레이 위치에 기반하여, 상기 대상 디스플레이 위치를 결정하는 단계는,
상기 적어도 하나의 선택 가능한 디스플레이 위치의 조정 정보를 획득하는 단계 - 상기 조정 정보는 위치 선택 정보 및 위치 이동 정보 중 적어도 하나를 포함함 -; 및
상기 조정 정보에 기반하여, 상기 적어도 하나의 선택 가능한 디스플레이 위치를 조정하고, 조정 결과를 상기 대상 디스플레이 위치로 사용하는 단계를 포함하는 비디오 처리 방법. - 제1항에 있어서,
상기 장면 이미지에서, 디스플레이할 콘텐츠의 적어도 하나의 선택 가능한 디스플레이 위치를 식별하는 단계는,
상기 장면 이미지에서, 기설정된 그래픽의 위치를 식별하여 상기 디스플레이할 콘텐츠의 선택 가능한 디스플레이 위치로 사용하는 단계를 포함하는 비디오 처리 방법. - 제4항에 있어서,
상기 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하는 단계는,
상기 디스플레이할 콘텐츠와 상기 대상 디스플레이 위치의 사이즈가 매칭되지 않는 것으로 결정된 것에 응답하여, 상기 디스플레이할 콘텐츠의 사이즈를 상기 대상 디스플레이 위치의 사이즈로 조정하는 단계; 및
상기 배경 이미지 중의 상기 대상 디스플레이 위치에, 조정된 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하는 단계를 포함하는 비디오 처리 방법. - 제1항에 있어서,
상기 장면 이미지를 수신하는 단계는,
사전 식별 기능의 상태가 인에이블인 것에 응답하여, 장면 이미지를 수신하는 단계를 포함하되, 상기 장면 이미지와 상기 대상 비디오 스트림 사이의 촬영 시간 간격은 지정된 간격 임계값보다 작은 비디오 처리 방법. - 비디오 처리 장치로서,
대상 비디오 스트림을 획득한 것에 응답하여, 상기 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내도록 구성되는 분리 유닛;
상기 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하도록 구성되는 추가 유닛; 및
상기 전경 이미지와 상기 처리된 배경 이미지를 병합하여, 대상 비디오 프레임을 획득하도록 구성되는 병합 유닛을 포함하고,
상기 대상 비디오 스트림은 라이브 비디오 스트림이고;
상기 대상 비디오 스트림을 획득한 것에 응답하여, 상기 대상 비디오 스트림 중의 비디오 프레임에서 전경 이미지와 배경 이미지를 분리해내기 전에, 장면 이미지를 수신하고, 상기 장면 이미지에서, 디스플레이할 콘텐츠의 적어도 하나의 선택 가능한 디스플레이 위치를 식별하도록 구성되는 식별 유닛 - 상기 장면 이미지는 단일 이미지 또는 비디오 스트림이고, 상기 장면 이미지 중의 장면과 상기 대상 비디오 스트림 중의 장면은 동일한 장면에 대해 촬영하여 획득되고, 적어도 부분적 객체가 겹치는 상황이 존재하는지 여부를 통해, 상기 장면 이미지 중의 장면과 상기 대상 비디오 스트림 중의 장면이 동일한 장면에 대한 것인지 판단됨 -; 및
상기 적어도 하나의 선택 가능한 디스플레이 위치에 기반하여, 상기 대상 디스플레이 위치를 결정하도록 구성되는 결정 유닛을 더 포함하는 비디오 처리 장치. - 삭제
- 제7항에 있어서,
상기 적어도 하나의 선택 가능한 디스플레이 위치에 기반하여, 상기 대상 디스플레이 위치를 결정하기 위해 상기 결정 유닛은 또한,
상기 적어도 하나의 선택 가능한 디스플레이 위치의 조정 정보를 획득하되, 상기 조정 정보는 위치 선택 정보 및 위치 이동 정보 중 적어도 하나를 포함하고;
상기 조정 정보에 기반하여, 상기 적어도 하나의 선택 가능한 디스플레이 위치를 조정하고, 조정 결과를 상기 대상 디스플레이 위치로 사용하도록 구성되는 비디오 처리 장치. - 제7항에 있어서,
상기 장면 이미지에서, 디스플레이할 콘텐츠의 적어도 하나의 선택 가능한 디스플레이 위치를 식별하기 위해 상기 결정 유닛은 또한,
상기 장면 이미지에서, 기설정된 그래픽의 위치를 식별하여 상기 디스플레이할 콘텐츠의 선택 가능한 디스플레이 위치로 사용하도록 구성되는 비디오 처리 장치. - 제10항에 있어서,
상기 배경 이미지 중의 대상 디스플레이 위치에 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하기 위해 상기 추가 유닛은 또한,
상기 디스플레이할 콘텐츠와 상기 대상 디스플레이 위치의 사이즈가 매칭되지 않는 것으로 결정된 것에 응답하여, 상기 디스플레이할 콘텐츠의 사이즈를 상기 대상 디스플레이 위치의 사이즈로 조정하고;
상기 배경 이미지 중의 상기 대상 디스플레이 위치에, 조정된 디스플레이할 콘텐츠를 추가하여, 처리된 배경 이미지를 획득하도록 구성되는 비디오 처리 장치. - 제7항에 있어서,
상기 장면 이미지를 수신하기 위해 상기 식별 유닛은 또한,
사전 식별 기능의 상태가 인에이블인 것에 응답하여, 장면 이미지를 수신하도록 구성되되, 상기 장면 이미지와 상기 대상 비디오 스트림 사이의 촬영 시간 간격은 지정된 간격 임계값보다 작은 비디오 처리 장치. - 전자 기기로서,
하나 또는 다수의 프로세서; 및
하나 또는 다수의 프로그램을 저장하기 위한 저장 장치를 포함하되,
상기 하나 또는 다수의 프로그램이 상기 하나 또는 다수의 프로세서에 의해 실행될 경우, 상기 하나 또는 다수의 프로세서가 제1항 및 제3항 내지 제6항 중 어느 한 항에 따른 비디오 처리 방법을 구현하도록 하는 전자 기기. - 컴퓨터 프로그램이 저장되어 있는 컴퓨터 판독 가능한 저장 매체로서,
상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1항 및 제3항 내지 제6항 중 어느 한 항에 따른 비디오 처리 방법을 구현하는 컴퓨터 판독 가능한 저장 매체. - 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우 제1항 및 제3항 내지 제6항 중 어느 한 항에 따른 비디오 처리 방법을 구현하는 컴퓨터 프로그램.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010460106.5A CN111586319B (zh) | 2020-05-27 | 2020-05-27 | 视频的处理方法和装置 |
CN202010460106.5 | 2020-05-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210147868A KR20210147868A (ko) | 2021-12-07 |
KR102463304B1 true KR102463304B1 (ko) | 2022-11-04 |
Family
ID=72111116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210031456A KR102463304B1 (ko) | 2020-05-27 | 2021-03-10 | 비디오 처리 방법 및 장치, 전자기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11700417B2 (ko) |
EP (1) | EP3826309A3 (ko) |
JP (1) | JP7270661B2 (ko) |
KR (1) | KR102463304B1 (ko) |
CN (1) | CN111586319B (ko) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112261420B (zh) * | 2020-09-30 | 2022-07-01 | 北京市商汤科技开发有限公司 | 直播视频处理方法及相关装置 |
CN113225517A (zh) * | 2021-04-14 | 2021-08-06 | 海信集团控股股份有限公司 | 多方视频通话时的视频画面确定方法及通信设备 |
CN115484466B (zh) * | 2021-05-31 | 2024-09-24 | 海信集团控股股份有限公司 | 在线演唱视频的显示方法和服务器 |
CN113837978B (zh) * | 2021-09-28 | 2024-04-05 | 北京奇艺世纪科技有限公司 | 图像合成方法、装置、终端设备以及可读存储介质 |
CN114003160B (zh) * | 2021-10-29 | 2024-03-29 | 影石创新科技股份有限公司 | 数据可视化展示方法、装置、计算机设备和存储介质 |
CN114040129B (zh) * | 2021-11-30 | 2023-12-05 | 北京字节跳动网络技术有限公司 | 视频生成方法、装置、设备及存储介质 |
CN114638914B (zh) * | 2022-03-21 | 2024-09-10 | 腾讯科技(深圳)有限公司 | 图像生成方法、装置、计算机设备和存储介质 |
CN114881901A (zh) * | 2022-04-29 | 2022-08-09 | 北京字跳网络技术有限公司 | 视频合成方法、装置、设备、介质及产品 |
CN115484504A (zh) * | 2022-09-14 | 2022-12-16 | 北京奇艺世纪科技有限公司 | 图像显示方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008061157A (ja) * | 2006-09-04 | 2008-03-13 | Nikon Corp | カメラ |
US20200077035A1 (en) * | 2018-08-28 | 2020-03-05 | Baidu Online Network Technology (Beijing) Co., Ltd. | Video recording method and apparatus, electronic device and readable storage medium |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6972774B2 (en) * | 2000-02-21 | 2005-12-06 | Fujitsu Limited | Image processing system for inserting plurality of images into composite area, and medium |
US7231651B2 (en) * | 2001-06-18 | 2007-06-12 | Ta-Ching Pong | System and method for insertion and modification of advertisements |
US8436891B2 (en) * | 2009-09-16 | 2013-05-07 | Disney Enterprises, Inc. | Hyperlinked 3D video inserts for interactive television |
US20110202603A1 (en) * | 2010-02-12 | 2011-08-18 | Nokia Corporation | Method and apparatus for providing object based media mixing |
CN102867418B (zh) * | 2012-09-14 | 2014-10-22 | 浙江宇视科技有限公司 | 一种判断车牌识别准确性的方法和装置 |
US9661239B2 (en) * | 2013-04-17 | 2017-05-23 | Digital Makeup Ltd. | System and method for online processing of video images in real time |
JP6446143B2 (ja) | 2015-09-30 | 2018-12-26 | 楽天株式会社 | 情報処理装置、情報処理方法および情報処理装置用プログラム |
WO2018033156A1 (zh) * | 2016-08-19 | 2018-02-22 | 北京市商汤科技开发有限公司 | 视频图像的处理方法、装置和电子设备 |
US10037605B2 (en) * | 2016-08-23 | 2018-07-31 | Disney Enterprises, Inc. | Video object tagging using synthetic images and segmentation hierarchies |
US10270934B2 (en) | 2016-12-01 | 2019-04-23 | Kyocera Document Solutions Inc. | Image processing apparatus and image forming apparatus |
CN107707860B (zh) * | 2017-10-24 | 2020-04-10 | 南昌黑鲨科技有限公司 | 一种视频数据处理方法、处理装置及计算机可读存储介质 |
US11006154B2 (en) * | 2018-04-04 | 2021-05-11 | DISH Technologies L.L.C. | Selected replacement of digital imagery portions using augmented reality |
CN110536151B (zh) * | 2019-09-11 | 2021-11-19 | 广州方硅信息技术有限公司 | 虚拟礼物特效的合成方法和装置、直播系统 |
-
2020
- 2020-05-27 CN CN202010460106.5A patent/CN111586319B/zh active Active
-
2021
- 2021-03-10 JP JP2021037984A patent/JP7270661B2/ja active Active
- 2021-03-10 KR KR1020210031456A patent/KR102463304B1/ko active IP Right Grant
- 2021-03-15 EP EP21162591.8A patent/EP3826309A3/en active Pending
- 2021-03-17 US US17/204,237 patent/US11700417B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008061157A (ja) * | 2006-09-04 | 2008-03-13 | Nikon Corp | カメラ |
US20200077035A1 (en) * | 2018-08-28 | 2020-03-05 | Baidu Online Network Technology (Beijing) Co., Ltd. | Video recording method and apparatus, electronic device and readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP7270661B2 (ja) | 2023-05-10 |
CN111586319B (zh) | 2024-04-09 |
JP2021190993A (ja) | 2021-12-13 |
CN111586319A (zh) | 2020-08-25 |
KR20210147868A (ko) | 2021-12-07 |
US11700417B2 (en) | 2023-07-11 |
EP3826309A2 (en) | 2021-05-26 |
EP3826309A3 (en) | 2021-08-04 |
US20210203859A1 (en) | 2021-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102463304B1 (ko) | 비디오 처리 방법 및 장치, 전자기기, 컴퓨터 판독 가능한 저장 매체 및 컴퓨터 프로그램 | |
CN110636353B (zh) | 一种显示设备 | |
CN110989878B (zh) | 小程序中的动画展示方法、装置、电子设备及存储介质 | |
CN111654746A (zh) | 视频的插帧方法、装置、电子设备和存储介质 | |
US10497396B2 (en) | Detecting and correcting whiteboard images while enabling the removal of the speaker | |
CN111741274A (zh) | 一种支持画面局部放大和漫游的超高清视频监看方法 | |
WO2020190547A1 (en) | Intelligent video presentation system | |
US11190653B2 (en) | Techniques for capturing an image within the context of a document | |
CN115599206A (zh) | 显示控制方法、装置、头戴显示设备及介质 | |
CN107908380B (zh) | 基于组态的多屏显示方法、装置、终端设备及存储介质 | |
CN109885172B (zh) | 一种基于增强现实ar的对象互动展示方法及系统 | |
CN109859328B (zh) | 一种场景切换方法、装置、设备和介质 | |
CN107680038B (zh) | 一种图片处理方法、介质和相关装置 | |
US11810336B2 (en) | Object display method and apparatus, electronic device, and computer readable storage medium | |
CN112153409B (zh) | 直播方法、装置、直播接收端及存储介质 | |
CN115617165A (zh) | 显示控制方法、装置、头戴显示设备及介质 | |
CN109727315B (zh) | 一对多集群渲染方法、装置、设备及存储介质 | |
US20170169792A1 (en) | Electronic device and method for releasing content to multiple terminals | |
CN109062645B (zh) | 用于终端的处理信息的方法和装置 | |
US20200106727A1 (en) | Information service system and method thereof | |
CN115834754B (zh) | 交互控制方法、装置、头戴显示设备及介质 | |
CN111601042B (zh) | 图像采集方法、图像展示方法及装置 | |
CN113744414B (zh) | 图像处理方法、装置、设备和存储介质 | |
CN112949252B (zh) | 文本显示方法、设备和计算机可读介质 | |
JP2014238449A (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |