KR20200039814A - Modify capture of video data by the video capture device based on video data previously captured by the video capture device - Google Patents
Modify capture of video data by the video capture device based on video data previously captured by the video capture device Download PDFInfo
- Publication number
- KR20200039814A KR20200039814A KR1020207009776A KR20207009776A KR20200039814A KR 20200039814 A KR20200039814 A KR 20200039814A KR 1020207009776 A KR1020207009776 A KR 1020207009776A KR 20207009776 A KR20207009776 A KR 20207009776A KR 20200039814 A KR20200039814 A KR 20200039814A
- Authority
- KR
- South Korea
- Prior art keywords
- video data
- user
- captured
- capture device
- image capture
- Prior art date
Links
- 238000000034 method Methods 0.000 claims description 107
- 238000004590 computer program Methods 0.000 claims description 29
- 230000004044 response Effects 0.000 claims description 22
- 210000003128 head Anatomy 0.000 claims description 6
- 230000001815 facial effect Effects 0.000 claims description 5
- 230000000087 stabilizing effect Effects 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 6
- 230000009471 action Effects 0.000 description 48
- 230000003993 interaction Effects 0.000 description 20
- 230000008569 process Effects 0.000 description 16
- 239000011324 bead Substances 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000001419 dependent effect Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 238000013481 data capture Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
- G06F16/24578—Query processing with adaptation to user needs using ranking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25808—Management of client data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25866—Management of end-user data
- H04N21/25891—Management of end-user data being end-user preferences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2743—Video hosting of uploaded data from client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W24/00—Supervisory, monitoring or testing arrangements
- H04W24/02—Arrangements for optimising operational condition
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Graphics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
다양한 클라이언트 장치들은 비디오 데이터를 캡쳐하도록 구성된 하나 또는 그 이상의 영상 캡쳐 장치들과 디스플레이들을 포함한다. 온라인 시스템의 상이한 사용자들은 클라이언트 장치들이 그것들의 각각의 영상 캡쳐 장치들에 의해 캡쳐된 정보를 교환하는 것을 허가할 수 있다. 부가적으로, 클라이언트 장치는, 비디오 데이터에서 식별된 사용자들에 기초하여, 캡쳐된 비디오 데이터를 수정한다. 예를 들어, 클라이언트 장치는 비디오 데이터에서 식별된 사용자를 더 현저하게 디스플레이하기 위해 영상 캡쳐 장치의 파라미터들을 변경하고, 비디오 데이터에서 식별된 사용자의 움직임 또는 몸짓들에 기초하여, 영상 캡쳐 장치의 파라미터들을 더 변경할 수 있다. 클라이언트 장치는, 캡쳐된 비디오 데이터를 수정하거나, 또는 영상 캡쳐 장치에 의한 비디오 데이터의 후속하는 캡쳐를 수정하기 위해, 복수의 모델들을 캡쳐된 비디오 데이터에 적용할 수 있다. Various client devices include one or more image capture devices and displays configured to capture video data. Different users of the online system can allow client devices to exchange information captured by their respective video capture devices. Additionally, the client device modifies the captured video data based on users identified in the video data. For example, the client device changes parameters of the image capture device to more prominently display the user identified in the video data, and, based on the user's movement or gestures identified in the video data, changes the parameters of the image capture device. You can change more. The client device can apply a plurality of models to the captured video data to modify the captured video data, or to modify the subsequent capture of the video data by the video capture device.
Description
본 개시내용은 일반적으로 비디오 데이터를 캡쳐하는 것에 관한 것이고, 특히 이전에 캡쳐(capture)된 비디오 데이터에 기초하여 비디오 데이터의 캡쳐를 수정하는 것에 관한 것이다. The present disclosure relates generally to capturing video data, and in particular, to modifying the capture of video data based on previously captured video data.
클라이언트 장치(client device)들, 온라인 시스템들, 및 네트워크들은 더욱더 사용자들이 서로 많은 양의 콘텐츠를 교환하는 것을 허용한다. 예를 들어, 온라인 시스템은 사용자와 연관된 클라이언트 장치들을 통해 상이한 사용자들에 의해 캡쳐된 비디오 데이터를 사용자들이 교환하는 것을 허용한다. 특정한 예에서, 온라인 시스템은 실시간으로 또는 거의 실시간으로 그들의 각각의 클라이언트 장치들에 의해 캡쳐된 비디오 데이터를 사용자들이 교환하는 것을 허용하면서, 사용자와 부가적인 사용자 사이에 비디오 메시징을 설정할 수 있다.Client devices, online systems, and networks increasingly allow users to exchange large amounts of content with each other. For example, an online system allows users to exchange video data captured by different users through client devices associated with the user. In a particular example, an online system can establish video messaging between a user and an additional user while allowing users to exchange video data captured by their respective client devices in real time or near real time.
그러나, 비디오 데이터를 제공할 때 종래의 클라이언트 장치들은 사용자가 비디오 비디오 캡쳐를 수동으로 구성하는 것을 요구한다. 예를 들어, 클라이언트 장치의 영상 캡쳐 장치(image capture device)의 초점을 식별하기 위해서, 클라이언트 장치의 영상 캡쳐 장치의 확대를 지정하기 위해서, 또는 클라이언트 장치의 영상 캡쳐 장치의 다른 파라미터들을 지정하기 위해서, 클라이언트 장치의 사용자는 클라이언트 장치에 입력들을 제공한다. 클라이언트 장치의 영상 캡쳐 장치의 파라미터들을 식별하는 초기 입력들을 제공하는 것에 부가하여, 클라이언트 장치의 영상 캡쳐 장치의 시야 내에서 국지 영역(local area)의 상이한 일부분들에 재위치(reposition)시키기 위해서, 종래의 클라이언트 장치들은 사용자가 수동으로 클라이언트 장치의 영상 캡쳐 장치를 재위치시키는 것을 요구한다. 그러므로, 사용자는 다른 클라이언트 장치에 통신전달되는 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 콘텐츠를 수동으로 선택하고 유지한다. 사용자-제공된 입력에의 이러한 의존은 클라이언트 장치에 의해서 캡쳐된 비디오 데이터에 대한 상당한 제어를 사용자에게 제공하지만, 종래의 클라이언트 장치들은, 클라이언트 장치를 통해 비디오 데이터를 캡쳐하는 동안에, 사용자가 손쉽게 다른 비디오 메시징 세션 내의 다른 과제들(tasks)을 수행하는 것을 허용하지 않는데, 종래의 클라이언트 장치들은, 사용자에 의해 제공된 하나 또는 그 이상의 입력들을 수신하지 않고서는, 비디오 데이터 캡쳐를 조건들 변화로서 조정할 수가 없었기 때문이다. However, conventional client devices when providing video data require the user to manually configure video video capture. For example, to identify the focus of the image capture device of the client device, to specify the enlargement of the image capture device of the client device, or to specify other parameters of the image capture device of the client device, The user of the client device provides inputs to the client device. In addition to providing initial inputs that identify the parameters of the client device's image capture device, to reposition to different portions of the local area within the field of view of the client device's image capture device, conventional The client devices of the user require the user to manually reposition the image capture device of the client device. Therefore, the user manually selects and maintains the content captured by the video capture device of the client device communicated to other client devices. This reliance on user-provided input gives the user considerable control over the video data captured by the client device, but conventional client devices allow the user to easily perform other video messaging while capturing video data through the client device. It does not allow to perform other tasks in the session because conventional client devices could not adjust video data capture as a change in conditions without receiving one or more inputs provided by the user. .
온라인 시스템의 사용자들과 연관된 다양한 클라이언트 장치들은 하나 또는 그 이상의 영상 캡쳐 장치들을 포함한다. 클라이언트 장치에 포함된 영상 캡쳐 장치는, 예를 들어, 비디오 호출(video call) 동안 또는 사용자가 비디오 캡쳐 특징(feature)을 턴온할 때 클라이언트 장치 주위의 국지 영역의 비디오 데이터를 캡쳐하도록 구성된다. 부가적으로, 클라이언트 장치는 하나 또는 그 이상의 영상 캡쳐 장치들에 연결된 제어기를 포함한다. 제어기는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용한다. 그리고, 하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 파라미터들 및/또는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정한다. 이것은 제어기가, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠 또는 특성들에 기초하여, 캡쳐된 비디오 데이터를 수정하는 것을 허용한다. Various client devices associated with users of the online system include one or more video capture devices. The video capture device included in the client device is configured to capture video data in a local area around the client device, for example, during a video call or when a user turns on a video capture feature. Additionally, the client device includes a controller coupled to one or more video capture devices. The controller applies one or more models to video data captured by the image capture device. Then, based on the application of one or more models, parameters of the image capture device and / or video data captured by the image capture device are corrected. This allows the controller to modify the captured video data based on the content or characteristics of the video data previously captured by the image capture device.
제어기는 다양한 실시예들에서 비디오 또는 다른 데이터에 캡쳐된 사용자들 또는 다른 사람들을 위한 하나 또는 그 이상의 프라이버시 설정들을 유지하고 시행한다. 예를 들어, 제어기는 그 제어기가 사용자를 식별하는 것을 허용하기 위해서 사용자가 수동으로 프라이버시 설정을 변경할 때까지 제어기가 사용자를 식별하는 것을 방지하는 디폴트(default) 프라이버시 설정을 가질 수 있다. 디폴트 프라이버시 설정은 또한, 그 데이터 내의 임의의 사용자를 식별하기 위해서 영상 캡쳐 장치가 데이터 내에 임의의 사용자를 특별한 것으로 허용할지를 사용자가 선택할 수 있도록, 임의의 캡쳐된 비디오 데이터, 오디오 데이터, 영상 데이터, 또는 다른 데이터로 확장될 수 있다. 부가적으로, 프라이버시 설정은 또한 클라이언트 장치로부터 다른 실체(entity)(예를 들어, 다른 클라이언트 장치 또는 제 3 자 시스템)로 정보의 전송을 통제한다. 다양한 프라이버시 설정들은 사용자가 그 사용자의 식별(identification)을 제어하고 임의의 사용자-관련된 데이터의 저장과 공유를 제어하는 것을 허용한다. 프라이버시 설정들은 또한 각각의 개인에 대해 개별적으로 시행될 수 있다. 예를 들어, 사용자 식별 특징을 옵트인(opt in)하는 사용자는 클라이언트 장치 주위의 국지 영역에서 우연히 캡쳐될 수 있는 다른 사용자들에 대한 디폴트 프라이버시 설정들을 변경할 수 없다. The controller maintains and enforces one or more privacy settings for users or others captured in video or other data in various embodiments. For example, the controller can have a default privacy setting that prevents the controller from identifying the user until the user manually changes the privacy setting to allow the controller to identify the user. The default privacy setting also allows any user to select whether the video capture device allows any user in the data to be special in order to identify any user in the data, any captured video data, audio data, video data, or Can be extended to other data. Additionally, privacy settings also control the transmission of information from a client device to another entity (eg, another client device or a third party system). Various privacy settings allow the user to control the user's identification and control the storage and sharing of any user-related data. Privacy settings can also be enforced individually for each individual. For example, a user who opts in a user identification feature cannot change default privacy settings for other users that may be accidentally captured in a local area around the client device.
다양한 실시예들에서, 클라이언트 장치가 사용자들을 식별하는 것을 인에이블링하는 사용자의 프라이버시 선택들에 기초하여, 제어기는, 캡쳐된 비디오 데이터에 포함된 사용자들을 위치시키기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에 , 하나 또는 그 이상의 기계 학습 모델(machine learned model)들을 적용한다. 캡쳐된 비디오 데이터에 제어기에 의해 적용된 모델들은 얼굴 트래킹(facial tracking)을 (2차원으로 또는 3차원으로) 수행할 수 있고, 2차원 포즈(pose) 트래킹, 3차원 포즈 트래킹, 또는 임의의 다른 적합한 방법으로, 사람의 얼굴의 일부분들 또는 사람의 몸의 일부분들을 식별하도록 수행할 수 있다. 다양한 실시예들에서, 제어기는 위치된 사용자들에게 더 현저히 제시하기 위해서 영상 캡쳐 장치의 파라미터들 또는 캡쳐된 비디오 데이터를 수정한다. 예를 들어, 제어기는, 적어도 한 사람도 포함하지 않는 비디오 데이터 일부분들을 제거하기 위해, 캡쳐된 비디오 데이터를 크로핑(crop)한다. 다른 예로서, 제어기는 사람의 얼굴에 대한 영상 캡쳐 장치의 초점을 수정하고, 영상 캡쳐 장치의 확대(즉, 줌(zoom))를 증가시킨다. 다양한 실시예들에서, 사용자들은 임의의 기록들(비디오, 음성, 등)이 클라이언트 장치에서 및/또는 클라우드 상에서 국지적으로 저장되는 것을 방지하기 위한 옵션들을 가지며, 또한, 저장된다면 임의의 기록들을 삭제하는 옵션들을 가진다.In various embodiments, based on the user's privacy selections that enable the client device to identify users, the controller may include video captured by the video capture device to locate users included in the captured video data. To the data, one or more machine learned models are applied. Models applied by the controller to the captured video data can perform facial tracking (two-dimensionally or three-dimensionally), two-dimensional pose tracking, three-dimensional pose tracking, or any other suitable In a manner, it may be performed to identify portions of the human face or portions of the human body. In various embodiments, the controller modifies the captured video data or parameters of the image capture device to more prominently present to the located users. For example, the controller crops captured video data to remove portions of video data that do not include at least one person. As another example, the controller corrects the focus of the image capture device on the human face, and increases the zoom (ie, zoom) of the image capture device. In various embodiments, users have options to prevent any records (video, voice, etc.) from being stored locally on the client device and / or in the cloud, and also delete any records if stored. Have options.
다양한 실시예들에서, 사용자 식별이 인에이블링될 때, 제어기에 적용된 하나 또는 그 이상의 모델들은 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하기 위해서 하나 또는 그 이상의 규칙들을 적용한다. 예를 들어, 사람의 얼굴이 카메라를 향하고 있다고 제어기가 또한 결정한다면, 비디오 데이터 내에 위치된 사람을 더 현저히 디스플레이하기 위해서, 제어기는 캡쳐된 비디오 데이터를 수정한다. 다른 예에서, 제어기는 비디오 데이터로부터 식별된 사람들과 영상 캡쳐 장치 사이의 거리들을 결정하고, 캡쳐된 비디오 데이터를 수정하여, 영상 캡쳐 장치로부터 최소의 결정된 거리를 가지는 사람에게는 그 비디오 데이터에 의해서 적어도 문턱값 세트의 차원들이 제시되거나(예를 들어, 적어도 문턱값 높이와 문턱값 폭이 제시되거나, 또는 영상 캡쳐 장치의 시야의 적어도 문턱값 퍼센티지를 이용하는 것이 제시됨), 또는 영상 캡쳐 장치로부터의 결정된 거리가 문턱값 거리보다 적은 사람들을 적어도 문턱값 세트의 차원들로 디스플레이한다.In various embodiments, when user identification is enabled, one or more models applied to the controller apply one or more rules to modify video data captured by the client device's image capture device. For example, if the controller also determines that a person's face is facing the camera, the controller modifies the captured video data in order to more prominently display the person located within the video data. In another example, the controller determines distances between people identified from the video data and the image capture device, and modifies the captured video data, so that a person with the minimum determined distance from the image capture device is at least thresholded by the video data. The dimensions of the value set are presented (e.g., at least a threshold height and a threshold width are presented, or using at least a threshold percentage of the field of view of the image capture device), or a determined distance from the image capture device People less than the threshold distance are displayed in at least the dimensions of the threshold set.
제어기는 클라이언트 장치의 다른 구성요소들로부터 데이터를 수신할 수 있고, 클라이언트 장치의 다른 구성 요소들로부터의 데이터와 수신된 비디오 데이터의 특성들에 기초하여, 캡쳐된 비디오 데이터를 수정할 수 있다. 예를 들어, 영상 캡쳐 장치 또는 클라이언트 장치는, 클라이언트 장치 주위의 국지 영역으로부터 오디오 데이터를 캡쳐하도록 구성된 마이크로폰과 같은, 오디오 캡쳐 장치를 포함한다. 제어기는, 사용자-선택된 프라이버시 설정을 조건으로, 캡쳐된 비디오 데이터를 수정할 때, 캡쳐된 비디오 데이터와 함께 캡쳐된 오디오 데이터를 처리(process)할 수 있다. 다양한 실시예들에서, 제어기는 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 내의 위치를 결정하기 위해 하나 또는 그 이상의 모델들을 캡쳐된 오디오 데이터에 적용할 수 있다. 제어기는 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치에 하나 또는 그 이상의 모델들을 적용한다. 캡쳐된 비디오 데이터 내의 위치가 오디오 데이터의 소스를 포함하고 사람을 포함한다고 결정하는 모델들의 적용에 응답하여, 제어기는 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치를 더 현저하게 제시하기 위해서, 캡쳐된 비디오 데이터를 수정하거나, 또는 오디오 데이터의 소스에 초점을 맞추기 위해 영상 캡쳐 장치를 재위치시킨다(예를 들어, 오디오 데이터의 소스에 의해 점유되는 영상 캡쳐 장치의 시야를 증가시키고, 영상 캡쳐 장치의 시야 내의 오디오 데이터의 소스의 위치를 변경하는 것). 그러나, 제어기는, 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치가 사람을 포함하지 않는다고 결정하는 것에 응답하여, 캡쳐된 비디오 데이터를 수정하지 않거나 또는 영상 캡쳐 장치를 재위치시키지 않는다. 다른 예로서, 말을 하고 있다고 결정된 사용자를 캡쳐된 비디오 데이터가 더 현저하게 디스플레이하는 것을 허용하면서, 또는 그와는 다르게 클라이언트 장치의 오디오 캡쳐 장치에 의해 캡쳐된 오디오 데이터를 제공하면서, 캡쳐된 오디오 데이터의 소스라고 제어기가 결정을 하는, 캡쳐된 비디오 데이터 내의 식별된 사람을 더 현저하게 제시하기 위해서, 제어기는 캡쳐된 비디오 데이터를 수정하거나 영상 캡쳐 장치를 재위치시킨다(예를 들어, 오디오 데이터의 소스에 의해 점유된 영상 캡쳐 장치의 시야를 증가시키고, 영상 캡쳐 장치의 시야에서 오디오 데이터의 소스의 위치를 변경함). The controller can receive data from other components of the client device, and can modify the captured video data based on the characteristics of the video data and the data from other components of the client device. For example, an image capture device or client device includes an audio capture device, such as a microphone configured to capture audio data from a local area around the client device. The controller can process the captured audio data along with the captured video data when modifying the captured video data, subject to user-selected privacy settings. In various embodiments, the controller can apply one or more models to the captured audio data to determine a location within the captured video that includes the source of the audio data. The controller applies one or more models to a location in the captured video data that contains a source of audio data. In response to the application of models that determine that the location in the captured video data includes a source of audio data and includes a person, the controller can more prominently present the location in the captured video data that includes the source of audio data, Correct the captured video data, or reposition the video capture device to focus on the source of the audio data (eg, increase the field of view of the video capture device occupied by the source of the audio data, and the video capture device To change the location of the source of audio data within the field of view). However, the controller does not modify the captured video data or reposition the image capture device in response to determining that the location in the captured video data containing the source of the audio data does not include a person. As another example, the captured audio data while allowing the captured video data to display more prominently the user determined to be speaking, or otherwise providing the audio data captured by the audio capture device of the client device. To more prominently identify the identified person in the captured video data, which the controller determines as the source of, the controller modifies the captured video data or repositions the video capture device (e.g., the source of the audio data). Increase the field of view of the video capture device occupied by, and change the position of the source of the audio data in the field of view of the video capture device).
사용자가 비디오 캡쳐와 사용자 식별 특징을 턴온한 다른 상황들에서, 또는 비디오 메시징 세션에서, 국지 영역 주위의 관심 사용자를 따라가기 위해 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하도록, 관심 사용자를 식별하는 정보를 수신한 후에 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 제어기가 적용할 수 있다. 예를 들어, 제어기는, (온라인 시스템으로부터 수신되거나, 또는 온라인 시스템으로부터의 정보에 기초하여 이전에 캡쳐된 비디오 데이터로부터 식별된) 관심 사용자의 얼굴에 매칭되는 사람의 얼굴을 식별하기 위해서, 하나 또는 그 이상의 얼굴 인식 모델들을 캡쳐된 비디오 데이터 내에 위치된 사람들에게 적용하고, 그리고 후속하여 관심 사용자의 얼굴에 매칭되는 얼굴을 가진 사람에게 영상 캡쳐 장치의 초점을 재위치시킨다. 대안적으로, 제어기는 관심 사용자를 포함하는 캡쳐된 비디오 데이터로부터 컬러 맵을 추출하고 영상 캡쳐 장치의 초점을 재위치시켜서, 추출된 컬러 맵은 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터 내에 포함되어 남아있게 된다.Identifying the user of interest to modify one or more parameters of the video capture device to follow the user of interest around the local area, in other situations where the user has turned on the video capture and user identification features, or in a video messaging session. After receiving the information, the controller may apply one or more models to the captured video data. For example, the controller may be configured to identify a person's face that matches the face of a user of interest (identified from video data previously received from the online system, or based on information from the online system), or Further facial recognition models are applied to people located in the captured video data, and subsequently the focus of the image capture device is repositioned to a person with a face matching the face of the user of interest. Alternatively, the controller extracts the color map from the captured video data containing the user of interest and repositions the focus of the image capture device, so that the extracted color map remains contained within the video data captured by the image capture device do.
본 발명에 따른 실시예들은 특히, 방법 및 컴퓨터 프로그램 제품을 겨냥한, 첨부된 청구항들에서 개시되어 있고, 하나의 청구항 카테고리, 예를들어, 방법에서 언급된 임의의 특징은 다른 청구항 카테고리, 예를 들어, 컴퓨터 프로그램 제품, 시스템, 저장매체에서도 청구될 수 있다. 첨부된 청구항들에서 뒤쪽의 종속항들 또는 인용항들은 형식적인 이유들로만 선택된다. 그러나, 임의의 이전 청구항들(특히, 다중 종속항들) 뒤쪽의 의도적인 인용항으로부터 발생되는 어떠한 주제도 또한 청구될 수 있어서, 청구항들과 그 특징들의 어떠한 조합도 개시되며, 첨부된 청구항들에서 선택된 종속항들과 상관없이 청구될 수 있다. 청구될 수 있는 주제는 첨부된 청구항들에서 제시된 특징들의 조합들 뿐 아니라, 청구항들에서의 특징들의 임의의 다른 조합을 포함할 수 있으며, 청구항들에서 언급된 각각의 특징은 청구항들에서의 임의의 다른 특징 또는 다른 특징들의 조합과 결합될 수 있다. 또한, 여기서 묘사되거나 서술된 특징들 및 실시예들중 어느 것도, 별개의 청구항에서 청구될 수 있거나/있고, 여기서 묘사되거나 서술된 임의의 실시예들 또는 특징과도 임의의 조합을 하거나 첨부된 청구항들의 특징들중 어느 것과도 임의의 조합을 하여 청구될 수 있다. Embodiments in accordance with the present invention are disclosed in the appended claims, particularly aimed at methods and computer program products, where one claim category, e.g., any feature referred to in a method, is claimed in another claim category, e.g. , Computer program products, systems, and storage media. Subsequent dependent or cited claims in the appended claims are selected for formal reasons only. However, any subject arising from an intentional recitation claim after any previous claims (in particular, multiple dependent claims) may also be claimed, so any combination of the claims and their features is disclosed and selected from the appended claims It can be claimed regardless of the dependent claims. The subject matter that may be claimed may include combinations of features presented in the appended claims, as well as any other combination of features in the claims, with each feature mentioned in the claims being any other in the claims. It can be combined with a feature or a combination of other features. Also, any of the features and embodiments depicted or described herein may be claimed in a separate claim, and / or any combination or combination of claims or appended claims described or described herein Any combination of any of the features can be claimed.
도 1은 실시예에 따라 온라인 시스템이 오퍼레이팅하는 시스템 환경의 블록도이다.
도 2는 실시예에 따른 클라이언트 장치의 블록도이다.
도 3은 실시예에 따른 온라인 시스템의 블록도이다.
도 4는, 실시예에 따라, 비디오 데이터 내의 상이한 위치들로 관심 사용자의 시선이 향하는 가능성들에 기초하여, 온라인 시스템의 관심 사용자에게 제시하기 위해 비디오 데이터의 세그먼트를 선택하는 방법의 흐름도이다.
도면들은 예시할 목적만을 위해 다양한 실시예들을 묘사한다. 그 분야의 숙련된 자는 여기서 예시된 방법들 및 구조들의 대안의 실시예들이 여기서 서술된 원리들로부터 벗어나지 않고서 이용될 수 있음을 다음의 서술로부터 쉽게 인식할 것이다.1 is a block diagram of a system environment operated by an online system according to an embodiment.
2 is a block diagram of a client device according to an embodiment.
3 is a block diagram of an online system according to an embodiment.
4 is a flow diagram of a method of selecting a segment of video data for presentation to a user of interest in an online system based on the possibilities of the user's gaze directed to different locations in the video data, according to an embodiment.
The drawings depict various embodiments for illustrative purposes only. Those skilled in the art will readily appreciate from the following description that alternative embodiments of the methods and structures illustrated herein can be used without departing from the principles described herein.
시스템 아키텍처System architecture
도 1은 온라인 시스템(140)을 위한 시스템 환경(100)의 블록도이다. 도 1에 의해 도시된 시스템 환경(100)은 하나 또는 그 이상의 클라이언트 장치들(110), 네트워크(120), 하나 또는 그 이상의 제 3 자 시스템들(130), 및 온라인 시스템(140)을 포함한다. 부가적으로, 도 1에 의해 도시된 시스템 환경(100)에서 제어기(117)는 클라이언트 장치(110)에 연결된다. 대안의 구성들에서, 상이한 및/또는 부가적인 구성요소들이 시스템 환경(100)에 포함될 수 있다. 예를 들어, 온라인 시스템(140)은 소셜 네트워킹 시스템, 콘텐츠 공유 네트워크, 또는 사용자들에게 콘텐츠를 제공하는 다른 시스템이다. 1 is a block diagram of a
클라이언트 장치들(110)은, 사용자 입력을 수신할 뿐 아니라 네트워크(120)를 통해 데이터를 전송 및/또는 수신할 수 있는, 하나 또는 그 이상의 컴퓨팅 장치들이다. 일실시예에서, 클라이언트 장치(110)는 데스크탑 컴퓨터 또는 노트북 컴퓨터와 같은 종래의 컴퓨터 시스템이다. 대안적으로, 클라이언트 장치(110)는 퍼스널 디지털 어시스턴트(PDA), 이동 전화기, 스마트폰, 또는 다른 적합한 장치와 같은, 컴퓨터 기능을 가진 장치일 수 있다. 클라이언트 장치(110)는 네트워크(120)를 통해 통신하도록 구성된다. 일실시예에서, 클라이언트 장치(110)는 클라이언트 장치(110)의 사용자가 온라인 시스템(140)과 상호 작용하는 것을 허용하는 애플리케이션을 실행한다. 예를 들어, 클라이언트 장치(110)는 네트워크(120)를 통해 클라이언트 장치(110)과 온라인 시스템(140) 간의 상호작용을 인에이블링하도록 브라우저 애플리케이션을 실행한다. 다른 실시예에서, 클라이언트 장치(110)는 아이오에스(IOS®) 또는 안드로이드(ANDROIDTM)와 같은 클라이언트 장치(110)의 네이티브 오퍼레이팅 시스템 상에서 작동하는 애플리케이션 프로그래밍 인터페이스(API)를 통해 온라인 시스템(140)과 상호작용한다. 도 2와 연결되어 하기에 더 서술되는 바와 같이, 클라이언트 장치(110)는 콘텐츠를 제시하도록 구성된 디스플레이 장치(115)를 포함하고, 클라이언트 장치(110) 주위의 국지 영역의 비디오 데이터 또는 영상을 캡쳐하도록 구성된 하나 또는 그 이상의 영상 캡쳐 장치들을 포함한다.The
클라이언트 장치(110)는, 유선 및/또는 무선 통신 시스템들을 이용하여, 국지 영역(local area) 및/또는 광역(wide area) 네트워크들의 임의의 조합을 포함할 수 있는, 네트워크(120)를 통해 통신하도록 구성된다. 일실시예에서, 네트워크(120)는 표준 통신 기술들 및/또는 프로토콜들을 이용한다. 예를 들어, 네트워크(120)는 이더넷(Ethernet), 802.11, 와이맥스(마이크로파 액세스를 위한 전세계 상호운용성)(WiMAX : worldwide interoperability for microwave access), 3G, 4G, 코드분할 다중접속(CDMA), 디지털 가입자 라인(DSL : digital subscriber line) 등과 같은 기술들을 이용하는 통신 링크들을 포함한다. 네트워크(120)를 통해 통신하는데 사용되는 네트워킹 프로토콜들의 예들은 멀티프로토콜 라벨 스위칭(MPLS : multiprotocol label switching), 전송 제어 프로토콜/인터넷 프로토콜(TCP/IP), 하이퍼텍스트 트랜스포트 프로토콜(HTTP), 심플 메일 트랜스퍼 프로토콜(SMTP), 및 파일 트랜스퍼 프로토콜(FTP)을 포함한다. 네트워크(120)를 통해 교환된 데이터는 하이퍼텍스트 마크업 언어(HTML : hypertext markup language) 또는 확장가능한 마크업 언어(XML : extensible markup language)와 같은 임의의 적합한 포맷(format)을 이용하여 표현될 수 있다. 몇가지 실시예들에서, 네트워크(120)의 통신 링크들의 일부 또는 전부는 임의의 적합한 기술 또는 기술들을 이용하여 암호화될 수 있다. The
하나 또는 그 이상의 제 3 자 시스템들(130)은 온라인 시스템(140)과 통신 하기 위해 네트워크(120)에 연결될 수 있고, 이것은 도 3과 연결되어 하기에 더 서술되어 있다. 일실시예에서, 제 3 자 시스템(130)은 클라이언트 장치(110)에 의한 실행을 위해 애플리케이션들을 서술하는 정보를 통신전달하거나, 또는 클라이언트 장치 상에서 실행하는 애플리케이션에 의한 사용을 위해 클라이언트 장치들(110)에 데이터를 통신전달하는 애플리케이션 제공자이다. 다른 실시예들에서, 제 3 자 시스템(130)은 클라이언트 장치(110)을 통해 제시하기 위한 콘텐츠 또는 다른 정보를 제공한다. 제 3 자 시스템(130)은 또한 제 3 자 시스템(130)에 의해 제공된 애플리케이션에 대한 정보, 광고들, 또는 콘텐츠와 같은 정보를 온라인 시스템(140)에 통신전달할 수 있다. One or more third party systems 130 may be connected to network 120 to communicate with
도 2는 클라이언트 장치(117)의 실시예의 블록도이다. 도 2에 도시된 실시예에서, 클라이언트 장치(110)는 디스플레이 장치(115)와 영상 캡쳐 장치(117) 뿐만 아니라 제어기(210)도 포함한다. 그러나, 다른 실시예들에서, 클라이언트 장치(110)는 도 2에 도시된 것들과는 상이한 또는 부가적인 구성 요소들을 포함한다.2 is a block diagram of an embodiment of a
디스플레이 장치(115)는 클라이언트 장치(110)에 통합될 수 있거나, 클라이언트 장치(110)에 연결될 수 있다. 예를 들어, 클라이언트 장치(110)에 통합된 디스플레이장치(115)는 클라이언트 장치(110)에 포함된 디스플레이 스크린이다. 대안적으로, 디스플레이 장치(115)는 클라이언트 장치(110)에 연결된 모니터 또는 다른 디스플레이이다. 디스플레이장치(115)는 영상 데이터 또는 비디오 데이터를 사용자에게 제시한다. 디스플레이 장치(115)에 의해 제시된 영상 또는 비디오 데이터는 클라이언트 장치(110) 상에서 실행되는 애플리케이션에 의해 결정된다. 상이한 애플리케이션들이 클라이언트 장치(110) 상에 포함될 수 있어서, 상이한 애플리케이션들의 실행은 사용자에 의해 제시된 콘텐츠를 디스플레이 장치(115)에 의해 변경한다. The
영상 캡쳐 장치(117)는 클라이언트 장치(110) 주위의 국지 영역(local area) 및 영상 캡쳐 장치(117)의 시야 내의 국지 영역의 영상들 또는 비디오 데이터를 캡쳐한다. 몇가지 실시예들에서, 영상 캡쳐 장치(117)는 하나 또는 그 이상의 카메라들, 하나 또는 그 이상의 비디오 카메라들, 또는 영상 데이터 또는 비디오 데이터를 캡쳐할 수 있는 임의의 다른 장치를 포함한다. 부가적으로, 영상 캡쳐 장치(117)는 (예를 들어, 신호 대 잡음비를 증가시키는데 사용되는) 하나 또는 그 이상의 필터들을 포함할 수 있다. 다양한 파라미터들(예를 들어, 초점 길이, 포커스(focus), 프레임 레이트, ISO, 센서 온도, 셔터 속도, 개구, 초점(focal point) 등)은 영상 캡쳐 장치(117)에 의해 영상 데이터나 비디오 데이터의 캡쳐를 구성한다. 그러므로, 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하는 것은, 하나 또는 그 이상의 파라미터들의 수정 이후에 영상 캡쳐 장치(117)에 의해 캡쳐된, 비디오 데이터 또는 영상 데이터를 수정하는 것이다. 도 2는 클라이언트 장치(110) 내에 포함된 단일 영상 캡쳐 장치(117)를 도시하지만, 다른 실시예들에서, 클라이언트 장치(110)는 임의의 적합한 수의 영상 캡쳐 장치들(117)을 포함한다. 다양한 실시예들에서, 사용자들은 임의의 기록들(비디오, 음성, 등)이 클라이언트 장치 내에 및/또는 클라우드 상에 국지적으로 저장되는 것을 방지하기 위한 옵션들을 가지고, 저장된다면 임의의 기록들을 또한 삭제하는 옵션들을 가진다.The
제어기(210)는 영상 캡쳐 장치(117)에 연결되고 프로세서에 연결된 저장 장치를 포함한다. 다양한 실시예들에서, 제어기(210)는 또한 디스플레이 장치(115)에 연결된다. 제어기(210)는 프로세서에 의해 실행될 때, 하나 또는 그 이상의 모델들을 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터에 적용하는 지시들을 포함한다. 다양한 실시예들에서, 하나 또는 그 이상의 모델들이 비디오 데이터, 오디오 데이터, 영상 데이터, 또는 영상 캡쳐 장치(117)에 의해 캡쳐된 데이터의 임의의 조합에 적용되거나, 클라이언트 장치(110)에 연결되거나 클라이언트 장치에 포함된 임의의 다른 장치들에 의해 캡쳐된 데이터의 임의의 조합에 적용된다. 도 4와 연결되어 하기에 더 서술되는 바와 같이, 제어기(210)에 의해서 캡쳐된 비디오 데이터에 적용된 모델들은, 캡쳐된 비디오 데이터의 임의의 다른 적합한 콘텐츠, 객체들(objects), 사람, 또는 움직임을 식별하기 위해서, 하나 또는 그 이상의 규칙들을 캡쳐된 비디오 데이터의 특성들에 적용한다. 모델들의 적용에 기초하여, 그리고 하나 또는 그 이상의 프라이버시 설정들을 조건으로, 제어기(210)는 캡쳐된 비디오 데이터를 수정하거나 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하여, 후속하여 캡쳐된 비디오 데이터가 수정된다. 예를 들어, 사용자들은 캡쳐된 비디오 데이터의 특성들에 기초하여, 캡쳐된 비디오 데이터에서 사용자들을 위치시키는 모델들을 제어기(210)가 적용하는 것을 허가할 수 있고, 위치된 사용자들을 더 현저하게 포함하기 위해 캡쳐된 비디오 데이터를 수정하거나 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하여(예를 들어, 초점길이, 확대 또는 줌, 캡쳐된 비디오 데이터의 크로핑(cropping)), 부가적인 비디오 데이터는 위치된 사용자들을 더 현저하게 포함한다. 적어도 문턱값 세트의 차원들(예를 들어, 적어도 문턱값 높이 또는 문턱값 폭)을 위치된 사람에게 제시하거나, 영상 캡쳐 장치(117)의 적어도 문턱값 양의 시야에서 또는 캡쳐된 비디오 데이터의 적어도 문턱값 양의 프레임에서 위치된 사람을 제시하거나, 또는 캡쳐된 비디오 데이터 내의 하나 또는 그 이상의 특정 위치들에서 위치된 사람을 제시함으로써, 부가적인 비디오 데이터는 위치된 사람을 더 현저하게 포함한다. 그러나, 제어기(210)에 의해 적용된 모델들은 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터의 임의의 적합한 구성 요소들을 식별할 수 있고, 따라서, 영상 캡쳐 장치(117)의 파라미터들을 수정할 수 있거나, 또는 캡쳐된 비디오 데이터를 수정할 수 있다. The controller 210 includes a storage device connected to the
다양한 실시예들에서, 클라이언트 장치(110)는, 마이크로폰들과 같은, 하나 또는 그 이상의 오디오 캡쳐 장치들을 포함한다. 예를 들어, 클라이언트 장치(110)는 2차원 또는 3차원으로 빔포밍(beamforming)을 하기 위해 구성된 마이크로폰들의 어레이를 포함한다. 오디오 캡쳐 장치는 클라이언트 장치(110) 주위의 국지 영역 내의 상이한 영역들로부터 오디오 신호들을 캡쳐한다. 다양한 실시예들에서, 하나 또는 그 이상의 오디오 캡쳐 장치들은 제어기(210)에 연결되고, 이것은 클라이언트 장치(110) 주위의 국지 영역의 상이한 지역들을 식별하는 정보를 유지하고, 예를 들어, 제어기(210)는 클라이언트 장치(110) 주위의 360도 국지 영역의 지역들을 식별하면서, 클라이언트 장치(110) 내의 지점으로부터 시작되는 클라이언트 장치(110) 주위의 국지 영역의 24개의 15도 지역들을 식별한다. In various embodiments,
하나 또는 그 이상의 오디오 캡쳐 장치들은 제어기(210)에 연결된다. 사용자 선택된 프라이버시 설정들을 조건으로, 제어기(210)는 기계 학습 모델들 또는 다른 사운드 인식 모델들과 같은 하나 또는 그 이상의 모델들을, 클라이언트 장치(110) 주위의 국지 영역의 지역들로부터 캡쳐된, 오디오 데이터에 적용한다. 제어기(210)는 사용자들 또는 객체들(예를 들어, 텔레비전, 모바일 장치)을 식별하는 정보를 포함하고, 하나 또는 그 이상의 모델들을 클라이언트 장치(110) 주위의 국지 영역의 지역으로부터 캡쳐된 오디오로의 적용은, 캡쳐된 오디오 데이터가 주변 잡음 또는 제어기(210)에 의해 식별된 객체 또는 사용자로부터의 오디오 데이터를 포함하는지 여부를 결정한다. 몇가지 실시예들에서, 제어기(210)에 의해 적용된 하나 또는 그 이상의 모델들은 제어기(210)에 의해 식별된 특정 사용자 또는 특정 객체를 결정하는데, 그 제어기로부터 하나 또는 그 이상의 오디오 캡쳐 장치들이 지역 내의 오디오를 캡쳐한 것이다. 다른 실시예들에서, 클라이언트 장치(110)는 하나 또는 그 이상의 오디오 장치들에 의해 캡쳐된 오디오 데이터를 온라인 시스템(140)에 통신전달하고, 이것은 하나 또는 그 이상의 모델들을 적용하여, 오디오 데이터가, 식별된 객체 또는 사용자로부터 캡쳐된, 오디오 데이터를 포함하는지 여부를 결정하거나, 또는 오디오 데이터가 캡쳐된, 특정한 식별된 사용자 또는 객체를 결정한다. 온라인 시스템(140)은 클라이언트 장치(110)에게, 캡쳐된 오디오 데이터가, 식별된 객체 또는 사용자로부터 캡쳐된 오디오 데이터를 포함하는지 여부의 표시를 제공하거나, 또는 오디오 데이터가 캡쳐된, 특정한 식별된 객체 또는 사용자를 지정하는 정보를 제공하는지 여부의 표시를 제공한다. 제어기(210) 또는 온라인 시스템(140)은 다른 지역들로부터 캡쳐된 오디오가 클라이언트 장치(110)의 국지 영역을 둘러싸는지 여부를 유사하게 결정한다. 상이한 지역들에서의 오디오 데이터가 캡쳐된, 식별된 객체들 또는 사용자들의 결정들에 기초하여, 제어기(210)는 하나 또는 그 이상의 지역들로부터 캡쳐된 오디오의 품질을 개선하기 위해 하나 또는 그 이상의 오디오 장치들의 위치선정을 수정한다. 예를 들어, 제어기(210)는 국지 영역 주위의 지역으로부터 캡쳐된 오디오의 품질을 개선하기 위해 하나 또는 그 이상의 오디오 캡쳐 장치들을 재위치시키고, 여기서 오디오 데이터는 특정 사용자로부터 또는 지정된 객체로부터 캡쳐된 것이다. 유사하게, 제어기(210)는, 오디오 데이터가 상이한 사용자들 또는 객체들로부터 캡쳐된, 클라이언트 장치(110) 주위의 국지 영역의 지역들에 기초하여 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 재위치시킬 수 있거나 그렇지 않으면 수정할 수 있다. 하나 또는 그 이상의 오디오 장치들 및 영상 캡쳐 장치(117)는 다양한 실시예들에서 클라이언트 장치(110) 주위의 국지 영역의 상이한 부분들로 향해질 수 있다. 예를 들어, 영상 캡쳐 장치(117)는 사용자에 의해 서술된 객체로 향해지고, 한편, 제어기(210)는 하나 또는 그 이상의 오디오 캡쳐 장치들을 특정 사용자에 의해 오디오 데이터가 캡쳐된 클라이언트 장치(110) 주위의 국지 영역의 지역으로 향하게 한다.One or more audio capture devices are connected to the controller 210. Subject to user-selected privacy settings, the controller 210 may record one or more models, such as machine learning models or other sound recognition models, from areas of the local area around the
클라이언트 장치(110)의 제어기(210)와 온라인 시스템(140)은 협력하여 및/또는 개별적으로, 다양한 실시예들에서, 캡쳐된 비디오 데이터 또는 다른 데이터로부터 식별된, 사람들 또는 사용자들을 위한 하나 또는 그 이상의 프라이버시 설정들을 유지하고 시행한다. 사용자 또는 사람의 프라이버시 설정은 사용자 또는 사람과 연관된 특정 정보가 공유될 수 있는 방법을 결정하고, 사용자 또는 사람을 식별하는 정보와 연관되어 저장될 수 있다. 몇가지 실시예들에서, 제어기(210)는 온라인 시스템(140)에 의해 유지되는, 하나 또는 그 이상의 사용자들을 위한 프라이버시 설정들을 검색한다. 일실시예에서, 프라이버시 설정은 사용자와 연관된 특정 정보를 지정하고, 지정된 정보가 공유될 수 있는 다른 실체들을 식별한다. 정보가 공유될 수 있는 실체들의 예들은, 다른 사용자들, 애플리케이션들, 제 3 자 시스템들(130), 또는 잠재적으로 정보에 액세스할 수 있는 임의의 실체들을 포함할 수 있다. 사용자에 의해 공유될 수 있는 정보의 예들은 사용자 또는 사람을 포함하는 영상 데이터, 사용자 또는 사람으로부터 캡쳐된 오디오를 포함하는 오디오 데이터, 사용자 또는 사람을 포함하는 비디오 데이터, 및 유사한 것을 포함한다.. The controller 210 of the
예를 들어, 특정 실시예들에서, 프라이버시 설정들은 제 1 사용자가, (예를 들어, 옵트아웃(opt out)함으로써, 옵트인(opt in)하지 않음으로써), 온라인 시스템(140)이 임의의 목적으로 사용자와 연관된 정보 또는 특별한 객체들을 수신, 수집, 로그(log), 또는 저장할 수 있는지 여부를, 지정하는 것을 허용할 수 있다. 특정 실시예들에서, 프라이버시 설정들은 제 1 사용자가, 특정 비디오 캡쳐 장치들, 오디오 캡쳐 장치들, 애플리케이션들, 또는 프로세스들이 사용자와 연관된 특정 객체들 또는 정보에 액세스하거나, 저장하거나 또는 사용할 수 있는지 여부를, 지정하는 것을 허용할 수 있다. 프라이버시 설정들은 제 1 사용자가, 특정 장치들, 애플리케이션들, 또는 프로세스들에 의해 액세스되거나, 저장되거나, 또는 이용되는 정보 또는 객체들을 가지는 것을, 옵트인하거나 옵트아웃하는 것을 허용할 수 있다. 온라인 시스템(140)은, 임의의 다른 목적들을 위해 온라인 시스템(140)이 그 정보에의 액세스(access)를 가지지 않고서도, 특정 기능 또는 서비스를 제 1 사용자에게 제공하기 위해 그러한 정보에 액세스할 수 있다. 그러한 객체들 또는 정보를 액세스하거나, 저장하거나, 또는 사용하기 전에, 온라인 시스템은 사용자가 프라이버시 설정들을 제공하게 유도할 수 있는데, 그 프라이버시 설정들은, 만약에 있다면, 어느 애플리케이션들 또는 프로세스들이 임의의 그러한 동작(action)을 허용하기 전에 객체 또는 정보를 액세스하거나, 저장하거나, 또는 사용할 수 있는지를 지정한다. 한정에 의한 것은 아닌 예로서, 제 1 사용자는, 온라인 소셜네트워크(예를 들어, 메시징 앱)에 관련된 애플리케이션을 통해서, 메시지를 제 2 사용자에게 전송할 수 있고, 그러한 메시지들이 온라인 시스템(140)에 의해 저장되어서는 안되는 프라이버시 설정들을 지정할 수 있다.For example, in certain embodiments, privacy settings can be determined by the first user (eg, by opt out, by not opt in),
온라인 시스템(140) 및/또는 제어기(210)에 의해 유지되고 시행되는 프라이버시 설정들은 디폴트(default) 설정들과 연관될 수 있다. 다양한 실시예들에서, 제어기(210)가 사용자를 식별하는 것을 허가하는 사용자로부터의 프라이버시 설정을 제어기(210)가 얻지 않는다면, 제어기(210)는 캡쳐된 비디오 데이터, 오디오 데이터, 영상 데이터, 또는 다른 데이터 내에서 사용자를 식별하지 않는다. 예를 들어, 사용자와 연관된 프라이버시 설정은 제어기(210)가 사용자를 식별하는 것을 방지하는 디폴트 세팅을 가져서, 사용자를 식별하는 것을 제어기(210)가 허용하도록 사용자가 프라이버시 설정을 수동으로 변경하지 않는다면, 제어기(210)는 사용자를 식별하지 않는다. 부가적으로, 대안의 프라이버시 설정은, 다양한 실시예들에서, 다른 실체(예를 들어, 다른 클라이언트 장치(110), 온라인 시스템(140), 제 3 자 시스템(130))에 사용자를 식별시키는 클라이언트 장치(110)로부터의 정보의 전송을 규제한다. 대안의 프라이버시 설정은, 다양한 실시예들에서, 전송을 허가하기 위해 대안의 프라이버시 설정을 수동으로 사용자가 수정하지 않는다면 제어기(210)는 사용자를 다른 실체들에게 식별시키는 정보를 전송하는 것을 방지하면서, 사용자를 식별하는 정보의 전송을 방지하는 디폴트 설정을 가진다. 제어기(210)는, 각각의 사용자의 식별 및 전송의 사용자-특정 제어(user-specific control)를 허용하면서, 캡쳐된 비디오 데이터 또는 다른 데이터로부터 식별된 각각의 사용자에 대한 하나 또는 그 이상의 프라이버시 설정들을 유지한다. 몇가지 실시예들에서, 제어기(210)는, 캡쳐된 데이터로부터 제어기(210)가 사람을 처음으로 식별하고, 제공된 프라이버시 설정들을 사람을 식별하는 정보와 연관하여 저장할 때, 사람이 프라이버시 설정들을 제공하게 유도한다.Privacy settings maintained and enforced by the
다양한 실시예들에서, 사용자-인증(user-authentication) 또는 경험-개인화 목적들을 위해 사용자의 개인 정보 또는 바이오측정 정보를 입력들로서 이용할 수 있는 기능들을 가지는, 온라인 시스템(140) 및/또는 다양한 구성요소들 클라이언트 장치(110)에 대해서, 사용자는 장치 및 온라인 시스템을 이용하여 그들의 경험을 향상시키도록 이들 기능들을 이용하는 것을 택할(opt) 수 있다. 한정에 의한 것은 아닌 예로서, 사용자는 자발적으로 개인 정보 또는 바이오측정 정보를 온라인 시스템(140)에 제공할 수 있다. 사용자의 프라이버시 설정들은 그러한 정보가, 인증과 같은, 특정 프로세스들만을 위해 이용될 수 있다는 것을 지정할 수 있고, 그러한 정보가 임의의 제 3 자와 공유될 수 없거나, 또는 온라인 시스템(140)과 연관된 다른 프로세스들 또는 애플리케이션들을 위해 이용될 수 없다는 것을 더 지정할 수 있다. 한정에 의한 것은 아닌 다른 예로서, 온라인 시스템(140)은, 사용자가 음성 프린트 녹음(voice print recording)들을 온라인 소셜네트워크에 제공하는, 기능을 제공할 수 있다. 한정에 의한 것은 아닌 예로서, 사용자가 온라인 소셜 네트워크의 이러한 기능을 활용하기를 원한다면, 사용자는 온라인 소셜 네트워크 상에 상태 업데이트를 제공하기 위해 그 자신의 또는 그녀 자신의 목소리의 음성 녹음을 제공할 수 있다. 사용자에 의해 어떤 단어들이 말해졌는지를 결정하기 위해, 음성-입력의 녹음은 사용자의 음성 프린트와 비교될 수 있다. 사용자의 프라이버시 설정은 그러한 음성녹음이 음성-입력 목적들(예를 들어, 온라인 소셜 네트워크의 음성-오퍼레이팅 특징들을 이용하기 위해 음성 인식을 개선하는 것, 사용자를 인증하는 것. 음성메시지들을 송신하는 것)로만 사용될 수 있음을 지정할 수 있고, 그러한 음성 녹음이 임의의 제 3 자 시스템과 공유될 수 없거나, 온라인 시스템(140)과 연관된 다른 프로세스들 또는 애플리케이션들에 의해 이용될 수 없음을 더 지정할 수 있다. 한정에 의한 것은 아닌 다른 예로서, 온라인 시스템(140)은 사용자가 기준 영상(예를 들어, 얼굴 프로필)을 온라인 소셜 네트워크에 제공하는 기능을 제공할 수 있다. 온라인 소셜 네트워크는, (예를 들어, 사용자를 인증하기 위해, 사진들에서 사용자를 태그(tag)하기 위해), 이후에 수신된 영상 입력에 대해 기준 영상을 비교할 수 있다. 사용자의 프라이버시 설정은 그러한 음성 녹음이 한정된 목적(예를 들어, 인증, 사진들에서 사용자를 태그하는 것)으로만 이용될 수 있음을 지정할 수 있고, 그러한 음성 녹음이 임의의 제 3 자 시스템과 공유될 수 없거나, 시스템(140)과 연관된 다른 프로세스들 또는 애플리케이션들에 의해 이용될 수 없음을 더 지정할 수 있다. 바이오측정 데이터 및/또는 다른 개인 데이터 캡쳐에 관한 그러한 제한들 중 어느 것도 또한 클라이언트 장치(110)에 적용될 수 있다.In various embodiments, the
사용자들은 하나 또는 그 이상의 방식으로 데이터의 캡쳐, 사용자들의 식별, 및/또는 사용자 관련된 데이터의 공유와 애플리케이션간 사용을 인증할 수 있다. 예를 들어, 사용자들이 클라이언트 장치들(110)의 특징들을 이용하기 전에, 및/또는 온라인 시스템(140)에서 동작들을 취하기 전에, 사용자는 다양한 프라이버시 설정들을 사전-선택할 수 있다. 다른 경우에, 언제 사용자들이 첫째로 동작을 실행하는지, 언제 사용자들이 클라이언트 장치들(110) 및/또는 온라인 시스템(140)의 특징을 이용하는지, 및/또는 언제 사용자들이 동작을 실행하지 않았거나 소정 기간의 시간 동안 특징을 이용하지 않았는지와 같은, 선택 대화가 유도될 수가 있다. 또 다른 예에서, 사용자들이 통지(notification)들을 통해 추가 선택들을 하는 것을 허용하기 위해, 클라이언트 장치들(110) 및 온라인 시스템(140)은 또한, 사용자 데이터를 요구하는 어떤 특징들이 사용자들의 선택들로 인해서 언제 오퍼레이팅하기 시작하거나 디스에이블되는지의 통지들을 사용자들에게 제공할 수 있다. 사용자들이 허가를 하는 다른 적합한 방법들이 또한 가능하다 Users can authenticate data capture, identification of users, and / or sharing of user-related data and use between applications in one or more ways. For example, the user can pre-select various privacy settings before the users use the features of the
몇가지 실시예들에서, 제어기(210)는, 사용자에 대한 프라이버시 설정들을 조건으로, 온라인 시스템(140)에 의해 유지된 정보를 얻거나, 또는 캡쳐된 비디오 데이터로부터 식별된 사용자에 대해서 하나 또는 그 이상의 제 3 자 시스템들(130)로부터 정보를 얻는다. 비디오 데이터, 오디오 데이터, 영상 데이터, 또는 획득된 정보 및 클라이언트 장치(110)에 의해 이전에 캡쳐된 사용자를 포함하는 다른 데이터에 기초하여, 제어기(210)는 클라이언트 장치(110)를 통해 사용자에게 제시하기 위한 콘텐츠를 생성할 수 있다. 예를 들어, 제어기(210)는, 클라이언트 장치(110)에 의해 캡쳐된 영상 데이터 또는 비디오 데이터로부터 제어기(210)에 의해 식별된, 하나 또는 그 이상의 객체들과 연관된, 온라인 시스템(140)으로부터의 콘텐츠 아이템들을 오버레이(overlay)한다. 대안적으로, 온라인 시스템(140)은, 사용자를 위해 온라인 시스템(140)에 의해 유지되는 (또는 온라인 시스템(140)에 의해 하나 또는 그 이상의 제 3 자 시스템들(130)로부터 얻어진) 정보와 클라이언트 장치(110)로부터 수신된 사용자를 포함하는 다른 데이터, 비디오 데이터, 영상 데이터, 또는 오디오 데이터에 기초하여 사용자에 대한 콘텐츠를 생성하고, 생성된 콘텐츠를 사용자에게 제시하기 위해 클라이언트 장치(110)에 제공한다. In some embodiments, the controller 210 obtains information maintained by the
도 3은 온라인 시스템(140)의 아키텍처의 블록도이다. 도 3에 도시된 온라인 시스템(140)은 사용자 프로필 스토어(305), 콘텐츠 스토어(310), 동작 로거(action logger)(315), 동작 로그(action log)(320), 엣지 스토어(325), 콘텐츠 선택 모듈(330), 및 웹 서버(335)를 포함한다. 다른 실시예들에서, 온라인 시스템(140)은, 다양한 애플리케이션들을 위해, 부가적이거나, 더 적거나, 또는 상이한 구성요소들을 포함할 수 있다. 네트워크 인터페이스들, 보안 기능들, 부하 분산장치들(load balancers), 대체작동 서버들(failover severs), 관리 및 네트워크 작동 콘솔들, 및 유사한 것들과 같은 종래의 구성 요소들은, 시스템 아키텍처의 상세 부분들을 모호하지 않게 하려고, 도시되지 않는다.3 is a block diagram of the architecture of the
온라인 시스템(140)의 각각의 사용자는 사용자 프로필과 연관되는데, 이것은 사용자 프로필 스토어(305)에 저장된다. 사용자 프로필은 사용자에 의해 분명하게 공유되었던 사용자에 대한 서술형의 정보를 포함하고, 온라인 시스템(140)에 의해 추론된 프로필 정보도 포함할 수 있다. 일실시예에서, 사용자 프로필은 복수의 데이터 필드들을 포함하고, 그 각각은 대응되는 온라인 시스템 사용자의 하나 또는 그 이상의 속성들을 서술한다. 사용자 프로필에 저장된 정보의 예들은, 업무경험, 교육이력, 성별, 취미들 또는 선호도들, 주소 등과 같은, 전기체의, 인구통계학적, 및 다른 종류의 서술형의 정보를 포함한다. 사용자 프로필은, 예를 들어, 영상들 또는 비디오인, 사용자에게 제공되는 다른 정보도 저장할 수 있다. 어떤 실시예들에서, 사용자들의 영상들은, 영상에서 디스플레이된 온라인 시스템 사용자들을 식별하는 정보로 태그(tag)될 수 있고, 사용자의 사용자 프로필에 저장된, 사용자가 태그된 영상들을 식별하는, 정보로 태그될 수 있다. 사용자 프로필 스토어(305) 내의 사용자 프로필은 또한, 콘텐츠 스토어(310) 내의 콘텐츠 아이템들 상에서 대응되는 사용자에 의해 수행되고 동작 로그(320)에 저장된, 동작들에 대한 기준들을 유지할 수 있다. Each user of
부가적으로, 사용자를 위해 유지되는 사용자 프로필은, 온라인 시스템(140)이 클라이언트 장치(110)에 의해 제공된 특성들로부터 사용자를 후속하여 식별하는 것을 허용하면서, 사용자와 연관된 하나 또는 그 이상의 클라이언트 장치들(110)의 특성들을 포함한다. 예를 들어, 온라인 시스템(140)과 연관되어 있고 클라이언트 장치(110) 상에서 실행되는 애플리케이션은, 사용자 식별자(user identifier)와 연관하여 온라인 시스템(140)에 클라이언트 장치(110)를 독특하게 식별하는 다른 정보 또는 장치 식별자(device identifier)를 제공한다. 온라인 시스템(140)이 클라이언트 장치(110)를 독특하게 식별하는 다른 정보 또는 장치 식별자를 수신한다면, 사용자의 후속하는 식별을 허용하면서, 온라인 시스템(110)은 사용자를 위해 유지되는 사용자 프로필에서 클라이언트 장지(110)를 독특하게 식별하는 다른 정보 또는 장치 식별자를 저장한다. 사용자와 연관된 클라이언트 장치들(110)의 다른 특성들은 사용자에 의해 유지되는 사용자 프로필에 대안적으로 또는 부가적으로 포함될 수 있다. 예를 들어, 사용자 프로필은, 네트워크(120), 온라인 시스템(140)이 정보를 수신한 클라이언트 장치(110) 상에서 실행되는 애플리케이션의 식별자, 온라인 시스템(140)이 정보를 수신한 클라이언트 장치(110)의 종류(예를 들어, 제조자, 클라이언트 장치(110)의 모델의 식별자 등), 및 온라인 시스템(140)이 정보를 수신한 클라이언트 장치(110) 상에서 실행되는 오퍼레이팅 시스템에 액세스하기 위해서 클라이언트 장치(110)에 의해 사용된 네트워크 어드레스를 포함한다. 그러나, 온라인 시스템(140)이 사용자 프로필에 대응되는 사용자에 의해 이용된 클라이언트 장치들(110)에 대한 정보를 유지하는 것을 허용하면서, 온라인 시스템(140)은 사용자 프로필에서 클라이언트 장치(110)의 임의의 적합한 특성들을 저장할 수 있다.Additionally, the user profile maintained for the user allows one or more client devices associated with the user, while allowing the
사용자 프로필 스토어(305) 내의 사용자 프로필들은, 개인들이 온라인 시스템(140)을 통해 서로 상호작용하는 것을 허용하며, 종종 개인들과 연관되지만, 사용자 프로필들은 또한 사업체들 또는 단체들과 같은 실체들을 위해서도 저장될 수 있다. 이것은 실체(entity)가, 다른 온라인 시스템 사용자들과 콘텐츠를 교환하고 접속하기 위해서, 온라인 시스템(140) 상에 존재를 설정하는 것을 허용하는 것이다. 실체는, 실체의 사용자 프로필과 연관된 브랜드(brand) 페이지를 이용하여, 그 자신에 대한, 그 제품들에 대한 정보를 게시(post)할 수 있거나, 또는 다른 정보를 온라인 시스템(140)의 사용자들에게 제공할 수 있다. 온라인 시스템(140)의 다른 사용자들은 브랜드 페이지에 게시된 정보를 수신하기 위해, 또는 브랜드 페이지로부터 정보를 수신하기 위해 브랜드 페이지에 접속할 수 있다. 브랜드 페이지와 연관된 사용자 프로필은, 실체에 대한 정보제공 데이터 또는 배경을 사용자들에게 제공하면서, 실체 그 자체에 대한 정보를 포함할 수 있다.User profiles in the
콘텐츠 스토어(310)는 다양한 종류의 콘텐츠를 각각 나타내는 객체들을 저장한다. 객체에 의해 표현되는 콘텐츠의 예들은 페이지 포스트(page post), 상태 업데이트, 사진, 비디오, 링크, 공유된 콘텐츠 아이템, 게임 애플리케이션 달성, 국지적 비즈니스에서의 체크인 이벤트, 브랜드 페이지, 또는 임의의 다른 종류의 콘텐츠를 포함한다. 온라인 시스템 사용자들은, 상태 업데이트들, 온라인 시스템(140)내의 다른 객체들과 연관되도록 사용자들의 의해 태그된 사진들, 이벤트들, 그룹들 또는 애플리케이션들과 같은, 콘텐츠 스토어(310)에 의해 저장된 객체들을 생성할 수 있다. 몇가지 실시예들에서, 객체들은 제 3 자 애플리케이션들로부터 수신되거나 또는 온라인 시스템(140)으로부터 이격된 제 3 자 애플리케이션들로부터 수신된다. 일실시예에서, 콘텐츠 스토어(310) 내의 객체들(objects)은 "콘텐츠 아이템들" 또는 콘텐츠의 단편들을 나타낸다. 그러므로, 온라인 시스템 사용자들은 다양한 통신 채널들을 통해 다양한 종류의 매체의 콘텐츠 아이템들과 텍스트를 온라인 시스템(140)에 게시(post)함으로써 서로 통신하도록 권장된다. 이것은 사용자들의 서로에 대한 상호작용의 양을 증가시키고 온라인 시스템(140) 내에서 사용자들이 상호작용하는 빈도를 증가시킨다. The content store 310 stores objects each representing various types of content. Examples of content represented by objects are page posts, status updates, photos, videos, links, shared content items, game application achievements, check-in events in local businesses, branded pages, or any other kind of content. Contains content. Online system users can view objects stored by the content store 310, such as status updates, pictures, events, groups or applications tagged by users to be associated with other objects in the
콘텐츠 스토어(310)에 포함된 하나 또는 그 이상의 콘텐츠 아이템들은, 사용자에게 제시하기 위한 콘텐츠인 크리에이티브(creative)와, 비드량(bid amount)을 포함한다. 크리에이티브는 텍스트, 영상, 오디오, 비디오, 또는 사용자에게 제시된 임의의 다른 적합한 데이터이다. 다양한 실시예들에서, 크리에이티브는 또한 콘텐츠의 페이지를 지정한다. 예를 들어, 콘텐츠 아이템은, 콘텐츠 아이템이 액세스될 때 사용자가 향하는, 콘텐츠의 랜딩(landing) 페이지의 네트워크 어드레스를 지정하는 링크를 포함한다. 사용자가 콘텐츠를 제시받는 경우에, 콘텐츠 아이템 내의 콘텐츠가 사용자에게 제시된다면, 제시되었을 때 콘텐츠 아이템 내의 콘텐츠가 사용자 상호작용을 수신한다면, 또는 콘텐츠 아이템 내의 콘텐츠가 사용자에게 제시되었을 때 임의의 적합한 조건이 만족된다면, 비드량(bid amount)은 사용자에 의해 콘텐츠 아이템에 포함되고, 광고주에 의해 온라인 시스템(140)에게 제공되는 금전 보상과 같은 기대값을 결정하는데 이용된다. 예를 들어, 콘텐츠 아이템에 포함된 비드량은 콘텐츠 아이템 내의 콘텐츠가 디스플레이된다면, 온라인 시스템(140)에 콘텐츠 아이템을 제공한 사용자로부터 온라인 시스템(140)이 받는 금전의 양을 지정한다. 몇가지 실시예들에서, 콘텐츠 아이템으로부터 콘텐츠를 제시하는 것의, 온라인 시스템(140)에 대한 기대값은 비드량을 콘텐츠 아이템의 콘텐츠가 사용자에 의해 액세스되는 확률과 곱해서 결정될 수 있다.The one or more content items included in the content store 310 include creative, which is content for presentation to the user, and a bid amount. Creative is text, video, audio, video, or any other suitable data presented to the user. In various embodiments, the creative also specifies a page of content. For example, the content item includes a link that specifies the network address of the landing page of the content to which the user is directed when the content item is accessed. In the case where the user is presented with content, if the content in the content item is presented to the user, the content in the content item when presented receives user interaction, or any suitable condition when the content in the content item is presented to the user If satisfied, the bid amount is included in the content item by the user and is used to determine an expected value, such as a monetary reward, provided to the
다양한 콘텐츠 아이템들은, 콘텐츠 아이템에 포함된 콘텐츠가 제시될 때, 콘텐츠 아이템과 연관된 사용자가 다른 사용자들이 수행하기를 바라는 상호작용을 식별하는 객체를 포함할 수 있다. 객체들의 예는, 콘텐츠 아이템과 연관된 애플리케이션을 설치하는 것, 콘텐츠 아이템에 대한 선호도를 표시하는 것, 콘텐츠 아이템을 다른 사용자들과 공유하는 것, 콘텐츠 아이템과 연관된 객체와 상호작용하는 것, 또는 임의의 다른 적합한 상호작용을 수행하는 것을 포함한다. 콘텐츠 아이템으로부터의 콘텐츠가 온라인 시스템 사용자들에게 제시되므로, 온라인 시스템(140)은, 콘텐츠 아이템을 제시받거나 또는 콘텐츠 아이템과 연관된 객체들을 제시받은, 사용자들 간의 상호작용들을 로그(log)한다. 부가적으로, 온라인 시스템 사용자들이 콘텐츠 아이템에 포함된 객체를 만족시키는 콘텐츠 아이템과의 상호작용들을 수행하므로, 온라인 시스템(140)은 콘텐츠 아이템과 연관된 사용자로부터 보상을 받는다. Various content items may include objects that identify interactions that a user associated with the content item wants other users to perform when the content included in the content item is presented. Examples of objects include installing an application associated with the content item, indicating preferences for the content item, sharing the content item with other users, interacting with the object associated with the content item, or any And performing other suitable interactions. Since the content from the content item is presented to online system users, the
부가적으로, 콘텐츠 아이템은, 콘텐츠 아이템을 온라인 시스템(140)에 제공한 사용자에 의해 지정된, 하나 또는 그 이상의 목표 기준(targeting criteria)을 포함할 수 있다. 콘텐츠 아이템에 포함된 목표 기준들은 콘텐츠 아이템을 제시받기에 적합한 사용자들의 하나 또는 그 이상의 특성들을 지정하는 것을 요청한다. 예를 들어, 목표 기준들은 목표 기준들 중 적어도 하나를 만족하는 동작들, 사용자 프로필 정보, 또는 엣지들(edges)을 가지는 사용자들을 식별하는데 사용된다. 그러므로, 목표 기준들은, 상이한 사용자들로의 콘텐츠의 후속 분배를 간단화하면서, 사용자가 특정한 특성들을 가진 사용자들을 식별하는 것을 허용한다.Additionally, the content item can include one or more targeting criteria, as specified by the user who provided the content item to the
일실시예에서, 목표 기준들은 온라인 시스템(140)의 객체 또는 다른 사용자와 사용자 간의 접속들의 종류들 또는 동작들들을 지정할 수 있다. 목표 기준들은 또한, 제 3 자 시스템(130) 상에서와 같은, 온라인 시스템(140) 외부에서 수행되는 객체들과 사용자 간의 상호작용들을 지정할 수 있다. 예를 들어, 목표 기준들은, 다른 사용자에게 메시지를 보낸 것, 애플리케이션을 사용한 것, 그룹에 가입한 것, 그룹을 떠난 것, 이벤트에 참여한 것, 이벤트 서술을 생성한 것, 온라인 시장을 이용하여 제품 또는 서비스를 구입하거나 리뷰한 것, 제 3 자 시스템(130)으로부터 정보를 요청한 것, 애플리케이션을 설치한 것, 또는 임의의 다른 적합한 동작을 수행한 것과 같은, 특별한 동작을 취한 사용자들을 식별한다. 목표 기준들에서 동작들을 포함하는 것은 사용자들이 콘텐츠 아이템을 제시받기에 적격인 사용자들을 더 순화(refine)하는 것을 허용한다. 다른 예로서, 목표 기준들은, 다른 사용자 또는 객체에의 접속을 가지거나 또는 다른 사용자 또는 객체에의 특별한 종류의 접속을 가진, 사용자들을 식별한다. In one embodiment, target criteria may specify types or actions of an object of the
프라이버시 설정들에 기초하여, 사용자 동작들에 대한 정보로 동작 로그(action log)(320)를 덧붙이면서, 동작 로거(action logger)(315)는 온라인 시스템(140) 내부의 및/또는 외부의 사용자 동작들에 대한 통신들을 수신하도록 허가받을 수 있다. 동작들(actions)의 예들은 다른 사용자에의 접속을 부가하고, 메시지를 다른 사용자에게 송신하고, 영상을 업로드하고, 다른 사용자로부터의 메시지를 판독하고, 다른 사용자와 연관된 콘텐츠를 시청하고, 및 다른 사용자에 의해 게시된 이벤트에 참석하는 것을 포함한다. 부가하면, 다수의 동작들이 객체와 하나 또는 그 이상의 특별한 사용자들을 포함할 수 있어서, 이들 동작들은 특별한 사용자들과도 연관되고, 동작 로그(320)에 저장된다. Based on privacy settings, the
프라이버시 설정들에 기초하여, 동작 로그(320)는 온라인 시스템(140)에 정보를 통신전달하는 제 3자 시스템들(130) 상의 동작들 뿐만 아니라, 온라인 시스템(140) 상의 사용자 동작들을 트래킹하도록 온라인 시스템(140)에 의해 이용되는 것이 사용자들에 의해 허가될 수 있다. 사용자들은 온라인 시스템(140) 상의 다양한 객체들과 상호작용할 수 있고, 이들 상호작용들을 서술하는 정보는 동작 로그(320)에 저장된다. 객체들과의 상호작용들의 예들은, 포스트들 상에서 코멘트 하는 것, 링크들을 공유하는 것, 클라이언트 장치(110)를 통해 물리적인 장소들에 체크인 하는 것, 콘텐츠 아이템들에 액세스하는 것, 및 임의의 다른 적합한 상호작용들을 포함한다. 동작 로그(320)에 포함된 온라인 시스템(140) 상의 객체들과의 상호작용들의 부가적인 예들은, 사진 앨범 상에서 코멘트 하는 것, 사용자와 통신하는 것, 객체와의 접속을 설정하는 것, 이벤트에 참여하는 것, 그룹에 참여하는 것, 이벤트를 생성하는 것, 애플리케이션을 허가하는 것, 애플리케이션을 이용하는 것, 객체에 대한 선호도를 표현하는 것(객체를 "좋아함"), 거래에 관여하는 것을 포함한다. 부가적으로, 동작 로그(320)는 온라인 시스템(140) 상에서 작동하는 다른 애플리케이션들 뿐만 아니라 온라인 시스템(140) 상의 광고들과 사용자의 상호작용들을 기록할 수 있다. 몇가지 실시예들에서, 동작 로그(320)로부터의 데이터는, 사용자의 사용자 프로필에 포함된 관심사들을 증강(augment)시키고 사용자 선호도들의 더 완전한 이해를 허용하면서, 사용자의 선호도 또는 관심사들을 추론하는데 이용된다.Based on privacy settings, the action log 320 is online to track user actions on the
동작 로그(320)는 또한, 사용자들의 프라이버시 설정들을 조건으로, 온라인 시스템(140)으로 통신전달되고 외부의 웹사이트와 같은 제 3 자 시스템(130) 상에서 취해진 사용자 동작들을 저장할 수 있다. 예를 들어, 전자상거래(e-commerce) 웹사이트는, 온라인 시스템(140)의 사용자를 식별하기 위해 전자상거래 웹사이트를 인에이블링하는 소셜 플러그인(social plug-in)을 통해, 온라인 시스템(140)의 사용자를 인식할 수 있다. 온라인 시스템(140)의 사용자들은 독특하게 식별가능하므로, 앞서의 예와 같은 전자상거래 웹사이트들은 온라인 시스템(140) 외부의 사용자 동작들에 대한 정보를 사용자와의 연관을 위해 온라인 시스템(140)에 통신전달할 수 있다. 그러므로, 동작 로그(320)는, 웹 페이지 시청 이력들, 관여된 광고들, 이루어진 구매들, 및 쇼핑 및 구입으로부터의 다른 패턴들을 포함하는, 제 3 자 시스템(130) 상에서 사용자들이 수행하는 동작들에 관한 정보를 기록할 수 있다. 부가적으로, 클라이언트 장치(110) 상에서 실행하고 제 3 자 시스템(130)과 연관된 애플리케이션을 통해 사용자가 수행하는 동작들은, 동작 로그(action log)(320)에서의 사용자와의 연관 및 기록을 위해, 애플리케이션에 의해서 동작 로거(action logger) (315)에 통신전달될 수 있다. The
일실시예에서, 엣지 스토어(edge store)(325)는 사용자들과 온라인 시스템(140) 상의 다른 객체들 간의 접속들을 서술하는 정보를 엣지들로서 저장한다. 어떤 엣지들은, 사용자들이 다른 사용자들과의 관계들을 지정하는 것을 허용하면서, 사용자들에 의해서 정의될 수 있다. 예를 들어, 사용자들은 친구들, 동료들, 파트너들 등과 같은 사용자들의 실생활 관계들과 병행하는 다른 사용자들과의 엣지들을 생성할 수 있다. 다른 엣지들은 사용자들이, 온라인 시스템(140) 상의 페이지에서 관심을 표현하는 것, 온라인 시스템(140)의 다른 사용자들과 링크를 공유하는 것, 온라인 시스템(140)의 다른 사용자들에 의해 이루어진 포스트들 상에서 코멘트하는 것과 같이, 온라인 시스템(140)에서 객체들과 상호작용할 때 생성된다.In one embodiment, the
엣지는 사용자들 간의 상호작용들, 사용자들과 객체들 간의 상호작용들, 또는 객체들 간의 상호작용들의 특성들을 각각 나타내는 다양한 특징들을 포함할 수 있다. 예를 들어, 엣지에 포함된 특징들은 두 명의 사용자들 간의 상호작용의 비율(rate), 얼마나 최근에 두 명의 사용자들이 서로 상호작용했는지, 객체에 대해 한 명의 사용자에 의해 검색된 정보의 양 또는 비율, 또는 객체에 대해 사용자에 의해 게시된 코멘트들의 수와 종류들을 서술한다. 특징들은 또한 특별한 객체 또는 사용자를 서술하는 정보를 나타낼 수 있다. 예를 들어, 특징은, 사용자가 특별한 토픽에서 갖고 있는 관심사의 레벨, 온라인 시스템(140)으로 사용자가 로그하는 비율, 또는 사용자에 대한 인구통계적 정보를 서술하는 정보를 나타낼 수 있다. 각각의 특징은 소스 객체 또는 사용자, 목표 객체 또는 사용자, 및 특징 값(feature value)과 연관될 수 있다. 특징은 소스 객체(source object) 또는 사용자, 목표 객체 또는 사용자, 또는 소스 객체 또는 사용자와 목표 객체 또는 사용자 간의 상호작용들을 서술하는 값들에 기초한 표현으로서 지정될 수 있고, 따라서 엣지는 하나 또는 그 이상의 특징 표현들로서 나타낼 수 있다. The edge may include various features, each representing characteristics of interactions between users, interactions between users and objects, or interactions between objects. For example, the features included in the edge are the rate of interaction between two users, how recently two users interacted with each other, the amount or percentage of information retrieved by one user for an object, Or describe the number and types of comments posted by the user for the object. Features can also represent information describing a particular object or user. For example, a feature may indicate the level of interest a user has on a particular topic, the rate at which the user logs into the
엣지 스토어(325)는 또한, 객체들, 관심사들, 및 다른 사용자들에 대한 친밀도 점수(affinity score)들과 같은, 엣지들에 대한 정보를 저장한다. 친밀도 점수들, 또는 "친밀도들"은, 사용자에 의해 수행된 동작들에 기초하여, 온라인 시스템(140)에서의 다른 사용자에서 또는 객체에서 사용자의 관심사에 근접하기 위해, 온라인 시스템(140)에 의해 시간에 대해 계산될 수 있다. 사용자의 친밀도는, 사용자에 의해 수행된 동작들에 기초하여, 온라인 시스템(140)에서의 다른 사용자에서, 객체에서, 또는 토픽에서, 사용자의 관심사에 근접하기 위해, 온라인 시스템(140)에 의해서 시간에 대해 계산될 수 있다. 친밀도의 계산은, 2010년 12월 23일에 출원된 출원번호 12/978,265인 미국특허, 2012년 11월 30일에 출원된 출원번호 13/690,254인 미국특허, 2012년 11월 30일에 출원된 출원번호 13/689,969인 미국특허, 및 2012년 11월 30일에 출원된 출원번호 13/690,088인 미국특허에서 더 서술되어 있고, 그 각각은 여기서 전체로서 인용문헌으로 통합되어 있다. 사용자와 특정 객체 간의 복수의 상호작용들은 일실시예에서 엣지 스토어(325)에 단일 엣지로서 저장될 수 있다. 대안적으로, 사용자와 특정 객체간의 각각의 상호작용은 별개의 엣지로서 저장된다. 몇가지 실시예들에서, 사용자들 간의 접속들은 사용자 프로필 스토어(305)에서 저장될수 있고, 또는 사용자 프로필 스토어(305)는 사용자들 간의 접속들을 결정하기 위해서 엣지 스토어(325)에 액세스할 수 있다. The
콘텐츠 선택 모듈(330)은 사용자에게 제시될 클라이언트 장치(110)로의 통신을 위한 하나 또는 그 이상의 콘텐츠 아이템들을 선택한다. 사용자에게 제시하기에 적격인 콘텐츠 아이템들은 콘텐츠 스토어(310)로부터 검색되거나 또는 콘텐츠 선택 모듈(330)에 의해 다른 소스로부터 검색되는데, 시청중인 사용자에게 제시하기 위해 하나 또는 그 이상의 콘텐츠 아이템들을 선택한다. 사용자에게 제시하기에 적격인 콘텐츠 아이템은 사용자의 특성들에 의해 만족되는 적어도 문턱값 수의 목표 기준들과 연관된 콘텐츠 아이템이거나, 목표기준과 연관되지 않은 콘텐츠 아이템이다. 다양한 실시예들에서, 콘텐츠 선택 모듈(330)은, 하나 또는 그 이상의 선택 프로세스들에서, 사용자에게 제시하기 적격인 콘텐츠 아이템들을 포함하고, 이것은 사용자에게 제시하기 위한 콘텐츠 아이템들의 세트를 식별한다. 예를 들어, 콘텐츠 선택 모듈(330)은, 온라인 시스템(140)에 의해 사용자와 연관된 속성들에 기초하거나 또는 상이한 콘텐츠 아이템들에 대한 사용자의 친밀도에 기초하여, 다양한 콘텐츠 아이템들의 사용자에 대한 관련성(relevance)의 정도들(measures)을 결정한다. 사용자에 대한 콘텐츠 아이템의 관련성의 정도는 사용자에 대한 콘텐츠 아이템의 품질의 정도에 기초하고, 이것은 콘텐츠 아이템에 포함된 크리에이티브에 기초할 뿐만 아니라 콘텐츠 아이템 내의 링크에 의해 식별되는 랜딩 페이지의 콘텐츠에도 기초할 수 있다. 관련성의 정도들에 기초하여, 콘텐츠 선택 모듈(330)은 사용자에게 제시하기 위한 콘텐츠 아이템들을 선택한다. 부가적인 예로서, 콘텐츠 선택 모듈(330)은 사용자에게 제시하기 위해 가장 높은 정도의 관련성을 가지거나, 또는 적어도 문턱값 정도의 관련성을 가지는 콘텐츠 아이템들을 선택한다. 대안적으로, 콘텐츠 선택 모듈(330)은 그들의 관련성의 연관된 정도들에 기초하여 콘텐츠 아이템들을 순위정하고, 사용자에게 제시하기 위해 순위정하기에서 가장 높은 위치를 가지거나 또는 순위정하기에서 적어도 문턱값 위치를 가지는 그런 콘텐츠 아이템들을 선택한다. The
사용자에게 제시하기에 적격인 콘텐츠 아이템들은 비드량들과 연관된 콘텐츠 아이템들을 포함할 수 있다. 콘텐츠 선택 모듈(330)은, 사용자에게 제시하기 위해 콘텐츠를 선택할 때, 콘텐츠 아이템들과 연관된 비드량들을 사용한다. 다양한 실시예들에서, 콘텐츠 선택 모듈(330)은 그들의 비드량들에 기초하여 다양한 콘텐츠 아이템들과 연관된 기대값을 결정하고, 최대 기대값과 연관되거나 또는 적어도 문턱값의 기대값과 연관된 콘텐츠 아이템들을 제시하기 위해 선택한다. 콘텐츠 아이템과 연관된 기대값은 콘텐츠 아이템들을 제시하기 위한 온라인 시스템(140)에의 보상의 기대량을 나타낸다. 예를 들어, 콘텐츠 아이템과 연관된 기대값은 콘텐츠 아이템의 비드량과 사용자가 콘텐츠 아이템과 상호작용할 가능성의 곱셈이다. 콘텐츠 선택 모듈(330)은 그들의 연관된 비드량들에 기초하여 콘텐츠 아이템들을 순위정할 수 있고, 사용자에게 제시하기 위해 순위정하기에서 적어도 문턱값 위치를 가지는 콘텐츠 아이템들을 선택할 수 있다. 몇가지 실시예들에서, 콘텐츠 선택 모듈(330)은, 콘텐츠 아이템들과 연관된 관련성의 정도들과 비드량들에 기초하여 단일화된 순위정하기에서, 비드량들과 연관되지 않은 콘텐츠 아이템들과 비드량들과 연관된 콘텐츠 아이템들 모두를 순위정한다. 단일화된 순위정하기에 기초하여, 콘텐츠 선택 모델(330)은 사용자에게 제시하기 위한 콘텐츠를 선택한다. 단일화된 순위정하기를 통해서, 비드량들과 연관된 콘텐츠 아이템들과 비드량들과 연관되지 않은 콘텐츠 아이템들을 선택하는 것은 2012년 7월 10일에 출원된 출원번호 13/545,266인 미국특허에 더 서술되어 있고, 이 특허는 여기서 그 전체로서 참조문헌으로 통합되어 있다. Content items eligible for presentation to the user may include content items associated with the bead amounts. The
예를 들어, 콘텐츠 선택 모듈(330)은 온라인 시스템(140)의 사용자에게 콘텐츠의 피드(feed)를 제시하기 위한 요청(request)을 수신한다. 피드는 사용자에게 접속된 다른 온라인 시스템 사용자들과 연관된 동작들을 서술하는 스토리들(stories)과 같은 콘텐츠 아이템들을 포함한다. 콘텐츠 선택 모듈(330)은 사용자에 대한 정보를 검색하기 위해 하나 또는 그 이상의 사용자 프로필 스토어(305), 콘텐츠 스토어(310), 동작 로그(320), 및 엣지 스토어(325)에 액세스한다. 예를 들어, 사용자에게 접속된 다른 사용자들과 연관된 동작들을 서술하는 정보 또는 사용자에게 접속된 사용자들과 연관된 다른 데이터가 검색된다. 콘텐츠 스토어(310)로부터의 콘텐츠 아이템들은 사용자에게 제시하기에 적격인 후보 콘텐츠 아이템들을 식별하기 위해서 콘텐츠 선택 모델(330)에 의해 검색되고 분석된다. 예를 들어, 사용자에게 접속되지 않은 사용자들과 연관된 콘텐츠 아이템들 또는 사용자가 문턱값 친밀도보다 적은 친밀도를 가지는 사용자들과 연관된 스토리들은 후보 콘텐츠 아이템들로서 버려진다. 다양한 기준들에 기초하여, 콘텐츠 선택모델(330)은, 식별된 사용자에게 제시하기 위한 후보 콘텐츠 아이템들로서 식별된, 하나 또는 그 이상의 콘텐츠 아이템들을 선택한다. 선택된 콘텐츠 아이템들은 사용자에게 제시되는 콘텐츠의 피드에 포함된다. 예를 들어, 콘텐츠의 피드는, 온라인 시스템(140)을 통해 사용자에게 접속된 사용자들과 연관된 동작들을 서술하는, 적어도 문턱값 수의 콘텐츠 아이템들을 포함한다.For example, the
다양한 실시예들에서, 콘텐츠 선택 모듈(330)은, 사용자에게 제시하기 위해 선택된 복수의 콘텐츠 아이템들을 포함하는, 피드를 통해서 콘텐츠를 사용자에게 제시한다. 콘텐츠 선택 모델(330)은 또한, 선택된 콘텐츠 아이템들이 필드를 통해 제시되는 순서를 결정할 수 있다. 예를 들어, 사용자가 다양한 콘텐츠 아이템들과 상호작용하는 가능성에 기초하여, 콘텐츠 선택 모듈(330)은 피드 내의 콘텐츠 아이템들의 순서를 정한다. In various embodiments, the
사용자의 동작 또는 허락에 기초하여, 콘텐츠 선택 모듈(330)은 온라인 시스템의 사용자와 연관된 클라이언트 장치(110)에 포함된 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터를 수신하고, 디스플레이 장치(115)를 통해 시청중인 사용자에게 제시하기 위해, 수신중인 클라이언트 장치(110)에 비디오 데이터를 전송한다. 온라인 시스템(140)은 시청 중인 사용자를 식별하는 클라이언트 장치(110)로부터의 요청을 수신할 수 있고, 시청 중인 사용자로부터의 허가를 수신하는 것에 응답하여, 수신 중인 클라이언트 장치에 클라이언트 장치(110)로부터의 비디오 데이터를 후속하여 제공한다. 반대로, 온라인 시스템(140)은, 수신중인 클라이언트 장치(110)를 통해, 시청 중인 사용자로부터의 요청을 수신하고, 후속하여 사용자로부터의 허가를 수신하는 것에 응답하여, 클라이언트 장치(110)로부터 수신된 비디오 데이터를, 수신중인 클라이언트 장치(110)에 후속하여 제공한다. 이것은 온라인 시스템(140)의 상이한 사용자들이 온라인 시스템(140)을 통해 사용자들과 연관된 클라이언트 장치들(110)에 의해 캡쳐된 비디오 데이터를 교환하는 것을 허용한다.Based on the user's action or permission, the
부가적으로, 콘텐츠 선택 모듈(330)은, 수신 중인 클라이언트 장치(110)를 통해, 시청중인 사용자로부터의 지시들을 수신할 수 있고, 클라이언트 장치(110)에 하나 또는 그 이상의 지시들을 전송한다. 수신된 지시에 기초하여, 클라이언트 장치(110)는 지시들을 수신한 이후에 캡쳐된 비디오 데이터를 수정하거나, 또는 지시들에 기초하여 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정한다. 따라서, 클라이언트 장치(110)는 캡쳐된 비디오 데이터를, 수신중인 클라이언트 장치(110)로부터의 하나 또는 그 이상의 지시들에 기초하여, 수정하고, 수정된 비디오 데이터를 전송하거나, 또는 수정된 파라미터들을 이용하여 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터를 콘텐츠 선택 모듈(330)에 전송하는데, 이것은 수신중인 클라이언트 장치(110)에 비디오 데이터를 전송하며, 도 4와 연결되어 하기에 더 서술되어 있다. 이것은 시청 중인 사용자가 클라이언트 장치(110)에 의해 캡쳐되고, 수신중인 클라이언트 장치(110)를 통해 시청중인 사용자에게 제공되는, 비디오 데이터를 수정하거나 조정하는 것을 허용한다.Additionally, the
콘텐츠 선택 모듈(330)은 다양한 실시예들에서 온라인 시스템(140)의 사용자들의 하나 또는 그 이상의 프라이버시 설정들을 시행한다. 사용자의 프라이버시 설정은 사용자와 연관된 특별한 정보가 공유될 수 있는 방법을 결정하고, 사용자 프로필 스토어(305)에서 사용자의 사용자 프로필에 저장될 수 있다. 일실시예에서, 프라이버시 설정은 사용자와 연관된 특별한 정보를 지정하고, 지정된 정보가 공유될 수 있는 다른 실체들을 식별한다. 정보가 공유될 수 있는 실체들의 예들은 다른 사용자들, 애플리케이션들, 제 3 자 시스템들(130), 또는 정보에 잠재적으로 액세스할 수 있는 임의의 실체를 포함할 수 있다. 사용자에 의해 공유될 수 있는 정보의 예들은, 프로필 사진, 사용자와 연관된 전화번호, 사용자를 포함하는 비디오 데이터에의 사용자의 접속들, 접속을 부가하는 것, 사용자 프로필 정보를 변경하는 것과 같은 사용자에 의해 취해진 동작들 등과 같은 사용자 프로필 정보를 포함한다. 다양한 실시예들에서, 온라인 시스템(140)은, 다른 실체들이 사용자와 연관된 콘텐츠를 액세스하거나 수신하는 것을 방지하는 디폴트 설정을 가지는, 사용자와 연관된 프라이버시 설정들을 유지하고, 수정된 프라이버시 설정들에 대응되는 콘텐츠를 사용자에 의해 지정된 다른 실체들이 검색하거나 액세스하는 것을 허용하기 위해 상이한 프라이버시 설정들을 사용자가 수정하는 것을 허용한다. The
프라이버시 설정 지정은 상이한 레벨들의 단위(granularity)로 제공될 수 있다. 일실시예에서, 프라이버시 설정은 다른 사용자들과 공유될 특정 정보를 식별할 수 있다. 예를 들어, 프라이버시 설정은 직장 전화번호 또는 프로필 사진, 집 전화번호 및, 상태를 포함하는 개인 정보와 같은, 특정 세트의 관련된 정보를 식별한다. 대안적으로, 프라이버시 설정은 사용자와 연관된 모든 정보에 적용할 수 있다. 특별한 정보에 액세스할 수 있는 실체들의 세트의 지정은 또한 다양한 레벨들의 단위로 지정될 수 있다. 정보가 공유될 수 있는 다양한 세트들의 실체들은, 예를 들어, 사용자에게 접속된 모든 사용자들, 사용자에게 접속된 한 세트의 사용자들, 사용자에게 접속된 사용자들에게 접속된 부가적인 사용자들, 모든 애플리케이션들, 모든 제 3 자 시스템들(130), 특정 제 3 자 시스템들(130), 또는 모든 외부 시스템들을 포함할 수 있다.Privacy settings can be provided in different levels of granularity. In one embodiment, privacy settings can identify specific information to be shared with other users. For example, the privacy settings identify a particular set of related information, such as a work phone number or profile picture, a home phone number, and personal information including status. Alternatively, privacy settings can be applied to all information associated with the user. The designation of a set of entities that can access special information can also be specified in units of various levels. The various sets of entities to which information can be shared include, for example, all users connected to a user, a set of users connected to a user, additional users connected to users connected to the user, all applications Field, all third party systems 130, specific third party systems 130, or all external systems.
일실시예는 상이한 실체들에게 제시된 정보의 종류들을 식별하거나 또는 식별된 정보에 액세스하는 것이 허용된 실체들을 지정하기 위해 실체들의 목록을 이용한다. 예를 들어, 사용자는 사용자들의 지정된 그룹에 통신전달되거나 다른 사용자들에게 통신전달되는 동작들의 종류들을 지정할 수 있다. 대안적으로, 사용자는 동작들의 종류들이나 또는 다른 사용자들에게 제시되거나 공개되지 않은 다른 정보를 지정할 수 있다. One embodiment uses a list of entities to identify types of information presented to different entities or to specify entities allowed to access the identified information. For example, a user can specify the types of operations that are communicated to a specified group of users or to other users. Alternatively, the user may specify types of actions or other information that is not presented or disclosed to other users.
콘텐츠 선택 모듈(330)은 사용자와 연관된 어떤 정보가, 온라인 시스템(140), 제 3 자 시스템(130), 및/또는 다른 애플리케이션들과 실체들을 통해 사용자에게 접속된, 다른 사용자들에 의해 액세스될 수 있는지를 결정할 로직(logic)을 포함한다. 사용자의 프라이버시 설정들에 기초하여, 콘텐츠 선택 모듈(330)은 다른 사용자, 제 3 자 시스템(130), 애플리케이션 또는 다른 실체가, 사용자에 의해 취해진 동작들에 대한 정보를 포함하는, 사용자와 연관된 정보에 액세스하는 것이 허용되는지를 결정한다. 예를 들어, 콘텐츠 선택 모듈(230)은, 사용자를 포함하는 비디오 데이터가 다른 사용자에게 제시될 수 있는지 여부를 결정하기 위해서, 사용자의 프라이버시 설정을 이용한다. 이것은 사용자의 프라이버시 설정이, 어떤 다른 사용자들 또는 어떤 다른 실체들이 사용자의 동작들에 대한 데이터를 또는 사용자와 연관된 다른 데이터를 수신하도록 허용되는지를, 지정하게 한다. The
웹 서버(335)는 네트워크(120)를 통해 온라인 시스템(140)을 하나 또는 그 이상의 클라이언트 장치들(110)에 링크할 뿐만 아니라, 하나 또는 그 이상의 제 3 자 시스템(130)에 링크한다. 웹 서버(335)는 웹 페이지들에 서빙(serve)할 뿐만 아니라 자바(JAVA®), 플래시(FLASH®), 엑스엠엘(XML) 등과 같은 다른 콘텐츠에 서빙한다. 웹 서버(335)는 온라인 시스템(140)과 클라이언트 장치(110) 간의 메시지들을 수신할 수 있고 라우팅(route)할 수 있는데, 예를 들어, 인스턴트 메시지들, 대기(queued) 메시지들(예를 들어, 이메일), 텍스트 메시지들, 쇼트 메시지 서비스(SMS) 메시지들, 또는 임의의 다른 적합한 메시징 기술을 이용하여 송신된 메시지들을 수신하거나 라우팅할 수 있다. 사용자는 콘텐츠 스토어(310)에 저장되는 정보(예를 들어, 영상들 또는 비디오들)를 업로드하기 위해 웹 서버(335)에 요청을 송신할 수 있다. 부가적으로, 웹 서버(335)는, 아이오에스(IOS®), 안드로이드(ANDROIDTM), 또는 블랙베리 오에스(BlackberryOS)와 같은, 네이티브 클라이언트 장치 오퍼레이팅 시스템들에 직접 데이터를 송신하기 위해, 애플리케이션 프로그래밍 인터페이스(API) 기능을 제공할 수 있다.The web server 335 not only links the
이전에 캡쳐된 비디오 데이터의 특성들에 기초하여 비디오 데이터 캡쳐를 수정Modify video data capture based on previously captured characteristics of video data
도 4는, 영상 캡쳐 장치(117)에 의해 이전에 캡쳐된 비디오의 특성들에 기초하여, 영상 캡쳐 장치(117)에 의한 비디오 데이터의 캡쳐를 수정하는 방법의 일실시예의 상호작용 도면이다. 다양한 실시예들에서, 도 4와 연결되어 서술된 단계들은 상이한 순서들로 수행될 수 있다. 부가적으로, 몇가지 실시예들에서, 방법은 도 4에 도시된 것들과 상이한 및/또는 부가적인 단계들을 포함할 수 있다. 4 is an interactive diagram of one embodiment of a method of modifying the capture of video data by the
영상 캡쳐 장치(117)는 도 1 및 도 2와 연결되어 상기에 더 서술되는 바와같이, 송신중인 클라이언트 장치(110A)에 포함되어 있고, 송신중인 클라이언트 장치(110A) 주위의 국지 영역의 비디오 데이터를 캡쳐(405)한다. 영상 캡쳐 장치(117)에 의해 캡쳐된 영상들은 송신중인 클라이언트 장치(110A)에 포함된 (또는 다른 실시예들에서 클라이언트 장치(110)에 연결된) 제어기(210)에 통신전달된다. 다양한 실시예들에서, 사용자는 (예를 들어, 사전-선택된 프라이버시 설정들 및/또는 유도된(prompted) 선택들을 통해서), 제어기(210)가, 캡쳐된 비디오 데이터에 포함된 사람들을 위치시키기 위해, 하나 또는 그 이상의 기계 학습된 모델들을, 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오의 특성들에 적용하는 것을 허가할 수 있다. 제어기(210)는 위치된 사용자들을 더 현저하게 제시하기 위해서 비디오 데이터를 수정하고, 다양한 실시예들에서, 수정된 비디오 데이터를 온라인 시스템(140)에 전송(410)한다. 위치된 사용자는 적어도 문턱값 세트의 차원들을 가진 (예를 들어, 적어도 문턱값 높이 또는 문턱값 폭을 가진) 비디오 데이터에서 제시되거나, 영상 캡쳐 장치(117)의 적어도 문턱값 양의 시야에서 또는 캡쳐된 비디오 데이터의 적어도 문턱값 양의 프레임에서 제시되거나, 또는 캡쳐된 비디오 데이터 내의 하나 또는 그 이상의 특정 위치들에서 더 현저하게 제시된다. 예를 들어, 제어기(210)는, 적어도 한 명의 사람도 포함하지 않는 비디오 데이터의 일부분들을 제거하기 위해, 캡쳐된 비디오 데이터를 크로핑(crop)한다. 다른 예로서, 제어기(210)는 사람을 포함하는 비디오 데이터의 일부분의 줌(확대라고도 언급됨)을 증가시킨다. 캡쳐된 비디오 데이터를 수정하기 위해서, 제어기(210)는 영상 캡쳐 장치(117)에 의해 캡쳐된 후에 비디오 데이터를 수정할 수 있거나, 또는 영상 캡쳐 장치(117)가 비디오 데이터를 캡쳐(405)하는 방법을 수정하기 위해 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정할 수 있다.The
다양한 실시예들에서, 제어기(210)는, 캡쳐된 비디오 데이터 내에 사람들을 위치시키기 위해서, 하나 또는 그 이상의 방법들을 적용한다. 그러나, 제어기(210)는 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용함으로써 유사하게 객체들(예를 들어, 가전 제품, 가구, 제품들)을 위치시킬 수 있다. 다음의 예들은 비디오 데이터에의 모델들의 적용을 언급하지만, 하나 또는 그 이상의 모델들은 비디오 데이터, 오디오 데이터, 영상 데이터, 클라이언트 장치(110)에 의해 캡쳐된 임의의 다른 데이터, 및 그것들의 임의의 조합에 적용될 수 있다. 제어기(210)는 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오 데이터 내에 사람들을 위치시키기 위해서 임의의 적합한 모델 또는 모델들의 조합을 이용할 수 있다. 제어기(210)에 의해, 캡쳐된 비디오 데이타에 적용된 모델들은 사람의 몸의 일부분들 또는 사람의 얼굴의 일부분들을 식별하기 위해 (2차원 또는 3차원으로) 얼굴 트래킹(facial tracking), 2차원 포즈 트래킹(pose tracking), 3차원 포즈 트래킹, 또는 임의의 다른 적합한 방법을 수행할 수 있다. 유사하게, 제어기(210)에 의해 적용된 모델들은 캡쳐된 비디오 데이터로부터 객체들을 식별할 수 있다. 몇가지 실시예들에서, 사용자의 허가에 기초하여, 제어기(210)는, 온라인 시스템(140)으로부터 얻어진 정보에 기초하여, 더 구체적으로 객체들 또는 사람들을 식별하기 위해서, 온라인 시스템(140)과 통신하고, 한편, 다른 실시예들에서, 제어기(210)는, 캡쳐된 비디오 데이터로부터 상이한 객체들 또는 사람들을 식별하기 위해, 모델들을 국지적으로 유지한다. 하나 또는 그 이상의 모델들의 적용에 기초하여, 제어기(210)는, 위치된 사용자의 몸의 어떤 일부분을 더 현저하게 디스플레이하기 위해서, 위치된 사용자의 몸의 어떤 일부분들을 포함하는, 캡쳐된 비디오 데이터의 크로핑(cropping) 또는 주밍(zooming)을 수정할 수 있다. 예를 들어, 하나 또는 그 이상의 모델들이 사람의 얼굴을 식별할 때, 제어기는, 사람의 얼굴을 포함하지 않는 비디오 데이터의 일부분들을 제거하기 위해서, 캡쳐된 비디오 데이터를 수정한다. 하나 또는 그 이상의 모델들의 적용이, 캡쳐된 비디오 데이터 내에, 복수의 사람들을 위치시킨다면, 제어기(210)는 캡쳐된 비디오 데이터를 수정하여, 비디오의 상이한 일부분들은 상이한 사람들을 디스플레이한다. 예를 들어, 제어기(210)는 캡쳐된 비디오 데이터를 그리드(grid)로 분할하는데, 그리드의 각각의 영역은 상이한 사람의 하나 또는 그 이상의 일부분들을 디스플레이한다. 다른 실시예들에서, 제어기(210)는 사람의 일부분을 포함하는 비디오 데이터의 일부분 상에 영상 캡쳐 장치(117)의 확대(즉, 줌)를 증가시킨다. 따라서, 제어기(210)는, 캡쳐된 비디오 데이터 내에 위치된 하나 또는 그 이상의 사람들의 일부분들을 더 현저하게 제시하기 위해서 비디오 데이터를 수정하도록, 캡쳐된 비디오 데이터의 일부분들을 크로핑할 수 있거나, 또는 캡쳐된 비디오 데이터의 일부분들의 확대(즉, 줌)를 증가시킬 수 있다. 부가적으로, 하나 또는 그 이상의 모델들의 적용에 기초하여, 캡쳐된 비디오 데이터를 수정할 때, 제어기(210)는 더 높은 품질에서 하나 또는 그 이상의 위치된 사람들의 일부분들을 제시하기 위해서, 수정된 비디오 데이터를 안정화시킬, 하나 또는 그 이상의 모델들을 적용할 수 있다. In various embodiments, controller 210 applies one or more methods to locate people within the captured video data. However, the controller 210 can similarly locate objects (eg, household appliances, furniture, products) by applying one or more models to the captured video data. The following examples refer to the application of models to video data, but one or more models are video data, audio data, image data, any other data captured by
프라이버시 설정들에 기초하여, 제어기(210)는 또한, 캡쳐된 비디오 데이터에 포함된, 위치된 사람의 몸의 일부분들을 수정하기 위해서, 식별된 사람의 몸의 부분들을 위치시키고, 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터를 수정하거나 또는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하는, 하나 또는 그 이상의 모델들을 적용할 수 있다. 예를 들어, 제어기(210)는, 캡쳐된 비디오 데이터에서, 위치된 사람의 몸의 상이한 부분들에 대응되는 관절들을 포함하도록, 식별된 사람의 몸의 상이한 관절들(joints)을 위치시키고, 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정한다. 그러므로, 제어기(210)는 캡쳐된 비디오 데이터가 사람의 머리, 사람의 머리와 몸통, 또는 사람의 전체 몸을 포함하는지 여부를 수정할 수 있다. 제어기(210)는 이전에 캡쳐된 비디오 데이터에서 식별된 움직임, 비디오 데이터로부터 식별된 임의의 다른 적합한 특성들, 또는 이전에 캡쳐된 비디오 데이터에 포함된 콘텐츠에 기초하여, 캡쳐된 비디오 데이터에 포함된 사람의 몸의 일부분들을 수정하는 다양한 규칙들을 포함할 수 있다.Based on the privacy settings, the controller 210 also locates parts of the identified person's body to modify portions of the located person's body, included in the captured video data, and captures the image capture device ( One or more models may be applied to modify the video data captured by 117) or to modify one or more parameters of the
다양한 실시예들에서, 제어기(210)에 의해 적용된 하나 또는 그 이상의 모델들은 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오 데이터를 수정하기 위해 하나 또는 그 이상의 규칙들을 적용한다. 예를 들어, 제어기(210)가 또한 사람의 얼굴이 카메라를 향해 있다고 결정한다면, 제어기(210)는, 비디오 데이터로부터 위치된 사람을 더 현저하게 디스플레이하기 위해서, 사람과는 다른 객체들을 제거하도록 사람이 위치된 비디오 데이터의 일부분들을 크로핑하는 것을 수정함으로써, 또는 사람이 위치된 비디오 데이터의 일부분 상에서 캡쳐된 데이터의 줌을 수정함으로써, 캡쳐된 비디오 데이터를 수정한다. 예로서, 제어기(210)에 의해 적용된 하나 또는 그 이상의 모델들이 사람의 얼굴이 영상 캡쳐 장치(117)를 향해 있다고 결정한다면(예를 들어, 사람의 얼굴의 하나 또는 그 이상의 특정한 특징들이 영상 캡쳐 장치(117)에 의해 캡쳐된다면), 제어기(210)는 사용자의 얼굴을 더 현저하게 디스플레이하기 위해 캡쳐된 비디오 데이터를 수정한다. 다른 예에서, 제어기(210)는 영상 캡쳐 장치(117)와 비디오 데이터 내에 위치된 사람들 간의 거리들을 결정하고, 영상 캡쳐 장치(117)로부터의 최소 결정된 거리를 갖는 사람을 더 현저하게 디스플레이 하기 위해, 또는 영상 캡쳐 장치로부터의 결정된 거리가 문턱값 거리보다 적은 사람들을 더 현저하게 디스플레이 하기 위해, 캡쳐된 비디오 데이터를 수정한다. 다른 예에서, 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터가 객체 또는 사람의 움직임을 트래킹하는 것을 허용하면서, 사람 또는 객체가 움직임에 따라, 영상 캡쳐 장치(117)를 재위치시키기 위해서, 제어기(210)는 하나 또는 그 이상의 모델들을 적용한다.In various embodiments, the one or more models applied by the controller 210 are one or more to modify the video data captured 405 by the
제어기(210)에 의해 적용된 하나 또는 그 이상의 모델들은, 캡쳐된 비디오 데이터에서 식별된 복수의 사람들의 위치를 처리하는 규칙들에 기초하여, 캡쳐된 비디오 데이터를 수정할 수 있다. 다양한 실시예들에서, 사용자들은 제어기(210)가 캡쳐된 비디오 데이터에서 사용자들을 위치시키는 것을 허가할 수 있고, 제어기(210)는 식별된 사용자들의 시선들이 향하는 캡쳐된 비디오 데이터 내의 위치들을 결정하는 모델을 캡쳐된 비디오 데이터에 적용한다. 적어도 문턱값 수의 또는 문턱값 양의 위치된 사용자들이 특정한 사람을 포함하는 캡쳐된 비디오 데이터 내의 위치를 향하는 시선들을 가진다고 결정하는 것에 응답하여, 제어기(210)는, 특정한 사람을 더 현저하게 디스플레이(예를 들어, 특정한 사람과는 다른 콘텐츠를 제거하기 위해 캡쳐된 비디오 데이터를 크로핑하는 것, 특정한 사람의 줌 또는 확대를 증가시키는 것)하기 위해서, 캡쳐된 비디오 데이터를 수정한다. 다른 예로서, 제어기(210)는 비디오 데이터 내에 위치된 상이한 사람들간의 거리들을 결정하고, 서로의 문턱값 거리 내의 사람들을 더 현저하게 디스플레이하기 위해 캡쳐된 비디오 데이터를 수정하는데, 이것은 제어기(210)가 사람들의 그룹이 위치된 비디오 데이터의 일부분을 크로핑하거나 또는 주밍함으로써, 캡쳐된 비디오 데이터를 수정하는 것을 허용한다. 부가적으로, 제어기(210)는 캡쳐된 비디오 데이터 내의 식별된 사람들 또는 객체들에 기초하여, 캡쳐된 비디오 데이터로부터 하나 또는 그 이상의 프레임들을 제거할 수 있고, 예를 들어, 문턱값 미만의 수의 객체들 또는 사람들이 캡쳐된 비디오 데이터 내에서 식별되거나, 또는 캡쳐된 비디오 데이터 내에서 식별된 객체들 또는 사람들의 문턱값보다 적은 양의 움직임이 결정된다면, 제어기(210)는, 캡쳐된 비디오 데이터를 온라인 시스템(140)에 전송(410)하기 이전에, 캡쳐된 비디오 데이터로부터 프레임들을 제거한다. 다른 실시예들에서, 온라인 시스템(140)은 하기에 더 서술되는 바와 같이, 캡쳐된 비디오 데이터를 수신중인 클라이언트 장치(110B)에 전송(415)하기 전에 상기에 서술된 기준을 이용하여 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 프레임들을 제거한다. One or more models applied by the controller 210 may modify the captured video data based on rules processing the locations of a plurality of people identified in the captured video data. In various embodiments, users can allow controller 210 to locate users in the captured video data, and controller 210 is a model for determining locations in the captured video data to which the eyes of the identified users are directed. Is applied to the captured video data. In response to determining that at least a threshold number or a threshold amount of positioned users has gazes directed to a location in the captured video data that includes the particular person, the controller 210 displays the particular person more prominently ( For example, modifying the captured video data to crop the captured video data to remove content different from a particular person, to increase zoom or magnification of the specific person). As another example, the controller 210 determines distances between different people located in the video data, and modifies the captured video data to display the people within each other's threshold distance more prominently, which the controller 210 A group of people is allowed to modify the captured video data by cropping or zooming a portion of the located video data. Additionally, the controller 210 can remove one or more frames from the captured video data, based on identified people or objects in the captured video data, eg, a number less than a threshold If objects or people are identified within the captured video data, or if an amount of movement less than a threshold of objects or people identified within the captured video data is determined, the controller 210 may display the captured video data. Prior to sending 410 to the
제어기(210)는 송신중인 클라이언트 장치(110A)의 다른 구성요소들로부터 데이터를 수신할 수 있고, 송신중인 클라이언트장치(110A)의 다른 구성 요소들로부터의 데이터와 수신된 비디오 데이터의 특성들에 기초하여, 캡쳐된 비디오 데이터를 수정할 수 있다. 예를 들어, 영상 캡쳐 장치(117) 또는 클라이언트 장치(110)는, 클라이언트 장치(110) 주위의 국지 영역으로부터 오디오 데이터를 캡쳐하도록 구성된, 마이크로폰과 같은 오디오 캡쳐 장치를 포함한다. 사용자들은, 캡쳐된 비디오 데이터를 수정할 때, 제어기(210)가, 캡쳐된 비디오 데이터와 함께, 캡쳐된 오디오 데이터를 프로세싱하는 것을 허가할 수 있다. 다양한 실시예들에서, 제어기(210)는, 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치를 결정하기 위해서, 하나 또는 그 이상의 모델들을 캡쳐된 오디오 데이터에 적용한다. 제어기(210)는 하나 또는 그 이상의 모델들을, 오디오 데이터의 소스를 포함하는, 캡쳐된 비디오 데이터 내의 위치에 적용한다. 오디오 데이터의 소스를 포함하는, 캡쳐된 비디오 데이터 내의 위치가 사람을 포함한다고 결정하는 모델들의 적용에 응답하여, 제어기(210)는, 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치를 더 현저하게 제시하기 위해서, 캡쳐된 비디오 데이터를 수정하거나(즉, 캡쳐된 비디오 데이터의 소스를 포함하는 위치의 줌을 증가시키거나 또는 캡쳐된 비디오의 소스와는 다른 객체들을 제거하기 위해 캡쳐된 비디오 데이터의 소스를 포함하는 위치를 크로핑 하는 것), 또는 오디오 데이터의 소스 상에 초점을 맞추기 위해 영상 캡쳐 장치(117)를 재위치시킨다. 그러나, 제어기(210)는, 오디오 데이터의 소스를 포함하는 캡쳐된 비디오 데이터 내의 위치가 사람을 포함하지 않는다고 결정하는 것에 응답하여, 캡쳐된 비디오 데이터를 수정하지 않거나 또는 영상 캡쳐 장치(117)를 재위치시키지 않는다. 다른 예로서, 제어기(210)는, 캡쳐된 비디오 데이터가, 송신중인 클라이언트 장치(110A)의 오디오 캡쳐 장치에 의해 캡쳐된 오디오 데이터를 말하거나, 또는 그와는 다르게, 제공중인 것으로 결정된 사람을 더 현저하게 디스플레이하는(즉, 오디오 데이터를 제공중인 것으로 결정된 사람을 포함하는 그 위치의 줌을 증가시키거나, 또는 오디오 데이터를 제공중인 것으로 결정된 사람과는 다른 객체들을 제거하기 위해, 캡쳐된 비디오 데이터의 소스를 포함하는 위치를 크로핑하는) 것을 허용하면서, 캡쳐된 오디오 데이터의 소스라고 제어기(210)가 결정하는, 캡쳐된 비디오 데이타 내에 위치된 사람을 더 현저하게 제시하기 위해서, 캡쳐된 비디오 데이터를 수정하거나 또는 영상 캡쳐 장치(117)를 재위치시킨다.The controller 210 can receive data from other components of the
몇가지 실시예들에서, 사용자들은 또한, 영상 캡쳐 장치(117)에 의해 이전에 캡쳐(405)된 비디오 데이터에 기초하여, 제어기(210)가, 클라이언트 장치(110)의 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정하기 위해, 하나 또는 그 이상의 모델들을 적용하는 것을 허가할 수 있다. 예를 들어, 제어기(210)가 캡쳐된 비디오 데이터 내에 복수의 사람들을 위치시킨다면, 제어기(210)는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들 또는 캡쳐된 비디오 데이터를 수정하여 각각의 위치된 사람은 최소량의 시간 동안, 캡쳐된 비디오 데이터에서 현저하게 제시(예를 들어, 적어도 문턱값 세트의 차원들로 비디오 데이터에서 제시되는 것, 영상 캡쳐 장치(117)의 적어도 문턱값 양의 시야에서 제시되거나, 또는 캡쳐된 비디오 데이터의 적어도 문턱값 양의 프레임에서 제시되는 것, 또는 캡쳐된 비디오 데이터 내의 하나 또는 그 이상의 특정 위치들에 제시되는 것)된다. 다른 예로서, 프라이버시 설정들을 조건으로, 제어기(210)는, 적어도 문턱값 양의 시간동안, 캡쳐된 비디오 데이터에서 현저하게 제시되었던, 캡쳐된 비디오 데이터에 위치되는 사람들을 식별하는 정보를 저장한다. 제어기(210)가 캡쳐된 비디오 데이터에서 부가적인 사람을 위치시킬 때, 제어기(210)는, 캡쳐된 비디오 데이터에서 현저하게 제시되었던, 사람들을 식별하는 저장된 정보와 부가적인 사람을 비교한다. 부가적인 사람이 저장된 정보에 의해 식별되지 않는다고 결정하는 것에 응답하여, 제어기(210)는, 적어도 문턱값 양의 시간 동안 부가적인 사람을 현저하게 디스플레이하기 위해서, 캡쳐된 비디오 데이터를 수정하거나 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정한다. 이것은 제어기(210)가 비디오 데이터를 수정하는 것을 허용하여, 제어기(210)에 의해서 비디오 데이터에 위치된 각각의 사람은 적어도 문턱값 양의 시간동안 현저하게 디스플레이된다.In some embodiments, users may also, based on video data previously captured 405 by the
부가적으로, 제어기(210)는, 캡쳐된 비디오 데이터에 위치된 사람들의 움직임을 식별하는 것에 응답하여, 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정할 수 있다. 예를 들어, 제어기(210)에 의해 캡쳐된 비디오에 적용된 하나 또는 그 이상의 모델들이, 위치된 사람이 객체를 향해서 몸짓(gesturing)을 하고 있다고 결정한다면, 제어기(210)는 캡쳐된 비디오 데이터를 수정하여, 위치된 사람과 객체는 현저하게 제시된다. 예로서, 캡쳐된 비디오가 위치된 사람을 현저하게 디스플레이한다면(예를 들어, 적어도 문턱값 세트의 차원들로 위치된 사람을 디스플레이하거나, 또는 적어도 문턱값 양의 하나 또는 그 이상의 프레임들의 비디오 데이터를 점유하는, 위치된 사람을 디스플레이하는 것), 그리고, 제어기가 위치된 사람이 객체를 향해 몸짓을 하고 있다고 결정한다면, 제어기(210)는 캡쳐된 비디오를 수정하여, 위치된 사람과 객체는 비디오 데이터에서 제시된다. 예를 들어, 제어기(210)는 캡쳐된 비디오 데이터의 확대를 감소시켜, 위치된 사람과 객체는 둘다 캡쳐된 비디오에 포함된다. 다른 예에서, 제어기(210)가, 위치된 사람이 객체를 잡고 있다고 결정하는, 하나 또는 그 이상의 모델들을 적용한다면, 제어기(210)는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하거나 또는 캡쳐된 비디오 데이터를 수정하여, 객체는 현저하게 제시(예를 들어, 객체에 대한 영상 캡쳐 장치(117)의 초점을 변경시키고, 영상 캡쳐 장치(117)의 줌을 증가시킴)된다. 제어기(210)는 몇가지 실시예들에서, 특정 양의 시간동안, 캡쳐된 비디오 데이터에서 위치된 사람에 의해 잡혀진 객체를 더 현저하게 제시할 수 있고, 그다음에 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정할 수 있어서, 위치된 사람은 캡쳐된 비디오 데이터에 의해 다시 현저하게 제시된다. Additionally, the controller 210 may modify parameters of the
송신중인 클라이언트 장치(110A)는, 상기에 더 서술된 바와 같이, 제어기(210)에 의해서 수정될 수 있는 비디오 데이터를, 송신중인 클라이언트 장치(110A)로부터 온라인 시스템(140)으로, 전송(410)하고, 이것은 캡쳐된 비디오 데이터를, 수신중인 클라이언트 장치(110B)에, 전송(415)한다. 디스플레이 장치(115)를 이용하여, 수신중인 클라이언트 장치(110B)는 온라인 시스템(140)으로부터 온라인 시스템(140)의 시청중인 사용자에게로 비디오 데이터를 제시(420)한다. 다양한 실시예들에서, 시청중인 사용자는, 송신중인 클라이언트 장치(110A)와 통신하기 위해서, 수신중인 클라이언트 장치(110B)로부터 온라인 시스템(140)으로 요청을 통신전달한다. 온라인 시스템(140)은 송신중인 클라이언트 장치(110A)에 요청을 통신전달하고, 이것은 온라인 시스템(140)에 응답을 제공한다. 송신중인 클라이언트 장치(110A)가 그 요청에 응답하여 온라인 시스템(140)에 허가를 제공하면, 온라인 시스템(140)은 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)에 의해 캡쳐(405)되고 온라인 시스템(140)에 제공된 비디오 데이터를, 디스플레이 장치(115) 상에 제시하기 위해, 수신중인 클라이언트 장치(110B)로 통신전달하고, 그 반대로도 통신전달한다. The transmitting
다양한 실시예들에서, (예를 들어, 사전-결정된 프라이버시 설정들에 기초하여, 그리고 사용자 동작들을 통해) 사용자는 송신중인 클라이언트 장치(110A)가 제어기(210)에 의해, 캡쳐된 비디오 내에 위치된 사람들에 대응되는 하나 또는 그 이상의 사용자들을 식별하는, 정보를 온라인 시스템(140)에 제공하는 것을 허가할 수 있고, 이것은 수신중인 클라이언트 장치(110B)에 전송(420)되는 비디오 데이터로 하나 또는 그 이상의 사용자들을 식별하는 정보를 포함한다. 대안적으로, 송신중인 클라이언트 장치(110A)는 제어기(210)에 의해 위치된 사람들을 포함하는 비디오 데이터의 일부분들을 온라인 시스템(140)에 식별시키고, 이것은 제어기(210)가 사람들을 위치시킨 비디오 데이터의 일부분들을, 온라인 시스템 사용자들을 식별하는, 저장된 영상들과 비교한다. 프라이버시 설정들에 기초하여, 온라인 시스템(140)은, 적어도 문턱값 유사도의 비디오 데이터의 일부분들을 가지는 것으로 온라인 시스템(140)에 의해 결정된, 저장된 영상들에 의해 식별된 사용자들을, 제어기(210)가 사람들을 위치시킨 송신중인 클라이언트 장치(110A)의 제어기(210)에 대해, 식별하는 정보를 검색한다. 사용자들이 그러한 식별 특징들에 옵트인한다면, 이것은 온라인 시스템(140)이, 송신중인 클라이언트 장치(110A)로부터 수신된, 비디오 데이터에 포함된 온라인 시스템(140)의 사용자들을 식별하는 것을 허용한다. 수신된 비디오 데이터의 일부분에 위치된 사람이 온라인 시스템 사용자인지 여부를 결정하기 위해, 온라인 시스템(140)은 하나 또는 그 이상의 얼굴 인식 프로세스를, 또는 다른 식별 프로세스들을, 사용자들을 식별하는 온라인 시스템(140)에 의해 저장된 영상들(예를 들어, 사용자들의 사용자 프로필들에서의 프로필 사진들, 사용자들이 식별 정보로 태그되는 사용자들의 얼굴들을 포함하는 영상들)과, 제어기(210)에 의해서 사람이 위치된, 수신된 비디오 데이터의 일부분에 적용할 수 있다. 예를 들어, 온라인 시스템(140)은 송신중인 클라이언트 장치(110A)로부터의 비디오 데이터를 증강(augment)시켜서, 온라인 시스템의 사용자를 식별하는 정보(예를 들어, 첫번째 이름과 마지막 이름, 그리고 이메일 주소)가, 온라인 시스템 사용자로서 온라인 시스템(140)에 의해 식별된 사람을 포함하는, 송신중인 클라이언트 장치(110A)로부터의 비디오 데이터의 일부분 상에 오버레이된다. 온라인 시스템(140)은 증강된 비디오 데이터를 수신중인 클라이언트 장치(110B)에 전송(420)한다. 대안적으로, 온라인 시스템(140)은, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터에 위치된 사람들에 대응되는, 온라인 시스템 사용자들을 식별하는 정보를 생성하고, 비디오 내의 사람들에 대응되는 온라인 시스템 사용자들을 식별하는 정보를 수신중인 클라이언트 장치(110B)에 비디오 데이터와 함께 전송한다. 예를 들어, 온라인 시스템(140)은, 수신중인 클라이언트 장치(110B)에 의해 비디오 데이터와 연결되어, 시청중인 사용자에게 제시하기 위해서, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터 내의 사람들에 대응되는, 온라인 시스템 사용자들의 사용자 이름들의 리스트 또는 첫번째 이름과 마지막 이름의 리스트를 생성한다.In various embodiments, the user (eg, based on pre-determined privacy settings, and through user actions) allows the user to transmit the
온라인 시스템(140)의 사용자 경험을 개선하기 위해 다양한 사용자-관련된 데이터의 이용을 사용자들이 허가하는 몇가지 실시예들에서, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터에 위치된 사람들에 대응되는 온라인 시스템 사용자들을 식별하는 정보를 생성할 때, 온라인 시스템(140)은 수신중인 클라이언트 장치(110B)와 연관된 시청중인 사용자와 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 식별되는 사용자들 간의 친밀도들을 처리할 수 있다. 예를 들어, 온라인 시스템(140)은, 온라인 시스템(140)에 의해 유지되는 시청중인 사용자에의 접속을 갖는, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 식별되는, 온라인 시스템 사용자들에 대한 식별 정보를 생성하고; 온라인 시스템(140)은, 몇가지 실시예들에서 시청중인 사용자에의 접속을 가지지 않는, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 식별되는, 온라인 시스템 사용자들에 대한 식별 정보는 생성할 수 없다. 대안적으로, 온라인 시스템(140)은, 시청중인 사용자에게 접속되지 않은, 온라인 시스템 사용자들의 식별 정보로부터, 시청중인 사용자에 접속된, 수신된 비디오 데이터로부터 식별되는 온라인 시스템 사용자들의 식별 정보를 시각적으로 구별한다. 다른 예로서, 온라인 시스템(140)은, 송신중인 클라이언트 장치(110A)로부터 수신된 비디오 데이터로부터 식별되는, 각각의 온라인 시스템 사용자에 대한 시청중인 사용자의 친밀도를 결정하고, 비디오 데이터로부터 식별되는 온라인 시스템 사용자들의 식별 정보의 제시를 수정한다. 예로서, 온라인 시스템(140)은, 시청중인 사용자가 적어도 문턱값 친밀도를 가진다고 온라인 시스템(140)이 결정하는, 식별된 온라인 시스템 사용자들을 시각적으로 구별하는, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자들을 식별하는 정보를 생성한다. 다른 예로서, 온라인 시스템(140)은, 수신된 비디오 데이터로부터 식별되는 온라인 시스템 사용자들에 대한, 시청중인 사용자의 친밀도들에 기초하여, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자들을 식별하는 정보를 순위정하고; 온라인 시스템(140)은, 수신된 비디오 데이터로부터 식별된 다른 온라인 시스템 사용자들을 식별하는 정보로부터, 순위정하기에서 적어도 문턱값 위치를 가지는, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자들을 식별하는 정보를 시각적으로 구별하는 정보를 생성한다. 다른 실시예에서, 온라인 시스템(140)은, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 수신된 비디오 데이터로부터 식별된 온라인 시스템 사용자를 식별하는 정보를 제시하는 정보를 생성한다.In some embodiments where users permit the use of various user-related data to improve the user experience of the
수신중인 클라이언트 장치(110B)는, 송신중인 클라이언트 장치(110A)가 수신중인 클라이언트 장치(110B)에 제시하기 위해 비디오 데이터를 제공하는 것을 허용하면서, 디스플레이 장치(115)를 통해 온라인 시스템(140)으로부터의 비디오 데이터를 제시(420)한다. 온라인 시스템(140)의 사용자들을 식별하는 온라인 시스템(140)으로부터의 정보는, 비디오 데이터와 연결하여, 수신중인 클라이언트 장치(110B)에 의해 제시된다. 제시된 비디오 데이터로부터, 수신중인 클라이언트 장치(110B)는 시청중인 사용자로부터 관심 사용자의 선택을 수신(425)하고, 온라인 시스템(140)에 관심 사용자를 식별하는 정보를 전송한다. 시청중인 사용자는 다양한 실시예들에서, 관심 객체를 선택할 수 있다. 예를 들어, 시청중인 사용자는 비디오 데이터와 연결되어 제시된 온라인 시스템(140)의 사용자들을 식별하는 정보로부터 관심 사용자를 식별하는 정보를 선택하고, 수신중인 클라이언트 장치(110B)와 수신중인 클라이언트 장치(110B)는 온라인 시스템(140)으로 관심 사용자를 식별하는 정보를 전송(430)한다. 시청중인 사용자는, 비디오 데이터와 함께, 수신중인 클라이언트 장치(110B)에 의해 제시되고, 비디오 데이터에 포함된 사용자들을 서술하는 정보로부터 관심 사용자를 식별하는 정보를 선택할 수 있다. 대안적으로, 시청중인 사용자는 사람을 포함하는 제시된 비디오 데이터의 일부분을 선택하고, 수신중인 클라이언트 장치(110B)는 제시된 비디오 데이터의 선택된 일부분을 온라인 시스템(140)에 식별시키고, 이것은 비디오 데이터의 선택된 일부분의 콘텐츠를 사용자들과 연관된 얼굴들 또는 몸들의 저장된 영상들(예를 들어, 사용자 프로필들에 포함된 영상들, 다양한 사용자들이 식별되는, 온라인 시스템(140)에 의해 유지되는 영상들)과 비교하고, 비디오의 선택된 일부분의 콘텐츠에 매칭되는 하나 또는 그 이상의 저장된 영상들과 연관된 사용자를 관심 사용자로서 식별한다.The receiving client device 110B allows the sending
온라인 시스템(140)은 관심 사용자를 식별하는 정보를 송신중인 클라이언트 장치(110A)에 전송(435)한다. 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오 데이터에 포함된 객체들의 특성들과 관심 사용자를 식별하는 정보에 기초하여, 제어기(210)는 관심 사용자를 더 현저하게 제시하기 위해 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)의 파라미터들 또는 캡쳐된 비디오 데이터를 수정(440)한다. 그 수정은, 수신중인 클라이언트 장치(110B)를 제어하는 사전-허가된 사람들의 리스트에 대해서, 캡쳐되는 사용자에 의한 허가와 재검토를 위해서 및/또는 그러한 변경들의 사전-허가에 기초하여(예를 들어, 프라이버시 설정들을 통해), 캡쳐된 비디오가 변경될 수 있는 방법에 관한 통지는 클라이언트 장치(110A)에서 디스플레이된 이후에 발생할 수 있다. 그 수정들은, 관심 사용자를 포함하는 비디오 데이터의 일부분 상에 확대를 증가시키기 위해서 또는 관심 사용자를 포함하지 않는 비디오 데이터의 일부분들을 제거하기 위해서, 영상 캡쳐 장치(117)의 파라미터들을 수정하는 단계를 포함할 수 있다. 다양한 실시예들에서, 송신중인 클라이언트 장치(110A)의 제어기(210)는, 관심 사용자를 더 현저하게 제시하기 위해서, 캡쳐된 비디오 데이터를 수정(440)하도록, 상기에 더 서술된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터에 적용한다. 관심 사용자를 더 현저하게 제시하기 위해, 수정된 비디오 데이터는 송신중인 클라이언트 장치(110A)로부터 온라인 시스템(140)으로 전송(445)되는데, 이것은 수신중인 클라이언트 장치(110B)에 관심 사용자를 더 현저하게 제시하는 비디오 데이터를 전송(450)하고, 이것은 시청중인 사용자에게 수정된 비디오 데이터를 제시(455)한다.The
제어기(210)는, 국지 영역 주변의 관심 사용자를 따라가기 위해, 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하도록, 관심 사용자를 식별하는 정보를 수신한 이후에, 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용할 수 있다. 예를 들어, 제어기(210)는, (온라인 시스템(140)으로부터 수신되거나, 또는 온라인 시스템으로부터의 정보에 기초하여 이전에 캡쳐(405)된 비디오 데이터로부터 식별된) 관심 사용자의 얼굴에 매칭되는 사람의 얼굴을 식별하기 위해, 하나 또는 그 이상의 얼굴 인식 모델들을 캡쳐된 비디오 데이터에 위치된 사람들에게 적용하고, 관심 사용자의 얼굴에 매칭되는 얼굴을 가지는 사람에게 영상 캡쳐 장치(117)의 초점을 후속하여 재위치시킨다. 대안적으로, 제어기(210)는 관심 사용자를 포함하는 캡쳐된 비디오 데이터로부터 컬러 맵(color map)을 추출하고 영상 캡쳐 장치(117)의 초점을 재위치시켜서, 추출된 컬러 맵은 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터에 포함되어 남겨진다. 몇가지 실시예들에서, 영상 캡쳐 장치(117)에 의해 캡쳐된 비디오 데이터가 식별된 사람 또는 객체의 움직임을 트래킹하는 것을 허용하면서, 제어기(210)는 관심 사용자를 식별하는 정보를 수신하고, 식별된 사람 또는 객체를 트래킹하도록 영상 캡쳐 장치(117)를 후속하여 수정한다.The controller 210, after receiving the information identifying the user of interest, modifies one or more parameters of the
다양한 실시예들에서, 시청중인 사용자는, 수신중인 클라이언트 장치(110B)의 디스플레이 장치(115)에 의해 제시된 비디오 데이터를 수정하도록, 부가적인 지시들을 온라인 시스템(140)에 제공하고, 이것은 지시들을 송신중인 클라이언트 장치(110A)에 전송한다. 온라인 시스템(140)으로부터의 지시들에 기초하여, 송신중인 클라이언트 장치(110A)의 제어기(210)는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하거나 또는 영상 캡쳐 장치(117)에 의해 캡쳐(405)된 비디오 데이터를 수정한다. 예를 들어, 시청중인 사용자에 의해 온라인 시스템(140)을 통해 제공된 지시는, 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)를 제어기(210)가 환경설정(configure)하게 하여서, 영상 캡쳐 장치(117)는, 관심 사용자가 영상 캡쳐 장치(117)의 시야 내에서 움직임에 따라, 재위치된다. 다른 예로서, 시청중인 사용자에 의해 온라인 시스템(140)을 통해 제공된 지시는, 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)에 의해 캡쳐(405)되고 수신중인 클라이언트 장치(110B)를 통해 제시되는, 비디오 데이터 내의 객체를 식별한다. 송신중인 클라이언트 장치(110A)가 온라인 시스템(140)으로부터 지시를 수신할 때, 제어기(210)는 캡쳐된 비디오 데이터를 수정하거나 또는 영상 캡쳐 장치(117)의 하나 또는 그 이상의 파라미터들을 수정하여서, 부가적인 클라이언트 장치(110)에 후속하여 제공되는 캡쳐된 비디오 데이터는 식별된 객체를 포함한다. 이것은 시청중인 사용자가, 송신중인 클라이언트 장치(110A)의 영상 캡쳐 장치(117)에 의해 캡쳐되고 수신중인 클라이언트 장치(110B)를 통해 시청중인 사용자에게 제시되는 비디오 데이터를 수정하는, 지시들을 송신중인 클라이언트 장치(110A)에 제공하는 것을 허용한다. 다양한 실시예들에서, 시청중인 사용자는, 수신중인 클라이언트 장치(110B)에 의해 제시(425)되고 송신중인 클라이언트 장치(110A)에 의해 캡쳐되는 비디오 데이터로부터 관심 사용자를 식별하지 않고서, 송신중인 클라이언트 장치(110A)에 의해 캡쳐되는 비디오 데이터를 수정하도록, 송신중인 클라이언트 장치(110A)로의 통신을 위한 지시들을 온라인 시스템(140)에 제공할 수 있다. 이것은 시청중인 사용자가 송신중인 클라이언트 장치(110A)에 의해 캡쳐(405)되는 비디오 데이터를 변경하는 것을 허용한다. In various embodiments, the viewing user provides additional instructions to the
결론conclusion
본 개시내용의 실시예들의 앞서의 서술은 예시의 목적으로 제시되었으며, 총망라하거나 특허권들을 개시된 상세한 형태들에 한정하게 의도된 것은 아니다. 해당 기술분야의 숙련된 자들은 많은 수정된 형태들과 변형들이 위의 개시내용에 비추어 가능함을 알아볼 수 있다.The foregoing description of embodiments of the present disclosure has been presented for purposes of illustration, and is not intended to be exhaustive or to limit the patent rights to the detailed forms disclosed. Those skilled in the art can recognize that many modified forms and variations are possible in light of the above disclosure.
이러한 서술의 몇가지 부분들은 정보에 관한 오퍼레이션들의 상징적인 표현들과 알고리즘들에 의해 본 개시내용의 실시예들을 서술한다. 이들 알고리즘의 서술들 및 표현들은 흔히 데이터 프로세싱 기술에서 숙련된 자들에 의해, 그들의 업무의 요지를 효과적으로 그 분야의 숙련된 자들에게 전달하기 위해, 사용된다. 이들 오퍼레이션들은, 비록 기능적으로, 계산적으로 또는 논리적으로 서술되었지만, 컴퓨터 프로그램들 또는 동등한 전기회로들, 마이크로 코드 등에 의해 수행되는 것으로 이해된다. 또한, 일반성의 상실없이, 모듈들로서 오퍼레이션들의 이들 배열을 언급하는 것은 또한 때때로 편리한 것으로 입증되었다. 서술된 오퍼레이션들 및 그것들의 연관된 모듈들은 소프트웨어, 펌웨어(firmware), 하드웨어, 또는 그것들의 임의의 조합들에서 구현될 수 있다.Several portions of this description describe embodiments of the present disclosure by symbolic representations and algorithms of operations on information. Descriptions and representations of these algorithms are often used by those skilled in data processing techniques to effectively convey the gist of their work to those skilled in the art. It is understood that these operations are performed by computer programs or equivalent electrical circuits, micro code, or the like, although functionally, computationally, or logically described. Furthermore, referring to these arrangements of operations as modules, without loss of generality, has also proven convenient at times. The described operations and their associated modules can be implemented in software, firmware, hardware, or any combinations thereof.
여기서 서술된 단계들, 작업들, 또는 프로세스들 중 어느 것도 하나 또는 그 이상의 하드웨어 또는 소프트웨어 모듈들 단독으로 또는 다른 장치들과 조합하여 실행되거나 수행될 수 있다. 일실시예에서, 소프트웨어 모듈은 컴퓨터 프로그램 코드를 구비한 컴퓨터-판독가능 매체를 포함하는 컴퓨터 프로그램 제품으로 수행되며, 이것은 임의의 또는 모든 서술된 단계들, 오퍼레이션들, 또는 프로세스들을 수행하기 위해 컴퓨터 프로세서에 의해 실행될 수 있다.Any of the steps, tasks, or processes described herein may be executed or performed by one or more hardware or software modules alone or in combination with other devices. In one embodiment, a software module is implemented as a computer program product comprising a computer-readable medium having computer program code, which is a computer processor to perform any or all of the described steps, operations, or processes. Can be executed by
본 개시내용의 실시예들은 또한 본 명세서의 오퍼레이션들을 수행하는 장치에 관한 것일 수 있다. 이러한 장치는 요구되는 목적들을 위해 특별히 구성될 수 있고/있거나 컴퓨터 내에 저장된 컴퓨터 프로그램에 의해 선택적으로 활성화되거나 재구성되는 일반 목적의 컴퓨팅 장치를 포함할 수 있다. 그러한 컴퓨터 프로그램은 비-일시적이고 형태를 가지는 컴퓨터 판독가능 저장매체 또는 전자 지시들을 저장하는데 적합한 임의의 종류의 매체에 저장될 수 있고, 이것은 컴퓨터 시스템 버스에 연결될 수 있다. 또한, 명세서에 언급된 임의의 컴퓨팅 시스템들은 단일 프로세서를 포함할 수 있거나, 또는 증가된 계산 능력을 위해 다중 프로세서 설계들을 채택하는 아키텍처들일 수 있다.Embodiments of the present disclosure may also relate to an apparatus that performs the operations herein. Such devices may be specially configured for the required purposes and / or may include general purpose computing devices that are selectively activated or reconfigured by computer programs stored in the computer. Such a computer program may be stored on a non-transitory and morphological computer readable storage medium or any kind of medium suitable for storing electronic instructions, which may be connected to a computer system bus. Further, any computing systems mentioned in the specification may include a single processor, or may be architectures that employ multiple processor designs for increased computational power.
실시예들은 또한 여기에 서술된 컴퓨팅 프로세스에 의해 만들어진 제품에 관한 것일 수 있다. 그러한 제품은 컴퓨팅 프로세스로부터 발생되는 정보를 포함할 수 있고, 여기서 정보는 비-일시적이고 형태를 가지는 컴퓨터 판독가능 저장매체상에 저장되며, 컴퓨터 프로그램 제품 또는 여기서 서술된 다른 데이터 조합의 임의의 실시예를 포함할 수 있다.Embodiments may also relate to products made by the computing process described herein. Such a product may include information arising from a computing process, where the information is stored on a non-transitory and tangible computer readable storage medium, and any embodiment of a computer program product or other data combination described herein. It may include.
마지막으로, 본 명세서에서 사용된 언어는 읽기 쉬우며 교육용 목적들로 주로 선택되었고, 특허권들을 상세히 설명하거나, 한정하기 위해 선택된 것은 아닐 수 있다. 그러므로, 특허권들의 범위는 이러한 상세한 서술에 의해 한정되지 않으며, 그에 기초하여 출원 상에서 발표되는 임의의 청구항들에 의해 한정되는 것이다. 따라서, 실시예들의 본 개시내용은 예시적인 것으로 의도되며, 이것은 다음의 청구항들에서 제시된 특허권들의 범위를 한정하는 것은 아니다. Finally, the language used in this specification is easy to read and was mainly selected for educational purposes, and may not be selected to describe or limit patent rights in detail. Therefore, the scope of the patent rights is not limited by this detailed description, but is limited by any claims published in the application based thereon. Accordingly, the present disclosure of the embodiments is intended to be illustrative, and this does not limit the scope of the patent rights set forth in the following claims.
본 발명에 따른 실시예들은, 방법 및 컴퓨터 프로그램 제품을 겨냥하는, 첨부된 청구항들에 특히 개시되어 있고, 하나의 청구항 카테고리, 예를 들어, 방법에서 언급된 임의의 특징은 다른 청구항 카테고리, 예를 들어, 컴퓨터 프로그램 제품, 시스템 및 저장매체에서도 청구될 수 있다. 첨부된 청구항들에서 뒤쪽의 종속항들 또는 인용항들은 형식적인 이유들로만 선택된다. 그러나, 임의의 이전 청구항들(특히, 다중 종속항들) 뒤쪽의 의도적인 인용항으로부터 발생되는 어떠한 주제도 또한 청구될 수 있어서, 청구항들과 그 특징들의 임의의 조합이 개시되며, 첨부된 청구항들에서 선택된 종속항들과 상관없이 청구될 수 있다. 청구될 수 있는 주제는 첨부된 청구항들에서 제시된 특징들의 조합들 뿐 아니라, 청구항들에서의 특징들의 임의의 다른 조합을 포함할 수 있으며, 청구항들에서 언급된 각각의 특징은 청구항들에서의 임의의 다른 특징 또는 다른 특징들의 조합과 결합될 수 있다. 또한, 여기서 묘사되거나 서술된 특징들 및 실시예들중 어느 것도, 분리된 청구항에서 청구될 수 있거나/있고, 여기서 묘사되거나 서술된 임의의 실시예들 또는 특징과도 임의의 조합을 하거나 첨부된 청구항들의 특징들중 어느 것과도 임의의 조합을 하여 청구될 수 있다. Embodiments according to the present invention are particularly disclosed in the appended claims, which are aimed at methods and computer program products, wherein one claim category, e. For example, it may be claimed in computer program products, systems and storage media. Subsequent dependent or cited claims in the appended claims are selected for formal reasons only. However, any subject arising from an intentional recitation claim after any previous claims (in particular, multiple dependent claims) may also be claimed, so any combination of the claims and their features is disclosed, and in the appended claims It can be claimed regardless of the dependent claims selected. The subject matter that may be claimed may include combinations of features presented in the appended claims, as well as any other combination of features in the claims, with each feature mentioned in the claims being any other in the claims. It can be combined with a feature or a combination of other features. In addition, any of the features and embodiments depicted or described herein may be claimed in a separate claim, and / or in any combination with any embodiments or features depicted or described herein or of the appended claims. Any combination of any of the features can be claimed.
본 발명에 따른 실시예에서, 컴퓨터-수행된 방법은: In an embodiment according to the invention, the computer-implemented method comprises:
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 캡쳐된 비디오 데이터를 제공하는 단계; Providing captured video data of a local area within the field of view of the image capture device included in the client device, the video data comprising captured one or more users of an online system, providing captured video data;
클라이언트에 의해 유지된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터의 특성들에 적용하는 단계;Applying one or more models maintained by the client to the characteristics of the captured video data;
캡쳐된 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 위치시키는 단계;Locating one or more users of the online system included in the captured video data;
비디오 데이터를 온라인 시스템에 전송하는 단계;Transmitting video data to the online system;
캡쳐된 비디오 데이터 내의 관심 사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계Receiving information from an online system that identifies a user of interest in the captured video data.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계 : 및 One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. Steps to fix them: and
수정된 하나 또는 그 이상의 파라미터들을 이용하여 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 온라인 시스템에 전송하는 단계를 포함할 수 있다.And transmitting the subsequently captured video data by the image capture device to the online system using the modified one or more parameters.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:
관심 사용자를 포함하는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 일부분의 확대를 증가시키는 단계를 포함할 수 있다.And increasing magnification of a portion of the video data subsequently captured by the image capture device including the user of interest.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:
관심 사용자를 포함하지 않는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 하나 또는 그 이상의 일부분들을 제거하도록 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data subsequently captured by the video capture device to remove one or more portions of the video data subsequently captured by the video capture device that does not include a user of interest.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계; 및Identifying a user of interest in the video data captured by the image capture device; And
영상 캡쳐 장치의 초점을 관심 사용자에게 재위치시키는 단계를 포함할 수 있다.And repositioning the focus of the image capture device to the user of interest.
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계는:The steps of identifying a user of interest in the video data captured by the image capture device are:
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하도록 하나 또는 그 이상의 얼굴 인식 모델들을 적용하는 단계를 포함할 수 있다.And applying one or more face recognition models to identify a user of interest in the video data captured by the image capture device.
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계는: The steps of identifying a user of interest in the video data captured by the image capture device are:
관심 사용자를 포함하는 캡쳐된 비디오 데이터의 일부분으로부터 컬러 맵을 추출하는 단계를 포함할 수 있다.And extracting a color map from a portion of the captured video data that includes the user of interest.
본 발명에 따른 실시예에서, 컴퓨터-수행된 방법은: In an embodiment according to the invention, the computer-implemented method comprises:
영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터를 수정하도록 온라인 시스템으로부터 지시를 수신하는 단계; 및Receiving an instruction from an online system to modify additional video data captured by the image capture device; And
수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함할 수 있다.And modifying one or more parameters of the image capture device in response to the received instruction.
수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: Modifying one or more parameters of the image capture device in response to the received instruction is:
영상 캡쳐 장치의 시야 내에서 관심 사용자가 움직임에 따라, 영상 캡쳐 장치를 재위치시키는 단계를 포함할 수 있다.And repositioning the image capture device according to a movement of a user of interest within the field of view of the image capture device.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:
관심 사용자의 움직임을 식별하는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용하는 단계; 및Applying one or more models to video data subsequently captured by an image capture device that identifies the movement of the user of interest; And
관심 사용자의 식별된 움직임에 기초하여 영상 캡쳐 장치의 시야를 수정하는 단계를 포함할 수 있다.And correcting the field of view of the image capture device based on the identified movement of the user of interest.
본 발명에 따른 실시예에서, 컴퓨터-수행된 방법은: In an embodiment according to the invention, the computer-implemented method comprises:
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 비디오 데이터를 온라인 시스템에서 수신하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 비디오 데이터를 온라인 시스템에서 수신하는 단계;Receiving, in an online system, video data of a local area within the field of view of the image capture device included in the client device, the video data comprising one or more users of the online system, receiving video data in the online system;
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계;Retrieving information identifying one or more users of the online system included in the video data;
온라인 시스템의 시청중인 사용자를 식별하는 단계;Identifying a viewing user of the online system;
시청중인 사용자와 연관된 부가적인 클라이언트 장치에, 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보와 비디오 데이터를 전송하는 단계;Transmitting video data and information identifying one or more users of the online system included in the video data to an additional client device associated with the viewing user;
부가적인 클라이언트 장치로부터 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들의 관심 사용자를 식별하는 정보를 수신하는 단계;Receiving information identifying an interested user of one or more users of the online system included in the video data from the additional client device;
관심 사용자를 식별하는 정보를 클라이언트 장치에 전송하는 단계;Transmitting information identifying the user of interest to the client device;
클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터를 수신하는 단계로서, 부가적인 비디오 데이터는 관심 사용자를 더 현저하게 디스플레이하기 위해 크로핑되거나 또는 주밍된 관심 사용자를 포함하는 일부분을 포함하는 부가적인 비디오 데이터를 수신하는 단계; 및 Receiving additional video data captured by the video capture device of the client device, wherein the additional video data includes a portion comprising a cropped or zoomed interest user to more prominently display the interested user. Receiving basic video data; And
부가적인 비디오 데이터를 부가적인 클라이언트 장치에 전송하는 단계를 포함할 수 있다.And transmitting additional video data to the additional client device.
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:The step of retrieving information identifying one or more users of the online system included in the video data is:
시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 단계; 및Identifying, to the viewing user, users of the online system included in the connected online system through the online system; And
시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 정보를 검색하는 단계를 포함할 수 있다.And retrieving, through the online system, information identifying users of the online system included in the connected online system to the viewing user.
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:The step of retrieving information identifying one or more users of the online system included in the video data is:
시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 단계; 및Identifying, to the viewing user, users of the online system included in the connected online system through the online system; And
시청중인 사용자에게, 온라인 시스템을 통해, 접속되지 않은 비디오 데이터에 포함된 사용자들로부터, 시청중인 사용자에게, 온라인 시스템을 통해, 접속된 비디오 데이터에 포함된 사용자들을 시각적으로 구별하는 비디오 데이터에 포함된 온라인 시스템의 사용자들을 식별하는 정보를 생성하는 단계를 포함할 수 있다.Included in video data that visually discriminates users included in the connected video data, to users being viewed, from users included in unconnected video data, through the online system, and to viewers. And generating information identifying users of the online system.
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:The step of retrieving information identifying one or more users of the online system included in the video data is:
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도를 결정하는 단계; 및 Determining the intimacy of the user being viewed for each user of the online system included in the video data; And
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함할 수 있다.And generating information identifying each user of the online system included in the video data, based on the intimacy of the user being watched for each user of the online system included in the video data.
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계는: Based on the familiarity of the user being viewed for each user of the online system included in the video data, the step of generating information identifying each user of the online system included in the video data is:
시청중인 사용자가 적어도 문턱값 친밀도를 가지는, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함할 수 있다.And generating information identifying each user of the online system included in the video data, wherein the viewing user has at least a threshold intimacy.
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계는:Generating information that identifies each user of the online system included in the video data based on the intimacy of the user being watched for each user of the online system included in the video data includes:
비디오 데이터에 포함된 온라인 시스템의 사용자들에 대한 시청중인 사용자의 친밀도들에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 사용자들을 순위정하는 단계;Ranking users of the online system included in the video data, based on intimacies of the user being watched for users of the online system included in the video data;
순위정하는 단계에서 적어도 문턱값 위치를 가지는 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함할 수 있다.The ranking step may include generating information identifying each user of the online system included in the video data having at least a threshold position.
본 발명에 따른 실시예에서, 컴퓨터-수행된 방법은: In an embodiment according to the invention, the computer-implemented method comprises:
부가적인 클라이언트 장치로부터 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하도록 온라인 시스템에서 지시를 수신하는 단계;Receiving instructions from the online system to modify video data captured by the image capture device of the client device from the additional client device;
지시를 클라이언트 장치에 전송하는 단계;Sending an instruction to the client device;
지시에 기초하여 영상 캡쳐 장치에 의해 캡쳐된 클라이언트 장치로부터 부가적인 비디오 데이터를 수신하는 단계; 및Receiving additional video data from a client device captured by the image capture device based on the instruction; And
부가적인 비디오 데이터를 온라인 시스템으로부터 부가적인 클라이언트 장치로 전송하는 단계를 포함할 수 있다.And transmitting additional video data from the online system to the additional client device.
본 발명에 따른 실시예에서, 프로세서에 의해서 실행될 때 프로세서가 다음의 단계들을 수행하게 할 수 있는, 부호화된 지시들을 그위에 가지는 컴퓨터 판독가능 저장매체를 포함하는, 컴퓨터 프로그램 제품은,In an embodiment according to the present invention, a computer program product comprising a computer readable storage medium having encoded instructions thereon, which, when executed by a processor, may cause the processor to perform the following steps:
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 캡쳐된 비디오 데이터를 제공하는 단계;Providing captured video data of a local area within the field of view of the image capture device included in the client device, the video data comprising captured one or more users of an online system, providing captured video data;
클라이언트에 의해 유지된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터의 특성들에 적용하는 단계;Applying one or more models maintained by the client to the characteristics of the captured video data;
캡쳐된 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 위치시키는 단계;Locating one or more users of the online system included in the captured video data;
비디오 데이터를 온라인 시스템에 전송하는 단계;Transmitting video data to the online system;
캡쳐된 비디오 데이터 내의 관심 사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계;Receiving information from an online system that identifies a user of interest in the captured video data;
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계; 및One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. Modifying them; And
수정된 하나 또는 그 이상의 파라미터들을 이용하여 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 온라인 시스템에 전송하는 단계를 수행하게 할 수 있는, 컴퓨터 프로그램 제품이다.It is a computer program product capable of performing a step of transmitting subsequently captured video data by an image capture device to an online system using one or more modified parameters.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:
관심 사용자를 포함하지 않는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 하나 또는 그 이상의 일부분들을 제거하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다. And modifying the video data subsequently captured by the video capture device to remove one or more portions of the video data subsequently captured by the video capture device that does not include a user of interest.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는: One or more parameters of the video capture device to modify video data subsequently captured by the video capture device to crop or zoom portions of the video data that include the user of interest to more significantly include the user of interest. The steps to fix them are:
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계; 및Identifying a user of interest in the video data captured by the image capture device; And
영상 캡쳐 장치의 초점을 관심 사용자에게 재위치시키는 단계를 포함할 수 있다.And repositioning the focus of the image capture device to the user of interest.
본 발명에 따른 실시예에서, 하나 또는 그 이상의 컴퓨터-판독가능 비일시적 저장매체는 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하도록 실행될 때 작동가능한 소프트웨어를 포함할 수 있다.In an embodiment according to the present invention, one or more computer-readable non-transitory storage media are capable of operating software that is operable when executed to perform the method according to the present invention or any of the above-mentioned embodiments. It can contain.
본 발명에 따른 실시예에서, 시스템은:In an embodiment according to the invention, the system comprises:
하나 또는 그 이상의 프로세서들과, 프로세서들에 의해 실행가능한 지시들을 포함하고 프로세서들에 연결된 적어도 하나의 메모리를 포함하고, 프로세서들은 상기에 언급된 실시예들중 임의의 실시예 또는 본 발명에 따른 방법을 수행하기 위한 지시들을 실행할 때 작동가능한 프로세서들이다.One or more processors and at least one memory comprising instructions executable by the processors and coupled to the processors, the processors being any of the above-mentioned embodiments or a method according to the invention These are the processors that are operable when executing the instructions to perform.
본 발명에 따른 실시예에서, 바람직하게는 컴퓨터 판독가능 비일시적 저장매체를 포함하는 컴퓨터 프로그램 제품은, 본 발명에 따른 또는 상기에 언급된 실시예들 중 임의의 실시예에 따른 방법을 수행하기 위해 데이터 프로세싱 시스템 상에서 실행될 때 작동가능할 수 있다In an embodiment according to the present invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, for carrying out the method according to the present invention or according to any of the above-mentioned embodiments May be operable when executed on a data processing system
본 발명에 따른 실시예에서, 특히 컴퓨터 수행된 방법은: In an embodiment according to the invention, in particular a computer-implemented method comprises:
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 특성들에 기초하여, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에, 온라인 시스템의 사용자의 몸의 어느 일부분이 위치되는지를 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;Maintaining one or more models at the client device, each model being online, in video data captured by the video capture device of the client device, based on characteristics of the video data captured by the video capture device. Maintaining one or more models, applying one or more rules to determine which part of the user's body of the system is located;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;Providing captured video data of a local area within a field of view of the image capture device included in the client device;
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계;Locating a user included in the captured video data;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계;Applying one or more maintained models to the captured video data;
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계; 및Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user, based on the application of the one or more models; And
수정된 비디오 데이터를 온라인 시스템에 전송하는 단계를 포함할 수 있다.And transmitting the modified video data to the online system.
하나 또는 그 이상의 모델들의 적용에 기초하여 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user based on the application of the one or more models:
사용자의 몸의 관절들을 식별하는 단계; 및Identifying joints of the user's body; And
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들에 기초하여, 사용자의 몸의 상이한 일부분들에 대응되는 관절들을 포함하도록 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data captured by the image capture device to include joints corresponding to different parts of the user's body, based on one or more rules included in the one or more models. have.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들의 적용에 기초하여, 사용자의 머리, 사용자의 몸통, 사용자의 전체 몸, 및 그것들의 임의의 조합으로 구성되는 그룹으로부터 선택된 하나 또는 그 이상을 포함하기 위해 비디오 데이터를 수정하는 단계를 포함할 수 있다.Based on the application of one or more rules included in one or more models, one or more selected from the group consisting of the user's head, the user's torso, the user's entire body, and any combination thereof. And modifying the video data to include.
하나 또는 그 이상의 규칙들은, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에서의 사용자의 움직임, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상에 기초할 수 있다.The one or more rules are one selected from the group consisting of the content of the video data previously captured by the video capture device, the user's movement in the video data previously captured by the video capture device, and any combination thereof. Or more.
하나 또는 그 이상의 모델들의 적용에 기초하여 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user based on the application of the one or more models:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서의 객체를 향해 사용자가 몸짓(gesturing)을 하고 있다고 결정하는 단계; 및 Determining that the user is gesturing towards an object in the local area from application of one or more models; And
영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 사용자가 몸짓을 하고 있는 방향의 객체와 사용자를 포함하도록, 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함할 수 있다.And reducing the magnification of the image capture device such that additional video data captured by the image capture device includes objects and users in a direction in which the user is gesturing.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 사용자가 객체를 잡고 있다고 결정하는 단계; 및Determining from the application of one or more models that the user is holding the object in the local area; And
객체에 대한 영상 캡쳐 장치의 초점을 변경하고 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함할 수 있다.The method may include changing the focus of the image capture device on the object and increasing the magnification of the image capture device.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 시야에 영향을 주는 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함할 수 있다.And modifying one or more parameters of the image capture device that affect the field of view of the image capture device, based on the application of one or more models.
영상 캡쳐 장치의 파라미터는 영상 캡쳐 장치의 확대를 포함할 수 있다.The parameters of the image capture device may include enlargement of the image capture device.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
식별된 사용자를 포함하는 캡쳐된 비디오 데이터 일부분의 확대를 수정하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data captured by the image capture device to correct an enlargement of a portion of the captured video data that includes the identified user.
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계는:Steps to locate the user included in the captured video data are:
사용자를 식별하는 온라인 시스템으로부터 정보를 수신하는 단계; 및Receiving information from an online system that identifies the user; And
수신된 정보에 기초하여, 식별된 사용자를 포함하는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 일부분들을 식별하는 단계를 포함할 수 있다.And based on the received information, identifying portions of video data captured by the image capture device including the identified user.
본 발명에 따른 실시예에서, 프로세서에 의해 실행될 때 프로세서가 다음의 단계들을 수행하게 할 수 있는 부호화된 지시들을 그위에 가지는 컴퓨터 판독가능 저장매체를 포함하는, 컴퓨터 프로그램 제품은:In an embodiment according to the present invention, a computer program product comprising a computer readable storage medium thereon having coded instructions that, when executed by a processor, may cause the processor to perform the following steps:
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 특성들에 기초하여, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에, 사용자의 몸의 어느 일부분이 위치되는지를 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;Maintaining one or more models at the client device, each model based on characteristics of the video data captured by the video capture device, to video data captured by the video capture device of the client device, the user Maintaining one or more models, applying one or more rules to determine which part of the body of the body is located;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;Providing captured video data of a local area within a field of view of the image capture device included in the client device;
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계;Locating a user included in the captured video data;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계; 및Applying one or more maintained models to the captured video data; And
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계; 및Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user, based on the application of the one or more models; And
수정된 비디오 데이터를 온라인 시스템에 전송하는 단계를 수행하게 할 수 있는, 컴퓨터 프로그램 제품이다.It is a computer program product that allows the user to perform the steps of transferring modified video data to an online system.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
사용자의 몸의 관절들을 식별하는 단계; 및Identifying joints of the user's body; And
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들에 기초하여, 사용자의 몸의 상이한 일부분들에 대응되는 관절들을 포함하도록 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data captured by the image capture device to include joints corresponding to different parts of the user's body, based on one or more rules included in the one or more models. have.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들의 적용에 기초하여, 사용자의 머리, 사용자의 몸통, 사용자의 전체 몸, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상을 포함하도록 비디오 데이터를 수정하는 단계를 포함할 수 있다.Based on the application of one or more rules included in one or more models, includes one or more selected from the group consisting of the user's head, the user's torso, the user's entire body, and any combination thereof. It may include the step of modifying the video data.
하나 또는 그 이상의 규칙들은, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에서의 사용자의 움직임, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상에 기초할 수 있다.The one or more rules are one selected from the group consisting of the content of the video data previously captured by the video capture device, the user's movement in the video data previously captured by the video capture device, and any combination thereof. Or more.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 객체를 향해 사용자가 몸짓을 하고 있다고 결정하는 단계; 및Determining from the application of one or more models that the user is gesturing towards the object in the local area; And
사용자가 몸짓을 하고 있는 방향의 객체와 사용자를 영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 포함하도록 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함할 수 있다.And reducing an enlargement of the image capturing device such that the object in the direction in which the user is gesturing and the additional video data captured by the image capturing device are included.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 사용자가 객체를 잡고 있다고 결정하는 단계; 및Determining from the application of one or more models that the user is holding the object in the local area; And
객체에 대한 영상 캡쳐 장치의 초점을 변경하고, 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함할 수 있다.The method may include changing the focus of the image capture device on the object and increasing the magnification of the image capture device.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 시야에 영향을 주는 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함할 수 있다.And modifying one or more parameters of the image capture device that affect the field of view of the image capture device, based on the application of one or more models.
영상 캡쳐 장치의 파라미터는 영상 캡쳐 장치의 확대를 포함할 수 있다.The parameters of the image capture device may include enlargement of the image capture device.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
사용자를 포함하는 캡쳐된 비디오 데이터의 일부분의 확대를 수정하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the video data captured by the image capture device to correct an enlargement of a portion of the captured video data including the user.
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계는:Steps to locate the user included in the captured video data are:
사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계; 및Receiving information identifying the user from the online system; And
수신된 정보에 기초하여, 식별된 사용자를 포함하는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 일부분들을 식별하는 단계를 포함할 수 있다.And based on the received information, identifying portions of video data captured by the image capture device including the identified user.
본 발명에 따른 실시예에서, 하나 또는 그 이상의 컴퓨터 판독가능 비일시적 저장매체는 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하도록 실행될 때 작동가능한 소프트웨어를 포함할 수 있다.In embodiments according to the present invention, one or more computer-readable non-transitory storage media include software operable when executed to perform the method according to the present invention or any of the above-mentioned embodiments. can do.
본 발명에 따른 실시예에서, 시스템은: 하나 또는 그 이상의 프로세서들; 및 프로세서들에 의해 실행가능한 지시들을 포함하고 프로세서들에 연결된 적어도 하나의 메모리를 포함할 수 있고, 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하기 위해 지시들을 실행할 때, 프로세서들은 작동가능하다.In an embodiment according to the invention, the system comprises: one or more processors; And instructions executable by the processors and including at least one memory coupled to the processors, the instructions for performing the method according to the present invention or any of the embodiments mentioned above. When running them, the processors are operational.
본 발명에 따른 실시예에서, 바람직하게는 컴퓨터-판독가능 비일시적 저장매체를 포함하는 컴퓨터 프로그램 제품은, 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하기 위해 데이터 프로세싱 시스템상에서 실행될 때 작동가능할 수 있다.In an embodiment according to the present invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs a method according to the present invention or according to any of the above-mentioned embodiments It can be operable when executed on a data processing system.
본 발명에 따른 실시예에서, 특히 컴퓨터 수행된 방법은: In an embodiment according to the invention, in particular a computer-implemented method comprises:
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 사용자들을 위치시키기 위해 하나 또는 그 이상의 규칙들을 적용하고, 캡쳐된 비디오 데이터에서 보여줄 하나 또는 그 이상의 위치된 사용자들을 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;Maintaining one or more models at the client device, each model applying one or more rules to locate users in the video data captured by the video capture device of the client device, and captured video data Maintaining one or more models, applying one or more rules to determine one or more located users to show in;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 비디오 데이터를 캡쳐하는 단계;Capturing video data of a local area within a field of view of the image capture device included in the client device;
캡쳐된 비디오 데이타에서 복수의 사용자들을 위치시키는 단계;Locating a plurality of users in the captured video data;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계; 및Applying one or more maintained models to the captured video data; And
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계; 및Modifying the captured video data to show one or more located users based on the application of one or more maintained models; And
수정된 비디오 데이터를 클라이언트 장치로부터 온라인 시스템으로 전송하는 단계를 포함할 수 있다.And transmitting the modified video data from the client device to the online system.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계; 및Modifying one or more parameters of the image capture device based on application of the one or more maintained models; And
영상 캡쳐 장치의 수정된 하나 또는 그 이상의 파라미터들을 이용하여 국지 영역의 부가적인 비디오 데이터를 캡쳐하는 단계를 포함할 수 있다.And capturing additional video data of the local area using the modified one or more parameters of the image capture device.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자들의 시선들이 향해지는, 캡쳐된 비디오 데이터 내의 위치들을 결정하는 단계; 및Determining from the application of one or more maintained models, locations in the captured video data to which the eyes of the located users are directed; And
적어도 문턱값 양의 위치된 사용자들의 시선들이 향해지는, 위치된 사용자 사람에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And correcting the focus of the image capture device with respect to the positioned user person, at least a threshold amount of the positioned users' gazes are directed.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
캡쳐된 비디오 데이터 내에 위치된 상이한 사용자들 간의 거리들을 결정하는 단계; 및Determining distances between different users located in the captured video data; And
부가적인 캡쳐된 비디오 데이터가 서로의 문턱값 거리 내의 사용자들을 포함하도록, 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And modifying the focus of the image capture device so that the additional captured video data includes users within a threshold distance from each other.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
클라이언트 장치에 포함된 오디오 캡쳐 장치를 통해 오디오 데이터를 캡쳐하는 단계;Capturing audio data through an audio capture device included in the client device;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 오디오 데이터와 캡쳐된 비디오 데이터에 적용함으로써 국지 영역 내의 오디오 데이터의 소스를 결정하는 단계;Determining a source of audio data in the local area by applying one or more maintained models to the captured audio data and the captured video data;
국지 영역 내의 오디오 데이터의 소스가 사용자라고 결정하는 단계; 및Determining that the source of the audio data in the local area is a user; And
국지 영역 내의 오디오 데이터의 소스가 사용자라고 결정하는 단계에 응답하여, 오디오 데이터의 소스에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And in response to determining that the source of the audio data in the local area is a user, modifying the focus of the image capture device with respect to the source of the audio data.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계; 및Identifying, from the application of one or more maintained models, the movement of the located user; And
위치된 사용자의 식별된 움직임에 기초하여, 영상 캡쳐 장치의 시야를 수정하는 단계를 포함할 수 있다.And modifying the field of view of the image capture device based on the identified movement of the located user.
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계는:From the application of one or more maintained models, the step of identifying the movement of the located user is:
국지 영역에 포함된 객체를 향해 위치된 사용자가 몸짓을 하고 있다고 식별하는 단계를 포함할 수 있다And identifying that the user located toward the object included in the local area is gesturing.
영상 캡쳐 장치의 시야를 수정하는 단계는:The steps to modify the field of view of the video capture device are:
영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 위치된 사용자와 위치된 사용자가 몸짓을 하고 있는 방향의 객체를 포함하도록 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함할 수 있다.And reducing the enlargement of the image capture device to include the user in which the additional video data captured by the image capture device is located and the object in which the located user is gesturing.
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계는:From the application of one or more maintained models, the step of identifying the movement of the located user is:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자가 국지 영역에서 객체를 잡고 있다고 결정하는 단계를 포함할 수 있다.And, from the application of one or more maintained models, determining that the located user is holding the object in the local area.
영상 캡쳐 장치의 시야를 수정하는 단계는:The steps to modify the field of view of the video capture device are:
객체에 대한 영상 캡쳐 장치의 초점을 변경하고 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함할 수 있다.The method may include changing the focus of the image capture device on the object and increasing the magnification of the image capture device.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
각각의 위치된 사용자가 적어도 문턱값 양의 시간동안 적어도 문턱값 세트의 차원들로, 캡쳐된 비디오 데이터 내에 제시되도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the captured video data such that each positioned user is presented within the captured video data, at least in the dimensions of the threshold set, for at least a threshold amount of time.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
각각의 위치된 사용자가 적어도 문턱값 양의 시간동안, 캡쳐된 비디오 데이터 내에 제시되도록, 캡쳐된 비디오를 수정하는 단계를 포함할 수 있다.And modifying the captured video such that each positioned user is presented within the captured video data, at least for a threshold amount of time.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 캡쳐된 비디오 데이터 내의 사용자의 얼굴을 식별하는 단계; Identifying a user's face in the captured video data from application of one or more maintained models;
사용자의 얼굴을 포함하지 않는, 캡쳐된 비디오 데이터의 일부분들을 제거하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the captured video data to remove portions of the captured video data that do not include the user's face.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
위치된 사용자들의 각각을 포함하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다.And modifying the captured video data to include each of the located users.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
하나 또는 그 이상의 유지된 모델들의 적용에 의해, 캡쳐된 비디오 데이터를 안정시키는 단계를 포함할 수 있다. Stabilizing the captured video data by application of one or more maintained models.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
캡쳐된 비디오 데이터 내의 위치된 사용자를, 캡쳐된 비디오 데이터에 의해 적어도 문턱값 세트의 차원들로 이전에 제시되었던 캡쳐된 비디오 데이터에 포함된 사용자들을 서술하는 저장된 데이터와 비교하는 단계; 및Comparing the located user in the captured video data to stored data describing users included in the captured video data previously presented by the captured video data in dimensions of at least a threshold set; And
캡쳐된 비디오 데이터를 수정하는 단계로서, 식별된 사용자가, 캡쳐된 비디오 데이터에 의해 적어도 문턱값 세트의 차원들로 이전에 있었던, 캡쳐된 비디오 데이터에 포함된 사용자에 매칭되지 않는다고 결정하는 비교에 응답하여, 위치된 사람을 더 현저하게 제시하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함할 수 있다. Modifying the captured video data, in response to a comparison determining that the identified user does not match the user included in the captured video data, which was previously at least by the dimensions of the threshold set by the captured video data. Thus, it may include modifying the captured video data to present the positioned person more prominently.
본 발명에 따른 실시예에서, 프로세서에 의해서 실행될 때, 프로세서가 다음의 단계들을 수행하게 할 수 있는, 부호화된 지시들을 그 위에 가지는 컴퓨터 판독가능 저장매체를 포함하는 컴퓨터 프로그램 제품은,In an embodiment according to the present invention, a computer program product comprising a computer readable storage medium having encoded instructions thereon, which, when executed by a processor, may cause the processor to perform the following steps,
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 사용자들을 위치시키기 위해 하나 또는 그 이상의 규칙들을 적용하고, 비디오 데이터의 특성들로부터, 캡쳐된 비디오 데이터에서 보여줄 하나 또는 그 이상의 위치된 사용자들을 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;Maintaining one or more models at the client device, each model applying one or more rules to locate users in the video data captured by the video capture device of the client device, and the characteristics of the video data. Maintaining, from one or more models, applying one or more rules to determine one or more located users to show in the captured video data;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 비디오 데이터를 캡쳐하는 단계;Capturing video data of a local area within a field of view of the image capture device included in the client device;
캡쳐된 비디오 데이터에서 복수의 사용자들을 위치시키는 단계;Locating a plurality of users in the captured video data;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오에 적용하는 단계; 및Applying one or more maintained models to the captured video; And
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계; 및Modifying the captured video data to show one or more located users based on the application of one or more maintained models; And
수정된 비디오 데이터를 클라이언트 장치로부터 온라인 시스템으로 전송하는 단계를 수행하게 할 수 있는, 컴퓨터 프로그램 제품이다.It is a computer program product capable of performing the steps of transferring modified video data from a client device to an online system.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자들의 시선들이 향해지는, 캡쳐된 비디오 데이터 내의 위치들을 결정하는 단계;Determining from the application of one or more maintained models, locations in the captured video data to which the eyes of the located users are directed;
적어도 문턱값 양의 식별된 사람들의 시선들이 향해지는, 위치된 사람에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And correcting the focus of the image capture device for the located person, at least a threshold amount of the identified people's gazes are directed.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
캡쳐된 비디오 데이터 내에 위치된 상이한 사용자들 간의 거리들을 결정하는 단계; 및Determining distances between different users located in the captured video data; And
부가적인 캡쳐된 비디오 데이터가 서로의 문턱값 거리 내의 사람들을 포함하도록, 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And modifying the focus of the image capture device so that the additional captured video data includes people within a threshold distance from each other.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는: Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
클라이언트 장치에 포함된 오디오 캡쳐 장치를 통해 오디오 데이터를 캡쳐하는 단계;Capturing audio data through an audio capture device included in the client device;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 오디오 데이터와 캡쳐된 비디오 데이터에 적용함으로써 국지 영역 내의 오디오 데이터의 소스를 결정하는 단계; Determining a source of audio data in the local area by applying one or more maintained models to the captured audio data and the captured video data;
국지 영역 내의 오디오 데이터의 소스가 위치된 사용자라고 결정하는 단계; 및Determining that a source of audio data in the local area is a located user; And
국지 영역 내의 오디오 데이터의 소스가 위치된 사용자라고 결정하는 단계에 응답하여, 오디오 데이터의 소스에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함할 수 있다.And in response to determining that the source of the audio data in the local area is a user located, modifying the focus of the image capture device with respect to the source of the audio data.
본 발명에 따른 실시예에서, 하나 또는 그 이상의 컴퓨터-판독가능 비일시적 저장매체는 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하기 위해 실행될때 작동가능한 소프트웨어를 포함할 수 있다.In an embodiment according to the invention, one or more computer-readable non-transitory storage media are software operable when executed to carry out the method according to the invention or any of the above-mentioned embodiments It may include.
본 발명에 따른 실시예에서, 시스템은: 하나 또는 그 이상의 프로세서들; 및 프로세서들에 연결되고, 프로세서들에 의해 실행가능한 지시들을 포함하는, 적어도 하나의 메모리를 포함할 수 있고, 프로세서들은 상기에 언급된 실시예들중 임의의 실시예에 따른 또는 본 발명에 따른 방법을 수행하기 위해 지시들을 실행할 때 작동가능하다.In an embodiment according to the invention, the system comprises: one or more processors; And at least one memory coupled to the processors and including instructions executable by the processors, the processors according to any of the above-mentioned embodiments or a method according to the invention It is operable when executing instructions to carry out.
본 발명에 따른 실시예에서, 바람직하게는 컴퓨터-판독가능 비일시적 저장매체를 포함하는 컴퓨터 프로그램 제품은, 본 발명에 따른 또는 상기에 언급된 실시예들중 임의의 실시예에 따른 방법을 수행하기 위해 데이터 프로세싱 시스템 상에서 실행될 때 작동가능할 수 있다.In an embodiment according to the present invention, a computer program product, preferably comprising a computer-readable non-transitory storage medium, performs a method according to the present invention or according to any of the above-mentioned embodiments It may be operable when executed on a data processing system.
Claims (60)
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 캡쳐된 비디오 데이터를 제공하는 단계;
클라이언트에 의해 유지된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터의 특성들에 적용하는 단계;
캡쳐된 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 위치시키는 단계;
비디오 데이터를 온라인 시스템에 전송하는 단계;
캡쳐된 비디오 데이터 내의 관심 사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계 : 및
수정된 하나 또는 그 이상의 파라미터들을 이용하여 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 온라인 시스템에 전송하는 단계를 포함하는, 컴퓨터-수행된 방법.As a computer-implemented method:
Providing captured video data of a local area within the field of view of the image capture device included in the client device, the video data comprising one or more users of the online system, providing captured video data;
Applying one or more models maintained by the client to the characteristics of the captured video data;
Locating one or more users of the online system included in the captured video data;
Transmitting video data to the online system;
Receiving information from an online system that identifies a user of interest in the captured video data.
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. Steps to fix them: and
And transmitting the subsequently captured video data by the image capture device to the online system using the modified one or more parameters.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
관심 사용자를 포함하는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 일부분의 확대를 증가시키는 단계를 포함하는, 컴퓨터-수행된 방법.According to claim 1,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
And increasing the magnification of a portion of the video data subsequently captured by the image capture device comprising the user of interest.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
관심 사용자를 포함하지 않는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 하나 또는 그 이상의 일부분들을 제거하도록 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 1 or 2,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
Computer-implemented, comprising modifying the video data subsequently captured by the video capture device to remove one or more portions of the video data subsequently captured by the video capture device that does not include a user of interest. Way.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계; 및
영상 캡쳐 장치의 초점을 관심 사용자에게 재위치시키는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 1 to 3,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
Identifying a user of interest in the video data captured by the image capture device; And
And repositioning the focus of the image capture device to the user of interest.
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계는:
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하도록 하나 또는 그 이상의 얼굴 인식 모델들을 적용하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 4,
The steps of identifying a user of interest in the video data captured by the image capture device are:
And applying one or more facial recognition models to identify a user of interest in the video data captured by the image capture device.
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계는:
관심 사용자를 포함하는 캡쳐된 비디오 데이터의 일부분으로부터 컬러 맵을 추출하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 4,
The steps of identifying a user of interest in the video data captured by the image capture device are:
And extracting a color map from a portion of the captured video data that includes the user of interest.
영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터를 수정하도록 온라인 시스템으로부터 지시를 수신하는 단계; 및
수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 더 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 1 to 6,
Receiving an instruction from an online system to modify additional video data captured by the image capture device; And
And modifying one or more parameters of the image capture device in response to the received instruction.
수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
영상 캡쳐 장치의 시야 내에서 관심 사용자가 움직임에 따라, 영상 캡쳐 장치를 재위치시키는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 7,
Modifying one or more parameters of the image capture device in response to the received instruction is:
And repositioning the image capture device as a user of interest moves within the field of view of the image capture device.
수신된 지시에 응답하여 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
영상 캡쳐 장치의 시야 내에서 관심 사용자가 움직임에 따라, 영상 캡쳐 장치를 재위치시키는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 7,
Modifying one or more parameters of the image capture device in response to the received instruction is:
And repositioning the image capture device as a user of interest moves within the field of view of the image capture device.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
관심 사용자의 움직임을 식별하는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터에 하나 또는 그 이상의 모델들을 적용하는 단계; 및
관심 사용자의 식별된 움직임에 기초하여 영상 캡쳐 장치의 시야를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 1 to 9,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
Applying one or more models to video data subsequently captured by an image capture device that identifies the movement of the user of interest; And
And modifying the field of view of the image capture device based on the identified movement of the user of interest.
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 비디오 데이터를 온라인 시스템에서 수신하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 비디오 데이터를 온라인 시스템에서 수신하는 단계;
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계;
온라인 시스템의 시청중인 사용자를 식별하는 단계;
시청중인 사용자와 연관된 부가적인 클라이언트 장치에, 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보와 비디오 데이터를 전송하는 단계;
부가적인 클라이언트 장치로부터 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들의 관심 사용자를 식별하는 정보를 수신하는 단계;
관심 사용자를 식별하는 정보를 클라이언트 장치에 전송하는 단계;
클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터를 수신하는 단계로서, 부가적인 비디오 데이터는 관심 사용자를 더 현저하게 디스플레이하기 위해 크로핑되거나 또는 주밍된 관심 사용자를 포함하는 일부분을 포함하는 부가적인 비디오 데이터를 수신하는 단계; 및
부가적인 비디오 데이터를 부가적인 클라이언트 장치에 전송하는 단계를 포함하는, 컴퓨터-수행된 방법.As a computer-implemented method:
Receiving, in an online system, video data of a local area within the field of view of the image capture device included in the client device, the video data comprising one or more users of the online system, receiving video data in the online system;
Retrieving information identifying one or more users of the online system included in the video data;
Identifying a viewing user of the online system;
Transmitting video data and information identifying one or more users of the online system included in the video data to an additional client device associated with the viewing user;
Receiving information identifying an interested user of one or more users of the online system included in the video data from the additional client device;
Transmitting information identifying the user of interest to the client device;
Receiving additional video data captured by the image capture device of the client device, wherein the additional video data includes a portion comprising a cropped or zoomed interested user to more prominently display the interested user. Receiving basic video data; And
And sending the additional video data to an additional client device.
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:
시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 단계; 및
시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 정보를 검색하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 11,
Searching for information identifying one or more users of the online system included in the video data includes:
Identifying, to a viewing user, users of the online system included in the connected online system through the online system; And
And retrieving to the viewing user, through the online system, information identifying users of the online system included in the connected online system.
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:
시청중인 사용자에게, 온라인 시스템을 통해, 접속된 온라인 시스템에 포함된 온라인 시스템의 사용자들을 식별하는 단계; 및
시청중인 사용자에게, 온라인 시스템을 통해, 접속되지 않은 비디오 데이터에 포함된 사용자들로부터, 시청중인 사용자에게, 온라인 시스템을 통해, 접속된 비디오 데이터에 포함된 사용자들을 시각적으로 구별하는 비디오 데이터에 포함된 온라인 시스템의 사용자들을 식별하는 정보를 생성하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 11 or 12,
Searching for information identifying one or more users of the online system included in the video data includes:
Identifying, to a viewing user, users of the online system included in the connected online system through the online system; And
Included in video data that visually discriminates users included in the connected video data, from the users included in unconnected video data, to the viewing user, through the online system, to the viewing users, through the online system And generating information identifying users of the online system.
비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 식별하는 정보를 검색하는 단계는:
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도를 결정하는 단계; 및
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 11 to 13,
Searching for information identifying one or more users of the online system included in the video data includes:
Determining the intimacy of the user being viewed for each user of the online system included in the video data; And
And generating information identifying each user of the online system included in the video data, based on the intimacy of the user being watched for each user of the online system included in the video data. .
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계는:
시청중인 사용자가 적어도 문턱값 친밀도를 가지는, 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 14,
Based on the familiarity of the user being watched for each user of the online system included in the video data, the step of generating information identifying each user of the online system included in the video data is:
And generating information identifying each user of the online system included in the video data, wherein the viewing user has at least a threshold intimacy.
비디오 데이터에 포함된 온라인 시스템의 각각의 사용자에 대한 시청중인 사용자의 친밀도에 기초하여 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계는:
비디오 데이터에 포함된 온라인 시스템의 사용자들에 대한 시청중인 사용자의 친밀도들에 기초하여, 비디오 데이터에 포함된 온라인 시스템의 사용자들을 순위정하는 단계;
순위정하는 단계에서 적어도 문턱값 위치를 가지는 비디오 데이터에 포함된 온라인 시스템의 각각의 사용자를 식별하는 정보를 생성하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 14,
Generating information that identifies each user of the online system included in the video data based on the intimacy of the user being watched for each user of the online system included in the video data includes:
Ranking users of the online system included in the video data, based on intimacies of the user being viewed with respect to users of the online system included in the video data;
And in the ranking step, generating information identifying each user of the online system included in the video data having at least a threshold location.
부가적인 클라이언트 장치로부터 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하도록 온라인 시스템에서 지시를 수신하는 단계;
지시를 클라이언트 장치에 전송하는 단계;
지시에 기초하여 영상 캡쳐 장치에 의해 캡쳐된 클라이언트 장치로부터 부가적인 비디오 데이터를 수신하는 단계; 및
부가적인 비디오 데이터를 온라인 시스템으로부터 부가적인 클라이언트 장치로 전송하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 11 to 16,
Receiving instructions from the online system to modify video data captured by the image capture device of the client device from the additional client device;
Sending an instruction to the client device;
Receiving additional video data from a client device captured by the image capture device based on the instruction; And
And transmitting additional video data from the online system to the additional client device.
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계로서, 비디오 데이터는 온라인 시스템의 하나 또는 그 이상의 사용자들을 포함하는, 캡쳐된 비디오 데이터를 제공하는 단계;
클라이언트에 의해 유지된 하나 또는 그 이상의 모델들을 캡쳐된 비디오 데이터의 특성들에 적용하는 단계;
캡쳐된 비디오 데이터에 포함된 온라인 시스템의 하나 또는 그 이상의 사용자들을 위치시키는 단계;
비디오 데이터를 온라인 시스템에 전송하는 단계;
캡쳐된 비디오 데이터 내의 관심 사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계;
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계; 및
수정된 하나 또는 그 이상의 파라미터들을 이용하여 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 온라인 시스템에 전송하는 단계를 프로세서가 수행하게 하는, 컴퓨터 프로그램 제품.A computer program product comprising a computer readable storage medium having coded instructions thereon that, when executed by a processor, causes the processor to perform the following steps:
Providing captured video data of a local area within the field of view of the image capture device included in the client device, the video data comprising captured one or more users of an online system, providing captured video data;
Applying one or more models maintained by the client to the characteristics of the captured video data;
Locating one or more users of the online system included in the captured video data;
Transmitting video data to the online system;
Receiving information from an online system that identifies a user of interest in the captured video data;
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. Modifying them; And
A computer program product that causes a processor to perform the step of transmitting the video data subsequently captured by the image capture device to the online system using the modified one or more parameters.
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
관심 사용자를 포함하지 않는 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터의 하나 또는 그 이상의 일부분들을 제거하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.The method of claim 18,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
And modifying the video data subsequently captured by the video capture device to remove one or more portions of video data subsequently captured by the video capture device that does not include the user of interest. .
관심 사용자를 더 현저하게 포함하기 위해서 관심 사용자를 포함하는 비디오 데이터의 일부분들을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 후속하여 캡쳐된 비디오 데이터를 수정하도록 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계는:
영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 관심 사용자를 식별하는 단계; 및
영상 캡쳐 장치의 초점을 관심 사용자에게 재위치시키는 단계를 포함하는, 컴퓨터 프로그램 제품.The method of claim 18 or 19,
One or more parameters of the video capture device to modify the video data subsequently captured by the video capture device to crop or zoom portions of the video data containing the user of interest to more significantly include the user of interest. The steps to fix them are:
Identifying a user of interest in the video data captured by the image capture device; And
And repositioning the focus of the image capture device to the user of interest.
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 특성들에 기초하여, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에, 온라인 시스템의 사용자의 몸의 어느 일부분이 위치되는지를 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계;
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.As a computer-implemented method:
Maintaining one or more models at the client device, each model being online, in video data captured by the video capture device of the client device, based on characteristics of the video data captured by the video capture device. Maintaining one or more models, applying one or more rules to determine which part of the user's body of the system is located;
Providing captured video data of a local area within a field of view of the image capture device included in the client device;
Locating a user included in the captured video data;
Applying one or more maintained models to the captured video data;
Based on the application of the one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user. , Computer-implemented method.
하나 또는 그 이상의 모델들의 적용에 기초하여 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
사용자의 몸의 관절들을 식별하는 단계; 및
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들에 기초하여, 사용자의 몸의 상이한 일부분들에 대응되는 관절들을 포함하도록 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 21,
Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user based on the application of the one or more models:
Identifying joints of the user's body; And
Based on one or more rules included in the one or more models, modifying the video data captured by the image capture device to include joints corresponding to different parts of the user's body, Computer-implemented method.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들의 적용에 기초하여, 사용자의 머리, 사용자의 몸통, 사용자의 전체 몸, 및 그것들의 임의의 조합으로 구성되는 그룹으로부터 선택된 하나 또는 그 이상을 포함하기 위해 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 21 or 22,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Based on the application of one or more rules included in one or more models, one or more selected from the group consisting of the user's head, the user's torso, the user's entire body, and any combination thereof. A computer-implemented method comprising modifying video data to include.
하나 또는 그 이상의 규칙들은, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에서의 사용자의 움직임, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상에 기초하는, 컴퓨터-수행된 방법.The method according to any one of claims 21 to 23,
The one or more rules are one selected from the group consisting of the content of the video data previously captured by the video capture device, the user's movement in the video data previously captured by the video capture device, and any combination thereof. Or more, a computer-implemented method.
하나 또는 그 이상의 모델들의 적용에 기초하여 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서의 객체를 향해 사용자가 몸짓(gesturing)을 하고 있다고 결정하는 단계; 및
영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 사용자가 몸짓을 하고 있는 방향의 객체와 사용자를 포함하도록, 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 21 to 24,
Modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user based on the application of the one or more models:
Determining that the user is gesturing towards an object in the local area from application of one or more models; And
And reducing the magnification of the image capture device such that additional video data captured by the image capture device includes objects and users in a direction in which the user is gesturing.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 사용자가 객체를 잡고 있다고 결정하는 단계; 및
객체에 대한 영상 캡쳐 장치의 초점을 변경하고 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 21 to 25,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Determining from the application of one or more models that the user is holding the object in the local area; And
And changing the focus of the image capture device on the object and increasing the magnification of the image capture device.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 시야에 영향을 주는 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 21 to 26,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
And modifying one or more parameters of the image capture device that affect the field of view of the image capture device, based on the application of one or more models.
영상 캡쳐 장치의 파라미터는 영상 캡쳐 장치의 확대를 포함하는, 컴퓨터-수행된 방법.The method of claim 27,
A computer-implemented method, wherein the parameters of the image capture device include an enlargement of the image capture device.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
식별된 사용자를 포함하는 캡쳐된 비디오 데이터 일부분의 확대를 수정하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 21 to 29,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
And modifying the video data captured by the image capture device to modify the magnification of the portion of the captured video data that includes the identified user.
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계는:
사용자를 식별하는 온라인 시스템으로부터 정보를 수신하는 단계; 및
수신된 정보에 기초하여, 식별된 사용자를 포함하는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 일부분들을 식별하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 21 to 30,
Steps to locate the user included in the captured video data are:
Receiving information from an online system that identifies the user; And
And based on the received information, identifying portions of video data captured by the image capture device comprising the identified user.
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 특성들에 기초하여, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에, 사용자의 몸의 어느 일부분이 위치되는지를 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계; 및
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 수행하게 하는, 컴퓨터 프로그램 제품.A computer program product comprising a computer readable storage medium thereon having coded instructions that, when executed by a processor, cause the processor to perform the following steps:
Maintaining one or more models at the client device, each model based on characteristics of the video data captured by the video capture device, to video data captured by the video capture device of the client device, the user Maintaining one or more models, applying one or more rules to determine which part of the body of the body is located;
Providing captured video data of a local area within a field of view of the image capture device included in the client device;
Locating a user included in the captured video data;
Applying one or more maintained models to the captured video data; And
Based on the application of one or more models, performing a step of modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user To do, computer program products.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
사용자의 몸의 관절들을 식별하는 단계; 및
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들에 기초하여, 사용자의 몸의 상이한 일부분들에 대응되는 관절들을 포함하도록 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.The method of claim 31,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Identifying joints of the user's body; And
Based on one or more rules included in the one or more models, modifying the video data captured by the image capture device to include joints corresponding to different parts of the user's body, Computer program products.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들에 포함된 하나 또는 그 이상의 규칙들의 적용에 기초하여, 사용자의 머리, 사용자의 몸통, 사용자의 전체 몸, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상을 포함하도록 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.The method of claim 31 or 32,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Based on the application of one or more rules included in one or more models, includes one or more selected from the group consisting of the user's head, the user's torso, the user's entire body, and any combination thereof. A computer program product comprising the step of modifying the video data to be.
하나 또는 그 이상의 규칙들은, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터의 콘텐츠, 영상 캡쳐 장치에 의해 이전에 캡쳐된 비디오 데이터에서의 사용자의 움직임, 및 그것들의 임의의 조합으로 구성된 그룹으로부터 선택된 하나 또는 그 이상에 기초하는, 컴퓨터 프로그램 제품.The method of claim 33,
The one or more rules are one selected from the group consisting of the content of the video data previously captured by the video capture device, the user's movement in the video data previously captured by the video capture device, and any combination thereof. A computer program product based on or more.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 객체를 향해 사용자가 몸짓을 하고 있다고 결정하는 단계; 및
사용자가 몸짓을 하고 있는 방향의 객체와 사용자를 영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 포함하도록 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함하는, 컴퓨터 프로그램 제품.The method according to any one of claims 31 to 34,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Determining from the application of one or more models that the user is gesturing towards the object in the local area; And
And reducing the magnification of the image capture device such that the object in the direction in which the user is gesturing and the additional video data captured by the image capture device include the user.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용으로부터 국지 영역에서 사용자가 객체를 잡고 있다고 결정하는 단계; 및
객체에 대한 영상 캡쳐 장치의 초점을 변경하고, 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함하는, 컴퓨터 프로그램 제품.The method according to any one of claims 31 to 35,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
Determining from the application of one or more models that the user is holding the object in the local area; And
And changing the focus of the image capture device on the object and increasing the magnification of the image capture device.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 모델들의 적용에 기초하여, 영상 캡쳐 장치의 시야에 영향을 주는 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.The method according to any one of claims 31 to 36,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
And modifying one or more parameters of the image capture device that affect the field of view of the image capture device, based on the application of the one or more models.
영상 캡쳐 장치의 파라미터는 영상 캡쳐 장치의 확대를 포함하는, 컴퓨터 프로그램 제품.The method of claim 37,
A computer program product, wherein the parameters of the image capture device include an enlargement of the image capture device.
하나 또는 그 이상의 모델들의 적용에 기초하여, 사용자의 하나 또는 그 이상의 일부분들을 포함하는 비디오 데이터의 일부분을 크로핑하거나 또는 주밍하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계는:
사용자를 포함하는 캡쳐된 비디오 데이터의 일부분의 확대를 수정하기 위해 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.The method according to any one of claims 31 to 38,
Based on the application of one or more models, modifying the video data captured by the image capture device to crop or zoom a portion of the video data that includes one or more portions of the user:
And modifying the video data captured by the image capture device to modify an enlargement of a portion of the captured video data comprising the user.
캡쳐된 비디오 데이터에 포함된 사용자를 위치시키는 단계는:
사용자를 식별하는 정보를 온라인 시스템으로부터 수신하는 단계; 및
수신된 정보에 기초하여, 식별된 사용자를 포함하는 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터의 일부분들을 식별하는 단계를 포함하는, 컴퓨터 프로그램 제품.The method according to any one of claims 31 to 39,
Steps to locate the user included in the captured video data are:
Receiving information identifying the user from the online system; And
And based on the received information, identifying portions of video data captured by the image capture device comprising the identified user.
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 사용자들을 위치시키기 위해 하나 또는 그 이상의 규칙들을 적용하고, 캡쳐된 비디오 데이터에서 보여줄 하나 또는 그 이상의 위치된 사용자들을 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;
캡쳐된 비디오 데이타에서 복수의 사용자들을 위치시키는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오 데이터에 적용하는 단계; 및
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.As a computer-implemented method:
Maintaining one or more models at the client device, each model applying one or more rules to locate users in the video data captured by the video capture device of the client device, and captured video data Maintaining one or more models, applying one or more rules to determine one or more located users to show in;
Providing captured video data of a local area within a field of view of the image capture device included in the client device;
Locating a plurality of users in the captured video data;
Applying one or more maintained models to the captured video data; And
And modifying the captured video data to show one or more located users, based on the application of one or more maintained models.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 영상 캡쳐 장치의 하나 또는 그 이상의 파라미터들을 수정하는 단계; 및
영상 캡쳐 장치의 수정된 하나 또는 그 이상의 파라미터들을 이용하여 국지 영역의 부가적인 비디오 데이터를 캡쳐하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 41,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Modifying one or more parameters of the image capture device based on application of the one or more maintained models; And
And capturing additional video data of the local area using the modified one or more parameters of the image capture device.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자들의 시선들이 향해지는, 캡쳐된 비디오 데이터 내의 위치들을 결정하는 단계; 및
적어도 문턱값 양의 위치된 사용자들의 시선들이 향해지는, 위치된 사용자 사람에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 41 or 42,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Determining from the application of one or more maintained models, locations in the captured video data to which the eyes of the located users are directed; And
And modifying the focus of the image capture device relative to the positioned user person, at least a threshold amount of positioned users' gazes are directed.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
캡쳐된 비디오 데이터 내에 위치된 상이한 사용자들 간의 거리들을 결정하는 단계; 및
부가적인 캡쳐된 비디오 데이터가 서로의 문턱값 거리 내의 사용자들을 포함하도록, 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 41 to 43,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Determining distances between different users located in the captured video data; And
And modifying the focus of the image capture device, such that the additional captured video data includes users within a threshold distance from each other.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
클라이언트 장치에 포함된 오디오 캡쳐 장치를 통해 오디오 데이터를 캡쳐하는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 오디오 데이터와 캡쳐된 비디오 데이터에 적용함으로써 국지 영역 내의 오디오 데이터의 소스를 결정하는 단계;
국지 영역 내의 오디오 데이터의 소스가 사용자라고 결정하는 단계; 및
국지 영역 내의 오디오 데이터의 소스가 사용자라고 결정하는 단계에 응답하여, 오디오 데이터의 소스에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 41 to 44,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Capturing audio data through an audio capture device included in the client device;
Determining a source of audio data in the local area by applying one or more maintained models to the captured audio data and the captured video data;
Determining that the source of the audio data in the local area is a user; And
And in response to determining that the source of audio data in the local area is a user, modifying the focus of the image capture device relative to the source of audio data.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계; 및
위치된 사용자의 식별된 움직임에 기초하여, 영상 캡쳐 장치의 시야를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 41 to 45,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Identifying, from the application of one or more maintained models, the movement of the located user; And
And modifying the field of view of the image capture device based on the identified movement of the located user.
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계는:
국지 영역에 포함된 객체를 향해 위치된 사용자가 몸짓을 하고 있다고 식별하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 46,
From the application of one or more maintained models, the step of identifying the movement of the located user is:
And identifying that the user located towards the object included in the local area is gesturing.
영상 캡쳐 장치의 시야를 수정하는 단계는:
영상 캡쳐 장치에 의해 캡쳐된 부가적인 비디오 데이터가 위치된 사용자와 위치된 사용자가 몸짓을 하고 있는 방향의 객체를 포함하도록 영상 캡쳐 장치의 확대를 감소시키는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 47,
The steps to modify the field of view of the video capture device are:
And reducing magnification of the image capture device to include the user in which the additional video data captured by the image capture device is located and the object in which the located user is gesturing.
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자의 움직임을 식별하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자가 국지 영역에서 객체를 잡고 있다고 결정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 46,
From the application of one or more maintained models, the step of identifying the movement of the located user is:
And, from the application of one or more maintained models, determining that the located user is holding the object in the local area.
영상 캡쳐 장치의 시야를 수정하는 단계는:
객체에 대한 영상 캡쳐 장치의 초점을 변경하고 영상 캡쳐 장치의 확대를 증가시키는 단계를 포함하는, 컴퓨터-수행된 방법.The method of claim 49,
The steps to modify the field of view of the video capture device are:
And changing the focus of the image capture device on the object and increasing the magnification of the image capture device.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
각각의 위치된 사용자가 적어도 문턱값 양의 시간동안 적어도 문턱값 세트의 차원들로, 캡쳐된 비디오 데이터 내에 제시되도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 41 to 50,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
And modifying the captured video data such that each positioned user is presented within the captured video data, at least in dimensions of the threshold set, for at least a threshold amount of time.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
각각의 위치된 사용자가 적어도 문턱값 양의 시간동안, 캡쳐된 비디오 데이터 내에 제시되도록, 캡쳐된 비디오를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 41 to 51,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
And modifying the captured video such that each positioned user is presented within the captured video data, at least for a threshold amount of time.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 캡쳐된 비디오 데이터 내의 사용자의 얼굴을 식별하는 단계;
사용자의 얼굴을 포함하지 않는, 캡쳐된 비디오 데이터의 일부분들을 제거하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 41 to 52,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Identifying a user's face in the captured video data from application of one or more maintained models;
And modifying the captured video data to remove portions of the captured video data that do not include the user's face.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
위치된 사용자들의 각각을 포함하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법.The method according to any one of claims 41 to 53,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
And modifying the captured video data to include each of the located users.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용에 의해, 캡쳐된 비디오 데이터를 안정시키는 단계를 포함하는, 컴퓨터-수행된 방법. The method according to any one of claims 41 to 54,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
And stabilizing the captured video data by application of one or more maintained models.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
캡쳐된 비디오 데이터 내의 위치된 사용자를, 캡쳐된 비디오 데이터에 의해 적어도 문턱값 세트의 차원들로 이전에 제시되었던 캡쳐된 비디오 데이터에 포함된 사용자들을 서술하는 저장된 데이터와 비교하는 단계; 및
캡쳐된 비디오 데이터를 수정하는 단계로서, 식별된 사용자가, 캡쳐된 비디오 데이터에 의해 적어도 문턱값 세트의 차원들로 이전에 있었던, 캡쳐된 비디오 데이터에 포함된 사용자에 매칭되지 않는다고 결정하는 비교에 응답하여, 위치된 사람을 더 현저하게 제시하도록, 캡쳐된 비디오 데이터를 수정하는 단계를 포함하는, 컴퓨터-수행된 방법. The method according to any one of claims 41 to 55,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Comparing the located user in the captured video data to stored data describing users included in the captured video data previously presented by the captured video data at least in dimensions of a threshold set; And
Modifying the captured video data, in response to a comparison determining that the identified user does not match a user included in the captured video data, which was previously at least by the dimensions of the threshold set by the captured video data. And, modifying the captured video data to present the positioned person more prominently.
클라이언트 장치에서 하나 또는 그 이상의 모델들을 유지하는 단계로서, 각각의 모델은, 클라이언트 장치의 영상 캡쳐 장치에 의해 캡쳐된 비디오 데이터에서 사용자들을 위치시키기 위해 하나 또는 그 이상의 규칙들을 적용하고, 비디오 데이터의 특성들로부터, 캡쳐된 비디오 데이터에서 보여줄 하나 또는 그 이상의 위치된 사용자들을 결정하기 위해 하나 또는 그 이상의 규칙들을 적용하는, 하나 또는 그 이상의 모델들을 유지하는 단계;
클라이언트 장치에 포함된 영상 캡쳐 장치의 시야 내의 국지 영역의 캡쳐된 비디오 데이터를 제공하는 단계;
캡쳐된 비디오 데이터에서 복수의 사용자들을 위치시키는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 비디오에 적용하는 단계; 및
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계를 수행하게 하는, 컴퓨터 프로그램 제품.A computer program product comprising a computer readable storage medium having coded instructions thereon, when executed by a processor, causing the processor to perform the following steps:
Maintaining one or more models at the client device, each model applying one or more rules to locate users in the video data captured by the client device's image capture device, and characteristics of the video data Maintaining, from one or more models, applying one or more rules to determine one or more located users to show in the captured video data;
Providing captured video data of a local area within a field of view of the image capture device included in the client device;
Locating a plurality of users in the captured video data;
Applying one or more maintained models to the captured video; And
A computer program product that, based on the application of one or more maintained models, performs the step of modifying the captured video data to show one or more located users.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
하나 또는 그 이상의 유지된 모델들의 적용으로부터, 위치된 사용자들의 시선들이 향해지는, 캡쳐된 비디오 데이터 내의 위치들을 결정하는 단계;
적어도 문턱값 양의 식별된 사람들의 시선들이 향해지는, 위치된 사람에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.The method of claim 57,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Determining from the application of one or more maintained models, locations in the captured video data to which the eyes of the located users are directed;
And modifying the focus of the image capture device relative to the located person, at least a threshold amount of the eyes of the identified people are directed.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
캡쳐된 비디오 데이터 내에 위치된 상이한 사용자들 간의 거리들을 결정하는 단계; 및
부가적인 캡쳐된 비디오 데이터가 서로의 문턱값 거리 내의 사람들을 포함하도록, 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.The method of claim 57 or 58,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Determining distances between different users located in the captured video data; And
And modifying the focus of the image capture device such that the additional captured video data includes people within a threshold distance from each other.
하나 또는 그 이상의 유지된 모델들의 적용에 기초하여, 하나 또는 그 이상의 위치된 사용자들을 보여주도록, 캡쳐된 비디오 데이터를 수정하는 단계는:
클라이언트 장치에 포함된 오디오 캡쳐 장치를 통해 오디오 데이터를 캡쳐하는 단계;
하나 또는 그 이상의 유지된 모델들을 캡쳐된 오디오 데이터와 캡쳐된 비디오 데이터에 적용함으로써 국지 영역 내의 오디오 데이터의 소스를 결정하는 단계;
국지 영역 내의 오디오 데이터의 소스가 위치된 사용자라고 결정하는 단계; 및
국지 영역 내의 오디오 데이터의 소스가 위치된 사용자라고 결정하는 단계에 응답하여, 오디오 데이터의 소스에 대한 영상 캡쳐 장치의 초점을 수정하는 단계를 포함하는, 컴퓨터 프로그램 제품.
The method according to any one of claims 57 to 59,
Based on the application of one or more maintained models, modifying the captured video data to show one or more located users:
Capturing audio data through an audio capture device included in the client device;
Determining a source of audio data in the local area by applying one or more maintained models to the captured audio data and the captured video data;
Determining that a source of audio data in the local area is a located user; And
And in response to determining that the source of the audio data in the local area is a located user, modifying the focus of the image capture device relative to the source of the audio data.
Applications Claiming Priority (15)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762554564P | 2017-09-05 | 2017-09-05 | |
US62/554,564 | 2017-09-05 | ||
US201715856105A | 2017-12-28 | 2017-12-28 | |
US201715856108A | 2017-12-28 | 2017-12-28 | |
US201715856109A | 2017-12-28 | 2017-12-28 | |
US15/856,108 | 2017-12-28 | ||
US15/856,109 | 2017-12-28 | ||
US15/856,105 | 2017-12-28 | ||
US16/121,087 US10666857B2 (en) | 2017-09-05 | 2018-09-04 | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device |
US16/121,087 | 2018-09-04 | ||
US16/121,081 US10868955B2 (en) | 2017-09-05 | 2018-09-04 | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device |
US16/121,081 | 2018-09-04 | ||
US16/121,060 US10805521B2 (en) | 2017-09-05 | 2018-09-04 | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device |
US16/121,060 | 2018-09-04 | ||
PCT/US2018/049532 WO2019050938A1 (en) | 2017-09-05 | 2018-09-05 | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200039814A true KR20200039814A (en) | 2020-04-16 |
Family
ID=65635185
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207009776A KR20200039814A (en) | 2017-09-05 | 2018-09-05 | Modify capture of video data by the video capture device based on video data previously captured by the video capture device |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3679722A1 (en) |
JP (3) | JP7258857B2 (en) |
KR (1) | KR20200039814A (en) |
CN (3) | CN116208791A (en) |
WO (1) | WO2019050938A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022164205A1 (en) * | 2021-01-26 | 2022-08-04 | 삼성전자 주식회사 | Electronic device for performing screen capture and method for capturing screen by electronic device |
WO2023101346A1 (en) * | 2021-12-02 | 2023-06-08 | 삼성전자 주식회사 | Method for editing content being played in display device, and electronic device therefor |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2884438B1 (en) * | 2005-04-19 | 2007-08-03 | Commissariat Energie Atomique | PROCESS FOR EXTRACTING AT LEAST ONE COMPOUND OF A LIQUID PHASE COMPRISING A FUNCTIONALIZED IONIC LIQUID, AND A MICROFLUIDIC SYSTEM FOR CARRYING OUT SAID METHOD |
WO2023087215A1 (en) * | 2021-11-18 | 2023-05-25 | Citrix Systems, Inc. | Online meeting non-participant detection and remediation |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8510283B2 (en) * | 2006-07-31 | 2013-08-13 | Ricoh Co., Ltd. | Automatic adaption of an image recognition system to image capture devices |
KR100703699B1 (en) * | 2005-02-05 | 2007-04-05 | 삼성전자주식회사 | Apparatus and method for providing multilateral video communication |
US8103445B2 (en) * | 2005-04-21 | 2012-01-24 | Microsoft Corporation | Dynamic map rendering as a function of a user parameter |
US8085302B2 (en) | 2005-11-21 | 2011-12-27 | Microsoft Corporation | Combined digital and mechanical tracking of a person or object using a single video camera |
US20070198632A1 (en) * | 2006-02-03 | 2007-08-23 | Microsoft Corporation | Transferring multimedia from a connected capture device |
US8284990B2 (en) * | 2008-05-21 | 2012-10-09 | Honeywell International Inc. | Social network construction based on data association |
JP4569670B2 (en) * | 2008-06-11 | 2010-10-27 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP5495855B2 (en) * | 2010-03-01 | 2014-05-21 | キヤノン株式会社 | Video processing apparatus and video processing method |
CN102196087A (en) * | 2010-03-12 | 2011-09-21 | 中兴通讯股份有限公司 | Lens control method and terminals |
US8626847B2 (en) * | 2010-04-30 | 2014-01-07 | American Teleconferencing Services, Ltd. | Transferring a conference session between client devices |
US20120204225A1 (en) * | 2011-02-08 | 2012-08-09 | Activepath Ltd. | Online authentication using audio, image and/or video |
US20120233076A1 (en) * | 2011-03-08 | 2012-09-13 | Microsoft Corporation | Redeeming offers of digital content items |
US8970704B2 (en) * | 2011-06-07 | 2015-03-03 | Verizon Patent And Licensing Inc. | Network synchronized camera settings |
KR20140099111A (en) * | 2013-02-01 | 2014-08-11 | 삼성전자주식회사 | Method for control a camera apparatus and the camera apparatus |
US9558555B2 (en) * | 2013-02-22 | 2017-01-31 | Leap Motion, Inc. | Adjusting motion capture based on the distance between tracked objects |
US9923979B2 (en) * | 2013-06-27 | 2018-03-20 | Google Llc | Systems and methods of determining a geographic location based conversion |
JP6429454B2 (en) * | 2013-11-28 | 2018-11-28 | キヤノン株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM |
JP2015115741A (en) * | 2013-12-11 | 2015-06-22 | キヤノンマーケティングジャパン株式会社 | Image management device, image management method, and program |
US10235587B2 (en) * | 2014-03-04 | 2019-03-19 | Samsung Electronics Co., Ltd. | Method and system for optimizing an image capturing boundary in a proposed image |
US9576343B2 (en) * | 2014-11-10 | 2017-02-21 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for a content-adaptive photo-enhancement recommender |
JP6486656B2 (en) * | 2014-11-11 | 2019-03-20 | オリンパス株式会社 | Imaging device |
US10244175B2 (en) * | 2015-03-09 | 2019-03-26 | Apple Inc. | Automatic cropping of video content |
EP3292677B1 (en) * | 2015-05-05 | 2023-11-01 | Penguin Computing, Inc. | Ultra-low latency remote application access |
US9860451B2 (en) * | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US20160365122A1 (en) * | 2015-06-11 | 2016-12-15 | Eran Steinberg | Video editing system with multi-stage control to generate clips |
US9621795B1 (en) * | 2016-01-08 | 2017-04-11 | Microsoft Technology Licensing, Llc | Active speaker location detection |
JP6241802B1 (en) * | 2017-01-20 | 2017-12-06 | パナソニックIpマネジメント株式会社 | Video distribution system, user terminal device, and video distribution method |
-
2018
- 2018-09-05 CN CN202310329439.8A patent/CN116208791A/en active Pending
- 2018-09-05 CN CN202310329426.0A patent/CN116193175A/en active Pending
- 2018-09-05 EP EP18854605.5A patent/EP3679722A1/en not_active Ceased
- 2018-09-05 WO PCT/US2018/049532 patent/WO2019050938A1/en unknown
- 2018-09-05 KR KR1020207009776A patent/KR20200039814A/en not_active Application Discontinuation
- 2018-09-05 JP JP2020511521A patent/JP7258857B2/en active Active
- 2018-09-05 CN CN201880071766.5A patent/CN111316656B/en not_active Expired - Fee Related
-
2023
- 2023-04-05 JP JP2023061105A patent/JP2023098930A/en active Pending
- 2023-04-05 JP JP2023061106A patent/JP2023098931A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022164205A1 (en) * | 2021-01-26 | 2022-08-04 | 삼성전자 주식회사 | Electronic device for performing screen capture and method for capturing screen by electronic device |
WO2023101346A1 (en) * | 2021-12-02 | 2023-06-08 | 삼성전자 주식회사 | Method for editing content being played in display device, and electronic device therefor |
Also Published As
Publication number | Publication date |
---|---|
JP2023098930A (en) | 2023-07-11 |
EP3679722A4 (en) | 2020-07-15 |
CN111316656B (en) | 2023-03-28 |
EP3679722A1 (en) | 2020-07-15 |
CN111316656A (en) | 2020-06-19 |
JP2023098931A (en) | 2023-07-11 |
JP2020532903A (en) | 2020-11-12 |
CN116208791A (en) | 2023-06-02 |
JP7258857B2 (en) | 2023-04-17 |
WO2019050938A1 (en) | 2019-03-14 |
CN116193175A (en) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10971158B1 (en) | Designating assistants in multi-assistant environment based on identified wake word received from a user | |
US11438644B1 (en) | Synchronizing presentation of content presented by multiple client devices | |
US11558543B2 (en) | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device | |
US10873697B1 (en) | Identifying regions of interest in captured video data objects by detecting movement within higher resolution frames of the regions | |
US10805521B2 (en) | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device | |
US10757347B1 (en) | Modifying display of an overlay on video data based on locations of regions of interest within the video data | |
JP2023098930A (en) | Modifying capture of video data by image capture device based on video data previously captured by image capture device | |
US11418827B2 (en) | Generating a feed of content for presentation by a client device to users identified in video data captured by the client device | |
US10721394B1 (en) | Gesture activation for an image capture device | |
US10915776B2 (en) | Modifying capture of video data by an image capture device based on identifying an object of interest within capturted video data to the image capture device | |
US10666857B2 (en) | Modifying capture of video data by an image capture device based on video data previously captured by the image capture device | |
CN112806021B (en) | Modifying presentation of video data by a receiving client device based on analysis of the video data by another client device that captured the video data | |
US11444943B1 (en) | Exchange content between client devices when a client device determines a user is within a field of view of an image capture device of the client device and authorized to exchange content | |
US10812616B2 (en) | Transferring an exchange of content to a receiving client device from a client device authorized to transfer a content exchange to the receiving client device | |
US11381533B1 (en) | Intelligent determination of whether to initiate a communication session for a user based on proximity to client device | |
US20230334864A1 (en) | Presenting messages to a user when a client device determines the user is within a field of view of an image capture device of the client device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |