FR3044852A1 - Procede de gestion de contenus video pour leur edition - Google Patents
Procede de gestion de contenus video pour leur edition Download PDFInfo
- Publication number
- FR3044852A1 FR3044852A1 FR1561755A FR1561755A FR3044852A1 FR 3044852 A1 FR3044852 A1 FR 3044852A1 FR 1561755 A FR1561755 A FR 1561755A FR 1561755 A FR1561755 A FR 1561755A FR 3044852 A1 FR3044852 A1 FR 3044852A1
- Authority
- FR
- France
- Prior art keywords
- definition
- video content
- extract
- editing
- application
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2743—Video hosting of uploaded data from client
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Procédé de gestion de contenus vidéo pour leur édition, utilisant un serveur distant d'un réseau de télécommunications, et une application d'édition de contenus vidéo exécutable sur un appareil, tel qu'un téléphone portable, destiné à être relié audit serveur distant par le biais du réseau de télécommunications et ayant accès à un contenu vidéo d'origine, procédé dans lequel : - l'application transmet au moins un extrait présélectionné du contenu vidéo d'origine au serveur distant dans une définition inférieure à la définition du contenu vidéo d'origine, - le serveur applique au moins une opération d'édition à l'extrait présélectionné reçu et génère une séquence vidéo éditée intermédiaire, - le serveur transmet à l'appareil cette séquence vidéo éditée intermédiaire, - la séquence vidéo intermédiaire générée par le serveur est prévisualisée sur l'appareil à une définition de prévisualisation inférieure à la définition du contenu vidéo d'origine, puis - une séquence vidéo éditée finale est générée par le serveur sur la base de la séquence vidéo intermédiaire et mise à disposition sur le réseau de télécommunications à une définition de publication supérieure à ladite définition inférieure de l'extrait présélectionné.
Description
Procédé de gestion de contenus vidéo pour leur édition
La présente invention concerne les procédés d’édition et de gestion de contenus vidéo utilisant un appareil, tel qu’un téléphone portable, ayant accès à un contenu vidéo d’origine, et exécutant une application d’édition de contenus vidéo. L’invention concerne également une application pour la mise en œuvre de tels procédés.
On connaît du brevet US 6 970 639 un système d’édition de contenus vidéo utilisant un modèle d’édition présélectionné et des outils de reconnaissance de métadonnées du contenu, incluant entre autres un marqueur d’un moment intéressant dans le contenu.
La demande US 2006/0233514 décrit un système permettant d’enregistrer un marqueur associé à un moment intéressant d’un contenu vidéo, dans le but de retrouver aisément l’image correspondant à ce marqueur.
On connaît de la demande EP 1 524 667 l’édition d’un contenu vidéo selon des modèles à thème bien précis, comme un anniversaire ou un mariage, à sélectionner au préalable par l’utilisateur pour obtenir l’effet désiré.
La demande WO 2000/039997 décrit l’édition de contenus vidéo utilisant des données media provenant de bases de données, et des modèles associés à ces données.
La demande WO 2006/065223 décrit la production automatique d’un contenu audiovisuel à partir de plusieurs séquences disponibles ayant trait à un même sujet, par exemple pour des journalistes ayant plusieurs enregistrements d’une même scène.
Il est connu de la demande EP 1 241 673 de proposer un système générique d’édition de contenus vidéo, où l’utilisateur peut contrôler manuellement certains paramètres. Aucune prévisualisation n’est possible.
La demande WO 2013/150176 divulgue un système pour générer une séquence vidéo à partir de rushes fournis par l’utilisateur, en utilisant les paramètres sélectionnés et les choix de ce dernier lors d’une utilisation précédente. L’éditeur de contenu vidéo de la marque GoPro contient des modèles faits de cellules, l’utilisateur pouvant attribuer une cellule à chaque séquence pour générer un contenu vidéo final.
Des applications d’édition de contenus vidéo sont connues, telles Magisto ou Replay, où l’édition est faite par l’appareil, de manière totalement automatique, en se fondant sur des critères arbitraires, ce qui ne permet aucun contrôle créatif, et peut faire perdre tout rythme à la vidéo éditée. En outre, quelle que soit la taille du contenu vidéo d’origine, celui-ci est téléchargé dans son entier sur l’appareil, ce qui peut prendre du temps, et l’édition est faite en local dans l’appareil. L’utilisation basique de modèles d’édition stricts ne convient pas automatiquement à chaque contenu vidéo et au rendu désiré. En outre, les applications d’édition connues utilisant des modèles stricts nécessitent souvent des actions spécifiques de l’utilisateur pour essayer d’adapter au mieux un modèle à un contenu vidéo d’origine.
Il existe un besoin pour permettre à un utilisateur de bénéficier d’une application d’édition de contenus vidéo facile d’utilisation, permettant de produire des séquences vidéo éditées d’une grande qualité créative, et peu gourmande en bande passante. L'invention a pour but de répondre à ce besoin et elle y parvient, selon l'un de ses aspects, grâce à un procédé d’édition de contenus vidéo utilisant un appareil, tel qu’un téléphone portable, ayant accès à un contenu vidéo d’origine, et exécutant une application d’édition de contenus vidéo, procédé dans lequel : - on permet à l’utilisateur de sélectionner dans le contenu vidéo d’origine, à l’aide de l’application exécutée sur l’appareil, au moins un moment clé, en plaçant un marqueur temporel sur ledit contenu, et - on génère de façon automatisée une séquence vidéo éditée, à partir d’un extrait du contenu vidéo d’origine dont la durée correspond à un premier laps de temps prédéfini avant le marqueur temporel et à un deuxième laps de temps prédéfini après ce marqueur.
La séquence vidéo éditée est avantageusement générée par un serveur distant auquel est relié l’appareil par le biais d’un réseau de télécommunications. L’extrait du contenu vidéo d’origine peut être transmis par l’application au serveur distant dans une définition inférieure à la définition du contenu vidéo d’origine. Cela permet une rapide boucle de retour entre l’utilisateur et l’application.
Le procédé d’édition de contenus vidéo selon l’invention comporte de préférence les étapes suivantes, l’appareil ayant accès à au moins une séquence vidéo d’origine : - on analyse la séquence vidéo d’origine pour en extraire des caractéristiques prédéfinies, - on établit une liste restreinte de modèles d’édition possibles choisis dans une base de modèles d’édition en fonction desdites caractéristiques prédéfinies de la séquence vidéo d’origine, et - on génère de façon automatisée une séquence vidéo éditée au moins en appliquant à la séquence vidéo d’origine une liste de décisions d’édition propre à un modèle d’édition sélectionné par l’utilisateur parmi la liste restreinte de modèles établie à l’étape précédente.
La séquence vidéo d’origine correspond avantageusement à un extrait du contenu vidéo d’origine dont la durée correspond à un premier laps de temps prédéfini avant le marqueur temporel et à un deuxième laps de temps prédéfini après ce marqueur.
La séquence vidéo d’origine est avantageusement analysée par ledit serveur distant auquel est relié l’appareil par le biais dudit réseau de télécommunications, la séquence vidéo éditée étant générée par le serveur.
La séquence vidéo éditée est avantageusement publiée sur le réseau de télécommunications auquel est relié l’appareil, notamment par le biais de l’application ou du serveur distant. L'invention a encore pour objet, selon un autre encore de ses aspects, un procédé de gestion de contenus vidéo pour leur édition, utilisant un serveur distant d’un réseau de télécommunications, et une application d’édition de contenus vidéo exécutable sur un appareil, tel qu’un téléphone portable, destiné à être relié audit serveur distant par le biais du réseau de télécommunications et ayant accès à un contenu vidéo d’origine, procédé dans lequel : - l’application transmet au moins un extrait présélectionné du contenu vidéo d’origine au serveur distant dans une définition inférieure à la définition du contenu vidéo d’origine, - le serveur applique au moins une opération d’édition à l’extrait présélectionné reçu et génère une séquence vidéo éditée intermédiaire, - le serveur transmet à l’appareil cette séquence vidéo éditée intermédiaire, - la séquence vidéo intermédiaire générée par le serveur est prévisualisée sur l’appareil à une définition de prévisualisation inférieure à la définition du contenu vidéo d’origine, puis - une séquence vidéo éditée finale est générée par le serveur sur la base de la séquence vidéo intermédiaire et mise à disposition sur le réseau de télécommunications à une définition de publication supérieure à ladite définition inférieure de l’extrait présélectionné.
Après acceptation de Γutilisateur de la séquence vidéo éditée intermédiaire, la séquence vidéo éditée finale est mise à disposition par le biais de l’application sur le réseau de télécommunications, notamment après sa génération par le serveur distant à la définition de publication. Par « mise à disposition », il faut comprendre que la séquence vidéo éditée finale est mise à disposition pour une exploitation quelconque par l’utilisateur, notamment un téléchargement pour sauvegarde sur l’appareil, par exemple pour modification ultérieure de la séquence à l’aide d’un logiciel tiers, une sauvegarde dans un nuage de données, ou « cloud » en anglais, ou une publication pour un partage privé ou public sur un ou des réseaux sociaux, tels Facebook® ou Instagram®. L’application d’édition de contenus vidéo pour mettre en œuvre le procédé selon l’invention permet à ses utilisateurs de sélectionner les moments importants de leurs contenus vidéo et ensuite, de façon automatisée, de générer une séquence vidéo éditée dans un court format, prête à être partagée sur les réseaux sociaux.
Grâce à l'invention, l’utilisateur sélectionne le contenu qu’il désire partager et/ou conserver en plaçant seulement un marqueur temporel pour chaque moment important à mettre en avant. Il n’est pas nécessaire que l’utilisateur sélectionne le début et la fin de la scène à mettre en avant. L’invention permet de limiter grandement le temps passé par l’utilisateur à sélectionner le rush désiré. L’invention vise le partage de moments, ainsi la séquence à mettre en avant est de préférence courte, par exemple inférieure à 10 s. L’établissement d’une liste restreinte de modèles d’édition possibles choisis dans une base de modèles d’édition en fonction de caractéristiques prédéfinies de la séquence vidéo d’origine permet une flexibilité dans la génération automatique de contenus édités. Les modèles d’édition de la base de modèles ont été établis au préalable, et sont bien adaptés à de nombreuses contraintes provenant de la séquence disponible, comme la longueur de la séquence, les moments à mettre en avant, ou le rythme de la bande son choisie. L’utilisation de modèles d’édition établis au préalable permet d’apporter des compétences de réalisateurs de films expérimentés dans l’application selon l’invention, procurant ainsi une grande qualité d’édition.
Le procédé selon l'invention mettant en œuvre la transmission d’un extrait à une définition inférieure pour édition permet en outre de limiter les coûts en termes de bande passante. Un téléchargement rapide de l’extrait à éditer est ainsi possible. La séquence vidéo éditée finale peut être téléchargée ultérieurement, par exemple par une connexion sans fil de type Wi-Fi.
Moment clé
De préférence, on permet à l’utilisateur de sélectionner le moment clé en plaçant le marqueur temporel via une action unique, notamment une action tactile. L’appareil comportant un écran tactile, le marqueur temporel peut être placé sur le contenu vidéo d’origine en touchant une zone prédéfinie de l’écran.
Dans une variante où l’appareil comporte un micro, le placement du marqueur temporel sur le contenu vidéo d’origine est déclenché par le biais d’un son émis par l’utilisateur.
Dans une variante encore, le placement du marqueur temporel sur le contenu vidéo d’origine est déclenché par le biais d’un appui sur une touche, notamment d’un clavier ou d’une souris.
Les premier et deuxième laps de temps prédéfinis peuvent être de durée égale, la séquence vidéo éditée étant générée à partir d’un extrait du contenu vidéo d’origine dont la durée est centrée sur le marqueur temporel du moment clé sélectionné.
Les premier et deuxième laps de temps prédéfinis peuvent être compris chacun entre 5 s et 300 s, étant par exemple égaux à 25 s environ. Dans le cas où le contenu vidéo d’origine n’est pas assez long pour permettre d’extraire totalement la durée souhaitée, par exemple si le moment clé est choisi 2 secondes avant la fin du contenu vidéo d’origine, les premier et deuxième laps de temps sont avantageusement raccourcis par l’application pour se limiter au contenu vidéo disponible.
Plusieurs moments clés peuvent être sélectionnés par l’utilisateur le cas échéant, l’opération de placement du marqueur étant alors répétée plusieurs fois, notamment entre 2 et 50 fois, par exemple 10 fois.
On peut permettre à l’utilisateur, à l’aide de l’application, de modifier l’ordre temporel des extraits du contenu vidéo d’origine correspondants aux différents moments clés sélectionnés pour générer la séquence vidéo éditée.
Modèles d’édition
Par « modèles d’édition », il faut comprendre une liste de décisions d’édition possibles et adaptables. Par exemple : une liste d’effets possibles parmi lesquels un ou plusieurs effets peuvent être sélectionnés pour effectuer le montage de la séquence vidéo éditée ; une liste de transitions possibles entre les différents extraits sélectionnés ; la définition des temps théoriques alloués à chacune des séquences vidéo en fonction du nombre d’extraits disponibles, chacun des temps théoriques étant adapté en fonction de la durée des extraits sélectionnés et/ou des caractéristiques extraites des extraits. Un modèle d’édition peut contenir des contraintes spécifiques d’application : durée minimale disponible dans le contenu vidéo d’origine, quantité de mouvement minimal ou maximal, luminosité minimale ou maximale.
Par « décision d’édition », il faut comprendre l’ensemble des paramètres décrivant l’application d’un effet, transition ou changement de plan ; par exemple les temps de début et de fin de chaque séquence, le type d’effet, le temps marquant le début de l’effet, la durée de cet effet, la vitesse, la transparence, les couleurs choisies pour cet effet, éventuellement un texte à afficher grâce à l’effet, ou de manière générale tout paramètre spécifique à l’effet considéré. L’ensemble des décisions d’édition permet de décrire de manière unique et reproductible un montage spécifique à opérer ....
Les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine sont de préférence des caractéristiques techniques de la vidéo, telles que notamment la résolution, le nombre de trames par seconde, le niveau de compression ou l’orientation, et/ou sont représentatives de la colorimétrie de la vidéo, notamment la luminosité, la saturation, le contraste, ou les couleurs prédominantes.
En variante ou en combinaison, les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine sont représentatives des mouvements présents dans la séquence, notamment leur direction et leur vitesse.
En variante encore ou en combinaison, les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine sont représentatives d’un découpage en scènes de la séquence.
Les caractéristiques prédéfinies à extraire de la séquence vidéo d’origine peuvent être représentatives du son présent dans la séquence, notamment la résolution, la fréquence d’échantillonnage et/ou le niveau de compression du son, ou l’ambiance sonore générale, ou la reconnaissance de sons particuliers, par exemple une ou plusieurs voix ou de la musique. L’extraction de nombreuses caractéristiques prédéfinies n’est pas utilisée uniquement pour filtrer la liste de modèles disponibles, mais également pour multiplier le nombre de possibilités. L’établissement de la liste restreinte de modèles d’édition possibles choisis dans la base de modèles d’édition peut se faire par filtrage de ladite base par application des contraintes spécifiques d’application définies pour chaque modèle.
Les modèles d’édition présents dans la base de modèles sont de préférence créés au préalable, en décrivant et généralisant des montages spécifiques réalisés manuellement en vue de renforcer une émotion spécifique.
La base de modèles est avantageusement accessible par le serveur distant et/ou l’appareil par le biais du réseau de télécommunications.
La liste de décisions d’édition propre à un modèle d’édition comporte avantageusement les temps de début et de fin souhaités de la séquence vidéo, et/ou un mode de vitesse de lecture de la séquence vidéo, notamment accéléré ou ralenti, et/ou les types de transitions dans la séquence et les temps de début et de fin de chaque transition, et/ou les types d’effets à inclure sur la séquence, tels qu’un changement de colorimétrie, une incrustation d’informations, notamment de texte ou d’image(s) fixes ou animées, et les temps de début et de fin de chaque effet, et/ou des paramètres décrivant les contraintes de montage vidéo associées, telles que les nombres minimum et maximum de séquences d’origine, la durée minimale et/ou maximale de chaque séquence, et/ou la définition de règles particulières d’adaptation du modèle, telles que la modification des temps de début et de fin de chaque séquence en fonction de la vitesse du mouvement, de l’analyse de scènes, des changements de vitesse ou direction des mouvements des différents objets identifiés sur chaque séquence, et/ou de la durée des séquences.
En variante ou en combinaison, la liste de décisions d’édition propre à un modèle d’édition comporte l’ajout d’une bande son sur la séquence vidéo éditée, associé notamment à des moments acceptables de coupure dudit morceau.
La génération de la séquence vidéo éditée peut prendre en compte des paramètres supplémentaires rentrés par l’utilisateur sur l’appareil, notamment par le biais d’une application d’édition de contenus vidéo exécutable sur l’appareil, notamment le genre de musique désiré, des choix d’effets supplémentaires, des filtres de colorimétrie et/ou de stabilisation à appliquer à la séquence vidéo d’origine, ou des données à incruster dans la séquence, telles que par exemple un titre, un nom de lieu, un ensemble de coordonnées GPS, une position GPS ou des métriques provenant de capteurs, telles que par exemple une vitesse, une altitude, une accélération, une profondeur, une fréquence cardiaque, un dénivelé, ou des données météorologiques.
Le procédé d’analyse pour extraire des caractéristiques prédéfinies peut être répété pour plusieurs séquences vidéo d’origine correspondant à des extraits d’un même contenu vidéo d’origine. L’ordre temporel des extraits pour générer la séquence vidéo éditée est avantageusement choisi par l’utilisateur à l’aide de l’appareil. Chaque extrait est de préférence analysé séparément. La liste de décisions d’édition propre au modèle d’édition sélectionné est ensuite appliquée avantageusement à l’ensemble des extraits compilés.
La liste de décisions d’édition propre à un modèle d’édition peut comporter une indication sur la façon de faire le lien entre plusieurs extraits d’un même contenu vidéo d’origine, notamment la durée relative entre deux extraits.
Une séquence vidéo éditée intermédiaire peut être générée par le serveur distant dans une définition de prévisualisation inférieure à la définition du contenu vidéo d’origine duquel provient la séquence vidéo d’origine, avant la mise à disposition de la séquence vidéo éditée finale à la fin des opérations d’édition sur le réseau de télécommunications à une définition de publication supérieure à la définition de prévisualisation.
Serveur distant et définitions
Par « serveur distant », il faut comprendre un système informatique, par exemple hébergé chez le prestataire du service d’édition de contenus vidéo selon l’invention, ou délocalisé chez un fournisseur de centres de données, ou « datacenters » en anglais. Le serveur distant comporte avantageusement le code informatique nécessaire au bon fonctionnement de l’application d’édition de contenus vidéo selon l’invention
Plusieurs extraits du contenu vidéo d’origine étant sélectionnés et transmis à la définition inférieure au serveur distant pour leur appliquer au moins une opération d’édition, l’application transmet de préférence au serveur distant les séquences vidéo éditées à la définition de publication pour la génération de la séquence vidéo éditée finale. L’extrait à la définition inférieure peut être généré par l’application en compressant l’extrait d’origine pour atteindre la définition inférieure.
La définition de prévisualisation peut être de 5 à 20 fois inférieure à la définition d’origine, mieux de 10 à 15 fois inférieure.
La définition de publication de la séquence vidéo éditée finale peut être de 5 à 20 fois supérieure à la définition de prévisualisation, mieux de 10 à 15 fois supérieure.
La définition de prévisualisation peut être comprise entre 240p et 480p (nombre de lignes), la définition d’origine étant notamment comprise entre la définition 720p et la définition 4K, correspondant à une résolution de 4096 χ 2160 pixels. La définition de prévisualisation est de préférence fonction de la taille totale de l’extrait à transmettre, qui est notamment inférieure à 8Mo, mieux inférieure à 4Mo. La définition choisie pour l’extrait à transmettre peut dépendre du débit du réseau de télécommunication utilisé. La définition de prévisualisation est en outre, de préférence, fonction de la définition du contenu vidéo d’origine ainsi que du débit disponible entre l’appareil et le serveur.
La séquence vidéo éditée peut être prévisualisée plusieurs fois à la définition de prévisualisation, avant la publication de la séquence vidéo éditée finale.
La durée de l’extrait transmis à la définition inférieure correspond à un premier laps de temps prédéfini avant un marqueur temporel placé sur le contenu vidéo d’origine par le biais de l’application et désignant un moment clé sélectionné au préalable par l’utilisateur, et à un deuxième laps de temps prédéfini après ce marqueur.
Appareil L’appareil est de préférence un smartphone. Dans des variantes, l’appareil est un assistant numérique personnel, une tablette ou un ordinateur, fixe ou portable. L’écran de l’appareil est avantageusement tactile. L’appareil peut comporter une caméra, le contenu vidéo d’origine ayant été enregistré par la caméra de l’appareil. Dans une variante, le contenu vidéo d’origine provient d’une autre caméra et a été téléchargé par l’appareil. Dans une autre variante, le contenu vidéo d’origine est disponible à partir du nuage et est téléchargé à la demande à partir de ce dernier. Dans une variante encore, le contenu vidéo d’origine provient d’une autre caméra accessible au travers d’un réseau sans fil, par exemple Wifi®, et est téléchargé à la demande. L’appareil est programmé pour permettre la mise en œuvre des procédés selon l’invention par le biais de l’application.
Application L'invention a encore pour objet, selon un autre de ses aspects, une application d’édition de contenus vidéo comportant des instructions de code exécutables sur un appareil, tel qu’un téléphone portable, comportant un processeur et une mémoire, ces instructions lorsqu’exécutées permettant la mise en œuvre du procédé d’édition de contenu vidéo selon l’invention, l’appareil ayant accès à un contenu vidéo d’origine, l’application étant configurée pour : - placer au moins un marqueur temporel sur ledit contenu vidéo d’origine correspondant à la sélection par l’utilisateur d’un moment clé, et - permettre la génération de façon automatisée, via un serveur distant éventuel, d’une séquence vidéo éditée, à partir d’un extrait du contenu vidéo d’origine dont la durée correspond à un premier laps de temps prédéfini avant le marqueur temporel et à un deuxième laps de temps prédéfini après ce marqueur. L’appareil ayant accès à au moins une séquence vidéo d’origine, l’application d’édition de contenus vidéo est de préférence configurée pour permettre, par le biais d’un serveur distant éventuel : - une analyse de la séquence vidéo d’origine pour en extraire des caractéristiques prédéfinies, - l’établissement d’une liste restreinte de modèles d’édition possibles choisis dans une base de modèles en fonction desdites caractéristiques prédéfinies de la séquence vidéo d’origine, et - la génération de façon automatisée d’une séquence vidéo éditée au moins en appliquant à la séquence vidéo d’origine une liste de décisions d’édition propre à un modèle d’édition sélectionné par l’utilisateur, parmi la liste restreinte de modèles établie à l’étape précédente. L’appareil étant destiné à être relié et à échanger des données avec un serveur distant par le biais d’un réseau de télécommunications, et ayant accès à un contenu vidéo d’origine, l’application est de préférence configurée pour télécharger et/ou transmettre au serveur distant au moins un extrait présélectionné du contenu vidéo d’origine dans une définition inférieure à la définition du contenu vidéo d’origine, afin de permettre la prévisualisation à une définition de prévisualisation inférieure à celle du contenu vidéo d’origine d’au moins une séquence vidéo éditée par au moins une opération d’édition appliquée par le serveur distant à l’extrait du contenu vidéo d’origine transmis par l’application à ladite définition inférieure, avant la mise à disposition de la séquence vidéo éditée finale sur le réseau de télécommunications à une définition de publication supérieure à la définition de prévisualisation.
Les caractéristiques définies ci-dessus pour les procédés d’édition et de gestion de contenus vidéo s’appliquent à l’application. L’application peut être configurée pour être téléchargée au préalable dans un marché d’applications disponible à partir de l’appareil, par exemple un marché d’applications Android®, Apple® ou Windows®. L’application peut encore être fournie chargée sur un support lisible par ordinateur, par exemple une clé USB, une carte SD, un CD-ROM, ou être préinstallée sur l’appareil par le fabriquant.
Procédé d’échanges de données L'invention a encore pour objet, selon un autre de ses aspects, un procédé d’échanges de données entre un serveur distant d’un réseau de télécommunications et une application d’édition de contenus vidéo exécutable sur un appareil, tel qu’un téléphone portable, destiné à être relié audit serveur distant par le biais du réseau de télécommunications et ayant accès à un contenu vidéo d’origine, pour la mise en œuvre du procédé de gestion de contenus vidéo selon l’une quelconque des revendications précédentes, procédé dans lequel : - l’application génère un extrait présélectionné du contenu vidéo d’origine dans une définition inférieure à la définition du contenu vidéo d’origine, notamment en compressant l’extrait d’origine pour atteindre ladite définition inférieure, - l’application transmet l’extrait présélectionné à la définition inférieure au serveur distant par le biais du réseau de télécommunications, - le serveur distant génère à partir de l’extrait reçu une séquence vidéo éditée intermédiaire en appliquant au moins une opération d’édition, - l’application télécharge à partir du serveur la séquence vidéo éditée intermédiaire à une définition de prévisualisation pour prévisualisation par l’utilisateur, - après acceptation de l’utilisateur de la séquence vidéo éditée intermédiaire, le serveur distant génère la séquence vidéo éditée finale à une définition de publication supérieure à la définition de prévisualisation, et - le serveur met à disposition la séquence vidéo finale à la définition de publication, notamment pour la télécharger, la publier ou la sauvegarder sur le réseau de télécommunications.
Plusieurs extraits du contenu vidéo d’origine étant sélectionnés et transmis à une définition inférieure à celle du contenu vidéo d’origine par l’application au serveur distant pour leur appliquer au moins une opération d’édition, l’application transmet avantageusement au serveur distant les séquences vidéo éditées à la définition de publication pour la génération de la séquence vidéo éditée finale.
Les caractéristiques définies ci-dessus pour les procédés d’édition et de gestion de contenus vidéo et pour l’application s’appliquent au procédé d’échanges de données. L'invention pourra être mieux comprise à la lecture de la description qui va suivre, d'exemples non limitatifs de mise en œuvre de celle-ci, et à l'examen du dessin annexé, sur lequel : - la figure 1 illustre de façon schématique différentes étapes dans la mise en œuvre du procédé d’édition de contenus vidéo selon l'invention, - la figure 2 illustre de façon schématique différents éléments permettant la mise en œuvre du procédé d’édition de contenus vidéo selon l'invention, - la figure 3 représente une capture d’écran de l’appareil illustrant un exemple de fonctionnement de l’application d’édition de contenus vidéo selon l’invention, - la figure 4 représente la création d’un extrait du contenu vidéo d’origine selon l'invention, - la figure 5 illustre de façon schématique différentes étapes dans la mise en œuvre du procédé d’édition de contenus vidéo selon l'invention, - la figure 6 représente une capture d’écran de l’appareil illustrant un autre exemple de fonctionnement de l’application d’édition de contenus vidéo selon l’invention, et - la figure 7 illustre de façon schématique différentes étapes dans la mise en œuvre du procédé d’échanges de données selon l'invention.
On a représenté à la figure 1 différentes étapes d’un exemple de procédé d’édition de contenus vidéo selon l'invention, et à la figure 2, différents éléments permettant la mise en œuvre du procédé.
Dans l’exemple décrit, le procédé selon l’invention met en œuvre un appareil 2, qui est un téléphone portable dit « smartphone » en anglais dans cet exemple, ayant accès à un contenu vidéo d’origine V0, et exécutant une application 4 d’édition de contenus vidéo, et un serveur distant 3 auquel est relié l’appareil 2 par le biais d’un réseau de télécommunications.
Dans une étape 11, l’utilisateur choisit un contenu vidéo d’origine V0 qu’il souhaite éditer et l’ouvre sur l’application 4 d’édition de contenus vidéo selon l’invention. Lors d’une étape 12, l’utilisateur sélectionne dans le contenu vidéo d’origine V0 un moment clé, en plaçant un marqueur temporel Mt sur ledit contenu V0 par le biais de l’application 4 exécutée sur l’appareil 2, via une action unique.
Dans une étape 13, l’utilisateur peut décider de sélectionner au moins un autre moment clé, l’étape 12 de placement du marqueur temporel Mt est alors répétée.
Lors d’une étape 14, l’application 4 génère de façon automatisée un extrait Ve du contenu vidéo d’origine V0 dont la durée correspond à un premier laps de temps prédéfini ti avant le marqueur temporel Mt et à un deuxième laps de temps prédéfini t2 après ce marqueur Mt.
De préférence et comme dans l’exemple décrit, à l’étape 15, l’application 4 transmet l’extrait Ve au serveur distant 3 dans une définition inférieure à la définition du contenu vidéo d’origine Y0. Le serveur 3 applique avantageusement au moins une opération d’édition à l’extrait Ve reçu, au moins en lui appliquant une liste de décisions d’édition propre à un modèle d’édition sélectionné par l’utilisateur parmi une liste restreinte de modèles établie en fonction de caractéristiques prédéfinies extraites de l’extrait Ve, et génère une séquence vidéo éditée intermédiaire Vi.
Lors d’une étape 16, le serveur 3 transmet à l’appareil 2 cette séquence vidéo éditée intermédiaire Vi, où elle est prévisualisée à une définition de prévisualisation Dp inférieure à la définition D0 du contenu vidéo d’origine V0. L’utilisateur peut accepter le rendu de cette séquence vidéo éditée intermédiaire Vi, ou, dans une étape 17, il peut choisir une autre opération d’édition, en sélectionnant notamment un autre modèle d’édition.
Lors d’une étape 18, après acceptation de l’utilisateur de la séquence vidéo éditée intermédiaire Vi, une séquence vidéo éditée finale Vf est générée par le serveur 3 sur la base de la séquence Vi, à une définition de publication Dpu supérieure à ladite définition de prévisualisation Dp.
Dans une étape 19, la séquence vidéo éditée finale Vf est mise à disposition sur le réseau de télécommunications à la définition de publication, par exemple pour être sauvegardée sur l’appareil 2, par exemple pour modification ultérieure de la séquence Vf à l’aide d’un logiciel tiers, ou pour être sauvegardée dans le nuage (« cloud » en anglais), ou pour être publiée pour un partage privé ou public sur un ou des réseaux sociaux.
Dans l’exemple décrit, comme illustré à la figure 3, le marqueur temporel Mt est placé sur le contenu vidéo d’origine Vo en touchant une zone prédéfinie de l’écran tactile 2a de l’appareil 2, désignée par la flèche. Dans une variante non illustrée, le marqueur temporel Mt est placé sur le contenu vidéo d’origine Vo par le biais d’un son émis par l’utilisateur dans le cas où l’appareil 2 comporte un micro 2b. Dans une variante encore, non illustrée, où l’appareil 2 est un ordinateur, le placement du marqueur temporel Mt sur le contenu vidéo d’origine V0 est déclenché par le biais d’un appui sur une touche, par exemple du clavier ou de la souris de l’appareil 2.
Dans l’exemple représenté à la figure 4, les premier et deuxième laps de temps prédéfinis ti et t2 sont de durée égale, la durée de l’extrait Ve est centrée sur le marqueur temporel Mt du moment clé sélectionné.
Comme décrit précédemment, dans le cas où plusieurs moments clés sont sélectionnés, l’utilisateur, à l’aide de l’application, peut modifier l’ordre temporel des extraits correspondants aux différents moments clés sélectionnés pour générer la séquence vidéo éditée finale Vf.
La figure 5 décrit en détails l’étape 15 de la figure 1.
Dans l’exemple décrit, lors d’une étape 21, l’extrait Ve est analysé, par le serveur distant 3, pour en extraire des caractéristiques prédéfinies. Comme décrit précédemment, ces caractéristiques prédéfinies sont des caractéristiques techniques de la vidéo, et/ou sont représentatives des mouvements présents dans l’extrait, et/ou d’un découpage en scènes de l’extrait, et/ou du son présent.
Lors d’une étape 22, est établie une liste restreinte de modèles d’édition possibles choisis dans une base de modèles d’édition en fonction desdites caractéristiques prédéfinies de l’extrait Ve. A l’étape 23, comme visible à la figure 6, un modèle d’édition est sélectionné par l’utilisateur parmi la liste restreinte de modèles établie à l’étape précédente, selon l’effet désiré, par exemple un rythme rapide ou lent de séquence vidéo, la présence de ralentis ou d’accélérés. L’utilisateur peut visualiser plusieurs résultats provenant de la liste restreinte de modèles, à partir de quoi il peut choisir le résultat lui convenant le mieux, ou modifier les paramètres d’entrée fournis.
Lors d’une étape 24, le serveur 3 génère de façon automatisée une séquence vidéo éditée au moins en appliquant à la séquence vidéo d’origine une liste de décisions d’édition propre au modèle d’édition sélectionné par l’utilisateur, telles que décrites précédemment. Dans le cas d’un contenu vidéo lent, par exemple une séance de plongée, les modèles appliquant des ralentis sont de préférence écartés ainsi que ceux prévoyant l’apparition de visages. Au contraire, dans le cas d’un contenu vidéo rapide, par exemple du saut à ski, les modèles appliquant des accélérés sont avantageusement écartés. L’utilisateur a toutefois la possibilité de visualiser le résultat d’autres modèles proposant ce type d’effet dans le cadre de modèles visant à proposer des montages d’édition dits plus « engagés » ou « absurdes ». La génération de la séquence vidéo éditée peut prendre en compte des paramètres supplémentaires rentrés par l’utilisateur sur l’application 4.
La figure 7 illustre différentes étapes d’échanges de données entre l’appareil 2 et le serveur distant 3, par le biais de l’application 4.
Lors d’une étape 31, l’utilisateur choisit un moment clé dans un contenu vidéo d’origine V0, tel que décrit précédemment. A l’étape 32, l’application 4 génère un extrait Ve à partir de ce moment clé, et transmet, à l’étape 33, cet extrait au serveur distant 3 dans une définition Dp inférieure à la définition D0 du contenu vidéo d’origine V0, en compressant, dans l’exemple décrit, l’extrait d’origine pour atteindre cette définition inférieure.
Les étapes 31b et 33b sont identiques aux étapes 31 et 33 pour au moins un autre extrait également sélectionné par l’utilisateur. Des opérations d’édition peuvent être appliquées à cet extrait, qui peut être inclus dans la séquence vidéo éditée finale.
Lors d’une étape 34, le serveur 3 applique au moins une opération d’édition à l’extrait Ve présélectionné reçu et génère une séquence vidéo éditée intermédiaire Vi. L’application 4, à une étape 35, télécharge à partir du serveur 3 la séquence vidéo éditée intermédiaire Vi à une définition de prévisualisation Dp inférieure à la définition du contenu vidéo d’origine.
Lors d’une étape 36, la séquence vidéo intermédiaire Vj générée par le serveur 3 est prévisualisée sur l’appareil 2 à la définition de prévisualisation Dp.
Lors d’une étape 37 éventuelle, l’utilisateur modifie les paramètres de génération de la séquence vidéo éditée, notamment en changeant de modèle d’édition. Ces paramètres sont transmis, dans une étape 38, au serveur 3 par l’application 4.
Dans une étape 39, le serveur 3 génère une seconde séquence intermédiaire, et la transmet, lors de l’étape 40, à l’appareil 2, qui l’affiche à l’étape 41 par le biais de l’application 4.
Après acceptation de l’utilisateur de la séquence vidéo éditée intermédiaire Vi à l’étape 42, l’application 4 transmet cet accord au serveur 3 lors d’une étape 43.
Dans le cas où plusieurs extraits ont été sélectionnés, le serveur 3 génère une liste d’extraits nécessaires à l’élaboration de la séquence vidéo éditée final Vf, et la transmet à l’application 4, selon des étapes 44 et 45. Pour chaque extrait de cette liste, les laps de temps tr et tr à extraire autour du moment Mt sont de préférence inférieurs aux laps de temps ti et \i utilisés pour générer Ve. Cela permet au serveur de proposer différents résultats d’édition, en disposant d'une grande plage de séquence autour du moment sélectionné Mt. Une fois que la séquence finale est choisie, le serveur 3 indique de préférence à l’application 4 quelle partie exacte de la séquence est nécessaire, et l'application ne transmet à la définition de publication uniquement les extraits strictement nécessaires à la séquence vidéo finale.
Lors d’une étape 46, l’application génère alors tous les extraits VepU à la définition de publication Dpu en respectant les laps de temps tr et tr demandés par le serveur 3. L’application 4 transmet tous les extraits Vepu au serveur 3, selon une étape 47.
Le serveur 3 génère, sur la base de la séquence vidéo intermédiaire VI, la séquence vidéo éditée finale Vf à une définition de publication Dpu supérieure à la définition de prévisualisation Dp, lors d’une étape 48. Dans le cas où plusieurs extraits ont été sélectionnés par l’utilisateur et édités, la séquence vidéo éditée finale Vf comprend l’ensemble de ces extraits Vepu.
Lors d’une étape 49, le serveur 3 transmet à l’application 4 la séquence vidéo éditée finale Vf à la définition de publication Dpu, pour mise à disposition sur le réseau de télécommunications.
Bien entendu, l'invention n'est pas limitée aux exemples de réalisation qui viennent d'être décrits, dont les caractéristiques peuvent se combiner au sein de variantes non illustrées.
Le procédé d’échange de données entre une application et un serveur distant selon l’invention peut être utilisé pour but de surveillance par caméras vidéo, la prévisualisation à une définition inférieure permettant notamment de choisir aisément le moment où un individu passe devant la caméra, afin d’appliquer une reconnaissance faciale seulement à cet extrait de l’enregistrement. L’utilisation de détection automatique de scènes peut être utilisée pour améliorer le procédé d’édition de contenus vidéo selon l’invention, par exemple pour détecter des scènes mettant en scène des personnes par opposition aux plans larges de paysage, faisant entrer et/ou sortir un sujet en cours de vidéo, ou pour détecter le type de plan effectué, par exemple un plan fixe, un plan en « travelling », un plan réalisé avec une caméra embarquée, ou la vitesse de déplacement de la caméra, ou les mouvements involontaires de caméra.
Claims (18)
- REVENDICATIONS1. Procédé de gestion de contenus vidéo pour leur édition, utilisant un serveur distant (3) d’un réseau de télécommunications, et une application (4) d’édition de contenus vidéo exécutable sur un appareil (2), tel qu’un téléphone portable, destiné à être relié audit serveur distant (3) par le biais du réseau de télécommunications et ayant accès à un contenu vidéo d’origine (V0), procédé dans lequel : - l’application (4) transmet au moins un extrait (Ve) présélectionné du contenu vidéo d’origine (V0) au serveur distant (3) dans une définition (Dp) inférieure à la définition (D0) du contenu vidéo d’origine (V0), - le serveur (3) applique au moins une opération d’édition à l’extrait (Ve) présélectionné reçu et génère une séquence vidéo éditée intermédiaire (Vi), - le serveur (3) transmet à l’appareil (2) cette séquence vidéo éditée intermédiaire (Vi), - la séquence vidéo intermédiaire (Vi) générée par le serveur (3) est prévisualisée sur l’appareil (2) à une définition de prévisualisation (Dp) inférieure à la définition (D0) du contenu vidéo d’origine (V0), puis - une séquence vidéo éditée finale (Vf) est générée par le serveur (3) sur la base de la séquence vidéo intermédiaire (Vi) et mise à disposition sur le réseau de télécommunications à une définition de publication (Dpu) supérieure à ladite définition inférieure (Dp) de l’extrait présélectionné (Ve).
- 2. Procédé selon la revendication 1, dans lequel, plusieurs extraits du contenu vidéo d’origine (V0) étant sélectionnés et transmis à ladite définition inférieure (Dp) au serveur distant (3) pour leur appliquer au moins une opération d’édition, l’application (4) transmet au serveur distant (3) les séquences vidéo éditées à la définition de publication (Dpu) pour la génération de la séquence vidéo éditée finale (Vf).
- 3. Procédé selon la revendication 1 ou 2, dans lequel l’extrait (Ve) à la définition inférieure (Dp) est généré par l’application (4) en compressant l’extrait d’origine pour atteindre la définition inférieure.
- 4. Procédé selon l’une quelconque des revendications 1 à 3, dans lequel la définition de prévisualisation (Dp) est de 5 à 20 fois inférieure à la définition d’origine, mieux de 10 à 15 fois inférieure.
- 5. Procédé selon l’une quelconque des revendications 1 à 4, dans lequel la définition de publication (Dpu) de la séquence vidéo éditée finale (Vf) est de 5 à 20 fois supérieure à la définition de prévisualisation (Dp), mieux de 10 à 15 fois supérieure.
- 6. Procédé selon l’une quelconque des revendications 1 à 5, dans lequel la définition de prévisualisation (Dp) est comprise entre 240p et 480p, la définition d’origine (D0) étant notamment comprise entre 720p et 1080p.
- 7. Procédé selon l’une quelconque des revendications précédentes, dans lequel la séquence vidéo éditée (Vi) est prévisualisée plusieurs fois à la définition de prévisualisation (Dp), avant la publication de la séquence vidéo éditée finale (Vf).
- 8. Procédé selon l’une quelconque des revendications précédentes, dans lequel la durée de l’extrait (Ve) transmis à la définition inférieure (Dp) correspond à un premier laps de temps prédéfini (ti) avant un marqueur temporel (Mt) placé sur le contenu vidéo d’origine (V0) par le biais de l’application (4) et désignant un moment clé sélectionné au préalable par l’utilisateur, et à un deuxième laps de temps prédéfini (t2) après ce marqueur.
- 9. Procédé selon la revendication précédente, dans lequel les premier (ti) et deuxième (t2) laps de temps prédéfinis sont de durée égale, la durée de l’extrait (Ve) téléchargé étant centrée sur le marqueur temporel (Mt) du moment clé sélectionné.
- 10. Procédé selon l’une quelconque des deux revendications immédiatement précédentes, dans lequel les premier (ti) et deuxième (ti) laps de temps prédéfinis sont compris chacun entre 5 s et 300 s.
- 11. Procédé selon l’une quelconque des revendications précédentes, dans lequel, le serveur distant (3) ayant accès à une base de modèles d’édition de contenus vidéo, à l’aide de l’application (4), on analyse l’extrait (Ve) téléchargé à la définition inférieure (Dp) pour en extraire des caractéristiques prédéfinies, on établit une liste restreinte de modèles d’édition possibles choisis dans la base de modèles en fonction desdites caractéristiques prédéfinies de l’extrait (Ve), et on génère de façon automatisée une séquence vidéo éditée (Vi) au moins en appliquant à l’extrait (Ve) une liste de décisions d’édition propre à un modèle d’édition sélectionné par l’utilisateur parmi la liste restreinte de modèles établie à l’étape précédente.
- 12. Procédé selon la revendication précédente, dans lequel les caractéristiques prédéfinies à extraire de l’extrait (Ve) téléchargé sont des caractéristiques techniques de la vidéo, telles que notamment la résolution, le nombre de trames par seconde, le niveau de compression ou l’orientation, et/ou sont représentatives de la colorimétrie de la vidéo, notamment la luminosité, la saturation, le contraste, ou les couleurs prédominantes, et/ou sont représentatives des mouvements présents dans l’extrait, notamment leur direction et leur vitesse, et/ou sont représentatives d’un découpage en scènes de l’extrait, et/ou sont représentatives du son présent dans l’extrait, notamment la résolution, la fréquence d’échantillonnage et/ou le niveau de compression du son, ou l’ambiance sonore générale, ou la reconnaissance de sons particuliers, par exemple une ou plusieurs voix ou de la musique.
- 13. Procédé selon l’une quelconque des deux revendications immédiatement précédentes, dans lequel la liste de décisions d’édition propre à un modèle d’édition comporte les temps de début et de fin souhaités de l’extrait vidéo (Ve), et/ou un mode de vitesse de lecture de l’extrait, notamment accéléré ou ralenti, et/ou les types de transitions dans l’extrait et les temps de début et de fin de chaque transition, et/ou les types d’effets à inclure sur l’extrait, tels qu’un changement de colorimétrie, une incrustation d’informations, notamment de texte ou d’image(s) fixes ou animées, et les temps de début et de fin de chaque effet, et/ou des paramètres décrivant les contraintes de montage vidéo associées, telles que les nombres minimum et maximum de séquences d’origine, la durée minimale et/ou maximale de chaque séquence, et/ou la définition de règles particulières d’adaptation du modèle, telles que la modification des temps de début et de fin de chaque séquence en fonction de la vitesse, de l’analyse de scènes, des changements de vitesse ou direction des mouvements des différents objets identifiés sur chaque séquence, et/ou de la durée des séquences, et/ou comporte un morceau de musique à ajouter sur la séquence vidéo éditée, associé notamment à des moments acceptables de coupure dudit morceau.
- 14. Procédé selon l’une quelconque des trois revendications immédiatement précédentes, dans lequel la génération de la séquence vidéo éditée finale (Vf) utilisant la liste de décisions d’édition propre au modèle d’édition sélectionné prend en compte des paramètres supplémentaires rentrés par l’utilisateur sur l’application (4), notamment le genre de musique désiré, des choix d’effets supplémentaires, des filtres de colorimétrie et/ou de stabilisation à appliquer à la séquence vidéo, ou des données à incruster dans la séquence, telles que par exemple un titre, un nom de lieu, un ensemble de coordonnées GPS, une position GPS ou des métriques provenant de capteurs, telles que par exemple une vitesse, une altitude, une accélération, une profondeur, une fréquence cardiaque, un dénivelé, ou des données météorologiques.
- 15. Procédé selon l’une quelconque des revendications précédentes, dans lequel, après acceptation de l’utilisateur de la séquence vidéo éditée intermédiaire (Vj), la séquence vidéo éditée finale (Vf) est mise à disposition par le biais de l’application (4) sur le réseau de télécommunications, notamment après sa génération par le serveur distant (3) à la définition de publication (Dpu).
- 16. Procédé d’échanges de données entre un serveur distant (3) d’un réseau de télécommunications et une application (4) d’édition de contenus vidéo exécutable sur un appareil (2), tel qu’un téléphone portable, destiné à être relié audit serveur distant (3) par le biais du réseau de télécommunications et ayant accès à un contenu vidéo d’origine (V0), pour la mise en œuvre du procédé de gestion de contenus vidéo selon l’une quelconque des revendications précédentes, procédé dans lequel : - l’application (4) génère un extrait (Ve) présélectionné du contenu vidéo d’origine (V0) dans une définition (Dp) inférieure à la définition (D0) du contenu vidéo d’origine, notamment en compressant l’extrait (Ve) d’origine pour atteindre ladite définition inférieure, - l’application (4) transmet l’extrait (Ve) présélectionné à ladite définition inférieure (Dp) au serveur distant (3) par le biais du réseau de télécommunications, - le serveur distant (3) génère à partir de l’extrait (Ve) reçu une séquence vidéo éditée intermédiaire (Vi) en appliquant au moins une opération d’édition, - l’application (4) télécharge à partir du serveur (3) la séquence vidéo éditée intermédiaire (Vi) à une définition de prévisualisation (Dp) pour prévisualisation par l’utilisateur, - après acceptation de l’utilisateur de la séquence vidéo éditée intermédiaire (Vi), le serveur distant (3) génère la séquence vidéo éditée finale (Vf) à une définition de publication (Dpu) supérieure à la définition de prévisualisation (Dp), et - le serveur (3) met à disposition la séquence vidéo finale (Vf) à la définition de publication (Dpu), notamment pour la télécharger, la publier ou la sauvegarder sur le réseau de télécommunications.
- 17. Procédé selon la revendication précédente, dans lequel plusieurs extraits (Ve) du contenu vidéo d’origine étant sélectionnés et transmis à une définition inférieure à celle du contenu vidéo d’origine (V0) par l’application (4) au serveur distant (3) pour leur appliquer au moins une opération d’édition, l’application (4) transmet au serveur distant (3) les séquences vidéo éditées (Vi) à la définition de publication (Dpu) pour la génération de la séquence vidéo éditée finale (Vf).
- 18. Application (4) d’édition de contenus vidéo comportant des instructions de code exécutables sur un appareil (2), tel qu’un téléphone portable, comportant un processeur et une mémoire, ces instructions lorsqu’exécutées permettant la mise en œuvre du procédé de gestion de contenus vidéo selon l’une quelconque des revendications 1 à 15, en échangeant des données avec un serveur distant (3) d’un réseau de télécommunications, l’appareil (2) étant destiné à être relié audit serveur distant (3) par le biais du réseau de télécommunications et ayant accès à un contenu vidéo d’origine (V0), l’application (4) étant configurée pour télécharger et/ou transmettre au serveur distant (3) au moins un extrait (Ve) présélectionné du contenu vidéo d’origine (V0) dans une définition (Dp) inférieure à la définition (D0) du contenu vidéo d’origine (V0), afin de permettre la prévisualisation à une définition de prévisualisation (Dp) inférieure à celle du contenu vidéo d’origine (V0) d’au moins une séquence vidéo éditée (Vi) par au moins une opération d’édition appliquée par le serveur distant (3) à l’extrait (Ve) du contenu vidéo d’origine (V0) transmis par l’application (4) à ladite définition (Dp) inférieure, avant la mise à disposition de la séquence vidéo éditée finale (Vf) sur le réseau de télécommunications à une définition de publication (Dpu) supérieure à la définition de prévisualisation (Dp).
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1561755A FR3044852A1 (fr) | 2015-12-02 | 2015-12-02 | Procede de gestion de contenus video pour leur edition |
PCT/EP2016/079553 WO2017093467A1 (fr) | 2015-12-02 | 2016-12-02 | Procede de gestion de contenus video pour leur edition selectionnant des moments ponctuels et utilisant des modeles adaptifs automatisables |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1561755A FR3044852A1 (fr) | 2015-12-02 | 2015-12-02 | Procede de gestion de contenus video pour leur edition |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3044852A1 true FR3044852A1 (fr) | 2017-06-09 |
Family
ID=55862864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1561755A Pending FR3044852A1 (fr) | 2015-12-02 | 2015-12-02 | Procede de gestion de contenus video pour leur edition |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3044852A1 (fr) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112233075A (zh) * | 2020-09-30 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 视频清晰度评估方法、装置、存储介质及电子设备 |
CN113115095A (zh) * | 2021-03-18 | 2021-07-13 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004090898A1 (fr) * | 2003-04-07 | 2004-10-21 | Internet Pro Video Limited | Systeme informatique pour selectionner des trames de support numerique |
US6954894B1 (en) * | 1998-09-29 | 2005-10-11 | Canon Kabushiki Kaisha | Method and apparatus for multimedia editing |
US20080155422A1 (en) * | 2006-12-20 | 2008-06-26 | Joseph Anthony Manico | Automated production of multiple output products |
US8768142B1 (en) * | 2012-01-26 | 2014-07-01 | Ambarella, Inc. | Video editing with connected high-resolution video camera and video cloud server |
-
2015
- 2015-12-02 FR FR1561755A patent/FR3044852A1/fr active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6954894B1 (en) * | 1998-09-29 | 2005-10-11 | Canon Kabushiki Kaisha | Method and apparatus for multimedia editing |
WO2004090898A1 (fr) * | 2003-04-07 | 2004-10-21 | Internet Pro Video Limited | Systeme informatique pour selectionner des trames de support numerique |
US20080155422A1 (en) * | 2006-12-20 | 2008-06-26 | Joseph Anthony Manico | Automated production of multiple output products |
US8768142B1 (en) * | 2012-01-26 | 2014-07-01 | Ambarella, Inc. | Video editing with connected high-resolution video camera and video cloud server |
Non-Patent Citations (1)
Title |
---|
ANONYMOUS: "Actvt.com - The next-gen of mobile video", 8 November 2015 (2015-11-08), XP055300899, Retrieved from the Internet <URL:https://web.archive.org/web/20151108003829/http://actvt.com/> [retrieved on 20160908] * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112233075A (zh) * | 2020-09-30 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 视频清晰度评估方法、装置、存储介质及电子设备 |
CN112233075B (zh) * | 2020-09-30 | 2024-02-20 | 腾讯科技(深圳)有限公司 | 视频清晰度评估方法、装置、存储介质及电子设备 |
CN113115095A (zh) * | 2021-03-18 | 2021-07-13 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备以及存储介质 |
CN113115095B (zh) * | 2021-03-18 | 2022-09-09 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022048478A1 (fr) | Procédé de traitement de données multimédia, procédé de génération de données multimédia, et dispositif associé | |
US20200372935A1 (en) | System and method of generating video from video clips based on moments of interest within the video clips | |
US10728354B2 (en) | Slice-and-stitch approach to editing media (video or audio) for multimedia online presentations | |
US20170134783A1 (en) | High quality video sharing systems | |
EP2393022A2 (fr) | Procédé de création d'une séquence média par groupes cohérents de fichiers médias | |
FR3004565A1 (fr) | Fusion de plusieurs flux video | |
CN113852767A (zh) | 视频编辑方法、装置、设备及介质 | |
US20200152237A1 (en) | System and Method of AI Powered Combined Video Production | |
KR20240132247A (ko) | 상호 작용 방법, 시스템 및 전자 장치 | |
EP3824440A1 (fr) | Procédé mis en oeuvre par ordinateur pour la création de contenus comprenant des images de synthèse | |
FR3044852A1 (fr) | Procede de gestion de contenus video pour leur edition | |
WO2015101663A2 (fr) | Dispositif de création de vidéos augmentées | |
KR102066214B1 (ko) | 호출자 프리뷰 데이터 및 호출자 프리뷰 데이터에 기초한 호출 메시지들 | |
WO2017093467A1 (fr) | Procede de gestion de contenus video pour leur edition selectionnant des moments ponctuels et utilisant des modeles adaptifs automatisables | |
TWI465929B (zh) | 分配合作式電腦編輯系統 | |
FR3044815A1 (fr) | Procede d'edition video par selection de moments ponctuels | |
FR3044816A1 (fr) | Procede d'edition video utilisant des modeles adaptatifs automatisables | |
FR2999372A1 (fr) | Capture d'image dans un signal video | |
FR3009103A1 (fr) | Generation de listes de reproduction de contenus personnalisees | |
EP3479584B1 (fr) | Procede de stockage d'un contenu multimedia, procede de lecture associe et procede de gestion d'un espace de stockage contenant un tel contenu | |
FR2942890A1 (fr) | Procede de creation d'une suite animee de photographies, et appareil pour mettre en oeuvre le procede | |
EP2701398B1 (fr) | Procédé de traitement d'un flux multimédia, serveur et programme d'ordinateur correspondants | |
FR3005181A1 (fr) | Generation d'un document multimedia personnalise relatif a un evenement | |
US11769531B1 (en) | Content system with user-input based video content generation feature | |
FR3005182A1 (fr) | Generation d'un document sonore personnalise relatif a un evenement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20170609 |