ES2832507T3 - Procedimiento de realización de predicción de vector de movimiento, procedimientos de codificación y decodificación y aparatos de los mismos - Google Patents
Procedimiento de realización de predicción de vector de movimiento, procedimientos de codificación y decodificación y aparatos de los mismos Download PDFInfo
- Publication number
- ES2832507T3 ES2832507T3 ES13787534T ES13787534T ES2832507T3 ES 2832507 T3 ES2832507 T3 ES 2832507T3 ES 13787534 T ES13787534 T ES 13787534T ES 13787534 T ES13787534 T ES 13787534T ES 2832507 T3 ES2832507 T3 ES 2832507T3
- Authority
- ES
- Spain
- Prior art keywords
- motion vector
- snapshot
- current
- candidate
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 title claims abstract description 317
- 238000000034 method Methods 0.000 title claims abstract description 167
- 230000007774 longterm Effects 0.000 claims abstract description 16
- 238000004590 computer program Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 84
- 230000005236 sound signal Effects 0.000 description 26
- 230000003287 optical effect Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 239000010410 layer Substances 0.000 description 14
- 238000013139 quantization Methods 0.000 description 14
- 239000000872 buffer Substances 0.000 description 12
- 238000001824 photoionisation detection Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 230000002123 temporal effect Effects 0.000 description 10
- 238000012384 transportation and delivery Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 230000002452 interceptive effect Effects 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000009795 derivation Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000011229 interlayer Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- VBRBNWWNRIMAII-WYMLVPIESA-N 3-[(e)-5-(4-ethylphenoxy)-3-methylpent-3-enyl]-2,2-dimethyloxirane Chemical compound C1=CC(CC)=CC=C1OC\C=C(/C)CCC1C(C)(C)O1 VBRBNWWNRIMAII-WYMLVPIESA-N 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- NRNCYVBFPDDJNE-UHFFFAOYSA-N pemoline Chemical compound O1C(N)=NC(=O)C1C1=CC=CC=C1 NRNCYVBFPDDJNE-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
Un procedimiento de realización de predicción de vector de movimiento para un bloque actual en una instantánea, comprendiendo el procedimiento: determinar (S912;S1010) si derivar, de un primer vector de movimiento de un primer bloque, un candidato para un predictor de vector de movimiento para un vector de movimiento actual del bloque actual, basándose en un tipo de una instantánea de referencia actual y un tipo de una primera instantánea de referencia, siendo el primer bloque (i) un bloque vecino que está incluido en una instantánea actual que incluye el bloque actual y es adyacente al bloque actual o (ii) un bloque coubicado incluido en una instantánea diferente de la instantánea actual, haciéndose referencia a la instantánea de referencia actual desde el bloque actual usando el vector de movimiento actual, y haciéndose referencia a la primera instantánea de referencia desde el primer bloque usando el primer vector de movimiento; derivar (S916;S1014) el candidato escalando el primer vector de movimiento cuando se determina en la determinación que el candidato ha de derivarse del primer vector de movimiento; añadir (S918;S1016) el candidato derivado a una lista de candidatos; y derivar al menos un predictor de vector de movimiento basándose en un candidato seleccionado de la lista de candidatos; caracterizado porque el candidato se determina que se derive del primer vector de movimiento cuando el tipo de la instantánea de referencia actual y el tipo de la primera instantánea de referencia son ambos una instantánea de referencia a largo plazo; y se determina que el candidato no ha de derivarse del primer vector de movimiento cuando la instantánea de referencia actual y las primeras instantáneas de referencia son de diferentes tipos.
Description
DESCRIPCIÓN
Procedimiento de realización de predicción de vector de movimiento, procedimientos de codificación y decodificación y aparatos de los mismos
La presente invención se refiere a un procedimiento de realización de predicción de vector de movimiento, un procedimiento de codificación y un procedimiento de decodificación que implican la predicción de vector de movimiento, y aparatos de codificación y decodificación de los mismos. La presente invención puede aplicarse en cualquier codificación de datos multimedia y, más particularmente, en codificación de vídeo (o imagen) que soporta diferentes tipos de instantáneas de referencia para el procedimiento de predicción de vector de movimiento.
Los esquemas de codificación de vídeo recientes tales como HEVC (Codificación de Vídeo de Alta Eficacia), MVC (Codificación de Vídeo de Múltiples Vistas) o SVC (Codificación de Vídeo Escalable) soportan predicción de interinstantánea usando instantáneas de referencia previamente codificadas. La clasificación de instantáneas de referencia puede ser diferente dependiendo de, por ejemplo, su distancia de Recuento de Orden de Instantánea (POC) de una instantánea objetivo, capa de vista para SVC e id de vista para vídeo en 3D y MVC. Sin embargo, el esquema de codificación convencional aplica la misma predicción de vector de movimiento para todos los tipos de instantáneas de referencia independientemente de su id de vista, capas de vista y si son instantáneas de referencia a corto o a largo plazo. Por ejemplo, realizar escalamiento basado en POC en un vector de movimiento (MV) que apunta a una instantánea de referencia a largo plazo (LTRP) puede dar como resultado que el vector de movimiento escalado tenga una magnitud extremadamente grande o pequeña. En un caso de este tipo, la precisión y eficacia del procedimiento de predicción de vector de movimiento se vuelven subóptimas.
HEVC soporta predicción de vector de movimiento espacial y predicción de vector de movimiento temporal. En predicción de vector de movimiento espacial, el vector de movimiento de una unidad de predicción (PU) objetivo se predice usando un vector de movimiento de una PU vecina previamente codificada. Tanto la PU objetivo como la PU vecina están ubicadas dentro de una instantánea objetivo actual. En predicción de vector de movimiento temporal, se predice un vector de movimiento de una unidad de predicción (PU) objetivo usando un vector de movimiento de un bloque coubicado. El bloque coubicado está ubicado dentro de una instantánea coubicada previamente codificada y el bloque coubicado se codifica usando un vector de movimiento que apunta a una instantánea de referencia (que puede denominarse como una instantánea de referencia coubicada). El término coubicado indica en general que las coordenadas de la PU coubicada dentro de la instantánea coubicada son las mismas que las coordenadas de la PU objetivo dentro de la instantánea objetivo actual. Sin embargo, debido a los tamaños de unidad de codificación variable y de unidad de predicción en HEVC, la PU actual y la PU coubicada pueden no estar alineadas perfectamente (es decir sus coordenadas pueden no ser exactamente las mismas), y se usa un esquema de selección predeterminado para seleccionar la PU coubicada.
Puede obtenerse un predictor de vector de movimiento (MVP) escalando el vector de movimiento de una PU vecina o una PU coubicada basándose en ciertas características del vector de movimiento tales como su distancia temporal (es decir, diferencia de valor de recuento de orden de instantánea (POC)) entre la instantánea objetivo y su correspondiente instantánea de referencia. Por ejemplo, el vector de movimiento de una PU coubicada puede escalarse de acuerdo con la distancia de POC para producir un MVP temporal para la PU actual de acuerdo con la siguiente ecuación:
MVP = (tb / td)* nmv
donde:
MVP = predictor de vector de movimiento temporal derivado del vector de movimiento de bloque coubicado/PU; nmv = vector de movimiento del bloque coubicado/PU;
tb = distancia de POC con signo/diferencia de la instantánea actual a la instantánea de referencia referenciada por el bloque objetivo/PU;
td = distancia de POC con signo/diferencia de la instantánea coubicada a la instantánea de referencia referenciada por el bloque coubicado/PU.
En general, en predicción espacial, para derivar "td", la instantánea objetivo es la instantánea actual y su instantánea de referencia es la instantánea de referencia coubicada. En predicción temporal, para derivar "tb", la instantánea objetivo es la instantánea coubicada y su instantánea de referencia es la instantánea de referencia coubicada. Para derivar "tb", la instantánea objetivo es la instantánea actual y su instantánea de referencia es la referencia actual (es decir, referenciada por la PU objetivo, ya sea de RefListO o RefListl) para tanto predicción espacial como temporal.
Pueden hallarse aspectos con respecto a la selección y escalamiento de predictores de vectores de movimiento en la Referencia no de Patente 2 y 3
Referencia no de patente
NPL 1: ISO/IEC 14496-10, "MPEG-4 Part 10 Advanced Video Coding"
NPL 2: Chong Soon Lim y col.: "Joint Collaborative Team on Video Coding (JCT-VC) of ITU-T SG 16 WP 3 and
ISO/IEC JTC 1: High-level Syntax: MVP scaling issue for LTRPs", 28 de abril de 2012
NPL 3 Yoshitomo Takahashi y col.: "Descriptions of 3D Video Coding Proposal (HEVC-Compatible Category) by Sony", 98. MPEG Meeting; 28-11-2011 - 2-12-2011; Ginebra; (Motion Picture Expert Group OR ISO/IEC JTC1/SC29/WG11), no. m22566, 22 de noviembre de 2011
Como se describe en los antecedentes, el esquema de codificación convencional aplica la misma predicción de vector de movimiento para todos los tipos de instantáneas de referencia, es decir, se realiza escalamiento sin consideración del tipo de instantáneas de referencia implicadas. Por ejemplo, el esquema de escalamiento basado en POC convencional no considera si las instantáneas de referencia implicadas en la predicción de vector de movimiento son instantáneas de referencia a largo plazo. Realizar escalamiento basado en POC en un vector de movimiento que apunta a una instantánea de referencia a largo plazo puede dar como resultado que el vector de movimiento escalado (es decir, MVP) tenga una magnitud errónea extremadamente grande o pequeña. Esto es debido a que la distancia de POC entre una instantánea de referencia a largo plazo (LTRP) y una PU que hace referencia a la LTRP puede ser grande. En un caso de este tipo, la precisión y eficacia del procedimiento de predicción de vector de movimiento se vuelven imprecisas y subóptimas.
Esto se consigue mediante las características de las reivindicaciones independientes.
Las realizaciones de la presente invención buscan proporcionar procedimientos y aparatos para realizar predicción de vector de movimiento con consideración del tipo de las instantáneas de referencia implicadas. En particular, de acuerdo con una realización de la presente invención, si escalar el vector de movimiento para producir un candidato de predictor de vector de movimiento y/o si incluir el vector de movimiento en una lista de candidatos de candidatos de predictor de vector de movimiento, se decide basándose en el tipo de las instantáneas de referencia implicadas. Por lo tanto, la eficacia del procedimiento de predicción de vector de movimiento puede mejorarse puesto que se reducen o retiran etapas de escalamiento innecesarias o indeseables (es decir, el escalamiento que da como resultado que se produzca un predictor de vector de movimiento erróneo).
Las realizaciones de la presente invención buscan eficacia de codificación/decodificación debido a predicción de vector de movimiento más precisa. La complejidad del procedimiento de predicción de vector de movimiento también se reduce ya que se eliminan etapas de escalamiento innecesarias o indeseables.
La invención se define mediante el conjunto adjunto de las reivindicaciones. Cualesquiera referencias a realizaciones que no caen bajo el ámbito de las reivindicaciones han de entenderse como ejemplos útiles para entender la invención.
[Fig. 1] La Figura 1 representa una unidad de codificación más grande (LCU) ejemplar;
[Fig. 2] La Figura 2 representa un diagrama que ilustra una ubicación ejemplar del parámetro de clasificación de instantánea de referencia en la secuencia de bits de vídeo codificado de acuerdo con una realización de la presente invención;
[Fig. 3] La Figura 3 representa un diagrama que ilustra una ubicación ejemplar del parámetro de clasificación de instantánea de referencia en la secuencia de bits de vídeo codificado de acuerdo con una realización de la presente invención;
[Fig. 4] La Figura 4 representa un diagrama que ilustra una ubicación ejemplar del parámetro de clasificación de instantánea de referencia en la secuencia de bits de vídeo codificado de acuerdo con una realización de la presente invención;
[Fig. 5] La Figura 5 representa un diagrama de vista en despiece de la secuencia de bits de vídeo codificado que ilustra una ubicación ejemplar del parámetro de tipo de modo de predicción de acuerdo con una realización de la presente invención;
[Fig. 6] La Figura 6 representa un diagrama de flujo de un procedimiento de realización de predicción de vector de movimiento para un bloque actual en una instantánea de acuerdo con una realización de la presente invención;
[Fig. 7] La Figura 7 representa un diagrama de flujo de un procedimiento de derivación de un candidato de predictor de vector de movimiento en el procedimiento de realización de predicción de vector de movimiento de acuerdo con una realización de la presente invención;
[Fig. 8] La Figura 8 representa una inter-relación general entre diversos bloques e instantáneas en una predicción de movimiento temporal;
[Fig. 9] La Figura 9 representa un diagrama de flujo que ilustra un procedimiento de codificación de un vídeo/imagen de acuerdo con una primera realización de la presente invención;
[Fig. 10] La Figura 10 representa un diagrama de flujo que ilustra un procedimiento de decodificación de un vídeo/imagen codificada de acuerdo con la primera realización de la presente invención;
[Fig. 11] La Figura 11 representa un diagrama de flujo que ilustra un procedimiento de codificación de un vídeo/imagen de acuerdo con una segunda realización de la presente invención;
[Fig. 12] La Figura 12 representa un diagrama de flujo que ilustra un procedimiento de decodificación de un vídeo/imagen codificada de acuerdo con la segunda realización de la presente invención;
[Fig. 13] La Figura 13 representa un diagrama de flujo que ilustra un procedimiento de codificación de un vídeo/imagen de acuerdo con una tercera realización de la presente invención;
[Fig. 14] La Figura 14 representa un diagrama de flujo que ilustra un procedimiento de decodificación de un vídeo/imagen codificada de acuerdo con la tercera realización de la presente invención;
[fig. 15] La Figura 15 representa un diagrama de flujo que ilustra un procedimiento de codificación de un
vídeo/imagen de acuerdo con una cuarta realización de la presente invención;
[fig. 16] La Figura 16 representa un diagrama de flujo que ilustra un procedimiento de decodificación de un vídeo/imagen codificada de acuerdo con la cuarta realización de la presente invención;
[fig. 17] La Figura 17 representa un diagrama de flujo que ilustra un procedimiento de codificación de un vídeo/imagen de acuerdo con una quinta realización de la presente invención;
[fig. 18] La Figura 18 representa un diagrama de flujo que ilustra un procedimiento de decodificación de un vídeo/imagen codificada de acuerdo con la quinta realización de la presente invención;
[fig. 19] La Figura 19 representa un diagrama de flujo que ilustra un procedimiento de codificación de un vídeo/imagen de acuerdo con una sexta realización de la presente invención;
[fig.20] La Figura 20 representa un diagrama de flujo que ilustra un procedimiento de decodificación de un vídeo/imagen codificada de acuerdo con la sexta realización de la presente invención;
[fig.21] La Figura 21 representa un diagrama de bloques que muestra una estructura ejemplar de un aparato de codificación de vídeo/imagen de acuerdo con una realización de la presente invención;
[fig.22] La Figura 22 representa un diagrama de bloques que muestra una estructura ejemplar de un aparato de decodificación de vídeo/imagen de acuerdo con una realización de la presente invención;
[fig.23] La Figura 23 muestra una configuración global de un sistema de suministro de contenido para implementar servicios de distribución de contenido;
[fig.24] La Figura 24 muestra una configuración global de un sistema de difusión digital;
[fig.25] La Figura 25 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una televisión;
[fig.26] La figura 26 muestra un diagrama de bloques que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información desde y en un medio de grabación que es un disco óptico;
[fig.27] La Figura 27 muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico;
[fig.28A] La Figura 28A muestra un ejemplo de un teléfono celular;
[fig.28B] La Figura 28B es un diagrama de bloques que muestra un ejemplo de una configuración de un teléfono celular;
[fig.29] La Figura 29 ilustra una estructura de datos multiplexados;
[fig.30] La Figura 30 muestra esquemáticamente cómo se multiplexa cada flujo en datos multiplexados;
[fig.31] La Figura 31 muestra cómo se almacena un flujo de vídeo en un flujo de paquetes de PES en más detalle;
[fig.32] La Figura 32 muestra una estructura de paquetes de TS y paquetes de origen en los datos multiplexados;
[fig.33] La Figura 33 muestra una estructura de datos de una PMT;
[fig.34] La Figura 34 muestra una estructura interna de información de datos multiplexados;
[fig.35] La Figura 35 muestra una estructura interna de información de atributo de flujo;
[fig.36] La Figura 36 muestra etapas para identificar datos de vídeo;
[fig.37] La Figura 37 muestra un ejemplo de una configuración de un circuito integrado para implementar el procedimiento de codificación de instantáneas en movimiento y el procedimiento de decodificación de instantáneas en movimiento de acuerdo con cada una de las realizaciones;
[fig.38] La Figura 38 muestra una configuración para conmutar entre frecuencias de accionamiento;
[fig.39] La Figura 39 muestra etapas para identificar datos de vídeo y conmutar entre frecuencias de accionamiento;
[fig.40] La Figura 40 muestra un ejemplo de una tabla de correspondencia en la que están asociadas normas de datos de vídeo con frecuencias de accionamiento;
[fig.41A] La Figura 41A es un diagrama que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señal; y
[fig.41B] La Figura 41B es un diagrama que muestra otro ejemplo de una configuración para compartir un módulo de la unidad de procesamiento de señal.
Las últimas normas de codificación de vídeo, por ejemplo, Codificación de Vídeo de Alta Eficacia (HEVC), particionan una instantánea de entrada en bloques cuadrados denominados como las unidades de codificación más grandes (LCU). Una LCU 102 ejemplar se representa en la Figura 1. La LCU 102 comprende unidades de codificación (CU) 104 que pueden codificarse como un bloque intra previsto (representado como bloques sombreados) 106 o un bloque de inter predicción (representado como bloques no sombreados) 108. La CU 104 puede incluir adicionalmente una o más unidades de predicción (PU) 110, cada PU 110 puede usarse para realizar predicción espacial o predicción temporal. Si la CU 104 se codifica en intra modo, cada PU 110 de la CU 104 puede tener su propia dirección de predicción espacial. Por otra parte, si la CU 104 se codifica en inter modo, cada PU 110 de la CU 104 puede tener su propio vector o vectores de movimiento e instantánea o instantáneas de referencia.
En HEVC, se codifican de manera predictiva vectores de movimiento. Para un bloque actual (por ejemplo, PU) 110 que tiene un vector de movimiento actual y una instantánea de referencia actual, un candidato de predictor de vector de movimiento (MVP) para una lista de candidatos (de candidatos de MVP) puede derivarse de un vector de movimiento de un bloque espacialmente vecino o temporalmente coubicado (por ejemplo, PU) del bloque actual. El candidato de MVP puede obtenerse escalando el vector de movimiento de una PU vecina o una PU coubicada basándose en ciertas características del vector de movimiento tal como su distancia temporal (diferencia de valor de POC) entre la instantánea objetivo y su correspondiente instantánea de referencia. Por ejemplo, el vector de movimiento de una PU vecina puede escalarse de acuerdo con la distancia de POC para producir un candidato de MVP espacial para la PU actual para su inclusión en la lista de candidatos. Un MVP adecuado para la PU actual se seleccionará a continuación de la lista de candidatos de acuerdo con un esquema de selección predeterminado
conocido en la técnica.
Como se analiza en los antecedentes, la clasificación de instantáneas de referencia puede ser diferente dependiendo de, por ejemplo, su distancia de Recuento de Orden de Instantánea (POC) de instantánea objetivo, capa de vista para SVC e id de vista para vídeo de 3D y MVC. Sin embargo, el esquema de codificación convencional aplica la misma predicción de vector de movimiento para todos los tipos de instantáneas de referencia independientemente de su id de vista, capas de vista y si son instantáneas de referencia a corto o a largo plazo. Por ejemplo, realizar escalamiento basado en POC en un vector de movimiento que apunta a una instantánea de referencia a largo plazo (LTRP) puede dar como resultado que el vector de movimiento escalado tenga una magnitud extremadamente grande o pequeña. En un caso de este tipo, la precisión y eficacia del procedimiento de predicción de vector de movimiento se vuelven subóptimas.
Las realizaciones de la presente invención buscan proporcionar procedimientos y aparatos para realizar predicción de vector de movimiento con consideración del tipo de las instantáneas de referencia implicadas. En particular, de acuerdo con una realización de la presente invención, si escalar el vector de movimiento para producir un candidato de predictor de vector de movimiento y/o si incluir el vector de movimiento en una lista de candidatos de candidatos de predictor de vector de movimiento, se decide basándose en el tipo de las instantáneas de referencia implicadas. Por lo tanto, la eficacia del procedimiento de predicción de vector de movimiento puede mejorarse puesto que se reducen o retiran etapas de escalamiento innecesarias o indeseables (es decir, el escalamiento que da como resultado que se produzca un predictor de vector de movimiento erróneo).
Las Figuras 2 a 4 representan diagramas que ilustran ubicaciones ejemplares del parámetro 202 de clasificación de instantánea de referencia en la secuencia de bits 200 de vídeo codificado de acuerdo con las realizaciones de la presente invención. La Figura 2 muestra el parámetro 202 de clasificación de instantánea de referencia que está ubicado en un encabezado 204 de secuencia de la secuencia de bits 200 de vídeo codificado de acuerdo con una realización. El encabezado 204 de secuencia es un encabezado de la secuencia de bits 200 de vídeo codificado (por ejemplo, una pluralidad de instantáneas 206). La Figura 3 muestra el parámetro 202 de clasificación de instantánea de referencia que está ubicado en un encabezado 208 de instantánea de una instantánea 206 en la secuencia de bits 200 de vídeo codificado de acuerdo con otra realización. El encabezado 208 de instantánea es el encabezado de una instantánea 206 (por ejemplo, una pluralidad de cortes 210). La Figura 4 muestra el parámetro 202 de clasificación de instantánea de referencia que está ubicado en un encabezado 212 de corte de un corte 210 en la instantánea 206 de acuerdo con otra realización más. El encabezado 212 de corte es el encabezado de un corte 210.
La Figura 5 representa un diagrama de vista en despiece de la secuencia de bits 200 de vídeo codificado que muestra una ubicación ejemplar del parámetro 302 de tipo de modo de predicción de acuerdo con una realización. El parámetro 302 de tipo de modo de predicción indica el modo de predicción (por ejemplo, si se usa o no modo de inter predicción) usado para codificar el bloque actual (por ejemplo, la unidad 104 de codificación o la unidad 110 de predicción). En esta realización, el parámetro 302 de tipo de modo de predicción está ubicado en un encabezado 304 de unidad de codificación (es decir, el encabezado de una unidad 104 de codificación). Como se ilustra en el diagrama de vista en despiece, cada corte 210 comprende un encabezado 212 de corte y los datos 214 de corte asociados que incluyen una pluralidad de unidades 104 de codificación.
Un procedimiento S600 de realización de predicción de vector de movimiento para un bloque actual de una instantánea se describirá ahora de acuerdo con una realización de la presente invención como se ilustra en las Figuras 6 y 7. Como una primera etapa S602, un candidato de predictor de vector de movimiento para una lista de candidatos (es decir, de candidatos de predictor de vector de movimiento) se deriva para el bloque actual que tiene un vector de movimiento actual y una instantánea de referencia actual. Posteriormente, en la etapa S604, el predictor de vector de movimiento para el bloque actual se deriva basándose en un candidato de vector de movimiento seleccionado de la lista de candidatos. La etapa anterior S604 de derivación de un candidato de predictor de vector de movimiento incluye una etapa S702 de selección de un vector de movimiento de un bloque vecino o un bloque coubicado del bloque actual, teniendo el vector de movimiento una instantánea de referencia asociada, y una etapa S704 de decisión de si escalar dicho vector de movimiento para producir el candidato de predictor de vector de movimiento, y/o si incluir dicho vector de movimiento en el conjunto de candidatos, basándose en un tipo de la instantánea de referencia actual y/o un tipo de la instantánea de referencia asociada.
De acuerdo con las realizaciones de la presente invención, se proporciona un procedimiento de codificación para codificar un bloque actual de una instantánea para generar una secuencia de bits 200 codificada y un procedimiento de decodificación para decodificar un bloque actual de la secuencia de bits 200 codificada que incluye el procedimiento S400 de realización de predicción de vector de movimiento para el bloque actual. Para fines de claridad e ilustración, se describirán más tarde a continuación los procedimientos del procedimiento de codificación ejemplar.
Por consiguiente, se reducen o eliminan las etapas de escalamiento innecesarias o indeseables que dan como resultado que se produzcan predictores de vectores de movimiento, mejorando de esta manera la eficacia del procedimiento de predicción de vector de movimiento.
La Figura 8 ilustra la inter-relación general entre el bloque actual (por ejemplo, PU) 804 en la instantánea actual 802, la instantánea 806 u 807 de referencia actual, el bloque 808 coubicado en la instantánea 810 coubicada y la
instantánea 812 de referencia coubicada. Como se ilustra en la Figura 8, el bloque 804 actual u objetivo tiene un vector de movimiento actual y una instantánea 806 u 807 de referencia actual asociada. La instantánea 806 u 807 de referencia actual hace referencia a la instantánea de referencia que se hace referencia por el bloque 802 actual para realizar el procedimiento de inter predicción. Si la instantánea de referencia actual es de RefList1 806 o RefList0807 puede indicarse por una bandera (por ejemplo, collocated_from_10_flag) 814 asociada con el bloque 802 actual. Por ejemplo, RefList0807 puede indicarse por la bandera 814 que tiene un valor "1" y RefList1 806 puede indicarse por la bandera 814 que tiene un valor de "0". En este ejemplo, se predice el vector 808 de movimiento actual (es decir, se deriva un predictor de vector de movimiento) basándose en un vector de movimiento de un bloque 808 coubicado del bloque 804 actual. El vector de movimiento del bloque 808 coubicado señala a una instantánea 812 de referencia que puede denominarse como la instantánea de referencia coubicada.
A partir de la Figura 8, las etapas de ejemplo para derivar una instantánea 812 de referencia coubicada pueden ser como se describe a continuación.
Como una primera etapa, se selecciona una lista de instantáneas de referencia (ya sea RefList1 806 o RefList0807) basándose en la bandera 814 (por ejemplo, collocated_from_10_flag). Por ejemplo, la bandera 814 puede señalizarse a partir del encabezado 212 de corte o el tipo de corte. La lista de instantáneas de referencia seleccionada incluye una o más instantáneas de referencia con sus respectivos índices de referencia. Por ejemplo, una señal (por ejemplo, collocated_ref_idx) 816 se analiza del mismo encabezado 212 de corte que especifica el índice de referencia de la instantánea 810 coubicada usada para predicción de vector de movimiento temporal. Por lo tanto, puede determinarse una instantánea 810 coubicada basándose en la señal 816 que indica el índice de referencia de la instantánea 810 coubicada. Un bloque 808 coubicado dentro de la instantánea 810 coubicada se selecciona/deriva basándose en una técnica de selección predeterminada conocida en la técnica y por lo tanto no necesita describirse en detalle en el presente documento. La información de la instantánea 812 de referencia coubicada que incluye el tipo de instantánea de referencia y el vector de movimiento coubicado puede recuperarse a continuación del bloque 808 coubicado.
Para fines de claridad e ilustración, se describirán adicionalmente ahora en detalle procedimientos ejemplares de codificación y decodificación de vídeo/imagen que implican la predicción de vector de movimiento de acuerdo con las realizaciones de la presente invención.
La Figura 9 representa un diagrama de flujo S900 que ilustra las etapas ejemplares implicadas en la codificación de un vídeo/imagen de acuerdo con una primera realización de la presente invención.
Como una primera etapa S902, se determina la clasificación de instantáneas de referencia para diferenciar o identificar los tipos de instantáneas de referencia implicadas. A continuación en la etapa S904, se escribe el parámetro o parámetros 202 de clasificación de instantánea de referencia en un encabezado de la secuencia de bits 200 de vídeo codificado. Por ejemplo, como se ilustra en la Figura 2, el parámetro o parámetros de clasificación de instantánea de referencia pueden ubicarse en un encabezado 204 de secuencia, un encabezado 208 de instantánea, o un encabezado 202 de corte. El procedimiento de estimación de movimiento se realiza en la etapa S906 para seleccionar una instantánea de referencia actual y un vector de movimiento actual que corresponde a un bloque actual u objetivo de muestras. A continuación, en la etapa S908, se selecciona un bloque vecino inter-previsto de muestras de acuerdo con un esquema de selección predefinido como es conocido para un experto en la materia y por lo tanto no necesita describirse en el presente documento. El bloque vecino inter-previsto tiene un vector de movimiento y una instantánea de referencia asociada señalada por el vector de movimiento. Por simplicidad, el vector de movimiento y la instantánea de referencia del bloque vecino, puede denominarse como vector de movimiento vecino e instantánea de referencia vecina, respectivamente. En la etapa S910, la información relacionada con la instantánea de referencia vecina se recupera del bloque vecino, que incluye su tipo de instantánea de referencia y el vector de movimiento vecino. En la etapa S912, se realiza una decisión/determinación de si una de la instantánea de referencia actual y la instantánea de referencia vecina es o no un tipo de instantánea de referencia particular o predeterminada.
En la primera realización, si una de la instantánea de referencia actual y la instantánea de referencia vecina es del tipo predeterminado de instantánea de referencia, en la etapa S914, el vector de movimiento vecino se excluye de una pluralidad de candidatos de vector de movimiento disponibles para inter predicción del bloque actual. Es decir, se decide no incluir el vector de movimiento vecino en la lista de candidatos de candidatos de predictor de vector de movimiento para el bloque actual. De otra manera, si se determina que al menos una de la instantánea de referencia actual y la instantánea de referencia vecina no es del tipo predeterminado de instantánea de referencia, se realiza escalamiento basado en POC en el vector de movimiento vecino para producir un candidato de MVP en la etapa S916 y el candidato de MVP se incluye en la lista de candidatos en la etapa S918.
En una realización preferida, en la etapa S912, si tanto la instantánea de referencia actual como la instantánea de referencia vecina tienen el mismo tipo de instantánea de referencia (que incluye el caso cuando ambas de las instantáneas de referencia son del tipo predeterminado de instantáneas de referencia), el procedimiento a continuación continúa a la etapa S916. Es decir, se realiza escalamiento basado en POC en el vector de movimiento vecino para producir un candidato de MVP en la etapa S916 y el candidato de MVP se incluye en la lista de candidatos en la etapa S918.
En la etapa S920, se selecciona un MVP de la pluralidad de candidatos de MVP disponibles (es decir, lista de
candidatos). Basándose en el MVP y el vector de movimiento actual, se deriva un vector de movimiento delta en la etapa S922. El vector de movimiento delta derivado y un índice de referencia que indica la instantánea de referencia actual se escriben en la secuencia de bits 200 de vídeo codificado en la etapa s 324. En la etapa S926, el bloque actual se codifica usando el vector de movimiento actual.
Por ejemplo, en las realizaciones descritas en el presente documento, el tipo predeterminado de instantánea de referencia puede ser una instantánea de referencia a largo plazo, una instantánea de referencia inter-vista y/o una instantánea de referencia inter-capa. Un ejemplo de una instantánea inter-vista es una instantánea de referencia que existe a través de diferentes vistas (por ejemplo, vistas en 3D). Ejemplos de instantáneas de referencia inter-capa son instantáneas de referencia que existen a través de diferentes capas de calidad (por ejemplo, escalabilidad de SNR), diferentes capas de resolución (por ejemplo, escalabilidad espacial) y diferentes capas codificadas usando códecs de vídeo diferentes (por ejemplo, una capa codificada usando MPEG2/AVC y otra capa codificada usando HEVC). Típicamente, las capas de vídeo codificado comprenden una capa de base y una o más capa o capas de mejora.
La Figura 10 representa un diagrama de flujo S1000 que ilustra las etapas ejemplares implicadas en la decodificación de un vídeo/imagen codificada de acuerdo con la primera realización de la presente invención.
Como una primera etapa S1000, el parámetro o parámetros 202 de clasificación de instantánea de referencia se analizan a partir de un encabezado de la secuencia de bits de vídeo codificado que diferencia o identifica el tipo de las instantáneas de referencia. A continuación en la etapa S1004, se analiza un vector de movimiento delta y un índice de referencia que indica una instantánea de referencia actual (escrito en la secuencia de bits 200 de vídeo codificado en la etapa S924 del procedimiento de codificación descrito en el presente documento anteriormente) a partir de la secuencia de bits 200 de vídeo codificado. A continuación, en la etapa S1006, se selecciona un bloque vecino inter previsto de muestras de acuerdo con un esquema de selección predefinido como es conocido para un experto en la materia y por lo tanto no necesita describirse en el presente documento. El bloque vecino inter-previsto tiene un vector de movimiento y una instantánea de referencia asociada señalada por el vector de movimiento. Por simplicidad, el vector de movimiento y la instantánea de referencia del bloque vecino pueden denominarse como vector de movimiento vecino e instantánea de referencia vecina, respectivamente. En la etapa S1008, la información relacionada con la instantánea de referencia vecina se recupera del bloque vecino, que incluye su tipo de instantánea de referencia y el vector de movimiento vecino. En la etapa S1010, se realiza una decisión/determinación de si una de la instantánea de referencia actual y la instantánea de referencia vecina es o no un tipo de instantáneas de referencia particulares o predeterminadas.
En la primera realización, de la misma manera que el procedimiento de codificación descrito en el presente documento anteriormente, si una de la instantánea de referencia actual y la instantánea de referencia vecina es del tipo particular de instantánea de referencia, en la etapa S1012, se excluye el vector de movimiento vecino de una pluralidad de candidatos de predictor de vector de movimiento disponibles para inter predicción del bloque actual. Es decir, se decide no incluir el vector de movimiento vecino en la lista de candidatos de candidatos de predictor de vector de movimiento para el bloque actual. De otra manera, si se determina que al menos una de la instantánea de referencia actual y la instantánea de referencia vecina no es del tipo predeterminado de instantánea de referencia, se realiza escalamiento basado en POC en el vector de movimiento vecino para producir un candidato de predictor de vector de movimiento (MVP) en la etapa S1014 y el candidato de MVP se incluye en la lista de candidatos en la etapa S1016.
En una realización preferida, si tanto la instantánea de referencia actual como la instantánea de referencia vecina tienen el mismo tipo de instantánea de referencia (que incluye el caso cuando ambas de las instantáneas de referencia son un tipo particular de instantáneas de referencia), el procedimiento continúa a la etapa S1014. Es decir, se realiza escalamiento basado en POC en el vector de movimiento vecino para producir un candidato de predictor de vector de movimiento (MVP) en la etapa S1014 y el candidato de MVP se incluye en la lista de candidatos en la etapa S1016.
En la etapa S1018, se selecciona un vector de movimiento previsto de la pluralidad de candidatos de vector de movimiento disponibles (es decir, lista de candidatos). En la etapa 1020, se deriva un vector de movimiento actual basándose en el vector de movimiento previsto y el vector de movimiento delta analizado. En la etapa S1022, el bloque actual se decodifica usando el vector de movimiento actual.
La Figura 11 representa un diagrama de flujo S1100 que ilustra las etapas ejemplares implicadas en la codificación de un vídeo/imagen de acuerdo con una segunda realización de la presente invención.
Los procedimientos de codificación de la primera y segunda realizaciones son generalmente iguales excepto en relación con las etapas S1114, S1116 y S1118. Por claridad y para evitar repetición innecesaria, no es necesario describir las etapas de la segunda realización que son iguales o similares a aquellas de la primera realización (es decir, S1102, S1104, S1106, S1108, S1110, S1112, S1120, S1122, S1124, y S1126).
En la segunda realización, si una de la instantánea de referencia actual y la instantánea de referencia vecina es del tipo predeterminado de instantánea de referencia, en la etapa 1114, el vector de movimiento vecino se duplica directamente para producir el candidato de MVP, es decir, sin escalamiento de vector de movimiento. De otra manera, si se determina que al menos una de la instantánea de referencia actual y la instantánea de referencia vecina no son del tipo predeterminado de instantánea de referencia, se realiza escalamiento basado en POC en el vector de
movimiento vecino para producir el candidato de MVP en la etapa S1116. En la segunda realización, para cualquier caso, el candidato de MVP (es decir, el vector de movimiento duplicado de la etapa S 1114 o el vector de movimiento escalado de la etapa S1116) está incluido en la lista de candidatos en la etapa S1118.
En una realización preferida, si tanto la instantánea de referencia actual como la instantánea de referencia vecina tienen el mismo tipo de instantánea de referencia (que incluye el caso cuando ambas de las instantáneas de referencia son un tipo particular de instantáneas de referencia), el procedimiento continúa a la etapa S1116. Es decir, se realiza escalamiento basado en POC en el vector de movimiento vecino para producir el candidato de MVP en la etapa S1116.
Las etapas posteriores (es decir, S1120, S1122, S1124, y S1126) son respectivamente las mismas que las etapas S920, S922, S924, y S926 descritas en la primera realización, y por lo tanto no necesitan repetirse de nuevo.
La Figura 12 representa un diagrama de flujo S1200 que ilustra las etapas ejemplares implicadas en la decodificación de un vídeo/imagen codificada de acuerdo con la segunda realización de la presente invención.
Los procedimientos de decodificación de la primera y segunda realizaciones son en general iguales excepto en relación con las etapas S1212, S1214 y S1216. Por claridad y para evitar repetición innecesaria, no es necesario describir las etapas de decodificación de la segunda realización que son las mismas o similares que aquellas de la primera realización (es decir, S1202, S1204, S1206, S1208, S1210, S1218, S1220, y S1222).
En la segunda realización, si una de la instantánea de referencia actual y la instantánea de referencia vecina es del tipo predeterminado de instantáneas de referencia, en la etapa S1212, el vector de movimiento vecino se duplica directamente para producir el candidato de MVP, es decir, sin escalamiento de vector de movimiento. De otra manera, si se determina que al menos una de la instantánea de referencia actual y la instantánea de referencia vecina no son del tipo predeterminado de instantánea de referencia, se realiza escalamiento basado en POC en el vector de movimiento vecino para producir el candidato de MVP en la etapa S1214. En la segunda realización, para cualquier caso, el candidato de MVP (es decir, el vector de movimiento duplicado de la etapa S1212 o el vector de movimiento escalado de la etapa S1214) está incluido en la lista de candidatos en la etapa S1216.
En una realización preferida, si tanto la instantánea de referencia actual como la instantánea de referencia vecina tienen el mismo tipo de instantánea de referencia (que incluye el caso cuando ambas de las instantáneas de referencia son un tipo particular de instantáneas de referencia), el procedimiento continúa a la etapa S1214. Es decir, se realiza escalamiento basado en POC en el vector de movimiento vecino para producir el candidato de MVP en la etapa S1214.
Las etapas posteriores (es decir, S1218, S1220, y S1222) son respectivamente las mismas que las etapas S1018, S1020, y S1022 descritas en la primera realización, y por lo tanto no necesitan repetirse de nuevo.
La Figura 13 representa un diagrama de flujo S1300 que ilustra las etapas ejemplares implicadas en la codificación de un vídeo/imagen de acuerdo con una tercera realización de la presente invención.
La tercera realización se refiere a predicción de vector de movimiento temporal mientras que la primera realización se refiere a predicción de vector de movimiento espacial. Por lo tanto, el procedimiento de codificación de la tercera realización es en general el mismo que el procedimiento de codificación de la primera realización excepto en relación con el bloque 808 coubicado, la instantánea 810 coubicada, y la instantánea 812 de referencia coubicada (en comparación con el bloque vecino, la instantánea de referencia y la instantánea de referencia vecina).
Como una primera etapa S1302, se determina la clasificación de instantáneas de referencia para diferenciar o identificar el tipo de instantáneas de referencia implicadas. A continuación en la etapa S1304, se escribe el parámetro o parámetros de clasificación de instantánea de referencia en un encabezado de la secuencia de bits 200 de vídeo codificado. El procedimiento de estimación de movimiento se realiza en la etapa S1306 para seleccionar una instantánea de referencia actual y un vector de movimiento actual que corresponde a un bloque actual u objetivo de muestras. A continuación, en la etapa S1310, se selecciona un bloque 808 coubicado de acuerdo con un esquema de selección predeterminado como es conocido para un experto en la materia y por lo tanto no necesita describirse en el presente documento. Como se ilustra en la Figura 8, el bloque 808 coubicado dentro de una instantánea 810 coubicada tiene un vector de movimiento y una instantánea 812 de referencia asociada señalada por el vector de movimiento. Por simplicidad, el vector de movimiento y la instantánea de referencia del bloque 808 coubicado puede denominarse como el vector de movimiento coubicado y la instantánea 812 de referencia coubicada, respectivamente. En la etapa S1312, la información relacionada con la instantánea de referencia coubicada se recupera del bloque coubicado, que incluye su tipo de instantánea de referencia y el vector de movimiento coubicado. En la etapa S1314, se realiza una decisión/determinación de si una de la instantánea de referencia actual y la instantánea de referencia coubicada es o no un tipo de instantánea de referencia particular o predeterminada.
En la tercera realización, si una de la instantánea de referencia actual o la instantánea de referencia coubicada es del tipo predeterminado de instantánea de referencia, en la etapa S1316, el vector de movimiento coubicado se excluye de una pluralidad de candidatos de vector de movimiento disponibles par inter predicción del bloque actual. De otra manera, si se determina que al menos una de la instantánea de referencia actual y la instantánea de referencia coubicada no es del tipo predeterminado de instantánea de referencia, se realiza escalamiento basado en POC en el vector de movimiento vecino para producir un candidato de predictor de vector de movimiento (MVP) en la etapa
S1318 y el candidato de MVP se incluye en la lista de candidatos en la etapa S1320.
En una realización preferida, en la etapa S1314, si tanto la instantánea de referencia actual como la instantánea de referencia coubicada tienen el mismo tipo de instantánea de referencia (que incluye el caso cuando ambas de las instantáneas de referencia son un tipo particular de instantáneas de referencia), el procedimiento continúa a la etapa S1318. Es decir, se realiza escalamiento basado en POC en el vector de movimiento coubicado para producir un candidato de MVP en la etapa 1318 y el candidato de MVP se incluye en la lista de candidatos en la etapa 1320.
En la etapa S1322, se deriva o selecciona un MVP de la pluralidad de candidatos de vector de movimiento disponibles (es decir, la lista de candidatos). Basándose en el MVP y el vector de movimiento actual, se deriva un vector de movimiento delta en la etapa S1324. El vector de movimiento delta derivado y un índice de referencia que indica la instantánea de referencia actual se escriben en la secuencia de bits 200 de vídeo codificado en la etapa S1326. En la etapa S1328, el bloque actual se codifica usando el vector de movimiento actual.
La Figura 14 representa un diagrama de flujo S1400 que ilustra las etapas ejemplares implicadas en la decodificación de un vídeo/imagen codificada de acuerdo con la tercera realización de la presente invención.
Como se ha mencionado en este punto anteriormente, la tercera realización se refiere a predicción de vector de movimiento temporal mientras que la primera realización se refiere a predicción de vector de movimiento espacial. Por lo tanto, el procedimiento de decodificación de la tercera realización es en general el mismo que el procedimiento de decodificación de la primera realización excepto en relación con el bloque 808 coubicado, instantánea 810 coubicada, y la instantánea 812 de referencia coubicada (en comparación con el bloque vecino, instantánea de referencia y la instantánea de referencia vecina).
Como una primera etapa S1402, el parámetro o parámetros 202 de clasificación de instantánea de referencia se analizan de un encabezado de la secuencia de bits 200 de vídeo codificado que diferencia o identifica el tipo de las instantáneas de referencia. A continuación en la etapa S1404, se analiza un vector de movimiento delta y un índice de referencia que indica una instantánea de referencia actual (escrito en la secuencia de bits 200 de vídeo codificado en la etapa S1326 del procedimiento de codificación descrito en el presente documento anteriormente) a partir de la secuencia de bits 200 de vídeo codificado. A continuación, en la etapa S1408, se selecciona un bloque coubicado inter previsto de acuerdo con un esquema de selección predefinido como es conocido para un experto en la materia y por lo tanto no necesita describirse en el presente documento. El bloque 808 coubicado dentro de una instantánea 810 coubicada tiene un vector de movimiento y una instantánea 812 de referencia asociada señalada por el vector de movimiento. Por simplicidad, el vector de movimiento y la instantánea de referencia del bloque 808 coubicado puede denominarse como el vector de movimiento coubicado y la instantánea 812 de referencia coubicada, respectivamente. En la etapa S1410, la información relacionada con la instantánea de referencia coubicada se recupera del bloque coubicado, que incluye su tipo de instantánea de referencia y el vector de movimiento coubicado. En la etapa S1412, se realiza una decisión/determinación de si una de la instantánea de referencia actual o la instantánea de referencia coubicada es o no un tipo de instantánea de referencia particular o predeterminada.
En la tercera realización, de la misma manera como se describe en el procedimiento de codificación, si una de la instantánea de referencia actual y la instantánea de referencia coubicada es del tipo particular de instantáneas de referencia, en la etapa S1414, el vector de movimiento coubicado se excluye de una pluralidad de candidatos de predictor de vector de movimiento disponibles para inter predicción del bloque actual.
En una realización preferida, si tanto la instantánea de referencia actual como la instantánea de referencia coubicada tienen el mismo tipo de instantánea de referencia (que incluye el caso cuando ambas de las instantáneas de referencia son un tipo particular de instantáneas de referencia), el procedimiento continúa a la etapa S1416. Es decir, se realiza escalamiento basado en POC en el vector de movimiento coubicado para producir un candidato de MVP en la etapa 1416 y el candidato de MVP se incluye en la lista de candidatos en la etapa 1418.
En la etapa S1420, se selecciona un MVP de la pluralidad de candidatos de vector de movimiento disponibles. En la etapa S1422, se deriva un vector de movimiento actual basándose en el MVP y el vector de movimiento delta analizado. En la etapa S1424, el bloque actual se decodifica usando el vector de movimiento actual.
La Figura 15 representa un diagrama de flujo S1500 que ilustra las etapas ejemplares implicadas en la codificación de un vídeo/imagen de acuerdo con una cuarta realización de la presente invención.
El procedimiento de codificación de la cuarta realización es generalmente el mismo que el procedimiento de codificación de la tercera realización excepto en relación con las etapas S1516, S1518 y S1520. Por claridad y para evitar repetición innecesaria, no es necesario describir las etapas de la cuarta realización que son las mismas o similares que aquellas de la tercera realización (es decir, S1502, S1504, S1506, S1510, S1512, S1514, S1522, S1524, S1526 y S1528).
En la cuarta realización, en la etapa S1514, si una de la instantánea de referencia actual y la instantánea de referencia coubicada es del tipo predeterminado de instantánea de referencia, el vector de movimiento coubicado se duplica directamente para producir un candidato de MVP en la etapa S1516, es decir, sin escalamiento de vector de movimiento. De otra manera, si se determina que al menos una de la instantánea de referencia actual y la instantánea
de referencia coubicada no son del tipo predeterminado de instantánea de referencia, se realiza escalamiento basado en POC en el vector de movimiento coubicado para producir el candidato de MVP en la etapa S1518. En la cuarta realización, para cualquier caso, un candidato de MVP (es decir, el vector de movimiento duplicado de la etapa S1516 o el vector de movimiento escalado de la etapa S1518) está incluido en la lista de candidatos en la etapa S1520.
En una realización preferida, si tanto la instantánea de referencia actual como la instantánea de referencia coubicada tienen el mismo tipo de instantánea de referencia (que incluye el caso cuando ambas de las instantáneas de referencia son un tipo particular de instantáneas de referencia), el procedimiento continúa a la etapa S1518. Es decir, se realiza el escalamiento basado en POC en el vector de movimiento coubicado para producir el candidato de MVP en la etapa S1518.
Las etapas posteriores (es decir, S1522, S1524, S1526, y S1528) son respectivamente las mismas que las etapas S1322, S1324, S1326, y S1328 descritas en la tercera realización, respectivamente, y por lo tanto no necesitan repetirse de nuevo.
La Figura 16 representa un diagrama de flujo S1600 que ilustra las etapas ejemplares implicadas en la decodificación de un vídeo/imagen codificada de acuerdo con la cuarta realización de la presente invención.
El procedimiento de decodificación de la cuarta realización es generalmente el mismo que el procedimiento de decodificación de la tercera realización excepto en relación con las etapas S1614, S1616 y S1618. Por claridad y para evitar repetición innecesaria, no es necesario describir las etapas de la cuarta realización que son las mismas o similares que aquellas de la tercera realización (es decir, S1602, S1604, S1608, S1610, S1612, S1620, S1622, y S1624).
En la cuarta realización, en la etapa S1612, si una de la instantánea de referencia actual y la instantánea de referencia coubicada es del tipo predeterminado de instantánea de referencia, el vector de movimiento coubicado se duplica directamente para producir el candidato de MVP en la etapa S1614, es decir, sin escalamiento de vector de movimiento. De otra manera, si se determina que al menos una de la instantánea de referencia actual y la instantánea de referencia coubicada no son del tipo predeterminado de instantánea de referencia, se realiza escalamiento basado en POC en el vector de movimiento coubicado para producir el candidato de MVP en la etapa S1616. En la cuarta realización, para cualquier caso, el candidato de MVP (es decir, el vector de movimiento duplicado de la etapa S1614 o el vector de movimiento escalado de la etapa S1616) está incluido en la lista de candidatos en la etapa S1618.
En una realización preferida, si, en la etapa S1612, se determina que tanto la instantánea de referencia actual como la instantánea de referencia coubicada tienen el mismo tipo de instantánea de referencia (que incluye el caso cuando ambas de las instantáneas de referencia son un tipo particular de instantáneas de referencia), el procedimiento continúa a la etapa S1616. Es decir, se realiza el escalamiento basado en POC en el vector de movimiento coubicado para producir el candidato de MVP en la etapa S1616.
Las etapas posteriores (es decir, S1620, S1622, y S1624) son las mismas que las etapas S1420, S1422, y S1424 descritas en la tercera realización, respectivamente, y por lo tanto no necesitan repetirse de nuevo.
La Figura 17 representa un diagrama de flujo S1700 que ilustra las etapas ejemplares implicadas en la codificación de un vídeo/imagen de acuerdo con una quinta realización de la presente invención.
La quinta realización se refiere a un tipo de predicción de vector de movimiento denominado como modo de unión, por ejemplo, la unidad de predicción se codifica en modo de unión. Por lo tanto, el procedimiento de codificación de la quinta realización es el mismo que el procedimiento de codificación de la tercera realización excepto en relación con la selección de la instantánea actual en la etapa S1706 (que estará basado en el de una unidad de predicción codificada de modo de unión) y sin la necesidad de que se determine un vector de movimiento delta para que se escriba en la secuencia de bits 200 de vídeo codificado.
En particular, en la etapa S1706, se selecciona una instantánea de referencia actual de acuerdo con un esquema de selección de instantánea de referencia predefinido para una unidad de predicción codificada de modo de unión (en lugar de la etapa S1506 en la tercera realización). El procedimiento a continuación continúa de la misma manera como se describe en la tercera realización. Sin embargo, después de la etapa S1722 de selección de un MVP de la pluralidad de candidatos de vector de movimiento disponibles, se codifica un bloque de muestras codificado usando el MVP en S1724 (en lugar de la etapa S1324 en la tercera realización de derivación de un vector de movimiento delta).
La Figura 18 representa un diagrama de flujo S1800 que ilustra las etapas ejemplares implicadas en la decodificación de un vídeo/imagen codificada de acuerdo con la quinta realización de la presente invención.
Como se ha mencionado en el presente documento anteriormente, la quinta realización se refiere a un tipo de predicción de vector de movimiento denominado como modo de unión, por ejemplo, la unidad de predicción se codifica en modo de unión. Por lo tanto, el procedimiento de decodificación de la quinta realización es el mismo que el procedimiento de decodificación de la tercera realización excepto en relación con la selección de la instantánea actual en la etapa S1804 (que estará basado en el de una unidad de predicción codificada de modo de unión) y sin la necesidad de analizar el vector de movimiento delta de la secuencia de bits 200 de vídeo codificado.
En particular, en la etapa S1804, se selecciona una instantánea de referencia actual de acuerdo con un esquema de selección de instantánea de referencia predefinido para una unidad de predicción codificada de modo de unión (en lugar de la etapa S1404 en la tercera realización). El procedimiento a continuación continúa de la misma manera como se describe en la tercera realización. Sin embargo, después de la etapa S1820 de selección de un MVP de la pluralidad de candidatos de vector de movimiento disponibles, se reconstruye un bloque de muestras usando el MVP seleccionado en S1822 (en lugar de la etapa S1422 en la tercera realización de derivación de un vector de movimiento actual basándose en el vector de movimiento delta analizado).
La Figura 19 representa un diagrama de flujo S1900 que ilustra las etapas ejemplares implicadas en la codificación de un vídeo/imagen de acuerdo con una sexta realización de la presente invención.
La sexta realización también se refiere a un tipo de predicción de vector de movimiento denominado como modo de unión, por ejemplo, la unidad de predicción se codifica en modo de unión. En particular, el procedimiento de codificación de la sexta realización es el mismo que el procedimiento de codificación de la cuarta realización excepto en relación con la selección de la instantánea actual en la etapa S1906 (que estará basado en el de una unidad de predicción codificada de modo de unión) y sin la necesidad de determinar un vector de movimiento delta para escribirse en la secuencia de bits 200 de vídeo codificado.
En particular, en la etapa S1906, se selecciona una instantánea de referencia actual de acuerdo con un esquema de selección de instantánea de referencia predefinido para una unidad de predicción codificada de modo de unión (en lugar de la etapa S1506 en la cuarta realización). El procedimiento a continuación continúa de la misma manera como se describe en la cuarta realización. Sin embargo, después de la etapa S1922 de selección de un MVP de la pluralidad de candidatos de vector de movimiento disponibles, se codifica el bloque actual de muestras codificadas usando el MVP en S1924 (en lugar de la etapa S1524 en la cuarta realización de derivación de un vector de movimiento delta).
La Figura 20 representa un diagrama de flujo S2000 que ilustra las etapas ejemplares implicadas en la decodificación de un vídeo/imagen codificada de acuerdo con la sexta realización de la presente invención.
Como se ha mencionado en el presente documento anteriormente, la sexta realización también se refiere a un tipo de predicción de vector de movimiento denominado como modo de unión, por ejemplo, la unidad de predicción se codifica en modo de unión. En particular, el procedimiento de decodificación de la sexta realización es el mismo que el procedimiento de decodificación de la cuarta realización excepto en relación con la selección de la instantánea actual en la etapa S2004 (que estará basado en el de una unidad de predicción codificada de modo de unión) y sin la necesidad de analizar el vector de movimiento delta de la secuencia de bits 200 de vídeo codificado.
En particular, en la etapa S2004, se selecciona una instantánea de referencia actual de acuerdo con un esquema de selección de instantánea de referencia predefinido para una unidad de predicción codificada de modo de unión (en lugar de la etapa S1604 en la cuarta realización). El procedimiento a continuación continúa de la misma manera como se describe en la cuarta realización. Sin embargo, después de la etapa S2020 de selección de un MVP de la pluralidad de candidatos de vector de movimiento disponibles, se reconstruye un bloque de muestras usando el MVP seleccionado en S2022 (en lugar de la etapa S1622 en la cuarta realización de derivación de un vector de movimiento actual basándose en el vector de movimiento delta analizado).
La Figura 21 representa un diagrama de bloques que muestra una estructura ejemplar del aparato 2100 de codificación de vídeo/imagen de acuerdo con una realización de la presente invención.
El aparato 2100 de codificación de vídeo está configurado para codificar una secuencia de bits de vídeo/imagen de entrada en una base bloque a bloque para generar una secuencia de bits 200 de salida codificada. Como se muestra en la Figura 21, el aparato 2100 de codificación de vídeo puede comprender una unidad 2101 de transformación, una unidad 2102 de cuantificación, una unidad 2103 de cuantificación inversa, una unidad 2104 de transformación inversa, una memoria 2105 de bloque, una memoria 2106 de instantánea/fotograma, una unidad 2107 de intra predicción, una unidad 2108 de inter predicción, una unidad 2109 de codificación de entropía, una unidad 2130 de control, una unidad 2131 de predicción de vector de movimiento y una unidad 2136 de escritura.
Se describirá ahora un flujo operacional ejemplar. Un vídeo de entrada se introduce a un sumador, y el valor añadido se emite a la unidad 2101 de transformación. La unidad 2101 de transformación transforma los valores añadidos en coeficientes de frecuencia, y emite los coeficientes de frecuencia resultantes a la unidad 2102 de cuantificación. La unidad 2102 de cuantificación cuantifica los coeficientes de frecuencia introducidos, y emite los valores cuantificados resultantes a la unidad 2103 de cuantificación inversa y a la unidad 2109 de codificación de entropía. La unidad 2109 de codificación de entropía codifica los valores cuantificados emitidos de la unidad 2102 de cuantificación, y emite una secuencia de bits 200 codificados.
La unidad 2103 de cuantificación inversa cuantifica a la inversa los valores de muestra emitidos de la unidad 2102 de cuantificación, y emite los coeficientes de frecuencia a la unidad 2104 de transformación inversa. La unidad 2104 de transformación inversa realiza transformada de frecuencia inversa en los coeficientes de frecuencia para transformar los coeficientes de frecuencia en valores de muestra de la secuencia de bits, y emite los valores de muestra resultantes a un sumador. El sumador añade los valores de muestra de la secuencia de bits emitida de la unidad 2104 de transformación inversa a los valores de vídeo/imagen previstos emitidos de la unidad 2107, 2108 de inter/intra
predicción, y emite los valores añadidos resultantes a la memoria 2105 de bloque o a la memoria 2106 de bloque para predicción adicional. La unidad 2107, 2108 de inter/intra predicción busca dentro de los vídeos/imágenes reconstruidos almacenados en la memoria 2105 de bloque o de los vídeos/imágenes reconstruidos en la memoria 2110 de fotograma, y estima un área de vídeo/imagen que es, por ejemplo, más similar a los vídeos/imágenes de entrada para predicción. La unidad 2107 de inter predicción realiza el procedimiento de predicción basándose en el vector de movimiento derivado o seleccionado emitido de la unidad 2131 de predicción de vector de movimiento para producir los valores de vídeo/imagen previstos (es decir, bloque predictivo o un bloque o muestras de predicción para el bloque actual).
La unidad 2130 de control recibe parámetros para derivar MVP (por ejemplo, collocated_from_IO_flag, y collocated_ref_idx) y parámetros para derivar la clasificación de instantánea de referencia de las instantáneas de referencia implicadas (por ejemplo, información de POC de las instantáneas de referencia implicadas). Basándose en un tipo de las instantáneas de referencia implicadas como se ha descrito en el presente documento anteriormente de acuerdo con las realizaciones de la presente invención, la unidad 2130 de control está configurada para decidir si escalar el vector de movimiento para producir el candidato de predictor de vector de movimiento para su inclusión en el conjunto de candidatos, y/o si incluir el vector de movimiento en el conjunto de candidatos. La unidad 2130 de control a continuación emite una señal 2133 indicativa de la decisión a la unidad 2131 de predicción de vector de movimiento.
La unidad 2131 de predicción de vector de movimiento está configurada para derivar un candidato de predictor de vector de movimiento para la lista de candidatos (de candidatos de predictor de vector de movimiento) para el bloque actual que tiene un vector de movimiento actual y una instantánea de referencia actual. La unidad 2131 de predicción de vector de movimiento también está configurada para derivar un predictor 2134 de vector de movimiento basándose en un candidato de vector de movimiento seleccionado de la lista de candidatos. La unidad 2130 de predicción de vector de movimiento a continuación emite una señal indicativa del predictor de vector de movimiento derivado a la unidad 2131 de inter predicción para realizar predicción de vector de movimiento. La unidad 2136 de escritura está configurada para escribir el índice 2137 de referencia que indica la instantánea de referencia actual de la unidad 2131 de predicción de vector de movimiento y el parámetro 2138 de clasificación de instantánea de referencia de la unidad 2130 de control a la secuencia de bits 200 codificada emitida.
La Figura 22 representa un diagrama de bloques que muestra una estructura ejemplar de un aparato 2200 de decodificación de vídeo de acuerdo con una realización de la presente invención.
El aparato 2200 de decodificación de vídeo está configurado para decodificar una secuencia de bits codificada de entrada en una base bloque a bloque y emitir vídeos/imágenes. Como se muestra en la Figura 22, el aparato 2200 de decodificación de vídeo comprende una unidad 2201 de decodificación de entropía, una unidad 2202 de cuantificación inversa, una unidad 2203 de transformación inversa, un bloque 2204 de memoria, una memoria 2205 de instantánea/fotograma, una unidad 2206 de intra predicción, una unidad 2207 de inter predicción, una unidad 2210 de predicción de vector de movimiento, una unidad 2212 de control, y una unidad 2212 de análisis.
Una secuencia de bits codificada de entrada se introduce a la unidad 2201 de decodificación de entropía. Después de que se introduce la secuencia de bits codificada de entrada a la unidad 2201 de decodificación de entropía, la unidad 2201 de decodificación de entropía decodifica la secuencia de bits codificada de entrada, y emite los valores decodificados a la unidad 2202 de cuantificación inversa. La unidad 2202 de cuantificación inversa cuantifica a la inversa los valores decodificados, y emite los coeficientes de frecuencia a la unidad 2203 de transformación inversa. La unidad 2203 de transformación inversa realiza transformada de frecuencia inversa en los coeficientes de frecuencia para transformar los coeficientes de frecuencia en valores de muestra, y emite los valores de píxel resultantes a un sumador. El sumador añade los valores de píxel resultantes a los valores de vídeo/imagen previstos (es decir, bloque predictivo o un bloque o unas muestras de predicción para el bloque actual) emitidos de la unidad 2206, 2207 de intra/inter predicción, y emite los valores resultantes a la pantalla, y emite los valores resultantes a la memoria 2204 de bloque o la memoria 308 de instantánea para predicción adicional. Además, la unidad 2206, 2207 de intra/inter predicción busca dentro de vídeos/imágenes almacenados en la memoria 2204 de bloque o de los vídeos/imágenes reconstruidos en la memoria 2205 de fotograma, y estima un área de vídeo/imagen que es, por ejemplo, más similar a los vídeos/imágenes decodificados para predicción. La unidad 2207 de inter predicción realiza el procedimiento de predicción basándose en el vector 2211 de movimiento derivado o seleccionado emitido de la unidad 2210 de predicción de vector de movimiento para producir los valores de vídeo/imagen previstos.
La unidad 2214 de análisis está configurada para analizar el parámetro 309 de clasificación de instantánea de referencia, un bloque de muestras residuales, un vector de movimiento delta y un índice de referencia que indica una instantánea de referencia actual de la secuencia de bits 200 de vídeo codificado.
La unidad 2210 de predicción de vector de movimiento está configurada para derivar un candidato de predictor de vector de movimiento para una lista de candidatos (de candidatos de predictor de vector de movimiento) para el bloque actual que tiene un vector de movimiento actual y una instantánea de referencia actual. La unidad 2210 de predicción de vector de movimiento también está configurada para derivar un predictor de vector de movimiento basándose en la lista de candidatos. La unidad 2210 de predicción de vector de movimiento a continuación emite una señal indicativa del predictor de vector de movimiento derivado a la unidad 2211 de inter predicción para realizar predicción de vector de movimiento.
La unidad 2212 de control está configurada para seleccionar una instantánea de referencia de una pluralidad de instantáneas de referencia disponibles, seleccionar un bloque de muestras dentro de la instantánea de referencia, y recibir un vector de movimiento de un bloque vecino o un bloque coubicado del bloque actual. El vector de movimiento tiene una instantánea de referencia asociada (es decir, señalada por el vector de movimiento). La unidad 2212 de control también está configurada para decidir si escalar dicho vector de movimiento para producir el candidato de predictor de vector de movimiento, y/o si incluir dicho vector de movimiento en el conjunto de candidatos, basándose en un tipo de la instantánea de referencia actual y/o un tipo de dicha instantánea de referencia asociada. La unidad 2212 de control emite una señal 2214 indicativa de la decisión a la unidad 2210 de predicción de vector de movimiento para derivar el candidato de predictor de vector de movimiento basándose en la señal 2214.
Por consiguiente, se mejora la eficacia de los procedimientos de predicción de vector de movimiento de acuerdo con las realizaciones de la presente invención descritas en el presente documento anteriormente puesto que se reducen o eliminan las etapas de escalamiento innecesarias o indeseables (es decir, escalamiento que da como resultado que se produzca un predictor de vector de movimiento impreciso).
(Realización A)
El procesamiento descrito en cada una de las realizaciones puede implementarse simplemente en un sistema informático independiente, grabando, en un medio de grabación, un programa para que implementa las configuraciones del procedimiento de codificación de instantáneas en movimiento (procedimiento de codificación de imágenes) y el procedimiento de descodificación de instantáneas en movimiento (procedimiento de descodificación de imágenes) descritos en cada una de las realizaciones. El medio de grabación puede ser cualquier medio de grabación siempre que el programa pueda grabarse, tal como un disco magnético, un disco óptico, un disco óptico magnético, una tarjeta de CI, y una memoria de semiconductores.
Posteriormente en el presente documento, se describirán las aplicaciones al procedimiento de codificación de instantáneas en movimiento (procedimiento de codificación de imágenes) y al procedimiento de descodificación de instantáneas en movimiento (procedimiento de descodificación de imágenes) descritos en cada una de las realizaciones, y sistemas que usan los mismos. El sistema tiene una característica de tener un aparato de codificación y de descodificación de imágenes que incluye un aparato de codificación de imágenes que usa el procedimiento de codificación de imágenes y un aparato de descodificación de imágenes que usa el procedimiento de descodificación de imágenes. Pueden cambiarse otras configuraciones en el sistema según sea apropiado, dependiendo de los casos.
La figura 23 ilustra una configuración general de un sistema de provisión de contenido ex100 para la implementación de servicios de distribución de contenido. El área para proporcionar servicios de comunicación se divide en células de tamaño deseado, y las estaciones base ex106, ex107, ex108, ex109 y ex110 que son estaciones inalámbricas fijas se colocan en cada una de las células.
El sistema de provisión de contenido ex100 está conectado a dispositivos, tales como a un ordenador ex111, un asistente digital personal (PDA) ex112, una cámara ex113, un teléfono celular ex114 y una máquina de juegos ex115, mediante Internet ex101, un proveedor de servicios de Internet ex102, una red de telefonía ex104, así como a las estaciones base ex106 a ex110, respectivamente.
Sin embargo, la configuración del sistema de provisión de contenido ex100 no se limita a la configuración mostrada en la figura 23, y es aceptable una combinación en la que está conectado cualquiera de los elementos. Además, cada dispositivo puede estar directamente conectado a la red de telefonía ex104, en lugar de mediante las estaciones base ex106 a ex110 que son las estaciones inalámbricas fijas. Adicionalmente, los dispositivos pueden interconectarse entre sí mediante una comunicación inalámbrica de corta distancia y otras.
La cámara ex113, tal como una cámara de vídeo digital, puede capturar vídeo. Una cámara ex116, tal como una cámara digital, puede capturar tanto imágenes fijas como vídeo. Adicionalmente, el teléfono celular ex114 puede ser el que cumple cualquiera de las normas tales como el Sistema Global para Comunicación Móvil (GSM) (marca registrada), Acceso Múltiple por División de Código (CDMA), Acceso Múltiple por División de Código de Banda Ancha (W- CD-MA), Evolución a Largo Plazo (LTE) y Acceso por Paquetes a Alta Velocidad (HSPA). Como alternativa, el teléfono celular ex114 puede ser un Sistema Móvil Personal (PHS).
En el sistema de provisión de contenido ex100, un servidor de envío por flujo continuo ex103 está conectado a la cámara ex113 y a otros mediante la red de telefonía ex104 y la estación base ex109, que posibilita la distribución de imágenes de un espectáculo en directo y otros. En una distribución de este tipo, un contenido (por ejemplo, vídeo de un espectáculo en directo de música) capturado por el usuario que usa la cámara ex113 se codifica como se ha descrito anteriormente en cada una de las realizaciones (es decir, la cámara funciona como el aparato de codificación de imágenes de acuerdo con un aspecto de la presente invención), y el contenido codificado se transmite al servidor de flujo continuo ex103. Por otra parte, el servidor de flujo continuo ex103 lleva a cabo distribución de flujo en los datos de contenido transmitidos a los clientes tras sus solicitudes. Los clientes incluyen el ordenador ex111, el PDA ex112, la cámara ex113, el teléfono celular ex114, y la máquina de juegos ex115 que pueden descodificar los datos codificados anteriormente mencionados. Cada uno de los dispositivos que han recibido los datos distribuidos descodifican y reproducen los datos codificados (es decir, funciona como el aparato de descodificación de imágenes
de acuerdo con un aspecto de la presente invención).
Los datos capturados pueden codificarse por la cámara ex113 o el servidor de flujo continuo ex103 que transmite los datos, o los procedimientos de codificación pueden compartirse entre la cámara ex113 y el servidor de flujo continuo ex103. De manera similar, los datos distribuidos pueden descodificarse por los clientes o el servidor de flujo continuo ex103, o los procedimientos de descodificaciones pueden compartirse entre los clientes y el servidor de flujo continuo ex103. Adicionalmente, los datos de las imágenes fijas y el vídeo capturado no únicamente por la cámara ex113 sino también por la cámara ex116 pueden transmitirse al servidor de flujo continuo ex103 a través del ordenador ex111. Los procedimientos de codificación pueden realizarse por la cámara ex116, el ordenador ex111, o el servidor de flujo continuo ex103, o compartirse entre ellos.
Adicionalmente, los procedimientos de codificación y descodificación pueden realizarse por un LSI ex500 generalmente incluido en cada uno del ordenador ex111 y los dispositivos. El LSI ex500 puede estar configurado de un único chip o una pluralidad de chips. El software para codificar y descodificar vídeo puede estar integrado en algún tipo de un medio de grabación (tal como un CD-ROM, un disco flexible y un disco duro) que es legible por el ordenador ex111 y otros, y los procedimientos de codificación y descodificación pueden realizarse usando el software. Adicionalmente, cuando el teléfono celular ex114 está equipado con una cámara, los datos de vídeo obtenidos por la cámara pueden transmitirse. Los datos de vídeo son datos codificados por el LSI ex500 incluido en el teléfono celular ex114.
Adicionalmente, el servidor de flujo continuo ex103 puede estar compuesto por servidores y ordenadores, y puede descentralizar los datos y procesar los datos descentralizados, registrar o distribuir los datos.
Como se ha descrito anteriormente, los clientes pueden recibir y reproducir los datos codificados en el sistema de provisión de contenido ex100. En otras palabras, los clientes pueden recibir y descodificar información transmitida por el usuario, y reproducir los datos descodificados en tiempo real en el sistema de provisión de contenido ex100, de modo que el usuario que no tiene ningún derecho y equipo particular puede implementar difusión personal.
Además del ejemplo del sistema de provisión de contenido ex100, al menos uno del aparato de codificación de instantáneas en movimiento (aparato de codificación de imágenes) y el aparato de descodificación de instantáneas en movimiento (aparato de descodificación de imágenes) descritos en cada una de las realizaciones pueden implementarse en un sistema de difusión digital ex200 ilustrado en la figura 24. Más específicamente, una estación de difusión ex201 comunica o transmite mediante ondas de radio a un satélite de difusión ex202, datos multiplexados obtenidos multiplexando datos de audio y otros en datos de vídeo. Los datos de vídeo son datos codificados por el procedimiento de codificación de instantáneas en movimiento descrito en cada una de las realizaciones (es decir, datos codificados por el aparato de codificación de imágenes de acuerdo con un aspecto de la presente invención). Tras la recepción de los datos multiplexados, el satélite de difusión ex202 transmite ondas de radio para difusión. A continuación, una antena de uso doméstico ex204 con una función de recepción de difusión por satélite recibe las ondas de radio. A continuación, un dispositivo tal como una televisión (receptor) ex300 y un descodificador de salón (STB) ex217 descodifica los datos multiplexados recibidos, y reproduce los datos descodificados (es decir, funciona como el aparato de descodificación de imágenes de acuerdo con un aspecto de la presente invención).
Adicionalmente, un lector/grabador ex218 (i) lee y descodifica los datos multiplexados grabados en un medio de grabación ex215, tal como un DVD y un BD, o (i) codifica señales de vídeo en el medio de grabación ex215, y en algunos casos, escribe datos obtenidos multiplexando una señal de audio en los datos codificados. El lector/grabador ex218 puede incluir el aparato de descodificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento como se muestra en cada una de las realizaciones. En este caso, las señales de vídeo reproducidas se visualizan en el monitor ex219, y pueden reproducirse por otro dispositivo o sistema usando el medio de grabación ex215 en el que se graban los datos multiplexados. Es también posible implementar el aparato de descodificación de instantáneas en movimiento en el descodificador de salón ex217 conectado al cable ex203 para una televisión por cable o a la antena ex204 para difusión por satélite y/o terrestre, para visualizar las señales de vídeo en el monitor ex219 de la televisión ex300. El aparato de descodificación de instantáneas en movimiento puede implementarse no en el descodificador de salón sino en la televisión ex300.
La Figura 25 ilustra la televisión (receptor) ex300 que usa el procedimiento de codificación de instantáneas en movimiento y el procedimiento de descodificación de instantáneas en movimiento descritos en cada una de las realizaciones. La televisión ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos multiplexando datos de audio a datos de vídeo, a través de la antena ex204 o el cable ex203, etc. que recibe una difusión; una unidad de modulación/desmodulación ex302 que desmodula los datos multiplexados recibidos o modula datos en datos multiplexados a suministrarse al exterior; y una unidad de multiplexación/desmultiplexación ex303 que desmultiplexa los datos multiplexados modulados en datos de vídeo y datos de audio, o multiplexa datos de vídeo y datos de audio codificados por una unidad de procesamiento de señal en datos ex306.
La televisión ex300 incluye adicionalmente: una unidad de procesamiento de señales ex306 que incluye una unidad de procesamiento de señales de audio ex304 y una unidad de procesamiento de señales de vídeo ex305 que descodifican datos de audio y datos de vídeo y codifican datos de audio y datos de vídeo, respectivamente (que funciona como el aparato de codificación de imágenes y el aparato de descodificación de imágenes de acuerdo con
los aspectos de la presente invención); y una unidad de salida ex309 que incluye un altavoz ex307 que proporciona la señal de audio descodificada, y una unidad de visualización ex308 que visualiza la señal de vídeo descodificada, tal como una pantalla. Adicionalmente, la televisión ex300 incluye una unidad de interfaz ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación de usuario. Adicionalmente, la televisión ex300 incluye una unidad de control ex310 que controla de manera global cada elemento constituyente de la televisión ex300, y una unidad de circuito de fuente de alimentación ex311 que suministra potencia a cada uno de los elementos. Además de la unidad de entrada de operación ex312, la unidad de interfaz ex317 puede incluir: un puente ex313 que se conecta a un dispositivo externo, tal como el lector/grabador ex218; una unidad de ranura ex314 para posibilitar la conexión del medio de grabación ex216, tal como una tarjeta de SD; un controlador ex315 para conectarse a un medio de grabación externo, tal como un disco duro; y un módem ex316 para conectarse a una red de telefonía. En este punto, el medio de grabación ex216 puede grabar eléctricamente información usando un elemento de memoria de semiconductores no volátil/volátil para almacenamiento. Los elementos constituyentes de la televisión ex300 están conectados entre sí a través de un bus síncrono.
En primer lugar, se describirá la configuración en la que la televisión ex300 descodifica datos multiplexados obtenidos desde el exterior a través de la antena ex204 y otros y reproduce los datos descodificados. En la televisión ex300, después de la operación de un usuario a través de un controlador remoto ex220 y otros, la unidad de multiplexación/desmultiplexación ex303 desmultiplexa los datos multiplexados desmodulados por la unidad de modulación/desmodulación ex302, bajo el control de la unidad de control ex310 que incluye una CPU. Adicionalmente, la unida ex304 de procesamiento de señal de audio descodifica los datos de audio desmultiplexados, y la unidad de procesamiento de señal de vídeo ex305 descodifica los datos de vídeo desmultiplexados, usando el procedimiento de descodificación descrito en cada una de las realizaciones, en la televisión ex300. La unidad de salida ex309 proporciona la señal de vídeo descodificada y la señal de audio al exterior, respectivamente. Cuando la unidad de salida ex309 proporciona la señal de vídeo y la señal de audio, las señales pueden almacenarse temporalmente en las memorias intermedias ex318 y ex319, y otros de modo que las señales se reproducen en sincronización entre sí. Adicionalmente, la televisión ex300 puede leer datos multiplexados no a través de una difusión y otros sino desde el medio de grabación ex215 y ex216, tal como un disco magnético, un disco óptico, y una tarjeta de SD. A continuación, se describirá una configuración en la que la televisión ex300 codifica una señal de audio y una señal de vídeo, y transmite los datos al exterior o escribe los datos en un medio de grabación. En la televisión ex300, después de una operación de usuario a través del controlador remoto ex220 y otros, la unidad de procesamiento de señal de audio ex304 codifica una señal de audio, y la unidad de procesamiento de señal de vídeo ex305 codifica una señal de vídeo, bajo el control de la unidad de control ex310 usando el procedimiento de codificación descrito en cada una de las realizaciones. La unidad de multiplexación/desmultiplexación ex303 multiplexa la señal de vídeo y la señal de audio codificadas, y proporciona la señal resultante al exterior. Cuando la unidad de multiplexación/desmultiplexación ex303 multiplexa la señal de vídeo y la señal de audio, las señales pueden almacenarse temporalmente en las memorias intermedias ex320 y ex321, y otros de modo que las señales se reproducen en sincronización entre sí. En este punto, las memorias intermedias ex318, ex319, ex320 y ex321 pueden ser varias como se ilustra, o al menos una memoria intermedia puede compartirse en la televisión ex300. Adicionalmente, se pueden almacenar datos en una memoria intermedia de modo que puede evitarse el desbordamiento y subdesbordamiento del sistema entre la unidad de modulación/desmodulación ex302 y la unidad de multiplexación/desmultiplexación ex303, por ejemplo.
Adicionalmente, la televisión ex300 puede incluir una configuración para recibir una entrada de AV desde un micrófono o una cámara distinta de la configuración para obtener datos de audio y de vídeo desde una difusión o de un medio de grabación, y puede codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexar y proporcionar datos al exterior en la descripción, puede únicamente recibir, descodificar y proporcionar datos al exterior pero no codificar, multiplexar y proporcionar datos al exterior.
Adicionalmente, cuando el lector/grabador ex218 lee o escribe datos multiplexados desde o en un medio de grabación, una de la televisión ex300 y el lector/grabador ex218 pueden descodificar o codificar los datos multiplexados, y la televisión ex300 y el lector/grabador ex218 puede compartir la descodificación o codificación.
Como un ejemplo, la figura 26 ilustra una configuración de una unidad de reproducción/grabación de información ex400 cuando se leen o escriben datos desde o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye los elementos constituyentes ex401, ex402, ex403, ex404, ex405, ex406 y ex407 que se describen en lo sucesivo. El cabezal óptico ex401 irradia un punto láser en una superficie de grabación del medio de grabación ex215 que es un disco óptico para escribir información, y detecta luz reflejada desde la superficie de grabación del medio de grabación ex215 para leer la información. La unidad de grabación de modulación ex402 acciona eléctricamente un láser de semiconductores incluido en el cabezal óptico ex401, y modula la luz de láser de acuerdo con datos grabados. La unidad de desmodulación de reproducción ex403 amplifica una señal de reproducción obtenida detectando eléctricamente la luz reflejada desde la superficie de grabación usando un fotodetector incluido en el cabezal óptico ex401, y desmodula la señal de reproducción separando un componente de señal grabado en el medio de grabación ex215 para reproducir la información necesaria. La memoria intermedia ex404 mantiene temporalmente la información a grabarse en el medio de grabación ex215 y la información reproducida desde el medio de grabación ex215. El motor de disco ex405 gira el medio de grabación ex215. La unidad de servocontrol ex406 mueve el cabezal óptico ex401 a una pista de información predeterminada mientras controla el mecanismo de rotación del motor de disco ex405 para seguir el punto láser. La unidad de control de sistema ex407 controla la totalidad de la unidad de reproducción/grabación de información ex400. Los procedimientos de lectura y escritura pueden
implementarse por la unidad de control de sistema ex407 usando diversa información almacenada en la memoria intermedia ex404 y generando y añadiendo nueva información según sea necesaria, y por la unidad de grabación de modulación ex402, la unidad de desmodulación de reproducción ex403, y la unidad de servocontrol ex406 que graban y reproducen información a través del cabezal óptico ex401 mientras se operan de una manera coordinada. La unidad de control de sistema ex407 incluye, por ejemplo, un microprocesador y ejecuta procesamiento provocando que un ordenador ejecute un programa para lectura y escritura.
Aunque el cabezal óptico ex401 irradia un punto láser en la descripción, puede realizar grabación de alta densidad usando luz de campo cercano.
La figura 27 ilustra el medio de grabación ex215 que es el disco óptico. En la superficie de grabación del medio de grabación ex215, se forman de manera espiral surcos de guía, y una pista de información ex230 graba, con antelación, información de dirección que indica una posición absoluta en el disco de acuerdo con el cambio en una forma de las ranuras de guía. La información de dirección incluye información para determinar posiciones de bloques de grabación ex231 que son una unidad para grabar datos. Reproducir la pista de información ex230 y leer la información de dirección en un aparato que graba y reproduce datos puede conducir a la determinación de las posiciones de los bloques de grabación. Adicionalmente, el medio de grabación ex215 incluye un área de grabación de datos ex233, un área de circunferencia interna ex232, y un área de circunferencia externa ex234. El área de grabación de datos ex233 es un área para su uso al grabar los datos de usuario. El área de circunferencia interna ex232 y el área de circunferencia externa ex234 que están en el interior y el exterior del área de grabación de datos ex233, respectivamente son para uso específico excepto para la grabación de los datos de usuario. La unidad de reproducción/grabación de información 400 lee y escribe datos de audio codificado, datos de vídeo codificado, o datos multiplexados obtenidos multiplexando los datos de audio y vídeo codificados, desde y en el área de grabación de datos ex233 del medio de grabación ex215.
Aunque se describe un disco óptico que tiene una capa, tal como un DVD y un BD como un ejemplo en la descripción, el disco óptico no se limita a esto, y puede ser un disco óptico que tiene una estructura de múltiples capas y que puede grabarse en una parte distinta de la superficie. Adicionalmente, el disco óptico puede tener una estructura para grabación/reproducción multidimensional, tal como grabación de información usando luz de colores con diferentes longitudes de onda en la misma porción del disco óptico y para grabar información que tiene diferentes capas desde diferentes ángulos.
Adicionalmente, un coche ex210 que tiene una antena ex205 puede recibir datos desde el satélite ex202 y otros, y reproducir vídeo en un dispositivo de visualización tal como un sistema de navegación de coche ex211 establecido en el coche ex210, en el sistema de difusión digital ex200. En este punto, una configuración del sistema de navegación de automóvil ex211 será una configuración, por ejemplo, que incluye una unidad de recepción de GPS a partir de la configuración ilustrada en la figura 25. Lo mismo se cumplirá para la configuración del ordenador ex111, el teléfono celular ex114, y otros.
La figura 28A ilustra el teléfono celular ex114 que usa el procedimiento de codificación de instantáneas en movimiento y el procedimiento de descodificación de instantáneas en movimiento descritos en las realizaciones. El teléfono celular ex114 incluye: una antena ex350 para transmitir y recibir ondas de radio a través de la estación base ex110; una unidad de cámara ex365 capaz de capturar imágenes en movimiento y fijas; y una unidad de visualización ex358 tal como un visualizador de cristal líquido para visualizar datos tales como vídeo descodificado capturado por la unidad de cámara ex365 o recibido por la antena ex350. El teléfono celular ex114 incluye adicionalmente: una unidad de cuerpo principal que incluye una unidad de teclas de operación ex366; una unidad de salida de audio ex357 tal como un altavoz para la salida de audio; una unidad de entrada de audio ex356 tal como un micrófono para la entrada de audio; una unidad de memoria ex367 para almacenar vídeo capturado o instantáneas fijas, audio grabado, datos codificados o des codificados del vídeo recibido, las instantáneas fijas, correos electrónicos, u otros; y una unidad de ranura ex364 que es una unidad de interfaz para un medio de grabación que almacena datos de la misma forma que la unidad de memoria ex367.
A continuación, un ejemplo de una configuración del teléfono celular ex114 se describirá con referencia a la figura 28B. En el teléfono celular ex114, una unidad de control principal ex360 diseñada para controlar en general cada unidad del cuerpo principal que incluye la unidad de visualización ex358 así como la unidad de teclas de operación ex366 se conecta mutuamente, a través de un bus síncrono ex370, a una unidad de circuito de fuente de alimentación ex361, una unidad de control de entrada de operación ex362, una unidad de procesamiento de señales de vídeo ex355, una unidad de interfaz de cámara ex363, una unidad de control de pantalla de cristal líquido (LCD) ex359, una unidad de modulación/desmodulación ex352, una unidad de multiplexación/desmultiplexación ex353, una unidad de procesamiento de señales de audio ex354, la unidad de ranura ex364 y la unidad de memoria ex367.
Cuando una tecla de fin de llamada o una tecla de alimentación es activada por una operación de un usuario, la unidad de circuito de fuente de alimentación ex361 abastece a las unidades respectivas con alimentación procedente de un paquete de batería con el fin de activar el teléfono celular ex114.
En el teléfono celular ex114, la unidad de procesamiento de señales de audio ex354 convierte las señales de audio recogidas por la unidad de entrada de audio ex356 en modo de conversación por voz en señales de audio digital bajo
el control de la unidad de control principal ex360 que incluye una CPU, ROM y RAM. Entonces, la unidad de modulación/desmodulación ex352 realiza un procesamiento de espectro ensanchado sobre las señales de audio digital, y la unidad de transmisión y de recepción ex351 realiza una conversión de analógico a digital y una conversión en frecuencia sobre los datos, con el fin de transmitir los datos resultantes por medio de la antena ex350. Asimismo, en el teléfono celular ex114, la unidad de transmisión y de recepción ex351 amplifica los datos recibidos por la antena ex350 en modo de conversación por voz y realiza la conversión en frecuencia y la conversión de digital a analógico sobre los datos. Entonces, la unidad de modulación/desmodulación ex352 realiza un procesamiento de espectro ensanchado inverso sobre los datos, y la unidad de procesamiento de señales de audio ex354 los convierte en señales de audio analógico, con el fin de emitir las mismas por medio de la unidad de salida de audio ex357.
Además, cuando se transmite un correo electrónico en modo de comunicación de datos, datos de texto del correo electrónico introducido al operar la unidad de teclas de operación ex366 y otros del cuerpo principal se envían fuera a la unidad de control principal ex360 por medio de la unidad de control de entrada de operación ex362. La unidad de control principal ex360 da lugar a que la unidad de modulación/desmodulación ex352 realice un procesamiento de espectro ensanchado sobre los datos de texto, y la unidad de transmisión y de recepción ex351 realiza la conversión de analógico a digital y la conversión en frecuencia sobre los datos resultantes para transmitir los datos a la estación base ex110 por medio de la antena ex350. Cuando se recibe un correo electrónico, un procesamiento que es aproximadamente inverso al procesamiento para transmitir un correo electrónico se realiza sobre los datos recibidos, y los datos resultantes se proporcionan a la unidad de visualización ex358.
Cuando se transmite o transmiten vídeo, imágenes fijas o vídeo y audio en modo de comunicación de datos, la unidad de procesamiento de señales de vídeo ex355 comprime y codifica señales de vídeo suministradas desde la unidad de cámara ex365 usando el procedimiento de codificación de instantáneas en movimiento mostrado en cada una de las realizaciones (es decir, funciona como el aparato de codificación de imágenes de acuerdo con el aspecto de la presente invención), y transmite los datos de vídeo codificados a la unidad de multiplexación/desmultiplexación ex353. En contraposición, durante cuando la unidad de cámara ex365 captura vídeo, imágenes fijas, y otros, la unidad de procesamiento de señales de audio ex354 codifica las señales de audio recogidas por la unidad de entrada de audio ex356, y transmite los datos de audio codificados a la unidad de multiplexación/desmultiplexación ex353.
La unidad de multiplexación/desmultiplexación ex353 multiplexa los datos de vídeo codificados suministrados desde la unidad de procesamiento de señales de vídeo ex355 y los datos de audio codificados suministrados desde la unidad de procesamiento de señales de audio ex354, usando un procedimiento predeterminado. Entonces, la unidad de modulación/desmodulación (unidad de circuito de modulación/desmodulación) ex352 realiza un procesamiento de espectro ensanchado sobre los datos multiplexados, y la unidad de transmisión y de recepción ex351 realiza una conversión de analógico a digital y una conversión en frecuencia sobre los datos con el fin de transmitir los datos resultantes por medio de la antena ex350.
Cuando se reciben datos de un archivo de vídeo que está vinculado a una página web y otros en modo de comunicación de datos o cuando se recibe un correo electrónico con vídeo y/o audio adjunto, para descodificar los datos multiplexados recibidos a través de la antena ex350, la unidad de multiplexación/desmultiplexación ex353 desmultiplexa los datos multiplexados en una secuencia de bits de datos de vídeo y un secuencia de bits de datos de audio, y suministra a la unidad de procesamiento de señales de vídeo ex355 los datos de vídeo codificados y la unidad de procesamiento de señales de audio ex354 con los datos de audio codificados, a través del bus síncrono ex370. La unidad de procesamiento de señales de vídeo ex355 descodifica la señal de vídeo usando un procedimiento de descodificación de instantáneas en movimiento que se corresponde con el procedimiento de codificación de instantáneas en movimiento mostrado en cada una de las realizaciones (es decir, funciona como el aparato de descodificación de imágenes de acuerdo con el aspecto de la presente invención) y, entonces, la unidad de visualización ex358 visualiza, por ejemplo, el vídeo y las imágenes fijas incluidos en el archivo de vídeo vinculado a la página Web por medio de la unidad de control de LCD ex359. Además, la unidad de procesamiento de señales de audio ex354 descodifica la señal de audio, y la unidad de salida de audio ex357 proporciona el audio.
Adicionalmente, de manera similar a la televisión ex300, un terminal tal como el teléfono celular ex114 probablemente tiene 3 tipos de configuraciones de implementación que incluyen no únicamente (i) un terminal de transmisión y recepción que incluye tanto un aparato de codificación como un aparato de descodificación, sino también (ii) un terminal de transmisión que incluye únicamente un aparato de codificación y (iii) un terminal de recepción que incluye únicamente un aparato de descodificación. Aunque el sistema de difusión digital ex200 recibe y transmite los datos multiplexados obtenidos multiplexando datos de audio en datos de vídeo en la descripción, los datos multiplexados pueden ser datos obtenidos multiplexando no datos de audio sino datos de caracteres relacionados con vídeo en datos de vídeo, y pueden no ser datos multiplexados sino los mismos datos de vídeo.
En este sentido, el procedimiento de codificación de instantáneas en movimiento y el procedimiento de descodificación de instantáneas en movimiento en cada una de las realizaciones se pueden usar en cualquiera de los dispositivos y sistemas descritos. Por lo tanto, se pueden obtener las ventajas descritas en cada una de las realizaciones.
Además, la presente invención no se limita a las realizaciones, y son posibles diversas modificaciones y revisiones sin apartarse del ámbito de la presente invención.
(Realización B)
Los datos de vídeo se pueden generar conmutando, según sea necesario, entre (i) el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento mostrados en cada una de realizaciones y (ii) un procedimiento de codificación de instantáneas en movimiento o un aparato de codificación de instantáneas en movimiento cumpliendo con una norma diferente, tal como MPEG-2, AVC de MPEG-4 y VC-1.
En este punto, cuando se genera una pluralidad de datos de vídeo que cumple con las diferentes normas y se descodifican a continuación, necesitan seleccionarse los procedimientos de descodificación para cumplir con las diferentes normas. Sin embargo, puesto que no puede detectarse a qué norma está conforme cada uno de la pluralidad de los datos de vídeo a descodificarse, existe un problema de que no puede seleccionarse un procedimiento de descodificación apropiado.
Para resolver el problema, los datos multiplexados obtenidos multiplexando datos de audio y otros en datos de vídeo tienen una estructura que incluye información de identificación que indica con qué norma cumplen los datos de vídeo. Se describirá en lo sucesivo la estructura específica de los datos multiplexados que incluyen los datos de vídeo generados en el procedimiento de codificación de instantáneas en movimiento y por el aparato de codificación de instantáneas en movimiento mostrados en cada una de las realizaciones. Los datos multiplexados son un flujo digital en el formato de Flujo de Transporte de MPEG-2.
La figura 29 ilustra una estructura de los datos multiplexados. Como se ilustra en la figura 29, los datos multiplexados pueden obtenerse multiplexando al menos uno de un flujo de vídeo, un flujo de audio, un flujo de gráficos de presentación (PG), y un flujo de gráficos interactivo. El flujo de vídeo representa vídeo primario y vídeo secundario de una película, el flujo de audio (IG) representa una parte de audio primario y una parte de audio secundario a mezclarse con la parte de audio primario, y el flujo de gráficos de presentación representa subtítulos de la película. En este punto, el vídeo primario es vídeo normal a visualizarse en una pantalla, y el vídeo secundario es vídeo a visualizarse en una ventana más pequeña en el vídeo primario. Adicionalmente, el flujo de gráficos interactivo representa una pantalla interactiva a generarse disponiendo los componentes de la GUI en una pantalla. El flujo de vídeo se codifica en el procedimiento de codificación de instantáneas en movimiento o por el aparato de codificación de instantáneas en movimiento mostrado en cada una de las realizaciones, o en un procedimiento de codificación de instantáneas en movimiento o por un aparato de codificación de instantáneas en movimiento cumpliendo con una norma convencional, tal como MPEG-2, AVC de MPEG-4 y VC-1. El flujo de audio se codifica de acuerdo con una norma, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD y PCM lineal.
Cada flujo incluido en los datos multiplexados se identifica por PID. Por ejemplo, se asigna 0x1011 al flujo de vídeo a usar para vídeo de una película, se asigna 0x1100 a 0x111F a los flujos de audio, se asigna 0x1200 a 0x121 F al flujo de gráficos de presentación, se asigna 0x1400 a Ox141F al flujo de gráficos interactivos, se asigna 0x1B00 a Ox1B1F a los flujos de vídeo a usar para vídeo secundario de la película, y se asigna 0x1A00 a 0x1A1F a los flujos de audio a usar para el audio secundario a mezclarse con el audio principal.
La Figura 30 ilustra esquemáticamente cómo se multiplexan datos. En primer lugar, un flujo de vídeo ex235 compuesto por tramas de vídeo y un flujo de audio ex238 compuesto por tramas de audio se transforman en un flujo de paquetes de PES ex236 y un flujo de paquetes de PES ex239, y adicionalmente en paquetes de TS ex237 y paquetes de TS ex240, respectivamente. De manera similar, los datos de un flujo de gráficos de presentación ex241 y los datos de un flujo de gráficos interactivo ex244 se transforman en un flujo de paquetes de PES ex242 y un flujo de paquetes de p Es ex245, y adicionalmente en paquetes de TS ex243 y paquetes de TS ex246, respectivamente. Estos paquetes de TS se multiplexan en un flujo para obtener datos multiplexados ex247.
La Figura 31 ilustra cómo se almacena un flujo de vídeo en un flujo de paquetes de PES en más detalle. La primera barra en la figura 31 muestra un flujo de tramas de vídeo en un flujo de vídeo. La segunda barra muestra el flujo de paquetes de PES. Como se indica por las flechas indicadas como yy1, yy2, yy3 y yy4 en la figura 31, el flujo de vídeo se divide en instantáneas como instantáneas I, instantáneas B e instantáneas P cada una de las cuales es una unidad de presentación de vídeo, las instantáneas se almacenan en una cabida útil de cada uno de los paquetes de PES. Cada uno de los paquetes de PES tiene un encabezado de PES, y el encabezado de PES almacena una Indicación de Tiempo de Presentación (PTS) que indica un tiempo de visualización de la instantánea, y una Indicación de Tiempo de descodificación (DTS) que indica un tiempo de descodificación de la instantánea.
La Figura 32 ilustra un formato de paquetes de TS a escribir finalmente en los datos multiplexados. Cada uno de los paquetes de TS es un paquete de longitud fija de 188 bytes que incluye un encabezamiento de TS de 4 bytes que tiene información, tal como un PID para identificar un flujo y una cabida útil de TS de 184 bytes para almacenar datos. Los paquetes de PES se dividen y se almacenan en las cabidas útiles de TS, respectivamente. Cuando se usa un BD ROM, a cada uno de los paquetes de TS se le proporciona un TP_Encabezamiento_Adicional de 4 bytes, dando como resultado por lo tanto paquetes de origen de 192 bytes. Los paquetes de origen se escriben en los datos multiplexados. El TP_Encabezamiento_Adicional almacena información tal como una Indicación_Tiempo_Llegada (ATS). La ATS muestra un tiempo de inicio de transferencia en el que se ha de transferir cada uno de los paquetes de TS a un filtro de PID. Los paquetes de origen se disponen en los datos multiplexados como se muestra en la parte inferior de la figura 32. Los números que incrementan desde la cabecera de los datos multiplexados se denominan números de
paquete de origen (SPN).
Cada uno de los paquetes de TS incluidos en los datos multiplexados incluye no únicamente flujos de audio, vídeo, subtítulos y otros, sino también una Tabla de Asociación de Programa (PAT), una Tabla de Mapa de Programa (PMT), y una Referencia de Reloj de Programa (PCR). La PAT muestra qué indica un PID en una PMT usada en los datos multiplexados, y un PID de la misma PAT se registra como cero. La PMT almacena los PID de los flujos de vídeo, audio, subtítulos y otros incluidos en los datos multiplexados, y la información de atributo de los flujos que se corresponden con los PID. La PMT también tiene diversos descriptores relacionados con los datos multiplexados. Los descriptores tienen información tal como información de control de copia que muestra si se permite o no el copiado de los datos multiplexados. La PCR almacena información de tiempo de STC que se corresponde con una ATS que muestra cuándo se transfiere el paquete de PCR a un descodificador, para conseguir sincronización entre un Reloj de Tiempo de Llegada (ATC) que es el eje de tiempo de las ATS, y un Reloj de Tiempo de Sistema (STC) que es un eje de tiempo de las PTS y DTS.
La Figura 33 ilustra la estructura de datos de la PMT en detalle. Un encabezado de PMT está dispuesto en la parte superior de la PMT. El encabezado de la PMT describe la longitud de datos incluidos en la PMT y otros. Una pluralidad de descriptores relacionados con los datos multiplexados están dispuestos después del encabezado de PMT. La información tal como la información de control de copia se describe en los descriptores. Después de los descriptores, está dispuesta una pluralidad de fragmentos de la información de flujo relacionados con los flujos incluidos en los datos multiplexados. Cada fragmento de la información de flujo incluye descriptores de flujo que cada uno describe información, tal como un tipo de flujo para identificar un códec de compresión de un flujo, un PID de flujo, e información de atributo de flujo (tal como una velocidad de tramas o una relación de aspecto). Los descriptores de flujo son iguales en número al número de flujos en los datos multiplexados.
Cuando los datos multiplexados se graban en un medio de grabación y otros, se registran juntos con archivos de información de datos multiplexados.
Cada uno de los archivos de información de datos multiplexados es información de gestión de los datos multiplexados como se muestra en la figura 34. Los archivos de información de datos multiplexados están en una correspondencia uno a uno con los datos multiplexados, y cada uno de los archivos incluye información de datos multiplexados, información de atributo de flujo y un mapa de entrada.
Como se ilustra en la figura 34, la información de datos multiplexados incluye una tasa de sistema, un tiempo de inicio de reproducción y un tiempo de fin de reproducción. La velocidad de sistema indica la velocidad de trasferencia máxima a la que un descodificador objetivo de sistema que se va a describir más adelante transfiere los datos multiplexados a un filtro de PID. Los intervalos de las ATS incluidas en los datos multiplexados se establecen para que no sean superiores a una velocidad de sistema. El tiempo de inicio de reproducción indica una PTS en una trama de vídeo en la cabecera de los datos multiplexados. Un intervalo de una trama se añade a una PTS en una trama de vídeo al final de los datos multiplexados, y la PTS se establece al tiempo de fin de reproducción.
Como se muestra en la figura 35, se registra un fragmento de información de atributo en la información de atributo de flujo, para cada PID de cada flujo incluido en los datos multiplexados. Cada fragmento de información de atributo tiene diferente información dependiendo de si el correspondiente flujo es un flujo de vídeo, un flujo de audio, un flujo de gráficos de presentación, o un flujo de gráficos interactivo. Cada fragmento de información de atributo de flujo de vídeo lleva información que incluye qué tipo de códec de compresión se usa para comprimir el flujo de vídeo, y la resolución, relación de aspecto y velocidad de tramas de los fragmentos de datos de instantánea que se incluyen en el flujo de vídeo. Cada fragmento de información de atributo de flujo de audio lleva información que incluye qué clase de códec de compresión se usa para comprimir el flujo de audio, cuántos canales están incluidos en el flujo de audio, qué idioma soporta el flujo de audio, y cómo de alta es la frecuencia de muestreo. La información de atributo de flujo de vídeo y la información de atributo de flujo de audio se usan para inicialización de un descodificador antes de que el reproductor reproduzca la información.
En la presente realización, los datos multiplexados a usar son de un tipo de flujo incluido en la PMT. Adicionalmente, cuando los datos multiplexados se graban en un medio de grabación, se usa la información de atributo de flujo de vídeo incluida en la información de datos multiplexados. Más específicamente, el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones incluyen una etapa o una unidad para asignar información única que indica datos de vídeo generados por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento en cada una de las realizaciones, al tipo de flujo incluido en la PMT o la información de atributo de flujo de vídeo. Con la configuración, los datos de vídeo generados por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones pueden distinguirse de los datos de vídeo que se ajustan a otra norma.
Adicionalmente, la figura 36 ilustra las etapas del procedimiento de descodificación de instantáneas en movimiento de acuerdo con la presente realización. En la etapa exS100, el tipo de flujo incluido en la PMT o la información de atributo de flujo de vídeo incluido en la información de datos multiplexados se obtiene desde los datos multiplexados. A continuación, en la etapa exS101, se determina si el tipo de flujo o la información de atributo de flujo de vídeo indica o
no que los datos multiplexados se generan por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento en cada una de las realizaciones. Cuando se determina que el tipo de flujo o la información de atributo de flujo de vídeo indica que los datos multiplexados se generan por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento en cada una de las realizaciones, en la etapa exS102, se realiza descodificación por el procedimiento de descodificación de instantáneas en movimiento en cada una de las realizaciones. Adicionalmente, cuando el tipo de flujo o la información de atributo de flujo de vídeo indica el cumplimiento de las normas convencionales, tales como MPEG-2, AVC de MPEG-4 y VC-1, en la etapa exS103, se realiza descodificación por un procedimiento de descodificación de instantáneas en movimiento cumpliendo con las normas convencionales.
En este sentido, asignar un nuevo valor único al tipo de flujo o la información de atributo de flujo de vídeo posibilita la determinación de si el procedimiento de descodificación de instantáneas en movimiento o el aparato de descodificación de instantáneas en movimiento que se describen en cada una de las realizaciones puede realizar o no la descodificación. Incluso cuando se introducen datos multiplexados que se ajustan a una norma diferente, puede seleccionarse un procedimiento o aparato de descodificación apropiado. Por lo tanto, se hace posible descodificar información sin error alguno. Adicionalmente, el procedimiento o aparato de codificación de instantáneas en movimiento, o el procedimiento o aparato de descodificación de instantáneas en movimiento en la presente realización se puede usar en los dispositivos y sistemas anteriormente descritos.
(Realización C)
Cada uno del procedimiento de codificación de instantáneas en movimiento, el aparato de codificación de instantáneas en movimiento, el procedimiento de descodificación de instantáneas en movimiento, y el aparato de descodificación de instantáneas en movimiento en cada una de las realizaciones se consigue típicamente en forma de un circuito integrado o un circuito Integrado a Gran Escala (LSI). Como un ejemplo del LSI, la figura 37 ilustra una configuración del LSI ex500 que se hace en un chip. El LSI ex500 incluye los elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508, y ex509 que se van a describir a continuación, y los elementos están conectados entre sí a través de un bus ex510. La unidad de circuito de fuente de alimentación ex505 se activa suministrando a cada uno de los elementos con potencia cuando se activa la unidad de circuito de fuente de alimentación ex505.
Por ejemplo, cuando se realiza codificación, el LSI ex500 recibe una señal de AV desde un micrófono ex117, una cámara ex113, y otros a través de una ES de AV ex509 bajo el control de una unidad de control ex501 que incluye una CPU ex502, un controlador de memoria ex503, un controlador de flujo ex504, y una unidad de control de frecuencia de accionamiento ex512. La señal de AV recibida se almacena temporalmente en una memoria externa ex511, tal como una SDRAM. Bajo el control de la unidad de control ex501, los datos almacenados se segmentan en porciones de datos de acuerdo con la cantidad de procesamiento y velocidad a transmitir a una unidad de procesamiento de señal ex507. A continuación, la unidad de procesamiento de señal ex507 codifica una señal de audio y/o una señal de vídeo. En este punto, la codificación de la señal de vídeo es la codificación descrita en cada una de las realizaciones. Adicionalmente, la unidad de procesamiento de señal ex507 multiplexa en ocasiones los datos de audio codificados y los datos de vídeo codificados, y una ES de flujo ex506 proporciona los datos multiplexados al exterior. Los datos multiplexados proporcionados se transmiten a la estación base ex107, o se escriben en el medio de grabación ex215. Cuando se multiplexan conjuntos de datos, los datos deberían almacenarse temporalmente en la memoria intermedia ex508 de modo que los conjuntos de datos se sincronizan entre sí.
Aunque la memoria ex511 es un elemento fuera del LSI ex500, puede incluirse en el LSI ex500. La memoria intermedia ex508 no se limita a una memoria intermedia, sino que puede estar compuesta por memorias intermedias. Adicionalmente, el LSI ex500 puede estar fabricado en un chip o una pluralidad de chips.
Adicionalmente, aunque la unidad de control ex501 incluye la CPU ex502, el controlador de memoria ex503, el controlador de flujo ex504, la unidad de control de frecuencia de accionamiento ex512, la configuración de la unidad de control ex501 no se limita a esto. Por ejemplo, la unidad de procesamiento de señal ex507 puede incluir adicionalmente una CPU. La inclusión de otra CPU en la unidad de procesamiento de señal ex507 puede mejorar la velocidad de procesamiento. Adicionalmente, como otro ejemplo, la CPU ex502 puede servir como o ser una parte de la unidad de procesamiento de señal ex507, y, por ejemplo, puede incluir una unidad de procesamiento de señal de audio. En un caso de este tipo, la unidad de control ex501 incluye la unidad de procesamiento de señal ex507 o la CPU ex502 que incluye una parte de la unidad de procesamiento de señal ex507.
El nombre usado en el presente documento es LSI, pero puede denominarse también CI, sistema LSI, súper LSI o ultra LSI dependiendo del grado de integración.
Además, las maneras para conseguir la integración no se limitan al LSI, y un circuito especial o un procesador de fin general y así sucesivamente pueden conseguir también la integración. El Campo de Matriz de Puertas Programables (FPGA) que puede programarse después de la fabricación de LSI o un procesador reconfigurable que permite la re configuración de la conexión o configuración de un LSI puede usarse para el mismo fin.
En el futuro, con el avance de la tecnología de semiconductores, una tecnología nueva puede sustituir a la LSI. Los bloques funcionales pueden integrarse usando una tecnología de este tipo. La posibilidad es que la presente invención
se aplique a biotecnología.
(Realización D)
Cuando se descodifican datos de vídeo generados en el procedimiento de codificación de instantáneas en movimiento o por el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, en comparación con cuando se descodifican datos de vídeo que se ajustan a una norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, probablemente aumenta la cantidad de procesamiento. Por lo tanto, el LSI ex500 necesita establecer una frecuencia de accionamiento más alta que la de la CPU ex502 a usar cuando se descodifican datos de vídeo de conformidad con la norma convencional. Sin embargo, cuando la frecuencia de accionamiento se establece más alta, existe un problema de que el consumo de potencia aumenta.
Para resolver el problema, el aparato de descodificación de instantáneas en movimiento, tal como la televisión ex300 y el LSI ex500 están configurados para determinar a qué norma se ajustan los datos de vídeo, y conmutar entre las frecuencias de accionamiento de acuerdo con la norma determinada. La figura 38 ilustra una configuración ex800 en la presente realización. Una unidad de conmutación de frecuencia de accionamiento ex803 establece una frecuencia de accionamiento a una frecuencia de accionamiento superior cuando se generan datos de vídeo por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones. A continuación, la unidad de conmutación de frecuencia de accionamiento ex803 ordena a la unidad de procesamiento de descodificación ex801 que ejecute el procedimiento de descodificación de instantáneas en movimiento descrito en cada una de las realizaciones para descodificar los datos de vídeo. Cuando los datos de vídeo se ajustan a la norma convencional, la unidad de conmutación de frecuencia de accionamiento ex803 establece una frecuencia de accionamiento a una frecuencia de accionamiento inferior a la de los datos de vídeo generados por el procedimiento de codificación de instantáneas en movimiento o el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones. A continuación, la unidad de conmutación de frecuencia de accionamiento ex803 ordena a la unidad de procesamiento de descodificación ex802 que se ajusta a la norma convencional que descodifique los datos de vídeo.
Más específicamente, la unidad de conmutación de frecuencia de accionamiento ex803 incluye la CPU ex502 y la unidad de control de frecuencia de accionamiento ex512 en la figura 37. En este punto, cada una de la unidad de procesamiento de descodificación ex801 que ejecuta el procedimiento de descodificación de instantáneas en movimiento descrito en cada una de las realizaciones y la unidad de procesamiento de descodificación ex802 que se ajusta a la norma convencional se corresponden con la unidad de procesamiento de señal ex507 en la figura 37. La CPU ex502 determina a qué norma se ajustan los datos de vídeo. A continuación, la unidad de control de frecuencia de accionamiento ex512 determina una frecuencia de accionamiento basándose en una señal desde la CPU ex502. Adicionalmente, la unidad de procesamiento de señal ex507 descodifica los datos de vídeo basándose en la señal desde la CPU ex502. Por ejemplo, la información de identificación descrita en la realización B se usa probablemente para identificar los datos de vídeo. La información de identificación no se limita a la descrita en la realización B sino que puede ser cualquier información siempre que la información indique a qué norma se ajustan los datos de vídeo. Por ejemplo, cuando a qué norma se ajustan los datos de vídeo puede determinarse basándose en una señal externa para determinar que los datos de vídeo se usan para una televisión o un disco, etc., la determinación puede realizarse basándose en una señal externa de este tipo. Adicionalmente, la CPU ex502 selecciona una frecuencia de accionamiento basándose en, por ejemplo, una tabla de correspondencia en la que las normas de los datos de vídeo están asociadas con las frecuencias de accionamiento como se muestra en la figura 40. La frecuencia de accionamiento puede seleccionarse almacenando la tabla de búsqueda en la memoria intermedia ex508 y en una memoria interna de un LSI, y con referencia a la tabla de búsqueda por la CPU ex502.
La figura 39 ilustra etapas para ejecutar un procedimiento en la presente realización. En primer lugar, en la etapa exS200, la unidad de procesamiento de señal ex507 obtiene información de identificación desde los datos multiplexados. A continuación, en la etapa exS201, la CPU ex502 determina si los datos de vídeo se generan o no por el procedimiento de codificación y el aparato de codificación descritos en cada una de las realizaciones, basándose en la información de identificación. Cuando los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, en la etapa exS202, la CPU ex502 transmite una señal para establecer la frecuencia de accionamiento a una frecuencia de accionamiento superior a la de la unidad de control de frecuencia de accionamiento ex512. A continuación, la unidad de control de frecuencia de accionamiento ex512 establece la frecuencia de accionamiento a la frecuencia de accionamiento más alta. Por otra parte, cuando la información de identificación indica que los datos de vídeo se ajustan a la norma convencional, tal como MPEG-2, AVC de MPEG-4 y VC-1, en la etapa exS203, la CPU ex502 transmite una señal para establecer la frecuencia de accionamiento a una frecuencia de accionamiento inferior a la unidad de control de frecuencia de accionamiento ex512. A continuación, la unidad de control de frecuencia de accionamiento ex512 establece la frecuencia de accionamiento a la frecuencia de accionamiento inferior que la de en el caso en el que los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones.
Adicionalmente, junto con la conmutación de las frecuencias de accionamiento, el efecto de conservación de potencia puede mejorarse cambiando la tensión a aplicarse al LSI ex500 o a un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de accionamiento se establece más baja, la tensión a aplicarse al LSI ex500 o al aparato que
incluye el LSI ex500 probablemente se establece a una tensión inferior que en el caso en el que la frecuencia de accionamiento se establece más alta.
Adicionalmente, cuando la cantidad de procesamiento para descodificación es mayor, la frecuencia de accionamiento puede establecerse más alta, y cuando la cantidad de procesamiento para descodificación es más pequeña, la frecuencia de accionamiento puede establecerse más baja que el procedimiento para establecer la frecuencia de accionamiento. Por lo tanto, el procedimiento de ajuste no se limita a los anteriormente descritos. Por ejemplo, cuando la cantidad de procesamiento para descodificar datos de vídeo de conformidad con MPEG-4 AVC es mayor que la cantidad de procesamiento para descodificar datos de vídeo generados por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, la frecuencia de accionamiento probablemente se establece en orden inverso al ajuste anteriormente descrito.
Adicionalmente, el procedimiento para establecer la frecuencia de accionamiento no se limita al procedimiento para establecer la frecuencia de accionamiento más baja. Por ejemplo, cuando la información de identificación indica que los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, la tensión a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establece más alta. Cuando la información de identificación indica que los datos de vídeo se ajustan a la norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, la tensión a aplicarse al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establece más baja. Como otro ejemplo, cuando la información de identificación indica que los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, el accionamiento de la CPU ex502 probablemente no tiene que suspenderse. Cuando la información de identificación indica que los datos de vídeo se ajustan a la norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1, el accionamiento de la CPU ex502 probablemente se suspende a un tiempo dado puesto que la CPU ex502 tiene capacidad de procesamiento adicional. Incluso cuando la información de identificación indica que los datos de vídeo se generan por el procedimiento de codificación de instantáneas en movimiento y el aparato de codificación de instantáneas en movimiento descritos en cada una de las realizaciones, en el caso en el que la CPU ex502 tiene capacidad de procesamiento adicional, el accionamiento de la CPU ex502 probablemente se suspende en un tiempo dado. En un caso de este tipo, el tiempo de suspensión probablemente se establece más corto que en el caso cuando la información de identificación indica que los datos de vídeo se ajustan a la norma convencional, tal como MPEG-2, MPEG-4 AVC, y VC-1.
Por consiguiente, el efecto de conservación de potencia puede mejorarse conmutando entre las frecuencias de accionamiento de acuerdo con la norma a la que se ajustan los datos de vídeo. Adicionalmente, cuando el LSI ex500 o el aparato que incluye el LSI ex500 se accionan usando una batería, la duración de la batería puede ampliarse con el efecto de conservación de potencia.
(Realización E)
Existen casos en los que una pluralidad de datos de vídeo que se ajustan a diferentes normas, se proporcionan a los dispositivos y sistemas, tales como una televisión y un teléfono celular. Para posibilitar la descodificación de la pluralidad de datos de vídeo que se ajustan a las diferentes normas, la unidad de procesamiento de señal ex507 del LSI ex500 necesita ajustarse a las diferentes normas. Sin embargo, los problemas de aumento en la escala del circuito del LSI ex500 y el aumento en el coste surgen con el uso individual de las unidades de procesamiento de señal ex507 que se ajustan a las normas respectivas.
Para resolver el problema, lo que se concibe es una configuración en la que la unidad de procesamiento de descodificación para implementar el procedimiento de descodificación de instantáneas en movimiento descrita en cada una de las realizaciones y la unidad de procesamiento de descodificación que se ajusta a la norma convencional, tal como MPEG-2, AVC de MPEG-4 y VC-1 se comparten parcialmente. Ex900 en la figura 41A muestra un ejemplo de la configuración. Por ejemplo, el procedimiento de descodificación de instantáneas en movimiento descrito en cada una de las realizaciones y el procedimiento de descodificación de instantáneas en movimiento que se ajusta a AVC de MPEG-4 tienen, parcialmente en común, los detalles de procesamiento, tal como codificación de entropía, cuantificación inversa, filtrado por desbloqueo y predicción con compensación de movimiento. Los detalles de procesamiento a compartir probablemente incluyen el uso de una unidad de procesamiento de descodificación ex902 que se ajusta a MPEG-4 AVC. En contraposición, una unidad de procesamiento de descodificación especializada ex901 probablemente se usa para otro procesamiento único para un aspecto de la presente invención. Debido a que el aspecto de la presente invención está caracterizado por la cuantificación inversa en particular, por ejemplo, la unidad de procesamiento de descodificación dedicada ex901 se usa para la cuantificación inversa. De otra manera, la unidad de procesamiento de descodificación probablemente se comparte para una de la descodificación por entropía, filtración de desbloqueo, y compensación de movimiento, o todo el procesamiento. La unidad de procesamiento de descodificación para implementar el procedimiento de descodificación de instantáneas en movimiento descrita en cada una de las realizaciones puede compartirse para el procesamiento a compartirse, y una unidad de procesamiento de descodificación especializada puede usarse para procesamiento único al de MPEG-4 AVC.
Adicionalmente, ex1000 en la figura 41B muestra otro ejemplo en el que el procesamiento se comparte parcialmente.
Este ejemplo usa una configuración que incluye una unidad de procesamiento de descodificación especializada ex1001 que soporta el procesamiento único de un aspecto de la presente invención, una unidad de procesamiento de descodificación especializada ex1002 que soporta el procesamiento único de otra norma convencional, y una unidad de procesamiento de descodificación ex1003 que soporta procesamiento a compartirse entre el procedimiento de descodificación de instantáneas en movimiento de acuerdo con el aspecto de la presente invención y el procedimiento de descodificación de instantáneas en movimiento convencional. En este punto, las unidades de procesamiento de descodificación especializadas ex1001 y ex1002 no están necesariamente especializadas para el procesamiento de acuerdo con el aspecto de la presente invención y el procesamiento de la norma convencional, respectivamente, y pueden ser las que pueden implementar procesamiento general. Adicionalmente, la configuración de la presente realización puede implementarse por el LSI ex500.
En este sentido, reducir la escala del circuito de un LSI y reducir el coste son posibles compartiendo la unidad de procesamiento de descodificación para el procesamiento a compartirse entre el procedimiento de descodificación de instantáneas en movimiento de acuerdo con el aspecto de la presente invención y el procedimiento de descodificación de instantáneas en movimiento cumpliendo con la norma convencional.
Será apreciaría por el experto en la materia que se pueden hacer numerosas variaciones y / o modificaciones a la presente invención, como se muestra en las realizaciones específicas, sin apartarse del ámbito de la invención como se describe en términos generales. Las presentes realizaciones han de considerarse, por lo tanto, en todos los aspectos que son ilustrativas y no restrictivas.
Claims (7)
1. Un procedimiento de realización de predicción de vector de movimiento para un bloque actual en una instantánea, comprendiendo el procedimiento:
determinar (S912;S1010) si derivar, de un primer vector de movimiento de un primer bloque, un candidato para un predictor de vector de movimiento para un vector de movimiento actual del bloque actual, basándose en un tipo de una instantánea de referencia actual y un tipo de una primera instantánea de referencia, siendo el primer bloque (i) un bloque vecino que está incluido en una instantánea actual que incluye el bloque actual y es adyacente al bloque actual o (ii) un bloque coubicado incluido en una instantánea diferente de la instantánea actual, haciéndose referencia a la instantánea de referencia actual desde el bloque actual usando el vector de movimiento actual, y haciéndose referencia a la primera instantánea de referencia desde el primer bloque usando el primer vector de movimiento;
derivar (S916;S1014) el candidato escalando el primer vector de movimiento cuando se determina en la determinación que el candidato ha de derivarse del primer vector de movimiento;
añadir (S918;S1016) el candidato derivado a una lista de candidatos; y
derivar al menos un predictor de vector de movimiento basándose en un candidato seleccionado de la lista de candidatos;
caracterizado porque
el candidato se determina que se derive del primer vector de movimiento cuando el tipo de la instantánea de referencia actual y el tipo de la primera instantánea de referencia son ambos una instantánea de referencia a largo plazo; y
se determina que el candidato no ha de derivarse del primer vector de movimiento cuando la instantánea de referencia actual y las primeras instantáneas de referencia son de diferentes tipos.
2. Un procedimiento de codificación para codificar un bloque actual en una instantánea para generar una secuencia de bits codificada, comprendiendo el procedimiento de codificación:
determinar si derivar, de un primer vector de movimiento de un primer bloque, un candidato para un predictor de vector de movimiento para un vector de movimiento actual del bloque actual, basándose en un tipo de una instantánea de referencia actual y un tipo de una primera instantánea de referencia, siendo el primer bloque (i) un bloque vecino que está incluido en una instantánea actual que incluye el bloque actual y es adyacente al bloque actual o (ii) un bloque coubicado incluido en una instantánea diferente de la instantánea actual, haciéndose referencia a la instantánea de referencia actual desde el bloque actual usando el vector de movimiento actual, y haciéndose referencia a la primera instantánea de referencia desde el primer bloque usando el primer vector de movimiento; derivar el candidato escalando el primer vector de movimiento cuando se determina en la determinación que el candidato ha de derivarse del primer vector de movimiento;
añadir el candidato derivado a una lista de candidatos; y
derivar al menos un predictor de vector de movimiento basándose en un candidato seleccionado de la lista de candidatos; y
codificar el bloque actual en la secuencia de bits codificada usando el al menos un predictor de vector de movimiento;
caracterizado porque
el candidato se determina que se derive del primer vector de movimiento cuando el tipo de la instantánea de referencia actual y el tipo de la primera instantánea de referencia son ambos una instantánea de referencia a largo plazo; y
se determina que el candidato no ha de derivarse del primer vector de movimiento cuando la instantánea de referencia actual y las primeras instantáneas de referencia son de diferentes tipos.
3. Un procedimiento de decodificación para decodificar un bloque actual en una instantánea de una secuencia de bits codificada, comprendiendo el procedimiento de decodificación:
determinar si derivar, de un primer vector de movimiento de un primer bloque, un candidato para un predictor de vector de movimiento para un vector de movimiento actual del bloque actual, basándose en un tipo de una instantánea de referencia actual y un tipo de una primera instantánea de referencia, siendo el primer bloque (i) un bloque vecino que está incluido en una instantánea actual que incluye el bloque actual y es adyacente al bloque actual o (ii) un bloque coubicado incluido en una instantánea diferente de la instantánea actual, haciéndose referencia a la instantánea de referencia actual desde el bloque actual usando el vector de movimiento actual, y haciéndose referencia a la primera instantánea de referencia desde el primer bloque usando el primer vector de movimiento; derivar el candidato escalando el primer vector de movimiento cuando se determina en la determinación que el candidato ha de derivarse del primer vector de movimiento;
añadir el candidato derivado a una lista de candidatos; y
derivar al menos un predictor de vector de movimiento basándose en un candidato seleccionado de la lista de candidatos; y
decodificar el bloque actual para generar una instantánea reconstruida usando el al menos un predictor de vector de movimiento;
caracterizado porque
el candidato se determina que se derive del primer vector de movimiento cuando el tipo de la instantánea de referencia actual y el tipo de la primera instantánea de referencia son ambos una instantánea de referencia a largo plazo; y
se determina que el candidato no ha de derivarse del primer vector de movimiento cuando la instantánea de referencia actual y las primeras instantáneas de referencia son de diferentes tipos.
4. Un aparato de codificación para codificar un bloque actual en una instantánea para generar una secuencia de bits codificada, comprendiendo el aparato de codificación: una unidad (2131) de predicción de vector de movimiento configurada para:
determinar si derivar, de un primer vector de movimiento de un primer bloque, un candidato para un predictor de vector de movimiento para un vector de movimiento actual del bloque actual, basándose en un tipo de una instantánea de referencia actual y un tipo de una primera instantánea de referencia, siendo el primer bloque (i) un bloque vecino que está incluido en una instantánea actual que incluye el bloque actual y es adyacente al bloque actual o (ii) un bloque coubicado incluido en una instantánea diferente de la instantánea actual, haciéndose referencia a la instantánea de referencia actual desde el bloque actual usando el vector de movimiento actual, y haciéndose referencia a la primera instantánea de referencia desde el primer bloque usando el primer vector de movimiento; derivar el candidato escalando el primer vector de movimiento cuando se determina en la determinación que ha de derivarse el candidato del primer vector de movimiento;
añadir el candidato derivado a una lista de candidatos; y
derivar al menos un predictor de vector de movimiento basándose en un candidato seleccionado de la lista de candidatos; y
una unidad (2109) de codificación configurada para codificar el bloque actual en la secuencia de bits codificada usando el al menos un predictor de vector de movimiento;
caracterizado porque
el candidato se determina que se derive del primer vector de movimiento cuando el tipo de la instantánea de referencia actual y el tipo de la primera instantánea de referencia son ambos una instantánea de referencia a largo plazo; y
se determina que el candidato no ha de derivarse del primer vector de movimiento cuando la instantánea de referencia actual y las primeras instantáneas de referencia son de diferentes tipos.
5. Un aparato de decodificación para decodificar un bloque actual en una instantánea de una secuencia de bits codificada, comprendiendo el aparato de decodificación:
una unidad (2210) de predicción de vector de movimiento configurada para
determinar si derivar, de un primer vector de movimiento de un primer bloque, un candidato para un predictor de vector de movimiento para un vector de movimiento actual del bloque actual, basándose en un tipo de una instantánea de referencia actual y un tipo de una primera instantánea de referencia, siendo el primer bloque (i) un bloque vecino que está incluido en una instantánea actual que incluye el bloque actual y es adyacente al bloque actual o (ii) un bloque coubicado incluido en una instantánea diferente de la instantánea actual, haciéndose referencia a la instantánea de referencia actual desde el bloque actual usando el vector de movimiento actual, y haciéndose referencia a la primera instantánea de referencia desde el primer bloque usando el primer vector de movimiento; derivar el candidato escalando el primer vector de movimiento cuando se determina en la determinación que ha de derivarse el candidato del primer vector de movimiento;
añadir el candidato derivado a una lista de candidatos; y
derivar al menos un predictor de vector de movimiento basándose en un candidato seleccionado de la lista de candidatos; y
una unidad (2201) de decodificación configurada para decodificar el bloque actual para generar una instantánea reconstruida usando el al menos un predictor de vector de movimiento;
caracterizado porque
el candidato se determina que se derive del primer vector de movimiento cuando el tipo de la instantánea de referencia actual y el tipo de la primera instantánea de referencia son ambos una instantánea de referencia a largo plazo; y
se determina que el candidato no ha de derivarse del primer vector de movimiento cuando la instantánea de referencia actual y las primeras instantáneas de referencia son de diferentes tipos.
6. Un producto de programa informático, incorporado en un medio de almacenamiento legible por ordenador no transitorio, que comprende instrucciones ejecutables por uno o más procesadores para realizar el procedimiento de acuerdo con una cualquiera de las reivindicaciones 1 a 3.
7. Un aparato para realizar predicción de vector de movimiento para un bloque actual en una instantánea, el aparato comprende
una unidad de predicción de vector de movimiento configurada para:
determinar si derivar, de un primer vector de movimiento de un primer bloque, un candidato para un predictor de vector de movimiento para un vector de movimiento actual del bloque actual, basándose en un tipo de una instantánea de referencia actual y un tipo de una primera instantánea de referencia, siendo el primer bloque (i) un
bloque vecino que está incluido en una instantánea actual que incluye el bloque actual y es adyacente al bloque actual o (ii) un bloque coubicado incluido en una instantánea diferente de la instantánea actual, haciéndose referencia a la instantánea de referencia actual desde el bloque actual usando el vector de movimiento actual, y haciéndose referencia a la primera instantánea de referencia desde el primer bloque usando el primer vector de movimiento; derivar el candidato escalando el primer vector de movimiento cuando se determina en la determinación que ha de derivarse el candidato del primer vector de movimiento;
añadir el candidato derivado a una lista de candidatos; y
derivar al menos un predictor de vector de movimiento basándose en un candidato seleccionado de la lista de candidatos;
caracterizado porque
el candidato se determina que se derive del primer vector de movimiento cuando el tipo de la instantánea de referencia actual y el tipo de la primera instantánea de referencia son ambos una instantánea de referencia a largo plazo; y
se determina que el candidato no ha de derivarse del primer vector de movimiento cuando la instantánea de referencia actual y las primeras instantáneas de referencia son de diferentes tipos.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261644511P | 2012-05-09 | 2012-05-09 | |
PCT/JP2013/002932 WO2013168407A1 (en) | 2012-05-09 | 2013-05-07 | Method of performing motion vector prediction, encoding and decoding methods, and apparatuses thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2832507T3 true ES2832507T3 (es) | 2021-06-10 |
Family
ID=49550470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES13787534T Active ES2832507T3 (es) | 2012-05-09 | 2013-05-07 | Procedimiento de realización de predicción de vector de movimiento, procedimientos de codificación y decodificación y aparatos de los mismos |
Country Status (7)
Country | Link |
---|---|
US (8) | US9414061B2 (es) |
EP (2) | EP3796651A1 (es) |
JP (3) | JP5613846B2 (es) |
CN (1) | CN104272743B (es) |
ES (1) | ES2832507T3 (es) |
PL (1) | PL2847996T3 (es) |
WO (1) | WO2013168407A1 (es) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130114717A1 (en) * | 2011-11-07 | 2013-05-09 | Qualcomm Incorporated | Generating additional merge candidates |
TWI604721B (zh) * | 2012-07-02 | 2017-11-01 | 三星電子股份有限公司 | 畫面間預測的運動向量預測方法與裝置 |
GB201400431D0 (en) * | 2014-01-10 | 2014-02-26 | Aker Biomarine As | Phospholipid compositions and their preparation |
US9348495B2 (en) | 2014-03-07 | 2016-05-24 | Sony Corporation | Control of large screen display using wireless portable computer and facilitating selection of audio on a headphone |
WO2015143603A1 (en) * | 2014-03-24 | 2015-10-01 | Mediatek Singapore Pte. Ltd. | An improved method for temporal motion vector prediction in video coding |
EP3080992A4 (en) * | 2014-05-06 | 2017-03-29 | MediaTek Inc. | Video processing method for determining position of reference block of resized reference frame and related video processing apparatus |
EP3240290B1 (en) | 2014-12-26 | 2022-03-23 | Sony Group Corporation | Image processing apparatus and image processing method |
CN115002457A (zh) * | 2015-06-05 | 2022-09-02 | 杜比实验室特许公司 | 图像编码和解码方法和图像解码设备 |
GB2547442B (en) * | 2016-02-17 | 2022-01-12 | V Nova Int Ltd | Physical adapter, signal processing equipment, methods and computer programs |
KR102435500B1 (ko) * | 2016-10-06 | 2022-08-23 | 세종대학교산학협력단 | 비디오 신호의 복호화 방법 및 이의 장치 |
US10805608B2 (en) * | 2016-12-22 | 2020-10-13 | Kt Corporation | Method and apparatus for processing video signal |
US10298951B2 (en) | 2017-04-06 | 2019-05-21 | Mediatek Inc. | Method and apparatus of motion vector prediction |
CN109089119B (zh) * | 2017-06-13 | 2021-08-13 | 浙江大学 | 一种运动矢量预测的方法及设备 |
US10582212B2 (en) * | 2017-10-07 | 2020-03-03 | Google Llc | Warped reference motion vectors for video compression |
WO2020065520A2 (en) | 2018-09-24 | 2020-04-02 | Beijing Bytedance Network Technology Co., Ltd. | Extended merge prediction |
WO2019208372A1 (ja) * | 2018-04-25 | 2019-10-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 符号化装置、復号装置、符号化方法及び復号方法 |
WO2019216325A1 (en) * | 2018-05-09 | 2019-11-14 | Sharp Kabushiki Kaisha | Systems and methods for performing motion vector prediction using a derived set of motion vectors |
KR102738271B1 (ko) | 2018-06-05 | 2024-12-04 | 두인 비전 컴퍼니 리미티드 | Ibc 및 atmvp 간의 상호 작용 |
TW202025776A (zh) * | 2018-06-19 | 2020-07-01 | 北京字節跳動網絡技術有限公司 | 不具運動向量預測截斷的選擇運動向量差精確度 |
WO2019244117A1 (en) | 2018-06-21 | 2019-12-26 | Beijing Bytedance Network Technology Co., Ltd. | Unified constrains for the merge affine mode and the non-merge affine mode |
GB2589223B (en) | 2018-06-21 | 2023-01-25 | Beijing Bytedance Network Tech Co Ltd | Component-dependent sub-block dividing |
KR20240007298A (ko) | 2018-06-29 | 2024-01-16 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | Lut에서의 모션 후보들의 검사 순서 |
CA3105330C (en) | 2018-06-29 | 2023-12-05 | Beijing Bytedance Network Technology Co., Ltd. | Interaction between lut and amvp |
JP7137008B2 (ja) | 2018-06-29 | 2022-09-13 | 北京字節跳動網絡技術有限公司 | 1つまたは複数のルックアップテーブルを使用して、以前コーディングされた動き情報を順に記憶させてそれらを後続のブロックのコーディングに使用する概念 |
CN110876058B (zh) * | 2018-08-30 | 2021-09-21 | 华为技术有限公司 | 一种历史候选列表更新方法与装置 |
KR20240005178A (ko) | 2018-09-19 | 2024-01-11 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 적응적 움직임 벡터 해상도를 가지는 어파인 모드에 대한 구문 재사용 |
WO2020094151A1 (en) | 2018-11-10 | 2020-05-14 | Beijing Bytedance Network Technology Co., Ltd. | Rounding in pairwise average candidate calculations |
WO2020147772A1 (en) | 2019-01-16 | 2020-07-23 | Beijing Bytedance Network Technology Co., Ltd. | Motion candidates derivation |
WO2020156517A1 (en) | 2019-01-31 | 2020-08-06 | Beijing Bytedance Network Technology Co., Ltd. | Fast algorithms for symmetric motion vector difference coding mode |
CN113412623A (zh) | 2019-01-31 | 2021-09-17 | 北京字节跳动网络技术有限公司 | 记录仿射模式自适应运动矢量分辨率的上下文 |
KR20210135307A (ko) | 2019-03-11 | 2021-11-12 | 후아웨이 테크놀러지 컴퍼니 리미티드 | 인코더, 디코더, 및 대응하는 방법들 |
WO2020192726A1 (en) | 2019-03-27 | 2020-10-01 | Beijing Bytedance Network Technology Co., Ltd. | History-based motion vector prediction |
EP3963891A4 (en) * | 2019-06-13 | 2022-08-03 | Beijing Dajia Internet Information Technology Co., Ltd. | MOTION VECTOR PREDICTION FOR VIDEO ENCODING |
CA3145240C (en) * | 2019-06-24 | 2024-06-11 | Lg Electronics Inc. | Inter prediction-based image coding method and apparatus |
EP3973708A4 (en) | 2019-06-25 | 2023-02-22 | Zhejiang Dahua Technology Co., Ltd. | INTRA-FRAME PREDICTION SYSTEMS AND METHODS |
CN110213590B (zh) * | 2019-06-25 | 2022-07-12 | 浙江大华技术股份有限公司 | 时域运动矢量获取、帧间预测、视频编码的方法及设备 |
CN110740317B (zh) * | 2019-09-18 | 2021-10-15 | 浙江大华技术股份有限公司 | 子块运动预测、编码方法、编码器及存储装置 |
US11330296B2 (en) * | 2020-09-14 | 2022-05-10 | Apple Inc. | Systems and methods for encoding image data |
US11930189B2 (en) * | 2021-09-30 | 2024-03-12 | Samsung Electronics Co., Ltd. | Parallel metadata generation based on a window of overlapped frames |
US12132928B2 (en) * | 2022-09-02 | 2024-10-29 | Qualcomm Incorporated | Block-level collocated motion field projection for video coding |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004215215A (ja) * | 2002-03-14 | 2004-07-29 | Matsushita Electric Ind Co Ltd | 動きベクトル検出方法 |
KR100491530B1 (ko) * | 2002-05-03 | 2005-05-27 | 엘지전자 주식회사 | 모션 벡터 결정 방법 |
US7599438B2 (en) * | 2003-09-07 | 2009-10-06 | Microsoft Corporation | Motion vector block pattern coding and decoding |
ZA200805337B (en) | 2006-01-09 | 2009-11-25 | Thomson Licensing | Method and apparatus for providing reduced resolution update mode for multiview video coding |
CN101371584B (zh) | 2006-01-09 | 2011-12-14 | 汤姆森特许公司 | 提供用于多视图视频编码的降低分辨率的更新模式的方法和装置 |
JP5224458B2 (ja) | 2006-01-09 | 2013-07-03 | トムソン ライセンシング | マルチビュービデオ符号化のための低解像度アップデートモードを提供する方法及び装置 |
BRPI0706362B1 (pt) | 2006-01-09 | 2019-10-01 | Interdigital Madison Patent Holdings | Método e aparelho para proporcionar modo de atualização de resolução reduzida para codificação de vídeo multivisão |
US9300970B2 (en) * | 2010-07-09 | 2016-03-29 | Samsung Electronics Co., Ltd. | Methods and apparatuses for encoding and decoding motion vector |
US8824558B2 (en) * | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
US8711940B2 (en) * | 2010-11-29 | 2014-04-29 | Mediatek Inc. | Method and apparatus of motion vector prediction with extended motion vector predictor |
US9473789B2 (en) * | 2010-12-14 | 2016-10-18 | M&K Holdings Inc. | Apparatus for decoding a moving picture |
KR102401123B1 (ko) * | 2011-02-09 | 2022-05-23 | 엘지전자 주식회사 | 움직임 정보 저장 방법 및 이를 이용한 시간적 움직임 벡터 예측자 유도 방법 |
US9247266B2 (en) * | 2011-04-18 | 2016-01-26 | Texas Instruments Incorporated | Temporal motion data candidate derivation in video coding |
CA2833893C (en) * | 2011-05-24 | 2024-02-27 | Panasonic Corporation | Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus |
US9485518B2 (en) * | 2011-05-27 | 2016-11-01 | Sun Patent Trust | Decoding method and apparatus with candidate motion vectors |
JP5937594B2 (ja) * | 2011-06-30 | 2016-06-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 画像復号方法及び画像復号装置 |
MX341415B (es) * | 2011-08-03 | 2016-08-19 | Panasonic Ip Corp America | Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video. |
KR101711355B1 (ko) * | 2011-09-28 | 2017-02-28 | 가부시키가이샤 제이브이씨 켄우드 | 동영상 디코딩 장치, 동영상 디코딩 방법 및 동영상 디코딩 프로그램을 저장한 기록매체 |
CN107257481B (zh) * | 2011-10-27 | 2019-12-10 | 太阳专利托管公司 | 编码方法、解码方法、编码装置、解码装置 |
MY164782A (en) * | 2011-10-28 | 2018-01-30 | Sun Patent Trust | Image coding method, image decoding method, image coding apparatus, and image decoding apparatus |
KR101935977B1 (ko) * | 2011-10-28 | 2019-01-07 | 선 페이턴트 트러스트 | 화상 부호화 방법, 화상 복호 방법, 화상 부호화 장치 및 화상 복호 장치 |
US9571833B2 (en) * | 2011-11-04 | 2017-02-14 | Nokia Technologies Oy | Method for coding and an apparatus |
EP4020989A1 (en) * | 2011-11-08 | 2022-06-29 | Nokia Technologies Oy | Reference picture handling |
EP3657796A1 (en) * | 2011-11-11 | 2020-05-27 | GE Video Compression, LLC | Efficient multi-view coding using depth-map estimate for a dependent view |
EP2777267B1 (en) * | 2011-11-11 | 2019-09-04 | GE Video Compression, LLC | Efficient multi-view coding using depth-map estimate and update |
US9503720B2 (en) * | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
-
2013
- 2013-05-07 ES ES13787534T patent/ES2832507T3/es active Active
- 2013-05-07 EP EP20192555.9A patent/EP3796651A1/en active Pending
- 2013-05-07 WO PCT/JP2013/002932 patent/WO2013168407A1/en active Application Filing
- 2013-05-07 CN CN201380023759.5A patent/CN104272743B/zh active Active
- 2013-05-07 EP EP13787534.0A patent/EP2847996B1/en active Active
- 2013-05-07 JP JP2013550431A patent/JP5613846B2/ja active Active
- 2013-05-07 PL PL13787534T patent/PL2847996T3/pl unknown
- 2013-10-09 US US14/049,289 patent/US9414061B2/en active Active
-
2014
- 2014-09-08 JP JP2014182701A patent/JP5638721B2/ja active Active
- 2014-10-22 JP JP2014215730A patent/JP6135939B2/ja active Active
-
2016
- 2016-06-14 US US15/182,013 patent/US10027973B2/en active Active
-
2018
- 2018-06-13 US US16/007,484 patent/US10368085B2/en active Active
-
2019
- 2019-06-06 US US16/433,363 patent/US10715826B2/en active Active
-
2020
- 2020-06-02 US US16/890,404 patent/US10992949B2/en active Active
-
2021
- 2021-03-29 US US17/215,492 patent/US11451817B2/en active Active
-
2022
- 2022-08-08 US US17/882,902 patent/US11902562B2/en active Active
-
2024
- 2024-01-04 US US18/404,116 patent/US20240205446A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220377365A1 (en) | 2022-11-24 |
JP2014225930A (ja) | 2014-12-04 |
US11902562B2 (en) | 2024-02-13 |
US20180295379A1 (en) | 2018-10-11 |
EP2847996A1 (en) | 2015-03-18 |
US20190289314A1 (en) | 2019-09-19 |
US10715826B2 (en) | 2020-07-14 |
EP2847996B1 (en) | 2020-10-07 |
JP5613846B2 (ja) | 2014-10-29 |
JP2015039227A (ja) | 2015-02-26 |
EP3796651A1 (en) | 2021-03-24 |
US20200296407A1 (en) | 2020-09-17 |
US10027973B2 (en) | 2018-07-17 |
US20140037011A1 (en) | 2014-02-06 |
WO2013168407A1 (en) | 2013-11-14 |
US20160295226A1 (en) | 2016-10-06 |
CN104272743B (zh) | 2019-01-01 |
CN104272743A (zh) | 2015-01-07 |
US9414061B2 (en) | 2016-08-09 |
US20210218981A1 (en) | 2021-07-15 |
US11451817B2 (en) | 2022-09-20 |
US20240205446A1 (en) | 2024-06-20 |
JP2014519725A (ja) | 2014-08-14 |
EP2847996A4 (en) | 2015-04-29 |
JP5638721B2 (ja) | 2014-12-10 |
US10992949B2 (en) | 2021-04-27 |
US10368085B2 (en) | 2019-07-30 |
PL2847996T3 (pl) | 2021-04-19 |
JP6135939B2 (ja) | 2017-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2832507T3 (es) | Procedimiento de realización de predicción de vector de movimiento, procedimientos de codificación y decodificación y aparatos de los mismos | |
ES2780188T3 (es) | Método de codificación de imagen, método de decodificación de imagen, aparato de codificación de imagen y aparato de decodificación de imagen | |
ES2780186T3 (es) | Procedimiento de codificación de imágenes, procedimiento de decodificación de imágenes, dispositivo de codificación de imágenes, y dispositivo de decodificación de imágenes | |
JP6394966B2 (ja) | 時間動きベクトル予測を用いた、符号化方法、復号方法、符号化装置、及び、復号装置 | |
JP6422011B2 (ja) | 動画像符号化方法、動画像復号化方法、動画像符号化装置および動画像復号化装置 | |
JP5893570B2 (ja) | 画像符号化方法および画像復号化方法 | |
WO2012172791A1 (ja) | 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置および画像符号化復号装置 | |
JP6304571B2 (ja) | 動画像復号化方法および動画像復号化装置 | |
JP5331944B2 (ja) | 画像復号化方法および画像復号化装置 | |
WO2012114712A1 (ja) | 画像符号化方法および画像復号化方法 | |
WO2012120863A1 (ja) | 動画像符号化方法および動画像復号方法 | |
WO2012081246A1 (ja) | 画像符号化方法および画像復号化方法 | |
WO2012073481A1 (ja) | 動画像符号化方法および動画像復号化方法 | |
WO2012081225A1 (ja) | 画像符号化方法、及び画像復号方法 |