Nothing Special   »   [go: up one dir, main page]

MX2013001652A - Metodo de codificacion de imagen, metodo de decodificacion de imagen, metodo de manejo de memoria, aparato de codificacion de imagen, aparato de decodificacion de imagen, aparato de manejo de memoria, y aparato de codificacion y decodificacion de imagen. - Google Patents

Metodo de codificacion de imagen, metodo de decodificacion de imagen, metodo de manejo de memoria, aparato de codificacion de imagen, aparato de decodificacion de imagen, aparato de manejo de memoria, y aparato de codificacion y decodificacion de imagen.

Info

Publication number
MX2013001652A
MX2013001652A MX2013001652A MX2013001652A MX2013001652A MX 2013001652 A MX2013001652 A MX 2013001652A MX 2013001652 A MX2013001652 A MX 2013001652A MX 2013001652 A MX2013001652 A MX 2013001652A MX 2013001652 A MX2013001652 A MX 2013001652A
Authority
MX
Mexico
Prior art keywords
image
layer
images
belongs
decoding
Prior art date
Application number
MX2013001652A
Other languages
English (en)
Inventor
Takahiro Nishi
Hisao Sasai
Youji Shibahara
Toshiyasu Sugio
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Publication of MX2013001652A publication Critical patent/MX2013001652A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • H04N19/31Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability in the temporal domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

La presente invención se refiere a un método de codificación de imagen que habilita la reducción de carga de procesamiento, cuando una pluralidad de imágenes contenidas en una señal de imagen dinámica se estratifican y clasifican de modo que cada imagen se asocia con una capa entre una pluralidad de capas, una imagen asociada con la segunda capa, la cual está en una región delimitada de acuerdo con la primera capa, a la cual pertenece una imagen a ser codificada de entre la pluralidad de imágenes, es referenciada como una imagen de referencia para la imagen a ser codificada (S10), y la imagen a ser codificada se codifica sobre la base de la imagen de referencia (S11).

Description

METODO DE CODIFICACION DE IMAGEN, METODO DE DECODIFICACION DE IMAGEN, METODO DE MANEJO DE MEMORIA, APARATO DE CODIFICACION DE IMAGEN, APARATO DE DECODIFICACION DE IMAGEN, APARATO DE MANEJO DE MEMORIA, Y APARATO DE CODIFICACION Y DECODIFICACION DE IMAGEN Campo de la Invención La presente invención se refiere a un método de codificación de imagen, un método de decodificación de imagen, y similares, para vídeo.
Antecedentes de la Invención En un método de codificación de imagen para codificación de vídeo, una cantidad de información generalmente se comprime usando redundancia en una dirección espacial y una dirección temporal mantenidas por el vídeo. En general, la conversión en una región de frecuencia se usa como el método para usar la redundancia en la dirección espacial, y una codificación de predicción de inter imagen (después referida como inter predicción) se usa como el método para usar la redundancia en la dirección temporal. Cuando una imagen se codifica en la codificación de inter predicción, una imagen codificada que precede o sigue a una imagen actual a ser codificada en orden de visualización se usa como una imagen de referencia. Un vector de movimiento se deriva realizando estimación de movimiento en la imagen Ref. 237350 actual con respecto a la imagen de referencia, y una diferencia se calcula entre los datos de imagen de la imagen actual y una imagen predictiva obtenida realizando la compensación de movimiento basada en el vector de movimiento, removiendo la redundancia en la dirección temporal.
Con el estándar de codificación de imagen llamado H.264 el cual ya se ha estandarizado, tres tipos de imágenes; es decir, imagen I, imagen B, e imagen P, se usan para la compresión de la cantidad de información. La imagen I es una imagen en la cual la codificación de inter predicción no se realiza, en otras palabras, una imagen en la cual la predicción de intra imagen (después referida como intra predicción) se realiza. La imagen P es una imagen en la cual la codificación de inter predicción se realiza con referencia a- una imagen codificada que precede o sigue a una imagen actual que se codifica en orden de visualización . La imagen B es una imagen en la cual la codificación de inter predicción se realiza con referencia a dos imágenes codificadas que preceden o siguen a la imagen actual en( orden de visualización. Además, la imagen I y la imagen P incluyen un fragmento de conmutación y similares (fragmento SI, fragmento SP) para la conmutación entre corrientes, y similares.
Con el método de codificación de imagen y el método de decodificación de imagen que son conforme al estándar H.264 existente, se requiere que estos métodos sean aplicables a todas las relaciones de referencia que se pueden concebir por la definición de las imágenes de estos tipos. Cuando se decodifica una imagen P, por ejemplo, se requiere que una imagen que sigue en el orden de visualización se deje que sea referida. Además, cuando dos vectores de movimiento están presentes para la imagen B, las direcciones de estos dos vectores de movimiento pueden ser hacia delante o hacia atrás. Además, las imágenes las cuales son diferentes para cada bloque en un fragmento pueden ser referidas . Para corresponder con la flexibilidad de tal estructura de referencia, la ejecución de algunos procesos se requiere para el método de codificación de imagen y el método de decodificación de imagen en H.264 (ver, por ejemplo, Literatura No de Patente 1) .
Lista de Citas Literatura No de Patente NPL 1 ITU-TH.264 03/2010 Breve Descripción de la Invención Problema Técnico Sin embargo, con el método de codificación de imagen y el método de decodificación de imagen descritos por la Literatura No de Patente 1 descrita anteriormente, hay un problema que una carga de procesamiento es alta.
En vista del problema descrito anteriormente, un objeto de la presente invención es proporcionar un método de codificación de imagen y un método de decodificación de imagen para permitir la reducción de la carga de procesamiento .
Solución al Problema Para lograr el objeto descrito anteriormente, un método de codificación de imagen de acuerdo con un aspecto de la presente invención es un método de codificación de imagen para codificar una señal de vídeo, el método de codificación de imagen comprende: referir una imagen como una imagen de referencia para una imagen actual a ser codificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes la cual pertenece a una primera capa, y la imagen de referencia pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa; y codificar la imagen actual con base en la imagen de referencia.
De acuerdo con la estructura descrita anteriormente, la capa a la cual pertenece una imagen de referencia que es referida cuando se codifica una imagen actual a ser codificada está presente dentro de un intervalo que es restringido de acuerdo con la primera capa a la cual pertenece la imagen actual. Por consiguiente, puesto que la imagen de referencia que es referida cuando se codifica la imagen actual se restringe de acuerdo con la primera capa, es posible reducir la carga de procesamiento de la codificación.
Además, puesto que la imagen de referencia se restringe, también es posible, cuando se decodifica una imagen codificada como se describió anteriormente, reducir la carga de procesamiento de la decodificación. Además, en la referencia, puede ser prohibido referir una imagen que pertenece a una capa ubicada arriba de la primera capa, y la imagen que pertenece a la segunda capa se puede referir como la imagen de referencia, la segunda capa se ubica en un intervalo restringido a la primera capa o por debajo de la primera capa .
De acuerdo con la estructura descrita anteriormente, puesto que está prohibido referir una imagen que pertenece a una capa ubicada arriba de la primera capa a la cual la imagen actual pertenece, es posible codificar la imagen actual con menos carga de procesamiento. Igualmente, puesto que no es necesario, cuando se decodifica una imagen codificada también, referir una imagen que pertenece a una capa ubicada arriba de una capa a la cual la imagen codificada pertenece, es posible decodificar la imagen codificada con menos carga de procesamiento. Además, en el caso donde cada imagen incluida en una señal de vídeo se trata como una imagen a ser codificada y la señal de vídeo se codifica, no es necesario referir, en la decodificación de cualquier imagen incluida en la señal de video codificada, una imagen que pertenece a una capa ubicada arriba de una capa a la cual pertenece la imagen a ser codificada. Por consiguiente, solamente es necesario que el aparato de decodificación de imagen decodifique una imagen que pertenece a una capa que es el objetivo de reproducción especial, y por consiguiente es posible omitir el problema de decodificación y referir una imagen que pertenece a una capa posicionada más alta que la capa que es el objetivo de reproducción especial. Por ejemplo, en el caso donde la capa que es el objetivo de reproducción especial tal como reproducción de N tiempo-velocidad (N > 2) es la capa de nivel más bajo ubicada en el fondo, el aparato de decodificación de imagen no tiene que tomar el problema de decodificación y referir una imagen la cual no es el objetivo de reproducción especial, y solamente tiene que decodificar cada una de las imágenes que pertenecen a la capa de nivel más bajo. Por ejemplo, cada una de la pluralidad de imágenes es una imagen o un fragmento.
Además, para lograr el objeto descrito anteriormente, un método de codificación de imagen de acuerdo con otro aspecto de la presente invención es un método de codificación de imagen para codificar una señal de vídeo, el método de codificación de imagen comprende: generar un indicador que indica si o no una restricción será impuesta en la selección de una imagen de referencia que es referida para la codificación de una imagen actual a ser codificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes; seleccionar, como la imagen de referencia para la imagen actual, una imagen que cumple una condición restringida de acuerdo con una primera capa a la cual la imagen actual pertenece, cuando el indicador indica que la restricción será impuesta; codificar la imagen actual con referencia a la imagen de referencia seleccionada; e incluir el indicador en la señal de vídeo la cual se ha codificado.
De acuerdo con la estructura descrita anteriormente, en el caso donde el indicador indica la adición de una restricción, una imagen que cumple la condición restringida de acuerdo con la primera capa a la cual pertenece la imagen actual a ser codificada se selecciona como una imagen de referencia. Más específicamente, una imagen de referencia que es referida para la codificación de la imagen actual se restringe de acuerdo con la primera capa. Como un resultado, es posible reducir la carga de procesamiento de la codificación de la imagen actual. Además, puesto que se genera un indicador que indica si o no imponer una restricción en la selección de una imagen de referencia y se incluye en una señal de vídeo codificada, es posible que el aparato de decodificación de imagen que decodifica la señal de vídeo codificada determine fácilmente si o no una restricción se impone en la selección de la imagen de referencia. Como un resultado, el aparato de decodificación de imagen puede decodificar apropiadamente la señal de vídeo codificada con menos carga de procesamiento.
Además, en la selección de una imagen de referencia, cuando una imagen de criterio que pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa se ubica entre la imagen actual y una imagen candidata en orden de codificación, se puede prohibir seleccionar la imagen candidata como la imagen de referencia y una imagen diferente de la imagen candidata se puede seleccionar como la imagen de referencia. Por ejemplo, en la selección de una imagen de referencia, se prohibe seleccionar la imagen candidata como la imagen de referencia cuando la imagen de criterio pertenece a la segunda capa ubicada en un intervalo restringido por debajo de la primera capa. Además, en la selección de una imagen de referencia, se puede prohibir seleccionar, como la imagen de referencia, la imagen candidata que precede a la imagen actual en el orden de codificación .
De acuerdo con la estructura descrita anteriormente, es posible seleccionar una imagen apropiada como la imagen de referencia y reducir adicionalmente la carga de procesamiento.
Además, para lograr el objeto descrito anteriormente, un método de decodificación de imagen de acuerdo con un aspecto de la presente invención es un método de decodificación de imagen para decodificar una señal de vídeo codificada, el método de decodificación de imagen comprende: referir una imagen como una imagen de referencia para una imagen actual a ser decodificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo codificada se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes la cual pertenece a una primera capa, la imagen de referencia pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa; y decodificar la imagen actual con base en la imagen de referencia. Por ejemplo, el método de decodificación de imagen descrito anteriormente adicionalmente comprende generar una lista de referencia que indica una o más imágenes cada una de las cuales pertenece a la primera capa o una capa por debajo de la primera capa, diferente de todas las imágenes que pertenecen a sus capas respectivas ubicadas arriba de la primera capa, entre las imágenes incluidas en la señal de vídeo codificada, en donde en la referencia de la imagen de referencia, la imagen de referencia se selecciona de una o más imágenes indicadas en la lista de referencia.
De acuerdo con la estructura descrita anteriormente, la capa a la cual pertenece la imagen de referencia que es referida para la decodificación de la imagen actual a ser decodificada está presente en un intervalo que se restringe de acuerdo con la primera capa a la cual la imagen actual pertenece. Por consiguiente, puesto que la imagen de referencia que es referida para la decodificación de la imagen actual es restringida de acuerdo con la primera capa, es posible reducir la carga de procesamiento de la decodif cación .
Además, para lograr el objeto descrito anteriormente, un método de decodificación de imagen de acuerdo con otro aspecto de la presente invención es un método de decodificación de imagen para decodificar una señal de vídeo codificada, el método de decodificación de imagen comprende: obtener, de la señal de vídeo codificada, un indicador que indica si o no una restricción se impone en la selección de una imagen de referencia que es referida para la decodificación de una imagen actual a ser decodificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo codificada se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes; seleccionar, como la imagen de referencia para la imagen actual, una imagen que cumple una condición restringida de acuerdo con una primera capa a la cual pertenece la imagen actual, cuando el indicador indica que la restricción será impuesta; y decodificar la imagen actual con referencia a la imagen de referencia seleccionada.
De acuerdo con la estructura descrita anteriormente, en el caso donde el indicador indica que una restricción se impone, una imagen que cumple la condición restringida de acuerdo con la primera capa a la cual pertenece la imagen actual a ser decodificada se selecciona como una imagen de referencia. Para ser específico, una imagen de referencia que es referida para la decodificación de la imagen actual se restringe de acuerdo con la primera capa. Como un resultado, es posible reducir la carga de procesamiento de la decodificación de la imagen actual.
Además, para lograr el objeto descrito anteriormente, un método de manejo de memoria de acuerdo con un aspecto de la presente invención es un método de manejo de memoria para manejar una memoria en la cual se almacena una imagen que es referida para codificar o decodificar una señal de vídeo, el método de manejo de memoria comprende almacenar, en una región de la memoria, una imagen objetivo a ser almacenada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la región se restringe a una capacidad de capa que es una capacidad asignada a una capa a la cual pertenece la imagen objetivo, la imagen objetivo es una de la pluralidad de imágenes. Para ser específico, el método de manejo de memoria descrito anteriormente adicionalmente comprende asignar, a cada una de las capas, una parte correspondiente de capacidad disponible de la memoria como una capacidad de capa.
Hay un caso, por ejemplo, donde una imagen de referencia de largo tiempo que es referida durante un período de tiempo largo pertenece a otra capa, y la imagen de referencia de largo tiempo se almacena en otra región de una memoria. En tal caso, cuando la imagen objetivo a ser almacenada en la otra región, la imagen de referencia de largo tiempo se puede suprimir de la memoria en algunos casos. Por lo tanto, es necesario realizar tal procesamiento como decodificación de la imagen de referencia de largo tiempo de nuevo, para referir la imagen de referencia de largo tiempo después que la imagen de referencia de largo tiempo se suprime de la memoria. En vista de lo anterior, con el método de manejo de memoria de acuerdo con un aspecto de la presente invención, puesto que la imagen objetivo a ser almacenada se almacena en una región de una memoria, la cual es restringida a una capacidad de capa que se asigna a la capa a la cual pertenece la imagen objetivo, es posible prevenir que la imagen de referencia de largo tiempo sea suprimida de la memoria. En otras palabras, es posible almacenar una imagen de referencia necesaria en la memoria sin fallar. Como un resultado, es posible omitir tal proceso redundante como decodificación una vez de nuevo de la imagen de referencia de largo tiempo. Además, es posible reducir la carga de procesamiento para aplicar sucesivamente un comando de manejo de memoria para instruir la supresión de una imagen innecesaria para almacenar la imagen de referencia necesaria en la memoria sin falla, por ejemplo.
Aquí, en el almacenamiento, cuando la región no tiene capacidad remanente disponible para almacenar la imagen objetivo, una imagen existente almacenada más temprano entre una o más imágenes existentes ya almacenadas en la región se puede suprimir de la región, de modo que la imagen objetivo se almacena.
Además, una capa a la cual pertenece una imagen de referencia se puede restringir a una capa la misma como o ubicada por debajo de una capa a la cual pertenece una imagen actual a ser procesada, la imagen de referencia es una imagen a ser referida para codificar o decodificar la imagen actual entre la pluralidad de imágenes incluidas en la señal de vídeo, y en la asignación de la capacidad de capa sobre la base de capa por capa, una capacidad de capa mayor que la capacidad de capa asignada a una capa de nivel superior ubicada arriba de una capa de nivel más bajo se puede asignar a la capa de nivel más bajo ubicada en el fondo entre la pluralidad de capas.
De , acuerdo con la estructura descrita anteriormente, puesto que la capa a la cual pertenece la imagen de referencia se restringe a la capa en el mismo nivel como o nivel inferior que la capa a la cual pertenece la imagen actual, es altamente probable que una imagen que pertenece a la capa de nivel más bajo sea referida durante un período de tiempo más largo que ' una imagen que pertenece a una capa de nivel superior. En vista de lo anterior, con el método de manejo de memoria de acuerdo con un aspecto de la presente invención, una capacidad de capa más grande que una capacidad de capa asignada a la capa de nivel superior' se asigna a la capa de nivel más bajo, y por consiguiente es posible almacenar, durante un período de tiempo largo, la imagen que pertenece a la capa de nivel más bajo, en la memoria. Como un resultado, cuando una imagen que pertenece a la capa de nivel más bajo es referida, es posible prevenir tal situación de modo que la imagen es suprimida de la memoria y por consiguiente no se puede ser referida.
Además, el método de manejo de memoria descrito anteriormente puede comprender adicionalmente marcar un atributo en una imagen que pertenece a una capa ubicada arriba de una capa a la cual pertenece la imagen actual que es un objetivo de la codificación o decodificación, entre la pluralidad de imágenes almacenadas en la memoria. Por ejemplo, en el indicadorción de un atributo, se marca un atributo que indica que la imagen no se usa para referencia.
De acuerdo con la estructura descrita anteriormente, puesto que el atributo se marca en la imagen, es posible identificar fácilmente una imagen innecesaria la cual no será usada para referencia y suprimir la imagen de la memoria antes de suprimir otras imágenes. Como un resultado, es posible utilizar efectivamente la capacidad de la memoria.
Se señalará que la presente invención se puede implementar no solamente como el método de codificación de imagen, el método de decodificación de imagen, y el método de manejo de memoria como se describió anteriormente sino también como un aparato para ejecutar procesos de acuerdo con los métodos mencionados anteriormente, un circuito integrado, un programa para causar que una computadora ejecute los procesos de acuerdo con los métodos, y un medio de- grabación en el cual el programa se almacena.
Efectos Ventajosos de la Invención El método de codificación de imagen y el método de decodificación de imagen de acuerdo con la presente invención pueden reducir las cargas de procesamiento.
Breve Descripción de las Figuras La FIG. 1 es un diagrama de bloque que ilustra un aparato de codificación de imagen de acuerdo con la Modalidad 1 de la presente invención; La FIG. 2 es un diagrama que ilustra una estructura de referencia construida por una unidad de ínter predicción de acuerdo con la Modalidad 1 de la presente invención; La FIG. 3 es un ejemplo de un método de manejo de memoria en el caso donde una imagen de referencia necesaria se suprime; La FIG. 4 es un diagrama que ilustra un ejemplo del método de manejo de memoria cuando una restricción se impone en el orden de codificación de imágenes; La FIG. 5 es un diagrama que ilustra el método de manejo de memoria realizado por una unidad de control de memoria de acuerdo con la Modalidad 1 de la presente invención; La FIG. 6 es un diagrama de flujo que ilustra los procesos realizados por un aparato de codificación de imagen de acuerdo con la Modalidad 1 de la presente invención; La FIG. 7 es un diagrama de flujo que ilustra los procesos que usan un indicador, realizados por el aparato de codificación de imagen de acuerdo con la Modalidad 1 de la presente invención; La FIG. 8 es un diagrama de flujo que ilustra los procesos específicos realizados por el aparato de codificación de imagen de acuerdo con la Modalidad 1 de la presente invención; La FIG. 9 es un diagrama de bloque que ilustra un aparato de decodificación de imagen de acuerdo con la Modalidad 1 de la presente invención; La FIG. 10 es un diagrama de flujo que ilustra los procesos realizados por un aparato de decodificación de imagen de acuerdo con la Modalidad 1 de la presente invención; La FIG. 11 es un diagrama de flujo que ilustra los procesos que usan un indicador, realizados por el aparato de decodificación de imagen de acuerdo con la Modalidad 1 de la presente invención; La FIG. 12 es un diagrama de flujo que ilustra un método de manejo de memoria de acuerdo con la Modalidad 1 de la presente invención; La FIG. 13 es un diagrama de flujo que ilustra los procesos específicos realizados por el aparato de decodificación de imagen de acuerdo con la Modalidad 1 de la presente invención; - La FIG. 14 es un diagrama que ilustra una estructura de referencia de acuerdo con un ejemplo de modificación de la Modalidad 1 de la presente invención; La FIG. 15 es un diagrama que ilustra un ejemplo del método de manejo de memoria de acuerdo con un ejemplo de modificación de la Modalidad 1 de la presente invención; La FIG. 16 es un diagrama que ilustra otro ejemplo del método de manejo de memoria de acuerdo con la Modificación 1 de la modalidad de la presente invención; La FIG. 17 ilustra una configuración total de un sistema proveedor de contenido para implementar servicios de distribución de contenido; La FIG. 18 es una configuración total de un sistema de radiodifusión digital; La FIG. 19 es un diagrama de bloque que ilustra un ejemplo de una configuración de una televisión; La FIG. 20 es un diagrama de bloque que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información de o en un medio de grabación que. es un disco óptico ; La FIG. 21 es una figura que muestra un ejemplo de una configuración de un medio de grabación que es un disco óptico; La FIG. 22A es un ejemplo de un teléfono celular; La FIG. 22B es un ejemplo de una configuración del teléfono celular; La FIG. 23 ilustra una estructura de los datos multiplexados ; La FIG. 24 es una figura que ilustra esquemáticamente cómo cada una de las corrientes es multiplexada en datos multiplexados; La FIG. 25 es una figura que ilustra cómo una corriente de vídeo se almacena en una corriente de paquetes PES con más detalle; La FIG. 26 es una figura que muestra una estructura de paquetes TS y paquetes fuente en los datos multiplexados; La FIG. 27 es una figura que muestra una estructura de datos de un PMT; La FIG. 28 ilustra una estructura interna de información de datos multiplexados; La FIG. 29 es una figura que muestra una estructura interna de información de atributo de . corriente ; La FIG. 30 es una figura que muestra etapas para identificar los datos de vídeo; La FIG. 31 es un diagrama de bloque que ilustra un ejemplo de una configuración de un circuito integrado para implementar el método de codificación de vídeo y el método de decodificación de vídeo de acuerdo con cada una de las Modalidades ; La FIG. 32 es una figura que muestra una configuración para conmutar entre frecuencias de impulso; La FIG. 33 es una figura que muestra las etapas para identificar datos de vídeo y conmutar entre frecuencias de impulso; La FIG. 34 es una figura que muestra un ejemplo de una tabla de consulta en la cual los estándares de datos de vídeo se asocian con las frecuencias de impulso; La FIG. 35A es una figura que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señal; y La FIG. 35B es una figura .que muestra otro ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señal .
Descripción Detallada de la Invención Primero, previo a la descripción de las modalidades de acuerdo con la presente invención, se describirán algunos procesos realizados cuando se codifica o decodifica una imagen .
Por ejemplo, un aparato de codificación de imagen y un aparato de decodificación de imagen construyen una lista de referencia (también referida como una lista de imagen de referencia) . Más específicamente, estos aparatos, cuando codifican o decodifican un fragmento tal como un fragmento B con referencia a otra imagen, construyen una lista de referencia en la cual son listadas las imágenes a ser referidas para el fragmento (un macrobloque incluido en el fragmento) . En este proceso, es necesario clasificar imágenes en orden numérico de imagen en la lista de referencia (procesos de clasificar en el momento de la inicialización de la lista de referencia) . Por ejemplo, el aparato de codificación de imagen y el aparato de decodificación de imagen, en la obtención del fragmento B, agregan una imagen de referencia que es referida para el fragmento B (una imagen usada tanto para una referencia de corto tiempo como una referencia de largo tiempo. Después, lo mismo se aplica) a la lista de referencia (LO, Ll) . Aquí, el aparato de codificación de imagen y el aparato de decodificación de imagen clasifican las imágenes de referencia en la lista de referencia (LO, Ll) en orden descendente (un primer orden pequeño) de acuerdo con los números de imagen (Pie Num) de las imágenes de referencia. .
Además, el aparato de codificación de imagen y el aparato de decodificación de imagen causan que una memoria lógica única (DPB: Búfer de Imagen Decodificada) contenga tal imagen como una imagen de referencia la cual es referida durante un período de tiempo largo, por ejemplo. Aquí, para prevenir que la memoria sea saturada, se requiere marcar un atributo en cada una de estas imágenes mantenidas en la memoria para manejar estas imágenes.
Por ejemplo, el aparato de codificación de imagen y el aparato de decodificación de imagen marcan un atributo "no usada para referencia" en una imagen que no se usa como una imagen de referencia, en la determinación que la imagen llega a ser menos probable que sea referida o reciba un comando predeterminado (MMCP: comando de manejo de memoria) . Se señalará que el comando predeterminado es un comando el cual específica que una imagen a ser manejada no es referida. Más específicamente, tal método o control de marcado incluye un método de manejo FIFO (Primero en entrar Primero en salir) y un control de memoria adaptativo que usa un comando de control de manejo de memoria.
Aquí, la flexibilidad de la estructura de referencia que se hace posible por la definición de imagen de H.264 no contribuye directamente a la facilitación de la implementación del aparato de decodificación de imagen. Aunque la flexibilidad de la estructura de referencia puede contribuir al mejoramiento de la eficiencia de codificación por compresión, si o no la flexibilidad puede contribuir a la facilitación de la implementación del aparato de decodificación de imagen que reproduce datos codificados (corriente codificada) es otra teoría. Por consiguiente, la flexibilidad de la estructura de referencia incrementa la carga de procesamiento del aparato de codificación de imagen y el aparato de decodificación de imagen. Por ejemplo, existe el caso donde la implementación del aparato de decodificación de imagen se facilita cuando es posible determinar que se imponen condiciones de restricción.
Además, existe el caso donde al menos la flexibilidad excesiva pone una limitación en procesos generales. Por ejemplo, cuando el aparato de codificación de imagen y el aparato de decodificación de imagen los cuales se refieren a un número grande de imágenes de referencia durante un período de tiempo largo manejan una memoria (que realiza procesamiento de marcación) usando el método FIFO mencionado antes, hay un caso donde una imagen necesaria para referencia se suprime de la memoria debido a un tamaño limitado de la memoria. Además, cuando el aparato de codificación de imagen y el aparato de decodificación de imagen realizan el control de memqria adaptativo usando el comando de manejo de memoria mencionado anteriormente, se requiere un comando (comando de manejo de memoria) cada vez que el control se realiza.
En vista de lo anterior, el método de codificación de imagen y el método de decodificación de imagen de acuerdo con una modalidad de la presente invención se caracterizan reduciendo la carga de procesamiento usando una estructura de referencia en la cual se impone una condición de restricción. Además, el método de manejo de memoria de acuerdo con una modalidad de la presente invención se caracteriza previniendo un incremento de la carga de procesamiento, previniendo que una imagen necesaria para referencia sea suprimida de una memoria.
Una modalidad de acuerdo con la presente invención será descrita a continuación con referencia a las figuras. Se señalará que cada una de las modalidades explicadas a continuación describe un ejemplo específico preferido de la presente invención. Un valor numérico, forma, material, elementos estructurales, posiciones de disposición y formas de conexión de los elementos estructurales, etapas, el orden de etapas, y similares son ejemplos, y no se proponen para limitar la presente invención. La presente invención se limita solamente por el alcance de las reivindicaciones. Por consiguiente, entre los elementos estructurales en las modalidades a continuación, los elementos estructurales los cuales no se describen en las reivindicaciones independientes que indican el concepto más amplio de la presente invención no se requieren necesariamente para resolver el problema de la presente invención, pero se explican como componentes para una modalidad más preferida.
Modalidad 1 La FIG. 1 es un diagrama de bloque que ilustra uri aparato de codificación de imagen de acuerdo con la Modalidad 1 de la presente invención.
Un aparato de codificación de imagen 1000 de acuerdo con la presente modalidad se caracteriza porque una restricción de acuerdo con una estructura de capa de una imagen se impone en referencia de la imagen en la codificación de ínter predicción. El aparato de codificación de imagen 1000 descrito anteriormente incluye: un sustractor 1101; una unidad de transformación ortogonal 1102; una unidad de cuantificación 1103; una unidad' de codificación por entropía 1104; una unidad de cuantificación inversa 1105; una unidad de transformación ortogonal inversa 1106; un adicionador 1107; un filtro de desbloqueo 1108; una memoria 1109; una unidad de intra predicción 1110; una unidad de inter predicción 1111; una unidad de estimación de movimiento 1112; un conmutador 1113; y una unidad de control de memoria 1200.
El sustractor 1101 obtiene una señal de vídeo, y una imagen de predicción del conmutador 1113. Luego, el sustractor 1101 sustrae la imagen de predicción de un bloque actual a ser codificado incluido en la señal de vídeo, generando una imagen diferencial.
La unidad de transformación ortogonal 1102 realiza la transformación ortogonal (transformación de frecuencia) tal como transformación de coseno discreta en la imagen diferencial generada por el sustractor 1101, transformando la imagen diferencial en un bloque de coeficiente que incluye coeficientes de frecuencia plural. La unidad de cuantificación 1103 cuantifica cada uno de los coeficientes de frecuencia incluidos en el bloque de coeficiente, generando un bloque de coeficiente cuantificado .
La unidad de cuantificación inversa 1105 realiza la cuantificación inversa en el bloque de coeficiente cuantificado por la unidad de cuantificación 1103. La unidad de transformación ortogonal inversa 1106 realiza la transformación ortogonal inversa (transformación de frecuencia inversa) tal como transformación de coseno discreta inversa en cada uno de los coeficientes de frecuencia incluidos en el bloque de coeficiente en el cual la cuantificación inversa se ha realizado, generando una imagen diferencial decodificada .
El adicionador 1107 obtiene una imagen de predicción del conmutador 1113 y adiciona la imagen de predicción a la imagen diferencial decodificada generada por la unidad de transformación ortogonal inversa 1106, generando una imagen decodificada local (imagen de re-configuración) .
El filtro de desbloqueo 1108 remueve los efectos de bloqueo de la imagen decodificada local generada por el adicionador 1107, y almacena la imagen decodificada local en la memoria 1109. La memoria 1109 es una memoria para almacenar la imagen decodificada local como una imagen de referencia para la inter predicción. Se señalará que la memoria 1109 se usa como un búfer de imagen decodificada (DPB, por sus siglas en inglés) .
La unidad de intra predicción 1110 realiza la intra predicción en el bloque actual a ser codificado, usando la imagen decodificada local generada por el adicionador 1107, generando una imagen de predicción (imagen de intra predicción) .
La unidad de estimación de movimiento 1112 detecta un vector de movimiento para el bloque actual incluido en la señal de vídeo, y envía el vector de movimiento detectado a la unidad de inter predicción 1111 y la unidad de codificación por entropía 1104.
La unidad de inter predicción 1111 se refiere a la imagen almacenada en la memoria 1109 y usa el vector de movimiento detectado por la unidad de estimación de movimiento 1112, realizando compensación de movimiento en el bloque actual. La unidad de inter predicción 1111 realiza la predicción de movimiento compensado como se describió anteriormente; es decir, realiza la inter predicción en el bloque actual, generando una imagen de predicción (imagen de inter predicción) del bloque actual.
Además, la unidad de inter predicción 1111 estratifica imágenes incluidas en la señal de vídeo. Más específicamente, la unidad de inter predicción 1111 clasifica, en capas, las imágenes incluidas en la señal de vídeo, de modo que cada una de las imágenes pertenece a una de las capas correspondientes. Se señalará que, la unidad de inter predicción 1111, por ejemplo, estratifica imágenes plurales en la presente modalidad; sin embargo, cada una de las imágenes a ser estratificada no se limita a una imagen, y otras unidades de imagen tal como un fragmento se pueden usar .
En tal caso, la unidad de inter predicción 1111 se refiere, como una imagen de referencia para la imagen actual a ser codificada, a una imagen que pertenece a la segunda capa que está presente dentro de un intervalo que se restringe de acuerdo con la primera capa a la cual pertenece la imagen actual que es una de las imágenes . Más específicamente, la unidad de inter predicción 1111 prohibe la referencia a una imagen que pertenece a una capa arriba, o en un nivel mayor que, la primera capa, y se refiere, como una imagen de referencia, a una imagen que pertenece a la segunda capa ubicada en un intervalo restringido que está en el mismo o inferior nivel que la primera capa.
Además, la unidad de inter predicción 1111 genera un indicador que indica si o no imponer una restricción en la selección de una imagen de referencia que es referida en la codificación de la imagen actual a ser codificada que es una de las imágenes, y envía el indicador a la unidad de codificación por entropía 1104. Por ejemplo, cuando la restricción de referencia basada en la estructura de capa se impone en la imagen actual como se describió anteriormente, la unidad de inter predicción 1111 genera un indicador que indica 1 y envía el indicador a la unidad de codificación por entropía 1104. En otras palabras, en el caso donde el indicador que indica la adición de una restricción, la unidad de inter predicción 1111 selecciona, como una imagen de referencia para la imagen actual, una imagen que cumple la condición restringida de acuerdo con la primera capa a la cual pertenece la imagen actual .
Además, la unidad de inter predicción 1111 genera, para cada una de las imágenes que se estratifican, información de capa que indica una capa a la cual pertenece la imagen, y envía la información de capa a la unidad de codificación de entropía 1104 y la unidad de control de memoria 1200.
El conmutador 1113, cuando se realiza la codificación de intra predicción en el bloque actual a ser codificado, envía la imagen de predicción (imagen de intra predicción) generada por la unidad de intra predicción 1110 al sustractor 1101 y al adicionador 1107. En contraste, cuando la codificación de inter predicción se realiza en el bloque actual a ser codificado, el conmutador 1113 envía la imagen de predicción (imagen de inter predicción) generada por la unidad de inter predicción 1111 al sustractor 1101 y al adicionador 1107.
La unidad de codificación por entropía 1104 realiza la codificación por entropía (codificación de longitud variable) en: el bloque de coeficiente cuantificado por la unidad de cuantificación 1103; un vector de movimiento detectado por la unidad de estimación de movimiento 1112; y el indicador y la información de capa generada por la unidad de ínter predicción 1111, generando una corriente codificada. A través de los procesos descritos anteriormente, la corriente codificada incluye el indicador y la información de capa descritas anteriormente.
La unidad de control de memoria 1200 obtiene, de la unidad de ínter predicción 1111, información de capa de cada una de las imágenes, y maneja la imagen almacenada en la memoria 1109, con base en una capa de la imagen indicada por la información de capa; es decir, con base en una estructura de capa. Más específicamente, la unidad de control de memoria 1200 asigna, como una capacidad de capa, una parte de la capacidad de memoria disponible en la memoria 1109, para cada una de las capas. Luego, la unidad de control de memoria 1200 almacena una imagen actual a ser almacenada en una región, dentro de la memoria 1109, la cual es restringida a la capacidad de capa que es una capacidad asignada a la capa a la cual pertenece la imagen actual. Se señalará que, cuando la región no tiene capacidad remanente disponible para almacenar la imagen actual a ser almacenada, la unidad de control de memoria 1200 puede suprimir, de la región, una imagen existente almacenada más temprano entre una o más imágenes existentes almacenadas ya en la región, de modo que la imagen actual se almacena.
Aquí, cuando se asigna una capacidad de capa para cada una de las capas, la unidad de control de memoria 1200 asigna, a una capa de nivel más bajo ubicada en el fondo entre las capas, una capacidad de capa más grande que una capacidad de capa asignada a una capa de nivel superior ubicada arriba de la capa, de nivel más bajo.
Además, la unidad de control de memoria 1200 marca un atributo en una imagen que pertenece a una capa ubicada arriba de una capa a la cual pertenece la imagen actual a ser codificada, entre las imágenes almacenadas en la memoria 1109. Más específicamente, la unidad de control de memoria 1200 marca un atributo que indica que la imagen no se usa para referencia.
Lo siguiente describe en detalle una estructura de capa y una estructura de referencia de una imagen, la cual se construye por la unidad de inter predicción 1111.
La FIG. 2 es un diagrama que ilustra una estructura de capa y una estructura de referencia construida por la unidad de inter predicción 1111. Se señalará que, en la FIG. 2, un alfabeto y un carácter numérico adicionado a una imagen indican un tipo de imagen y un orden de visualización, respectivamente, de la imagen. Por ejemplo, 10 indica un tipo de imagen "I" y el orden de visualización de la imagen "0", y Br2 indica un tipo de imagen "B" y el orden de visualización de la imagen "2" .
La unidad de inter predicción 1111 define una estructura de referencia basada en una estructura de capa construida clasificando imágenes plurales incluidas en una señal de vídeo en capas, como se muestra en la FIG. 2. Aquí, la unidad de inter predicción 1111 usa una imagen posicionada en una parte superior en el orden de visualización entre las imágenes plurales, como una imagen I, y usa imágenes excepto para la imagen I en la parte superior, como una imagen B. Además, cuando la unidad de inter predicción 1111 realiza la inter predicción en una imagen que pertenece a una capa, para cada una de las capas plurales, se refiere a una imagen que pertenece al mismo nivele como o inferior nivel que la capa. Más específicamente, con la estructura de referencia construida por la unidad de inter predicción 1111, se impone una restricción la cual no permite la referencia a una imagen clasificada en una capa arriba o más alta que una capa a la cual pertenece una imagen actual a ser codificada (la cual permite la referencia a una imagen en un capa la cual es la misma como o una capa inferior que la capa actual) .
Por ejemplo, la unidad de inter predicción 1111 se refiere a una imagen 10 que pertenece a una capa 0 y una imagen Br2 que pertenece a una capa 2 cuando realiza inter predicción en una imagen Bl que pertenece a una capa 3, como se muestra en la FIG. 2. Además, cuando se realiza la inter predicción en una imagen Bf8 que pertenece a la capa 0 en el nivel más bajo, la unidad de inter predicción 1111 se refiere a la imagen 10 que pertenece a la misma capa 0. Aquí, solamente las imágenes precedentes en el orden de visualización se pueden referir para la , ínter predicción de una imagen que pertenece a la capa 0 en el nivel más bajo.
Como se describió anteriormente, con la estructura de referencia de acuerdo con la presente modalidad, es posible mejorar la eficiencia de compresión de una señal de vídeo debido a que las imágenes, diferentes de la imagen I, son las imágenes B. En general, una imagen que se codifica con referencia a más imágenes de referencia puede mejorar la eficiencia de compresión más que una imagen que se codifica con referencia a menos imágenes de referencia. Por consiguiente, con la estructura de referencia de acuerdo con la presente modalidad, es posible mejorar la eficiencia de compresión de una señal de vídeo debido a que las imágenes, diferentes de la imagen I, son las imágenes B.
Además, con la estructura de referencia de acuerdo con la presente modalidad, una imagen que pertenece a una capa en un nivel más alto entre capas plurales se codifica con referencia a una imagen que pertenece a la misma capa o una imagen que pertenece a una capa en un nivel inferior. Esto hace más fácil realizar una reproducción especial tal como reproducción de doble velocidad en un aparato de reproducción que incluye un aparato de decodificación de imagen.
Cuando se realiza la reproducción de alta velocidad, por ejemplo, el aparato de reproducción reproduce solamente las imágenes que pertenecen a la capa 0. Con la estructura de referencia ilustrada en la FIG. 2, el aparato de reproducción reproduce las imágenes 10, Bf8, y Bfl6. Las imágenes que pertenecen a las capas 0 y 1 se reproducen cuando la velocidad de reproducción será disminuida, y las imágenes que pertenecen a las capas 0, 1, y 2 se reproducen cuando la velocidad de reproducción será adicionalmente disminuida. Como se describió anteriormente, es posible lograr fácilmente la reproducción de alta velocidad flexible definiendo la estructura de referencia de acuerdo con las capas .
Más específicamente, cuando el aparato de codificación de imagen codifica una imagen actual a ser visualizada la cual se visualiza en la reproducción especial con referencia a una imagen, como una imagen de referencia, la cual pertenece a una capa en un nivel más alto que una capa a la cual pertenece la imagen actual, el aparato de reproducción necesita decodificar la imagen de referencia a pesar que la imagen de referencia no se visualiza en la reproducción especial. Sin embargo, con el aparato de codificación de imagen 1000 de acuerdo con la presente modalidad, se prohibe, para cada una de las imágenes, referir una imagen que pertenece a una capa en un nivel más alto que una capa a la cual pertenece cada una de las imágenes . Por lo tanto, es posible aligerar el aparato de reproducción de la molestia de la decodificación de una imagen de referencia que no se visualiza en una reproducción especial. Como un resultado, de acuerdo con la presente modalidad, es posible reducir la carga de procesamiento del aparato de decodificación de imagen incluido en el aparato de reproducción.
Aquí, la unidad de ínter predicción 1111 genera un indicador como se describió anteriormente. Más específicamente, la unidad de ínter predicción 1111 produce un indicador que determina, con un bit, si una señal de vídeo (corriente) es (i) codificada con una condición de restricción jerárquica para un propósito específico (reproducción especial, por ejemplo) o (ii) una corriente que se codifica sin una condición de restricción. La unidad de codificación por entropía 1104 adiciona el indicador (1 bit) a una parte superior de una unidad de acceso (secuencia o unidad de acceso aleatorio, por ejemplo) en una corriente codificada, por ejemplo. Esto permite que el aparato de reproducción determine, con el menor número de bits, si o no una corriente codificada o una imagen codificada es para un propósito específico tal como reproducción de alta velocidad y acceso aleatorio. Como un resultado, es posible minimizar el efecto de compatibilidad para una corriente codificada que es una señal de vídeo codificada por el estándar H.264 convencional y el aparato de decodificación de imagen que decodifica la corriente codificada. Además, la información que indica la estructura de capa y la estructura de referencia de acuerdo con un propósito; es decir, información que indica si o no se impone una restricción se puede agregar a una porción adicional tal como SEI (Información de mejoramiento suplementaria) separadamente de el indicador mencionada antes (1 bit) .
Además, la unidad de inter predicción 1111 genera información de capa como se describió anteriormente. Más específicamente, la unidad de inter predicción 1111 produce, para cada imagen, información de capa (información de identificación) para identificar a cual capa pertenece la imagen. La unidad de codificación por entropía 1104, en este momento, adiciona la información de capa a un encabezado de una imagen correspondiente a la información de capa. Más específicamente, la unidad de inter predicción 1111 asigna la misma información de capa a todos los fragmentos en una imagen (par de campo o cuadro) . Esto es debido a que no es necesario asignar cada porción (fragmento) en la imagen a una de las capas correspondientes diferentes entre sí en el caso de la reproducción especial tal como reproducción de alta velocidad o acceso aleatorio. A través de los procesos descritos anteriormente, la unidad de codificación por entropía 1104 adiciona la información de capa a un encabezado de una imagen, tal como un conjunto de parámetro de imagen.
Como un resultado, cuando se realiza la reproducción de alta velocidad de la corriente codificada, el aparato de reproducción obtiene la información de capa del encabezado de la imagen y reproduce solamente las imágenes necesarias para la reproducción de alta velocidad.
Además, la unidad de codificación por entropía 1104 puede colocar ítems plurales de información de capa colectivamente en la parte superior de una corriente codificada, como información de manejo, cada una de la información de capa de imágenes plurales incluidas en la corriente codificada, de acuerdo con el orden de codificación u orden de visualización de las imágenes. El aparato de reproducción puede determinar qué tipo de reproducción de alta velocidad (reproducción especial) se puede realizar, leyendo la información de manejo en la parte superior antes de la decodificación de la corriente codificada.
Además, en tal caso como el almacenamiento de la corriente codificada en un disco óptico, la unidad de codificación de entropía 1104 puede almacenar, en el disco óptico, información de manejo separadamente de la corriente codificada. Almacenando la información de manejo separadamente de la corriente codificada, es posible que el aparato de reproducción determine qué tipo de reproducción de alta velocidad se puede realizar, previo a la reproducción de la corriente codificada.
Se señalará que, de acuerdo con la presente modalidad, una imagen que pertenece a una capa en un alto nivel se codifica con referencia a una imagen que pertenece a una capa en el mismo nivel o en un nivel inferior. Sin embargo, una imagen que pertenece a una capa en un nivel predeterminado se puede codificar excepcionalmente con referencia a una imagen que pertenece a una capa en un nivel más alto que el nivel predeterminado. Como se muestra por las flechas punteadas en la FIG. 2, por ejemplo, una imagen que pertenece a una capa en un nivel más bajo se codifica con referencia a una imagen que pertenece a una capa en un nivel más alto. Para ser específico, la imagen Bfl6 que pertenece a la capa 0 en el nivel más bajo se codifica con referencia a la imagen Br4 que pertenece a la capa 1 en un nivel más alto y la imagen Br6 que pertenece a la capa 2 en un nivel más alto.
Como se describió anteriormente, una imagen que pertenece a una capa en un nivel predeterminado se refiere a una imagen que pertenece a una capa en un nivel más alto, haciendo posible el mejoramiento adicional de la eficiencia de compresión de una señal de vídeo. Mientras tanto, puesto que se impone una restricción en la reproducción especial, la información que indica qué tipo de reproducción especial se puede realizar se puede agregar nuevamente a la corriente codificada. Por ejemplo, se agrega información la cual indica hasta cuál capa de imágenes se puede referir por una imagen que pertenece a una capa en el nivel más bajo. Como se ilustra en la FIG. 2, por ejemplo, la unidad de inter predicción 1111 produce información que indica que se puede hacer referencia hasta la imagen que pertenece a la capa 2, y la unidad de codificación por entropía 1104 adiciona la información a la corriente codificada. Como un resultado, el aparato de reproducción determina, con base en la información, que es posible reproducir imágenes que pertenecen a sus capas respectivas 0, 1, y 2 e imágenes que pertenecen a sus capas respectivas 0, 1/ 2, y 3, como reproducción especial. La información que indica hasta cuál capa de imágenes se puede referir, se puede agregar al encabezado de la corriente codificada, o se puede almacenar como información de manejo diferente de la corriente codificada .
Se señalará que la unidad de inter predicción 1111, en la realización de la inter predicción de una imagen que sigue a una imagen que pertenece a una capa en el nivel más bajo en el orden de visualización, puede prohibir la referencia a una imagen que precede la imagen que pertenece a una capa en el nivel más bajo en el orden de visualización. En otras palabras, la unidad de inter predicción 1111 se refiere a la imagen que pertenece a la capa en el nivel más bajo como una imagen de criterio para establecer una restricción de referencia. Con tal restricción de referencia, es posible asegurar, cuando el aparato de decodificación de imagen accede aleatoriamente a una imagen que pertenece a la capa en el nivel más bajo, la decodificación de imágenes posicionadas subsecuentes a la imagen que se accede aleatoriamente. Además, la unidad de ínter predicción 1111 puede producir, a una imagen que pertenece á la capa en el nivel más bajo, información que indica si o no la imagen es la imagen de criterio para la restricción de referencia. En este caso, la unidad de codificación por entropía 1104 adiciona, a la imagen, información que indica si o no la imagen es la imagen de criterio. De acuerdo con los procesos como se describieron anteriormente, puesto que la imagen de criterio e imágenes diferentes de la imagen de criterio están presentes conjuntamente en la capa en el nivel más bajo, es posible lograr tanto el mejoramiento de la eficiencia de compresión como el acceso aleatorio de una señal de vídeo.
Aquí, la imagen de criterio puede ser una imagen que pertenece no a la capa en el nivel más bajo sino a una capa en un nivel inferior que la imagen actual a ser codificada, por ejemplo. Para ser específico, la imagen de criterio es una imagen que pertenece a la segunda capa posicionada en un intervalo restringido de acuerdo con la primera capa a la cual pertenece la imagen actual; es decir, un intervalo restringido para ser menor que la primera capa. Por ejemplo, la imagen de criterio está presente entre la imagen actual y una imagen candidata en el orden de codificación. En este caso, la unidad de inter predicción. 1111, cuando se selecciona una imagen de referencia, prohibe la selección, como la imagen de referencia, de la imagen candidata que precede a la imagen actual en el orden de codificación y selecciona una imagen diferente de la imagen candidata como la imagen de referencia. Con esto, es posible seleccionar una imagen apropiada como la imagen de referencia y adicionalmente reducir la carga de procesamiento.
Además, la unidad de inter predicción 1111 puede referir una imagen en la capa en el nivel más bajo, en la realización de inter predicción en una imagen en una posición de acceso de acceso aleatorio. Más específicamente, en la realización de la inter predicción en una imagen que pertenece a la capa 3 que puede ser la posición de acceso de acceso aleatorio, solamente una imagen que pertenece a la capa 0 se puede referir como la imagen de referencia. Esto permite que el aparato de decodificación de imagen refiera directamente, cuando se decodifica una imagen en una posición de acceso de acceso aleatorio, a la imagen de referencia en la capa 0 y decodifique la imagen en la posición de acceso sin decodificar una imagen en una capa intermedia; es decir, una capa entre una capa a la cual pertenece la imagen en la posición de acceso y la capa 0 en el nivel más bajo. Además, los datos de codificación adicionales tal como fragmento de Conmutación P (SP, por sus siglas en inglés) no se requieren.
Lo siguiente describe en detalle un método de manejo de memoria para manejar la memoria 1109, realizado por la unidad de control de memoria 1200.
Por ejemplo, cuando un método de manejo de memoria de acuerdo con el estándar H.264 existente simplemente se aplica a la estructura de referencia ilustrada en la FIG. 2, una imagen de referencia que es referida para codificar una imagen actual a ser codificada se suprime de la memoria 1109, causando un caso donde la imagen de referencia no puede ser referida en algunos casos .
La FIG. 3 es un ejemplo de un método de manejo de memoria en el caso donde una imagen de referencia necesaria se suprime .
Primero, la imagen 10 se codifica y decodifica, y se almacena como una imagen de referencia 1= en la memoria en el 0 proceso en el orden de codificación. Luego, las imágenes de referencia se almacenan secuencialmente en la memoria. La imagen 10, la imagen Bf8, la imagen Br4 , y la imagen Br2 se almacenan en la memoria en el tercer proceso en el orden de codificación. Luego, en el cuarto proceso en el orden de codificación, la imagen Br6 nuevamente se adiciona a la memoria 1109 y la imagen 10 almacenada temprano en la memoria se suprime de la memoria.
Sin embargo, puesto que la imagen 10 es referida para la codificación de la imagen Bl en el quinto proceso en el orden de codificación, la imagen 10 necesita ser decodificada de nuevo en el quinto proceso. En otras palabras, se requiere que la memoria tenga una capacidad bastante grande para almacenar la imagen 10 en la memoria para la codificación de la imagen Bl .
De la misma manera como anteriormente, la imagen Br8 se suprime de la memoria en el noveno proceso en el orden de codificación. Sin embargo, puesto que la imagen Bf8 es referida para la codificación de la imagen Brl2 en el décimo proceso en el orden de codificación, la imagen Bf8 necesita ser decodificada de nuevo en el décimo proceso. En otras palabras, para asegurar que la imagen Bf8 se almacene en la memoria en el décimo proceso en el orden de codificación, se requiere que la memoria tenga una capacidad grande . Alternativamente, el comando de manejo de memoria (MMCO, por sus siglas en inglés) se necesita aplicar.
Como se estableció anteriormente, la aplicación simplemente el método de manejo de memoria de acuerdo con el estándar H.264 existente a la estructura de referencia ilustrada en la FIG. 2 tiene un problema que se suprime una imagen de referencia que se debe almacenar en la memoria.
Para resolver tal problema, se puede imponer una restricción en el orden de codificación de imágenes.
La FIG. 4 es un diagrama que ilustra un ejemplo del método de manejo de memoria cuando se impone una restricción en el orden de codificación de imágenes.
Por ejemplo, se impone una restricción que se codifique una imagen que pertenece a una capa diferente de una capa en el nivel más alto en el último tiempo posible en el orden de codificación. Se señalará que, aún bajo tal restricción, una imagen que sigue en el orden de codificación no es referida para la codificación de una imagen que precede en el orden de codificación. Además, el orden de codificación es el mismo como el orden de decodificación.
Para ser específico, en el orden de. codificación mostrado en la FIG. 4, la imagen Br6 en la capa 2 sigue las imágenes Bl y B3 en la capa 3 en el orden de codificación. Cuando la codificación de la imagen Bl en la capa 3 de acuerdo con tal orden de codificación, la imagen 10 que es referida por la imagen Bl se almacena en la memoria 1109. Por consiguiente, es posible omitir el problema de decodificación de la imagen 10 de nuevo y reducir el incremento de la capacidad de la memoria 1109.
Sin embargo, aún en tal caso, la imagen Br8 se suprime de la memoria a través del noveno proceso (codificación y decodificación de la imagen Bfl6) en el orden de codificación. Como un resultado, puesto que la imagen Bf8 es referida para la codificación de la imagen Brl2 en el décimo proceso en el orden de codificación, la imagen Bf8 se necesita decodificar de nuevo. En otras palabras, para asegurar que la imagen Bf8 se almacena en el décimo proceso en el orden de codificación, se requiere que la memoria tenga una capacidad de memoria más grande. Alternativamente, el comando de manejo de memoria (MMCO) se necesita aplicar.
La FIG. 5 es un diagrama que ilustra el método de manejo de memoria realizado por la unidad de control de memoria 1200 de acuerdo con la presente modalidad.
La unidad de control de memoria 1200 maneja la memoria 1109 usando la estructura de capa y la estructura de referencia de una imagen. Por ejemplo, la memoria 1109 tiene una capacidad de memoria para almacenar cuatro imágenes. En este caso, la unidad de control de memoria 1200 asigna, a la capa 0 en el nivel más bajo, la capacidad de memoria para dos imágenes como una capacidad de capa, de la capacidad de memoria para cuatro imágenes la cual es la capacidad disponible de la memoria 1109. Además, la unidad de control de memoria 1200 asigna, a cada una de la capa 1 y la capa 2, la capacidad de memoria para una imagen como la capacidad de capa, de la capacidad de memoria mencionada antes para cuatro imágenes de la memoria 1109. Más específicamente, la capacidad de capa para una imagen se asigna a cada una de las capas intermedias diferentes de la capa O en el nivel más bajo y la capa 3 en el nivel más alto.
Luego, la unidad de control de memoria 1200 obtiene, de la unidad de ínter . predicción 1111, la información de capa de una imagen incluida en la señal de vídeo. En el caso donde la información de capa indica la capa 0, la unidad de control de memoria 1200 almacena la imagen en una región de la capacidad de capa de la memoria 1109 la cual se asigna a la capa 0. Además, en el caso donde la información de capa indica la cápa 1 o 2, la unidad de control de memoria 1200 almacena la imagen en una región de la capacidad de capa de la memoria 1109 la. cual se asigna a la capa 1 o 2.
En la presente modalidad como se describió anteriormente, la capacidad de capa se asigna más a la capa en un nivel bajo a la cual pertenece una imagen más probable a ser referida por otras imágenes, y asigna menos a la capa en un nivel alto al cual pertenece una imagen es menos probable que sea referida por otras imágenes . Esto hace posible almacenar, sin fallar, en la memoria 1109 la imagen de referencia necesaria para la codificación y decodificación sin alargar la capacidad de memoria o aplicar MMCO.
Se señalará que cómo asignar la capacidad de capa no se limita al ejemplo mostrado en la FIG. 5. Solamente es necesario que la unidad de control de memoria 1200 asigne la capacidad de capa más a la capa en el nivel bajo. Por ejemplo, la unidad de control de memoria 1200 puede asignar la capacidad de capa para tres imágenes a la capa 0 y la capacidad de capa para una imagen a todas las otras capas 1 y 2.
La FIG. 6 es un diagrama de flujo que ilustra los procesos realizados por el aparato de codificación de imagen 1000 de acuerdo con la presente modalidad.
La unidad de ínter predicción 1111 del aparato de codificación de imagen 1000 se refiere a, como una imagen de referencia para una imagen actual a ser codificada, una imagen que pertenece a la segunda capa en un intervalo restringido de acuerdo con la primera capa a la cual pertenece la imagen actual (Etapa S10) . Luego, el aparato de codificación de imagen 1000 codifica la imagen actual con base en la imagen de referencia (Etapa Sil) . Se señalará que la unidad de inter predicción 1111 sirve como una unidad de referencia (la primera unidad de referencia) que se refiere a la imagen de referencia de acuerdo con la presente modalidad. Además, al menos un elemento estructural proporcionado en el aparato de codificación de imagen 1000 sirve como la unidad de codificación la cual codifica la imagen actual.
Con esto, la capa a la cual pertenece la imagen de referencia que se refiere para la codificación de la imagen actual está presente dentro de un intervalo restringido de acuerdo con la primera capa a la cual pertenece la imagen actual. Por consiguiente, puesto que la imagen de referencia que se refiere para la codificación de la imagen actual se restringe de acuerdo con la primera capa, es posible reducir la carga de procesamiento de la codificación. Además, puesto que la imagen de referencia se restringe cuando se decodifica una imagen codificada como se describió anteriormente también, es posible reducir la carga de procesamiento de la decodificación .
Aquí, cuando se hace referencia a la imagen de referencia en la Etapa S10, la unidad de inter predicción 1111 prohibe la referencia a una imagen que pertenece a una capa en un nivel más alto que la primera capa, como la imagen de referencia, a una imagen que pertenece a la segunda capa ubicada en un intervalo restringido a la primera capa o, una capa por debajo de la primera capa.
Con esto, puesto que se prohibe la referencia a una imagen que pertenece a una capa posicionada más alta que la primera capa a la cual pertenece la imagen actual, es posible codificar la imagen actual con menos carga de procesamiento. Igualmente, puesto que no es necesario, cuando se decodifica una imagen codificada también, referirse a una imagen que pertenece a una capa ubicada arriba de una capa a la cual pertenece la imagen codificada, es posible decodificar la imagen codificada con menos carga de procesamiento. Además, en el caso donde cada imagen incluida en una señal de vídeo se trata como una imagen a ser codificada y la señal de vídeo se codifica, no es necesario referirse, en la decodificación de cualquiera de las imágenes incluidas en la señal de vídeo codificada, a una imagen que pertenece a una capa ubicada arriba de una capa a la cual pertenece la imagen. Por consiguiente, solamente es necesario que el aparato de decodificación de imagen decodifique una imagen que pertenece a una capa que es el objetivo de una reproducción especial (reproducción de alta velocidad) , y por consiguiente es posible omitir el problema de decodificación y referir una imagen que pertenece a una capa posicionada más alta que la capa que es el objetivo de la reproducción especial. En el caso donde la capa que es el objetivo de una reproducción especial tal como reproducción de N tiempo-velocidad (N > 2) es la capa de nivel más bajo 0 ubicada en el fondo, el aparato de decodificación de imagen no tiene que tomar el problema de decodificación y referir una imagen la cual no es el objetivo de la reproducción especial y en las capas 1, 2, y 3 posicionadas más altas que la capa de nivel más bajo. Se señalará que cada una de las imágenes es una imagen o un fragmento.
La FIG. 7 es un diagrama de flujo que ilustra procesos en los cuales un indicador se usa y los cuales se realizan por el aparato de codificación de imagen 1000 de acuerdo con la presente modalidad.
La unidad de ínter predicción 1111 del aparato de codificación de imagen 1000 genera un indicador que indica si o no adicionar una restricción para seleccionar una imagen de referencia a ser referida para codificar una imagen actual a ser codificada (Etapa S20) . Luego, en el caso donde el indicador indica adicionar una restricción, la unidad de ínter predicción 1111 selecciona, como una imagen de referencia para la imagen actual, una imagen que cumple la condición restringida de acuerdo con la restricción de acuerdo con la primera capa a la cual pertenece la imagen actual (Etapa S21) . Luego, el aparato de codificación de imagen 1000 codifica la imagen actual, con referencia a la imagen de referencia seleccionada (Etapa S22) . Luego, la unidad de codificación por entropía 1104 del aparato de codificación de imagen 1000 incluye el indicador en la corriente codificada que es la señal de vídeo codificada (Etapa S23) . Se señalará que la unidad de ínter predicción 1111 sirve como una unidad de generación de indicador que genera un indicador y, al mismo tiempo, como una unidad de selección que selecciona una imagen de referencia, de acuerdo con la presente modalidad. Además, al menos un elemento estructural proporcionado en el aparato de codificación de imagen 1000 sirve como la unidad de codificación la cual codifica la imagen actual a ser codificada. Además, la unidad de codificación por entropía 1104 sirve como una unidad de inserción la cual incluye el indicador en una corriente codificada .
Con esto, en el caso donde el indicador indica la adición de una restricción, una imagen que cumple la condición restringida de acuerdo con la primera capa a la cual pertenece la imagen actual se selecciona como una imagen de referencia. Más específicamente, una imagen de referencia que es referida para la codificación de la imagen actual se restringe de acuerdo con la primera capa. Como un resultado, es posible reducir la carga de procesamiento de la codificación de la imagen actual. Además, puesto que un indicador que indica si o no se genera la imposición de una restricción para seleccionar una imagen de referencia y se incluye en una corriente codificada, es posible que el aparato de decodificación de imagen que decodifica la corriente codificada determine fácilmente si o no se impone una restricción para seleccionar la imagen de referencia. Como un resultado, el aparato de decodificación de imagen puede decodificar apropiadamente la señal de vídeo codificada con menos carga de procesamiento .
La FIG. 8 es un diagrama de flujo que ilustra los procesos específicos realizados por el aparato de codificación de imagen 1000 de acuerdo con la presente modalidad.
Primero, el aparato de codificación de imagen 1000 obtiene una señal de vídeo a ser codificada (S100) .
Luego, el aparato de codificación de imagen 1000 clasifica, en las capas, las imágenes incluidas en la señal de vídeo obtenida (Etapa S101) . Luego, el aparato de codificación de imagen 1000 codifica las imágenes de acuerdo con la restricción basada en la estructura de capa de las imágenes (Etapa S102) . Luego, el aparato de codificación de imagen 1000 produce una corriente codificada que incluye las imágenes codificadas, la información de capa de las imágenes, y un indicador (S103) .
La FIG. 9 es un diagrama de bloque que ilustra el aparato de decodificación de imagen de acuerdo con una modalidad de la presente invención.
Un aparato de decodificación de imagen 2000 de acuerdo con la presente modalidad es un aparato que decodifica apropiadamente una corriente codificada generada por el aparato de codificación de imagen 1000 e incluye: una unidad de decodificación por entropía 2101; una unidad de cuantificación inversa 2102; una unidad de transformación ortogonal inversa 2103; un adicionador 2104; un filtro de desbloqueo 2105; una memoria 2106; una unidad de intra predicción 2107; una unidad de ínter predicción 2108; un conmutador 2109; y una unidad de control de memoria 2200.
La unidad de decodificación por entropía 2101 obtiene una corriente codificada y realiza la decodificación por entropía (decodificación de longitud variable) en la corriente codificada. Más específicamente, l unidad de decodificación por entropía 2101 genera un bloque de coeficiente cuantificado, un vector de movimiento, un indicador, e información de capa, realizando la decodificación por entropía.
La unidad de cuantificación inversa 2102 realiza la cuantificación inversa en el bloque de coeficiente cuantificado resultante de la decodificación por entropía realizada por la unidad de decodificación por entropía 2101. La unidad de transformación ortogonal inversa 2103 realiza transformación ortogonal inversa (transformación de frecuencia inversa) taí como transformación de coseno discreta inversa en cada uno de los coeficientes de frecuencia incluidos en el bloque de coeficiente cuantificado inverso, generando la imagen diferencial decodificada.
El adicionador 2104 obtiene una imagen de predicción del conmutador 2109 y adiciona la imagen de predicción a la imagen diferencial decodificada generada por la unidad de transformación ortogonal inversa 2103, generando una imagen decodificada (imagen de reconfi-guración) .
El filtro de desbloqueo 2105 remueve los efectos de bloqueo de la imagen decodificada generada por el adicionador 2104, almacena la imagen decodificada en la memoria 2106, y produce la imagen decodificada .
La unidad de intra predicción 2107 realiza la intra predicción en un bloque actual a ser decodificado, usando la imagen decodificada generada por el adicionador 2104, generando una imagen de predicción (imagen de intra predicción) .
La unidad de inter predicción 2108 se refiere, como una imagen de referencia, a la imagen almacenada en la memoria 2106, y usa el vector de movimiento que resulta de la decodificación por entropía realizada por la unidad de decodificación por entropía 2101, realizando compensación de movimiento en el bloque actual. La unidad de. inter predicción 2108 realiza la compensación de movimiento como se describió anteriormente; es decir, realiza la inter predicción en el bloque actual, generando una imagen de predicción (imagen de inter predicción) del bloque actual.
Aquí, la unidad de inter predicción 2108 impone una restricción en la selección de una imagen de referencia de la misma manera como la unidad de inter predicción 1111 del aparato de codificación de imagen 1000. Es decir, la unidad de inter predicción 210,8 se refiere, como una imagen de referencia para la imagen actual a ser decodificada, a una imagen que pertenece a la segunda capa que está presente dentro de un intervalo que se restringe de acuerdo con la primera capa a la cual pertenece la imagen actual. Más específicamente, la unidad de ínter predicción 2108 prohibe la referencia a una imagen que pertenece a una capa arriba, o en un nivel más alto que, la primera capa, y se refiere, como una imagen de referencia, a una imagen que pertenece a la segunda capa que se ubica en un intervalo restringido a la primera capa o una capa por debajo de la primera capa.
Además, la unidad de inter predicción 2108 genera una lista de referencia que indica una o más imágenes cada una de las cuales pertenece a la primera capa o una capa por debajo de la primera capa, diferente de todas las imágenes que pertenecen a sus capas respectivas presentes más altas que la primera capa, entre las imágenes incluidas en la corriente codificada. La unidad inter predicción 2108, cuando se refiere a una imagen de referencia, selecciona una imagen de referencia de una o más imágenes indicadas en la lista de referencia.
Además, la unidad de inter predicción 2108 obtiene el indicador descrita anteriormente. Aquí, en el caso donde el indicador indica la adición de una restricción, la unidad de inter predicción 2108 selecciona, como una imagen de referencia para la imagen actual, una imagen que cumple la condición restringida de acuerdo con la primera capa a la cual pertenece la imagen actual. Por ejemplo, la unidad de inter predicción 2108 selecciona una imagen de. referencia que usa una imagen de criterio de la misma manera como la unidad de inter predicción 1111 del aparato de codificación de imagen 1000. Luego, la unidad de inter predicción 2108 decodifica la imagen actual con referencia a la imagen de referencia seleccionada.
El conmutador 2109, cuando se ha realizado la codificación intra predicción en el bloque actual, envía la imagen de predicción (imagen de intra predicción) generada por la unidad de intra predicción 2107 al adicionador 2104. Mientras tanto, el conmutador 2109, cuando se ha realizado la codificación inter predicción en el bloque actual, envía la imagen de predicción (imagen de inter predicción) generada por la unidad de inter predicción 2108 al adicionador 2104.
La unidad de control de memoria 2200 obtiene, de la unidad de codificación por entropía 2101, la información de capa de cada una de las imágenes, y maneja cada una de las imágenes almacenadas en la memoria 2106, con base en una capa de la imagen indicada por la información de capa; es decir, con base en una estructura de capa, de la misma manera como la unidad de control de memoria 1200 del aparato de codificación de imagen 1000.
La FIG. 10 es un diagrama de flujo que ilustra los procesos realizados por el aparato de decodificación de imagen 2000 de acuerdo con la presente modalidad.
La unidad de inter predicción 2108 del aparato de decodificación de imagen 2000 se refiere, como una imagen de referencia para una imagen actual a ser decodificada, a una imagen que pertenece a la segunda capa en un intervalo restringido de acuerdo con la primera capa a la cual pertenece la imagen actual (Etapa S30) . Luego, el aparato de decodificación de imagen 2000 decodifica la imagen actual con base en la imagen de referencia (Etapa S31) . Se señalará que la unidad de inter predicción 2108 sirve como una unidad de referencia (la segunda unidad de referencia) que se refiere a la imagen de referencia de acuerdo con la presente modalidad. Además, uno o más elementos estructurales proporcionados en el aparato de decodificación de imagen 2000 sirven como unidades de decodificación que decodifican la imagen actual. Además, la imagen es un cuadro, un fragmento, o similares.
Por ejemplo, la unidad de ínter predicción 2108 genera una lista de referencia que indica una o más imágenes cada una de las cuales pertenece a una capa que está presente en el mismo o inferior nivel que la primera capa, diferente de todas las imágenes que pertenecen a sus capas respectivas presentes más altas que la primera capa, entre las imágenes incluidas en la corriente codificada. Luego, la unidad de inter predicción 2108, cuando se refiere a la imagen de referencia en la Etapa S30, selecciona una imagen de referencia de una o más imágenes indicadas en la lista de referencia .
Con esto, la capa a la cual pertenece la imagen de referencia que es referida para la decodificación de la imagen actual está presente en un intervalo restringido de acuerdo con la primera capa a la cual pertenece la imagen actual. Por consiguiente, puesto que la imagen de referencia que es referida para la decodificación de la imagen actual se restringe de acuerdo con la primera capa, es posible reducir la carga de procesamiento de la decodificación.
La FIG. 11 es un diagrama de flujo que ilustra los procesos realizados por el aparato de decodificación de imagen 2000 de acuerdo con la presente modalidad.
La unidad de inter predicción 2108 del aparato de decodificación de imagen 2000 obtiene, de una corriente codificada, un indicador que indica si o no imponer una restricción en la selección de la imagen de referencia a ser referida para la decodificación de la imagen actual que es una de las imágenes incluidas en la corriente codificada (Etapa S40) . Luego, cuando el indicador indica que se impone una restricción, la unidad de inter predicción 2108 selecciona, como una imagen de referencia para la imagen actual, una imagen que cumple la condición restringida de acuerdo con la primera capa a la cual pertenece la imagen actual (Etapa S41) . Luego, el aparato de decodificación de imagen 2000 decodifica la imagen actual con base en la imagen de referencia seleccionada (Etapa S42) . Se señalará que la unidad de inter predicción 2108 sirve como una unidad de obtención de indicador que obtiene el indicador y, al mismo tiempo, una unidad de selección que selecciona una imagen de referencia.
Con esto, en el caso donde el indicador indica que se impone una restricción, una imagen que cumple la condición restringida de acuerdo con la primera capa a la cual pertenece la imagen actual se selecciona como una imagen de referencia. Más específicamente, una imagen de referencia que es referida para la decodificación de la imagen actual se restringe de acuerdo con la primera capa. Como un resultado, es posible reducir la carga de procesamiento de la decodificación de la imagen actual.
La FIG. 12 es un diagrama de flujo que ilustra un método de manejo de memoria de acuerdo con la presente modalidad.
La unidad de control de memoria 2200 del aparato de decodificación de imagen 2000 almacena una imagen objetivo a ser almacenada entre, las imágenes incluidas en la corriente codificada, en una región de la memoria 2106, la cual se restringe a una capacidad de capa que es una capacidad asignada a una capa a la cual pertenece la imagen objetivo (Etapa S50) . Más específicamente, la unidad de control de memoria 2200 asigna, como una capacidad de capa, parte de la capacidad de memoria disponible en la memoria 2106, para cada una de las capas. Se señalará que, de acuerdo con la presente modalidad, la unidad de control de memoria 2200 sirve como el aparato de manejo de memoria e incluye una unidad de control de almacenamiento para almacenar la imagen objetivo para almacenamiento descrito anteriormente.
Existe el caso, por ejemplo, donde una imagen de referencia de largo tiempo que es réferida durante un período de tiempo largo pertenece a otra capa, y la imagen de referencia de largo tiempo se almacena en otra región. En tal caso, cuando la imagen objetivo se almacena en la otra región, la imagen de referencia de largo tiempo se puede suprimir de la memoria 2106 en algunos casos. Por lo tanto, es necesario realizar el procesamiento tal como la decodificación de la imagen de referencia de largo tiempo de nuevo, para referirse a la imagen de referencia de largo tiempo después que la imagen de referencia de largo tiempo se suprime de la memoria 2106. En vista de lo anterior, con el método de manejo de memoria de acuerdo con la presente modalidad, puesto que una imagen objetivo a ser almacenada se restaura en una región de una memoria, la cual se restringe a una capacidad de capa que se asigna a la capa a la cual pertenece la imagen objetivo y se restringe a una capacidad de capa, es posible prevenir que la imagen de referencia de largo tiempo sea suprimida de la memoria 2106. En otras palabras, es posible almacenar una imagen de referencia necesaria en la memoria 2106 sin fallar. Como un resultado, es posible omitir un proceso redundante tal como decodificación una vez de nuevo de la imagen de referencia de largo tiempo. Además, es posible reducir la carga de procesamiento para aplicar sucesivamente un comando de manejo de memoria para instruir la supresión de una imagen innecesaria para almacenar una imagen de referencia, necesaria en la memoria 2106 sin falla.
Se señalará que, en el caso donde la región descrita anteriormente no tiene capacidad remanente para almacenar una imagen objetivo a ser almacenada cuando se almacena la imagen objetivo, la unidad de control de memoria 2200 suprime de la región, de entre una o más imágenes existentes que ya se han almacenado en la región, la imagen existente la cual se ha almacenado temprano, de modo que la imagen objetivo se almacena.
De acuerdo con la presente modalidad, una capa a la cual una imagen de referencia que es una imagen a ser referida para la codificación o decodificación de la imagen actual a ser procesada, de las imágenes plurales incluidas en la señal de vídeo (corriente codificada) , se restringe para ser una capa que está en el mismo o inferior nivel que la capa a la cual pertenece la imagen actual. En tal caso, cuando se asigna una capacidad de capa para cada una de las capas, la unidad de control de memoria 2200 asigna, a una capa de nivel más bajo 0 ubicada en el fondo entre las capas, una capacidad de capa más grande que una capacidad de capa asignada a una capa de nivel superior posicionada más alta que la capa de nivel más bajo 0.
Con esto, puesto que la capa a la cual pertenece la imagen de referencia se restringe a la capa en el mismo nivel o nivel inferior que la capa a la cual pertenece la imagen actual, es altamente probable que una imagen que pertenece a la capa de nivel más bajo 0 sea referida durante un período de tiempo más largo que una imagen que pertenece a la capa de nivel superior. En vista de lo anterior, una capacidad de capa más grande que una capacidad de capa asignada a la capa de nivel superior se asigna a la capa de nivel más bajo 0 con el método de manejo de memoria de acuerdo con la presente modalidad, y por consiguiente es posible almacenar, en la memoria, la imagen que pertenece a la capa de nivel más ba o 0 durante un período de tiempo largo. Como un resultado, cuando una imagen que pertenece a la capa de nivel más bajo 0 es referida, es posible prevenir tal situación como aquella en la que la imagen se suprime de la memoria 2106 y por consiguiente no se puede referir.
Además, la unidad de control de memoria 2200 marca un atributo en la imagen, de las imágenes almacenadas en la memoria 2106, la cual pertenece a una capa ubicada arriba de una capa a la cual pertenece la imagen actual a ser decodificada . Por ejemplo, la unidad de control de memoria 2200 marca un atributo que indica que la imagen no se usa para referencia.
Con esto, puesto que el atributo se marca en la imagen, es posible identificar fácilmente una imagen innecesaria la cual no será usada para referencia y suprimir la imagen de la memoria 2106 previo a la supresión de otras imágenes. Como un resultado, es posible utilizar efectivamente la capacidad de la memoria 2106.
La FIG. 13 es un diagrama de flujo que ilustra procesos específicos realizados por el aparato de decodificación de imagen 2000 de acuerdo con la presente modalidad.
Primero, el aparato de decodificación de imagen 2000 obtiene un indicador con un bit de una corriente codificada y determina si o no el indicador indica 1 (Etapa S201) .
Cuando el aparato de decodificación de imagen 2000 determina que el indicador no indica 1 (No en la Etapa S201) , el aparato de decodificación de imagen 2000 obtiene una imagen actual a ser decodificada correspondiente a el indicador (Etapa S202) , y decodifica la imagen actual a través de un método general (por ejemplo, inter predicción o intra predicción de acuerdo con el estándar H.264) (Etapa S203) .
Por otra parte, cuando el aparato de decodificación de imagen 2000 determina que el indicador indica 1 (Si en la Etapa S201) , el aparato de- decodificación de imagen 2000 obtiene una imagen actual a ser decodificada la cual corresponde a el indicador (Etapa S204) , y determina si o no la imagen actual es una imagen a ser decodificada a través de la inter predicción (Etapa S205) .
Cuando el aparato de decodificación de imagen 2000 determina que la imagen actual no es una imagen a ser decodificada a través de la inter predicción (No en la Etapa S205) , el aparato de decodificación de imagen 2000 decodifica la imagen actual a través de la intra predicción (Etapa S206) .
Por otra parte, cuando el aparato de decodificación de imagen 2000 determina que la imagen actual es una imagen a ser decodificada a través de la inter predicción (Si en la Etapa S205) , el aparato de decodificación de imagen 2000 obtiene información de cada de la imagen actual (Etapa S207) . Luego, la unidad de inter predicción 2108 del aparato de decodificación de imagen 2000 identifica la imagen que pertenece a una capa en un nivel más alto que una capa indicada en la información de capa (Etapa S208) . Luego, la unidad de inter predicción 2108 construye una lista de referencia (LO, Ll) de la imagen actual usando una imagen diferente de la imagen identificada de las imágenes almacenadas en la memoria 2106 (Etapa S209) .
Además, la unidad de control de memoria 2200 del aparato de decodificación de imagen 2000 marca un atributo que indica "no usada para referencia" en la imagen identificada en la Etapa S208 (Etapa S210) . Luego la unidad de ínter predicción 2108 decodifica la imagen actual a través de la inter predicción usando la imagen de referencia indicada en la lista de referencia construida en la Etapa S209 (Etapa S2111) .
En la Etapa S210, -la unidad de control de memoria 2200 marca el atributo de "no usada para referencia" en todas las imágenes de referencia que pertenecen a una capa en un nivel más alto que una capa indicada por la información de capa, de las imágenes (imágenes de referencia) mantenidas en la memoria 2106. Esto permite que el aparato de decodificación de imagen 2000 conozca por anticipado que la condición de restricción, en la que una imagen que pertenece a una capa en un nivel más alto que una capa de la imagen actual no se permita que sea referida, se une a la corriente codificada.
Como se describió anteriormente, de acuerdo con la presente modalidad, es posible marcar el atributo "no usada para referencia" en una imagen de referencia que ciertamente no será usada para referencia, a través del tercer método (un método basado en una estructura de capa) diferente del manejo de FIFO general y el control de memoria adaptativo usando MMCO. Esto hace posible, cuando la imagen de referencia se produzca (visualice) , suprimir automáticamente la imagen de referencia de la memoria 210.
Además, el aparato de decodificación de imagen 2000, en la construcción de la lista de referencia en la Etapa S209 (almacenamiento del proceso en el momento de la inicialización de la lista de referencia) , genera o actualiza la lista de referencia de una imagen actual a ser decodificada (o un fragmento actual a ser decodificado) , exceptuando la imagen de referencia en una capa de un nivel más alto que una capa de la imagen actual, de la lista de referencia. Esto permite facilitar el proceso de construcción de la lista de referencia.
Modificación Se señalará que, en la presente modalidad, la referencia a una imagen y manejo de memoria ilustrados en la FIG. 14, FIG. 15, y FIG. 16 se pueden realizar.
La FIG. 14 es un diagrama que indica una estructura de referencia de acuerdo con la presente modificación. Se señalará que, en la FIG. 14, un alfabeto, un carácter numérico, y un carácter numérico proporcionado entre paréntesis, los cuales se agregan a una imagen que indica un tipo de imagen, un orden de visualización de la imagen, y un orden de codificación de la imagen, respectivamente. 10(0) indica el tipo de imagen "I", un orden de visualización "0" de la imagen, y el orden de codificación "0" de la imagen. El Br2(3) indica el tipo de imagen "B" , un orden de visualización "2" de la imagen, y el orden de codificación "3" de la imagen.
Por ejemplo, con la estructura de referencia de acuerdo con la presente modificación, una imagen precedente en el orden de visualización es referida en la codificación y decodificación de cada una de la imagen Bf8(l) y la imagen Bfl6(9) las cuales son las imágenes B que pertenecen a la capa 0 en el nivel más bajo, como se muestra por las flechas continuas cada una denotadas por f en la FIG. 14. Además, en la codificación y decodificación de una imagen que pertenece a una capa en un nivel más alto que la capa 0 y en un nivel menor que la capa 3 del nivel más alto, tal como la imagen Br2(3) que pertenece a la capa 2, una figura siguiente en el orden de visualización es referida como se muestra por las flechas continuas cada una denotada por r en la FIG. 14.
Como se describió anteriormente, el aparato de codificación de imagen 1000 y el aparato de decodificación de imagen 2000 de acuerdo con la presente modificación, para codificar o decodificar una imagen B, pueden referirse como una imagen de referencia solamente a una imagen presente en una dirección única (hacia atrás y hacia delante) con respecto a la imagen B en el orden de visualización. En este caso, el aparato de codificación de imagen 1000 puede incluir, en una corriente codificada, un indicador unidireccional que indica si o no la referencia se restringe solamente a la dirección única. Aquí, el indicador unidireccional indica: si o no la referencia se permite solamente a imágenes precedentes y no imágenes siguientes en la capa 0; y si o no la referencia se permite solamente a imágenes siguientes y no a imágenes precedentes en las capas 1 y 2. Como se describió anteriormente, el indicador unidireccional indica si o no se impone una restricción en referencia a los términos de la estructura de capa. Además, el aparato de codificación de imagen 1000 incluye tal marca unidireccional en la corriente codificada para cada unidad predeterminada tal como una secuencia en la corriente codificada. El aparato de decodificación de imagen 2000 obtiene el indicador unidireccional incluida en la corriente codificada, y decodifica una imagen actual a ser decodificada con referencia solamente a una imagen presente en una dirección única (hacia atrás o hacia delante) de acuerdo con la capa de la imagen actual en el caso donde el indicador de dirección única indica una restricción de referencia.
Se señalará que el aparato de decodificación de imagen 2000, aún cuando el indicador unidireccional indica una restricción de referencia, puede referirse a una imagen en una dirección diferente de la dirección única como se muestra por las flechas punteadas denotadas por opción de significado opt en la FIG. 14 cuando se puede usar la imagen en la dirección diferente de la dirección única. Además, el aparato de codificación de imagen 1000 puede indiciar una imagen en la dirección única con un tipo de imagen. En este caso, el aparato de codificación de imagen 1000 incluye el tipo de imagen en la corriente codificada, y el aparato de decodificación de imagen 2000 se refiere, como una imagen de referencia, a una imagen en la dirección única con base en el tipo de imagen incluido en la corriente codificada. Además, cuando la información de capa se incluye en la corriente codificada, el aparato de decodificación de imagen 2000 desasigna la memoria 2106 con base en la información de capa.
La FIG. 15 es un diagrama que indica un ejemplo del método de manejo de memoria de acuerdo con la presente modificación.
El aparato de decodificación de imagen 2000, cuando realiza reproducción de 1-tiempo-velocidad (reproducción normal) en una corriente codificada que tiene la estructura de referencia mostrada en la FIG. 14, decodifica una imagen que pertenece a cada una de las capas 0, 1, 2, y 3. En este caso, después de la decodificación de las imágenes que pertenecen a sus capas respectivas 0, 1, y 2, el aparato de decodificación de imagen 2000 almacena estas imágenes en la memoria 2106 como imágenes de referencia. Por otra parte, aún después de la decodificación de las imágenes que pertenecen a la capa 3, el aparato de decodificación de imagen 2000 no almacena estas imágenes en la memoria 2106 como imágenes de referencia. De otra manera, aún cuando las imágenes que pertenecen a la capa 3 se almacenan en la memoria 2106, la unidad de control de memoria 2200 marca un atributo "no usada para referencia" en estas imágenes en el almacenamiento de estas imágenes .
La FIG. 16 es un diagrama que indica otro ejemplo del método de manejo de memoria de acuerdo con. la presente modificación.
El aparato de decodificación de imagen 2000, cuando realiza la reproducción hacia delante rápida en una corriente codificada que tiene la estructura de referencia mostrada en la FIG. 14, decodifica una imagen que pertenece a cada una de las capas 0, 1, y 2 exceptuando la capa 3. Más específicamente, la decodificación o reproducción de las imágenes Brl(4), Br3(5), Br5(7), y Br7(8) son saltadas. En este caso, después de la decodificación de las imágenes que pertenecen a sus capas respectivas 0 y 1, el aparato de decodificación de imagen 2000 almacena estas imágenes en la memoria 2106 como imágenes de referencia. Por otra parte, aún después de la decodificación de las imágenes que pertenecen a la capa 2, el aparato de decodificación de imagen 2000 no almacena estas imágenes en la memoria 2106 como imágenes de referencia. De otra manera, aún cuando las imágenes que pertenecen a la capa 2 se almacenan en la memoria 2106, la unidad de control de memoria 2200 marca un atributo "no usada para referencia" en estas imágenes en el almacenamiento de estas imágenes.
Es posible reducir la carga de procesamiento de la codificación o decodificación con el método para referir una imagen y el método de manejo de memoria de acuerdo con la presente modificación también.
Modalidad 2 El procesamiento descrito en la Modalidad mencionada anteriormente se puede implementar simplemente en un sistema de computadora independiente, grabando, en un medio de grabación, un programa para implementar las configuraciones del método de codificación de vídeo (método de codificación de imagen) y el método de decodificación de vídeo (método de decodificación de imagen) descritos en la Modalidad mencionada anteriormente. El medio de grabación puede ser cualquier medio de grabación siempre y cuando un programa se pueda grabar, tal como un disco magnético, un disco óptico, un disco óptico magnético, una tarjeta IC, y una memoria semiconductora.
Después, serán descritas las aplicaciones al método de codificación de vídeo (método de codificación de imagen) y el método de decodificación de vídeo (método de decodificación de imagen) descritos en la Modalidad mencionada anteriormente y sistemas de uso de los mismos. El sistema se caracteriza por incluir un aparato de codificación y decodificación de imagen que incluye un aparato de codificación de imagen que usa el método de codificación de imagen y un aparato de decodificación de imagen que usa el método de decodificación de imagen. Otras configuraciones en el sistema se pueden cambiar apropiadamente dependiendo de los casos .
La FIG. 17 ilustra una configuración total de un sistema proveedor de contenido exlOO para implementar los servicios de distribución de contenido. El área para proporcionar servicios de comunicación se divide en celdas de tamaño deseado, y las estaciones base exl06, exl07, exl08, exl09, y exllO las cuales son estaciones inalámbricas fijas se colocan en cada una de las celdas.
El sistema proveedor de contenido exlOO se conecta a dispositivos, tal como una computadora exlll, un asistente digital personal (PDA, por sus siglas en inglés) exll2, una cámara exll3, un teléfono celular exll4 y una máquina de juegos exll5, vía la Internet exlOl, un proveedor de servicio de Internet exl02, una red telefónica exl04, así como también las estaciones base exl06 a exllO, respectivamente.
Sin embargo, la configuración del sistema proveedor de contenido exlOO no se limita a la configuración mostrada en la FIG. 17, y es aceptable una combinación en la cual cualquiera de los elementos se conecta. Además, cada dispositivo se puede conectar directamente a la red telefónica exl04, más bien vía las estaciones base exl06 a exllO las cuales son estaciones inalámbricas fijas. Además, los dispositivos se pueden interconectar entre sí vía una comunicación inalámbrica de distancia corta y otras.
La cámara exll3, tal como una cámara de vídeo digital, es capaz de capturar vídeo. Una cámara exll6, tal como una cámara de vídeo digital, es capaz de capturar tanto imágenes fijas como vídeo. Además, el teléfono celular exll4 puede ser uno que cumple cualquiera de los estándares tales como Sistema Global para Comunicaciones Móviles (GSM®) , Acceso Múltiple por División de Código (CDMA, por sus siglas en inglés) , Acceso Múltiple por División de Código de Banda Ancha (W-CDMA, por sus siglas en inglés) , Evolución de Largo Plazo (LTE, por sus siglas en inglés) , y Acceso de Paquetes de Alta Velocidad (HSPA, por sus siglas en inglés) . Alternativamente, el teléfono celular exll4 puede ser un Sistema de Teléfono Portátil Personal (PHS, por sus siglas en inglés) .
En el sistema proveedor de contenido exlOO, un servidor de transmisión en tiempo real exl03 se conecta a la cámara exll3 y otros vía la red telefónica exl04 y la estación base exl09, que habilita la distribución de imágenes de un espectáculo en vivo y otros. En tal distribución, un contenido (por ejemplo, vídeo de un espectáculo de música en vivo) capturado por el usuario que usa la cámara exll3 se codifica como se describió anteriormente en cada una de las Modalidades (esto significa que la cámara exll3 sirve como el aparato de codificación de imagen de acuerdo con la presente invención) , y el contenido codificado se transmite al servidor de transmisión en tiempo real exl03. Por otra parte, el servidor de transmisión en tiempo real exl03 realiza la distribución de corriente de los datos de contenido transmitidos a los clientes en sus solicitudes. Los clientes incluyen la computadora exlll, el PDA exll2, la cámara exll3, el teléfono celular exll4, y la máquina de juegos exll5 que con capaces de decodificar los datos codificados mencionados anteriormente. Cada uno de los dispositivos que ha recibido los datos distribuidos decodifica y reproduce los datos codificados (esto significa que cada uno de los dispositivos sirve como el aparato de decodificación de imagen de acuerdo con la presente invención) .
Los datos capturados se pueden codificar por la cámara exll3 o el servidor de transmisión en tiempo real exl03 que transmite los datos, o los procesos de codificación se pueden compartir entre la cámara exll3 y el servidor de transmisión en tiempo real exl03. De manera similar, los datos distribuidos se pueden decodificar por los clientes o el servidor de transmisión en tiempo real exl03, o los procesos de decodificación se pueden compartir entre los clientes y el servidor de transmisión en tiempo real exl03. Además, los datos de las imágenes fijas y vídeo capturados no solamente por la cámara exll3 sino también por la cámara exll6 se pueden transmitir al servidor de transmisión en tiempo real. exl03 a través de la computadora exlll. Los procesos de codificación se pueden realizar por la cámara exll6, la computadora exlll, o el servidor de transmisión en tiempo real exl03, o compartir entre los mismos.
Además, los procesos de codificación y decodificación se pueden realizar por un LSI ex500 generalmente incluido en cada uno de la computadora exlll y los dispositivos. El LSI ex500 se puede configurar de un chip único o una pluralidad de chips . El software para codificar y decodificar vídeo se puede integrar en algún tipo de un medio de grabación (tal como un CD-ROM, un disco flexible, y un disco duro) que es leíble por la computadora exlll y otros, y los procesos de codificación y decodificación se pueden realizar usando el software. Además, cuando el teléfono celular exll4 se equipa con una cámara, los datos de imagen obtenidos por la cámara se pueden transmitir. Los datos de vídeo son datos codificados por el LSI ex500 incluido en el teléfono celular exll4.
Además, el servidor de transmisión en tiempo real exl03 puede estar compuesto de servidores y computadoras, y puede descentralizar datos y procesar los datos descentralizados, grabar, o distribuir datos.
Como se describió anteriormente, los clientes pueden recibir y reproducir los datos codifícaos en el sistema proveedor de contenido exlOO. En otras palabras, los clientes pueden recibir y decodificar información transmitida por el usuario, y reproducir los datos decodificados en tiempo real en el sistema proveedor de contenido exlOO, de modo que el usuario quién no tiene algún derecho particular y equipo puede implementar la radiodifusión personal.
Aparte del ejemplo del sistema proveedor de contenido exlOO, al menos uno del aparato de codificación de vídeo (aparato de codificación de imagen) y el aparato de decodificación de vídeo (aparato de decodificación de imagen) descritos en cada una de las modalidades se puede implementar en un sistema de radiodifusión digital ex200 ilustrado en la FIG. 8. Más específicamente, una, estación de radiodifusión ex201 comunica o transmite, vía ondas de radio a un satélite de radiodifusión ex202, datos multiplexados obtenidos multiplexando datos de audio y otros sobre datos de vídeo. Los datos de vídeo son datos codificados por el método de codificación de vídeo descrito en la Modalidad descrita anteriormente (en otras palabras, los datos codificados por el aparato de codificación de imagen de- acuerdo con la presente invención) . En la recepción de los datos multiplexados , el satélite de radiodifusión ex202 transmite ondas de radio para, radiodifusión. Luego, una antena de uso casero ex204 con una función de recepción de radiodifusión satelital recibe las ondas de radio. Luego, un dispositivo tal como una .televisión (receptor) ex300 y una caja de adaptación multimedios (STB, por sus siglas en inglés) ex217 decodifica los datos multiplexados recibidos, y reproduce los datos decodificados (esto significa que el dispositivo sirve como el aparato de decodificación de imagen de acuerdo con la presente invención) .
Además, un lector/grabadora ex218 que (i) lee y decodifica los datos multiplexados grabados en un medio de grabación ex215, tal como un DVD y un BD, o (i) codifica señales de vídeo en el medio de grabación ex215, y en algunos casos, escribe datos obtenidos multiplexando una señal de audio en los datos codificados puede incluir el aparato de decodificación de vídeo o el aparato de codificación de vídeo como se muestra en la Modalidad mencionada anteriormente. En este caso, las señales de vídeo reproducidas se visualizan en el monitor ex219, y se pueden reproducir por otro dispositivo o sistema usando el medio de grabación ex215 en el cual los datos multiplexados se graban. También es posible implementar el aparato de decodificación de vídeo en la caja de adaptación multimedios ex217 conectada al cable ex203 para una televisión por cable o a la antena ex204 para radiodifusión satelital y/o terrestre, para visualizar señales de vídeo en el monitor ex219 de la televisión ex300. El aparato de decodificación de vídeo se puede implementar no en la caja de adaptación multimedios sino en la televisión ex300.
La FIG. 19 ilustra la. televisión (receptor) ex300 que usa el método de codificación de vídeo y el método de decodificación de vídeo descritos en la Modalidad mencionada anteriormente. La televisión ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos multiplexando datos de audio sobre datos de vídeo, a través de la antena ex204 o el cable ex203, etc. que recibe una radiodifusión; una unidad de modulación/desmodulación ex302 que desmodula los datos multiplexados recibidos o modula los datos en datos multiplexados que suministran fuera; y una unidad de multiplexión/desmultiplexión ex303 . que desmultiplexa los datos multiplexados modulados en datos de vídeo y datos de audio, o multiplexa datos de vídeo y datos de audio codificados por una unidad de procesamiento de señal ex306 en datos .
La televisión ex300 adicionalmente incluye: una unidad de procesamiento de señal ex306 que incluye una unidad de procesamiento de señal de audio ex304 y una unidad de procesamiento de señal de vídeo ex305 (las cuales sirven como el aparato de codificación de imagen o el aparato de decodificación de imagen de acuerdo con la presente invención) que decodifican datos de audio y datos de vídeo y codifican datos de audio y datos de vídeo, respectivamente; y un altavoz ex307 que proporciona la señal de audio decodificada; y una unidad de salida ex309 que incluye una unidad de visualización ex308 que visualiza la señal de vídeo decodificada, tal como un visualizador . Además, la televisión ex300 incluye una unidad de interfaz ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación de usuario. Además, la televisión ex300 incluye una unidad de control ex310 que controla en total cada elemento constituyente de la televisión ex300, y una unidad de circuito de suministro de energía ex311 que suministra energía a cada uno de los elementos. Diferente de la unidad de entrada de operación ex312, la unidad de interfaz ex317 puede incluir: un puente ex313 que se conecta a un dispositivo externo, tal como el lector/grabadora ex218; una unidad de ranura ex314 para habilitar la unión del medio de grabación ex216, tal como una tarjeta SD; un controlador ex315 que se conecta a un medio de grabación externo, tal como un disco duro; y un módem ex316 que se conecta a una red telefónica. Aquí, el medio de grabación x216 puede grabar eléctricamente información usando un elemento de memoria semiconductora no volátil/volátil para almacenamiento. Los elementos constituyentes de la televisión ex300 se conectan entre sí a través de un bus síncrono.
Primero, se describirá la configuración en la cual la televisión ex300 decodifica los datos multiplexados obtenidos desde fuera a través de la antena ex204 y otros y reproduce los datos decodificados . En la televisión ex300, en una operación del usuario desde un controlador remoto ex220 y otros, la unidad de multiplexión/desmultiplexión ex303 desmultiplexa los datos multiplexados desmodulados por la unidad de modulación/desmodulación ex302, bajo control de la unidad de control ex310 que incluye una CPU. Además, la unidad de procesamiento de señal de audio ex304 decodifica los datos de audio desmultiplexados , y la unidad de procesamiento de señal de vídeo ex305 decodifica los datos de vídeo desmultiplexados, usando el método de decodificación descrito en la Modalidad mencionada anteriormente, en la televisión ex300.' La unidad de salida ex309 proporciona la señal de vídeo decodificada y señal de audio fuera, respectivamente. Cuando la unidad de salida ex309 proporciona la señal de vídeo y la señal de audio, las señales se pueden almacenar temporalmente en búferes ex318 y ex319, y otros de modo que las señales se reproducen en sincronización entre sí. Además, la televisión ex300 puede leer datos multiplexados no a través de una radiodifusión y otros sino del medio de grabación ex215 y ex216, tal como un disco magnético, un disco óptico, y una tarjeta SD. Luego, se describirá una configuración en la cual la televisión ex300 codifica una señal de audio y una señal de vídeo, y transmite los datos fuera o escribe los datos en un medio de grabación. En la televisión ex300, en una operación de usuario desde el controlador remoto ex220 y otros, la unidad de procesamiento de señal de audio ex304 codifica una señal de audio, y la unidad de procesamiento de señal de vídeo ex305 codifica una señal de vídeo, bajo control de la unidad de control ex310 usando el método de codificación descrito en la Modalidad mencionada anteriormente. La unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de vídeo y señal de audio codificada, y proporciona la salida de señales resultantes . Cuando la unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de vídeo y la señal de audio, las señales se pueden almacenar temporalmente en los búferes ex320 y ex321, y otros de modo que las señales se reproducen en sincronización entre sí . Aquí, los búferes ex318, ex319, ex3'20, y ex321 pueden ser plurales como se ilustra, o al menos un búfer se puede compartir en la televisión ex300. Además, los datos se pueden almacenar en un búfer de modo que el sobreflujo y bajoflujo de sistema se puede evitar entre la unidad de modulación/desmodulación ex302 y la unidad de multiplexión/desmultiplexión ex303, por ejemplo.
Además, la televisión ex300 puede incluir una configuración para recibir una entrada AV de un micrófono o una cámara diferente de la configuración para obtener datos de audio y vídeo de una radiodifusión o un medio de grabación, y puede codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexar, y proporcionar datos de salida en la descripción, puede ser capaz de solamente recibir, decodificar, y proporcionar datos de salida pero no la codificación, multiplexión, y proporción de datos de salida.
Además, cuando el lector/grabadora ex218 lee o escribe datos multiplexados de o en un medio de grabación, una de la televisión ex300 y el lector/grabadora ex218 puede decodificar o codificar los datos multiplexados, y la televisión ex300 y el lector/grabadora ex218 pueden compartir la decodificación o codificación.
Como un ejemplo, la FIG. 20 ilustra una configuración de una unidad de reproduceión/grabación de información ex400 cuando los datos se leen o escriben de o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye elementos constituyentes ex401, ex402, ex403, ex404, ex405, ex406, y ex407 que se describen después. La cabeza óptica ex401 irradia un punto láser en una superficie de grabación del medio de grabación ex215 que es un disco óptico para escribir información, y detecta la luz reflejada de la superficie de grabación del medio de grabación ex215 para leer la información. La unidad de grabación de modulación ex402 acciona eléctricamente un láser semiconductor incluido en la cabeza óptica ex401, y modula la luz láser de acuerdo con los datos grabados . La unidad de desmodulación de reproducción ex403 amplifica una señal de reproducción obtenida detectando eléctricamente la luz reflejada de la superficie de grabación usando un fotodetector incluido en la cabeza óptica ex401, y desmodula la señal de reproducción separando un componente de señal grabado en el medio de grabación ex215 para reproducir la información necesaria. El búfer ex404 temporalmente mantiene la información que se graba en el medio de grabación ex215 y la información reproducida del medio de grabación ex215. El motor de disco ex405 gira el medio de grabación ex215. La unidad de servocontrol ex406 mueve la cabeza óptica ex401 a una pista de información predeterminada mientras controla el impulso de rotación del motor de disco ex405 para seguir el punto láser. La unidad de control de sistema ex407 controla en total la unidad de. reproduceión/grabación de información ex400. Los procesos de lectura y escritura se pueden implementar por la unidad de control de sistema ex407 usando varia información almacenada en el búfer ex404 y generando y agregando nueva información como sea necesario, y por la unidad de grabación de modulación ex402, la unidad de desmodulación de reproducción ex403, y la unidad de servocontrol ex406 que graban y reproducen la información a través de la cabeza óptica ex401 mientras se opera de una manera coordinada. La unidad de control de sistema ex407 incluye, por ejemplo, un microprocesador, y ejecuta el procesamiento causando que una computadora ejecute un programa para leer y escribir.
Aunque la cabeza óptica ex40l irradia un punto láser en la descripción, puede realizar grabación de alta densidad usando luz de campo cercano.
La FIG. 21 ilustra el medio de grabación ex215 que es el disco óptico. En la superficie de grabación del medio de grabación ex215, las ranuras de guía se forman en espiral, y una pista de información ex230 graba, por anticipado, la información de dirección que indica una posición absoluta en el disco de acuerdo con el cambio de una forma de las ranuras de guia. La información de dirección incluye información para determinar posiciones de bloques de grabación ex231 que son una unidad para grabar datos. La reproducción de la pista de información ex230 y lectura de la información de dirección en un aparato que graba y reproduce datos puede conducir a la determinación de las posiciones de los bloques de grabación. Además, el medio de grabación ex215 incluye un área de grabación de datos ex233,'un área de circunferencia interna ex232, y un área de circunferencia externa ex234. El área de grabación de datos ex233 es un área para el uso en la grabación de datos de usuario. El área de circunferencia interna ex232 y el área de circunferencia externa ex234 que están dentro y fuera del área de grabación de datos ex233, respectivamente son para uso específico excepto para grabar los datos de usuario. La unidad de reproducción/grabación de información 400 lee y escribe audio codificado, datos de vídeo codificados, o datos multiplexados obtenidos multiplexando los datos de audio y vídeo codificados, de y en el área de grabación de datos ex233 del medio de grabación ex2l5.
Aunque un disco óptico que tiene una capa, tal como un DVD y un BD se describe como un ejemplo en la descripción, el disco óptico no se limita a tal, y puede ser un disco óptico que tiene una estructura de capas múltiples y capaz de ser grabado en una parte diferente de la superficie. Además, el disco óptico puede tener una estructura para la grabación/reproducción multidimensional, tal como la grabación de información usando luz de colores con diferentes longitudes de onda en la misma porción del disco óptico y para grabar información que tiene diferentes capas de varios ángulos .
Además, un automóvil ex210 que tiene una antena ex205 puede recibir datos del satélite ex202 y otros, y reproducir vídeo en un dispositivo visualizador tal como un sistema de navegación de automóvil ex211 establecido en el automóvil ex210, en el sistema de radiodifusión digital ex200. Aquí, una configuración del sistema de navegación de automóvil ex211 será una configuración, por ejemplo, que incluye una unidad receptora de GPS de la configuración ilustrada en la FIG. 19. Lo mismo será cierto para la configuración de la computadora exlll, el teléfono celular exll4, y otros.
La FIG. 22A ilustra el teléfono celular exll4 que usa el método de codificación de vídeo y el método de decodificación de vídeo descritos en la Modalidad mencionada anteriormente. El teléfono celular exll4 incluye: una antena ex350 para transmitir y recibir ondas de radio a través de la estación base exllO; una unidad de cámara ex365 capaz de capturar imágenes móviles y fijas; y una unidad de visualización ex358 tal como una pantalla de cristal líquido para visualizar los datos tal como vídeo decodificado capturado por la unidad de cámara ex365 o recibido por la antena ex350. El teléfono celular exll4 adicionalmente incluye: una unidad de cuerpo principal que incluye un conjunto de teclas de operación ex366; una unidad de salida de audio ex357 tal como un altavoz para la salida de audio; una unidad de entrada de audio. ex356 tal como un micrófono para la entrada de audio; una unidad de memoria ex367 para almacenar imágenes fijas o de vídeo capturadas, audio grabado, datos codificados o decodificados del vídeo recibido, las imágenes fijas, correos electrónicos, u otros; y una unidad de ranura ex364 que es una unidad de interfaz para un medio de grabación que almacena datos de la misma manera como la unidad de memoria ex367.
Luego, se describirá un ejemplo de una configuración del teléfono celular exll4 descrito con referencia a la FIG. 22B. En el teléfono celular exll4, una unidad de control principal ex360 designada para controlar en total cada unidad del cuerpo principal incluyendo la unidad de visualización ex358 así como también las teclas de operación ex366 se conectan mutuamente, vía un bus síncrono ex370, a una unidad de circuito de suministro de energía ex361, una unidad de control de entrada de operación ex362, una unidad de procesamiento de señal de vídeo ex355, una unidad de interfaz de cámara ex363, una Unidad de control de pantalla de cristal líquido (LCD, por sus siglas en inglés) ex359, una unidad de modulación/desmodulación ex352, una unidad de multiplexión/desmultiplexión ex353, una unidad de procesamiento de señal de audio ex354, la unidad de ranura ex364, y la unidad de memoria ex367.
Cuando una tecla de fin de llamada o una tecla de energía se enciende por una operación del usuario, la unidad de circuito de suministro de energía ex361 suministra las unidades respectivas con energía de un paquete de baterías para activar el teléfono celular exll4.
En el teléfono celular exll4, la unidad de procesamiento de señal de audio ex354 convierte las señales de audio colectadas por la unidad de entrada de audio ex356 en modo de conversación de voz en señales de audio digital bajo el control de la unidad de control principal ex360 incluyendo una CPU, ROM, y RAM. Luego, la unidad de modulación/desmodulación ex352 realiza el procesamiento de espectro extendido en las señales de audio digital, y la unidad de transmisión y recepción ex351 realiza conversión digital a análoga y conversión de frecuencia en los datos, para transmitir los datos resultantes vía la antena ex350. Además, en el teléfono celular exll4, la unidad de transmisión y recepción ex351 amplifica los datos recibidos por la antena ex350 en modo de conversión de voz y realiza conversión de frecuencia y la conversión de análogo a digital en los datos. Luego, la unidad de modulación/desmodulación ex352 realiza el procesamiento de espectro extendido inverso en los datos, y la unidad de procesamiento de señal de audio ex354 la convierte en señales de audio análogo, para producirlas . vía la unidad de salida de audio ex357..
Además, cuando un correo electrónico en el modo de comunicación de datos se transmite, los datos de texto del correo electrónico introducidos operando las teclas de operación ex366 y otras del cuerpo principal se envían a la unidad de control principal ex360 vía la unidad de control de entrada de operación ex362. La unidad de control principal ex360 causa que la unidad de raodulación/desmodulación ex352 realice el procesamiento de espectro extendido en los datos de texto, y la unidad de transmisión y recepción ex35l realiza la conversión de digital a análogo y la conversión- de frecuencia en los datos resultantes para transmitir los datos de la estación base exllO vía la antena ex350. Cuando el correo electrónico se recibe, el procesamiento que es aproximadamente inverso al procesamiento para transmitir un correo electrónico se realiza en los datos recibidos, y los datos resultantes se proporcionan a la unidad de visualización ex358.
Cuando vídeo, imágenes fijas, o vídeo y audio en modo de comunicación de datos es o son transmitidos, la unidad de procesamiento de señal de vídeo ex355 comprime y codifica las señales de vídeo suministradas desde la unidad de cámara ex365 usando el método de codificación de vídeo mostrado en la Modalidad mencionada anteriormente (que significa que la unidad de procesamiento de señal de vídeo ex355 sirve como el aparato de codificación de imagen de acuerdo con la presente invención) , y transmite los datos de vídeo codificados a la unidad de multiplexión/desmultiplexión ex353. En contraste, cuando la unidad de cámara ex365 captura vídeo, imágenes fijas, y otros, la unidad de procesamiento de señal de audio ex354 codifica señales de audio colectadas por la unidad de entrada de audio ex356, y transmite los datos de audio codificados a la unidad de multiplexión/desmultiplexión ex353.
La unidad de multiplexión/desmultiplexión ex353 multiplexa los datos de vídeo codificados suministrados desde la unidad de procesamiento de señal de vídeo ex355 y los datos de audio codificados suministrados desde la unidad de procesamiento de señal de audio ex354, usando un método predeterminado. Luego, la unidad de modulación/desmodulación ex352 realiza el procesamiento de espectro extendido en los datos multiplexados , y la unidad de transmisión y recepción ex351 realiza la conversión de digital a análogo y conversión de frecuencia en los datos para transmitir los datos resultantes vía la antena ex350.
Cuando se reciben datos de un archivo de vídeo que se vincula a una página Web y otros en modo de comunicación de datos o cuando se recibe un correo electrónico con vídeo y/o audio unido, para decodificar los datos multiplexados recibidos vía la antena ex350, la ' unidad de multiplexión/desmultiplexión ex353 desmultiplexa los datos multiplexados en una corriente de bits de datos de vídeo y una corriente de bits de datos de audio, y suministra la unidad de procesamiento de señal de vídeo ex355 con los datos de vídeo codificados y la unidad de procesamiento de señal de audio ex354 con los datos de audio codificados, a través del bus síncrono ex370. La unidad de procesamiento de señal de vídeo ex355 decodifica la señal de vídeo usando un método de decodificación de vídeo correspondiente al método de codificación mostrado en cada una de las Modalidades, y luego la unidad de visualización ex358 visualiza, por ejemplo, las imágenes fijas y de vídeo incluidas en el archivo de vídeo vinculado con la página Web vía la unidad de control de LCD ex359. Además, la unidad de procesamiento de señal de audio ex354 decodifica la señal de audio, y la unidad de salida de audio ex357 proporciona el audio.
Además, de manera similar a la televisión ex300, una terminal tal como el teléfono celular exll4 probablemente tiene 3 tipos de configuraciones de implementación que incluyen no solamente (i) una terminal de transmisión y recepción que incluye tanto un aparato de codificación como un aparato de decodificación, sino también (ii) una terminal de transmisión que incluye solamente un aparato de codificación y (iii) una terminal de recepción que incluye solamente un aparato de decodificación. Aunque el sistema de radiodifusión digital ex200 recibe y transmite los datos multiplexados obtenidos multiplexando datos de audio sobre datos de vídeo en la descripción, los datos multiplexados pueden ser datos obtenidos multiplexando no datos de audio sino datos de caracteres relacionados con vídeo sobre datos de vídeo, y no pueden ser datos multiplexados sino datos de vídeo por si solos.
Como tal, el método de codificación de vídeo y el método de decodificación de vídeo en la Modalidad mencionada anteriormente se pueden usar en cualquiera de los dispositivos y sistemas descritos. Por consiguiente, las ventajas descritas en la Modalidad mencionada anteriormente se pueden obtener.
Además, la presente invención no se limita a la Modalidad mencionada anteriormente, y varias modificaciones y revisiones son posibles sin apartarse del alcance de la presente invención.
Modalidad 3 Los datos de vídeo se pueden generar conmutando, como sea necesario, entre (i) el método de codificación de vídeo o el aparato de codificación de vídeo mostrados en cada una de las Modalidades y (ii) un método de codificación de vídeo o un aparato de codificación de vídeo en conformidad con un diferente estándar, tal como MPEG-2, MPEG4-AVC, y VC-1.
Aquí, cuando se genera una pluralidad de datos de vídeo que es conforme con los diferentes estándares y luego se decodifica, los métodos de decodificación se necesitan seleccionar para ser conforme con los diferentes estándares . Sin embargo, puesto que no se puede detectar con cuál estándar cada uno de la pluralidad de datos de vídeo a ser decodificados es conforme, existe un problema que no se puede seleccionar un método de decodificación apropiado.
Para resolver el problema, los datos multiplexados obtenidos multiplexando datos de audio y otros sobre datos de vídeo tienen una estructura que incluye información de identificación que indica con cuál estándar los datos de vídeo son conformes. La estructura específica de los datos multiplexados que incluyen los datos de vídeo generados en el método de codificación de vídeo y por el aparato de codificación de vídeo mostrado en cada una de las Modalidades será descrita después. Los datos multiplexados son una corriente digital en el formato de Corriente de Transporte de MPEG-2.
La FIG. 23 ilustra una estructura de los datos multiplexados. Como se ilustra en la FIG. 23, los datos multiplexados se pueden obtener multiplexando al menos una de una corriente de vídeo, una corriente de audio, y una corriente de gráfica de presentación (PG, por sus siglas en inglés) , y una corriente de gráfica interactiva. La corriente de vídeo representa vídeo primario y vídeo secundario de una película, la corriente de audio (IG) representa una parte de audio primario y una parte de audio secundario que se mezcla con la parte de audio primario, y la corriente de gráfica de presentación representa subtítulos de la película. Aquí, el vídeo primario es vídeo normal que se visualiza en una pantalla, y el vídeo secundario es vídeo que se visualiza en una ventana menor en el vídeo primario. Además, la corriente de gráfica interactiva representa una pantalla interactiva que se genera arreglando los componentes GUI en una pantalla. La corriente de vídeo se codifica en el método de codificación de vídeo o por el aparato de codificación de vídeo mostrado en cada una de las Modalidades, o en un método de codificación de vídeo o por un aparato de codificación de vídeo de conformidad con un estándar convencional, tal como MPEG-2, MPEG4-AVC, y VC-1. La corriente de audio se. codifica de conformidad con un estándar, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS , DTS-HD, y PCM lineal.
Cada corriente incluida en los datos multiplexados se identifica por PID. Por ejemplo, 0x1011 se asigna a la corriente de vídeo que se usa para vídeo de una película, 0x1100 a OxlllF se asignan a las corrientes de audio, 0x1200 a 0xl21F se asignan a las corrientes de gráfica de presentación, 0x1400 x 0xl41F se asignan a las corrientes de gráfica interactiva, OxlBOO a OxlBlF se asignan a las corrientes de vídeo que se usan para el vídeo secundario de la película, y OxlAOO a OxlAlF se asignan a las corrientes de audio que se usan para el vídeo secundario que se mezcla con el audio primario.
La FIG. 24 ilustra esquemáticamente cómo los datos se multiplexan. Primero, una corriente de vídeo ex235 compuesta de cuadros de vídeo y una corriente de audio ex238 compuesta de cuadros de audio se transforman en una corriente de paquetes PES ex236 y una corriente de paquetes PES ex239, y además en paquetes TS ex237 y paquetes TS ex240, respectivamente. De manera similar, los datos de una corriente de gráfica de presentación ex241 y datos de una corriente de gráfica interactiva ex244 se transforman en una corriente de paquetes PES ex242 y una corriente de paquetes PES ex245, y además en paquetes TS ex243 y paquetes TS ex246, respectivamente. Estos paquetes TS se multiplexan en una corriente para obtener datos multiplexados ex247.
La FIG. 25 ilustra cómo una corriente de vídeo se almacena en una corriente de paquetes PES con más detalle. La primera barra en la FIG. 25 muestra una corriente de cuadro de vídeo en una corriente de vídeo. La segunda barra muestra la corriente de paquetes PES. Como se indica por las flechas denotadas como yy2, yy2, yy3, y yy4 en la FIG. 25, la corriente de vídeo se divide en imágenes como imágenes I , imágenes B, e imágenes P cada una de las cuales es una unidad de presentación de vídeo, y las imágenes se almacenan en una carga útil de cada uno de los paquetes PES . Cada uno de los paquetes PES tiene un encabezado PES, y el encabezado PES almacena un Sello de Tiempo de Presentación (PTS, por sus siglas en inglés) que indica un tiempo de visualización de la imagen, y un Sello de Tiempo de Decodificación (DTS, por sus siglas en inglés) que indica un tiempo de decodificación de la imagen.
La FIG. 26 ilustra un formato de paquetes TS que finalmente se escriben en los datos multiplexados . Cada uno de los paquetes TS es un paquete de longitud fija de 188 bytes que incluye un encabezado TS de 4 bytes que tiene información, tal como PID para identificar una corriente y una carga útil TS de 184 bytes para almacenar datos. Los paquetes PES se dividen, y almacenan en las cargas útiles TS, respectivamente. Cuando se usa un BD ROM, a cada uno de los paquetes TS se le da un TP_Extra_Header de 4 bytes, resultando así en paquetes de fuente de 192 bytes. Los paquetes de fuente se escriben en los datos multiplexados. El TP_Extra_Header almacena información tal como un Arrival_Time_Stamp (ATS). El ATS muestra un tiempo de inicio de transferencia en el cual cada uno de los paquetes TS será transferido a un filtro PID. Los paquetes de fuente se arreglan en los datos multiplexados como se muestra en la parte inferior de la FIG. 26. Los números que incrementan desde el encabezado de los datos multiplexados son llamados números de paquete de fuente (SPNs, por sus siglas en inglés) .
Cada uno de los paquetes TS incluidos en los datos multiplexados incluye no solamente corrientes de audio, vídeo, subtítulos y otros, sino también una Tabla de Asociación de Programa (PAT, por sus siglas en inglés) , una Tabla de Mapa de Programa (PMT, por sus siglas en inglés) , y una Referencia de Reloj de Programa (PCR, por sus siglas en inglés) . La PAT muestra qué indica una PID en una PMT usada en los datos multiplexados, y una PID de PAT por si sola se registra como cero. La PMT almacena PIDs de las corrientes de vídeo, audio, subtítulos y otros incluidos en los datos multiplexados, e información de atributo de las corrientes cprrespondientes a las PIDs . La PMT también tiene varios descriptores relacionados con los datos multiplexados. Los descriptores tienen información tal como información de control de copia que muestra si el copiado de los datos multiplexados se permite o no. La PCR almacena información de tiempo STC correspondiente a una ATS que muestra cuando el paquete PCR se transfiere a un decódificador, para lograr la sincronización entre un Reloj de Tiempo de Arribo (ATC, por sus siglas en inglés) que es un eje de tiempo de ATSs, y un Reloj de Tiempo de Sistema (STC, por sus siglas en inglés) que es un eje de tiempo de PTSs y DTSs.
La FIG. 27 ilustra la estructura de datos de la PMT en detalle. Un encabezado de PMT se coloca en la parte superior de la PMT. El encabezado de PMT describe la longitud de datos incluidos en la PMT y otros. Una pluralidad de descriptores relacionados con los datos multiplexados se coloca después del encabezado de PMT. La información tal como la información de control de copia se. describe en los descriptores. Después de los descriptores, se coloca una pluralidad de piezas de información de corriente relacionadas con las corrientes incluidas en los datos multiplexados . Cada pieza de información de corriente incluye descriptores de corriente cada uno describe información, tal como un tipo de corriente para identificar un códec de compresión de una corriente, una PID de corriente, e información de atributo de corriente (tal como una tasa de cuadro o una relación de aspecto) . Los descriptores de corriente son iguales en número con el número de corrientes en los datos multiplexados .
Cuando los datos multiplexados se graban en un medio de grabación y otros, se graban conjuntamente con los archivos de información de datos multiplexados .
Cada uno de los archivos de información de datos multiplexados es información de manejo de los datos multiplexados como se muestra en la FIG. 28. Los archivos de información de datos multiplexados están en correspondencia uno a uno con los datos multiplexados, y cada uno de los archivos incluye información de datos multiplexados, información de atributo de corriente, y un mapa de entrada.
Como se ilustra en la FIG. 28, los datos multiplexados incluyen una tasa de sistema, un tiempo de inicio de reproducción, y un tiempo de final de reproducción. La tasa de sistema indica la tasa de transferencia máxima a la cual un decodificador de objetivo de sistema que se describe más tarde transfiere los datos multiplexados a un filtro PID. Los intervalos de las ATSs incluidas en los datos multiplexados se establecen para no ser mayores que una tasa de sistema. El tiempo de inicio de reproducción indica el PTS en un cuadro de vídeo en la cabeza de los datos multiplexados. Un intervalo de un cuadro se agrega a un PTS en un cuadro de vídeo al final de los datos multiplexados, y el PTS se establece al tiempo final de reproducción.
Como se muestra en la FIG. 29, una pieza de información de atributo se registra en la información de atributo de corriente, para cada PID de cada corriente incluida en los datos multiplexados . Cada pieza de información de atributo tiene diferente información dependiendo si la corriente correspondiente es una corriente de vídeo, una corriente de audio, una corriente de gráfica de presentación, o una corriente de gráfica interactiva. Cada pieza de información de atributo de corriente de vídeo porta información que incluye qué tipo de códec de compresión se usa para comprimir la corriente de vídeo, y la resolución, relación de aspecto y tasa de cuadro de las piezas de datos de imagen que se incluyen en la corriente de vídeo. Cada pieza de información de atributo de corriente de audio porta información que incluye qué tipo de códec de compresión se usa para comprimir la corriente de audio, cuántos canales se incluyen en la corriente de audio, cuál idioma soporta la corriente de audio, y cuán alta es la frecuencia de muestreo. La información de atributo de corriente de vídeo y la información de atributo de corriente de audio se usan para la inicialización de un decodificador antes que el reproductor reproduzca la información.
En la presente modalidad, los datos multiplexados que se usan son de un tipo de corriente incluido en la PMT. Además, cuando los datos multiplexados se graban en un medio de grabación, se usa la información de atributo de corriente de vídeo incluida en la información de datos multiplexados. Más específicamente, el método de codificación de vídeo o el aparato de codificación de vídeo descritos en cada una de las Modalidades incluye una etapa o una unidad para asignar información única que indica datos de vídeo generados por el método de codificación de vídeo o el aparato de codificación de vídeo en cada una de las Modalidades, al tipo de corriente incluida en la PMT o la información de atributo de corriente de vídeo. Con la configuración, los datos de vídeo generados por el método de codificación de vídeo o el aparato de codificación de vídeo descritos en cada una de las Modalidades se pueden distinguir de los datos de vídeo que son conforme a otro estándar.
Además, la FIG. 30 ilustra etapas del método de decodificación de vídeo de acuerdo con la Modalidad 9. En la etapa exSlOO, el tipo de corriente incluido en la PMT o la información de atributo de corriente de vídeo se obtienen de los datos multiplexados . Luego, en la Etapa exSlOl, se determina si o no el tipo de corriente o la información de atributo de corriente de vídeo indica que los datos multiplexados se generan por el método de codificación de vídeo o el aparato de codificación de vídeo en cada una de las Modalidades. Cuando se determina que el tipo de corriente o la información de atributo de corriente de vídeo indica que los datos multiplexados se generan por el método de codificación de vídeo o el aparato de codificación de vídeo en cada una de las modalidades, en la Etapa exS102, el tipo de corriente o la información de atributo de corriente de vídeo se decodifica por el método de decodificación de vídeo en cada una de las Modalidades. Además, cuando el tipo de corriente o la información de atributo de corriente de vídeo indica conformidad con los estándares convencionales, tales como MPEG-2, MPEG4-AVC, y VC-1, en la Etapa exS103, el tipo de corriente o la información de atributo de corriente de vídeo se decodifica por un método de decodificación de vídeo de conformidad con los estándares convencionales.
Como tal, la asignación de un nuevo valor único al tipo de corriente o la información de atributo de corriente de vídeo hace posible la determinación si o no el método de decodificación de vídeo o el aparato de decodificación de vídeo que se describe en cada una de las modalidades puede realizar la decodificación. Aún cuando los datos multiplexados son conforme con un estándar diferente, un método o aparato de decodificación apropiado se puede seleccionar. Por consiguiente, llega a ser posible decodificar información sin algún error. Además, el método o aparato de codificación de vídeo, o el método o aparato de decodificación de vídeo en esta modalidad se puede usar en los dispositivos y sistemas descritos anteriormente.
Modalidad 4 Cada uno del método de codificación de vídeo, el aparato de codificación de vídeo, el método de decodificación de vídeo, y el aparato de decodificación de vídeo en cada una de las modalidades típicamente se logran en la forma de un circuito integrado o un circuito Integrado de Gran Escala (LSI, por sus siglas en inglés) . Como un ejemplo del LSI, la FIG. 31 ilustra una configuración del LSI ex500 que se hace en un chip. El LSI ex500 incluye elementos ex501, ex502, ex503, ex504, ex505, ex506, ex507, ex508, y ex509 que se describen a continuación, y los elementos se conectan entre si a través de un bus ex510. La unidad de circuito de suministro de energía ex505 se activa suministrando a cada uno de los elementos energía cuando la unidad de circuito de suministro de energía ex505 se enciende.
Por ejemplo, cuando se realiza la codificación, el LSI ex500 recibe una señal AV de un micrófono exll7, una cámara exll3, y otros a través de 10 AV ex509 bajo control de una unidad de control ex501 que incluye una CPU ex502, un controlador de memoria ex503, un controlador de corriente ex504, y una unidad de control de frecuencia de impulso ex512. La señal AV recibida se almacena temporalmente en una memoria externa ex511, tal como una SDRAM. Bajo control de la unidad de control ex501, los datos almacenados se segmentan en porciones de datos de acuerdo con la cantidad de procesamiento y velocidad que se transmiten a una unidad de procesamiento de señal ex507. Luego, la unidad de procesamiento de señal ex507 codifica una señal de audio y/o una señal de vídeo. Aquí, la codificación de la señal de vídeo es la codificación descrita en cada una de las modalidades. Además, la unidad de procesamiento de señal ex507 algunas veces multiplexa los datos de audio codificados y los datos de vídeo codificados, y una 10 de corriente ex506 proporciona la salida de datos multiplexados . Los datos multiplexados proporcionados se transmiten a una estación base exl07, o se escriben en el medio de grabación ex2l5. Cuando los conjuntos de datos son multiplexados, los datos se deben almacenar temporalmente en el búfer ex508 de modo que los conjuntos de datos se sincronizan entre sí.
Aunque la memoria ex511 es un elemento exterior del LSI ex500, se puede incluir en el LSI ex500. El búfer ex508 no se limita a un búfer, sino puede estar compuesto de búferes. Además, el LSI ex500 se puede hacer en un chip o una pluralidad de chips.
Además, aunque la unidad de control ex501 incluye la CPU ex502, el controlador de memoria ex503, el controlador de corriente ex504, la unidad de control de frecuencia de impulso ex512, la configuración de la unidad de control ex501 no se limita a tal. Por ejemplo, la unidad de procesamiento de señal ex507 puede incluir adicionalmente una CPU. La inclusión de otra CPU en la unidad de procesamiento de señal ex507 puede mejorar la velocidad de procesamiento. Además, como otro ejemplo, la CPU ex502 puede servir o ser parte de la unidad de procesamiento de señal ex507, y por ejemplo, puede incluir una unidad de procesamiento de señal de audio. En tal caso, la unidad de control ex501 incluye la unidad de procesamiento de señal ex507 o la CPU ex502 que incluye una parte de la unidad de procesamiento de señal ex507.
El nombre usado aquí es LSI , pero también se puede llamar IC, sistema LSI, súper LSI, o ultra LSI dependiendo del grado de integración.
Además, las maneras de lograr la integración no se limitan a LSI, y un circuito especial o un procesador de propósito general, etcétera también puede lograr la integración. El Arreglo de Compuerta de Campo Programable (FPGA, por sus siglas en inglés) que se puede programar después de la manufactura de LSIs o un procesador configurable que permite la re-configuración de la conexión o configuración de un LSI se pueden usar para el mismo propósito .
En el futuro, con el avance en la tecnología de semiconductores, una tecnología de nueva marca puede reemplazar el LSI. Los bloques funcionales se pueden integrar usando tal tecnología. La posibilidad es que la presente invención se aplique a biotecnología.
Modalidad 5 Cuando se decodifican los datos de vídeo en el método de codificación de vídeo o por el aparato de codificación de vídeo descritos en cada una de las modalidades, en comparación con los datos de vídeo que son conforme con un estándar convencional, tal como MPEG-2, MPEG4-AVC, y VC-1, la cantidad de procesamiento probablemente incremente. Por consiguiente, el LSI ex500 necesita ser establecido con una frecuencia de impulso mayor que aquella de la CPU ex502 que se usa cuando se decodifican , los datos de vídeo de conformidad con el estándar convencional. Sin embargo, cuando la frecuencia de impulso se establece mayor, hay un problema que el consumo de energía incrementa.
Para resolver el problema, el aparato de decodificación de vídeo, tal como la televisión ex300 y el LSI ex500 se configura para determinar con cuál estándar los datos de vídeo son conforme, y conmutar entre las frecuencias de impulso de acuerdo con el estándar determinado. La FIG. 32 ilustra una configuración ex800 en la presente modalidad. Una unidad de conmutación de frecuencia de impulso ex803 establece una frecuencia de impulso con una frecuencia de impulso mayor cuando los datos de vídeo se generan por el método de codificación de vídeo o el aparato de codificación de vídeo descrito en cada una de las modalidades. Luego la unidad de conmutación de frecuencia de impulso ex803 instruye a una unidad de procesamiento de decodificación ex801 que ejecuta el método de decodificación de vídeo descrito en cada una de las modalidades para decodificar los datos de vídeo. Cuando los datos de vídeo son conforme con el estándar convencional, la unidad de conmutación de frecuencia de impulso ex803 establece una frecuencia de impulso con una frecuencia de impulso inferior que aquella de los datos de vídeo generados por el método de codificación de vídeo o el aparato de codificación de vídeo descritos en cada una de las modalidades. Luego, la unidad de conmutación de frecuencia de impulso ex803 instruye a la unidad de procesamiento de decodificación ex802 que sea conforme con el estándar convencional para decodificar los datos de vídeo.
Más específicamente, la unidad de conmutación de frecuencia de impulso ex803 incluye la CPU ex502 y la unidad de control de frecuencia de impulso ex5l2 en la FIG. 31. Aquí cada una de la unidad de procesamiento de decodificación ex801 que ejecuta el método de decodificación de vídeo descrito en cada una de las modalidades y la unidad de procesamiento de decodificación ex802 que es conforme con el estándar convencional corresponde con la unidad de procesamiento de señal ex507 en la FIG. 31. La CPU ex502 determina con cual estándar los datos de vídeo son conforme. Luego, la unidad de control de frecuencia de impulso ex512 determina una frecuencia de impulso con base en una señal de la CPU ex502. Además, la unidad de procesamiento de señal ex507 decodifica los datos de vídeo con base en la señal de la CPU ex502. Por ejemplo, la información de identificación descrita en la Modalidad 3 probablemente se usa para identificar datos de vídeo. La información de identificación no se limita a una descrita en la Modalidad 3 pero puede ser cualquier información siempre y cuando la información indique con cuál estándar los datos de vídeo son conformes . Por ejemplo, se puede determinar cuáles datos de vídeo estándar son conformes con base en una señal externa para determinar que los datos de vídeo se usan para una televisión o un disco, etc., la determinación se puede hacer con base en tal señal externa. Además, la CPU ex502 selecciona una. frecuencia de impulso con base en, por ejemplo, una tabla de consulta en la cual los estándares de los datos de vídeo se asocian con las frecuencias de impulso como se muestra en la FIG. 34. La frecuencia de impulso se puede seleccionar almacenando la tabla de consulta en el búfer ex508 y en una memoria interna de un LSI, y con referencia a la tabla de consulta por la CPU ex502.
La FIG. 33 ilustra las etapas para ejecutar un método en la modalidad 11. Primero, en la Etapa exS200, la unidad de procesamiento de señal ex507 obtiene información de identificación de los datos multiplexados . Luego, en la Etapa exS201, la CPU ex502 determina si o no los datos de vídeo se generan con base en la información de identificación por el método de codificación y el aparato de codificación descritos en cada una de las modalidades . Cuando los datos de vídeo se generan por el método de codificación de vídeo y el aparato de codificación de vídeo descritos en cada una de las modalidades, en la Etapa exS202, la CPU ex502 transmite una señal para establecer la frecuencia de impulso a una frecuencia de impulso mayor con la unidad de control de frecuencia de impulso ex512. Luego, la unidad de control de frecuencia de impulso ex512 establece la frecuencia de impulso con la frecuencia de impulso mayor. Por otra parte, cuando la información de identificación indica que los datos de vídeo son conformés con el estándar convencional, tal como MPEG-2, MPEG4-AVC, y VC-1, en la Etapa exS203, la CPU ex502 transmite una señal para establecer la frecuencia de impulso con una frecuencia de impulso menor a la unidad de control de frecuencia de impulso ex512. Luego, la unidad de control de frecuencia de impulso ex512 establece la frecuencia de impulso para la frecuencia de impulso inferior que aquella en el caso donde los datos de vídeo se generan por el método de codificación de vídeo y el aparato de codificación de vídeo descritos en cada una de las modalidades.
Además, junto con la conmutación de las frecuencias de impulso, el efecto de conservación de energía se puede mejorar cambiando el voltaje que se aplica al LSI ex500 o un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de impulso se establece menor, el voltaje que se aplica al LSI ex500 o el aparato que incluye el LSI ex500 probablemente se establece a un voltaje inferior que aquel en el caso donde la frecuencia de impulso se establece mayor.
Además, cuando la cantidad de procesamiento para la decodificación es grande, la frecuencia de impulso se puede establecer mayor, y cuando la cantidad de procesamiento para la decodificación es menor, la frecuencia de impulso se puede establecer menor como el método para establecer la frecuencia de impulso. Por consiguiente, el método de establecimiento no se limita a los descritos anteriormente. Por ejemplo, cuando la cantidad de procesamiento para decodificar datos de vídeo de conformidad con MPEG4-AVC es mayor que la cantidad de procesamiento para decodificar datos de vídeo generados por el método de codificación de vídeo y el aparato de codificación de vídeo descritos en cada una de las modalidades, la frecuencia de impulso probablemente se establece en orden inverso con el establecimiento descrito anteriormente .
Además, el método para establecer la frecuencia de impulso no se limita al método para establecer la frecuencia de impulso menor. Por ejemplo, cuando la información de identificación indica que los datos de vídeo se generan por el método de codificación de vídeo y el aparato de codificación de vídeo descritos en cada una de las modalidades, el voltaje a ser aplicado al LSI ex500 o el aparato que incluye el LSI ex500 probablemente se establece más alto. Cuando la información de identificación indica que los datos de vídeo son conforme al estándar convencional, tales como MPEG-2 , MPEG4-AVC, y VC-1, el voltaje a ser aplicado al LSI ex500 o el aparato que incluye el LSI ex500 probablemente se establece más bajo. Como otro ejemplo, cuando la información de identificación indica que los datos de vídeo se generan por el método de codificación de vídeo y el aparato de codificación de vídeo descritos en cada una de las modalidades, el impulso de la CPU ex502 probablemente no tiene que ser suspendido. Cuando la información de identificación indica que los datos de vídeo son conforme al estándar convencional, tales como MPEG-2, MPEG4-AVC, y VC-1, el impulso de la CPU ex502 probablemente se suspende en un tiempo dado debido a que la CPU ex502 tiene capacidad de procesamiento extra. Aún cuando la información de identificación indica que los datos de vídeo se generan por el método de codificación de vídeo y el aparato de codificación de vídeo descritos en cada una de las modalidades, en el caso donde la CPU ex502 puede tener un retraso de tiempo, el impulso de la CPU ex502 probablemente se suspende en un tiempo dado. En tal caso, el tiempo de suspensión probablemente se establece más corto que aquel en el caso donde la información de identificación indica que los datos de vídeo son conforme al estándar convencional tales como MPEG-2, MPEG4-AVC, y VC-1.
Por consiguiente, el efecto de conservación de energía se puede mejorar conmutando entre las frecuencias de impulso de conformidad con el estándar al cual los datos de vídeo son conformes. Además, cuando el LSI ex500 o el aparato que incluye el LSI ex500 se impulsa usando una batería, la vida de la batería se puede extender con el efecto de conservación de energía.
Modalidad 6 Existen casos donde una pluralidad de datos de vídeo que son conforme a diferentes estándares, se proporciona a los dispositivos y sistemas, tal como una televisión y un teléfono móvil. Para habilitar la decodificación de la pluralidad de datos de vídeo que son conforme a los diferentes estándares, la unidad de procesamiento de señal ex507 del LSI ex500 necesita ser conforme con los diferentes estándares. Sin embargo, los problemas del incremento de la escala del circuito del LSI ex500 e incremento del costo surgen con el uso individual de las unidades de procesamiento de señal ex507 que son conforme a los estándares respectivos.
Para resolver el problema, lo que se concibió es una configuración en la cual la unidad de procesamiento de decodificación para implementar el método de decodificación de vídeo descrito en cada una de las modalidades y la unidad de procesamiento de decodificación que es conforme con el estándar convencional, tal como MPEG- 2, MPEG4-AVC, y VC-1 son parcialmente compartidas. Además, ex900 en la FIG. 35A muestra otro ejemplo en el que el procesamiento se comparte parcialmente. Por ejemplo, el método de decodificación de video descrito en cada una de las modalidades y el método de decodificación de vídeo que es conforme con MPEG4-AVC tienen, parcialmente en común, los detalles de procesamiento, tal como codificación por entropía, cuantificacion inversa, filtración de desbloqueo, y predicción de movimiento compensado. Los detalles del procesamiento que se comparte probablemente incluyen el uso de una unidad de procesamiento de decodificación ex902 que es conforme a MPEG4-AVC. En contraste, una unidad de procesamiento de decodificación especializada ex901 se usa probablemente para otro procesamiento único de la presente invención. La unidad de procesamiento de decodificación para implementar el método de decodificación de vídeo descrito en cada una de las Modalidades se puede compartir para él procesamiento a ser compartido, y una unidad de procesamiento de decodificación especializada se puede usar para el procesamiento único con aquel de MPEG4-AVC.
Además, exlOOO en la FIG. 35B muestra otro ejemplo en el cual el procesamiento se comparte parcialmente. Este ejemplo usa una configuración que incluye una unidad de procesamiento de decodificación especializada exlOOl que soporta el procesamiento único de la presente invención, una unidad de procesamiento de decodificación especializada exl002 que soporta el procesamiento único de otro estándar convencional, y una unidad de procesamiento de decodificación exl003 que soporta el procesamiento a ser compartido entre el método de decodificación de vídeo en la. presente invención y el método de decodificación de vídeo convencional. Aquí, las unidades de procesamiento de decodificación especializadas exlOOl y exl002 no son necesariamente especializadas para el procesamiento de la presente invención y el procesamiento del estándar convencional, respectivamente, y pueden ser capaces de implementar el procesamiento general. Además, la configuración de la modalidad 12 se puede implementar por el LSI ex500.
Como tal, la reducción de la escala del circuito de un LSI y reducción del costo son posibles compartiendo la unidad de procesamiento de decodificación para que el procesamiento sea compartido entre el método de decodificación de vídeo de la presente invención y el método de decodificación de vídeo de conformidad con el estándar convencional .
Aplicabilidad Industrial El método de codificación de imagen y el método de decodificación de imagen de acuerdo con la presente invención tienen un efecto ventajoso de reducir las cargas de procesamiento y se pueden aplicar, por ejemplo, a una cámara de vídeo, un teléfono celular que tiene las funciones de capturar y reproducir vídeo, una computadora personal, un aparato de grabación y reproducción, etcétera.
Lista de Signos de Referencia 1000 aparato de codificación de imagen 1101 sustractor 1102 unidad de transformación ortogonal 1103 unidad de cuantificación 1104 unidad de codificación por entropía 1105 unidad de cuantificación inversa 1106 unidad de transformación ortogonal inversa 1107 adicionador 1108 filtro de desbloqueo 1109 memoria 1110 unidad de intra predicción 1111 unidad de inter predicción 1112 unidad de estimación de movimiento 1113 conmutador 1200 unidad de control de memoria 2000 aparato de decodificación de imagen 2101 unidad de decodificación por entropía 2102 unidad de cuantificación inversa 2103 unidad de transformación ortogonal inversa 2104 adicionador 2105 filtro de desbloqueo 2106 memoria 2107 unidad de intra predicción 2108 unidad de inter predicción 2109 conmutador 2200 unidad de control de memoria Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.

Claims (22)

REIVINDICACIONES Habiéndose descrito la invención como antecede se reclama como propiedad lo contenido en las siguientes reivindicaciones :
1. Un método de codificación de imagen para codificar una señal de vídeo, caracterizado porque comprende: referir una imagen como una imagen de referencia para una imagen actual a ser codificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes la cual pertenece a una primera capa, y la imagen de referencia pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa; y codificar la imagen actual con base en la imagen de referencia.
2. El método de codificación de imagen de conformidad con la reivindicación 1, caracterizado porque en la referencia, se prohibe referirse a una imagen qüe pertenece a una capa ubicada arriba de la primera capa, y la imagen que pertenece a la segunda capa es referida como la imagen de referencia, la segunda capa se ubica en un intervalo restringido para la primera capa o por debajo de la primera capa.
3. El método de codificación de imagen de conformidad con la reivindicación 2, caracterizado porque cada una de la pluralidad de imágenes es una imagen o un fragmento.
4. Un método de codificación de imagen para codificar una señal de vídeo, caracterizado porque comprende: generar un indicador que indica si o no una restricción será impuesta en la selección de una imagen de referencia que es referida para la codificación de una imagen actual a ser codificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes ; seleccionar, como la imagen de referencia para la imagen actual, una imagen que cumple una condición restringida de acuerdo con una primera capa a la cual la imagen actual pertenece, cuando el indicador indica que la restricción será impuesta; codificar la imagen actual con referencia a la imagen de referencia seleccionada; e incluir el indicador en la señal de vídeo la cual se ha codificado.
5. El método de codificación de imagen de conformidad con la reivindicación 4, caracterizado porque en la selección de una imagen de referencia, cuando una imagen de criterio que pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa se ubica entre l imagen actual y una imagen candidata en orden de codificación, se prohibe seleccionar la imagen candidata como la imagen de referencia y una imagen diferente de la imagen candidata se puede seleccionar como la imagen de referencia.
6. El método de codificación de imagen de conformidad con la reivindicación 5, caracterizado porque en la selección de una imagen de referencia, se prohibe seleccionar la imagen candidata como la imagen de referencia cuando la imagen de criterio pertenece a la segunda capa ubicada en un intervalo restringido por debajo de la primera capa.
7. El método de codificación de imagen de conformidad con la reivindicación 5, caracterizado porque . en la selección de una imagen de referencia, se prohibe seleccionar, como la imagen de referencia, la imagen candidata que precede a la imagen actual en el orden de codificación.
8. Un método de decodificación de imagen para decodificar una señal de vídeo codificada, caracterizado porque comprende referir una imagen como una imagen de referencia para una imagen actual a ser decodificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo codificada se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes la cual pertenece a una primera capa, la imagen de referencia pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa; y decodificar la imagen actual con base en la imagen de referencia.
9. El método de decodificación de imagen de conformidad con la reivindicación 8, caracterizado porque adicionalmente comprende generar una lista de referencia que indica una o más imágenes cada una de las cuales pertenece a la primera capa o una capa por debajo de la primera capa, diferente de todas las imágenes que pertenecen a sus capas respectivas ubicadas arriba de la primera capa, entre las imágenes incluidas en la señal de vídeo codificada, en donde en la referencia de la imagen de referencia, la imagen de referencia se selecciona de una o más imágenes indicadas en la lista de referencia.
10. Un método de decodificación de imagen para decodificar una señal de vídeo codificada, caracterizado porque comprende: obtener, de la señal de vídeo codificada, un indicador que indica si o no una restricción se impone en la selección de una imagen de referencia que es referida para la decodificación de una imagen actual a ser decodificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo codificada se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes; seleccionar, como la imagen de referencia para la imagen actual, una imagen que cumple una condición restringida de acuerdo con una primera capa a la cual pertenece la imagen actual, cuando el indicador indica que la restricción será impuesta; y decodificar la imagen actual con referencia a la imagen de referencia seleccionada.
11. Un método de manejo de memoria para manejar una memoria en la cual se almacena una imagen que es referida para codificar o decodificar una señal de vídeo, caracterizado porque comprende almacenar, en una región de la memoria, una imagen objetivo a ser almacenada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la región se restringe a una capacidad de capa que es una capacidad asignada a una capa a la cual pertenece la imagen objetivo, la imagen objetivo es una de la pluralidad de imágenes .
12. El método de manejo de memoria de conformidad con la reivindicación 11, caracterizado porque adicionalmente comprende asignar, a cada una de las capas, una parte correspondiente de capacidad disponible de la memoria como una capacidad de capa.
13. El método de manejo de memoria de conformidad con la reivindicación 12, caracterizado porque en el almacenamiento, cuando la régión no tiene capacidad remanente disponible para almacenar la imagen objetivo, una imagen existente almacenada más temprano entre una o más imágenes existentes ya almacenadas en la región se puede suprimir de la región, de modo que la imagen objetivo se almacena.
14. El método de manejo de memoria de conformidad con la reivindicación 13, caracterizado porque una capa a la cual pertenece una imagen de referencia se restringe a una capa la misma como o ubicada por debajo de una capa a la cual pertenece una imagen actual a ser procesada, la imagen de referencia es una imagen a ser referida para codificar o decodificar la imagen actual entre la pluralidad de imágenes incluidas en la señal de vídeo, y en la asignación de la capacidad de capa sobre la base de capa por capa, una capacidad de capa mayor que la capacidad de capa asignada a una capa de nivel superior ubicada arriba de una capa de nivel más bajo se asigna a la capa de nivel más bajo ubicada en el fondo entre la pluralidad de capas.
15. El método de manejo de memoria de conformidad con la reivindicación 11, caracterizado porque adicionalmente comprende marcar un atributo en una imagen que pertenece a una capa ubicada arriba de una. capa a la cual pertenece la imagen actual que es un objetivo de la codificación o decodificación, entre la pluralidad de imágenes almacenadas en la memoria.
16. El método de manejo de memoria de conformidad con la reivindicación 15, caracterizado porque en el indicadorción de un atributo, se marca un atributo que indica que la imagen no se usa para referencia.
17. Un aparato de codificación de imagen el cual codifica una señal de vídeo, caracterizado porque comprende: una unidad de referencia configurada para referir una imagen como una imagen de referencia para una imagen actual a ser codificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes la cual pertenece a una primera capa, y la imagen de referencia pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa y una unidad de codificación configurada para codificar la imagen actual con base en la imagen de referencia.
18. Un aparato de codificación de imagen el cual codifica una señal de vídeo, caracterizado porque comprende: una unidad de generación de indicador configurada para generar un indicador que indica si o no una restricción se impone en la selección de una imagen de referencia que es referida para la codificación de una imagen actual a ser codificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes; unidad de selección configurada para seleccionar una imagen que cumple una condición restringida, de acuerdo con una primera capa a la cual la imagen actual pertenece, como la imagen de referencia para la imagen actual, cuando el indicador indica que la restricción será impuesta; una unidad de codificación configurada para codificar la imagen actual con referencia a la imagen de referencia seleccionada; y una unidad de inserción configurada para incluir el indicador en la señal de vídeo codificada.
19. Un aparato de decodificación de imagen el cual decodifica una señal de vídeo codificada, caracterizado porque comprende : una unidad de referencia configurada para referir una imagen como una imagen de referencia para una imagen actual a ser decodificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo codificada se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes la cual pertenece a una primera capa, la imagen de referencia pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa; y una unidad de decodificación configurada para decodificar la imagen actual con base en la imagen de referencia.
20. Un aparato de decodificáción de imagen el cual decodifica una señal de vídeo codificada, caracterizado porque comprende : una unidad de obtención de indicador configurada para obtener, de la señal de vídeo codificada, un indicador que indica si o no una restricción se impone en la selección de una imagen de referencia que es. referida para la decodificación de una imagen actual a ser decodificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo codificada se clasifican . en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual es una de la pluralidad de imágenes ; una unidad de selección configurada para seleccionar, como la imagen de referencia para la imagen actual, una imagen que cumple una condición restringida de acuerdo con una primera capa a la cual pertenece la imagen actual, cuando el indicador indica que la restricción será impuesta; y una unidad de decodificación configurada para decodificar la imagen actual con referencia a la imagen de referencia seleccionada.
21. Un aparato de manejo de memoria el cual maneja una memoria en la cual se almacena una imagen que es referida para codificar o decodificar una señal de vídeo, caracterizado porque comprende: una unidad de control de almacenamiento configurada para almacenar, en una región de la memoria, una imagen objetivo a ser almacenada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la región se restringe a una capacidad de capa que es una capacidad asignada a la capa a la cual pertenece la imagen objetivo que es una de la pluralidad de imágenes.
22. Un aparato de codificación y decodificación de imagen que incluye un aparato de codificación de imagen el cual codifica una señal de vídeo y un aparato de decodificación de imagen el cual decodifica una señal de vídeo codificada generada por el aparato de codificación de imagen, caracterizado porque el aparato de codificación incluye : una primera unidad de referencia configurada para referir una imagen como una imagen de referencia para una imagen actual a ser codificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo se clasifican en capas de modo que cada una de . la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual a ser codificada es una de la pluralidad de imágenes la cual pertenece a una primera capa, y la imagen de referencia pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa; y una unidad de codificación configurada para codificar la imagen actual a ser codificada, con base en la imagen de referencia, y una segunda unidad de referencia configurada para referir una imagen como una imagen de referencia para una imagen actual a ser decodificada, cuando una pluralidad de imágenes incluidas en la señal de vídeo codificada se clasifican en capas de modo que cada una de la pluralidad de imágenes pertenece a una de las capas correspondientes, la imagen actual a ser decodificada es una de la pluralidad de imágenes la cual pertenece a una primera capa, y la imagen de referencia pertenece a una segunda capa ubicada en un intervalo restringido de acuerdo con la primera capa; y una unidad de decodificación configurada para decodificar la imagen actual a ser decodificada, con base en la imagen de referencia.
MX2013001652A 2011-01-14 2012-01-12 Metodo de codificacion de imagen, metodo de decodificacion de imagen, metodo de manejo de memoria, aparato de codificacion de imagen, aparato de decodificacion de imagen, aparato de manejo de memoria, y aparato de codificacion y decodificacion de imagen. MX2013001652A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161432683P 2011-01-14 2011-01-14
US201161437145P 2011-01-28 2011-01-28
PCT/JP2012/000161 WO2012096186A1 (ja) 2011-01-14 2012-01-12 画像符号化方法、画像復号方法、メモリ管理方法、画像符号化装置、画像復号装置、メモリ管理装置および画像符号化復号装置

Publications (1)

Publication Number Publication Date
MX2013001652A true MX2013001652A (es) 2013-03-21

Family

ID=46490752

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013001652A MX2013001652A (es) 2011-01-14 2012-01-12 Metodo de codificacion de imagen, metodo de decodificacion de imagen, metodo de manejo de memoria, aparato de codificacion de imagen, aparato de decodificacion de imagen, aparato de manejo de memoria, y aparato de codificacion y decodificacion de imagen.

Country Status (13)

Country Link
US (7) US9584818B2 (es)
EP (6) EP4250733B1 (es)
JP (3) JPWO2012096186A1 (es)
KR (1) KR101912472B1 (es)
CN (3) CN103053160B (es)
BR (1) BR112013004435B1 (es)
CA (1) CA2806615C (es)
ES (3) ES2912505T3 (es)
MX (1) MX2013001652A (es)
PL (3) PL4027644T3 (es)
RU (1) RU2597469C2 (es)
TW (1) TWI579802B (es)
WO (1) WO2012096186A1 (es)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012096186A1 (ja) * 2011-01-14 2012-07-19 パナソニック株式会社 画像符号化方法、画像復号方法、メモリ管理方法、画像符号化装置、画像復号装置、メモリ管理装置および画像符号化復号装置
US9838701B2 (en) * 2011-08-03 2017-12-05 Mediatek Inc. Method and video decoder for decoding scalable video stream using inter-layer racing scheme
US9609341B1 (en) * 2012-04-23 2017-03-28 Google Inc. Video data encoding and decoding using reference picture lists
KR101554447B1 (ko) * 2012-09-28 2015-09-30 소니 주식회사 화상 처리 장치 및 방법
US9479782B2 (en) * 2012-09-28 2016-10-25 Qualcomm Incorporated Supplemental enhancement information message coding
TWI669950B (zh) * 2012-12-21 2019-08-21 日商新力股份有限公司 影像處理裝置及方法
KR20140121315A (ko) * 2013-04-04 2014-10-15 한국전자통신연구원 참조 픽처 리스트를 이용한 다 계층 기반의 영상 부호화/복호화 방법 및 그 장치
WO2014163418A1 (ko) 2013-04-04 2014-10-09 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
CN104243988B (zh) * 2013-06-14 2019-11-12 浙江大学 视频编解码方法及装置、传输视频码流的方法
JP6571314B2 (ja) * 2013-06-18 2019-09-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 送信方法
EP3021589A4 (en) * 2013-07-10 2017-02-15 Sharp Kabushiki Kaisha Image decoding device and image encoding device
US20150016500A1 (en) * 2013-07-11 2015-01-15 Qualcomm Incorporated Device and method for scalable coding of video information
KR20150033162A (ko) * 2013-09-23 2015-04-01 삼성전자주식회사 컴포지터, 이를 포함하는 시스템온칩 및 이의 구동 방법
US11134254B2 (en) * 2014-04-25 2021-09-28 Sony Corporation Transmission apparatus, transmission method, reception apparatus, and reception method
EP4022927A4 (en) * 2019-09-24 2022-11-09 Huawei Technologies Co., Ltd. DPB PARAMETER SIGNALING FOR MULTI-LAYER VIDEO BITSTREAMS
US11677934B2 (en) * 2021-09-24 2023-06-13 Apple Inc. Encoding and decoding video content

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5400075A (en) * 1993-01-13 1995-03-21 Thomson Consumer Electronics, Inc. Adaptive variable length encoder/decoder
EP3310050B1 (en) * 2001-11-06 2019-01-30 Panasonic Intellectual Property Corporation of America Moving picture coding method and moving picture decoding method
KR100931915B1 (ko) * 2002-01-23 2009-12-15 노키아 코포레이션 비디오 코딩시 이미지 프레임들의 그루핑
EP1383339A1 (en) * 2002-07-15 2004-01-21 Matsushita Electric Industrial Co., Ltd. Memory management method for video sequence motion estimation and compensation
EP3525462B1 (en) * 2003-07-24 2020-11-25 Nippon Telegraph And Telephone Corporation Image decoding method with hierarchical reference picture selection
JP3910594B2 (ja) * 2004-02-20 2007-04-25 三菱電機株式会社 画像符号化装置
US9113147B2 (en) * 2005-09-27 2015-08-18 Qualcomm Incorporated Scalability techniques based on content information
JP4950206B2 (ja) * 2005-10-11 2012-06-13 ノキア コーポレイション 効率的なスケーラブルストリーム適応のためのシステム及び方法
WO2007080223A1 (en) * 2006-01-10 2007-07-19 Nokia Corporation Buffering of decoded reference pictures
KR100772873B1 (ko) * 2006-01-12 2007-11-02 삼성전자주식회사 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더
EP1809042A1 (en) * 2006-01-13 2007-07-18 THOMSON Licensing Method and apparatus for coding interlaced video data
KR101352978B1 (ko) * 2006-01-16 2014-01-28 고려대학교 산학협력단 향상된 계층간 참조 영상 지정, 복호 방법 및 그 장치
US8279928B2 (en) * 2006-05-09 2012-10-02 Canon Kabushiki Kaisha Image encoding apparatus and encoding method, image decoding apparatus and decoding method
JP4810298B2 (ja) * 2006-05-09 2011-11-09 キヤノン株式会社 画像符号化装置及び符号化方法並びに画像復号化装置及び復号化方法
EP2224745B1 (en) * 2009-02-27 2019-11-06 STMicroelectronics Srl Temporal scalability in case of scene changes
CN101917614B (zh) * 2010-06-03 2012-07-04 北京邮电大学 一种基于h.264分层b帧编码结构的码率控制方法
CN101895748B (zh) * 2010-06-21 2014-03-26 华为终端有限公司 一种编解码方法以及编解码装置
WO2012096186A1 (ja) * 2011-01-14 2012-07-19 パナソニック株式会社 画像符号化方法、画像復号方法、メモリ管理方法、画像符号化装置、画像復号装置、メモリ管理装置および画像符号化復号装置

Also Published As

Publication number Publication date
JP6583702B2 (ja) 2019-10-02
EP4250733A3 (en) 2023-12-27
ES2805202T3 (es) 2021-02-11
WO2012096186A1 (ja) 2012-07-19
KR101912472B1 (ko) 2018-10-26
TW201238357A (en) 2012-09-16
US20120183059A1 (en) 2012-07-19
JP2018164302A (ja) 2018-10-18
US10652566B2 (en) 2020-05-12
PL3131294T3 (pl) 2020-11-16
EP2665265A1 (en) 2013-11-20
EP4465629A2 (en) 2024-11-20
US20200228819A1 (en) 2020-07-16
US11496762B2 (en) 2022-11-08
EP3700212A1 (en) 2020-08-26
EP2665265A4 (en) 2016-03-30
BR112013004435A8 (pt) 2018-07-10
US20220321903A1 (en) 2022-10-06
PL4027644T3 (pl) 2024-03-11
US20180255314A1 (en) 2018-09-06
EP3700212B1 (en) 2022-03-23
RU2013106283A (ru) 2015-02-20
US10021410B2 (en) 2018-07-10
JPWO2012096186A1 (ja) 2014-06-09
CN103053160B (zh) 2016-11-16
EP4250733B1 (en) 2024-11-13
CN106454363A (zh) 2017-02-22
CN103053160A (zh) 2013-04-17
US11044489B2 (en) 2021-06-22
US20170105017A1 (en) 2017-04-13
CN106454363B (zh) 2019-05-10
EP4465629A3 (en) 2025-02-19
ES2967302T3 (es) 2024-04-29
PL3700212T3 (pl) 2022-07-18
BR112013004435A2 (pt) 2016-05-31
RU2597469C2 (ru) 2016-09-10
CA2806615C (en) 2018-02-13
CA2806615A1 (en) 2012-07-19
US20240064325A1 (en) 2024-02-22
EP4027644B1 (en) 2023-10-04
US9584818B2 (en) 2017-02-28
JP6365956B2 (ja) 2018-08-01
CN107071448A (zh) 2017-08-18
ES2912505T3 (es) 2022-05-26
US11843796B2 (en) 2023-12-12
US20210235103A1 (en) 2021-07-29
EP3131294A1 (en) 2017-02-15
BR112013004435B1 (pt) 2022-03-29
EP4027644A1 (en) 2022-07-13
EP4250733A2 (en) 2023-09-27
KR20130139223A (ko) 2013-12-20
TWI579802B (zh) 2017-04-21
JP2017184267A (ja) 2017-10-05
CN107071448B (zh) 2020-04-28
EP3131294B1 (en) 2020-04-29

Similar Documents

Publication Publication Date Title
AU2018203520B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2016202666B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2011353415B2 (en) Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus
AU2017202023B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2017201384B2 (en) Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus
AU2012329550B2 (en) Image encoding method, image decoding method, image encoding apparatus, and image decoding apparatus
AU2012260302B2 (en) Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus
AU2012294053B2 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
AU2012291454B2 (en) Video encoding method, video encoding apparatus, video decoding method, video decoding apparatus, and video encoding/decoding apparatus
MX2013001652A (es) Metodo de codificacion de imagen, metodo de decodificacion de imagen, metodo de manejo de memoria, aparato de codificacion de imagen, aparato de decodificacion de imagen, aparato de manejo de memoria, y aparato de codificacion y decodificacion de imagen.
AU2012264031B2 (en) Image encoding method, image encoding device, image decoding method, image decoding device, and image encoding/decoding device
AU2012333936B9 (en) Image coding method, image coding apparatus, image decoding method and image decoding apparatus
AU2013273044B2 (en) Video image encoding method, video image encoding device, video image decoding method, and video image decoding device
AU2012277160B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device
AU2013254214B2 (en) Encoding method, decoding method, encoding apparatus, decoding apparatus, and encoding and decoding apparatus
MX2013010231A (es) Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2013012124A (es) Metodo de codificacion de video, aparato de codificacion de video, metodo de decodificacion de video, aparato de decodificacion de video y aparato de codificacion/decodificacion de video.
MX2013013909A (es) Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imágenes.
MX2012012443A (es) Modo de filtrado para intra-prediccion deducida de estadisticas de bloques circundantes.
MX2013009864A (es) Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento.
MX2013014207A (es) Metodo de procesamiento de imagenes y aparato de procesamiento de imagenes.
MX2013014733A (es) Metodo de codificacion de imagenes de video, dispositivo de codificacion de imagenes de video, metodo de decodificacion de imagenes de video, dispositivo de decodificacion de imagenes de video y dispositivo de codificacion/decodificacion de imagenes de video.
MX2014003728A (es) Metodo de codificacion de imagenes, aparato de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de decodificacion de imagenes y aparato de codificacion/decodificacio n de imagenes.
MX2013001773A (es) Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, aparato de decodificacion de imagen, y aparato de codificacion y decodificacion de imagen.
MX2012011165A (es) Metodo de prediccion espacial, metodo de decodificacion de imagenes y metodo de codificacion de imagenes.

Legal Events

Date Code Title Description
FG Grant or registration
GB Transfer or rights
PD Change of proprietorship

Owner name: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AME