MX2012012443A - Modo de filtrado para intra-prediccion deducida de estadisticas de bloques circundantes. - Google Patents
Modo de filtrado para intra-prediccion deducida de estadisticas de bloques circundantes.Info
- Publication number
- MX2012012443A MX2012012443A MX2012012443A MX2012012443A MX2012012443A MX 2012012443 A MX2012012443 A MX 2012012443A MX 2012012443 A MX2012012443 A MX 2012012443A MX 2012012443 A MX2012012443 A MX 2012012443A MX 2012012443 A MX2012012443 A MX 2012012443A
- Authority
- MX
- Mexico
- Prior art keywords
- filter
- prediction
- video
- signal
- data
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/117—Filters, e.g. for pre-processing or post-processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
- H04N19/14—Coding unit complexity, e.g. amount of activity or edge presence estimation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/182—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/593—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
La presente invención se refiere a la intra-predicción que puede llevarse a cabo durante la codificación y/o descodificación de una señal de imagen. En particular, la presente invención se refiere a la intra-predicción de un bloque actual, durante la cual se aplica un filtro a la señal de predicción y/o señal utilizada para la predicción. El filtro se aplica de acuerdo con una decisión con base en las características de la señal de imagen incluida en el bloque(s) espacialmente adyacente al bloque actual.
Description
MODO DE FILTRADO PARA INTRA-PREDICCION DEDUCIDA DE
ESTADISTICAS DE BLOQUES CIRCUNDANTES
Campo de la Invención
La presente invención se refiere a un método para codificar imágenes, un aparato y un programa para ejecutar estos métodos en software. En particular, la presente invención se refiere a la aplicación de filtros durante la intra-predicción .
Antecedentes de la Invención
La predicción espacial ha sido utilizada en muchas aplicaciones. En particular, la predicción espacial forma una parte esencial de muchas aplicaciones de codificación y procesamiento de imágenes y videos . En los algoritmos de codificación de imágenes o videos híbridos, la predicción espacial típicamente se utiliza para determinar una predicción para un bloque de imágenes con base en los píxeles de los bloques ya codificados/descodificados. Por el otro lado, la predicción espacial también puede utilizarse como una parte del post-procesamiento de la señal de la imagen o video descodificado, en particular para ocultar errores.
La mayor parte de los algoritmos de codificación de video estandarizados se basan en la codificación de videos híbridos. Los métodos para codificar videos híbridos típicamente combinan varios diferentes esquemas de compresión
Ref. 236718 sin disipación y con disipación con el fin de obtener la ganancia de compresión deseada. La codificación de video híbrido también es la base para los estándares ITU-T (estándares H.26x tales como H.261, H.263), así como los estándares ISO/IEC (estándares MPEG-X tales como MPEG-1, MPEG-2 y PEG-4) . Los estándares más recientes y avanzados en codificación de video actualmente es el estándar denotado como la codificación de vídeo avanzado H.264MPEG-4 (AVC, por sus siglas en inglés) que es el resultado de los esfuerzos de estandarización a través del acoplamiento del equipo de video (JVT, por sus siglas en inglés) , el acoplamiento del equipo de ITU-T y los grupos MPEG ISO/IEC. Un nuevo estándar de codificación de video está siendo actualmente desarrollado por el equipo de colaboración de acoplamiento en codificación de video (JCT-VC) bajo un nombre de Codificación de Video de Alta Eficiencia (HEVC, por sus siglas en inglés) , enfocado, en particular a la mejora de la eficiencia con respecto a la codificación de videos de alta resolución.
Una captura de señal de video en un codificador es una secuencia de imágenes denominadas marcos, cada marco siendo una matriz de píxeles bidimensional . Todos los estándares antes mencionados con base en la codificación de videos híbridos incluyen la subdivisión de cada marco de video individual en bloques más pequeños, que consisten de una pluralidad de píxeles. Típicamente, un macrobloque (usualmente denotando un bloque de 16 x 16 pixeles) es el elemento de imagen básica, para el cual se lleva a cabo la codificación. Sin embargo, se pueden llevar a cabo varios pasos de codificación particulares para elementos de imágenes más pequeñas, denotados sub-bloques o simplemente bloques y que tienen el tamaño de, por ejemplo, 8 x 8, 4 x 4, 16 x 8, etc. El tamaño más grande posible para tal bloque, por ejemplo en HEVC, es de 64 x 64 pixeles. Después se denomina la unidad de codificación más larga (LCU, por sus siglas en inglés) . Una subdivisión de una LCU en bloques más pequeños es posible en HEVC. Uno de tales bloques se denomina Unidad de Codificación (CU, por sus siglas en inglés) . Una CU es el elemento de imagen básico, para el cual se lleva a cabo la codificación .
La Figura 1 es un ejemplo de un estándar AVC
H.264/MPEG-4 típico compatible con el codificador de video 100. Un sustractor 105 primero determina las diferencias entre un bloque actual que se va a codificar de una imagen de video de entrada (señal de entrada) y un bloque de predicción correspondiente, que se utiliza para la predicción del bloque actual a ser codificado. En H.264/MPEG-4 AVC, la señal de predicción se obtiene ya sea a través de una predicción temporal o a través de una predicción parcial. El tipo de predicción puede variar sobre bases por marco, sobre bases por corte o sobre bases por macrobloque.
Los macrobloques o CU pronosticados utilizando predicción temporal se denominan inter-codificados, y los macrobloques o CU pronosticados utilizando predicción espacial se denominan intra-codificados . El tipo de predicción para un marco de video puede establecerse a través del usuario o seleccionarse a través del codificador de video para así obtener una ganancia de compresión posiblemente alta. De acuerdo con el tipo de predicción seleccionada, un intra/inter- interruptor 175 proporciona la señal de predicción correspondiente al sustractor 105. La señal de predicción utilizando la predicción temporal se deriva de las imágenes previamente codificadas, que se almacenan en una memoria 140. La señal de predicción utilizando predicción espacial se deriva de los valores de los pixeles limítrofes en los bloques contiguos del mismo marco, que han sido previamente codificados, descodificados y almacenados en la memoria 140. La unidad de memoria 140 de esta forma opera como una unidad de retraso que permite una comparación entre los valores de señal actual a ser codificados y los valores de señal de predicción generados de los valores de señal previos. La memoria 140 puede almacenar una pluralidad de marcos de video previamente codificados. La diferencia entre la señal de entrada y la señal de predicción, la señal de error de la predicción denotada o la señal residual, se transforma dando como resultado coeficientes, que se cuantifican 110. El codificador de entropía 190 después se aplica a los coeficientes cuantificados con el fin de además reducir la cantidad de datos en una forma sin disipación. Esto se logra principalmente aplicando un código con palabras en código de longitud variable en donde la longitud de una palabra de código se selecciona con base en la probabilidad de su aparición.
Las imágenes intra-codificadas (también denominadas imágenes de tipo 1 o marcos I) consisten solamente de macrobloques o CU que están codificados, es decir, imágenes intra-codificadas que pueden descodificarse sin referencia a cualquier otra imagen previamente descodificada. Las imágenes intra-codificadas proporcionan una resistencia al error para la secuencia de video codificada ya que actualizan la secuencia de video de errores posiblemente propagados de marco a marco debido a la predicción temporal. Además, los marcos I permiten un acceso aleatorio dentro de la secuencia de las imágenes de vídeo codificadas. La predicción de intra-marco utiliza un grupo predefinido de modos intra-predicción. Algunos de los modos de intra-predicción pronostican el bloque actual utilizando los pixeles limítrofes de los bloques contiguos ya codificados. Otros modos de intra-predicción, como plantillas de comparación por ejemplo, utilizan un área de búsqueda hecha de pixeles ya codificados que pertenecen al mismo marco. El grupo de modos intra-predicción predefinidos incluyen algunos modos de intra-predicción espacial direccional. Los diferentes modos de intra-predicción espacial direccional se refieren a diferentes direcciones de la predicción bidimensional aplicada. Esto permite una eficiente intra-predicción espacial en el caso de varias direcciones de borde. La señal de predicción obtenida a través de una intra-predicción después se sustrae de la señal de entrada a través sustractor 105 como se describe anteriormente. Además, la información del modo intra-predicción espacial indica el modo de predicción que es provisto al codificador de entropía 190 (no mostrado en la Figura 1) , en donde se codifica por entropía y se proporciona junto con la señal de video codificada.
En el esquema de codificación intra H.264/MPEG-4 AVC, la predicción espacial se lleva a cabo para sub-bloques de tamaños 4 x 4, 8 x 8 0 16 x 16 pixeles, con el fin de reducir la redundancia espacial . La predicción de intra-marco utiliza un grupo de modos intra-predicción predefinidos, que básicamente pronostican el bloque actual utilizando los pixeles limítrofes de los bloques contiguos ya codificados. Los diferentes tipos de predicción espacial direccional se refieren a diferentes direcciones de borde, es decir, la dirección de la extrapolación bidimensional aplicada. Existen ocho diferentes modos de predicción direccional y un modo de predicción DC para sub-bloques de tamaño 4 x 4 y 8 x 8, y tres diferentes modos de predicción direccional y un modo de predicción DC para los macrobloques de 16 x 16 pixeles. En HEVC, la predicción espacial puede llevarse a cabo para los CU de tamaño 4 x 4, 8 8, 16 x 16 ó 32 x 32. Existen 34 diferentes modos de predicción direccional para todos los tamaños de CU.
Dentro del codificador de video de 100, se incorpora una unidad de descodificación para obtener una señal de video descodificada. De acuerdo con los pasos de codificación, los pasos de descodificación incluyen la cuantificación inversa y la transformación inversa 120. La señal de error de la predicción descodificada difiere de la señal de error de predicción original debido al error de cuantificación, denominado también ruido de cuantificación. Una señal reconstruida después se obtiene mediante la adición 125 a la señal de error de predicción descodificada para la señal de predicción. Con el fin de mantener la compatibilidad entre el lado codificador y el descodificador, se obtiene la señal de predicción con base en la señal de video codificada y posteriormente descodificada que es conocida en ambos lados del codificador y el descodificado . Debido a la cuantificación, el ruido de cuantificación se superpone a la señal de video reconstruida. Debido a la codificación en forma de bloques, el ruido superpuesto por lo general tiene características de bloqueo, que dan como resultado, en particular para una fuerte cuantificación, límites de bloque visibles en ' a imagen descodificada. Con el fin de reducir estos artefactos, se aplica un filtro de desbloqueo 130 a cada bloque de imagen reconstruida.
Con el fin de ser descodificadas, las imágenes ínter-codificadas requieren una(s) imagen (s) previamente codificada y posteriormente descodificada (reconstruida) . La predicción temporal puede llevarse a cabo uni-direccionalmente , es decir, utilizando solamente marcos de video ordenados en el tiempo antes de que el marco actual sea codificado, o bidireccionalmente , es decir, utilizando marcos de video después del marco actual. La predicción temporal uni-direccional da como resultado imágenes inter-codificadas denominadas marcos P; la predicción temporal bidireccional da como resultado imágenes inter-codificadas denominadas marcos B. En general, una imagen inter-codificada puede comprender cualquier macrobloque de tipo P-, B- o aún I. Un macrobloque inter-codificado (macrobloque P o B) o un CU inter-codificado se pronostica utilizando la predicción compensada por movimiento 160. Primero, se encuentra un bloque de mejor comparación para el bloque actual dentro de los marcos de video codificados y descodificados previamente a través de un estimador de movimiento 165. El bloque más coincidente después se convierte en una señal de predicción y el desplazamiento relativo entre el bloque actual y su mejor coincidencia se señaliza como datos de movimiento en la forma de un movimiento tridimensional (un temporal, dos espaciales) dentro de la corriente de bits que comprende también los datos de video codificados. Con el fin de optimizar la precisión de la predicción, los vectores de movimiento pueden determinarse con una resolución de sub-pixel espacial por ejemplo, una resolución de medio pixel o cuarto de pixel . Esto se puede realizar a través de un filtro de interpolación 150.
Para ambos, el modo intra- e inter-codificación, las diferencias entre la señal de entrada actual y la señal de predicción se transforman y cuantifican a través de la unidad 110, dando como resultado coeficientes cuantificados . Generalmente, una transformación ortogonal tal como una transformación de coseno discreta bidimensional (DCT, por sus siglas en inglés) o una de sus versiones enteras se utiliza ya que reduce la correlación de las imágenes de video naturales eficientemente. Después de la transformación, los componentes de baja frecuencia son usualmente más importantes para la calidad de imagen que los componentes de alta frecuencia, de tal forma que se pueden consumir más bits para la codificación de los componentes de baja frecuencia que para los componentes de alta frecuencia. En el codificador de entropía, la matriz bidimensional de los coeficientes cuantificados se convierte en un arreglo unidimensional.
Típicamente, esta conversión se lleva a cabo a través de exploración denominada zig-zag, que empieza con el coeficiente DC en la esquina superior izquierda del arreglo bidimensional y explora el arreglo bidimensional en una secuencia predeterminada, terminando con un coeficiente AC en la esquina inferior derecha. Como la energía típicamente se concentra en la parte superior izquierda de la matriz bidimensional de los coeficientes, correspondiente a las frecuencias inferiores, la exploración en zig-zag da como resultado un arreglo en donde usualmente los últimos valores son cero. Esto permite una eficiente codificación utilizando códigos de longitud de tiraje con una parte de/antes de la codificación de entropía actual. H .264/ PEG-4 AVC utiliza la cuantificación a escala 10, que puede controlarse a través de un parámetro de cuantificación (QP, por sus siglas en inglés) y una matriz de cuantificación personalizable (QM, por sus siglas en inglés) . Se selecciona uno de los 52 cuantificadores para cada macrobloque a través del parámetro de cuantificación. Además, la matriz de cuantificación se designa específicamente para mantener ciertas frecuencias en la fuente para evitar la pérdida de la calidad de imagen.
La matriz de cuantificación en H .264/MPEG-4 AVC puede adaptarse a la secuencia de video y se señaliza junto con los datos de video.
H.264/MPEG-4 AVC incluye dos capas funcionales, una Capa de Codificación de Video (VCL, por sus siglas en inglés) , y una Capa de Sustracción de Red (NAL, por sus siglas en inglés) . La VCL proporciona la funcionalidad de codificación como se describe brevemente anteriormente. La NAL encapsula elementos de información en unidades estandarizadas denominadas unidades NAL de acuerdo con sus aplicaciones adicionales tales como la transmisión sobre un canal o almacenamiento en un depósito. Los elementos de información son, por ejemplo, la señal de error de predicción codificada u otra información necesaria para la descodificación de la señal de video, tal como el tipo de predicción, el parámetro de cuantificación, los vectores de movimiento, etc. Existen unidades NAL VCL que contienen los datos de video comprimidos y la información relacionada, así como unidades no VCL que encapsulan los datos adicionales tales como el grupo de parámetros relacionados con una secuencia de video completa, o una Información de Mejora Complementaria (SEI, por sus siglas en inglés) , que proporcionan información adicional que puede utilizarse para mejorar el funcionamiento de la descodificación.
Con el fin de mejorar la calidad de la imagen, puede aplicarse un denominado post-filtro 280 en el lado del descodificador 200. El estándar H.264/MPEG-4 AVC permite enviar la información del post-filtro a tal post-filtro a través de un mensaje SEI. La información del post-filtro se determina en el lado del codificador por medio de una unidad de diseño de post-filtro 180, que compara la señal localmente descodificada y la señal de entrada original. En general, la información del post-filtro es una información que permite al descodificador configurar un filtro apropiado. Puede incluir directamente los coeficientes del filtro u otra información que permite configurar el filtro. La información del filtro, que es la salida a través de la unidad del diseño post-filtro 180 también se alimenta a la unidad de codificación de entropía 190 con el fin de ser codificada e insertada en una señal codificada. Tal filtro adaptativo también puede utilizarse como un segundo post-filtro, como por ejemplo en el estándar HEVC.
La Figura 2 ilustra un descodificador de ejemplo 200 de acuerdo con el estándar de codificación de video H.264/MPEG-4 AVC . La corriente de bits de la señal de video codificada (señal de entrada al descodificador) primero pasa al descodificador de entropía 290, que descodifica los coeficientes cuantificados , los elementos de información necesarios para descodificar tales datos de movimiento, el modo de predicción, etc., y la información de post-filtro. En el decodificador de entropía 290 la información del modo de intra-predicción espacial se extrae de la corriente de bits, indicando el tipo/modo de la predicción espacial aplicada al bloque a ser descodificado. La información extraída es provista a la unidad de predicción espacial 270 (no mostrada en la Figura 2) . Los coeficientes cuantificados se exploran inversamente con el fin de obtener una matriz bidimensional, que después se alimenta en una cuantificación inversa y transformación inversa 220. Después de la cuantificación inversa y transformación inversa, se obtiene una señal de error de predicción descodificada (cuantificada) , que corresponde a las diferencias obtenidas a través de la sustracción de la señal de predicción de la entrada de señal al codificador en el caso de que no se introduzca ruido de cuan ificación .
La señal de predicción se obtiene de ya sea una predicción temporal o espacial 260 y 270, respectivamente, que se conmutan 275 de acuerdo con un elemento de información recibido que señaliza la predicción aplicada al codificador. Los elementos de información descodificados además incluyen la información necesaria para la predicción tal como un tipo de predicción en el caso de la intra-predicción (una información del modo de intra-predicción espacial) , y los datos de movimiento en el caso de una predicción compensada de movimiento. Dependiendo del valor actual del vector de movimiento, la interpolación de los valores de pixel puede ser necesaria con el fin de llevar a cabo la predicción compensada de movimiento. Esta interpolación se lleva a cabo a través de un filtro de interpolación 250. La señal de error de predicción cuantificada en el dominio espacial después se agrega por medio de un adicionador 225 a la señal de predicción obtenida ya sea de la predicción compensada de movimiento 260 o la predicción intra-marco 270. La imagen reconstruida puede hacerse pasar a través de un filtro de desbloqueo 230 y la señal descodificada resultante se almacena en la memoria 240 a ser aplicada para la predicción temporal o espacial de los siguientes bloques. La información del post-filtro después se alimenta a un post-filtro 280, que configura un post-filtro por consiguiente. El post-filtro después se aplica a la señal descodificada con el fin de además mejorar la calidad de la imagen.
Los modos intra-predicción direccionales son muy eficientes para pronosticar bordes precisos, pero no se adaptan para pronosticar regiones uniformes o fuera de foco. Para tales regiones uniformes las referencias con un filtro de pase bajo son particularmente apropiadas y proporcionan ganancias en términos de eficiencia de codificación. De esta forma, la aplicación de un filtro de pase bajo en los pixeles de referencia para la intra-predicción es una técnica conocida para eliminar el ruido de cuantificación adicionado de pixeles reconstruidos y para mejorar la intra-predicción, especialmente cuando la región de la imagen a ser pronosticada está borrosa o fuera de foco.
Breve Descripción de la Invención
El problema subyacente de la presente invención es que si se aplica un filtro de pase bajo a las referencias, no se pueden pronosticar eficientemente bordes precisos.
El objetivo de la presente invención es proporcionar una intra-predicción mejorada y más eficiente para codificar y descodificar una imagen.
Esto se logra a través de las características de las reivindicaciones independientes.
Otras modalidades adicionales de la presente invención son el tema de las reivindicaciones dependientes.
Es un método particular de la presente invención distinguir si un filtro de pase bajo tiene que aplicarse a pixeles de referencia o señal de predicción de un área de la imagen actual o no. Esta distinción se basa en las características de la señal de la imagen parcial espacialmente adyacente al área de la imagen actual.
De acuerdo con un aspecto de la presente invención, se proporciona un método para descodificar, sobre bases de bloque por bloque, los datos de la imagen codificada divididos en una pluralidad de bloques, tal método comprende los pasos de: derivar las estadísticas de los datos previamente decodificados espacialmente adyacentes al bloque actual; decidir sobre las base de las estadísticas derivadas si aplicar un filtro o no durante la intra-predicción; y pronosticar un bloque actual de datos de imágenes de bloques previamente descodificadas.
De acuerdo con otro aspecto de la presente invención, se proporciona un método para codificar, sobre bases de bloque por bloque, datos de imágenes divididos en una pluralidad de bloques, el método comprende los pasos de: derivar las estadísticas de datos previamente descodificados espacialmente adyacentes al bloque actual; decidir sobre las bases de las estadísticas derivadas si aplicar un filtro o no durante la intra-predicción; y pronosticar un bloque actual de los datos de imágenes de bloques previamente descodificadas .
De acuerdo con otro aspecto de la presente invención, se proporciona un aparato para descodificar, sobre base de bloque por bloque, datos de imagen codificados divididos en una pluralidad de bloques, el aparato comprende: una unidad de cálculo para derivar las estadísticas de los datos previamente codificados espacialmente adyacentes al bloque actual; una unidad de discriminación para decidir sobre las bases de las estadísticas derivadas si se va a aplicar un filtro o no durante la intra-predicción; y una unidad de predicción direccional para pronosticar un bloque actual de datos de imágenes de bloques previamente codificados actuales.
De acuerdo con otro aspecto de la presente invención, se proporciona un aparato para codificar, sobre una base de bloque por bloque, los datos de imágenes divididos en una pluralidad de bloques, el aparato comprende: una unidad de cálculo para derivar estadísticas de datos previamente codificados espacialmente adyacentes al bloque actual; una unidad de discriminación para decidir sobre las bases de las estadísticas derivadas si aplicar o no un filtro durante la intra-predicción; y una unidad de predicción direccional para pronosticar un bloque actual de los datos de imágenes de bloques previamente codificados y descodificados.
De acuerdo con aún otro aspecto de la presente invención, se proporciona un producto de programa de computadora que comprende un medio legible por computadora que tiene un código de programa legible por computadora modalizado en el mismo, en donde el código del programa se adapta para llevar a cabo el método antes descrito.
Breve Descripción de las Figuras
El anterior y otros objetos y características de la presente invención serán evidentes a partir de la siguiente descripción y las modalidades preferidas dadas junto con las figuras anexas, en donde:
La Figura 1 es un diagrama de bloque que ilustra un ejemplo de un codificador de video H .264/MPEG-4 AVC convencional ;
La Figura 2 es un diagrama de bloque que ilustra un ejemplo de un descodificador de video H.264/ PEG-4 AVC convencional ;
La Figura 3 es un diagrama de bloque que ilustra una unidad de intra-predicción de acuerdo con una modalidad de la presente invención;
La Figura 4 es una gráfica de flujo que ilustra un método para el filtrado de la intra-predicción de acuerdo con una primera modalidad de la presente invención, durante la detección de bordes;
La Figura 5 es una gráfica de flujo que ilustra un método para el filtrado de una intra-predicción de acuerdo con una primera modalidad de la presente invención, utilizando una variación de cálculos;
La Figura 6 es una gráfica de flujo que ilustra un método para el filtrado de la intra-predicción de acuerdo con una segunda modalidad de la presente invención utilizando un modo de predicción especial;
La Figura 7 es una figura esquemática que ilustra la aplicación del filtro de acuerdo con una tercera modalidad de la presente invención;
La Figura 8 es una figura esquemática que ilustra la aplicación del filtro de acuerdo con una cuarta modalidad de la presente invención;
La Figura 9 es una figura esquemática de una configuración general del contenido que proporciona el sistema para la implementación de los servicios de distribución del contenido;
La Figura 10 es una figura esquemática de una configuración general de un sistema de transmisión digital;
La Figura 11 es un diagrama de bloque que ilustra un ejemplo de una configuración de una televisión;
La Figura 12 es un diagrama de bloque que ilustra un ejemplo de una configuración de una unidad de reproducción/grabación de información que lee y escribe información desde o en un medio de grabación que es un disco óptico;
La Figura 13 es una figura esquemática que muestra un ejemplo de una configuración del medio de grabación que es un disco óptico;
La Figura 14A es una figura esquemática que ilustra un ejemplo de un teléfono celular;
La Figura 14B es un diagrama de bloque que muestra un ejemplo de una configuración del teléfono celular;
La Figura 15 es una figura esquemática que muestra una estructura de datos multiplexados;
La Figura 16 es una figura esquemática que esquemáticamente ilustra cómo cada una de las corrientes se multiplexa en los datos multiplexados;
La Figura 17 es una figura esquemática que ilustra cómo la corriente de video se almacena en una corriente de paquetes PES con mayor detalle;
La Figura 18 es una figura esquemática que muestra una estructura de los paquetes TS y los paquetes de origen en los datos multiplexados;
La Figura 19 es una figura esquemática que muestra una estructura de datos de un PMT;
La Figura 20 es una figura esquemática que muestra una estructura interna de la información de los datos multiplexados ,- La Figura 21 es una figura esquemática que muestra la estructura interna de la información de los atributos de la corriente;
La Figura 22 es una figura esquemática que muestra los pasos para la identificación de datos de video;
La Figura 23 es un diagrama de bloque que ilustra un ejemplo de una configuración de un circuito integrado para implementar el método de codificación de video y el método de descodificación de video de acuerdo con cada una de las modalidades ,- La Figura 24 es una figura esquemática que muestra una configuración para conmutar entre las frecuencias de impulsión;
La Figura 25 es una figura esquemática que muestra los pasos para identificar los datos de video y la conmutación entre las frecuencias de impulsión;
La Figura 26 es una figura esquemática que muestra un ejemplo de una tabla búsqueda en la cual los estándares de los datos de video están asociados con las frecuencias de impulsión;
La Figura 27A es una figura esquemática que muestra un ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señal; y
La Figura 27B es una figura esquemática que muestra otro ejemplo de una configuración para compartir un módulo de una unidad de procesamiento de señal.
Descripción Detallada de la Invención
El problema subyacente de la presente invención se basa en la observación de que si se aplica un filtro de pase bajo a los pixeles de referencia o señal de predicción, no pueden pronosticarse eficientemente los bordes precisos. Por consiguiente, es necesario distinguir si se tiene que aplicar un filtro de pase bajo a los pixeles de referencia o la señal de predicción o no.
Una solución posible es hacer una señal a través de una bandera transmitida para cada bloque si uniformar o no (filtro de pase bajo) . Sin embargo, este método igualmente dará como resultado un aumento en la velocidad de bits y de esta forma limita la eficiencia de la codificación general.
De acuerdo con la presente invención, se proporciona un método para decodificar y/o codificar sobre bases de bloque por bloque los datos de imagen colocados en una pluralidad de bloques, en donde el método comprende los pasos de: pronosticar un bloque actual de los datos de imagen de bloques previamente codificados, derivar las estadísticas de los datos previamente codificados adyacentes al bloque actual, tal como la presencia de bordes o la variación de la señal; y decidir sobre las bases de las estadísticas derivadas si aplicar un filtro o no durante la intra-predicción.
Una de las ventajas de la presente invención es que la aplicación del filtro utilizado durante la intra-predicción es adaptativo con respecto al contenido de la señal de imagen y de esta forma, puede obtenerse una calidad de predicción superior.
Preferentemente, el filtro se aplica a los pixeles utilizados para la predicción. Sin embargo, la presente invención no está limitada a esto. De acuerdo con otra modalidad, el filtro se aplica a la señal de predicción.
Ventajosamente, la derivación de las estadísticas de la señal previamente descodificada se lleva a cabo a través del cálculo de la variación de la señal de los bloques circundantes. Alternativamente, la derivación de las estadísticas de la señal previamente descodificada se lleva a cabo mediante la aplicación de un método de detección de bordes tal como gradientes de cálculo utilizando un operador Sobel, o cualquier otra matriz adecuada para el cálculo de gradientes en una señal 2D; y comparar la norma de estos gradientes a un umbral .
En particular, el filtro puede aplicarse si la variación de la señal de los bloques circundantes está por debajo de un umbral predefinido; y no se aplica ningún filtro si la variación de la señal de los bloques circundantes está por arriba de un umbral predefinido.
Alternativamente, el filtro puede aplicarse si no se detecta ningún borde; y no se aplica ningún filtro si se detecta un borde.
De acuerdo con una modalidad de la presente, el filtro se aplica solamente para los pixeles localizados en una región que no se cruza por la línea calculada por la extensión del borde detectado. En particular, el filtro no se aplica a los pixeles en una línea de pixeles de referencia, que están más cercanos al número predefinido de pixeles de la intersección del borde detectado con la línea de pixeles . La línea de pixeles puede ser una fila y/o columna de pixeles.
Los diferentes filtros pueden aplicarse a los pixeles dependiendo de su posición en la línea calculada mediante la extensión del borde detectado.
En particular, se aplica un primer filtro a los pixeles en una línea de pixeles de referencia, que está más cercana al número predefinido de pixeles de la intersección del borde detectado con la línea de pixeles. Y un segundo filtro se aplica a los pixeles restantes. Sin embargo, la presente invención no está limitada a esto y pueden aplicarse más filtros diferentes dependiendo de la posición del pixel de referencia a ser filtrado con respecto al borde detectado prolongado. Ventajosamente, los pixeles más cercanos al borde se filtran en la dirección del borde. Ventajosamente, los pixeles que no están en proximidad del borde se filtran utilizando un filtro de pase bajo.
Uno de los beneficios de la presente invención es que ambos bordes precisos y las áreas uniformes pueden pronosticarse y codificarse eficientemente, sin aumentar la velocidad de bits elevada.
De acuerdo con una primera modalidad de la presente invención, se proporciona un aparato para codificar imágenes, el cual tiene, en lugar de la unidad de intra-predicción H.264/AVC que calcula la predicción direccional con base en pixeles contiguos de referencia, una nueva unidad de intra-predicción que analiza las estadísticas de la señal contigua (llevando a cabo la predicción de borde o el cálculo de variación por ejemplo) y aplica el filtro antes o después del cálculo de la predicción direccional.
La Figura 3 es un diagrama de bloques para explicar una construcción específica de la unidad de intra-predicción 300 de acuerdo con la primera modalidad de la presente invención. Esta unidad de intra-predicción 300 tiene una unidad de cálculo (en este caso una unidad de detección de borde) 310 para determinar si un borde está presente en la señal continua reconstruida y para determinar su dirección y/o ubicación si está presente un borde; una primera unidad de filtro 320 para filtrar los pixeles de referencia utilizados para la predicción direccional (utilizando, por ejemplo, un filtro tal como un filtro de pase bajo aplicado en H.264/MPEG-4 AVC para la intra-predicción de 8 x 8 o tal como se define en la primera versión del estándar HEVC en el documento JCTVC-B205_draft007 , documento obtenido de la conferencia JCT-VC en Ginebra, CH, 21-28 de julio de 2010) dependiendo de la salida de la unidad de detección de bordes 310; una unidad de predicción direccional 330 para pronosticar el bloque de acuerdo con una predicción de la dirección dada, similar a la unidad de intra-predicción H.264/ PEG-4 AVC en el codificador 170 y/o en el descodificador 270 o similar a la intra-predicción como se describe en EP 2 081 386 Al; y una segunda unidad de filtro 340 para filtrar la salida de la unidad de predicción 330 dependiendo de la salida de la unidad de detección de borde 310.
Con el fin de aumentar la eficiencia de codificación, EP 2 081 386 Al proporciona una mejor predicción espacial en donde el número de direcciones de predicción para pronosticar los pixeles de un bloque no se limita a 8. Más bien, la detección de bordes se lleva a cabo dentro de bloques contiguos ya codificados. Con base en una dirección del borde determinada como dominante, los pixeles del bloque se pronostican posiblemente de una posición sub-pel dentro de la línea de pixeles que pertenecen al bloque contiguo.
Alternativamente, la unidad de cálculo 310 puede ser una unidad de cálculo, de variación para calcular la variación de la señal contigua. En este caso, las dos unidades de filtro filtran los pixeles de referencia o la salida de la unidad de predicción direccional dependiendo de la salida de la unidad de cálculo de variación. La señal contigua reconstruida aquí se refiere a los pixeles descodificados (muestras) en los bloques circundantes al bloque actual .
La Figura 4 es una gráfica de flujo para explicar un método de ejemplo que puede llevarse a cabo a través de la unidad de intra-predicción . Con el fin de llevar a cabo el método, esta unidad de intra-predicción tiene una unidad de detección de borde que es capaz de determinar 410, 430 si está presente un borde en la señal contigua reconstruida; una unidad de filtro para filtrar 440 los pixeles de referencia utilizados para la predicción direccional en caso de que no se detecte ningún borde (paso 410 y "no" en el paso 430) en la unidad de detección de borde; y una unidad de predicción direccional para pronosticar 450 el bloque de acuerdo con una predicción direccional dada, que puede ser similar a los métodos de intra-predicción direccionales H.264/MPEG-4 AVC, como se describe anteriormente o similar a la intra-predicción como se describe en EP 2 081 386 Al.
La Figura 5 es un diagrama de bloques para explicar otro ejemplo de una construcción específica de la unidad de intra-predicción y un método para llevar a cabo la presente invención. Esta unidad de intra-predicción tiene una unidad de cálculo (una unidad de cálculo de variación) para determinar 510, 530 si la variación de la señal contigua reconstruida está por debajo de un umbral predefinido; una unidad de filtro para filtrar 540 los pixeles de referencia utilizados para la predicción direccional en el caso en donde la variación de la señal contigua reconstruida está por debajo de un umbral predefinido; y una unidad de predicción direccional para pronosticar 550 el bloque de acuerdo con una predicción direccional dada.
Como se describe anteriormente, la primera modalidad incluye un método y un aparato para eficientemente codificar ambas áreas de bordes precisos y uniformes sin aumentar la velocidad de bits elevada a través de la derivación de la información necesaria de la señal contigua reconstruida. Esto puede llevarse a cabo en la misma forma a través de tanto el codificador como el descodificador .
Se observa que los pasos del método anterior descritos con referencia a las Figuras 4 y 5 también pueden llevarse a cabo a través de cualquier otro aparato que tiene una estructura diferente para el ejemplo antes descrito. En particular, los pasos de las gráficas de flujo también pueden llevarse a cabo a través de cualquier clase de procesador o dispositivo .
Uno de los problemas que pueden surgir con la modalidad descrita anteriormente es que el análisis de las características de la señal contigua tiene que llevarse a cabo para cada bloque en el lado del codificador 100 y el descodificador 200 independientemente del modo intra-predicción direccional seleccionado. Esto aumenta la complejidad de la intra-predicción en un descodificador o un codificador bien optimizado. Para evitar llevar a cabo este análisis para cada bloque, una segunda modalidad de la presente invención introduce un nuevo modo de intra-predicción además de los modos de intra-predicción de dirección H.264/MPEG-4 AVC, tal como el método de intra-predicción descrito en EP 2 081 386 Al. El análisis de la señal contigua se lleva a cabo solamente cuando se selecciona el nuevo modo de intra-predicción. La unidad de intra-predicción como se describe con referencia a la Figura 3 se utiliza solamente si se selecciona el nuevo modo de intra-predicción. Para todos los otros modos, se utiliza la unidad de intra-predicción H.264/PEG-4 AVC 170 y/o 270 en el codificador y descodificador, respectivamente.
Este nuevo modo de intra-predicción se basa en la detección de bordes en la señal contigua. El filtro se aplica si no se detecta ningún borde y el filtro no se aplica si se detecta un borde.
La figura 6 muestra una gráfica de flujo que describe el proceso para calcular la predicción de acuerdo con este nuevo modo de intra-predicción. El primer paso es llevar la detección de bordes 610 en la señal contigua ya reconstruida. Una posibilidad para la detección de bordes es aplicar los operadores Sobel en bloques de 3 x 3 pixeles en la señal contigua:
Otras matrices que son adecuadas para el cálculo de gradientes en una señal 2D también pueden utilizarse.
Para cada bloque de 3 x 3 pixeles, puede definirse un vector de borde que es perpendicular al vector gradiente. Para determinar la dirección del borde principal, el vector de borde con la norma máxima puede considerarse, o una combinación de los vectores con las normas más altas .
En general, los bordes de una imagen pueden detectarse a través de la determinación de un campo de vector gradiente de la imagen. Un vector de gradiente es mayor en un borde y es perpendicular al mismo. Uno de los métodos más populares para detectar el campo de gradiente es la convolución de la imagen con las matrices vertical y horizontal como los operadores Sobel, dados por las máscaras anteriores Sx y Sy.
En particular, una coordenada del vector de gradiente vertical Gx y una coordenada de vector de gradiente horizontal Gy en un pixel particular p (x, y) después se obtienen a través del filtro del pixel p (x, y) con la máscara Sobel Sx vertical y Sy horizontal, respectivamente.
Muchas aplicaciones utilizan el operador Sobel para obtener el campo gradiente. Sin embargo, la presente invención no está limitada a la detección del campo de gradiente a través de medios del operador Sobel. En general, cualquier mecanismo de detección de borde puede utilizarse que proporcione el campo gradiente. Por ejemplo, las máscaras con otros tamaños del operador Sobel pueden utilizarse tales como 2 x 2 0 4 x 4, o aún máscaras más grandes pueden utilizarse. La selección de la máscara en particular depende de los resultados deseados. La utilización de máscaras más grandes puede agregar precisión a la detección de borde y suprimir la detección de pequeños bordes locales, pero por el otro lado, aumenta la complejidad computacional . Alternativamente, las máscaras diferentes a la máscara de Sobel pueden utilizarse para la detección de bordes, tales como el operador Scharr o los operadores con base en derivados más superiores.
Después de la obtención de las coordenadas Gx vertical y Gy horizontal del gradiente G, para una pluralidad de pixeles de bloques que rodean el bloque a ser pronosticado, se puede determinar un gradiente dominante. Un vector de borde dominante E con estas coordenadas horizontal y vertical Ex y Ey, respectivamente, es perpendicular al vector gradiente G. De manera correspondiente, los tamaños de los componentes horizontal EX y vertical Ey del vector de borde dominante E corresponden a los tamaños del gradiente horizontal Gy y vertical Gx, respectivamente (por ejemplo, Ex=Gy, Ey=Gx para la rotación contra reloj ) .
Típicamente, el borde dominante para un bloque actual se determina como siendo un borde con una norma máxima fuera de los bordes que se cruzan con el bloque actual. Sin embargo, pueden utilizarse también otros métodos, por ejemplo, tomando un promedio de ponderación de los bordes, o en la dirección de los bordes detectada para la mayor parte de los pixeles, etc. Se debe observar que el cálculo de gradiente no necesariamente se lleva a cabo para los bloques adyacentes completos. En general, es ventajoso seleccionar un sub-grupo de pixeles cerca de los límites del bloque a ser pronosticado y calcular el gradiente solamente para estos pixeles. Este método reduce el número de operaciones necesarias para la convolucion de los bloques adyacentes con las máscaras de detección de borde. Además, para la predicción, solamente los bordes probablemente siendo similares a los bordes actuales dentro del bloque a ser pronosticado son de importancia, de esta forma la detección cerca de los limites también reduce el riesgo de detectar un borde innecesario.
La norma del vector de borde final o las normas de cada vector de borde calculado pueden compararse con un umbral predefinido. Si una norma está por arriba del umbral, se detecta un borde. En ese caso, los vectores de borde dan la dirección del borde y la posición de los bloques de 3 x 3 pixeles en donde los vectores de borde más fuertes han sido calculados dada la posición del borde. Si no hay ninguna norma por arriba del umbral, no se detecta ningún borde.
Después el resultado de la detección se evalúa 630.
Si se detecta un borde ("sí" en el paso 630), la predicción se lleva a cabo a través de la interpolación 620 de los pixeles de referencia sub-pel dependiendo de la dirección del borde como se describe en EP 2 081 386 Al. En particular, la señal de predicción se calcula a través de extrapolación lineal de la intersección entre la línea de pixeles de referencia y la línea que tiene la dirección del borde detectado y pasa a través del pixel a ser pronosticado. Sino se detecta ningún borde ("no" en el paso 630), el siguiente paso incluye la aplicación 640 de un filtro de pase bajo en los pixeles de referencia con el fin de uniformar la señal utilizada para la predicción. Aquí, los pixeles de referencia pueden ser una fila de pixeles en el bloque contiguo superior, la fila siendo la más cercana a los límites con el bloque actual. Alternativamente, los pixeles de referencia pueden ser una columna de pixeles del bloque contiguo izquierdo, la columna siendo la más cercana a los límites con el bloque actual . Los pixeles de referencia también pueden ser un grupo de pixeles de la fila superior y la columna izquierda. El siguiente paso incluye seleccionar 650 una dirección prefinida dada, por ejemplo, la dirección que está más cercana a la dirección del vector de borde con la norma más alta. En particular, puede ser la dirección correspondiente a la dirección general de los pixeles contiguos, que pueden determinarse durante el paso de detección de borde 610. La predicción después se lleva a cabo 660 utilizando el método de predicción como se define para la dirección predefinida seleccionada.
Alternativamente, la dirección del vector de borde con la norma más fuerte podría seleccionarse en lugar de una de las direcciones predefinidas. En ese caso, el paso de predicción podría utilizar el método descrito en EP 2 081 386 Al.
De acuerdo con una tercera modalidad de la presente invención, se aplica un filtro de pase bajo para algunos pixeles de referencia y no se aplica ningún filtro a los otros pixeles de referencia, dando como resultando la conmutación del uso de un filtro de uniformidad en una base de pixel por pixel para cada bloque.
Esta modalidad se ilustra esquemáticamente en la
Figura 7. Si se utiliza la detección de bordes, es posible extender el borde a través de la línea de pixeles de referencia y a través del bloque a ser pronosticado como se muestra en el borde de 750. En este caso, el filtrado puede ventajosamente desactivarse para los n pixeles, con n igual a i ó 2 por ejemplo, localizado alrededor del borde. Por el otro lado, el filtro puede aplicarse a los otros pixeles. La Figura 7 muestra una fila de pixeles de referencia 730 utilizados para la intra-predicción del bloque actual 700. De acuerdo con esta modalidad, los pixeles de referencia en la fila de pixeles de referencia 730 y cerca del borde de 750 no se filtran. El número n de pixeles que no se van a filtrar puede definirse con respecto a la longitud del filtro de pase bajo aplicado de tal forma que los pixeles utilizados para filtrar no cruzan el borde.
De acuerdo con una cuarta modalidad de la presente invención, se aplican diferentes clases de filtro para los n pixeles alrededor del borde y para los otros pixeles que pertenecientes a las áreas planas. Esta modalidad se ilustra en la Figura 8. En ese caso, FILTER1 es un filtro de pase bajo similar a los filtros de pase bajo utilizados para filtrar los pixeles de referencia en la técnica anterior (estándar H.264/MPEG-4 AVC o HEVC diseño preliminar JCTVC-B205_draft007) . FILTER2 es un filtro de uniformidad ventajosamente en la dirección del borde solamente. FILTER2 es preferiblemente no uniforme en la dirección perpendicular al borde. El efecto de FILTER2 es afilar el borde.
De acuerdo con una quinta modalidad de la presente invención un descodificador aplica las mismas técnicas como las descritas en la primera modalidad- La única diferencia en la Figura 3 es que el modo de predicción direccional seleccionado se transmite como entrada para la unidad de predicción direccional.
Generalmente, un descodificador puede aplicar las mismas técnicas de intra-predicción como se describe en las modalidades uno a cuatro.
A continuación, se describirán las aplicaciones del método de codificación de video y el método de descodificación de video descrito en cada una de las modalidades y sistemas utilizando los mismos.
La Figura 9 ilustra una configuración general de un sistema para proporcionar contenido exlOO para implementar los servicios de distribución de contenido. El área para proporcionar servicios de comunicación se divide en celdas de tamaño deseado, y estaciones base exl06, exl07, exl08, exl09 y exllO que son estaciones inalámbricas fijas colocadas en cada una de las celdas.
El sistema para proporcionar contenido exlOO está conectado a dispositivos, tales como una computadora exlll, un asistente digital personal (PDA, por sus siglas en inglés) exll2, una cámara exll3, un teléfono celular exll4 y una máquina para juegos exll5, a través de la Internet exlOl, un proveedor de servicio de Internet exl02, una red telefónica exl04, así como las estaciones base exl06 a exllO, respectivamente.
Sin embargo, la configuración del sistema que proporciona el contenido exlOO no está limitada a la configuración mostrada en la Figura 9, y una combinación en donde cualquiera de los elementos se conecta es aceptable. Además, cada dispositivo puede estar directamente conectado a la red telefónica exl04, en lugar de a través estaciones base exl06 a exllO que son estaciones inalámbricas fijas. Además, los dispositivos pueden interconectarse entre sí a través de comunicaciones inalámbricas de corta distancia y otras.
La cámara exl!3, tal como una cámara de video digital, es capaz de capturar video. Una cámara exll6, tal como una cámara de video digital, es capaz de capturar tanto imágenes fijas como video. Además, el teléfono celular exll4 puede ser uno que cumple con cualquiera de los estándares tales como el Sistema Global para Comunicaciones Moviel (GSM, por sus siglas en inglés) , el Acceso Múltiple de División de Códigos (CDMA, por sus siglas en inglés) , el Acceso Múltiple de División de Código de Banda Ancha (W-CDMA) , Evolución de Largo Término (LTE, por sus siglas en inglés) y el Acceso de Paquetes de Alta Velocidad (HSPA, por sus siglas en inglés) . Alternativamente, el teléfono celular exll4 puede ser un Sistema de Teléfono Manual Personal (PHS, por sus siglas en inglés) .
En el sistema que proporciona el contenido exlOO, se conecta un servidor de transmisión continua exl03, la cámara exll3 y otros a través de la red telefónica exl04 y la estación base exl09, que permite la distribución de imágenes de un espectáculo en vivo y otros. En tal distribución, un contenido (por ejemplo, video de espectáculo en vivo musical) capturado por el usuario utilizando la cámara exll3 se codifica como se describió anteriormente en cada una de las modalidades, y el contenido codificado se transmite al servidor de transmisión continua exl03 que lleva a cabo la distribución de la corriente de los datos de contenido transmitidos a los clientes después de sus solicitudes. Los clientes incluyen la computadora exlll, el PDA exll2, la cámara exll3, el teléfono celular exll4 y la máquina para juegos exll5 que son capaces de descodificar los datos codificados antes mencionados. Cada uno de los dispositivos que han recibido los datos distribuidos descodifica y reproduce los datos codificados.
Los datos capturados pueden codificarse a través de la cámara exll3 o el servidor de trasmisión continua exl03 que transmite los datos, o los procesos de codificación pueden compartirse entre la cámara exll3 y el servidor de transmisión continua exl03. Similarmente , los datos distribuidos pueden descodificarse por los clientes o el servidor de transmisión exl03, o los procesos de descodificación pueden compartirse entre los clientes y el servidor de transmisión continua exl03. Además, los datos de las imágenes fijas y video capturados a través no solamente de la cámara exll3, también de la cámara exll6 pueden transmitirse al servidor de transmisión continua exl03 a través de la computadora exlll. Los procesos de codificación pueden llevarse a cabo a través de la cámara exll6, la computadora exlll, o el servidor de transmisión continua exl03 o compartirse entre ellos.
Además, los procesos de codificación y descodificación pueden llevarse a cabo a través de un LSI ex500 generalmente incluido en cada una de la computadora exlll y los dispositivos. El LSI ex500 puede configurarse de un solo chip o una pluralidad de chips . El software para la codificación y decodificación de video puede integrarse en algún tipo de medio de grabación (tal como un CD-ROM, un disco flexible y un disco duro) que es legible a través de la computadora exlll y otros, y los procesos de codificación y descodificación pueden llevarse a cabo utilizando el software. Además, cuando el teléfono celular exll4 se equipa con una cámara, los datos de imagen obtenidos por la cámara pueden transmitirse. Los datos de video son datos codificados por LSI ex500 incluidos en el teléfono celular exll4.
Además, el servidor de transmisión continua exl03 puede componerse de servidores y computadoras, y puede descentralizar los datos y procesar los datos descentralizados, grabarlos o distribuirlos.
Como se describió anteriormente, los clientes pueden recibir y reproducir los datos codificados en el sistema que proporciona el contenido exlOO. En otras palabras, los clientes pueden recibir y descodificar información transmitida por el usuario y reproducir los datos descodificados en tiempo real en el sistema que proporciona contenido exlOO, de tal forma que el usuario que no tiene ningún derecho particular y equipo puede implementar la transmisión personal.
Aparte del ejemplo de sistema para producir el contenido exlOO, por lo menos uno de los aparatos de codificación de video y el aparato de descodificación de video descritos en cada una de las modalidades puede implementarse en un sistema de transmisión digital ex200 ilustrado en la Figura 10. Más específicamente, una estación de transmisión ex201 se comunica o transmite a través de ondas de radio a un satélite de transmisión ex202, los datos multiplexados obtenidos por los datos de audio de multiplexión y otros, sobre otros datos de video. Los datos de video son datos codificados por el método de codificación de video descrito en cada una de las modalidades . Después de la recepción de los datos multiplexados, el satélite de transmisión ex202 transmite las ondas de radio para la transmisión. Después, una antena de uso doméstico ex204 con una función de recepción de transmisión por satélite recibe las ondas de radio.
Después, un dispositivo tal como una televisión (receptor) ex300 y una caja encima del televisor (STB, por sus siglas en inglés) ex217 descodifican los datos multiplexados recibidos, y reproduce los datos descodificados .
Además un lector/grabador ex218 (i) lee y descodifica los datos multiplexados grabados en un medio de grabación ex215, tal como un DVD y un BD, o (i) codifica señales de video en el medio de grabación ex218 y en algunos casos escribe datos obtenidos a través de la multiplexión de una señal de audio en los datos codificados. El lector/grabador ex218 puede incluir el aparato de descodificación de video o el aparato de codificación de video como se muestra en cada una de las modalidades . En este caso las señales de video reproducidas se despliegan en el monitor ex219 y pueden reproducirse a través de otro dispositivo o sistema utilizando el medio de grabación ex215 en el cual los datos multiplexadoa se graban. También es posible implementar el aparato de descodificación de video en la caja encima del televisor ex217 conectada al cable ex203 para la televisión por cable o la antena ex204 para transmisión satelital y/o terrestre, para así desplegar las señales de video en el monitor ex219 de la televisión ex300. El aparato de descodificación de video puede implementarse no en una caja encima del televisor sino en el televisor ex300.
La figura 11 ilustra la televisión (receptor) ex300 que utiliza el método de codificación de video y el método descodificación de video descrito en cada una de las modalidades. La televisión ex300 incluye: un sintonizador ex301 que obtiene o proporciona datos multiplexados obtenidos a través de la multiplexión de los datos de audio sobre los datos de video, a través de la antena ex204 o el cable ex203, etc., que recibe una transmisión; una unidad de modulación/demodulación ex302 que desmodula los datos multiplexados recibidos o modula los datos en datos multiplexados para ser suministrados hacia el exterior. Y una unidad de multiplexión/desmultiplexión ex3Q3 que desmultiplexa los datos multiplexados modulados en datos de video y datos de audio, o multiplexa datos de video y datos de audio codificados para una unidad de procesamiento de señal ex306 en datos.
La televisión ex303 además incluye: una unidad de procesamiento de señal ex306 que incluye una unidad de procesamiento de señal de audio ex304 y una unidad de procesamiento de señal de video ex305 que descodifica datos de audio y datos de video y codifica datos de audio y datos de video respectivamente; y una unidad de salida ex309 que incluye una bocina ex307 que proporciona la señal de audio descodificada y una unidad de despliegue ex308 que despliega la señal de video descodificada, tal como una pantalla. Además, la televisión ex300 incluye una unidad de interface ex317 que incluye una unidad de entrada de operación ex312 que recibe una entrada de una operación del usuario. Además, la televisión ex300 incluye una unidad de control ex310 que controla en general cada elemento constituyente de la televisión ex300, y una unidad de circuito de suministro de energía ex311 que suministra energía a cada uno de los elementos. A diferencia de la unidad de entrada de operación ex312, la unidad de interface ex317 puede incluir: un puente ex313 que se conecta a un dispositivo externo tal como el lector/grabador ex218; una unidad de ranura ex314 para permitir el acoplamiento del medio de grabación ex216, tal como una tarjeta SD, un controlador ex315 a ser conectado a un medio de grabación externo, tal como un disco duro; y un módem ex316 para conectarse con la red telefónica. Aquí, el medio de grabación ex316 puede eléctricamente grabar información utilizando un elemento de memoria semiconductor volátil/no volátil para almacenamiento. Los elementos constituyentes de la televisión ex300 se conectan entre sí a través de un controlador común sincrónomo.
En primer lugar, se describirá la configuración en la cual la televisión ex300 descodifica los datos multiplexados obtenidos del exterior a través de la antena ex204 y otros y reproduce los datos descodificados. En la televisión ex300, después de una operación del usuario a través de un controlador remoto ex220 y otros, la unidad de multiplexión/desmultiplexión ex303 desmultiplexa los datos multiplexados desmodulados a través de la unidad de modulación/demodulación ex302, bajo el control de la unidad de control ex310 incluyendo un CPU. Además, la unidad de procesamiento de la señal de audio ex304 descodifica los datos de audio desmultiplexados , y la unidad de procesamiento de señal de video ex305 descodifica los datos de video desmultiplexados, utilizando el método de descodificación descrito en cada una de las modalidades, en la televisión ex300. La unidad de salida ex309 proporciona la señal de video descodificada y la señal de audio exterior, respectivamente. Cuando la unidad de salida ex309 proporciona la señal de video y la señal de audio, las señales pueden temporalmente almacenarse en memorias intermedias ex318 y ex319, y otras, de tal forma que las señales se reproducen en sincronización entre sí. Además, la televisión ex300 puede leer datos multiplexados no a través de la transmisión sino de los medios de grabación ex215 y ex216 tales como un disco magnético, y un disco óptico, y una tarjeta SD. Después, se describirá una configuración en la que la televisión ex300 codifica una señal audio y una señal de video, y transmite los datos hacia afuera o escribe los datos en un medio de grabación. En la televisión ex300, después de la operación del usuario a través del control remoto ex220 y otros, la unidad de procesamiento de la señal de audio ex304 codifica una señal de audio, y la unidad de procesamiento de video ex305 codifica una señal de video, bajo el control de la unidad de control ex310 utilizando el método de codificación descrito en cada una de las modalidades. La unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de video y la señal de audio codificadas, y proporciona la señal resultante hacia el exterior. Cuando la unidad de multiplexión/desmultiplexión ex303 multiplexa la señal de video y la señal de audio, las señales pueden temporalmente almacenarse en memorias intermedias ex320 y ex321, y otras de tal forma que las señales se reproducen en sincronización entre sí. Aquí, las memorias intermedias ex318, ex319, ex320, y ex321 pueden ser plurales como se ilustra, o al menos una memoria intermedia puede compartirse en la televisión ex300. Además , los datos pueden almacenarse en una memoria intermedia de tal forma que el sobre-flujo y sub-flujo del sistema pueden evitarse entre la unidad de modulación/demodulación ex302 y la unidad multiplexión/desmultiplexión, por ejemplo.
Además, la televisión ex300 puede incluir una configuración para recibir una entrada AV desde un micrófono o una cámara diferente de la configuración para obtener datos de audio y video de una transmisión o un medio de grabación, y pueden codificar los datos obtenidos. Aunque la televisión ex300 puede codificar, multiplexar, y proporcionar datos hacia el exterior en la descripción, puede ser capaz de solamente recibir, descodificar, y proporcionar datos exteriores pero no de la codificación, multiplexión, y proporcionar datos hacia el exterior.
Además, cuando el lector/grabador ex218 lee o escribe datos multiplexados desde o en un medio de grabación, uno de la televisión ex300 y el lector/grabador ex218 puede descodificar y codificar los datos multiplexados, y la televisión ex300 y el lector/grabador ex218 puede compartir la descodificación o la codificación.
Como un ejemplo, la Figura 12 ilustra una configuración de una unidad de reproducción/grabación de información ex400 cuando los datos se leen o escriben desde o en un disco óptico. La unidad de reproducción/grabación de información ex400 incluye elementos constituyentes ex401, ex402, ex403, ex404, ex405, ex406, y ex407 a ser descritos más adelante. La cabeza óptica ex401 irradia un punto láser en una superficie de grabación del medio ex215 que es un disco óptico para escribir información, y detecta la luz reflejada desde la superficie de grabación del medio de grabación ex215 para leer la información. La unidad de grabación de la modulación ex402 eléctricamente impulsa un láser semiconductor incluido en la cabeza óptica ex401, y modula la luz láser de acuerdo con los datos grabados . La unidad de demodulación ex403 amplifica una señal de reproducción obtenida mediante la detección eléctrica de la luz reflejada desde la superficie de grabación utilizando un fotodetector incluido en la cabeza óptica ex40l, y desmodula la señal de reproducción separando un componente de señal grabado en el medio de grabación ex215 para reproducir la información necesaria. La memoria intermedia ex404 temporalmente controla la información a ser grabada en el medio de grabación ex215 y la información reproducida desde el medio de grabación ex215. El motor del disco ex405 gira el medio de grabación ex215. La unidad de servp-control ex406 mueve la cabeza aptica ex40l hacia una pista de información predeterminada mientras controla la rotación del controlador del motor del disco ex405 para así seguir el punto láser, La unidad de control del sistema ex407 controla en general la unidad de reproduceión/grabación ex400. Los procesos de lectura y escritura pueden implementarse a través de la unidad de control del sistema ex407 utilizando la información almacenada en la memoria intermedia ex404 y generando y agregando la nueva información según sea necesario, y a través de la unidad de grabación de modulación ex402, la unidad de demodulación de reproducción ex403, y la unidad de servo-control ex406 que graba y reproduce la información a través de la cabeza aptica ex401 a pesar de que se opera en una forma ordenada. La unidad de control del sistema ex407 incluye, por ejemplo, un microprocesador, y ejecuta el procesamiento causando que la computadora ejecute un programa para leer y escribir. Aunque la cabeza aptica ex401 irradia un punto láser en la descripción, puede llevar a cabo una grabación de alta densidad utilizando luz cerca del campo.
La Figura 13 ilustra el medio de grabación ex215 que es el disco óptico. En la superficie de grabación del medio de grabación ex2l5, se forman ranuras guía en espiral, y una pista de información ex230 graba, por adelantado, trata la información que indica una posición absoluta en el disco de acuerdo con un cambio en la forma de las ranuras guías . La información de la dirección incluye información para determinar las posiciones de los bloques de grabación ex231 que son una unidad para grabar datos. La reproducción de la pista de información ex230 y la lectura de la información en un aparato que graba y reproduce datos puede conducir a la determinación de las posiciones de los bloques de grabación. Además, el medio de grabación ex215 incluye un área de grabación de datos ex233, un área de circunferencia interna ex232, y un área de circunferencia externa ex234. El área de grabación de datos ex233 es un área para usarse en la grabación de los datos del usuario. El área de la circunferencia interior ex232 y el área de circunferencia exterior ex234 que están dentro y fuera del área de grabación de datos ex233, respectivamente son para uso especifico excepto para grabar los datos del usuario. La unidad de reproducción/grabación 400 lee y escribe audio codificado, datos de video codificados, o datos multiplexados obtenidos a través de la multiplexión de los datos de audio y video codificados, de y en el área de grabación de datos ex233 del medio de grabación ex215.
Aunque un disco óptico que tiene una capa, tal como un DVD y un BD se describen como un ejemplo en la descripción, el disco óptico no se limitan esto, y puede ser un disco óptico que tiene una estructura multiestratificada y que puede ser capaz de ser grabado en una parte diferente de la superficie. Además, el disco óptico puede tener una estructura para reproducción/grabación multidimensional, tal como grabación de información utilizando luz de colores con diferentes longitudes de onda en la misma porción del disco óptico y para grabar información que tiene diferentes capas para varios ángulos .
Además, un automóvil ex210 que tiene una antena ex205 puede recibir datos del satélite ex202 y otros, y reproducir video en un sistema de despliegue tal como un sistema de navegación de automóviles ex211 configurado en el automóvil ex210, en el sistema de transmisión digital ex200. Aquí, una configuración del sistema de navegación del automóvil ex211 será una configuración, por ejemplo, que incluya una unidad receptora GPS desde la configuración ilustrada en la Figura 10. Esto también será verdadero para la configuración de la computadora exlll, el teléfono celular exll4, y otros.
La Figura 14A ilustra el teléfono celular exll4 que utiliza el método de codificación de video y el método de descodificación de video descrito en las modalidades. El teléfono celular exll4 incluye: una antena ex350 para transmitir y recibir ondas de radio a través de la estación base exllO; una unidad de cámara ex365 capaz de capturar imágenes en movimiento y fijas; y una unidad de despliegue ex358 tal como una pantalla de cristal liquido para desplegar los datos tal como video descodificado capturado por la unidad de cámara ex365 o recibidos por la antena ex350. El teléfono celular exll4 además incluye: una unidad de cuerpo principal que incluye una unidad clave de operación ex366; una unidad de salida de audio ex357 tal como una bocina para dar salida al audio ; una unidad de entrada de audio ex356 tal como un micrófono para capturar el audio; una unidad de memoria ex367 para almacenar el video capturado o las imágenes fijas, audio grabado, datos codificados o descodificados de video recibidos, las imágenes fijas, correos electrónicos, u otros; y una unidad de ranura ex364 que es una unidad de interface para que el medio de grabación almacene los datos en la misma forma que en la unidad de memoria ex367.
Después, un ejemplo de una configuración de teléfono celular exll4 se describirá con referencia a la Figura 14B. En el teléfono celular exll4, una unidad de control principal ex360 diseñada para controlar en general cada unidad del cuerpo principal incluyendo la unidad de despliegue ex358 así como la unidad clave de operación ex366 se conectan mutuamente, a través de un conductor central sincrónomo ex370, a una unidad de circuito de energía ex361, una unidad de control de entrada de operación ex362, una unidad de procesamiento de video ex355, una unidad de ínterface de cámara ex363, una unidad de control de la pantalla de cristal liquido (LCD) ex359, una unidad de modulación/demodulación ex352, una unidad de multiplexión/desmultiplexión ex353, una unidad de procesamiento de señal de audio ex354, la unidad de ranura ex364, y la unidad de memoria ex367.
Cuando una tecla de finalización de llamada o una tecla de energía se sintonizan como activadas a través de la operación del usuario, la unidad del circuito de suministro de energía ex361 suministra a las unidades respectivas energía desde un paquete de batería para así activar el teléfono celular exll4.
En el teléfono celular exll4, la unidad de procesamiento de señal de audio ex354 convierte las señales de audio recolectadas a través de la unidad de entrada de audio ex356 en el modo de conversación de voz dentro de las señales de audio digitales bajo el control de la unidad de control principal ex360 incluyendo un CPU, ROM, y RAM. Después, la unidad de modulación/demodulación ex352 lleva a cabo el procesamiento del espectro diseminado en las señales de audio digitales, y la unidad de transmisión y recepción ex351 lleva a cabo la conversión de digital a análoga y la conversión de frecuencia en los datos, para así transmitir los datos resultantes a través de la antena ex350.
También, en el teléfono celular exll4, la unidad de transmisión y recepción ex351 amplifica los datos recibidos por la antena ex350 en un módulo de conversación por voz y lleva a cabo la conversión de frecuencia y la conversión de análogo a digital. Después, la unidad de modulación/demodulación ex352 lleva a cabo el procesamiento del espectro de diseminación inversa en los datos, y la unidad de procesamiento de señal de audio ex354 los convierte en señales de audio análogas, para así darles salida a través de la unidad de salida de audio ex356.
Además, cuando un correo electrónico se transmite en el modo de comunicación de datos, los datos de texto del correo electrónico capturados mediante la operación de la unidad clave de operación ex366 y otras del cuerpo principal se envían a la unidad de control principal ex360 a través de la unidad de control de entrada de operación ex362. La unidad de control principal ex360 causa que la unidad de modulación/demodulación ex352 lleve a cabo el procesamiento de espectro de diseminación en los datos de texto, y la unidad de transmisión y recepción ex351 lleva a cabo la conversión de digital a análogo y la conversión de frecuencia en los datos resultantes para transmitir los datos a la estación base exllO a través de la antena ex350. Cuando se recibe un correo electrónico, el procesamiento que es aproximadamente inverso al procesamiento para transmitir un correo electrónico se lleva a cabo en los datos recibidos, y los datos resultantes son provistos a la unidad de despliegue ex358.
Cuando el video, las imágenes fijas o video y audio en el modo de comunicación de datos es o se transmiten, la unidad de procesamiento de señal de video ex355 comprime y codifica las señales de video suministradas desde la unidad de cámara ex365 utilizando el método de codificación de video mostrado en cada una de las modalidades, y transmite los datos de video codificados a la unidad de multiplexión/desmultiplexión ex353. En contraste, cuando la unidad ex365 captura el video, imágenes fijas y otros, la unidad de procesamiento de señal de audio ex354 codifica las señales de audios recolectadas por la unidad de captura de audio ex356, y transmite los datos de audio codificados a la unidad de multiplexión/desmultiplexión ex353.
La unidad de multiplexión/desmultiplexión ex353 multiplexa los datos de video codificados suministrados de la unidad de procesamiento de señal de video ex355 y los datos de audio codificados suministrados desde la unidad de procesamiento de señal de audio ex354, utilizando un método predeterminado .
Después, la unidad de modulación/demodulación ex352 lleva a cabo el procesamiento de espectro diseminado en los datos multiplexados , y la unidad de transmisión y recepción ex351 lleva a cabo la conversión de digital a análogo y la conversión de frecuencia en los datos para asi transmitir los datos resultantes a través de la antena ex350.
Cuando se reciben datos de un archivo de video que está enlazado a una página web y otros en un modo de comunicación de datos o cuando se recibe un correo electrónico con un video y/o audio adjuntos, con el fin de descodificar los datos multiplexados recibidos a través de la antena ex350, la unidad de multiplexión/desmultiplexión ex353 desmultiplexa los datos multiplexados en una corriente de bits de datos de video y en una corriente de bits de datos de audio, y suministra a la unidad de procesamiento de señal de video ex355 los datos de video codificados y a la unidad de procesamiento de señal de audio ex354 los datos de audio codificados, a través del codificador central sincrónomo ex370. La unidad de procesamiento de señal de video ex355 descodifica la señal de video utilizando un método de descodificación de video correspondiente al método de codificación mostrado en cada una de las modalidades, y después la unidad de despliegue ex358 despliega, por ejemplo, las imágenes de video y fijas incluidas en el archivo de video enlazado a la página web a través de la unidad de control LCD ex359. Además, la unidad de procesamiento de señal de audio ex354 decodifica la señal de audio, y la unidad de salida de audio ex357 proporciona el audio.
Además, similarmente a la televisión ex300, una terminal tal como un teléfono celular exll4 probablemente tiene 3 tipos de configuraciones de implementación que incluyen no solamente (i) una terminal de transmisión y recepción que incluye tanto un aparato de codificación como un aparato de descodificación, sino también (ii) una terminal de transmisión que incluye solamente un aparato de codificación y (iii) , una terminal de recepción que incluye solamente un aparato de descodificación. Aunque el sistema de transmisión digital ex200 recibe y transmite los datos multiplexados obtenidos a través de los datos de audio de multiplexión sobre los datos de video en la descripción, los datos multiplexados pueden ser datos obtenidos a través de la multiplexión no sólo de datos de audio sino datos de caracteres relacionados con el video sobre los datos de video, y pueden no ser datos multiplexados sino datos de video mismos .
Es decir, el método de codificación de video y el método de descodificación de video en cada una de las modalidades puede utilizarse en cualquiera de los dispositivos y sistemas descritos. De esta forma, las ventajas descritas en cada una de las modalidades pueden obtenerse .
Además, la presente invención no esta limitada a modalidades y modificaciones varias y revisiones que son posibles sin apartarse del alcance de la presente invención.
Los datos de video pueden generarse conmutando, según sea necesario, entre (i) el método codificación de video o el aparato de codificación de video mostrado en cada una de las modalidades, (ii) un método de codificación de video o un aparato de codificación de video de conformidad con un estándar diferente, tal como MPEG-2, MPEG4-AVC, y VC-1.
En la presente, cuando se genera una pluralidad de datos de video que conforma los diferentes estándares y después se descodifica, los métodos de descodificación necesitan seleccionarse para conformar los diferentes estándares. Sin embargo, ya que no puede detectarse a cual estándar cada uno de la pluralidad de datos de video a ser descodificado se conforma, existe un problema en que no puede seleccionarse un método de descodificación apropiado.
Con el fin de resolver los problemas, los datos multiplexados obtenidos a través de los datos de audio de multiplexión y otros datos de video tienen una estructura que incluye la información de identificación que indica a que estándar se conforman los datos de video. La estructura específica de los datos multiplexados incluyendo los datos de video generados en el método de codificación de video y a través del aparato mostrado en cada una de las modalidades a continuación se describirá. Los datos multiplexados son una corriente digital en el formato de corriente de transporte MPEG2.
La Figura 15 ilustra la estructura de los datos multiplexados . Como se ilustra en la Figura 15, los datos multiplexados pueden obtenerse a través de la multiplexión de al menos una corriente de video, una corriente de audio, una corriente de gráficos de presentación (PG) , y una corriente de gráficos interactivos. La corriente de video representa el video primario y el video secundario de una película, la corriente de audio (IG) representa una parte de audio primaria y una parte de audio secundaria a ser mezclada con la parte de audio primaria, y la corriente de gráficos de representación es los subtítulos de la película. Aquí, el video primario es el video normal a ser desplegado en la pantalla, y el video secundario es el video a ser desplegado en una ventana más pequeña en el video primario. Además, la corriente de gráficos interactivos representa una pantalla interactiva a ser generada mediante la configuración de los componentes GUI en una pantalla. La corriente de video se codifica en el método de codificación de video o a través de un aparato de codificación de video mostrado en cada una de las modalidades, o en el método de codificación de video o a través de un aparato de codificación de video de conformidad con un estándar convencional, tal como MPEG-2, MPEG4-AVC, y VC-1. La corriente de audio se codifica de acuerdo con el estándar, tal como Dolby-AC-3, Dolby Digital Plus, MLP, DTS, DTS-HD, y PCM lineal.
Cada corriente incluida en los datos multiplexados se identifica a través de PID. Por ejemplo, 0x1011 se asigna a la corriente de video a ser utilizada para el video de una película, 0x1100 a 0x111 F se asignan a las corrientes de audio, 0x1200 a 0xl21F se asignan a las corrientes de gráficos de presentación, 0x1400 a 0xl41F se asignan a las corrientes de gráficos interactivos, 0x1 B00 a OxlBlF se asignan a corrientes de video a ser utilizadas para un video secundario de la película, y OxlAOO a OxlAlF se asignan a corrientes de audio a ser utilizadas para el video secundario a ser mezclado con el audio primario.
La Figura 16 ilustra esquemáticamente cómo los datos se multiplexan. En primer lugar, una corriente de video ex235 compuesta de marcos de video y una corriente de audio ex238 compuesta de marcos de audio se transforman en una corriente de paquetes PES ex236 y una corriente de paquetes PES ex239, y además en paquetes TS ex237 y paquetes TS ex240, respectivamente. Similarmente , los datos de la corriente de gráficos de presentación ex241 y los datos de una corriente de gráficos interactivos ex244 se transforman en una corriente de paquetes PES ex242, una corriente de paquetes PES ex245, y además en paquetes TS ex243 y paquetes TS ex246, respectivamente. Estos paquetes TS se multiplexan para obtener datos multiplexados ex247.
La Figura 17 ilustra cómo una corriente de video se almacena en una corriente de paquetes PES con mayor detalle. La primera barra en la Figura 17 muestra una corriente de marco de video en una corriente de video. La segunda barra muestra la corriente de paquetes PES. Como se indica por las flechas denotadas como yyl, yy2, yy3, e yy4 en la Figura 17, la corriente de video se divide en imágenes como imágenes I, imágenes B e imágenes P cada una de las cuales es una unidad de presentación de video, y las imágenes almacenadas en la carga útil de cada uno de los paquetes PES. Cada uno de los paquetes PES tiene un encabezado PES, y el encabezado PES almacena un Registro de Tiempo de Presentación (PTS, por sus siglas en inglés) , indicando un tiempo de despliegue de la imagen, y un Registro del Tiempo de Descodificación (DTS, por sus siglas en inglés) indicando el tiempo de descodificación de la imagen.
En la Figura 18 se ilustra un formato de paquetes TS a ser finalmente escritos en los datos multiplexados. Cada uno de los paquetes TS es un paquete con una longitud fija de 188 bytes incluyendo un encabezado TS de 4 bytes que tiene información tal como un PID para identificar una corriente y una carga útil TS de 184-bytes para almacenar los datos. Los paquetes PES se dividen, y almacenan en cargas útiles TS, respectivamente. Cuando se utiliza un BD ROM, a cada uno de los paquetes TS se les da una Extra-encabezado TP de 4-bytes, de esta forma resultando en paquetes de origen de 192-bytes. Los paquetes de origen se escriben en los datos multiplexados . El Extra-encabezado TP almacena información tal como el Registro del Tiempo de Llegada (ATS, por sus siglas en inglés) . El ATS muestra el tiempo de inicio de la transferencia en el cual cada uno de los paquetes TS se va a transferir a un filtro PID. Los paquetes de origen se configuran en los datos multiplexados como se muestra en la parte inferior de la Figura 18. Los números en aumento desde la cabeza de los datos multiplexados se denominan números de paquete de origen (SPN, por sus siglas en inglés) .
Cada uno de los paquetes TS incluidos en los datos multiplexados incluyen no solamente corrientes de audio, video, subtítulos y otros, sino también una Tabla de Asociación de Programa (PAT, por sus siglas en inglés) , una Tabla de Mapa de Programa (PMT, por sus siglas en inglés) , y una Referencia del Reloj del Programa (PCR, por sus siglas en inglés) . El PAT que indica un PID en un PMT utilizado en los datos multiplexados, un PID del PAT mismo se registra como cero. El PMT almacena los PID de las corrientes de video, audio, subtítulos y otros incluidos en los datos multiplexados, y la información que se atribuye a las corrientes correspondientes a los PID. El PMT también tiene varios descriptores que se relacionan con los datos multiplexados. Los descriptores tienen información tal como la información del control de copia que muestra si se permite el copiado de los datos multiplexados o no. El PCR almacena la información del tiempo STC correspondiente a un ATS mostrando cuando el paquete PCR se transfiere a un descodificador, con el fin de obtener la sincronización entre el Reloj del Tiempo de Llegada (ATC, por sus siglas en inglés) que es un eje de tiempo de ATS, y un Reloj de Tiempo del Sistema (STC) que es un eje del tiempo de PTS y DTS.
La Figura 19 ilustra la estructura de los datos del
PMT en detalle. Un encabezado PMT se dispone en la parte superior del PMT. El encabezado del PMT describe la longitud de los datos incluidos en el PMT y otros. Una pluralidad de descriptores relacionados con los datos multiplexados se dispone después del encabezado PMT. La información tal como la información del control de copias se describe en los descriptores. Después de los descriptores, se dispone una pluralidad de piezas de información de corrientes relacionadas con las corrientes incluidas en los datos multiplexados. Cada pieza de información de corriente incluye descriptores de corriente cada uno describiendo información, tal como el tipo de corriente para identificar un códec de compresión de una corriente, un PID de corriente, y una información de los atributos de la corriente (tal como el índice del marco o una proporción de aspecto) . Los descriptores de corriente son iguales en número al número de corrientes en los datos multiplexados.
Cuando los datos multiplexados se graban en un medio de grabación y otros, se graban junto con los archivos de información de datos multiplexados.
Cada uno de los archivos de información de datos multiplexados es la administración de la información de los datos multiplexados como se muestra en la Figura 20. Los archivos de información de datos multiplexados están en una correspondencia de uno a uno con los datos multiplexados, y cada uno de estos archivos incluye información de datos multiplexados, información de los atributos de la corriente, y el mapa de entrada.
Como se ilustra en la Figura 20, los datos multiplexados incluyen un índice del sistema, un tiempo de inicio de reproducción, y un tiempo final de reproducción. El índice del sistema indica en la velocidad de transferencia máxima a la cual un sistema activa el descodificador a ser descrito más adelante, que transfiere los datos multiplexados hacia un filtro PID. Los intervalos de los ATS incluidos en los datos multiplexados se establecen como no siendo mayores que una velocidad del sistema. El tiempo de inicio de reproducción indica un PTS en un marco de video en la cabeza de los datos multiplexados. Un intervalo de un marco es adicionado a un PTS en un marco de video al final de los datos multiplexados , y el PTS se fija en el tiempo final de reproducción.
Como se muestra en la Figura 21, una pieza de los atributos de la información se registra en la información de los atributos de corriente para cada PID de cada corriente incluida en los datos multiplexados . Cada pieza de la información de los atributos tiene diferente información que depende de si la corriente correspondiente es una corriente de video, una corriente de audio, una corriente de gráficos de presentación, o una corriente de gráficos interactivos. Cada pieza de la información de los atributos de la corriente de video lleva información que incluye que clase de códec de compresión se utiliza para comprimir la corriente de video, y la resolución, la relación de aspecto y grado de marco de las piezas de los datos de la imagen que se incluyen en al corriente de video. Cada pieza de la información de los atributos de la corriente de audio lleva información que incluye la clase de códec de compresión para la compresión de la corriente de audio, cuántos canales se incluyen en la corriente de audio, que lenguajes soporta la corriente de audio, y que tan alta es la frecuencia de muestreo. La información de los atributos de la corriente de video y la información de los atributos de la corriente de audio se utilizan para la inicialización del descodificador antes de que el reproductor reproduzca la información.
Los datos multiplexados a ser utilizados son de un tipo de corriente incluido en el PMT. Además, cuando los datos multiplexados se graban en un medio de grabación, se utiliza la información de los atributos de la corriente de video incluida en la información de los datos multiplexados. Más específicamente, el método de codificación de video o el aparato de codificación de video descrito en cada una de las modalidades incluye un paso o una unidad para asignar información única que indica los datos de video generados por el método de codificación de video o el aparato de codificación de video de cada una de las modalidades, el tipo de corriente incluida en el PMT o la información de los atributos de la corriente de video, con la configuración los datos de video generados a través del método de codificación de video o el aparato de codificación de video descritos en cada una de las modalidades pueden distinguirse de los datos de videos que conforman otro estándar.
Además, en la Figura 22 se ilustran los pasos del método para la descodificación de video. En el paso exSlOO, el tipo de corriente incluido en el PMT o la información de los atributos de la corriente de video se obtiene de los datos multiplexados. Después, en el paso exSlOl, se determina si o no el tipo de corriente o la información de los atributos de la corriente del video indican que los datos multiplexados se generan a través del método de codificación de video o el aparato de codificación de video en cada una de las modalidades. Cuando se determina que el tipo de corriente o el tipo de información atribuible a la corriente de video indican que los datos multiplexados se generan a través del método de codificación de video o el aparato de codificación de video en cada una de las modalidades, en el paso exS102, lleva a cabo la descodificación a través del método de descodificación de video en cada una de las modalidades. Además, cuando el tipo de corriente o el tipo de información de los atributos de la corriente de video indica la conformación con los estándares convencionales, tales como MPEG-2, MPEG4-AVC, y VC-1 , en el paso exS103, se lleva a cabo la descodificación a través de un método de descodificación de video de conformidad con el estándar convencional .
Es decir, la asignación de un nuevo valor único a la corriente de video o a la información de los atributos de la corriente de video permite la determinación de si o no el método de descodificación de video o el aparato de descodificación de video descrito en cada una de las modalidades pueden llevar a cabo la descodificación. Aun cuando los datos multiplexados se conforman a un estándar diferente, puede seleccionarse un estándar diferente o un método o aparato de descodificación apropiado. De esta forma, se hace posible descodificar información sin ningún error.
Además, el método o aparato de codificación de video, o el método o aparato de descodificación de video pueden utilizarse en los dispositivos y sistemas descritos anteriormente .
Cada uno del método de codificación de video, el aparato de codificación de video, el método de descodificación de video, y el aparato de descodificación de video en cada una de las modalidades típicamente se obtiene en la forma de un circuito integrado o un circuito Integrado a Gran Escala (LSI, por sus siglas en inglés) . Como un ejemplo del LSI, la Figura 23 ilustra una configuración del LSI ex500 que se hace en un chip. El LSI ex500 incluye elementos ex501 , ex502, ex503, ex504, ex505, ex506, ex507, ex508, y ex509 a ser descritos a continuación, y los elementos son conectados entre sí a través de un controlador común ex510. La unidad del circuito de suministro de energía ex505 se activa suministrando cada uno de los elementos con energía cuando la unidad del circuito de energía ex505 se activa .
Por ejemplo, cuando se lleva a cabo la codificación
LSI ex500 recibe una señal AV de un micrófono exll7, una cámara exll3, y otros a través del AV 10 ex509 bajo el control de una unidad de control ex501 incluyendo un CPU ex502, un controlador de memoria ex503, un controlador de corriente ex504, y una unidad de control de frecuencia de impulsión ex512. La señal AV recibida se almacena temporalmente en una memoria externa ex511, tal como una SDRAM. Bajo el control de la unidad de control ex501, los datos almacenados se segmentan en porciones de datos de acuerdo con la cantidad de procesamiento y la velocidad a ser transmitida a una unidad de procesamiento de señal ex507. Después, la unidad de procesamiento de señal ex507 codifica una señal de audio y/o señal de video. Aquí, la codificación de la señal de video es la codificación descrita en cada una de las modalidades. Además, la unidad de procesamiento de señal ex507 algunas veces multiplexa los datos de audio codificados y los datos de video codificados, y una corriente 10 ex506 proporciona los datos codificados hacia el exterior. Los datos multiplexados provistos se transmiten a la estación base exl07, o se escriben en el medio de grabación ex215. Cuando los grupos de datos se multiplexan, los datos deberán temporalmente almacenarse en una memoria intermedia ex508 de tal forma que los grupos de datos se sincronizan entre sí.
Aunque la memoria ex511 es un elemento exterior al LSI ex500, puede incluirse en el LSI ex500. La memoria intermedia ex508 no está limitada a una memoria intermedia, pero puede componerse de memorias intermedias. Además, el LSI ex500 puede hacerse en un chip o en una pluralidad de. chips.
Además, a pesar de que la unidad de control ex 510 incluye el CPU ex502, el controlador de memoria ex503, el controlador de corriente ex504, la unidad de control de frecuencia de impulsión ex512, la configuración de la unidad de control ex510 no se limita a esto. Por ejemplo, la unidad de procesamiento de señal ex507 además puede incluir un CPU. La inclusión de otro CPU en la unidad de procesamiento de señal ex507 puede mejorar la velocidad de procesamiento. Además, como otro ejemplo, el CPU ex502 puede servir como o ser una parte de la unidad de procesamiento de señal ex507, y, por ejemplo, puede incluir una unidad de procesamiento de señal de audio. En tal caso, la unidad de control ex501 incluye la unidad de procesamiento de señal ex507 o el CPU ex502 incluyendo una parte de la unidad de procesamiento de señal ex507.
El nombre utilizado en la presente es LSI, pero también puede denominarse IC, sistema LSI, súper LSI, o ultra LSI dependiendo del grado de integración.
Además, las formas para obtener la integración no se limitan al LSI, y un circuito especial o un procesador de propósito general, etc., pueden utilizarse para obtener la integración. El arreglo de Compuerta Programable de Campo (FPGA, por sus siglas en inglés) que puede programarse después de la fabricación del LSI o un procesador reconfigurable que permite la reconfiguración de la conexión o la configuración de un LSI puede utilizarse para el mismo propósito.
En el futuro, con el avance de la tecnología de semiconductores, una tecnología completamente nueva puede remplazar al LSI . Los bloques funcionales pueden integrarse utilizando tal tecnología. La posibilidad es que la presente invención se aplique a la biotecnología.
Cuando los datos de video generados en el método de codificación de video o a través del aparato de codificación de video descrito en cada una de las modalidades se descodifica, comparado con cuando los datos de video que conforman un estándar convencional, tal como MPEG-2, MPEG4-AVC, and VC-1 se descodifican, la cantidad de procesamiento probablemente aumente. De esta forma, el LSI ex500 necesita configurarse a una frecuencia de impulsión superior que la del CPU ex502 a ser utilizado cuando los datos de video de conformidad con el estándar convencional se descodifican. Sin embargo, cuando la frecuencia de impulsión se establece más alta, existe el problema de que el consumo de energía aumente .
Con el fin de resolver el problema, el aparato de descodificación de video, tal como la televisión ex300 y el LSI ex500 se configura para determinar a qué estándar los datos de video se conforman, y conmutar entre las frecuencias de impulsión de acuerdo con el estándar determinado. La Figura 24 ilustra una configuración ex800. Una unidad de conmutación de frecuencia de impulsión ex803 establece una frecuencia de impulsión a una frecuencia de impulsión superior cuando los datos de video se generan a través del método de codificación de video o el aparato de codificación de video descrito en cada una de las modalidades. Después, la unidad de conmutación de frecuencia de impulsión ex803 instruye a la unidad de procesamiento de descodificación ex801 que ejecute el método de descodificación de video descrito en cada una de las modalidades para descodificar los datos de video. Los datos de video se conforman al estándar convencional, la unidad de conmutación de frecuencia de impulsión ex803 establece una frecuencia de impulsión a una frecuencia de impulsión inferior que la de los datos de video generados a través del método de codificación de video o el aparato de codificación de videos descrito en cada uno de las modalidades. Después, la unidad de conmutación de frecuencia de impulsión ex803 instruye a la unidad de procesamiento de descodificación ex802 que se conforme con el estándar convencional para descodificar los datos de video.
Más específicamente, la unidad de conmutación de frecuencia de impulsión ex803 incluye el CPU ex502 y la unidad de control de frecuencia de impulsión ex512 en la Figura 23. Aquí, cada uno de la unidad de procesamiento de descodificación ex801 que ejecuta el método de descodificación de video descrito en cada una de las modalidades y la unidad de procesamiento de descodificación ex802 que se conforma al estándar convencional corresponden a la unidad de procesamiento ex507 en la Figura 23. El CPU ex502 determina a cual estándar los datos de video se conforman. Después, la unidad de control de frecuencia de impulsión ex512 determina una frecuencia de impulsión con base en la señal del CPU ex502. Además, la unidad de procesamiento de señal ex507 descodifica los datos de video con base en la señal del CPU ex502. Por ejemplo, la información de la identificación descrita probablemente se utiliza para identificar los datos de video. La información de identificación no está limitada a la descrita anteriormente pero puede ser cualquier información mientras la información indique a que estándar se conforman los datos de video. Por ejemplo, cuando los datos de video estándar se conforman pueden determinarse con base a una señal externa para determinar que los datos de video se utilizan para una televisión o un disco, etc., la determinación puede hacerse con base en tal señal externa. Además, el CPU ex502 selecciona una frecuencia de impulsión con base en, por ejemplo, una tabla de búsqueda en la cual los estándares de los datos de video están asociados con las frecuencias de impulsión como se muestra en la Figura 26. La frecuencia de impulsión puede seleccionarse mediante el almacenamiento de la tabla de búsqueda en la memoria intermedia ex508 y en una memoria interna de un LSI, y con referencia a la tabla de búsqueda a través del CPU ex502.
La Figura 25 ilustra lo pasos para ejecutar un método. Primero, en el paso exS200, la unidad de procesamiento de señal ex507 obtiene la información de identificación de los datos multiplexados . Después, en el paso exS201 , el CPU ex502 determina si o no los datos de video se generan a través del método de codificación y el aparato de codificación descrito en cada una de las modalidades, con base en la información de identificación. Cuando los datos del video se generan a través del método de codificación del video y el aparato de codificación de video descrito en cada uno de las modalidades, en el paso exS202, el CPU ex502 transmite una señal para establecer la frecuencia de impulsión más alta a la unidad de control de frecuencia de impulsión ex512. Después, la unidad de control de frecuencia de impulsión ex512 establece la frecuencia de impulsión a una frecuencia de impulsión más alta. Por el otro lado, cuando la información de identificación indica que los datos de video se conforman al estándar convencional, tal como MPEG-4-AVC, y VC-1, en el paso exS203, el CPU ex502 transmite una señal para establecer la frecuencia de impulsión a una frecuencia de impulsión inferior a la unidad de control de frecuencia de impulsión ex512. Después, la unidad de control de frecuencia de impulsión ex512 establece la frecuencia de impulsión a una frecuencia de impulsión inferior que la que en el caso en donde los datos de video se generan a través del método de codificación de video y el aparato de codificación de video descrito en cada una de las modalidades .
Además, junto con la conmutación de las frecuencias de impulsión, el efecto de conservación de energía puede mejorarse cambiando el voltaje a ser aplicado al LSI ex500 o a un aparato que incluye el LSI ex500. Por ejemplo, cuando la frecuencia de impulsión se establece menor, el voltaje a ser aplicado al LSI ex500 o el aparato que incluye el LSI ex500 probablemente se fije a un voltaje inferior que en el caso en donde la frecuencia de impulsión se establece más alta .
Además, cuando la cantidad de procesamiento para la descodificación es mayor, la frecuencia de impulsión puede establecerse mayor, y cuando la cantidad de procesamiento para descodificar es menor, la frecuencia de impulsión puede establecerse menor como en el método para establecer la frecuencia de impulsión. De esta forma, el método de configuración no se limita a los descritos anteriormente. Por ejemplo, cuando la cantidad de procesamiento para la descodificación de datos de video de conformidad con MPEG 4 -AVC es mayor que la cantidad de procesamiento para descodificar datos de video generados por el método de codificación de video y el aparato de codificación de video descrito en cada una de las modalidades, la frecuencia de impulsión probablemente se establece en orden inverso a la configuración descrita anteriormente.
Además, el método para establecer la frecuencia de impulsión no se limita al método para establecer la frecuencia de impulsión inferior. Por ejemplo, cuando la información de identificación indica que los datos de video se generan a través del método de codificación de video y al aparato de codificación de video descritos en cada una de las modalidades, el voltaje a ser aplicado al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establezca como superior. Cuando la información de la identificación indican que los datos del video se conforman con el estándar convencional, tal como MPEG-2, MPEG4-AVC, y VC-1, el voltaje a ser aplicado al LSI ex500 o al aparato que incluye el LSI ex500 probablemente se establezca de manera inferior. Como otro ejemplo, cuando la información de la identificación indica que los datos de video se generan a través del método de codificación de video y el aparato de codificación de video descrito en cada una de las modalidades, la impulsión del CPU ex502 probablemente no tenga que suspenderse. Cuando la información de identificación indica que los datos de video se conforman al estándar convencional, tal como MPEG-2, MPEG4-AVC, y VC-1, la impulsión del CPU ex502 probablemente se suspenda en un tiempo dado debido a que el CPU ex502 tiene una capacidad extra de procesamiento. Aun cuando la información de identificación indica que los datos de video se generan a través del método de codificación de video y el aparato de codificación de video descrito en cada una de las modalidades, en el caso donde el CPU ex502 tiene una capacidad de extra procesamiento, la impulsión del CPU ex502 probablemente se suspenda en un tiempo dado. En tal caso, el tiempo de suspensión probablemente se establece como más corto que en el caso en donde la información de la identificación indica que los datos de video se conforman con el estándar convencional, tal como MPEG- 2, MPEG4-AVC, y VC-1.
Por consiguiente, el efecto de conservación de energía puede mejorarse conmutando entre frecuencias de impulsión de acuerdo con el estándar al cual se conformen los datos de video. Además, cuando el LSI ex500 o el aparato que incluye el LSI ex500 se impulsa utilizando una batería, la vida de la batería puede extenderse con el efecto de conservación de energía.
Existen casos en los que a una pluralidad de datos de video que se conforman con diferentes estándares, son provistos a los dispositivos y sistemas tal como una televisión y un teléfono móvil. Con el fin de permitirla descodificación de la pluralidad de datos de video que conforman los diferentes estándares, la unidad de procesamiento de señal ex507 del LSI ex500 necesita conformarse con los diferentes estándares. Sin embargo, los problemas de aumento en la escala del circuito del LSI ex500 y el aumento en el costo que surge con el uso individual de unidades de procesamiento de señal ex507 que conforman a los estándares respectivos .
Con el fin de resolver el problema, lo que se concibe es una configuración en la cual la unidad de procesamiento de descodificación para implementar el método de descodificación de video descrito en cada una de las modalidades y la unidad de procesamientos de descodificación que se conforma con el estándar convencional, tal como MPEG-2, MPEG4-AVC, y VC-1 están parcialmente compartidos. Ex900 en la Figura 27A muestra un ejemplo de la configuración. Por ejemplo, el método de descodificación de video descrito en cada una de las modalidades y el método de descodificación de video que se conforma a MPEG4-AVC tiene, parcialmente en común, los detalles de procesamiento, tales como la codificación de entropías, la quantización inversa, el filtrado de desbloqueo, y la predicción compensada del movimiento. Los detalles del procesamiento a ser compartidos probablemente incluyen el uso de una unidad de procesamiento de descodificación ex902 que se conforma con MPEG4-AVC. En contraste, una unidad de procesamiento de descodificación dedicada ex901 probablemente se utilice para otro procesamiento único para la presente invención. Ya que la presente invención se caracteriza por una predicción espacial, por ejemplo, la unidad de procesamiento de descodificación dedicada ex901 se utiliza para la predicción espacial de acuerdo con la presente invención. Por el contrario, , la unidad de procesamiento de descodificación está probablemente compartida por uno de la codificación de entropía, la transformación inversa, la quantificación inversa, y la predicción compensada de movimiento, o todo el procesamiento. La unidad de procesamiento de descodificación para la implementación del método de descodificación de video descrito en cada una de las modalidades puede compartirse para el procesamiento a ser compartido y una unidad de procesamiento de descodificación dedicada puede utilizarse para el procesamiento único para el de MPEG4-AVC.
Además, exlOOO en la Figura 27B muestra otro ejemplo en donde el procesamiento esta parcialmente compartido. Este ejemplo utiliza una configuración que incluye una unidad de procesamiento de descodificación dedicada exlOOl que soporta el procesamiento único para la presente invención, una unidad de procesamiento de descodificación dedicada exl002 que soporta el procesamiento único para otro estándar convencional, y una unidad de procesamiento de descodificación exl003 que soporta el procesamiento a ser compartido entre el método descodificación de video en la presente invención y el método de descodificación de video convencional. Aquí, las unidades de procesamiento de descodificación dedicadas exlOOl y exl002 no necesariamente están especializadas para el procesamiento de la presente invención y el procesamiento del estándar convencional, respectivamente, y pueden ser aquellas capaces de implementar su procesamiento general. Además, la configuración puede implementarse a través del LSI ex500.
Es decir, la reducción de la escala del circuito de un LSI y la reducción del costo son posibles mediante la compartición de la unidad de la unidad de procesamiento de descodificación para el procesamiento a ser compartido entre el método de descodificación de video en la presente invención y el método de descodificación de video de conformidad con el estándar convencional.
Resumiendo, la presente invención se refiere a una intra-predicción que puede llevarse a cabo durante la codificación y/o descodificación de una señal de imagen. En particular, la presente invención se refiere a la intra-predicción de un bloque actual, durante la cual el filtro se aplica a la señal de predicción y/o a la señal utilizada para la predicción. El filtro se aplica de acuerdo con una decisión con base en las características de una señal de imagen incluida en el (los) bloque (s) espacialmente adyacente (s) al bloque actual.
Se hace constar que con relación a esta fecha, el mejor método conocido por la solicitante para llevar a la práctica la citada invención, es el que resulta claro de la presente descripción de la invención.
Claims (21)
1. Un método para decodificar, sobre bases de bloque por bloque, datos de imagen codificados divididos en una pluralidad de bloques, caracterizado porque comprende los pasos de: derivar las estadísticas de datos previamente codificados espacialmente adyacentes al bloque actual; decidir sobre las bases de las estadísticas derivadas de si aplicar un filtro o no durante la intra-predicción; y pronosticar un bloque actual de los datos de imagen de los bloques previamente codificados.
2. Un método para codificar, sobre bases de bloque por bloque, los datos de imagen divididos en una pluralidad de bloques, caracterizado porque comprende los pasos de: derivar las estadísticas de datos previamente codificados y espacialmente adyacentes al bloque actual; decidir sobre las bases de las estadísticas derivadas si aplicar un filtro o no durante la intra-predicción; y pronosticar un bloque actual a partir de los datos de imagen de los bloques previamente codificados .
3. El método de conformidad con la reivindicación 1, caracterizado porque además comprende el paso de, cuando se decide que se va a aplicar el filtraje, durante la intra-predicción, en donde el filtro se aplica a los pixeles de referencia ya descodificados utilizados para la predicción.
4. El método de conformidad con la reivindicación 1, caracterizado porque además comprende el paso de, cuando se decide que se va a aplicar el filtro, hacer el filtrado durante la intra-predicción, en donde el filtro se aplica a la señal pronosticada.
5. El método de conformidad con cualquiera de las reivindicaciones 1 a 4, caracterizado porque la derivación de las estadísticas de la señal previamente descodificada se lleva a cabo calculando la variación de la señal de los bloques circundantes.
6. El método de conformidad con la reivindicación 5, caracterizado porque el filtro se aplica cuando la variación de la señal de los bloques circundantes está por debajo de un umbral predeterminado; y el filtro no se aplica cuando la variación de la señal de los bloques circundantes está por arriba del umbral predeterminado .
7. El método de conformidad con cualquiera de las reivindicaciones 1 a 4, caracterizado por que la derivación de las estadísticas de la señal previamente descodificada se lleva a cabo mediante la aplicación de un método de detección de bordes .
8. El método de conformidad con la reivindicación 7, caracterizado porque el filtro se aplica cuando no se detecta un borde; y el filtro no se aplica cuando se detecta un borde.
9. El método de conformidad con la reivindicación 8, caracterizado porque el filtro se aplica solamente a los pixeles de referencia ya descodificados localizados a una distancia predeterminada de la línea calculada por la extensión del borde detectado.
10. El método de conformidad con la reivindicación 8, caracterizado porque se aplican diferentes filtros dependiendo de su posición relativa a la línea calculada por la extensión del borde detectado.
11. Un producto de programa de computadora caracterizado porque comprende un medio legible por computadora que tiene un código de programa legible por computadora modalizado en el mismo, el código de programa estando adaptado para llevar acabo el método de conformidad con cualquiera de las reivindicaciones 1 a 10.
12. Un aparato para descodificar, sobre bases de bloque por bloque los datos de imagen codificados divididos en una pluralidad de bloques, caracterizado porque comprende: una unidad de cálculo para derivar estadísticas de datos previamente descodificados espacialmente adyacentes al bloque actual; una unidad de discriminación para decidir sobre las bases de las estadísticas derivadas de si aplicar el filtro o no durante la intra-predicción; una unidad de predicción direccional para pronosticar un bloque actual de datos de imagen de bloques previamente codificados.
13. Un aparato para codificación sobre bases de bloque por bloque los datos de imagen divididos en una pluralidad de bloques, caracterizado porque comprende: una unidad de cálculo para derivar estadísticas de datos previamente descodificados espacialmente adyacentes al bloque actual; una unidad de discriminación para decidir sobre las bases de las estadísticas derivadas de si aplicar el filtro o no durante la intra-predicción; una unidad de predicción direccional para pronosticar un bloque actual de datos de imagen de bloques previamente codificados.
14. El aparato de conformidad con la reivindicación 12, caracterizado porque además comprende un filtro, en donde el aparato se configura para aplicar el filtro durante la intra-predicción a los pixeles de referencia ya descodificados usados para la predicción cuando la unidad de discriminación decide que el filtro se va a aplicar.
15. El aparato de conformidad con la reivindicación 12, caracterizado porque además comprende un filtro, en donde el aparato se configura para aplicar el filtro durante la intra-predicción a la señal pronosticada cuando la unidad de discriminación decide que el filtro se va a aplicar.
16. El aparato de conformidad con cualquiera de las reivindicaciones 1 a 15, caracterizado porque la unidad de cálculo se configura para derivar estadísticas de la señal previamente descodificada mediante el cálculo de la variación de señal de los bloques.
17. El aparato de conformidad con la reivindicación 16, caracterizado porque el filtro se aplica cuando la variación de la señal de los bloques circundantes derivada por la unidad de cálculo esta por debajo de un umbral predeterminado; y no se aplica un filtro cuando la variación de la señal de los bloques circundantes está por arriba del umbral predeterminado.
18. El aparato de conformidad con cualquiera de las reivindicaciones 12 a 15, caracterizado porque la unidad de cálculo se configura para derivar estadísticas de la señal previamente descodificada por la aplicación de un método de detección de bordes.
19. El aparato de conformidad con la reivindicación 18, caracterizado porque el filtro se aplica cuando no se detecta un borde por la unidad de cálculo y no se aplica el filtro cuando se detecta un borde a través de la unidad de cálculo .
20. El aparato de conformidad con la reivindicación 19, caracterizado porque el filtro se aplica solamente a pixeles de referencia ya descodificados localizados en una distancia predeterminada de la línea calculada por la extensión del borde detectado.
21. El aparato de conformidad con la reivindicación 19, caracterizado porque se aplican diferentes filtros a los pixeles en una línea de pixeles de referencia dependiendo de su posición relativa a la línea calculada por la extensión del borde detectado.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US32792910P | 2010-04-26 | 2010-04-26 | |
PCT/EP2011/002089 WO2011134641A1 (en) | 2010-04-26 | 2011-04-26 | Filtering mode for intra prediction inferred from statistics of surrounding blocks |
Publications (1)
Publication Number | Publication Date |
---|---|
MX2012012443A true MX2012012443A (es) | 2012-11-21 |
Family
ID=44115563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2012012443A MX2012012443A (es) | 2010-04-26 | 2011-04-26 | Modo de filtrado para intra-prediccion deducida de estadisticas de bloques circundantes. |
Country Status (11)
Country | Link |
---|---|
US (4) | US9197893B2 (es) |
EP (2) | EP2564593B1 (es) |
JP (2) | JP5871906B2 (es) |
KR (1) | KR101784031B1 (es) |
CN (2) | CN102948144B (es) |
AU (1) | AU2011247331B2 (es) |
BR (1) | BR112012027438B1 (es) |
CA (1) | CA2797313C (es) |
MX (1) | MX2012012443A (es) |
SG (2) | SG185050A1 (es) |
WO (1) | WO2011134641A1 (es) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103385002A (zh) * | 2010-02-17 | 2013-11-06 | 韩国电子通信研究院 | 用于对超高清图像进行编码的装置及其方法、以及解码装置及其方法 |
KR20110113561A (ko) * | 2010-04-09 | 2011-10-17 | 한국전자통신연구원 | 적응적인 필터를 이용한 인트라 예측 부호화/복호화 방법 및 그 장치 |
CA2937672C (en) * | 2010-07-02 | 2017-05-02 | Dolby International Ab | Selective bass post filter |
RU2608674C2 (ru) * | 2010-09-30 | 2017-01-23 | Мицубиси Электрик Корпорейшн | Устройство кодирования движущихся изображений, устройство декодирования движущихся изображений, способ кодирования движущихся изображений и способ декодирования движущихся изображений |
US9930366B2 (en) * | 2011-01-28 | 2018-03-27 | Qualcomm Incorporated | Pixel level adaptive intra-smoothing |
EP2866449B1 (en) | 2011-03-09 | 2018-12-12 | Nec Corporation | Video decoding device, video decoding method and video decoding program |
US9800870B2 (en) * | 2011-09-16 | 2017-10-24 | Qualcomm Incorporated | Line buffer reduction for short distance intra-prediction |
US10645398B2 (en) | 2011-10-25 | 2020-05-05 | Texas Instruments Incorporated | Sample-based angular intra-prediction in video coding |
US9282344B2 (en) | 2011-11-04 | 2016-03-08 | Qualcomm Incorporated | Secondary boundary filtering for video coding |
US9386305B2 (en) * | 2011-11-28 | 2016-07-05 | Qualcomm Incorporated | Largest coding unit (LCU) or partition-based syntax for adaptive loop filter and sample adaptive offset in video coding |
SG10201407305TA (en) * | 2011-12-19 | 2014-12-30 | Sony Corp | Image processing device and method |
EP3203471B1 (en) * | 2013-01-29 | 2023-03-08 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Decoder for generating a frequency enhanced audio signal, method of decoding, encoder for generating an encoded signal and method of encoding using compact selection side information |
US10602155B2 (en) | 2013-04-29 | 2020-03-24 | Intellectual Discovery Co., Ltd. | Intra prediction method and apparatus |
KR102217225B1 (ko) * | 2013-04-29 | 2021-02-18 | 인텔렉추얼디스커버리 주식회사 | 인트라 예측 방법 및 장치 |
US9451254B2 (en) * | 2013-07-19 | 2016-09-20 | Qualcomm Incorporated | Disabling intra prediction filtering |
JP6532542B2 (ja) * | 2015-05-12 | 2019-06-19 | サムスン エレクトロニクス カンパニー リミテッド | イントラ予測を行う映像復号方法及びその装置並びにイントラ予測を行う映像符号化方法 |
JP6383327B2 (ja) * | 2015-06-10 | 2018-08-29 | 日本電信電話株式会社 | イントラ予測処理装置、イントラ予測処理方法、イントラ予測処理プログラム、画像符号化装置及び画像復号装置 |
WO2017142301A1 (ko) | 2016-02-16 | 2017-08-24 | 삼성전자 주식회사 | 영상을 부호화/복호화 하는 방법 및 그 장치 |
KR20180107082A (ko) * | 2016-02-16 | 2018-10-01 | 삼성전자주식회사 | 비디오 부호화 방법 및 장치, 그 복호화 방법 및 장치 |
WO2017175898A1 (ko) * | 2016-04-07 | 2017-10-12 | 엘지전자(주) | 인트라 예측 필터링을 이용하여 비디오 신호를 인코딩, 디코딩하는 방법 및 장치 |
US20200068195A1 (en) * | 2017-05-15 | 2020-02-27 | Lg Electronics Inc. | Frequency domain filtering method in image coding system, and device therefor |
EP3797514A4 (en) * | 2018-06-13 | 2021-08-04 | Huawei Technologies Co., Ltd. | INTRA FILTER FOR IMPROVING SHARPNESS AND / OR ELIMINATION OF OVEROSCILLATION FOR VIDEO CODING |
IL279503B2 (en) | 2018-06-25 | 2024-09-01 | Guangdong Oppo Mobile Telecommunications Corp Ltd | Intra-frame prediction method and device |
EP3808093A4 (en) | 2018-07-02 | 2021-12-01 | Huawei Technologies Co., Ltd. | APPARATUS AND METHOD FOR FILTERING IN VIDEO ENCODING |
CN110166773B (zh) * | 2019-06-25 | 2021-08-31 | 浙江大华技术股份有限公司 | 帧内预测方法、视频编码方法、视频处理装置、存储介质 |
US11159822B2 (en) * | 2019-07-11 | 2021-10-26 | Qualcomm Incorporated | Intra-prediction according to virtual boundaries for video coding |
US11375243B2 (en) * | 2019-07-17 | 2022-06-28 | Tencent America LLC | Method and apparatus for video coding |
US11438639B2 (en) * | 2020-03-03 | 2022-09-06 | Microsoft Technology Licensing, Llc | Partial-video near-duplicate detection |
KR102189259B1 (ko) * | 2020-08-20 | 2020-12-09 | 인텔렉추얼디스커버리 주식회사 | 인트라 예측 방법 및 장치 |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6281942B1 (en) * | 1997-08-11 | 2001-08-28 | Microsoft Corporation | Spatial and temporal filtering mechanism for digital motion video signals |
US6973221B1 (en) * | 1999-12-14 | 2005-12-06 | Lsi Logic Corporation | Method and apparatus for reducing block related artifacts in video |
US6930982B2 (en) * | 2000-12-12 | 2005-08-16 | Cisco Technology, Inc. | Devices, software and methods for measuring packet loss burstiness to determine quality of voice data transmission through a network |
US7450641B2 (en) * | 2001-09-14 | 2008-11-11 | Sharp Laboratories Of America, Inc. | Adaptive filtering based upon boundary strength |
ATE507677T1 (de) * | 2001-09-12 | 2011-05-15 | Panasonic Corp | Bilddekodierungsgerät und -verfahren |
BR0303901A (pt) * | 2002-07-11 | 2004-08-10 | Matsushita Electric Ind Co Ltd | Método de determinação de poder de filtragem, método de codificação de imagem móvel e método de decodificação de imagem móvel |
US20050100235A1 (en) | 2003-11-07 | 2005-05-12 | Hao-Song Kong | System and method for classifying and filtering pixels |
EP1555832A3 (en) * | 2004-01-14 | 2011-05-18 | Samsung Electronics Co., Ltd. | Adaptive loop filtering for reducing blocking artifacts |
US7460596B2 (en) * | 2004-04-29 | 2008-12-02 | Mediatek Incorporation | Adaptive de-blocking filtering apparatus and method for MPEG video decoder |
NO322722B1 (no) * | 2004-10-13 | 2006-12-04 | Tandberg Telecom As | Fremgangsmate for videokoding gjennom reduksjon av blokkartefakter |
JP4317814B2 (ja) | 2004-12-06 | 2009-08-19 | 株式会社ルネサステクノロジ | 動画像情報の符号化装置及び符号化方法 |
DE102005025629A1 (de) * | 2005-06-03 | 2007-03-22 | Micronas Gmbh | Bildverarbeitungsverfahren zur Reduzierung von Blocking-Artefakten |
KR100678958B1 (ko) * | 2005-07-29 | 2007-02-06 | 삼성전자주식회사 | 인트라 bl 모드를 고려한 디블록 필터링 방법, 및 상기방법을 이용하는 다 계층 비디오 인코더/디코더 |
KR100727990B1 (ko) * | 2005-10-01 | 2007-06-13 | 삼성전자주식회사 | 영상의 인트라 예측 부호화 방법 및 그 방법을 사용하는부호화 장치 |
KR100772873B1 (ko) * | 2006-01-12 | 2007-11-02 | 삼성전자주식회사 | 스무딩 예측을 이용한 다계층 기반의 비디오 인코딩 방법,디코딩 방법, 비디오 인코더 및 비디오 디코더 |
JP5160451B2 (ja) * | 2006-01-31 | 2013-03-13 | トムソン ライセンシング | エッジ・ベースの空間‐時間的フィルタリングの方法および装置 |
KR100745765B1 (ko) | 2006-04-13 | 2007-08-02 | 삼성전자주식회사 | 화상 데이터의 공간상 예측 장치 및 방법과 그를 이용한부호화 장치 및 방법, 화상 데이터의 공간상 예측 보상장치 및 방법과 그를 이용한 복호화 장치 및 방법 |
JP2008072647A (ja) * | 2006-09-15 | 2008-03-27 | Toshiba Corp | 情報処理装置、デコーダおよび再生装置の動作制御方法 |
JP4571955B2 (ja) * | 2007-02-07 | 2010-10-27 | 日本電信電話株式会社 | 適応デブロッキング処理方法,装置および適応デブロッキング処理プログラム並びにコンピュータ読み取り可能な記録媒体 |
EP2003896A1 (en) | 2007-06-12 | 2008-12-17 | Panasonic Corporation | Statistical image enhancement |
EP2081386A1 (en) * | 2008-01-18 | 2009-07-22 | Panasonic Corporation | High precision edge prediction for intracoding |
US8059909B2 (en) * | 2008-04-29 | 2011-11-15 | Sony Corporation | Adaptive generation of irregular spatial sub-sampling for images |
JP2010035137A (ja) | 2008-07-01 | 2010-02-12 | Sony Corp | 画像処理装置および方法、並びにプログラム |
EP2327219B1 (en) | 2008-09-09 | 2016-11-09 | Marvell World Trade Ltd. | Reducing digital image noise |
JP2010068538A (ja) * | 2009-11-18 | 2010-03-25 | Sharp Corp | 画像復号方法及び復号装置 |
-
2011
- 2011-04-26 MX MX2012012443A patent/MX2012012443A/es active IP Right Grant
- 2011-04-26 SG SG2012079406A patent/SG185050A1/en unknown
- 2011-04-26 BR BR112012027438-4A patent/BR112012027438B1/pt active IP Right Grant
- 2011-04-26 EP EP11717193.4A patent/EP2564593B1/en active Active
- 2011-04-26 CN CN201180021420.2A patent/CN102948144B/zh active Active
- 2011-04-26 CN CN201810978745.3A patent/CN108718413B/zh active Active
- 2011-04-26 SG SG10201503012YA patent/SG10201503012YA/en unknown
- 2011-04-26 AU AU2011247331A patent/AU2011247331B2/en active Active
- 2011-04-26 EP EP17193377.3A patent/EP3288265B1/en active Active
- 2011-04-26 WO PCT/EP2011/002089 patent/WO2011134641A1/en active Application Filing
- 2011-04-26 CA CA2797313A patent/CA2797313C/en active Active
- 2011-04-26 KR KR1020127030477A patent/KR101784031B1/ko active IP Right Grant
- 2011-04-26 JP JP2013506534A patent/JP5871906B2/ja active Active
- 2011-04-26 US US13/643,492 patent/US9197893B2/en active Active
-
2015
- 2015-09-28 US US14/867,321 patent/US9973772B2/en active Active
-
2016
- 2016-01-12 JP JP2016003843A patent/JP6064235B2/ja active Active
-
2018
- 2018-04-11 US US15/950,422 patent/US10116955B2/en active Active
- 2018-09-24 US US16/139,491 patent/US10477229B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
BR112012027438A2 (pt) | 2019-02-12 |
US20180234695A1 (en) | 2018-08-16 |
KR101784031B1 (ko) | 2017-10-10 |
EP3288265A1 (en) | 2018-02-28 |
US10116955B2 (en) | 2018-10-30 |
US10477229B2 (en) | 2019-11-12 |
US9197893B2 (en) | 2015-11-24 |
KR20130051950A (ko) | 2013-05-21 |
CA2797313A1 (en) | 2011-11-03 |
EP2564593A1 (en) | 2013-03-06 |
WO2011134641A1 (en) | 2011-11-03 |
CN102948144B (zh) | 2018-09-21 |
US20130101032A1 (en) | 2013-04-25 |
CN108718413B (zh) | 2021-12-07 |
JP2013527693A (ja) | 2013-06-27 |
US20160021383A1 (en) | 2016-01-21 |
EP2564593B1 (en) | 2018-01-03 |
CA2797313C (en) | 2018-05-15 |
BR112012027438B1 (pt) | 2022-02-22 |
EP3288265B1 (en) | 2019-01-23 |
JP5871906B2 (ja) | 2016-03-01 |
US20190028728A1 (en) | 2019-01-24 |
SG185050A1 (en) | 2012-12-28 |
JP2016048966A (ja) | 2016-04-07 |
SG10201503012YA (en) | 2015-06-29 |
AU2011247331B2 (en) | 2015-11-26 |
US9973772B2 (en) | 2018-05-15 |
JP6064235B2 (ja) | 2017-01-25 |
CN108718413A (zh) | 2018-10-30 |
CN102948144A (zh) | 2013-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6799798B2 (ja) | 画像復号装置および画像復号方法 | |
AU2018203520B2 (en) | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus | |
CA2797313C (en) | Filtering mode for intra prediction inferred from statistics of surrounding blocks | |
AU2016202666B2 (en) | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus | |
AU2012329550B2 (en) | Image encoding method, image decoding method, image encoding apparatus, and image decoding apparatus | |
AU2011353415B2 (en) | Moving picture decoding method, moving picture coding method, moving picture decoding apparatus, moving picture coding apparatus, and moving picture coding and decoding apparatus | |
AU2017201384B2 (en) | Moving picture coding method, moving picture decoding method, moving picture coding apparatus, moving picture decoding apparatus, and moving picture coding and decoding apparatus | |
AU2012260302B2 (en) | Image coding method, image coding apparatus, image decoding method, image decoding apparatus, and image coding and decoding apparatus | |
AU2012294053B2 (en) | Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus | |
AU2012277160B2 (en) | Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device | |
MX2012011165A (es) | Metodo de prediccion espacial, metodo de decodificacion de imagenes y metodo de codificacion de imagenes. | |
AU2011247331A1 (en) | Filtering mode for intra prediction inferred from statistics of surrounding blocks | |
MX2013010231A (es) | Metodo de codificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento. | |
MX2015002891A (es) | Metodo de decodificacion de imagen, metodo de codificacion de imagen, aparato de decodificacion de imagen, aparato de codificacion de imagen y aparato de codificacion y decodificacion de imagen. | |
MX2013001773A (es) | Metodo de codificacion de imagen, metodo de decodificacion de imagen, aparato de codificacion de imagen, aparato de decodificacion de imagen, y aparato de codificacion y decodificacion de imagen. | |
MX2013009864A (es) | Metodo de codificacion de imagenes en movimiento, metodo de decodificacion de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de decodificacion de imagenes en movimiento y aparato de codificacion y decodificacion de imagenes en movimiento. | |
MX2013001652A (es) | Metodo de codificacion de imagen, metodo de decodificacion de imagen, metodo de manejo de memoria, aparato de codificacion de imagen, aparato de decodificacion de imagen, aparato de manejo de memoria, y aparato de codificacion y decodificacion de imagen. | |
MX2013013777A (es) | Metodo de codificacion de imagenes, aparato de codificacion de imagenes, metodo de decodificacion de imagenes y aparato de decodificacion de imagenes. | |
JP2013526199A (ja) | 予測誤差から導出されるブロック形状を用いた予測符号化 | |
CN102907097A (zh) | 滤波方法、动态图像编码装置、动态图像解码装置和动态图像编码解码装置 | |
MX2013009439A (es) | Decisiones eficientes para desbloqueo. | |
CN102860009A (zh) | 编码失真除去方法、编码方法、解码方法、编码失真除去装置、编码装置、及解码装置 | |
WO2012126627A1 (en) | Classifications in cascaded filtering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG | Grant or registration | ||
GB | Transfer or rights | ||
PD | Change of proprietorship |
Owner name: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AME |