SE538787C2 - Metod för att utföra interprediktion av videosignal genom att adaptivt bestämma ett sammansatt block i en sammansatt bild - Google Patents
Metod för att utföra interprediktion av videosignal genom att adaptivt bestämma ett sammansatt block i en sammansatt bild Download PDFInfo
- Publication number
- SE538787C2 SE538787C2 SE1551592A SE1551592A SE538787C2 SE 538787 C2 SE538787 C2 SE 538787C2 SE 1551592 A SE1551592 A SE 1551592A SE 1551592 A SE1551592 A SE 1551592A SE 538787 C2 SE538787 C2 SE 538787C2
- Authority
- SE
- Sweden
- Prior art keywords
- block
- prediction
- composite
- motion vector
- current
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/157—Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
- H04N19/159—Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/004—Predictors, e.g. intraframe, interframe coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/109—Selection of coding mode or of prediction mode among a plurality of temporal predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/105—Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/136—Incoming video signal characteristics or properties
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/44—Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/56—Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/40—Tree coding, e.g. quadtree, octree
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
METOD FÖR ATT UTFÖRA INTERPREDIKTION AV VIDEOSIGNAL GENOM ATT ADAPTIVT BESTÄMMA ETT SAMMANSATT BLOCK I EN SAMMANSATT BILD [Uppfinningens område] Den föreliggande uppfinningen hänför sig till en metod för kodning/avkodning av videodata och i synnerhet till en metod för att härleda en temporal rörelseprediktionsvektor och en anordning som använder metoden.
[Känd teknik] På senare tid har efterfrågan på högupplöst och högkvalitativ videodata ökat i olika tillämpningsområden. Eftersom videodata får allt högre upplösning och högre kvalitet så ökar även informationsmängden förknippad med videodata. Följaktligen, när videodata överförs med hjälp av befintliga trådbaserade och tråd-lösa bredbandsuppkopplingar eller lagras med hjälp av konventionella lagrings-metoder så stiger kostnader för dess överföring och lagring. Problem som uppstår när högupplöst och högkvalitativ videodata skall hanteras kan åtgärdas med hjälp av högeffektiva tekniker för komprimering av videodata.
Ett antal olika komprimeringstekniker för videodata har introducerats, till exempel interprediktionstekniken som predicerar pixelvärden som ingår i den aktuella bilden utifrån en föregående eller efterföljande bild, intraprediktionstekniken som predicerar pixelvärden som ingår i den aktuella bilden utifrån pixelinformationen hörande till den aktuella bilden, och entropikodningstekniken som tilldelar ett kor-tare kodord till ett värde som inträffar oftare, medan ett längre kodord tilldelas till ett värde som inträffar mer sällan. Sådana komprimeringstekniker för videodata kan användas till att effektivt komprimera, överföra eller lagra videodata.
[Tekniskt Problem] Ett ändamål med den föreliggande uppfinningen är att tillhandahålla en metod för att härleda en temporal rörelseprediktionsvektor för ett block som gränsar till en gräns hörande till en största kodningsenhet (LCU).
Ett andra ändamål med den föreliggande uppfinningen är att tillhandahålla en anordning för att utföra metoden för att härleda en temporal rörelseprediktionsvektor för ett block som gränsar till en gräns hörande till en största kodningsenhet (LCU).
[Teknisk Lösning] För att uppnå det förstnämnda ändamålet och i enlighet med en aspekt av den föreliggande uppfinningen så tillhandahålls en videodataavkodningsmetod, vilken metod omfattar stegen att bestämma en referensbildindex av ett sammanställt block av ett prediktionsmålblock; och att bestämma en rörelseprediktionsvektor av det sammanställda blocket, varvid blocket är ett block som bestäms adaptivt med hjälp av en placering av prediktionsmålblocket i en största kodningsenhet (LCU). Det sammanställda blocket kan bestämmas genom att avgöra om en nedre gräns av prediktionsmålblocket gränsar till en gräns hörande till en största kodningsenhet (LCU). Det sammanställda blocket kan bestämmas på ett annat sätt genom att avgöra om en nedre gräns av prediktionsmålblocket gränsar till en gräns hörande till LCU och om enbart en högergräns av prediktionsmålblocket gränsar till en gräns hörande till den största kodningsenheten (LCU). Det sammanställda blocket kan bestämmas genom att i den största kodningsenheten (LCU) förse pixelpositioner med hänvisningar. Om en vänster- eller nedre gräns av prediktionsmålblocket inte gränsar till gränsen hörande till den största kodningsenheten (LCU) så bestäms ett första sammanställt block och ett femte sammanställt block sekventiellt som det sammanställda blocket i enlighet med en tillgänglighet av det sammanställda blocket på en motsvarande position.
För att uppnå det andra ändamålet och i enlighet med en aspekt av den föreliggande uppfinningen så tillhandahålls en videodataavkodningsmetod, vilken metod kan omfatta stegen att bestämma om en gräns av ett prediktionsmålblock gränsar till en gräns hörande till en största kodningsenhet (LCU), och att bestämma en tillgänglighet av ett första sammanställt block i enlighet med vad som bestämts gällande huruvida gränsen av prediktionsmålblocket gränsar till gränsen hörande till den största kodningsenheten (LCU). Videodataavkodningsmetoden kan ytterligare omfatta att, om det blivit bestämt att det första sammanställda blocket inte är tillgängligt, bestämma annat sammanställt block än det första sammanställda blocket som ett sammanställt block för att härleda en temporal prediktionsrörelsevektor. Steget att, om det första sammanställda blocket inte är tillgängligt, bestämma annat sammanställt block än det första sammanställda blocket som det sammanställda blocket för att härleda den temporala prediktionsrörelsevektorn är ett steg för att bestämma olika sammanställda block för att härleda den temporala prediktionsrörelsevektorn i ett fall då en nedre gräns av prediktionsmålblocket gränsar till gränsen hörande till den största kodningsenheten (LCU) och i ett fall då enbart en högergräns av prediktionsmålblocket gränsar till gränsen hörande till den största kodningsenheten (LCU). Steget att bestämma tillgängligheten av det första sammanställda blocket i enlighet med vad som bestämts gällande huruvida gränsen av prediktionsmålblocket gränsar till gränsen hörande till den största kodningsenheten (LCU) är ett steg för att bestämma det första sammanställda blocket som icke-tillgängligt om en nedre gräns av prediktionsmålblocket gränsar till gränsen hörande till den största kodningsenheten (LCU). Metoden kan också omfatta steget att, om det första sammanställda blocket är tillgängligt, bestämma det första sammanställda blocket som det sammanställda blocket för att härleda den temporala prediktionsrörelsevektorn, eller att, om det första sammanställda blocket inte är tillgängligt, bestämma tillgängligheten för det femte sammanställda blocket.
För att uppnå det tredje ändamålet och i enlighet med en aspekt av den föreliggande uppfinningen så tillhandahålls en anordning för videodataavkodning omfat-tande en entropi-avkodningsenhet som avkodar information i storlek som motsva-rar till den största kodningsenheten (LCU), och en prediktionsenhet som bestämmer ett referensbildindex av ett sammanställt block av ett prediktionsmålblock, och bestämmer en rörelseprediktionsvektor av det sammanställda blocket, varvid det sammanställda blocket är ett block som bestäms adaptivt med hjälp av en placering av prediktionsmålblocket i en största kodningsenhet (LCU). Blocket kan bestämmas på ett annat sätt genom att avgöra om en nedre gräns av prediktionsmålblocket gränsar till en gräns hörande till en största kodningsenhet (LCU). Blocket kan bestämmas på ett annat sätt genom att avgöra om en nedre gräns av prediktionsmålblocket gränsar till en gräns hörande till LCU och om enbart en högergräns av prediktionsmålblocket gränsar till en gräns hörande till den största kodningsenheten (LCU). Det sammanställda blocket kan bestämmas genom att i den största kodningsenheten (LCU) förse pixelpositioner med hänvisningar. Om en vänster- eller nedre gräns av prediktionsmålblocket inte gränsar till gränsen hörande till den största kodningsenheten (LCU) så bestäms ett första sammanställt block och ett femte sammanställt block sekventiellt som det sammanställda blocket i enlighet med en tillgänglighet av det sammanställda blocket på en motsvarande position.
För att uppnå det fjärde ändamålet och i enlighet med en aspekt av den föreliggande uppfinningen så tillhandahålls en enhet för videodataavkodning som kan omfatta en entropi-avkodningsenhet som avkodar information i storlek som mots-varar till den största kodningsenheten (LCU), och en prediktionsenhet som bestämmer om en gräns av ett prediktionsmålblock gränsar till en gräns hörande till en största kodningsenhet (LCU) och bestämmer en tillgänglighet av ett första sammanställt block i enlighet med vad som bestämts gällande huruvida gränsen av prediktionsmålblocket gränsar till gränsen hörande till den största kodningsenheten (LCU). Prediktionsenheten kan, om det blivit bestämt att det första sammanställda blocket inte är tillgängligt, bestämma annat sammanställt block än det första sammanställda blocket som ett sammanställt block för att härleda en temporal prediktionsrörelsevektor. Prediktionsenheten kan bestämma olika sammanställda block för att härleda den temporala prediktionsrörelsevektorn i ett fall då en nedre gräns av prediktionsmålblocket gränsar till gränsen hörande till den största kodningsenheten (LCU) och i ett fall då enbart en högergräns av prediktionsmålblocket gränsar till gränsen hörande till den största kodningsenheten (LCU). Prediktionsenheten kan bestämma det första sammanställda blocket som icke-tillgängligt om en nedre gräns av prediktionsmålblocket gränsar till gränsen hö rande till den största kodningsenheten (LCU). Prediktionsenheten kan, om det första sammanställda blocket är tillgängligt, bestämma det första sammanställda blocket som det sammanställda blocket för att härleda den temporala prediktionsrörelsevektorn, eller, om det första sammanställda blocket inte är tillgängligt, bestämmer tillgängligheten för det femte sammanställda blocket.
[Positiva Effekter] Som beskrivet ovan och i enlighet med en utföringsform av den föreliggande uppfinningen så kan en metod för att härleda en temporal rörelseprediktionsvektor och en anordning som använder metoden på olika sätt använda en sammanställd bild från vilken en temporal rörelsevektor härleds beroende på om prediktionsmålblocket gränsar till en största kodningsenhet (LCU). Genom att använda metoden så kan minnesbandbredden som i onödan används till att härleda en temporal rörelsevektor minskas och implementeringskomplexitet kan minimeras.
[Beskrivning av Figurer] Fig. 1 är ett blockdiagram som illustrerar en anordning för kodning av videodata i enlighet med en utföringsform av den föreliggande uppfinningen. Fig. 2 är ett blockdiagram som illustrerar en avkodare av videodata i enlighet med en annan utföringsform av den föreliggande uppfinningen. Fig. 3 schematiskt illustrerar en metod för att härleda en temporal prediktionsrörelsevektor i enlighet med en utföringsform av den föreliggande uppfinningen. Fig. 4 är ett flödesschema som illustrerar en metod för att härleda en temporal prediktionsrörelsevektor i enlighet med en utföringsform av den föreliggande uppfinningen. Fig. 5 schematiskt illustrerar en position av ett sammanställt block för att härleda en temporal rörelsevektor i enlighet med en utföringsform av den föreliggande uppfinningen. Fig. 6 schematiskt illustrerar en metod för att bestämma ett sammanställt block för att härleda en rörelseprediktionsvektor i enlighet med en utföringsform av den föreliggande uppfinningen. Fig. 7 schematiskt illustrerar ett fall då ett prediktionsmålblock gränsar till en nedre gräns hörande till en största kodningsenhet (LCU) i enlighet med en utföringsform av den föreliggande uppfinningen. Fig. 8 är ett flödesschema som illustrerar en interprediktionsmetod som använder en samsorteringsmod i enlighet med en utföringsform av den föreliggande uppfinningen. Fig. 9 schematiskt illustrerar placering av spatiala samsorteringskandidater i enlighet med en utföringsform av den föreliggande uppfinningen. Fig. 10 är ett flödesschema som illustrerar en interprediktionsmetod som använder AMVP i enlighet med en utföringsform av den föreliggande uppfinningen.
[Beskrivning av utföringsformerna av uppfinningen] Den föreliggande uppfinningen kan modifieras på olika sätt och den föreliggande uppfinningen kan ha ett antal utföringsformer. Specifika utföringsformer har beskrivits i detalj med hänvisning till figurerna. Den föreliggande uppfinningen är emellertid inte begränsad till specifika utföringsformer och det inses att den föreliggande uppfinningen inkluderar alla modifikationer, ekvivalenter eller ersättning-ar som omfattas av den föreliggande uppfinningens andemening och tekniska skyddsomfång. Samma hänvisningstal kan användas i de olika modulerna när figurerna har förklarats.
Begrepp "första" och "andra" kan användas för att beskriva olika komponenter (eller särdrag). Komponenterna är emellertid inte begränsade därtill. Dessa begrepp används enbart till att skilja komponenterna från varandra. Till exempel, den första komponenten kan även benämnas den andra komponenten, och den andra komponenten kan på liknande sätt benämnas den första komponenten. Begreppet "och/eller" omfattar en kombination av ett flertal av relaterade objekt såsom beskrivs häri eller en vilken som helst av antalet av relaterade objekt.
När en komponent (eller särdrag) är "förbunden" eller "kopplad" till en annan komponent så kan komponenten vara direkt förbunden eller kopplad till den andra komponenten. Å andra sidan, när en komponent är "direkt förbunden eller kopplad" till en annan komponent så finns det inga ytterligare komponenter däremel-lan.
Begrepp som används häri används till att beskriva utföringsformerna, men utan att begränsa den föreliggande uppfinningen. Ett begrepp i singularis omfattar begreppet i pluralis såvida inte annat tydligt angetts. Såsom använda här så används begrepp som "omfatta" eller "ha" för att indikera att det finns särdrag, tal, steg, operationer, komponenter, delar eller kombinationer av föregående begrepp som beskrivits häri, men utan att exkludera förekomst eller möjlighet att lägga till ett eller fler särdrag tal, steg, operationer, komponenter, delar eller kombinationer av föregående begrepp.
I det följande kommer typiska utföringsformer av den föreliggande uppfinningen att beskrivas i detalj och med hänvisning till de medföljande ritningarna. Ett hänvisningstal hänvisar till ett och samma element i alla ritningarna och överflödig beskrivning av ett och samma element i olika ritningar kommer inte att tas med.
Fig. 1 är ett blockdiagram som illustrerar en anordning för kodning av videodata i enlighet med en utföringsform av den föreliggande uppfinningen.
Med hänvisning till Fig. 1 så kan videodatakodningsanordning 100 inkludera en bilduppdelningsmodul 110, en interprediktionsmodul 120, en intraprediktionsmodul 125, en transformeringsmodul 130, en kvantiseringsmodul 135, en omarrangeringsmodul 160, en entropi-kodningsmodul 165, en avkvantiseringsmodul 140, en inverstransformeringsmodul 145, en filtreringsmodul 150 och ett minne 155.
I Fig. 1 så visas varje modul oberoende av de andra för att representera videoda-takodningsanordningens olika funktioner, men det innebär inte att varje modul bör implementeras med hjälp av en dedikerad hårdvaru- eller mjukvarumodulenhet.
D.v.s., för att på ett bekvämt sätt presentera beskrivningen, så visas modulerna som tillhandahållna självständigt, och åtminstone två av modulerna kan kombineras för att utgöra en enda modul, eller så kan en av modulerna delas upp i ett flertal moduler som utför funktioner. Utföringsformerna med ihopslagna eller separe-rade moduler omfattas också av den föreliggande uppfinningen utan att man frångår den föreliggande uppfinningens andemening.
Dessutom, vissa av modulerna är inte essentiella moduler som utför essentiella funktioner hörande till den föreliggande uppfinningen, utan är valfria moduler för att förbättra prestanda. Den föreliggande uppfinningen kan enbart omfatta de essentiella modulerna som är nödvändiga för att implementera den föreliggande uppfinningens andemening, och omfattar inte modulerna som enbart används för att prestanda förbättring. Denna struktur omfattas också av den föreliggande uppfinningens skyddsomfång.
Bilduppdelningsmodulen 110 kan uppdela en inkomande bild in till minst en processenhet (PU). Processenheten kan vara en prediktionsenhet (PU), en transformeringsenhet (TU) och en kodningsenhet (CU). Bilduppdelningsmodulen 110 kan koda bilden genom att dela upp en bild i en kombination av ett flertal kodningsenheter, prediktionsenheter och transformeringsenheter, och en kombination med en kodningsenhet, en prediktionsenhet och en transformeringsenhet kan väljas i enlighet med en förutbestämd kriterium såsom en kostnadsfunktion som kan kodas.
Till exempel så kan en bild delas upp med hjälp av ett flertal kodningsenheter. En rekursiv trädstruktur, såsom quad-trädstruktur, kan användas till att dela upp bilden i kodningsenheter. Om bilden eller en största kodningsenhet är en rot så kan bilden delas upp i andra kodningsenheter med lika många subnoder som antalet kodningsenheter. Kodningsenheten som inte kan delas upp ytterligare, pga, en förutbestämd begränsning bör vara en extern nod. Då förutsätter man att enbart kvadratiska uppdelningar är tillgängliga för en kodningsenhet och att kodningsenheten kan enbart uppdelas i ytterligare högst fyra kodningenheter.
I det följande, i utföringsformerna av den föreliggande uppfinningen, så kan kodningsenheten betyda en enhet i vilken såväl kodning som avkodning utförs.
En prediktionsenhet kan delas upp med hjälp av en form som är minst en kvadrat eller rektangel av samma storlek som kodningsenheten.
Efter det att en prediktionsenhet i vilken intraprediktion utförs med hjälp av en kodningsenhet genererats, om kodningsenheten inte är en minsta kodningsenhet, så kan intraprediktion utföras utan att dela upp prediktionsenheten i ett flertal av NxN prediktionsenheter.
En prediktionsmodul kan omfatta en interprediktionsmodul 120 som utför en interprediktion och en intraprediktionsmodul 125 som utför en intraprediktion. Det kan bestämmas huruvida en interprediktion eller en intraprediktion skall utföras med avseende på prediktionsenheten, och i enlighet med varje prediktionsmetod, specifik information (t ex intraprediktionsmod, rörelsevektor, referensbild, osv.) Då kan en processenhet på vilken prediktionen utförs kan skilja sig från en processenhet på vilken prediktionsmetoden och dess detaljer bestäms. Ett restvärde (restblock) mellan ett genererat prediktionsblock och ett ursprungligt block kan vara indata till transformeringsmodulen 130. Dessutom, prediktionsmodinformat-ion, rörelsevektorinformation osv. som tillsammans med restvärdet används för prediktionen kan kodas i en entropi-kodningsmodul 165 och kan därefter överfö ras till en avkodningsanordning. Om en specifik kodningsmod används då, hellre än att generera prediktionsblocket med hjälp av prediktionsmodulen 120 och 125, så kan det ursprungliga prediktionsblocket kodas och överföras till avkodningsan-ordningen.
Intraprediktionsmodulen kan predicera en prediktionsenhet baserat på information gällande minst en bild av alla bilderna antingen före den aktuella bilden eller efter den aktuella bilden. Intraprediktionsmodulen kan omfatta en referensbildinterpole-ringsmodul, en rörelseprediktionsmodul och en rörelsekompensationsmodul.
Referensbildinterpoleringsmodulen kan motta referensbildinformation från minnet 155 och kan generera pixelinformation i enheten som är mindre än en heltalspixelenhet innanför referensbilden. I fallet med luminiscenspixlar så kan en DCT-baserat, åttapunktsinterpolationsfilter med olika filterkoefficienter för varje punkt användas för att generera pixelinformationen i enheten som är mindre än en heltalspixelenhet, enheten som är en fjärdedelspixel. I fallet med krominanspix-lar så kan en DCT-baserat, fyrpunktsinterpolationsfilter med olika filterkoefficienter för varje punkt användas för att generera pixelinformationen i enheten som är mindre än en heltalspixelenhet, enheten som är en åttondelspixel.
En rörelseprediktionsmodul kan utföra rörelseprediktion baserat på en referensbild som interpolerats med referensbildinterpoleringsmodulen. För att härleda en rörelsevektor så kan olika metoder, såsom FBMA (fullsökningsbaserat block-matchningsalgoritm), TSS (trestegssökningen), NTS (nya trestegsalgoritmen) osv., användas. Rörelsevektorn kan ha ett rörelsevektorvärde i en halvpixel enhet eller i en kvartspixel enhet baserat på en interpolerad pixel. Rörelseprediktions-modulen kan predicera ett aktuellt block genom att applicera olika rörelseprediktionsmetoder. Gällande rörelseprediktionsmetoder, olika metoder, såsom skipme-toden, sammanslagningsmetoden eller en AMVP-metod (avancerad rörelsevek-torprediktion) kan användas.
Enligt en utföringsform av den föreliggande uppfinningen så kan interprediktionsmodulen bestämma huruvida en gräns hörande till ett aktuellt block gränsar till en gräns hörande till en LCU (största kodningsenhet) och den kan bestämma huruvida ett första sammanställda block är tillgängligt i enlighet med vad som bestämts gällande huruvida gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU). Exempelvis, då det första sammanställda blocket inte är tillgängligt så kan ett andra sammanställda block bestämmas som ett sammanställt block för att härleda en temporal prediktionsrörelsevektor. Eller i fallet då det första sammanställda blocket inte är tillgängligt så kan en position för av det första sammanställda blocket ändras och det positionsändrade, första sammanställda blocket kan bestämmas som ett sammanställt block för att härleda en temporal prediktionsrörelsevektor.
Dessutom så kan interprediktionsmodulen omfatta en prediktionsmodul som bestämmer en referensbildindex av ett sammanställt block av ett aktuellt block och att bestämma en rörelseprediktionsvektor av det sammanställda blocket. Det sammanställda blocket är ett block som bestäms adaptivt med hjälp av en placering av det aktuella blocket i den största kodningsenheten (LCU). I det följande kommer operationen av prediktionsmodulen i enlighet med den föreliggande uppfinningen att beskrivas i detalj.
Interprediktionsmodulen kan generera en prediktionsenhet baserat på information om en referenspixel som gränsar till det aktuella blocket, vilket är pixelinformation om pixlarna i den aktuella bilden. I fallet då blocket som gränsar till det aktuella blocket är ett block på vilket interprediktionen appliceras, och referenspixeln är således en pixel genom interprediktionen, kan referenspixeln inkluderad i blocket på vilket interprediktionen appliceras ersättas genom att använda referenspixelinformation av ett block på vilket interprediktionen appliceras.
När det gäller intraprediktionen, prediktionsmoder kan omfatta riktningsberoende prediktionsmod i vilken referenspixelinformation används i enlighet med predikt-ionsriktningen och icke-riktningsberoende mod i vilken, efter prediktionen, ingen riktningsinformation används. En mod för att predicera luminescensinformation kan vara an annan än en mod för att predicera krominansinformation. Dessutom, information om en intraprediktionsmod i vilken luminescensinformation har predicerats eller predicerad luminescensinformation kan användas för att predicera krominansinformation.
Efter det att intraprediktionen utförts, och om storleken av en prediktionsenhet är den samma som storleken av en transformenhet, då utförs intraprediktionen baserat på pixlarna som är placerade på vänstersidan av prediktionsenheten, en pixel placerad överst till vänster relativt prediktionsenheten och pixlar placerade överst i prediktionsenheten. Emellertid, efter det att intraprediktionen utförts, och om storleken av en prediktionsenhet skiljer sig från storleken av en transformenhet, då kan intraprediktionen utföras genom att använda referenspixlarna baserat på transformenheten. Dessutom och enbart gällande en minsta kodningsenhet, intraprediktionen kan utföras med hjälp av NxN uppdelning.
I intraprediktionsmetoden så kan ett prediktionsblock genereras efter det att ett MDIS-filter (modberoende intrautjämning) appliceras på referenspixlar i enlighet med prediktionsmoden. Olika typer av MDIS-filter kan appliceras på referenspixlarna. För att utföra intraprediktionsmetoden så kan en intraprediktionsmetod av ett aktuellt block kan prediceras utifrån intraprediktionsmod av en grannprediktionsenhet till det aktuella blocket. Ifall prediktionsmoden av det aktuella blocket prediceras med hjälp av modinformationen som predicerats från grannprediktionsenheten, om intraprediktionsmoden av det aktuella blocket är den samma som intraprediktionsmoden av grannprediktionsenheten, förutbestämt indikatorin-formation kan användas för att överföra information som indikerar att det aktuella blocket är identiskt i prediktionsmoden med grannprediktionsenheten. Och om prediktionsmoden av det aktuella blocket skiljer sig från prediktionsmoden av grannprediktionsenheten så kan en entropi-kodning utföras för att koda predikt-ionsmodinformation av det aktuella blocket.
Dessutom kan et restblock härledas, vilket block omfattar information om ett restvärde som är ett differentierat värde mellan ett ursprungligt block av en prediktionsenhet och en prediktionsenhet på vilken prediktion utförs baserat på prediktionsenheten som genererats i prediktionsmodulen 120 och 125. Det härledda restblocket kan vara indata till transformeringsmodulen 130. Transformeringsmodulen 130 kan transformera restblocket med hjälp av en transformeringsmetod, såsom diskret cosinus-transform (DCT) eller diskret sinus-transform (DST). Restblocket omfattar restinformation mellan prediktionsenheten som genererats genom prediktionsmodulen 120 och 125 och det ursprungliga blocket. Huruvida DCT eller DST skall appliceras för att transformera restblocket kan bestämmas baserat på intraprediktionsmodinformation av prediktionsenheten som använts för att generera restblocket.
Kvantiseringsmodulen 135 kan kvantisera värden som transformerats till fre-kvensdomänen med hjälp av transformeringsmodulen 130. En kvantiseringspa-rameter kan variera beroende på ett block eller en bilds viktighet. Ett värde som producerats i kvantiseringsmodulen 135 kan tillhandahållas avkvantiseringsmodulen 140 och omarrangeringsmodulen 160.
Omarrangeringsmodulen 160 kan utföra omarrangering av koefficienter för det kvantiserade restvärdet.
Omarrangeringsmodulen 160 kan ändra tvådimensionellt block, formade koefficienter till endimensionell vektorform genom en koefficientskanningsmetod. Till exempel, omarrangeringsmodulen 160 kan använda en diagonal skanningsmetod för att skanna från DC-koefficienter till högfrekvenskoefficienter, för att därigenom arrangera 2D, blockformade koefficienter till en 1D, vektorform. Beroende på transformeringsenhetens och intraprediktionens storlek så kan man, istället för den diagonala skanningsmetoden, använda en vertikal skanningsmetod där 2D, blockformade koefficienter skannas i en kolumnriktning eller en horisontell skanningsmetod där 2D, blockformade koefficienter skannas i en radriktning. Med andra ord, en av metoderna diagonal-, vertikal- eller horisontellskanning kan an vändas beroende på storleken av transformeringsenheten och intraprediktionsmoden.
Entropi-kodningsmodulen 165 kan utföra en entropi-kodning baserat på värden som producerats i omarrangeringsmodulen 160. Olika kodningsmetoder, såsom exponentiell Golomb och CABAC, kan användas för entropi-kodningen.
Entropi-kodningsmodulen 165 kan koda olika information såsom restkoefficientin-formation, och blocktypinformation hörande till kodningsenheten, prediktionsmo-dinformation, uppdelningsenhetsinformation, rörelsevektorinformation, referens-raminformation, interpoleringsinformation för ett block, filtreringsinformation och information om storleken på LCU, vilka alla tillhandahålls i omarrangeringsmodulen 160 och prediktionsmodulen 120, 125.
Entropi-kodningsmodulen 165 kan utföra en entropi-kodning baserat på koeffici-entvärden av kodningsenheten som indata från omarrangeringsmodulen 160 och genom att använda en entropi-kodningsmetod, såsom CABAC.
Avkvantiseringsmodulen 140 kan utföra avkvantisering av värden som kvantise-rats i kvantiseringsmodulen 135 och inverstransformeringsmodulen 145 kan utföra inverstransform på värden som transformerats transformeringsmodulen 130. Restvärden som genererats i avkvantiseringsmodulen 140 och inverstransformeringsmodulen 145 kan adderas med den predicerade prediktionsenheten genom an rörelseuppskattningsmodul, en rörelsekompenseringsmodul och en intraprediktionsmodul som är inkluderad i prediktionsmodulen 120, 125, varigenom ett återskapat block genereras.
En filtreringsmodul 150 kan omfatta minst ett av ett deblockeringsfilter, offsetkor-rigeringsmodul och en ALF (filter med adaptiv slinga).
Ett deblockeringsfilter kan få bort en blockdistortion som inträffar på grund av en blockgräns i den återskapade (eller restaurerade) bilden. Huruvida deblockerings filtret skall appliceras på ett aktuellt block kan bestämmas med hjälp av en pixel som inkluderad i flera rader eller kolumner av blocken. Ifall deblockeringsfiltret applicerats på blocket så kan antingen ett starkt eller ett svagt filter appliceras i enlighet med nödvändig styrka av deblockeringsfiltrering. Dessutom, ifall deblockeringsfiltret applicerats på blocket så kan en horisontell eller en vertikal filtrering utföras parallellt.
En offsetkorigeringsmodul kan korrigera en offset mellan en originalbild och en bild där deblockering applicerats i en pixelenhet. För att kunna utföra offsetkorige-ring på en specifik bild så är pixlarna som är inkluderade i bilden uppdelade i ett förutbestämt antal ytor, där en av dessa bestäms för att utföra en offset, och så kan metoden för att applicera offset till den motsvarande ytan eller en metod för att applicera en offset med hänsyn tagen till kantinformation av varje pixel användas.
Ett ALF-filter (adaptivt slingfilter) kan utföra en filtrering baserat på ett värde som erhållits genom att jämföra en filtrerad, återskapad (eller restaurerad) bild med originalet. Pixlar inkluderade i en bild delas upp i förutbestämda grupper och ett filter som skall appliceras på motsvarande grupp bestäms för att utföra en diskri-minerande filtrering av varje grupp. Gällande information huruvida ett ALF-filter bör appliceras, en luminescenssignal kan överföras för varje kodningsenhet och ALF-filtrets storlek och koefficient kan variera för varje block. ALF-filtret kan ha olika former och antalet koefficienter som är inkluderade i filtret kan varierar på motsvarande sätt. Filtreringsrelaterad information av dessa ALF-filter (t ex koefficientinformation, på/av information, filtrets form) kan överföras inkluderad i ett förutbestämt uppsättning parametrar i bitströmmen.
Minnet 155 kan lagra återskapade block eller bild som genererats med hjälp av filtreringsmodulen 150, och det lagrade, återskapade blocket eller bilden kan tillhandahållas till prediktionsmodulen 120, 125 när interprediktion utförs.
Fig. 2 är ett blockdiagram som illustrerar en avkodare av videodata i enlighet med en annan utföringsform av den föreliggande uppfinningen.
Med hänvisning till Fig. 2 så kan videodataavkodaren omfatta en entropi-avkodningsmodul 210, en omarrangeringsmodul 215, en avkvantiseringsmodul 220, en inverstransformeringsmodul 225, prediktionsmodul 230 och 235, en filtreringsmodul 240 och ett minne 245.
Ifall en videodatabitström är indata från videodatakodaren så kan inkommande bitström avkodas i en procedur som är motsatt till proceduren i en videodatakodare.
Entropi-avkodningsmodul 210 kan utföra en entropi-avkodning i en procedur som är motsatt till entropi-kodningsproceduren som utförs i entropi-kodningsmodulen av videodatakodaren. Informationsbitar som avkodats i entropi-avkodningsmodulen 210 och som använts till att härleda ett prediktionsblock, såsom storleksinformation gällande LCU eller blocket tillhandahålls till prediktionsmodulen 230 och 235 och restvärden som härletts genom entropi-avkodning i entropi-avkodningsmodulen kan vara indata till omarrangeringsmodulen 215.
Entropi-avkodningsmodulen 210 kan avkoda information som relaterar till en intraprediktion och en interprediktion som utförts i avkodaren. Som beskrivet ovan, ifall det finns en förutbestämd begränsning när videoavkodaren utför intraprediktionen och interprediktionen så utförs entropi-avkodningen baserat på en sådan begränsning till därigenom motta information avseende intraprediktionen och interprediktionen för det aktuella blocket. Omarrangeringsmodulen 215 kan utföra omarrangering baserat på en kodare-metod för att omarrangera en bitström som är entropi-avkodad i entropi-avkodningsmodulen 210. En såda omarrangering kan utföras genom att återskapa koefficienterna som represente-ras med hjälp av 1 D-vektorer och 2D-blockformar av koefficienter. Avkvantiseringsmodulen 220 kan utföra en avkvantisering baserat på blocket av omarrangerade koefficienter och kvantiseringsparametrar som tillhandahålls av kodaren.
Inverstransformeringsmodulen 225 kan utföra en invers DCT och en invers DST, med avseende på DCT och DST som utförts i transformeringsmodulen, på ett re-sultat av kvantiseringen som utförts i videokodaren. Inverstransformen kan utföras baserat på en överföringsenhet som bestämts i videodatakodaren. Den transfor-merade modulen av videodatakodaren kan selektivt utföra DCT och DST beroende på ett flertal upplysningar, såsom prediktionsmetod, en storlek av det aktuella blocket och en prediktionsriktning, och inverstransformeringsmodulen 225 av videodataavkodaren kan utföra en invers transform baserat på den transforme-rade informationen som utförts av transformeringsmodulen av videodatakodaren.
Prediktionsmodulen 230, 235 kan generera ett prediktionsblock baserat på det tidigare avkodade blocket eller på den tidigare avkodade bildinformation som tillhandahållits av minnet 245 och genereringsrelaterad information från prediktionsblocket som tillhandahållits av entropi-avkodningsmodulen 210.
Prediktionsmodulen 230, 235 kan omfatta en modul som bestämmer prediktionsenhet, en interprediktionsmodul och en intraprediktionsmodul. Modulen som bestämmer prediktionsenheten kan motta olika upplysningar inklusive information om prediktionsmod av en intraprediktionsmetod, rörelseprediktionsrelaterad information av en interprediktionsmetod och information om prediktionsenhet, och olika upplysningar är indata från entropiavkodningsmodulen. Modulen som bestämmer prediktionsenheten kan åtskilja en prediktionsenhet från en aktuell kodningsenhet och kan bestämma huruvida en intraprediktion eller en interprediktion utförs i prediktionsenheten. Information om interprediktionsmodulen kan utföra en interprediktion i den aktuella prediktionsenheten i enlighet med information inkluderad i minst en av alla bilderna före den aktuella bilden eller efter den aktuella bilden. Interprediktionsmodulen kan utföra interprediktionen i det aktuella blocket genom att använda information nödvändig för interprediktion av det aktuella blocket som tillhandahålls från videodataavkodaren.
Det kan bestämmas vilken av skipmod, sammanslagningsmod eller AMVP-mod som är en metod av rörelseprediktion för en prediktionsenhet inkluderad i en motsvarande kodningsenhet, baserat på en kodningsenhet, för att utföra interprediktion.
Enligt en utföringsform av den föreliggande uppfinningen så kan interprediktionsmodulen bestämma huruvida en gräns hörande till ett aktuellt block gränsar till en gräns hörande till en LCU (största kodningsenhet) och den kan bestämma huruvida ett första sammanställda block är tillgängligt i enlighet med vad som bestämts gällande huruvida gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU). Exempelvis, då det första sammanställda blocket inte är tillgängligt så kan ett andra sammanställda block bestämmas som ett sammanställt block för att härleda en temporal prediktionsrörelsevektor. Eller i fallet då det första sammanställda blocket inte är tillgängligt så kan en position för av det första sammanställda blocket ändras och det positionsändrade, första sammanställda blocket kan bestämmas som ett sammanställt block för att härleda en temporal prediktionsrörelsevektor.
Dessutom så kan interprediktionsmodulen omfatta en prediktionsmodul som bestämmer en referensbildindex av ett sammanställt block av ett aktuellt block och att bestämma en rörelseprediktionsvektor av det sammanställda blocket. Det sammanställda blocket är ett block som bestäms adaptivt med hjälp av en placering av det aktuella blocket i den största kodningsenheten (LCU). I det följande kommer operationen av prediktionsmodulen i enlighet med den föreliggande uppfinningen att beskrivas i detalj.
Interprediktionsmodulen kan generera ett prediktionsblock baserat på information om pixlar i den aktuella bilden. I fallet då prediktionsenheten är den som intraprediktionen appliceras på kan intraprediktionen utföras baserat på information om intraprediktionsmod av prediktionsenheten som tillhandhålls av videodatakodaren. Intraprediktionsmodulen kan omfatta ett MDIS-filter, en referenspixelintepole-ringsmodul eller ett DC-filter. MDIS-filtret utför en filtrering på referenspixlar av det aktuella blocket. För MDIS-filtret kan man bestämma om filtret skall appliceras enligt prediktionsmoden av det aktuella blocket. Filtrering på referenspixlar av det aktuella blocket kan utföras med hjälp av information om MDIS-filter och prediktionsmod av prediktionsenheten som tillhandhålls av videodatakodaren. Ifall prediktionsmod av det aktuella blocket är en mod i vilken filtrering inte utförs då kan MDIS-filter inte appliceras.
Ifall prediktionsmoden av prediktionsenheten är en prediktionsmod i vilken intraprediktionen utförs baserat på pixelvärden som erhållits genom att interpolera referenspixeln då kan referenspixeln som har en enhet mindre än en heltalspixel härledas genom att interpolera referenspixlarna. Ifall prediktionsmoden av prediktionsenheten är en prediktionsmod i vilken prediktionsblocket genereras utan in-terpolering av referenspixlarna då kan referenspixeln inte utsättas för interpole-ring. DC-filtret kan genom filtrering generera ett prediktionsblock om prediktionsmoden av det aktuella blocket är en DC-mod.
Det återskapade blocket eller bilden kan tillhandahållas till filtreringsmodulen 240. Filtreringsmodulen 240 kan omfatta ett deblockeringsfilter, en offsetkorrigerings-modul och ett ALF-filter.
Information om huruvida det motsvarande blocket eller bilden har applicerats med ett deblockeringsfilter kan tillhandahållas från en videodatakodare (eller bilddata-kodare). Ifall deblockeringsfiltret applicerats så kan information avseende om det applicerade filtret är ett starkt eller ett svagt filter kan tillhandahållas från videodatakodaren. Deblockeringsfiltret av videodatakodaren kan motta information relate-rat till deblockeringsfilter från videodatakodaren och deblockeringsfiltreringen kan utföras på det motsvarande blocket av videodataavkodaren. Precis som för videodatakodaren så kan videodataavkodaren först utföra en vertikal deblockeringsfiltrering och en horisontell deblockeringsfiltrering. En överlappande portioner kan utsättas för minst en av vertikal deblockering och horisontell deblockering. I området där vertikal deblockeringsfiltrering och horisontell deblockeringsfiltrering över-lappar varandra så kan den ena av den vertikala deblockeringsfiltreringen och den horisontella deblockeringsfiltreringen som inte utförts tidigare utföras i detta område. Sådan deblockeringsfiltreringsprocess möjliggör en parallell behandling av deblockeringsfiltreringen.
En offsetkorigeringsmodul kan korrigera en offset på den rekonstruerade bilden baserat på en typ av offsetkorrektion som applicerats på bilden under kodningen och information om offsetvärden som applicerats i kodningsprocessen.
Ett ALF-filter kan utföra en filtrering i enlighet med en jämförelse mellan den återskapade bilden efter filtreringen och originalbilden. ALF-filtret kan utföras i en kodningsenhet baserat på information om huruvida ALF-filtret applicerats samt koefficientinformation, vilken information tillhandahålls av kodaren. Sådan ALF-relaterad information kan tillhandahållas inkluderad i en specifik uppsättning parametrar.
Minnet 245 kan lagra en återskapad bild eller ett återskapat block som för att använda dessa som en referensbild eller ett referensblock, och det återskapade blocket eller den återskapade bilden kan tillhandahållas till en skärmmodul.
Som beskrivet ovan, trots att begreppet "kodningsenhet" används i utföringsfor-men av den föreliggande uppfinningen för att på ett bekvämt sätt presentera beskrivningen så kodningsenheten kan även användas som en enhet för avkodning. I det följande så kan prediktionsmetoden som beskrivits nedan i samband med Fig. 3 - 11 i enlighet med en utföringsform av den föreliggande uppfinningen utföras i en komponent, såsom en prediktionsmodul som visas i Fig. 1 och 2. Fig. 3 schematiskt illustrerar en metod för att härleda en temporal prediktionsrörelsevektor i enlighet med en utföringsform av den föreliggande uppfinningen. Med hänvisning till Fig. 3 så kan den temporala prediktionsrörelsevektorn härledas baserat på ett rörelsevektorvärde av ett sammanställt block (colPu) i en sammanställd bild (colPic).
Den sammanställda bilden är en bild som omfattar ett sammanställt block för att härleda information relaterad till temporal prediktionsrörelse efter det att interpre-diktionsmetoden, såsom sammanslagning eller AMVP, utförts. Det sammanställda blocket kan definieras som ett block inkluderat i den sammanställda bilden och det sammanställda blocket härleds baserat på placeringsinformation av ett aktuellt block och har en annan tidsfas än det aktuella blocket.
Det kan finnas ett flertal sammanställda block för ett aktuellt block. Rörelserelate-rad information av det sammanställda blocket som är inkluderat i den sammanställda bilden kan lagras som ett representativt värde med avseende på en förutbestämd enhet. Till exempel och med avseende på en enhet med blockstorleken 16x16 så kan information relaterad till rörelseprediktion (rörelsevektor, referensbild, osv.) kan bestämmas och lagras som ett representativt värde i en 16x16 blockenhet.
Fig. 4 är ett flödesschema som illustrerar en metod för att härleda en temporal prediktionsrörelsevektor i enlighet med en utföringsform av den föreliggande uppfinningen.
I det följande kommer en metod för att härleda en temporal prediktionsrörelsevektor, och som kommer att beskrivas nedan, till användning i en interprediktionsmetod såsom sammanslagningsmod eller AMVP-mod. Metoden för att härleda en temporal prediktionsrörelsevektor kan vara en metod för att härleda ett temporalt kandidatblock (sammansatt block) för att utföra AMVP-mod, och en metod för att härleda en temporal prediktionsrörelsevektor.
I det följande kan i en utföringsform av den föreliggande uppfinningen det sammanställda blocket definieras och användas som ett begrepp som indikerar ett temporalt kandidatblock (sammansatt block) som används i sammanslagningsmod och AMVP-mod.
Med hänvisning till Fig. 4 så härleds den sammanställda bildinformationen (steg S400).
Placerings-, storleks- och referensbildindexinformation avseende det aktuella blocket kan användas till att härleda sammanställd bildinformation, sammanställd blockinformation och temporal prediktionsrörelsevektor.
Enligt en utföringsform av den föreliggande uppfinningen så kan den sammanställda bildinformationen härledas baserat på delmängdttypinformation (slice_type), referensbildlistinformation (collocated_from_10_flag) och referensbildindexinformation (collocated_ref_idx). Utifrån referensbildlistinformationen (collocated_from_10_flag) och om referensbildlistinformationen (colloca-ted_from_10_flag) indikerar 1 så representerar det att den sammanställda bilden är inkluderad i en första referensbildlist (List 0), och om referensbildlistinformationen (collocated_from_10_flag) indikerar 0 så representerar det att den sammanställda bilden är inkluderad i en andra referensbildlist (List 1).
Till exempel, om delmängdtypen är delmängd B och ett värde av referensbildlistinformation (collocated_from_10_flag) är 0 så kan den sammanställda bilden härledas som en bild inkluderad i den andra referensbildlistan och om delmängdtypen är delmängd B och ett värde av referensbildlistinformation (colloca-ted_from_10_flag) är 1 så kan den sammanställda bilden härledas som en bild inkluderad i den första referensbildlistan.
Ifall en interprediktionsmetod använder en sammanslagningsmod, om ett förutbestämt villkor är uppfyllt så kan referensbildindexinformation av ett grannblock i en specifik position bestämmas som information för den sammanställda bilden och om ett förutbestämt villkor inte är uppfyllt så kan en tidigare bild av en aktuell bild bestämmas som sammanställd bild.
Information för sammanställt block härleds (steg S410).
Information för sammanställt block kan härledas på olika sätt beroende på vilken del (eller portion) av ett aktuellt block gränsar till en gräns hörande till en LCU. I det följande kommer en metod för att bestämma ett sammanställt block beroende på placeringen av ett aktuellt block och gränsen hörande till en LCU att beskrivas med hänvisning till Fig. 5-9.
Fig. 5 schematiskt illustrerar en position av ett sammanställt block för att härleda en temporal rörelsevektor i enlighet med en utföringsform av den föreliggande uppfinningen.
Med hänvisning till Fig. 5 så kan blockeringar i olika positioner med avseende på ett aktuellt block användas som sammanställda block för att härleda en temporal rörelsevektor. De sammanställda blocken som kan användas för att härleda den temporala rörelsevektorn kan beroende på deras placering klassificeras på följande sätt: I fallet då en placering av en punkt av det aktuella blocket som är överst och till vänster är (xP, yP), en bredd av det aktuella blocket är nPSW, och en höjd av det aktuella blocket är nPSH, då kan ett första sammanställt block 500 vara ett block innefattande en punkt i (xP+nPSW, yP + nPSH) i den sammanställda bilden, ett andra sammanställt block 510 kan vara ett block innefattande en punkt i (xP+nPSW-MinPuSize, yP + nPSH) i den sammanställda bilden, ett tredje sammanställt block 520 kan vara ett block innefattande en punkt i (xP+nPSW, yP + nPSH-MinPuSize) i den sammanställda bilden, ett fjärde sammanställt block 530 kan vara ett block innefattande en punkt i (xP+nPSW-1, yP + nPSH-1) i den sammanställda bilden, ett femte sammanställt block 540 är ett block innefattande en punkt i (xP+(nPSW»1), yP + (nPSH »1)) i den sammanställda bilden och ett sjätte sammanställt block 550 är ett block innefattande en punkt i (xP+(nPSW»1)-1), yP + (nPSH »1)-1) i den sammanställda bilden.
Det sammanställda blocket kan bestämmas adaptivt enligt en position av ett aktuellt block placerad i den största kodningsenheten (LCU). En positionsrelation mellan ett aktuellt block och en gräns hörande till en LCU kan kategoriseras i följande fall: 1) en nedre ände och en högersida av det aktuella blocket gränsar inte till LCU-gränsen, 2) enbart den nedre änden av det aktuella blocket gränsar till LCU-gränsen, 3) både den nedre änden och högersidan av det aktuella blocket gränsar till LCU-gränsen, 4) enbart högersidan av det aktuella blocket gränsar till LCU-gränsen.
Enligt en utföringsform av den föreliggande uppfinningen så kan det sammanställda blocket adaptivt bestämmas på ett annat sätt beroende på placeringen av det aktuella blocket i den största kodningsenheten (LCU). 1) Den nedre änden och högersidan av det aktuella blocket gränsar inte till LCU-gränsen så kan det första sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block med en tillgänglighetskontroll för att härleda en temporal rörelsevektor. 2) Enbart den nedre änden av det aktuella blocket gränsar till LCU-gränsen så kan det tredje sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block med en tillgänglighetskontroll för att härleda en temporal rörelsevektor. 3) Både den nedre änden och högersidan av det aktuella blocket gränsar till LCU-gränsen så kan det fjärde sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block med en tillgänglighetskontroll för att härleda en temporal rörelsevektor. 4) Enbart högersidan av det aktuella blocket gränsar till LCU-gränsen så kan det andra sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block med en tillgänglighetskontroll för att härleda en temporal rörelsevektor.
Dvs., enligt en utföringsform av den föreliggande uppfinningen och beroende på placeringen av det aktuella blocket i LCU så kan ett temporalt kandidatblock (sammansatt block) bestämmas adaptivt. Pixelpositionerna att specificera ett temporalt kandidatblock (sammansatt block) då den nedre änden av det aktuella målblocket gränsar till LCU-gränsen kan skilja sig från pixelpositionerna att specificera ett temporalt kandidatblock (sammansatt block) då den nedre änden av det aktuella målblocket inte gränsar till LCU-gränsen. Pixelpositionerna att specificera ett temporalt kandidatblock (sammansatt block) då den nedre änden av det aktuella målblocket gränsar till LCU-gränsen kan skilja sig från pixelpositionerna att specificera ett temporalt kandidatblock (sammansatt block) då enbart den högra gränsen av det aktuella målblocket gränsar till LCU-gränsen.
Enligt en annan utföringsform av den föreliggande uppfinningen så kan en metod användas, i vilken metod ett sammanställt block kan bestämmas (eller väljas) adaptivt och på olika sätt beroende på positionen av det aktuella blocket i LCU så att det sammanställda blocket och det aktuella blocket är placerade i samma LCU, eller så får det sammanställda blocket inte användas om det sammanställda blocket och det aktuella blocket inte är placerade i samma LCU.
Fig. 6 schematiskt illustrerar en metod för att bestämma ett sammanställt block för att härleda en rörelseprediktionsvektor i enlighet med en utföringsform av den föreliggande uppfinningen.
Med hänvisning till Fig. 6 så kan positionerna av sammanställda block av ett flertal prediktionsenheter som inkluderas i en LCU vara kända.
För fall PUO, PU1, PU2 och PU5 så är prediktionsenheterna prediktionsenheter innanför LCU och det första sammanställda blocket kan först användas som ett sammanställt lås för att härleda en temporal rörelsevektor.
För fall PU4 och PU7 så gränsar prediktionsenheternas gränser enbart till den nedre LCU-gränsen och det tredje sammanställda blocket kan först användas som sammanställt block för att härleda en temporal rörelsevektor.
För fall PU8 så gränsar prediktionsenheternas gränser både till den nedre och till den högra LCU-gränsen och det fjärde sammanställda blocket kan först användas som ett sammanställt block för att härleda en temporal rörelsevektor.
För fall PU3 och PU6 så gränsar prediktionsenheternas gränser enbart till den högra LCU-gränsen och det andra sammanställda blocket kan först användas som ett sammanställt block för att härleda en temporal rörelsevektor.
Dvs. och som beskrivet ovan så kan ett temporalt kandidatblock (sammansatt block) bestämmas adaptivt beroende på placeringen av det aktuella blocket i LCU och pixelpositionerna för att specificera ett temporalt kandidatblock (sammansatt block) för fall då den nedre änden av det aktuella målblocket gränsar till LCU-gränsen (PU4, PU7 och PU8) och för fall då den nedre änden av det aktuella målblocket inte gränsar till LCU-gränsen (PUO, PU1, PU2, PU3, PU5 och PU6) är olika. Dessutom är pixelpositionerna för att specificera ett temporalt kandidatblock (sammansatt block) för fall då den nedre änden av det aktuella målblocket gränsar till LCU-gränsen (PU4, PU7 och PU8) och för fall då enbart den högra änden av det aktuella målblocket gränsar till LCU-gränsen (PU3 och PU6) kan vara olika.
Enligt en annan utföringsform av den föreliggande uppfinningen så kan LCU bestämmas adaptivt och på annat sätt beroende på placeringen av det aktuella blocket i LCU så länge ett sammanställt block är placerad innanför samma LCU tillsammans med det aktuella blocket. Om ett specifikt sammanställt block inte är placerat innanför samma LCU tillsammans med det aktuella blocket så är det möj-ligt att ett sådant specifikt sammanställt block inte är tillgängligt. Till exempel, om den nedre änden av prediktionsblock gränsar till LCU-gränsen såsom PU4, PU7 och PU8 då kan det första sammanställda blocket markeras (eller indikeras) som icke-tillgängligt och det femte sammanställda blocket kan användas istället som ett sammanställt block för att härleda en temporal prediktionsvektor.
Som en metod för att härleda et sammanställt block så kan metoden användas, vilken metod kategoriserar särdrag av ett aktuellt block såsom beskrivet ovan beroende på placeringen av det aktuella blocket och LCU-gränsen, och väljer ett block som skall användas som ett sammanställt block beroende på den kategoriserade placeringen av det aktuella blocket. Det antas företrädesvis att det första sammanställda blocket och det femte sammanställda blocket kan användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor. Efter det att det första sammanställda blocket tillgänglighetskontrollerats (t ex huruvida den nedre gränsen av det aktuella blocket gränsar till LCU) så bestäms ett annat sammanställt block än det första sammanställda blocket till att vara ett sammanställt block för att härleda en temporal rörelsevektor. Om det exempelvis bestäms att det första sammanställda blocket inte är tillgängligt med hjälp av stegen att bestämma huruvida det aktuella blocket gränsar till LCU-gränsen då kan det sammanställda blocket för att härleda en temporal rörelsevektor ändras till ett annat sammanställt block (t ex tredje sammanställt block), eller så kan det femte sammanställda blocket användas direkt utan att det första sammanställda blocket används.
Specifikt så kan ovanstående metod utföras genom att exekvera följande steg: 1) Steget att bestämma om en gräns av ett det aktuella blocket gränsar till en gräns hörande till en största kodningsenhet (LCU). 2) Steget att bestämma en tillgänglighet av ett första sammanställt block i enlighet med vad som bestämts gällande huruvida gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU). Specifikt i steg 2, när den nedre gränsen av det aktuella blocket gränsar till LCU så kan det bestämmas att det första sammanställda blocket inte är tillgängligt. 3) Steget att bestämma annat sammanställt block än det första sammanställda blocket som ett sammanställt block för att härleda en temporal prediktionsrörelse vektor när det första sammanställda blocket inte är tillgängligt. Specifikt i steg 3, när den nedre gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU) och i ett fall då enbart högergränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU) så kan man, för varje fall, bestämma olika sammanställda block för att härleda en temporal prediktionsrörelsevektor. 4) Steget att bestämma det första sammanställda blocket som ett sammanställt block för att härleda en temporal prediktionsrörelsevektor om det första sammanställda blocket är tillgängligt, att bestämma tillgängligheten av det femte sammanställda blocket om det första sammanställda blocket inte är tillgängligt.
Ovanstående steg kan vara valfria och den sekventiella relationen av metodste-gen kan ändras utan att utan att man frångår den föreliggande uppfinningens andemening.
Fig. 7 schematiskt illustrerar ett fall då ett aktuellt block gränsar till en nedre gräns hörande till en största kodningsenhet (LCU) i enlighet med en utföringsform av den föreliggande uppfinningen.
Med hänvisning till Fig. 7 så visas fallet då placeringen av det sammanställda blocket är ändrad när det aktuella blocket (PU, PU7 och PU8) är placerat på den nedre gränsen av LCU. Ifall det aktuella blocket (PU4, PU7 och PU8) är placerat på den nedre gränsen av LCU så kan placeringen det sammanställda blocket kan sättas så att information relaterad till rörelseprediktion kan härledas även utan att söka en LCU som är positionerad under en aktuella LCU. En temporal prediktionsrörelsevektor kan exempelvis härledas genom att använda det tredje sammanställda blocket och inte det första sammanställda blocket av det aktuella blocket. 1) Om man enbart gränsar till den högra gränsen av LCU och beroende på Tillgängligheten så bestäms det första sammanställda blocket och det femte sammanställda blocket sekventiellt som ett sammanställt blockför att härleda en temporal prediktionsrörelsesvektor. 2) Om man gränsar till den nedre gränsen av LCU och beroende på Tillgängligheten så bestäms det tredje sammanställda blocket och det femte sammanställda blocket sekventiellt som ett sammanställt blockför att härleda en temporal prediktionsrörelsesvektor. Dvs., enligt en utföringsform av den föreliggande uppfinningen så kan pixelpositionerna för att specificera ett temporalt kandidatblock (sammansatt block) då den nedre änden av det aktuella målblocket gränsar till LCU-gränsen kan skilja sig från pixelpositionerna att specificera ett temporalt kandidatblock (sammansatt block) då den nedre änden av det aktuella målblocket inte gränsar till LCU-gränsen.
Med återhänvisning till Fig. 4, baserat på det sammanställt block som bestämts genom metoden som beskrivits ovan i samband med Fig. 5 - 7, så härleds (S420) en rörelseprediktionsvektor (mvLXCol) för ett sammanställt block och tillgänglighetsinformation för sammanställt block (availableFlagLXCol).
Tillgänglighetsinformation för det sammanställda blocket (availableFlagLXCol) och rörelsevektor (mvLXCol) vilka skall användas för interprediktion av det aktuella blocket baserat på information för det sammanställda blocket som bestämts genom processer visade i Fig. 5-7, kan härledas med hjälp av följande metod: 1) Om det sammanställda blocket (colPu) kodas baserat på en intrapre-diktinsmod, om det sammanställda blocket (colPu) inte är tillgängligt, om den sammanställda bilden (colPic) inte är tillgänglig för att predicera en temporal prediktionsrörelsesvektor, eller om interprediktion utförs utan att en temporal prediktionsrörelsesvektor används, då kan tillgänglighetsinformation för det sammanställda blocket (availableFlagLXCol) och rörelsevektor (mvLXCol) kan sättas till 0. 2) I andra fall än fall 1 ovan så kan tillgänglighetsinformation för det sammanställda blocket (availableFlagLXCol) och rörelsevektor (mvLXCol) härledas med hjälp av en indikator (PredFlagLO) och en indikator (PredFlagU), där (PredFlagLO) indikerar om LO-listan använts eller inte och (PredFlagLI) indikerar om L1-listan använts eller inte.
Först, om det blivit bestämt att interprediktionen utförts på det sammanställda blocket utan att listan LO användes (indikatorn (PredFlagLO) är lika med 0) då kan rörelseprediktionsrelaterad information av det sammanställda blocket, såsom mvCol information, reldxCol information och listCol information kan sättas till L1 och MvL1 [xPCol][ypCol], RefldxLI [xPCol][ypCol] vilka är rörelseprediktionsrelaterad information av det sammanställda blocket som härletts med hjälp av listan L1 och tillgänglighetsinformation för det sammanställda blocket (availableFlagLXCol), kan sättas till 1.
I andra fall, om det blivit bestämt att interprediktionen utförts på det sammanställda blocket med hjälp av listan LO (indikatorn (PredFlagLO) är lika med 1) då kan rörelseprediktionsrelaterad information av det sammanställda blocket, såsom mvCol information, reldxCol information och listCol information kan sättas tsepat-rat för fallet då PredFlagLI är lika med 1 och tillgänglighetsinformation för det sammanställda blocket (availableFlagLXCol), kan sättas till 1.
Det härledda mvLXCol skalas (steg S430).
För att använda mvLXCol som härletts i steg S420 som en temporal prediktionsrörelsevektor av det aktuella blocket, så kan ett härlett mvLXCol-värde skalas baserat på avståndsinformation relativt ett avstånd mellan den sammanställda bilden inklusive det sammanställda blocket och referensbilden hörande till det sammanställda blocket som refererats av det sammanställda blocket och ett avstånd mellan bilden inklusive det aktuella blocket och referensbilden som refererats av det aktuella blocket. Efter det att det härledda mvLXCol-värde skalats så kan den temporala prediktionsrörelsevektor härledas.
I det följande och i enlighet med en utföringsform av den föreliggande uppfinningen beskrivs en metod, såsom sammanslagning eller MVP, för att utföra en interprediktion.
Fig. 8 är ett flödesschema som illustrerar en interprediktionsmetod som använder en samsorteringsmod i enlighet med en utföringsform av den föreliggande uppfinningen.
Med hänvisning till Fig. 8 så kan information relaterad till rörelseprediktion härledas från en spatial samsorteringskandidat (Steg S1000).
Den spatiala samsorteringskandidaten kan härledas från grannprediktionsenheter av ett aktuellt block. För att härleda den spatiala samsorteringskandidaten så kan man motta information avseende bredden och höjden av prediktionsenheten, MER (rörelseuppskattningsområde), singleMCLFlag och uppdelningsplacering. Baserat på sådana indata så kan tillgänglighetsinformation (availableFlagN) enligt positionen av den spatiala samsorteringskandidaten, referensbildinformation (re-fldxLO, refldxU), listanvändningsinformation (PredFlagLON, PredFlagLI N) och listinformation (mvLON, mvL1N) innefattande rörelsevektorkandidater härledas. Ett flertal block som är granne till det aktuella blocket kan vara de spatiala samsorteringskandidater.
Fig. 9 schematiskt illustrerar placering av spatiala samsorteringskandidater i enlighet med en utföringsform av den föreliggande uppfinningen.
Med hänvisning till Fig. 9, om en placering av en punkt av det aktuella blocket som är överst och till vänster är (xP, yP), en bredd av det aktuella blocket är nPSW, och en höjd av det aktuella blocket är nPSH då kan de spatiala samsorteringskandidaterna vara ett block AO inklusive punkten (xP - 1, yP + nPSH), ett block A1 inklusive punkten (xP - 1, yP + nPSH - MinPuSize), ett block BO inklusive punkten (xP+nPSW, yP -1), ett block B1 inklusive punkten (xP+nPSW - MinPuSize, yP -1) och ett block B2 inklusive punkten (xP - MinPuSize, yP - 1). Med återhänvisning till Fig. 8 så härleds ett referensbildindexvärde av den temporala samsorteringskandidaten (steg S1010).
Referensbildindexvärde av den temporala samsorteringskandidaten, som ett indexvärde av en sammanställd bild inklusive den temporala samsorteringskandidaten (sammanställt block) kan härledas genom speciella villkor enligt nedan: Följande villkor är valfria och kan variera. Till exempel, i fallet då en placering av en punkt av det aktuella blocket som är överst och till vänster är (xP, yP), en bredd av det aktuella blocket är nPSW, och en höjd av det aktuella blocket är nPSH, när 1) där finns en grannprediktionsenhet av det aktuella blocket svarande till position (xP - 1, yP + nPSH - 1) (i det följande refererad till som grannprediktionsenhet svarande till härledd referensbildindex), 2) uppdelningsens indexvärde för grannprediktionsenheten svarande till härledd referensbildindex är 0, 3) grannprediktionsenheten svarande till härledd referensbildindex är inte ett block på vilket prediktion utförs med en intraprediktionsmod, och 4) det aktuella blocket och grannprediktionsenheten svarande till härledd referensbildindex hör inte till samma MER, varvid referensbildindexvärde av den temporala samsorteringskandidaten (sammansatt block) kan bestämmas som varandes samma värde som referensbildindexvärdet av grannprediktionsenheten svarande till härledd referensbildindex. Om dessa villkor inte uppfylls så sätts referensbildindexvärdet av den temporala samsorteringskandidaten (sammansatt block) till 0.
Det temporala samsorteringskandidatblocket (sammanställt block) bestäms och information relaterad till rörelseprediktion härleds från det sammanställda blocket.
(Steg S1020).
Enligt en utföringsform av den föreliggande uppfinningen så kan det temporala samsorteringskandidatblocket (sammanställt block) bestämmas adaptivt beroende på placeringen av det aktuella blocket i LCU så att det sammanställda blocket är inkluderat i samma LCU som det aktuella blocket. 1) Ifall en höger- eller nedre gräns av det aktuella blocket inte gränsar till gränsen hörande till den största kodningsenheten (LCU), att bestämma en tillgänglighet, så kan det första sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor. 2) Ifall enbart den nedre gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU), att bestämma en tillgänglighet, så kan det tredje sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor. 3) Ifall både den högra och den nedre gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU), att bestämma en tillgänglighet, så kan det fjärde sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor. 4) Ifall enbart den högra gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU), att bestämma en tillgänglighet, så kan det andra sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor.
Enligt en utföringsform av den föreliggande uppfinningen så kan metoden användas som möjliggör att ett sammanställt block bestäms adaptivt och på ett annat sätt beroende på placeringen av det aktuella blocket i den största kodningsenheten (LCU) som finns i en position inkluderad i en LCU tillsammans med det aktuella blocket, eller det sammanställda blocket som inte är inkluderat i ett LCU tillsammans med det aktuella blocket och får inte användas.
Såsom beskrivet ovan, som en metod för att producera ett sammanställt block så kan metoden användas, vilken metod kategoriserar särdrag av ett aktuellt block såsom beskrivet ovan beroende på placeringen av det aktuella blocket och LCU-gränsen, och väljer ett block som skall användas som ett sammanställt block beroende på den kategoriserade placeringen av det aktuella blocket. Det antas företrädesvis att det första sammanställda blocket och det femte sammanställda blocket kan användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor. Huruvida det första sammanställda blocket är tillgängligt (t ex huruvida den nedre gränsen av det aktuella blocket gränsar till LCU) härleds och därefter ett annat sammanställt block än det första sammanställda blocket bestäms till att vara ett sammanställt block för att härleda en temporal rörelsevektor.
Listan med samsorteringskandidater konfigureras (Steg S1030).
Listan med samsorteringskandidater kan konstrueras till att ha minst en spatial samsorteringskandidat och en temporal samsorteringskandidat. Spatiala samsorteringskandidaterna och de temporala samsorteringskandidaterna som omfattas av listan med samsorteringskandidater kan arrangeras med förutbestämd prioritet.
Listan med samsorteringskandidaterna kan konstrueras till att ha ett fast antal samsorteringskandidater och om antalet samsorteringskandidater är mindre är det fasta anatalet så kombineras information relaterad till rörelseprediktion som ägs av samsorteringskandidater för att skapa samsorteringskandidater eller så genereras nollvektorer som samsorteringskandidater, varigenom listan med samsorteringskandidaterna genereras.
Fig. 10 är ett flödesschema som illustrerar en interprediktionsmetod som använder AMVP i enlighet med en utföringsform av den föreliggande uppfinningen.
Med hänvisning till Fig. 10 så härleds information relaterad till rörelseprediktion från spatiala AMVP-kandidatblock. (Steg S1200).
För att härleda referensbildindexinformation och en prediktionsrörelsevektor av det aktuella blocket så kan spatiala AMVP-kandidatblock härledas från grannpre-diktionsblock av de aktuella blocken.
Med återhänvisning till Fig. 9, ett av blocken AO och A1 kan användas som ett första spatialt AMVP-kandidatblock och ett av blocken B0-B2 kan användas som ett andra spatialt AMVP-kandidatblock, varigenom de spatiala AMVP-kandidatblocken härleds.
Information relaterad till rörelseprediktion härleds från ett temporalt AMVP-kandidatblock (Steg S1210).
Enligt en utföringsform av den föreliggande uppfinningen så kan det sammanställda blocket bestämmas adaptivt beroende på placeringen av det aktuella blocket i LCU så att det sammanställda blocket är inkluderat i samma LCU som det aktuella blocket. 1) Ifall en höger- eller nedre gräns av det aktuella blocket inte gränsar till gränsen hörande till den största kodningsenheten (LCU) så kan det första sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor med en tillgänglighetskontroll. 2) Ifall enbart den nedre gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU) så kan det tredje sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor med en tillgänglighetskontroll. 3) Ifall både den högra och den nedre gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU) så kan det fjärde sam manställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor med en tillgänglighetskontroll. 4) Ifall enbart den högra gränsen av det aktuella blocket gränsar till gränsen hörande till den största kodningsenheten (LCU) så kan det andra sammanställda blocket och det femte sammanställda blocket användas sekventiellt som ett sammanställt block för att härleda en temporal rörelsevektor med en tillgänglighetskontroll.
Enligt en utföringsform av den föreliggande uppfinningen så kan metoden att det sammanställda blocket ej inkluderas i samma LCU tillsammans med det aktuella blocket inte användas, och metoden får användas, vari ett sammanställt block bestäms adaptivt beroende på placeringen av det aktuella blocket i den största kodningsenheten (LCU) som finns i en position inkluderad i en LCU tillsammans med det aktuella blocket.
I steget 1200 där man härleder de spatiala AMVP-kandidatblocken och när det första spatiala AMVP-kandidatblocket och det andra spatiala AMVP-kandidatblocket bestäms som tillgängliga och de härledda rörelseprediktionsvek-torvärden inte är identiska då får inte steget S1210 där man härleder en temporal prediktionsrörelsesvektor utföras.
Listan med AMVP-kandidater skapas (Steg S1220).
Listan med AMVP-kandidater skapas genom att använda information relaterad till rörelseprediktion som härletts genom minst en av stegen S1200 och S1210. Ifall den samma information relaterad till rörelseprediktion finns i den skapade listan med AMVP-kandidater så kan ett värde bland de identiska informationer relaterade till rörelseprediktion användas som ett AMVP-kandidatvärde. Informationen relaterad till rörelseprediktion som är inkluderad i listan med AMVP-kandidater kan enbart omfatta ett fast antal kandidatvärden.
Fastän utföringsformerna av den föreliggande uppfinningen har beskrivits så här långt så skall det förstås av fackmannen i tekniska området att den föreliggande uppfinningen kan modifieras och varieras på olika sätt utan att man frångår den föreliggande uppfinningens andemening eller utan att man hamnar utanför den föreliggande uppfinningens skyddsomfång.
Claims (10)
1. Metod för att avkoda en videosignal, vilken metod omfattar: att baserat på huruvida en nedre gräns av ett aktuellt block gränsar till en nedre gräns av en största kodningsenhet (LCU) bestämma ett sammanställt block (500, 510, 520, 530, 540, 550) i en sammanställd bild; att erhålla en temporal prediktionsrörelsevektor av det aktuella blocket med hjälp av en rörelsevektor av det sammanställda blocket (500, 510, 520, 530, 540, 550); att generera en lista med rörelsevektorskandidater som innefattar den temporala prediktionsrörelsevektorn; och att baserat på den genererade listan med rörelsevektorskandidater utföra interprediktion av det aktuella blocket.
2. Metod i enlighet med krav 1, varvid den temporala prediktionsrörelsevektorn erhålls genom skalning av det sammansatta blockets rörelsevektor.
3. Metod i enlighet med krav 2, varvid det sammansatta blockets (500, 510, 520, 530, 540, 550) rörelsevektor skalas baserat på ett temporalt avstånd mellan en aktuell bild med det aktuella blocket och en referensbild av det aktuella blocket.
4. Metod i enlighet med krav 2, varvid det sammansatta blockets (500, 510, 520, 530, 540, 550) rörelsevektor skalas baserat på ett temporalt avstånd mellan den sammansatta bilden och en referensbild av det sammansatta blocket (500, 510, 520, 530, 540, 550).
5. Metod i enlighet med krav 2, varvid det sammansatta blockets (500, 510, 520, 530, 540, 550) rörelsevektor skalas baserat på ett första temporalt avstånd och ett andra temporalt avstånd, varvid det första temporala avståndet är ett temporalt avstånd mellan en aktuell bild med det aktuella blocket och en referensbild av det aktuella blocket och det andra temporala avståndet är ett temporalt avstånd mellan den sammansatta bilden och en referensbild av det sammansatta blocket (500, 510, 520, 530, 540, 550).
6. Anordning för avkodning av en videosignal, vilken anordning omfattar: en interprediktionsenhet konfigurerad att baserat på huruvida en nedre gräns av ett aktuellt block gränsar till en nedre gräns av en största kodningsenhet (LCU) bestämma ett sammanställt block i en sammanställd bild, konfigurerad att erhålla en temporal prediktionsrörelsevektor av det aktuella blocket med hjälp av en rörelsevektor av det sammanställda blocket, konfigurerad att generera en lista med rörelsevektorskandidater som innefattar den temporala prediktionsrörelsevektorn, och konfigurerad att baserat på den genererade listan med rörelsevektorskandidater utföra interprediktion av det aktuella blocket.
7. Anordning i enlighet med krav 6, varvid den temporala prediktionsrörelsevektorn erhålls genom skalning av det sammansatta blockets (500, 510, 520, 530, 540, 550) rörelsevektor.
8. Anordning i enlighet med krav 7, varvid det sammansatta blockets (500, 510, 520, 530, 540, 550) rörelsevektor skalas baserat på ett temporalt avstånd mellan en aktuell bild med det aktuella blocket och en referensbild av det aktuella blocket.
9. Anordning i enlighet med krav 7, varvid det sammansatta blockets (500, 510, 520, 530, 540, 550) rörelsevektor skalas baserat på ett temporalt avstånd mellan den sammansatta bilden och en referensbild av det sammansatta blocket (500, 510, 520, 530, 540, 550).
10. Anordning i enlighet med krav 7, varvid det sammansatta blockets (500, 510, 520, 530, 540, 550) rörelsevektor skalas baserat på ett första temporalt avstånd och ett andra temporalt avstånd, varvid det första temporala avståndet är ett temporalt avstånd mellan en aktuell bild med det aktuella blocket och en referensbild av det aktuella blocket och det andra temporala avståndet är ett temporalt av stånd mellan den sammansatta bilden och en referensbild av det sammansatta blocket (500, 510, 520, 530, 540, 550).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20110091782 | 2011-09-09 | ||
KR1020120039501A KR101204026B1 (ko) | 2011-09-09 | 2012-04-17 | 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치 |
PCT/KR2012/007174 WO2013036041A2 (ko) | 2011-09-09 | 2012-09-06 | 시간적 예측 움직임 벡터 유도 방법 및 이러한 방법을 사용하는 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
SE1551592A1 SE1551592A1 (sv) | 2015-12-03 |
SE538787C2 true SE538787C2 (sv) | 2016-11-22 |
Family
ID=47832709
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SE1551592A SE538787C2 (sv) | 2011-09-09 | 2012-09-06 | Metod för att utföra interprediktion av videosignal genom att adaptivt bestämma ett sammansatt block i en sammansatt bild |
SE1651149A SE1651149A1 (sv) | 2011-09-09 | 2012-09-06 | Metod för att härleda en temporal prediktionsrörelsesvektor och en anordning som använder metoden |
SE1651147A SE1651147A1 (sv) | 2011-09-09 | 2012-09-06 | Metod för att härleda en temporal prediktionsrörelsesvektor och en anordning som använder metoden |
SE1351475A SE538057C2 (sv) | 2011-09-09 | 2012-09-06 | Metod för att härleda en temporal prediktionsrörelsesvektoroch en anordning som använder metoden. |
SE1651148A SE1651148A1 (sv) | 2011-09-09 | 2012-09-06 | Metod för att härleda en temporal prediktionsrörelsesvektor och en anordning som använder metoden |
Family Applications After (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
SE1651149A SE1651149A1 (sv) | 2011-09-09 | 2012-09-06 | Metod för att härleda en temporal prediktionsrörelsesvektor och en anordning som använder metoden |
SE1651147A SE1651147A1 (sv) | 2011-09-09 | 2012-09-06 | Metod för att härleda en temporal prediktionsrörelsesvektor och en anordning som använder metoden |
SE1351475A SE538057C2 (sv) | 2011-09-09 | 2012-09-06 | Metod för att härleda en temporal prediktionsrörelsesvektoroch en anordning som använder metoden. |
SE1651148A SE1651148A1 (sv) | 2011-09-09 | 2012-09-06 | Metod för att härleda en temporal prediktionsrörelsesvektor och en anordning som använder metoden |
Country Status (14)
Country | Link |
---|---|
US (4) | US10523967B2 (sv) |
EP (2) | EP3179723B1 (sv) |
JP (7) | JP5745693B2 (sv) |
CN (19) | CN107404651B (sv) |
AU (1) | AU2012305071B2 (sv) |
BR (1) | BR112013022641B1 (sv) |
CA (2) | CA2829114C (sv) |
ES (1) | ES2487993B1 (sv) |
GB (7) | GB2562635B (sv) |
MX (4) | MX351052B (sv) |
PL (1) | PL231159B1 (sv) |
RU (10) | RU2716230C2 (sv) |
SE (5) | SE538787C2 (sv) |
WO (1) | WO2013036041A2 (sv) |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014501091A (ja) * | 2010-12-17 | 2014-01-16 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | インター予測方法及びその装置 |
SE538787C2 (sv) | 2011-09-09 | 2016-11-22 | Kt Corp | Metod för att utföra interprediktion av videosignal genom att adaptivt bestämma ett sammansatt block i en sammansatt bild |
SE1850158A2 (sv) | 2011-09-23 | 2018-12-11 | Kt Corp | Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande |
WO2015016536A1 (ko) * | 2013-07-30 | 2015-02-05 | 주식회사 케이티 | 복수의 레이어를 지원하는 영상의 부호화 및 복호화 방법 및 이를 이용하는 장치 |
CN105453562B (zh) | 2013-07-30 | 2018-12-25 | 株式会社Kt | 支持多个层的图像编码和解码方法以及使用该方法的装置 |
CN105453564B (zh) | 2013-07-30 | 2019-05-10 | 株式会社Kt | 支持多个层的图像编码和解码方法以及使用该方法的装置 |
US10368084B2 (en) * | 2014-11-27 | 2019-07-30 | Kt Corporation | Video signal processing method and device |
WO2017008255A1 (en) * | 2015-07-14 | 2017-01-19 | Mediatek Singapore Pte. Ltd. | Advanced intra prediction mode signaling in video coding |
US10313765B2 (en) | 2015-09-04 | 2019-06-04 | At&T Intellectual Property I, L.P. | Selective communication of a vector graphics format version of a video content item |
WO2017048008A1 (ko) * | 2015-09-17 | 2017-03-23 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측 방법 및 장치 |
CN105681788B (zh) * | 2016-04-07 | 2019-05-03 | 中星技术股份有限公司 | 视频编码方法和视频编码装置 |
CN109314785B (zh) * | 2016-04-08 | 2023-06-30 | 韩国电子通信研究院 | 用于导出运动预测信息的方法和装置 |
US10116957B2 (en) * | 2016-09-15 | 2018-10-30 | Google Inc. | Dual filter type for motion compensated prediction in video coding |
CN114501006A (zh) * | 2016-09-20 | 2022-05-13 | 株式会社Kt | 视频解码方法、视频编码方法和比特流解码装置 |
WO2018128223A1 (ko) * | 2017-01-03 | 2018-07-12 | 엘지전자 주식회사 | 영상 코딩 시스템에서 인터 예측 방법 및 장치 |
EP3383043A1 (en) | 2017-03-27 | 2018-10-03 | Thomson Licensing | Methods and apparatus for picture encoding and decoding |
JP6867870B2 (ja) | 2017-05-18 | 2021-05-12 | スタンレー電気株式会社 | 車両用灯具 |
US11558633B2 (en) * | 2017-11-01 | 2023-01-17 | Vid Scale, Inc. | Sub-block motion derivation and decoder-side motion vector refinement for merge mode |
CN118042154A (zh) * | 2018-01-25 | 2024-05-14 | 三星电子株式会社 | 使用基于子块的运动补偿进行视频信号处理的方法和装置 |
US11233996B2 (en) * | 2018-02-22 | 2022-01-25 | Lg Electronics Inc. | Image decoding method and apparatus according to block division structure in image coding system |
CN118381911A (zh) | 2018-03-21 | 2024-07-23 | Lx 半导体科技有限公司 | 图像编码/解码方法以及图像数据的发送方法 |
TWI704803B (zh) * | 2018-06-29 | 2020-09-11 | 大陸商北京字節跳動網絡技術有限公司 | 運動信息共享的限制 |
KR20210025537A (ko) | 2018-06-29 | 2021-03-09 | 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 | 하나 또는 다수의 룩업 테이블들을 사용하여 이전에 코딩된 모션 정보를 순서대로 저장하고 이를 사용하여 후속 블록들을 코딩하는 개념 |
JP7193629B2 (ja) | 2018-06-29 | 2022-12-20 | 北京字節跳動網絡技術有限公司 | 更新されるべき若しくは更新しない何れかのlut |
TWI744661B (zh) | 2018-06-29 | 2021-11-01 | 大陸商北京字節跳動網絡技術有限公司 | 要根據模式檢查的查找表中的運動候選的數量 |
CN114885173A (zh) | 2018-06-29 | 2022-08-09 | 抖音视界(北京)有限公司 | Lut中的运动候选的检查顺序 |
CN110662039B (zh) | 2018-06-29 | 2022-06-07 | 北京字节跳动网络技术有限公司 | 查找表的更新:fifo、约束的fifo |
TWI719525B (zh) | 2018-06-29 | 2021-02-21 | 大陸商北京字節跳動網絡技術有限公司 | Lut與amvp之間的交互 |
WO2020003283A1 (en) | 2018-06-29 | 2020-01-02 | Beijing Bytedance Network Technology Co., Ltd. | Conditions for updating luts |
EP3791585A1 (en) | 2018-06-29 | 2021-03-17 | Beijing Bytedance Network Technology Co. Ltd. | Partial/full pruning when adding a hmvp candidate to merge/amvp |
WO2020008352A1 (en) | 2018-07-02 | 2020-01-09 | Beijing Bytedance Network Technology Co., Ltd. | Update of look-up tables |
KR102496711B1 (ko) * | 2018-07-02 | 2023-02-07 | 엘지전자 주식회사 | 인터 예측 모드 기반 영상 처리 방법 및 이를 위한 장치 |
CN117241039A (zh) | 2018-08-28 | 2023-12-15 | 华为技术有限公司 | 帧间预测方法、装置以及视频编码器和视频解码器 |
WO2020047289A1 (en) * | 2018-08-29 | 2020-03-05 | Beijing Dajia Internet Information Technology Co., Ltd. | Methods and apparatus of video coding using subblock-based temporal motion vector prediction |
CN111064959B (zh) | 2018-09-12 | 2023-09-01 | 北京字节跳动网络技术有限公司 | 要检查多少个hmvp候选 |
GB2579763B (en) * | 2018-09-21 | 2021-06-09 | Canon Kk | Video coding and decoding |
GB2577318B (en) | 2018-09-21 | 2021-03-10 | Canon Kk | Video coding and decoding |
JP7459069B2 (ja) | 2018-09-21 | 2024-04-01 | オッポ広東移動通信有限公司 | 映像信号符号化/復号化方法及びその装置 |
KR102658887B1 (ko) * | 2018-10-10 | 2024-04-18 | 삼성전자주식회사 | 움직임 벡터 차분값을 이용한 비디오 부호화 및 복호화 방법, 및 움직임 정보의 부호화 및 복호화 장치 |
GB2578151B (en) | 2018-10-18 | 2021-06-09 | Canon Kk | Video coding and decoding |
GB2578150C (en) | 2018-10-18 | 2022-05-18 | Canon Kk | Video coding and decoding |
JP7281890B2 (ja) | 2018-10-24 | 2023-05-26 | シャープ株式会社 | 動画像符号化装置および動画像復号装置 |
EP3888355A4 (en) | 2019-01-10 | 2022-03-23 | Beijing Bytedance Network Technology Co., Ltd. | LOOKUP TABLE UPDATE INVOCATION |
CN113383554B (zh) | 2019-01-13 | 2022-12-16 | 北京字节跳动网络技术有限公司 | LUT和共享Merge列表之间的交互 |
CN113302937B (zh) | 2019-01-16 | 2024-08-02 | 北京字节跳动网络技术有限公司 | 运动候选推导 |
CN113615193B (zh) | 2019-03-22 | 2024-06-25 | 北京字节跳动网络技术有限公司 | Merge列表构建和其他工具之间的交互 |
CN113347434B (zh) * | 2019-06-21 | 2022-03-29 | 杭州海康威视数字技术股份有限公司 | 预测模式的解码、编码方法及装置 |
BR112022002493A2 (pt) | 2019-08-10 | 2022-04-26 | Beijing Bytedance Network Tech Co Ltd | Método e aparelho para processamento de vídeo, e, mídia legível por computador com código armazenado na mesma |
CN117676135A (zh) | 2019-10-18 | 2024-03-08 | 北京字节跳动网络技术有限公司 | 子图片与环路滤波之间的相互影响 |
CN115176466A (zh) * | 2020-02-14 | 2022-10-11 | 抖音视界有限公司 | 视频比特流中的子图片信息信令 |
JP7575475B2 (ja) * | 2020-03-23 | 2024-10-29 | 北京字節跳動網絡技術有限公司 | アフィンマージおよびアフィン動きベクトル予測モードの予測微調整 |
CN113840148A (zh) * | 2020-06-24 | 2021-12-24 | Oppo广东移动通信有限公司 | 帧间预测方法、编码器、解码器以及计算机存储介质 |
CN111698517B (zh) * | 2020-06-29 | 2022-07-12 | Oppo广东移动通信有限公司 | 运动矢量的确定方法、装置、电子设备和可读存储介质 |
Family Cites Families (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2003174C1 (ru) | 1990-01-22 | 1993-11-15 | Санкт-Петербургский государственный электротехнический университет им.В.И.Уль нова (Ленина) | Способ распознавани изображений |
US5508744A (en) | 1993-03-12 | 1996-04-16 | Thomson Consumer Electronics, Inc. | Video signal compression with removal of non-correlated motion vectors |
JP3640318B2 (ja) * | 1995-09-01 | 2005-04-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ディジタル画像の符号化方法及びシステム |
EP1305951A2 (en) | 2000-07-20 | 2003-05-02 | Giant Leap Ahead Limited | Method and apparatus for determining motion vectors in dynamic images |
RU2182727C2 (ru) * | 2000-07-20 | 2002-05-20 | Дворкович Александр Викторович | Способ поиска векторов движения деталей в динамических изображениях |
US20030099294A1 (en) | 2001-11-27 | 2003-05-29 | Limin Wang | Picture level adaptive frame/field coding for digital video content |
KR100446083B1 (ko) | 2002-01-02 | 2004-08-30 | 삼성전자주식회사 | 움직임 추정 및 모드 결정 장치 및 방법 |
WO2003102872A2 (en) * | 2002-05-30 | 2003-12-11 | Koninklijke Philips Electronics N.V. | Unit for and method of estimating a motion vector |
CN1312927C (zh) | 2002-07-15 | 2007-04-25 | 株式会社日立制作所 | 动态图像编码方法及解码方法 |
KR100865034B1 (ko) | 2002-07-18 | 2008-10-23 | 엘지전자 주식회사 | 모션 벡터 예측 방법 |
CA2500301C (en) | 2002-10-01 | 2013-05-14 | Thomson Licensing S.A. | Implicit weighting of reference pictures in a video decoder |
US7801217B2 (en) | 2002-10-01 | 2010-09-21 | Thomson Licensing | Implicit weighting of reference pictures in a video encoder |
US7408986B2 (en) | 2003-06-13 | 2008-08-05 | Microsoft Corporation | Increasing motion smoothness using frame interpolation with motion analysis |
US20040258154A1 (en) * | 2003-06-19 | 2004-12-23 | Microsoft Corporation | System and method for multi-stage predictive motion estimation |
US7609763B2 (en) * | 2003-07-18 | 2009-10-27 | Microsoft Corporation | Advanced bi-directional predictive coding of video frames |
CN1839632A (zh) | 2003-08-22 | 2006-09-27 | 皇家飞利浦电子股份有限公司 | 用于速率-失真-复杂度优化的视频编码的运动矢量联合时空指向尺度预测和编码 |
US8064520B2 (en) | 2003-09-07 | 2011-11-22 | Microsoft Corporation | Advanced bi-directional predictive coding of interlaced video |
BR0318528A (pt) | 2003-10-09 | 2006-09-12 | Thomson Licensing | processo de derivação de modo direto para encobrimento de erros |
CA2547891C (en) * | 2003-12-01 | 2014-08-12 | Samsung Electronics Co., Ltd. | Method and apparatus for scalable video encoding and decoding |
KR100597402B1 (ko) | 2003-12-01 | 2006-07-06 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
KR100596706B1 (ko) | 2003-12-01 | 2006-07-04 | 삼성전자주식회사 | 스케일러블 비디오 코딩 및 디코딩 방법, 이를 위한 장치 |
JP3879741B2 (ja) | 2004-02-25 | 2007-02-14 | ソニー株式会社 | 画像情報符号化装置および画像情報符号化方法 |
KR100694059B1 (ko) * | 2004-09-30 | 2007-03-12 | 삼성전자주식회사 | 멀티 타임 스캔 방식에 기초한 인터 모드 인코딩 및디코딩 방법 및 장치 |
KR100888962B1 (ko) * | 2004-12-06 | 2009-03-17 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
KR100703770B1 (ko) | 2005-03-25 | 2007-04-06 | 삼성전자주식회사 | 가중 예측을 이용한 비디오 코딩 및 디코딩 방법, 이를위한 장치 |
WO2006109209A1 (en) | 2005-04-12 | 2006-10-19 | Koninklijke Philips Electronics N.V. | Video processing with region-based multiple-pass motion estimation and update of temporal motion vector candidates |
KR100896279B1 (ko) | 2005-04-15 | 2009-05-07 | 엘지전자 주식회사 | 영상 신호의 스케일러블 인코딩 및 디코딩 방법 |
JP2006303734A (ja) | 2005-04-18 | 2006-11-02 | Victor Co Of Japan Ltd | 動画像符号化装置及びそのプログラム |
KR20060123939A (ko) | 2005-05-30 | 2006-12-05 | 삼성전자주식회사 | 영상의 복부호화 방법 및 장치 |
US8761258B2 (en) | 2005-06-17 | 2014-06-24 | The Hong Kong University Of Science And Technology | Enhanced block-based motion estimation algorithms for video compression |
US8175167B2 (en) | 2005-07-01 | 2012-05-08 | Sonic Solutions Llc | Method, apparatus and system for use in multimedia signal encoding |
KR20070038396A (ko) | 2005-10-05 | 2007-04-10 | 엘지전자 주식회사 | 영상 신호의 인코딩 및 디코딩 방법 |
KR100728031B1 (ko) * | 2006-01-23 | 2007-06-14 | 삼성전자주식회사 | 가변 블록 크기 움직임 예측을 위한 부호화 모드 결정 방법및 장치 |
JP5247677B2 (ja) | 2006-03-30 | 2013-07-24 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号のデコーディング/エンコーディング方法及び装置 |
CN101455082B (zh) * | 2006-03-30 | 2013-02-13 | Lg电子株式会社 | 用于解码/编码视频信号的方法和装置 |
US20100091845A1 (en) | 2006-03-30 | 2010-04-15 | Byeong Moon Jeon | Method and apparatus for decoding/encoding a video signal |
CN101090491B (zh) * | 2006-06-16 | 2016-05-18 | 香港科技大学 | 用于视频压缩的增强的基于块的运动估计算法 |
EP2030450B1 (en) | 2006-06-19 | 2015-01-07 | LG Electronics Inc. | Method and apparatus for processing a video signal |
CN101102503A (zh) | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 视频分层编码层间运动矢量的预测方法 |
WO2008023968A1 (en) | 2006-08-25 | 2008-02-28 | Lg Electronics Inc | A method and apparatus for decoding/encoding a video signal |
US20080101474A1 (en) * | 2006-11-01 | 2008-05-01 | Yi-Jen Chiu | Optimizing the storage and reducing the computation of reference picture list processing in video decoding |
CN101222638B (zh) * | 2007-01-08 | 2011-12-07 | 华为技术有限公司 | 多视视频编解码方法及装置 |
CN101669367A (zh) | 2007-03-02 | 2010-03-10 | Lg电子株式会社 | 用于解码/编码视频信号的方法及设备 |
US8488677B2 (en) | 2007-04-25 | 2013-07-16 | Lg Electronics Inc. | Method and an apparatus for decoding/encoding a video signal |
CN101119493B (zh) | 2007-08-30 | 2010-12-01 | 威盛电子股份有限公司 | 区块式数字编码图像的译码方法及装置 |
US20090116558A1 (en) | 2007-10-15 | 2009-05-07 | Nokia Corporation | Motion skip and single-loop encoding for multi-view video content |
JP2011501555A (ja) | 2007-10-16 | 2011-01-06 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号処理方法及び装置 |
US8908765B2 (en) | 2007-11-15 | 2014-12-09 | General Instrument Corporation | Method and apparatus for performing motion estimation |
US9641861B2 (en) | 2008-01-25 | 2017-05-02 | Mediatek Inc. | Method and integrated circuit for video processing |
CN101540902B (zh) * | 2008-03-20 | 2011-02-02 | 华为技术有限公司 | 运动矢量的缩放方法和装置、编解码方法和系统 |
JP5681861B2 (ja) * | 2008-03-31 | 2015-03-11 | メディメトリクス ペルソナリズド ドルグ デリヴェリー ベー ヴェ | センサを有する嚥下型カプセルを作成する方法 |
JP2010011075A (ja) * | 2008-06-26 | 2010-01-14 | Toshiba Corp | 動画像符号化及び動画像復号化の方法及び装置 |
JP2010016454A (ja) * | 2008-07-01 | 2010-01-21 | Sony Corp | 画像符号化装置および方法、画像復号装置および方法、並びにプログラム |
TWI374672B (en) | 2008-07-04 | 2012-10-11 | Univ Nat Taiwan | Seamless wireless video transmission for multimedia applications |
KR20110040893A (ko) | 2008-07-10 | 2011-04-20 | 미쓰비시덴키 가부시키가이샤 | 화상 부호화 장치, 화상 복호 장치, 화상 부호화 방법 및 화상 복호 방법 |
JP2012504925A (ja) * | 2008-10-06 | 2012-02-23 | エルジー エレクトロニクス インコーポレイティド | ビデオ信号の処理方法及び装置 |
CN101540926B (zh) | 2009-04-15 | 2010-10-27 | 南京大学 | 基于h.264的立体视频编解码方法 |
CN102883160B (zh) | 2009-06-26 | 2016-06-29 | 华为技术有限公司 | 视频图像运动信息获取方法、装置及设备、模板构造方法 |
KR101456498B1 (ko) | 2009-08-14 | 2014-10-31 | 삼성전자주식회사 | 계층적 부호화 단위의 스캔 순서를 고려한 비디오 부호화 방법 및 장치, 비디오 복호화 방법 및 장치 |
CN102361671B (zh) | 2009-08-20 | 2013-08-21 | 金落成 | 朝前后倾斜椅子而摇荡的秋千 |
JP2011097572A (ja) * | 2009-09-29 | 2011-05-12 | Canon Inc | 動画像符号化装置 |
WO2011070730A1 (ja) | 2009-12-07 | 2011-06-16 | 日本電気株式会社 | 映像符号化装置および映像復号装置 |
CN101860754B (zh) * | 2009-12-16 | 2013-11-13 | 香港应用科技研究院有限公司 | 运动矢量编码和解码的方法和装置 |
KR20110068792A (ko) | 2009-12-16 | 2011-06-22 | 한국전자통신연구원 | 적응적 영상 부호화 장치 및 방법 |
JP2011151775A (ja) * | 2009-12-22 | 2011-08-04 | Jvc Kenwood Holdings Inc | 画像復号装置、画像復号方法および画像復号プログラム |
KR101522850B1 (ko) | 2010-01-14 | 2015-05-26 | 삼성전자주식회사 | 움직임 벡터를 부호화, 복호화하는 방법 및 장치 |
CN102131094A (zh) * | 2010-01-18 | 2011-07-20 | 联发科技股份有限公司 | 运动预测方法 |
US9036692B2 (en) * | 2010-01-18 | 2015-05-19 | Mediatek Inc. | Motion prediction method |
KR20120086232A (ko) | 2011-01-25 | 2012-08-02 | (주)휴맥스 | 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치 |
KR20110090781A (ko) * | 2010-02-02 | 2011-08-10 | (주)휴맥스 | 율-왜곡 최적화를 위한 영상 부호화/복호화 방법 및 이를 수행하는 장치 |
US20120300850A1 (en) | 2010-02-02 | 2012-11-29 | Alex Chungku Yie | Image encoding/decoding apparatus and method |
KR101495724B1 (ko) | 2010-02-02 | 2015-02-25 | 삼성전자주식회사 | 계층적 데이터 단위의 스캔 순서에 기반한 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법과 그 장치 |
CA2935176C (en) * | 2010-04-23 | 2018-03-13 | M&K Holdings Inc. | Image encoding apparatus |
PL2568706T3 (pl) | 2010-05-04 | 2019-06-28 | Lg Electronics Inc. | Sposób i urządzenie do przetwarzania sygnału wideo |
US9124898B2 (en) | 2010-07-12 | 2015-09-01 | Mediatek Inc. | Method and apparatus of temporal motion vector prediction |
EP3907999B1 (en) * | 2010-09-02 | 2023-11-22 | LG Electronics, Inc. | Inter prediction |
KR101033243B1 (ko) | 2010-11-17 | 2011-05-06 | 엘아이지넥스원 주식회사 | 객체 추적 방법 및 장치 |
US8824558B2 (en) | 2010-11-23 | 2014-09-02 | Mediatek Inc. | Method and apparatus of spatial motion vector prediction |
US9137544B2 (en) | 2010-11-29 | 2015-09-15 | Mediatek Inc. | Method and apparatus for derivation of mv/mvp candidate for inter/skip/merge modes |
US8711940B2 (en) * | 2010-11-29 | 2014-04-29 | Mediatek Inc. | Method and apparatus of motion vector prediction with extended motion vector predictor |
US10142630B2 (en) * | 2010-12-10 | 2018-11-27 | Texas Instruments Incorporated | Mode adaptive intra prediction smoothing in video coding |
JP2014501091A (ja) | 2010-12-17 | 2014-01-16 | エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート | インター予測方法及びその装置 |
WO2012081949A2 (ko) | 2010-12-17 | 2012-06-21 | 한국전자통신연구원 | 인터 예측 방법 및 그 장치 |
US9532050B2 (en) | 2011-01-25 | 2016-12-27 | Sun Patent Trust | Moving picture coding method and moving picture decoding method |
US9319716B2 (en) | 2011-01-27 | 2016-04-19 | Qualcomm Incorporated | Performing motion vector prediction for video coding |
KR101935620B1 (ko) | 2011-04-12 | 2019-01-04 | 선 페이턴트 트러스트 | 동화상 부호화 방법, 동화상 부호화 장치, 동화상 복호화 방법, 동화상 복호화 장치, 및 동화상 부호화 복호화 장치 |
US9247266B2 (en) * | 2011-04-18 | 2016-01-26 | Texas Instruments Incorporated | Temporal motion data candidate derivation in video coding |
SE538787C2 (sv) | 2011-09-09 | 2016-11-22 | Kt Corp | Metod för att utföra interprediktion av videosignal genom att adaptivt bestämma ett sammansatt block i en sammansatt bild |
US9392235B2 (en) | 2011-11-18 | 2016-07-12 | Google Technology Holdings LLC | Explicit way for signaling a collocated reference picture for video coding |
KR101606661B1 (ko) | 2011-11-18 | 2016-03-25 | 모토로라 모빌리티 엘엘씨 | 고효율 비디오 코딩(hevc)을 위한 병치된 화상을 시그널링하기 위한 명시적 방법 |
CN104137547B (zh) * | 2011-11-21 | 2018-02-23 | 谷歌技术控股有限责任公司 | 用于时间预测的共位图片的隐式确定以及组合隐式和显式确定 |
US9525861B2 (en) * | 2012-03-14 | 2016-12-20 | Qualcomm Incorporated | Disparity vector prediction in video coding |
US9445076B2 (en) * | 2012-03-14 | 2016-09-13 | Qualcomm Incorporated | Disparity vector construction method for 3D-HEVC |
US10200709B2 (en) * | 2012-03-16 | 2019-02-05 | Qualcomm Incorporated | High-level syntax extensions for high efficiency video coding |
US9503720B2 (en) * | 2012-03-16 | 2016-11-22 | Qualcomm Incorporated | Motion vector coding and bi-prediction in HEVC and its extensions |
CN104937939B (zh) | 2012-04-11 | 2018-10-23 | 谷歌技术控股有限责任公司 | 用于时间运动矢量预测符标志的编码器和解码器及其方法 |
US9549177B2 (en) | 2012-04-11 | 2017-01-17 | Google Technology Holdings LLC | Evaluation of signaling of collocated reference picture for temporal prediction |
US9325990B2 (en) * | 2012-07-09 | 2016-04-26 | Qualcomm Incorporated | Temporal motion vector prediction in video coding extensions |
-
2012
- 2012-09-06 SE SE1551592A patent/SE538787C2/sv unknown
- 2012-09-06 GB GB1809871.5A patent/GB2562635B/en active Active
- 2012-09-06 MX MX2016010978A patent/MX351052B/es unknown
- 2012-09-06 BR BR112013022641-2A patent/BR112013022641B1/pt active IP Right Grant
- 2012-09-06 CN CN201710735700.9A patent/CN107404651B/zh active Active
- 2012-09-06 MX MX2013010155A patent/MX2013010155A/es active IP Right Grant
- 2012-09-06 WO PCT/KR2012/007174 patent/WO2013036041A2/ko active Application Filing
- 2012-09-06 RU RU2016133566A patent/RU2716230C2/ru active
- 2012-09-06 PL PL407911A patent/PL231159B1/pl unknown
- 2012-09-06 RU RU2016133570A patent/RU2716231C2/ru active
- 2012-09-06 CN CN201710737674.3A patent/CN107483929B/zh not_active Expired - Fee Related
- 2012-09-06 RU RU2016133536A patent/RU2636117C1/ru active
- 2012-09-06 RU RU2016133580A patent/RU2716229C2/ru active
- 2012-09-06 EP EP17153707.9A patent/EP3179723B1/en active Active
- 2012-09-06 CN CN201710735665.0A patent/CN107592528B/zh active Active
- 2012-09-06 CA CA2829114A patent/CA2829114C/en active Active
- 2012-09-06 CA CA2937483A patent/CA2937483C/en active Active
- 2012-09-06 SE SE1651149A patent/SE1651149A1/sv not_active Application Discontinuation
- 2012-09-06 RU RU2016133485A patent/RU2646384C1/ru active
- 2012-09-06 CN CN201710736230.8A patent/CN107580220B/zh active Active
- 2012-09-06 CN CN201710736976.9A patent/CN107483927B/zh active Active
- 2012-09-06 CN CN201710735677.3A patent/CN107635140B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710736365.4A patent/CN107483926B/zh active Active
- 2012-09-06 JP JP2014516928A patent/JP5745693B2/ja active Active
- 2012-09-06 RU RU2016133481A patent/RU2635235C1/ru active
- 2012-09-06 ES ES201390098A patent/ES2487993B1/es active Active
- 2012-09-06 CN CN201710735853.3A patent/CN107483925B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710736975.4A patent/CN107396099B/zh active Active
- 2012-09-06 SE SE1651147A patent/SE1651147A1/sv not_active Application Discontinuation
- 2012-09-06 CN CN201710735663.1A patent/CN107592527B/zh active Active
- 2012-09-06 EP EP12829566.4A patent/EP2672710B1/en active Active
- 2012-09-06 RU RU2016133579A patent/RU2716563C2/ru active
- 2012-09-06 CN CN201710737681.3A patent/CN107592529B/zh not_active Expired - Fee Related
- 2012-09-06 RU RU2016133501A patent/RU2622849C1/ru active
- 2012-09-06 GB GB1716271.0A patent/GB2559445B/en active Active
- 2012-09-06 US US14/002,444 patent/US10523967B2/en active Active
- 2012-09-06 GB GB1321881.3A patent/GB2508739B/en active Active
- 2012-09-06 SE SE1351475A patent/SE538057C2/sv unknown
- 2012-09-06 RU RU2013140661/08A patent/RU2600547C2/ru active
- 2012-09-06 CN CN201280013098.3A patent/CN103430550B/zh active Active
- 2012-09-06 GB GB1716273.6A patent/GB2562129B/en active Active
- 2012-09-06 GB GB1716270.2A patent/GB2559227B/en active Active
- 2012-09-06 SE SE1651148A patent/SE1651148A1/sv not_active Application Discontinuation
- 2012-09-06 MX MX2016003898A patent/MX351041B/es unknown
- 2012-09-06 AU AU2012305071A patent/AU2012305071B2/en active Active
- 2012-09-06 CN CN201710737242.2A patent/CN107483928B/zh not_active Expired - Fee Related
- 2012-09-06 GB GB1716265.2A patent/GB2559226B/en active Active
- 2012-09-06 CN CN201710736236.5A patent/CN107580221B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710736224.2A patent/CN107580219B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201710735855.2A patent/CN107580218B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201610740915.5A patent/CN106170088B/zh active Active
- 2012-09-06 CN CN201710736974.XA patent/CN107396098B/zh not_active Expired - Fee Related
- 2012-09-06 CN CN201410601678.5A patent/CN104349164B/zh active Active
- 2012-09-06 GB GB1716275.1A patent/GB2562130B/en active Active
- 2012-09-06 RU RU2016133546A patent/RU2636118C1/ru active
-
2013
- 2013-09-04 MX MX2015010607A patent/MX338137B/es unknown
-
2015
- 2015-01-26 US US14/604,934 patent/US20150208093A1/en not_active Abandoned
- 2015-04-16 JP JP2015084318A patent/JP5993484B2/ja active Active
- 2015-04-16 JP JP2015084331A patent/JP6062480B2/ja active Active
- 2015-08-14 JP JP2015160175A patent/JP6062508B2/ja active Active
- 2015-08-14 JP JP2015160173A patent/JP6062507B2/ja active Active
-
2016
- 2016-12-13 JP JP2016241358A patent/JP6322693B2/ja active Active
-
2018
- 2018-04-09 JP JP2018074837A patent/JP6619045B2/ja active Active
-
2019
- 2019-11-13 US US16/682,473 patent/US10805639B2/en active Active
-
2020
- 2020-09-08 US US17/014,449 patent/US11089333B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
SE538787C2 (sv) | Metod för att utföra interprediktion av videosignal genom att adaptivt bestämma ett sammansatt block i en sammansatt bild | |
SE1850140A2 (sv) | Förfarande för att utse ett kandidatblock för fusion samt en anordning för tillämpning av detta förfarande | |
AU2016216724B2 (en) | Method for deriving a temporal predictive motion vector, and apparatus using the method |