Golomb-Code
Der Golomb-Code ist eine Entropiekodierung für alle nichtnegativen ganzen Zahlen, die im Gegensatz zu anderen Codes der Quellenkodierung nur einen endlichen Bereich (z. B. den Wertebereich 0–255) darstellen können. Er wurde 1966 von Solomon W. Golomb entwickelt.[1] Der Code verwendet wenige Bits für kleine und viele Bits für größere Zahlen. Dabei kann er über einen positiven, ganzzahligen Parameter gesteuert werden. Je größer der Parameter, desto langsamer wächst die Anzahl der zur Darstellung benötigten Bits, aber desto größer ist die Anzahl der minimal benötigten Bits für die kleinen Zahlen.
Der Rice-Code ist eine Variante des Golomb-Codes, bei dem der Steuerparameter eine Zweierpotenz ist. Diese Einschränkung ist von Vorteil, da insbesondere in der digitalen Verarbeitung die Multiplikation bzw. Division von 2 sehr effizient implementiert werden kann. Der Rice-Code wurde 1971 von Robert F. Rice und J. Plaunt vorgestellt.[2] Einige Varianten des Rice-Codes werden auch als Exponentieller Golomb-Code (englisch: Exponential-Golomb Code) bezeichnet.
Der Code kann im Bereich der verlustlosen Datenkompression verwendet werden, wenn die Wahrscheinlichkeiten der zu kodierenden Quellendaten (näherungsweise) eine geometrische Verteilung bilden. Typische Anwendungsbereiche sind, als ein Teilverfahren neben anderen Algorithmen, die Bildkompression und Audiodatenkompression. Beispielsweise verwenden das Videokompressionsformat H.264 und das Audiokompressionsformat FLAC[3] je eine verschiedene Variante des exponentiellen Golomb-Codes.
Arbeitsweise
BearbeitenDer Code arbeitet mit der Idee, die darzustellende Zahl durch einen Quotienten und den Rest bei einer Division mit einem Parameter zu ersetzen.
Die Zahl mit wird durch
und
beschrieben. Zur besseren Beschreibung wird noch die Zahl
benötigt. Als erstes wird q + 1 unär ausgegeben, d. h., es werden „1“-Bits gefolgt von einer „0“ abgelegt.
Der Rest wird dann in einer „abgeschnittenen binären Darstellung“ (Truncated-Binary-Encoding) genannten Codierung abgelegt. Diese Darstellung legt einen Teil der Werte, falls möglich, mit Bits und den anderen Teil mit Bits ab. Die Anzahl der Werte, die mit Bits abgelegt werden können, ist .
Beispiele
BearbeitenDie Darstellung der Zahl 10 mit einem Parameter 4:
Abhängig von wird die Codierung vervollständigt:
- falls < ist, wird als Binärcode mit der Länge geschrieben.
- falls ≥ ist, wird als Binärcode mit der Länge geschrieben.
Daraus resultiert die Bitfolge 110 10
. Das Leerzeichen zeigt den Übergang vom Quotienten zum Rest.
Ein paar weitere Beispiele:
n | 0 | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
b=3 | 0 0 | 0 10 | 0 11 | 10 0 | 10 10 | 10 11 | 110 0 | 110 10 | 110 11 | 1110 0 | 1110 10 |
b=4 | 0 00 | 0 01 | 0 10 | 0 11 | 10 00 | 10 01 | 10 10 | 10 11 | 110 00 | 110 01 | 110 10 |
b=5 | 0 00 | 0 01 | 0 10 | 0 110 | 0 111 | 10 00 | 10 01 | 10 10 | 10 110 | 10 111 | 110 00 |
b=7 | 0 00 | 0 010 | 0 011 | 0 100 | 0 101 | 0 110 | 0 111 | 10 00 | 10 010 | 10 011 | 10 100 |
Anwendung
BearbeitenDer Golomb-Code kann angewendet werden, wenn Zahlen unbekannter Größe abgespeichert werden sollen, doch das eigentliche Anwendungsgebiet liegt in der Datenkompression.
Wenn die Wahrscheinlichkeiten der Zahlen eine bestimmte Verteilung (geometrische Verteilung) aufweisen, dann kann der Golomb-Code ähnlich effizient wie der Huffman-Code sein, ist dabei aber sparsamer mit Speicher, leichter zu implementieren und schneller in der Ausführung.
Rice-Code
BearbeitenDer Rice-Code ist eine Variante des Golomb-Codes, bei dem der Parameter eine Potenz von 2 ist. Diese Codes lassen sich sehr einfach mit Bitshiften und logischen Bitoperationen umsetzen.
Angenommen, es gilt . Dann ist
und
Das Symbol steht dabei für bitweises Verschieben nach rechts und für bitweise Und-Verknüpfung. wird dabei immer mit genau Bits und normal binär dargestellt.
Exponentieller Golomb-Code
BearbeitenDer exponentielle Golomb-Code ist eine weitere Variante des Rice-Codes und gleichzeitig identisch zum Elias-γ-Code, würde dort statt kodiert.
wird für jede Zahl genau als gewählt, was der „natürlichen“ Bitbreite von entspricht. Dann wird die unäre Codierung von nicht mit „1“-Bits gefolgt von „0“, sondern mit „0“-Bits gefolgt von „1“ umgesetzt. Da die binär gespeicherte Zahl immer an höchster Stelle eine „1“ aufweist, muss diese höchste „1“ nicht doppelt gespeichert werden. Die Enkodierung und Dekodierung vereinfachen sich somit zu folgenden Schritten:
- Zum Kodieren von : Schreibe viele „0“-Bits, danach schreibe mit der natürlichen Anzahl Bits.
- Zum Dekodieren von : Lese „0“-Bits bis einschließlich des ersten „1“-Bits, und lese so viele darauffolgende Bits, wie zuvor „0“-Bits gelesen wurden. Das Ergebnis ist dieser hintere Teil der kodierten Zahl minus 1.
Es zeigt sich, dass eine separate Speicherung von nicht notwendig ist, da es selbst Teil der kodierten Zahl ist.
Verallgemeinerung zu beliebiger Ordnung
BearbeitenDie Kodierung kann mithilfe des Konzepts der Ordnung verallgemeinert werden. Das obige Schema entspricht der Ordnung . Bei höheren Ordnungen geschieht eine Aufteilung der Zahl (nicht !) in Quotient und Rest ähnlich zum normalen Rice-Code. Der Dividend ist nun , d. h. und . Bildlich gesprochen werden die Bits der Zahl in den (festen) unteren Teil , der immer Bits hat, und den (variablen) Teil aufgeteilt.
Für die finale Kodierung wird im gewöhnlichen exponentiellen Golomb-Code kodiert, d. h. Ordnung 0 wie oben, und wird mit Bits (die laut Definition immer ausreichen) an das so kodierte angehängt. Eine kodierte Zahl umfasst also drei Teile, hier dargestellt anhand und der kodierten Zahl 489:
Der Vorteil dieser Kodierung besteht darin, dass der benötigte Speicherplatz für große Zahlen weniger als die beim Rice-Code benötigten („doppelt so viele Bits wie die Zahl selbst hat“) beträgt.
Der Parameter muss separat gewählt und gespeichert werden. Bei großen Datensätzen eignet sich häufig nicht ein für alle Daten, daher gibt es verschiedene Verfahren, ein variables zu wählen. Als einfachen Ansatz verwendet FLAC die Möglichkeit, mehrere Blöcke variabler Größe mit einem jeweils eigenen zu kodieren. Der Melcode-Algorithmus und seine Varianten passen automatisch anhand eines einfachen Algorithmus an, welcher symmetrisch auf Enkodier- und Dekodierseite angewandt wird und ohne explizite Speicherung von auskommt.[4][5]
Verallgemeinerung für negative Zahlen
BearbeitenRice-Code und allgemeiner exponentieller Golomb-Code können zwar 0, aber keine negativen Zahlen kodieren. Dies wird durch eine der Zickzackkodierungen möglich gemacht, welche die negativen auf die positiven Zahlen abbilden, aber die Eigenschaften der Entropiekodierung erhalten; d. h. betragsmäßig kleine Zahlen werden weiterhin auf kleine Zahlen abgebildet. Konkret bildet man eine Hälfte der ganzen Zahlen auf die geraden natürlichen Zahlen ab und die andere Hälfte auf die ungeraden natürlichen Zahlen:
Danach folgt normale Rice-Kodierung oder exponentielle Golomb-Kodierung. In der Praxis lassen sich sowohl De- als auch Enkodierung dieses Formats durch Benutzung von Bitmasken und Shifts beschleunigen.
Einzelnachweise
Bearbeiten- ↑ Solomon W. Golomb: Run-Length Encodings. In: IEEE Transactions on Information Theory IT-12 (3). 1966, S. 399–401, abgerufen am 19. April 2013.
- ↑ Robert F. Rice, J. Plaunt: Adaptive Variable-Length Coding for Efficient Compression of Spacecraft Television Data. Hrsg.: IEEE Transactions on Communication Technology. Band 19, Nr. 6. California Institute of Technology, Pasadena 1971, S. 889–897, doi:10.1109/TCOM.1971.1090789.
- ↑ van Beurden & Weaver: Free Lossless Audio Codec: 5.4. Residual Coding. In: Internet-Draft. Internet Engineering Task Force, 11. Oktober 2022, abgerufen am 18. Oktober 2022 (englisch).
- ↑ Walter D. Leon-Salas, Sina Balkir, Khalid Sayood, Nathan Schemm, Michael W. Hoffman: A CMOS Imager With Focal Plane Compression Using Predictive Coding. In: IEEE Journal of Solid-State Circuits. Band 42, Nr. 11, November 2007, ISSN 0018-9200, S. 2555–2572, doi:10.1109/JSSC.2007.907191 (ieee.org [abgerufen am 16. August 2023]).
- ↑ M.J. Weinberger, G. Seroussi, G. Sapiro: The LOCO-I lossless image compression algorithm: principles and standardization into JPEG-LS. In: IEEE Transactions on Image Processing. Band 9, Nr. 8, August 2000, S. 1309–1324, doi:10.1109/83.855427 (ieee.org [abgerufen am 16. August 2023]).