Optimierung der MPEG-Encoding-Qualität

Transcription

Optimierung der MPEG-Encoding-Qualität
MPEG-Codierung
Optimierung der
MPEG-Encoding-Qualität
Technologisch wurde die MPEG-2-Videokomprimierung durch erweiterte Komprimierungstechniken wie zum Beispiel AVC überholt, sie ist aber weiterhin das Rückgrat gegenwärtiger
Übertragungen. Die MPEG-Spezifikation bietet die Flexibilität zum Erreichen ausgezeichneter Komprimierungseffektivität (Qualität pro Bitrate) und erreicht damit Ergebnisse wie
bedeutend fortgeschrittenere Spezifikationen. Techniken zur Verbesserung der MPEG-Komprimierungsqualität wie zum Beispiel die adaptive Bewegungssuchreichweite, anwenderspezifische Quantisierungs-Matrizen und Szenenwechsel-Erkennung werden im Beitrag vorgestellt und erläutert.
MPEG-2 video compression has been technologically superseded by more advanced compression technologies such as AVC and yet remains the backbone of contemporary broadcasting.
The MPEG specification includes the flexibility to achieve excellent compression efficiency
(quality per bit-rate) approaching that of implementations of more advanced specifications.
Techniques for improving MPEG compression quality such as adaptive motion search range,
custom quantization matrixes, and scene change detection will be discussed.
neueren Spezifikationen und den Vorteilen
bestehender MPEG-Infrastrukturen erreichEinleitung
bar sind.
Bis vor 15 Jahren gab es für private Nutzer
Encodierqualität
fast keine digitalen Videos. Die ersten Videostreams, die mit der neuen, rechenintensiven MPEG ist ein verlustbehaftetes (lossy) CodierMPEG-Spezifikation übereinstimmten, erfor- format. Videodaten werden während des
derten eine spezielle Hardware-Karte, um das Komprimierungsprozesses verworfen und
Signal auf einem PC decodieren zu können. das daraus resultierende decodierte Video ist
Um einen Spielfilm komprimieren zu können, mit dem Quellsignal nicht mehr identisch.
benötigen mehrere Supercomputer eine Das Ziel der Komprimierung ist aber, Daten so
Woche.
zu verwerfen, dass keine sichtbare VerFortschritte bei der Hardware und den schlechterung der Videoqualität auftritt.
Algorithmen ermöglichen heute das Decodie- Exzessive MPEG-Datenkomprimierung führt
ren von MPEG-Signalen selbst auf batteriebe- zu Blockartefakten (Blockiness) im decodiertriebenen, kleinen Geräten und das Encodie- ten Signalstrom. Bild 1 zeigt das unkompriren auf modernen PCs kann schneller als in mierte Quellsignal im Vergleich zu einem
Echtzeit durchgeführt werden. Mit dem Ein- hochkomprimierten MPEG-Bild (Bild 2) mit
zug von MPEG in die Broadcast-Videosysteme sichtbaren Blockartefakten.
leisten Standards – wie zum Beispiel der AVCMPEG verwertet zeitliche (temporal) und
Standard – eine zwei- bis viermal höhere räumliche (spatial) Redundanzen innerhalb
Komprimierung, und noch effizentere Spezifi- des Videos, um die Informationsmenge zu
kationen wie HEVC befinden sich zurzeit in reduzieren, die für eine Videodarstellung
der Entwicklung.
erforderlich ist. Die Komprimierung eines
Die MPEG-Spezifikation schließt zahlrei- jeden Vollbilds beginnt mit einem Vergleich
che Möglichkeiten zur Optimierung der Enco- von Bildbereichen mit „Referenz”-Bildern,
dierqualität ein, die während der Integration die sich sequenziell vor und hinter dem aktuvon MPEG in den Encodier-Workflow für gene- ellen Bild befinden. Wird eine annehmbare
risches Video übersehen wurden. Mit etwas Übereinstimmung von einem oder beiden
Sorgfalt kann man Videocontent mit einer Referenzbildern gefunden, wird nur der FehQualität und in Bitraten encodieren, die mit ler (error) zwischen beiden Treffern und dem
aktuellen Bild zusammen mit einem Vektor,
der auf den Trefferort verweist, in das kompriMark D. Conover ist
mierte Signal übernommen. Bild 3 stellt die
Gründer und CTO der
Bewegungsvektoren (rot und blau) dar, die
PixelTools Corporation
die besten Übereinstimmungen repräsentiein Cupertino California
ren, die in den Referenzbildern einer VideoUSA
szene gefunden wurden, die einen Schwenk
Aus dem Englischen übernach rechts zum Inhalt hatte.
tragen von R. E. Wagner
Diese zeitliche Reduktion ist sehr effektiv in einem Video, das größtenteils nur
Standbilder enthält oder eine Bewegung
repräsentiert, die lineare Bild-zu-BildVeränderungen bei einem Kameraschwenk
enthält. Das Verfahren ist nicht für multidirektionale Bewegungen und zum Beispiel
explodierende Objekte geeignet.
MPEG überträgt dann die Informationen,
die von jedem Bild nach der Bewegunsgkompensation übrig bleiben, in einen räumlichen
Transformationsprozess, der wiederum die
Bild 1. Unkomprimiertes Originalbild
Bild 2. Bild nach einer verlustbehafteten
MPEG-Komprimierung
Bild 3. Bewegungsvektoren (rote und blaueLinien) in einem Bild, das nach rechts
geschwenkt wird
xx/2011 FKT
1
MPEG-Codierung
verbliebenen Vollbildinformationen in eine
Frequenzdomaine überführt, wodurch die
Informationen nochmals reduziert werden,
die benötigt werden, um das Vollbild darzustellen. Die räumliche Transformation funktioniert sehr gut bei weniger komplexen
Videosignalen, ist aber weniger effektiv bei
Videosignalen mit detaillierten Mustern wie
zum Beispiel Blättern, Meereswellen, Grafiken oder Text.
Bis zu diesem Punkt wurden noch keine
Videoinformationen verworfen und das
Videosignal kann wieder so hergestellt werden, dass es einer Kopie des Originals entspricht. Der Datenverlust bei der Videokomprimierung resultiert der Quantisierung der
Koeffizienten der Frequenzdomaine. Die
Quantisierung verringert die Anzahl der Frequenzkoeffizienten, die eingesetzt werden,
um alle Videobereiche zu repräsentieren. Je
höher der Grad der Quantisierung ist, desto
weniger Die Daten durch die Koeffizienten
repräsentiert, und je größer der Datenverlust
ist, umso größer ist auch die Gefahr, unerwünschte Artefakte zu erhalten. Im Bild 4
werden die Daten dargestellt, die aus dem
hochkomprimierten Bildsignal im Bild 2 eleminiert wurden. Es ist leicht erkennbar, dass
die Komponenten im oberen Frequenzbereich, wie zum Beispiel die Linien des Gebäudes und die Gesichtszüge, durch die Quantisierung stark verändert wurden.
Die Bildwechselraten-Steuerung bei der
Videocodierung moduliert die Quantisierung
eines jeden Videobereichs, um die bestmögliche Kompression oder Ausgabe-Bitrate zu
erreichen. Mit wenig oder konstanter Bewegung zwischen den Vollbildern und einfachen
Bildern kann die zeitliche und räumliche
Redundanzfähigkeit von MPEG qualitativ gute
Ergebnisse bei geringen Bandbreiten erzielen und dabei eine nur minimale Quantisierung erforderlich machen. In Videosignalen
mit zufälligen Bewegungen zwischen weniger
Bild 5. Auswahl von m_quants für jeden
Block über ein Vollbild (frame) dargestellt
aufwendigen Vollbildern und komplexen Bildern ist eine stärkere Quantisierung nötig,
um geringere Bitraten zu erreichen, die sich
auch in Codierartefakten ausdrücken können.
Im Bild 5 werden diese sogenannten
m_quants dargestellt, die für jeden Block des
Bildes auf einer Skala von 1 bis 32 ausgewählt wurden.
Mit einer intelligenten Codierung können
in komplexen Videosequenzen Codierartefakte minimiert werden. Einige Codierentscheidungen können im Encoder automatisiert werden; andere erfordern hingegen das
menschliche Eingreifen. Obwohl die nachfolgenden Techniken im Bezug auf MPEG-Codierungen betrachtet werden, können sie auch
bei neueren Spezifikationen wie zum Beispiel
AVC eingesetzt werden.
Techniken zur Qualitätsverbesserung
Einsatz eines hochwertigen Encoders
Software- und Hardware-Encoder sind zunehmend zuverlässig, standard- und spezifikationskompatibel und ihre Qualität hat sich in
den letzten 15 Jahren verbessert. Der ideale
Encoder sollte eine gute Bewegungsschätzung (motion estimation), eine intelligente
Bildwechselraten-Steuerung sowie eine
genaue Computerberechnung bieten und
standardkonforme Videoströme liefern. Eine
umfassende Encodierparamaterkontrolle, die
eine Anpassung der Parameter während des
Encodierens ermöglicht, schafft ideale
Voraussetzungen für den Anwender, um alle
MPEG-Encodierfähigkeiten optimal zu nutzen.
Erhöhung der Ausgangsbitrate
Bild 4. MPEG-Datenverlust beim Codieren
2
xx/2011 FKT
Eine Erhöhung der Ausgangsbitrate des
Videosignals ist die effektivste Art der Signalverbesserung. Die Ausspielung von MPEGDaten über Terrestrik, Satellit, Kabel oder
Blu-ray-Disc hat in Bezug auf die maximale
Bitrate typenbedingte Grenzen. Eine probate
Technik zum Debugging von Videoartefakten
bei einer gewünschten Bitrate besteht darin,
die Datenrate eines problembehafteten
Videostroms zu erhöhen und diesen einem
für diese hohe Bitrate nutzbaren Decoder
zuzuspielen. Bleiben die Artefakte bei der
erhöhten Bitrate erhalten, werden sie offensichtlich nicht durch den Codierprozess, sondern einen anderen Teil des Workflows
erzeugt.
Alternativ kann die Bitrate auch verringert werden, um die Komprimierungsartefakte sichtbar zu machen. Diese treten dann
stärker im geringer- als im höherratigen Bitratenstrom hervor. Komprimierungstechniken, die Artefakte bei einer geringen Bitrate
reduzieren, würden durch eine Anpassung
der Bitrate bis zum Maximum deren Bereinigen ermöglichen.
Verringerung der Ausgabe-Bildgröße
Je geringer die Videobildgröße ist, desto
weniger muss das Bild komprimiert werden,
um eine bestimmte Bitrate und damit gleichzeitig eine Verringerung der Gefahr von Encodier-Blockartefakten zu erreichen. Eine Reduzierung der Bildgröße vor dem eigentlichen
Encodieren trägt zur Verbesserung der Codierqualität bei. Die Videodisplay-Komponenten
helfen dabei, aus dem komprimierten wieder
ein decodiertes Signal in seiner ursprünglichen Größe zu generieren.
Zum Beispiel spezifiziert „Cable Labs“
die Standardbitrate eines 720 × 480 Pixel
großen Bildes mit 3,75 Mbit/s, was das
Codieren komplexer Szenen zu einer Herausforderung macht. Reduziert man aber die
Bildgröße auf 528 × 480 Pixel, wird das
Encodieren einfacher. Das Vollbild kann im
Decoder leichter auf Originalgröße expandiert werden, was zu einem etwas weicheren
Bildeindruck mit weniger Blockartefakten
führt, als bei einem Codierauftrag mit Originalgröße.
Eine Reduzierung der vertikalen Bildgröße ist hingegen problematischer, da die
Display-Komponenten mehrere Vollbild- oder
Halbbildzeilen speichern müssen, bevor der
eigentliche Expansionsprozess beginnen
kann.
Erhöhung der „vbv“-Buffergröße
Die konstante Videobitrate (CBR) kann jeweils
von Bild zu Bild sehr unterschiedlich sein,
während die Durchschnittsbitrate konstant
sein muss. Dieser sogenannte Bitraten-Jitter
wird über den vbv-(„video buffering verifier“)Buffer des Decoders abgefangen. Flexible
MPEG-Codierung
Encoder nutzen die Buffergröße des ZielDecoders zur Berechnung der optimalen
Bitrate. Je größer die Zielbuffergröße, desto
flexibler kann der Encoder kurze Sequenzen
komplexer Videos bedienen.
In der MPEG-Spezifikation wird eine
Minimum-Buffergröße für eine Vielzahl von
profilen und Levels festgelegt. In STB-MPEGSystemen ist aber zum Beispiel die vbv-Speichergröße des Decoders ein erheblicher Kostenfaktor. Hersteller tendieren daher eher
dazu, nur die Minimal-Buffergröße von MPEG
zu unterstützen. Hingegen haben Decoder in
PC-Systemen einen bedeutend größeren Buffer als den minimal erforderlichen. Wichtig ist
allerdings, dass der Encoder keinen größeren
Buffer als der Zieldecoder hat.
Anpassung der Bewegungssuche an
die Content-Bewegung
Die Bewegungsschätzung (motion estimation) ist konzeptionell sehr einfach, aber bei
Weitem der rechnenintensivste Teil der
MPEG-Codierung. In der einfachsten Form
berechnet der Encoder die Unterschiede zwischen dem aktuellen Block während der Komprimierung und aller Blöcke in den Referenzbildern vor und nach dem aktuellen Vollbild.
Die beste Übereinstimmung (geringste Differenz) ist geringer als die Schwelle (threshold), dem Ort des Blocks im Referenzvollbild/den Referenzvollbildern, der für die
Bewegungskompensation genutzt wird. Die
Vollbild-Bewegungssuche erfordert eine
enorme Verarbeitungsbandbreite.
Intelligente
Bewegungssuchalgorithmen, wie zum Beispiel die Voraussage basierend auf der besten Übereinstimmung in vorherigen und zukünftigen Vollbildern oder
beginnend mit einer weniger genauen Initialsuche können zur signifikanten Reduzierung
der Befehlszyklen führen. Encoder können
adaptiv ihre Suchalgorithmen als Funktion
der Szeneninhalte modifizieren.
Viele Nicht-Echtzeit-Encoder bieten eine
Anpassung des Suchbereichs als Kompromiss zwischen Encodierqualität und
-geschwindigkeit. In den meisten Fällen führt
eine Anhebung des Suchbereiches im Encoder zu einer Verbesserung der Encodierqualität durch eine größere Anzahl möglicher
Übereinstimmungen. Eine Bewegungssuche
für einen bestimmten Content kann auch
dazu führen, dass die Encodierqualität verschlechtert wird. Die MPEG-Motion-SearchMetrik nutzt einen 8-bit-Bewegungsvektor
mit einer 3-bit-Skala, die mit jedem SequenzHeader, der typischerweise jede halbe
Sekunde auftritt, zurückgesetzt wird. Wird
eine kleinere Bewegungssuche in Content mit
wenig Bewegung genutzt, führt das zu einer
kleineren Skala und einer präziseren Bewegungsschätzung. Eine ideale Encodierung
adaptiert die Bewegungsschätzung in jeder
Szene.
Anpassung der GOP bei Szenenwechseln
MPEG fügt regelmäßig I-Frames (Schlüsselbilder) in das Vidoesignal ein. Ein I-Frame nutzt
keine Bewegungskompensation benachbarter Bilder und kann unbhängig vom Rest des
Videos decodiert werden. Die weiteren Vollbilder, die auf dem I-Frame basieren, werden
als eine „Group of Pictures“ (GOP) definiert. IFrames ziehen keinen Vorteil aus der Bewegungskompensation und nutzen daher
bedeutend höhere Bitraten als die referenzierten Vollbilder. Szenenwechsel schließen
normalerweise eine Bewegungskompensation über die Grenzen hinweg aus und bieten
einen ideale Möglichkeit einen I-Frame. Ein
Szenenwechsel, der am Ende einer GOP auftritt, ohne dass zwingend ein I-Framefolgen
muss, wird effektiverweise zwei I- oder PFrames hintereinander aufweisen. Die meisten Decoder kennen das GOP-Layout innerhalb des MPEG-Stroms (in Übereinstimmung
mit den MPEG-Spezifikationen) und und können daher leicht variable GOP-Größen verarbeiten.
Vergrößerung der Abstände zwischen
I-Frames
Je größer die GOP (die N-Zahl) ist, desto geringer ist der Bit-abhängige Verlust des I-Frames
und umso höher ist die Qualität der Encodierung. Verbindet man eine große N-Zahl (60
bis 150) mit Szenenwechseln, um I-Frames zu
generieren, führt das oftmals zu der Erkenntnis, dass die Bit-abhängig Verlust verursachenden I-Frames sich meist genau an den
Szenenwechseln befinden, wo sie auch benötigt werden. Die meisten Ausspielsysteme
begrenzen aber die Maximalmenge an
Frames zwischen I-Frames auf 15. Eine geringere N-Zahl erhöht die Fehler-RecoveryResponse-Zeit im Stream und ermöglicht eine
schnelle Voraussicht, indem nur die I-Frames
einen Halbsekundenintervalls decodiert werden.
Veränderung des Quellvideos vor dem
Encodieren: „weicher machen“
Der Einsatz eines „Softening“-Filters vor dem
eigentlichen Videokomprimierungsvorgang
verringert die hochfrequenten Bildinhalte,
was sich wiederum im Rückgang der Kompri-
mierung ausdrückt, die erforderlich ist, um
eine bestimmte Bitrate zu erhalten. Oftmals
muss der Anwender (compressionist) zwischen einem weicheren Videosignal ohne
Artefakte oder einem schärferen Signal mit
Artefakten entscheiden. Die Filter können von
Szene zu Szene oder einem bestimmten
Bereich oder Bereichen eines jeden Vollbildes zugeordnet werden, um so die Effekte zu
minimieren, die auf die von der Komprimierung nicht betroffenen Teile des Vidoesignals
einwirken könnten.
Videofarben
Obwohl MPEG das volle Grafikspektrum von
8-bit-Pixelwerten zwischen 0 und 255 Quantisierungsebenen unterstützt, umfasst die
digitale Wiedergabe von NTSC-BroadcastVideosignalen nur die Werte zwischen 16 und
235. Die Werte unterhalb von 16 werden als
Super-Black und die oberhalb von 235 als
Super-White bezeichnet. Werden die Grafikfarben vor dem Encodieren auf den unterstützten Bereich für Broadcastsignale reduziert, begrenzt das den Content um 12 %,
was effektiv 12 % mehr Bits pro Frame ausmacht.
Einsatz von „Open GOPs“
„Open GOPs“ können eine Bewegungskompensation benachbarter GOPs enthalten und
daher nicht selbstdecodierend dargestellt
werden. Sie erfordern die Information der
benachbarten GOPs. „Closed GOPs“ können
ohne Referenz zu benachbarten GOPs decodiert werden. „Open GOPs“ werden zur Verbesserung der Signalqualität eingesetzt, da
der Decoder Vorteile aus der Bewegungskompensation benachbarter GOPs ziehen kann.
Einige MPEG-Systeme verlangen „Closed
GOPs“, um die Fehler-Recovery-Zeit ihrer
Ströme zu verringern. Wenn möglich und
erlaubt, sollte der MPEG-Encoder für in optimales Ergebnis aber „Open GOPs“ nutzen.
Anwenderspezifische Quantisierung
Der verlustbehaftete Teil der MPEG-Encodierung ist hauptsächlich der Quantisierung der
Frequenzkomponenten zuzuschreiben. Eine
Quantisierung verringert zum Beispiel den
Koeffizientenbereich von 0 bis 255 auf 0 bis
10. MPEG schließt sowohl eine Quantisierungsmatrix für jeden Sequenz-Header (typischerweise jede halbe Sekunde), die
bestimmt, welcher Anteil eines Frequenzbereiches verworfen wird, einen Quantisierungswert (m_quant) für jeden 16×16-Pixelblock ein, durch den wiederum zusätzlich alle
frequenzrelevanten Komponenten begrenzt
xx/2011 FKT
3
MPEG-Codierung
4
werden. Die Überwachung der Ausgangsbitrate erfolgt durch die Modulation der
m_quants, die sich innerhalb eines jeden
Vollbildes ändern können.
Normalerweise wird der Content im oberen Frequenzbereich über die Quantisierungsmatrix mehr quantisiert als derjenige
im unteren Frequenzbereich. Denn „Blockiness“ im oberen Frequenzbereich des Bildmaterials ist weniger auffällig als das Auftreten von „Banding“ (low frequency) in Bereichen sichtbar, die zuvor sanfte Übergänge
aufwiesen wie etwa ein wolkenloser Himmel.
Es ist generell möglich, die Matrix kundenspezifisch für jede Szene zur Optimierung
der Signalqualität anzupassen. Der Anwender kann hier steuernd eingreifen, indem
Quantisierungsmatrizen, die die oberen Frequenzbereiche durchlassen, kurz vor der relevanten Szene in den Sequenz-Header eingefügt werden. Das daraus entstehende MPEGSignal dieser Szene muss überwacht werden,
damit sichergestellt ist, dass auftretendes
Blocking nicht durch die oberen Frequenzanteile verursacht wird.
Im umgekehrten Fall setzt der Anwender
unter Umständen eine „stärkere“ Quantisierungsmatrix in Szenen ein, die eine Herausforderung für die Komprimierung des Signals
darstellen. In komplexen Szenen wird dazu
die Bitratensteuerung des Encoders die
m_quants so nach oben verändert, dass die
gewünschte Zielbitrate erreicht wird. Viele
m_quants erzeugen oftmals sichtbare Blockartefakte. Der Einsatz von „stärkeren“ Quantisierungsmatrizen in diesen Szenen kann die
Komponenten im oberen Frequenzbereich
verringern und weniger störende m_quants
zulassen.
Bild 6 zeigt eine Default-MPEG-2-Quantisierungsmatrix für Intra-Frames, Bild 7 eine
Default-MPEG-2-Quantisierungsmatrix für
Non-Intra-Frames. Die unteren Frequenzbereichkomponenten sind oben links und
erkennbar oberen Frequenzkomponenten
unten rechts. Eine Vermehrung der hohen Frequenzanteile, die durch den MPEG-Encodierprozess laufen, kann durch eine Verringerung
der Werte der oberen Frequenzkomponenten
(unten rechts) erreicht werden. Diese kundenspezifisch angepassten Matrizen können
über den Encoder den Sequenz-Headern hinzugefügt werden, die oft so eingestellt sind,
dass sie nach jedem 15. Vollbild auftreten.
Der Nachteil einer solchen angepassten
Matrix ist, dass MPEG bereits eine uneingeschränkte Default-Matrix enthält. Mit dem
Hinzufügen neuer Non-Default-Quantisierungsmatrizen nimmt die Menge der für die
Komprimierung zur Verfügung stehenden Bits
leicht ab.
Ein weiterer Ansatz zur Entfernung von
Blockiness in einem bestimmten Bereich ist,
den Encoder zu zwingen, eine schwächere
Quantisierung (lower m_quants) in diesem
Bereich einzusetzen. Dadurch werden keine
Artefakte aus dem Vollbild entfernt, jedoch
wedeb duese ub eubeb weniger auffälligen
Bereich verschoben. MPEG kann aber auch
praktisch verlustfrei erzeugt werden indem
einheitliche Quantisierungsmatrizen genutzt
und die m_quants-Werte für jeden Block als
„Eins“ definiert werden.
Bild 6. Default-Intra-Quantisierungs-Matrix
Bild 7. Default-Inter-Quantisierungs-Matrix
xx/2011 FKT
Entfernung einer Filmabtastung als
Quelle
Ein wirklich guter „Detelecine“-Prozess, bei
dem bestimmte Halbbilder vom Film-/Progressive-Content entfernt werden, kann die
Bitrate pro Bild effektiv um 20 % nach oben
verändern. Diese Extra-Halbbilder werden
ohne eine bestimmte Ordnung eingefügt,
wodurch sichtbare „jaggedness“ in Szenen
mit Bewegung auftritt.
Diese falsch angepassten Abtastzeilen
resultieren in künstlichen, hochfrequenten
Komponenten, die meist schwer zu encodieren sind. Der encodierte Film kann mit den
höheren NTSC-Halbbild-Wechselraten wiedergegeben werden, indem der Encoder die
erforderlichen Flags für die Wiederholung der
Top- oder Bottom-Fields im Telecine-Rythmus
einfügt. So wird die Filmquelle mit 23,96 B/s
fencodiert, aber mit 29,97 B/s decodiert,
wobei der Decoder die 23,96- zu 29,97-B/sTelecine-Abtastfrequenz bestimmt.
Halbbild-Encodierung
Eine der wichtigsten Verbesserungen von
MPEG-2 im Vergleich zu MPEG-1 ist die Erweiterung mit Halbbild-Encodierung. MPEG-2
kann individuelle Halbbilder encodieren und
dadurch eine von Halbbild zu Halbbild, Vollbild zu Vollbild und/oder Vollbild zu Halbbild
durchgeführte
Bewegungskompensation
erreichen, was letztendlich zu einer besseren
Komprimierung führt.
Viele der ersten Hardware-DecoderChips für DVDs und STBen boten keine funktionalen Halbbild-Decodiermöglichkeiten.
Außerdem verboten die ersten Videosystemspezifikationen
eine
MPEG-HalbbildEncodierung. Einige dieser Decoder befinden
sich aber noch heute im Einsatz.
Daraus resultiert, dass der meiste Content sowohl mit MPEG-1- als auch MPEG-2Encodern verarbeitet werden kann. Alle
MPEG-2-Decoder müssen MPEG-1-Ströme
decodieren können. Obwohl ursprünglich
MPEG-1 für Desktop-Videoanwendungen mit
einer Bildgröße von 352 × 288 bzw.
352 × 240 Pixeln standardisiert worden war,
gibt es keine bestehenden Bildgrößen- oder
Bitratebeschränkungen. MPEG-1 kann für HD
oder größere Bildbreiten und sehr hohe Bitraten genutzt werden. Die MPEG-VollbildEncodierung kann sowohl für Voll- als auch
Halbbildcontent eingesetzt werden, wobei
die Halbbild-Encodierung die Codierqualität
erheblich verbessert.
Videoencodierung in der Zukunft
Die Zukunft für komprimiertes Video bleibt
weiter interessant. Während die Prozessoren
in ihrer Größe schrumpfen, verbessern sich
ihre Fähigkeiten, und neue Videokomprimierungsstandards eröffnen weiterer Möglichkeiten, Signale bei noch geringerer Bitrate zu
codieren.
Mehrere simultane Videoströme können
bereits mittels Software decodiert werden,
und die Komprimierung bietet zudem die
Option, noch mehr Videomaterial auf Archivspeicher abzulegen. Mit der Zunahme von
Übertragungen auf 4K-Großdisplays wird das
Betrachten von Content, der bei stärkerer
Komprimierung gleichzeitig eine höhere
Übertragungsbandbreite aufweist, für den
Zuschauer zum Erlebnis. ı|

Documents pareils