Optimierung der MPEG-Encoding-Qualität
Transcription
Optimierung der MPEG-Encoding-Qualität
MPEG-Codierung Optimierung der MPEG-Encoding-Qualität Technologisch wurde die MPEG-2-Videokomprimierung durch erweiterte Komprimierungstechniken wie zum Beispiel AVC überholt, sie ist aber weiterhin das Rückgrat gegenwärtiger Übertragungen. Die MPEG-Spezifikation bietet die Flexibilität zum Erreichen ausgezeichneter Komprimierungseffektivität (Qualität pro Bitrate) und erreicht damit Ergebnisse wie bedeutend fortgeschrittenere Spezifikationen. Techniken zur Verbesserung der MPEG-Komprimierungsqualität wie zum Beispiel die adaptive Bewegungssuchreichweite, anwenderspezifische Quantisierungs-Matrizen und Szenenwechsel-Erkennung werden im Beitrag vorgestellt und erläutert. MPEG-2 video compression has been technologically superseded by more advanced compression technologies such as AVC and yet remains the backbone of contemporary broadcasting. The MPEG specification includes the flexibility to achieve excellent compression efficiency (quality per bit-rate) approaching that of implementations of more advanced specifications. Techniques for improving MPEG compression quality such as adaptive motion search range, custom quantization matrixes, and scene change detection will be discussed. neueren Spezifikationen und den Vorteilen bestehender MPEG-Infrastrukturen erreichEinleitung bar sind. Bis vor 15 Jahren gab es für private Nutzer Encodierqualität fast keine digitalen Videos. Die ersten Videostreams, die mit der neuen, rechenintensiven MPEG ist ein verlustbehaftetes (lossy) CodierMPEG-Spezifikation übereinstimmten, erfor- format. Videodaten werden während des derten eine spezielle Hardware-Karte, um das Komprimierungsprozesses verworfen und Signal auf einem PC decodieren zu können. das daraus resultierende decodierte Video ist Um einen Spielfilm komprimieren zu können, mit dem Quellsignal nicht mehr identisch. benötigen mehrere Supercomputer eine Das Ziel der Komprimierung ist aber, Daten so Woche. zu verwerfen, dass keine sichtbare VerFortschritte bei der Hardware und den schlechterung der Videoqualität auftritt. Algorithmen ermöglichen heute das Decodie- Exzessive MPEG-Datenkomprimierung führt ren von MPEG-Signalen selbst auf batteriebe- zu Blockartefakten (Blockiness) im decodiertriebenen, kleinen Geräten und das Encodie- ten Signalstrom. Bild 1 zeigt das unkompriren auf modernen PCs kann schneller als in mierte Quellsignal im Vergleich zu einem Echtzeit durchgeführt werden. Mit dem Ein- hochkomprimierten MPEG-Bild (Bild 2) mit zug von MPEG in die Broadcast-Videosysteme sichtbaren Blockartefakten. leisten Standards – wie zum Beispiel der AVCMPEG verwertet zeitliche (temporal) und Standard – eine zwei- bis viermal höhere räumliche (spatial) Redundanzen innerhalb Komprimierung, und noch effizentere Spezifi- des Videos, um die Informationsmenge zu kationen wie HEVC befinden sich zurzeit in reduzieren, die für eine Videodarstellung der Entwicklung. erforderlich ist. Die Komprimierung eines Die MPEG-Spezifikation schließt zahlrei- jeden Vollbilds beginnt mit einem Vergleich che Möglichkeiten zur Optimierung der Enco- von Bildbereichen mit „Referenz”-Bildern, dierqualität ein, die während der Integration die sich sequenziell vor und hinter dem aktuvon MPEG in den Encodier-Workflow für gene- ellen Bild befinden. Wird eine annehmbare risches Video übersehen wurden. Mit etwas Übereinstimmung von einem oder beiden Sorgfalt kann man Videocontent mit einer Referenzbildern gefunden, wird nur der FehQualität und in Bitraten encodieren, die mit ler (error) zwischen beiden Treffern und dem aktuellen Bild zusammen mit einem Vektor, der auf den Trefferort verweist, in das kompriMark D. Conover ist mierte Signal übernommen. Bild 3 stellt die Gründer und CTO der Bewegungsvektoren (rot und blau) dar, die PixelTools Corporation die besten Übereinstimmungen repräsentiein Cupertino California ren, die in den Referenzbildern einer VideoUSA szene gefunden wurden, die einen Schwenk Aus dem Englischen übernach rechts zum Inhalt hatte. tragen von R. E. Wagner Diese zeitliche Reduktion ist sehr effektiv in einem Video, das größtenteils nur Standbilder enthält oder eine Bewegung repräsentiert, die lineare Bild-zu-BildVeränderungen bei einem Kameraschwenk enthält. Das Verfahren ist nicht für multidirektionale Bewegungen und zum Beispiel explodierende Objekte geeignet. MPEG überträgt dann die Informationen, die von jedem Bild nach der Bewegunsgkompensation übrig bleiben, in einen räumlichen Transformationsprozess, der wiederum die Bild 1. Unkomprimiertes Originalbild Bild 2. Bild nach einer verlustbehafteten MPEG-Komprimierung Bild 3. Bewegungsvektoren (rote und blaueLinien) in einem Bild, das nach rechts geschwenkt wird xx/2011 FKT 1 MPEG-Codierung verbliebenen Vollbildinformationen in eine Frequenzdomaine überführt, wodurch die Informationen nochmals reduziert werden, die benötigt werden, um das Vollbild darzustellen. Die räumliche Transformation funktioniert sehr gut bei weniger komplexen Videosignalen, ist aber weniger effektiv bei Videosignalen mit detaillierten Mustern wie zum Beispiel Blättern, Meereswellen, Grafiken oder Text. Bis zu diesem Punkt wurden noch keine Videoinformationen verworfen und das Videosignal kann wieder so hergestellt werden, dass es einer Kopie des Originals entspricht. Der Datenverlust bei der Videokomprimierung resultiert der Quantisierung der Koeffizienten der Frequenzdomaine. Die Quantisierung verringert die Anzahl der Frequenzkoeffizienten, die eingesetzt werden, um alle Videobereiche zu repräsentieren. Je höher der Grad der Quantisierung ist, desto weniger Die Daten durch die Koeffizienten repräsentiert, und je größer der Datenverlust ist, umso größer ist auch die Gefahr, unerwünschte Artefakte zu erhalten. Im Bild 4 werden die Daten dargestellt, die aus dem hochkomprimierten Bildsignal im Bild 2 eleminiert wurden. Es ist leicht erkennbar, dass die Komponenten im oberen Frequenzbereich, wie zum Beispiel die Linien des Gebäudes und die Gesichtszüge, durch die Quantisierung stark verändert wurden. Die Bildwechselraten-Steuerung bei der Videocodierung moduliert die Quantisierung eines jeden Videobereichs, um die bestmögliche Kompression oder Ausgabe-Bitrate zu erreichen. Mit wenig oder konstanter Bewegung zwischen den Vollbildern und einfachen Bildern kann die zeitliche und räumliche Redundanzfähigkeit von MPEG qualitativ gute Ergebnisse bei geringen Bandbreiten erzielen und dabei eine nur minimale Quantisierung erforderlich machen. In Videosignalen mit zufälligen Bewegungen zwischen weniger Bild 5. Auswahl von m_quants für jeden Block über ein Vollbild (frame) dargestellt aufwendigen Vollbildern und komplexen Bildern ist eine stärkere Quantisierung nötig, um geringere Bitraten zu erreichen, die sich auch in Codierartefakten ausdrücken können. Im Bild 5 werden diese sogenannten m_quants dargestellt, die für jeden Block des Bildes auf einer Skala von 1 bis 32 ausgewählt wurden. Mit einer intelligenten Codierung können in komplexen Videosequenzen Codierartefakte minimiert werden. Einige Codierentscheidungen können im Encoder automatisiert werden; andere erfordern hingegen das menschliche Eingreifen. Obwohl die nachfolgenden Techniken im Bezug auf MPEG-Codierungen betrachtet werden, können sie auch bei neueren Spezifikationen wie zum Beispiel AVC eingesetzt werden. Techniken zur Qualitätsverbesserung Einsatz eines hochwertigen Encoders Software- und Hardware-Encoder sind zunehmend zuverlässig, standard- und spezifikationskompatibel und ihre Qualität hat sich in den letzten 15 Jahren verbessert. Der ideale Encoder sollte eine gute Bewegungsschätzung (motion estimation), eine intelligente Bildwechselraten-Steuerung sowie eine genaue Computerberechnung bieten und standardkonforme Videoströme liefern. Eine umfassende Encodierparamaterkontrolle, die eine Anpassung der Parameter während des Encodierens ermöglicht, schafft ideale Voraussetzungen für den Anwender, um alle MPEG-Encodierfähigkeiten optimal zu nutzen. Erhöhung der Ausgangsbitrate Bild 4. MPEG-Datenverlust beim Codieren 2 xx/2011 FKT Eine Erhöhung der Ausgangsbitrate des Videosignals ist die effektivste Art der Signalverbesserung. Die Ausspielung von MPEGDaten über Terrestrik, Satellit, Kabel oder Blu-ray-Disc hat in Bezug auf die maximale Bitrate typenbedingte Grenzen. Eine probate Technik zum Debugging von Videoartefakten bei einer gewünschten Bitrate besteht darin, die Datenrate eines problembehafteten Videostroms zu erhöhen und diesen einem für diese hohe Bitrate nutzbaren Decoder zuzuspielen. Bleiben die Artefakte bei der erhöhten Bitrate erhalten, werden sie offensichtlich nicht durch den Codierprozess, sondern einen anderen Teil des Workflows erzeugt. Alternativ kann die Bitrate auch verringert werden, um die Komprimierungsartefakte sichtbar zu machen. Diese treten dann stärker im geringer- als im höherratigen Bitratenstrom hervor. Komprimierungstechniken, die Artefakte bei einer geringen Bitrate reduzieren, würden durch eine Anpassung der Bitrate bis zum Maximum deren Bereinigen ermöglichen. Verringerung der Ausgabe-Bildgröße Je geringer die Videobildgröße ist, desto weniger muss das Bild komprimiert werden, um eine bestimmte Bitrate und damit gleichzeitig eine Verringerung der Gefahr von Encodier-Blockartefakten zu erreichen. Eine Reduzierung der Bildgröße vor dem eigentlichen Encodieren trägt zur Verbesserung der Codierqualität bei. Die Videodisplay-Komponenten helfen dabei, aus dem komprimierten wieder ein decodiertes Signal in seiner ursprünglichen Größe zu generieren. Zum Beispiel spezifiziert „Cable Labs“ die Standardbitrate eines 720 × 480 Pixel großen Bildes mit 3,75 Mbit/s, was das Codieren komplexer Szenen zu einer Herausforderung macht. Reduziert man aber die Bildgröße auf 528 × 480 Pixel, wird das Encodieren einfacher. Das Vollbild kann im Decoder leichter auf Originalgröße expandiert werden, was zu einem etwas weicheren Bildeindruck mit weniger Blockartefakten führt, als bei einem Codierauftrag mit Originalgröße. Eine Reduzierung der vertikalen Bildgröße ist hingegen problematischer, da die Display-Komponenten mehrere Vollbild- oder Halbbildzeilen speichern müssen, bevor der eigentliche Expansionsprozess beginnen kann. Erhöhung der „vbv“-Buffergröße Die konstante Videobitrate (CBR) kann jeweils von Bild zu Bild sehr unterschiedlich sein, während die Durchschnittsbitrate konstant sein muss. Dieser sogenannte Bitraten-Jitter wird über den vbv-(„video buffering verifier“)Buffer des Decoders abgefangen. Flexible MPEG-Codierung Encoder nutzen die Buffergröße des ZielDecoders zur Berechnung der optimalen Bitrate. Je größer die Zielbuffergröße, desto flexibler kann der Encoder kurze Sequenzen komplexer Videos bedienen. In der MPEG-Spezifikation wird eine Minimum-Buffergröße für eine Vielzahl von profilen und Levels festgelegt. In STB-MPEGSystemen ist aber zum Beispiel die vbv-Speichergröße des Decoders ein erheblicher Kostenfaktor. Hersteller tendieren daher eher dazu, nur die Minimal-Buffergröße von MPEG zu unterstützen. Hingegen haben Decoder in PC-Systemen einen bedeutend größeren Buffer als den minimal erforderlichen. Wichtig ist allerdings, dass der Encoder keinen größeren Buffer als der Zieldecoder hat. Anpassung der Bewegungssuche an die Content-Bewegung Die Bewegungsschätzung (motion estimation) ist konzeptionell sehr einfach, aber bei Weitem der rechnenintensivste Teil der MPEG-Codierung. In der einfachsten Form berechnet der Encoder die Unterschiede zwischen dem aktuellen Block während der Komprimierung und aller Blöcke in den Referenzbildern vor und nach dem aktuellen Vollbild. Die beste Übereinstimmung (geringste Differenz) ist geringer als die Schwelle (threshold), dem Ort des Blocks im Referenzvollbild/den Referenzvollbildern, der für die Bewegungskompensation genutzt wird. Die Vollbild-Bewegungssuche erfordert eine enorme Verarbeitungsbandbreite. Intelligente Bewegungssuchalgorithmen, wie zum Beispiel die Voraussage basierend auf der besten Übereinstimmung in vorherigen und zukünftigen Vollbildern oder beginnend mit einer weniger genauen Initialsuche können zur signifikanten Reduzierung der Befehlszyklen führen. Encoder können adaptiv ihre Suchalgorithmen als Funktion der Szeneninhalte modifizieren. Viele Nicht-Echtzeit-Encoder bieten eine Anpassung des Suchbereichs als Kompromiss zwischen Encodierqualität und -geschwindigkeit. In den meisten Fällen führt eine Anhebung des Suchbereiches im Encoder zu einer Verbesserung der Encodierqualität durch eine größere Anzahl möglicher Übereinstimmungen. Eine Bewegungssuche für einen bestimmten Content kann auch dazu führen, dass die Encodierqualität verschlechtert wird. Die MPEG-Motion-SearchMetrik nutzt einen 8-bit-Bewegungsvektor mit einer 3-bit-Skala, die mit jedem SequenzHeader, der typischerweise jede halbe Sekunde auftritt, zurückgesetzt wird. Wird eine kleinere Bewegungssuche in Content mit wenig Bewegung genutzt, führt das zu einer kleineren Skala und einer präziseren Bewegungsschätzung. Eine ideale Encodierung adaptiert die Bewegungsschätzung in jeder Szene. Anpassung der GOP bei Szenenwechseln MPEG fügt regelmäßig I-Frames (Schlüsselbilder) in das Vidoesignal ein. Ein I-Frame nutzt keine Bewegungskompensation benachbarter Bilder und kann unbhängig vom Rest des Videos decodiert werden. Die weiteren Vollbilder, die auf dem I-Frame basieren, werden als eine „Group of Pictures“ (GOP) definiert. IFrames ziehen keinen Vorteil aus der Bewegungskompensation und nutzen daher bedeutend höhere Bitraten als die referenzierten Vollbilder. Szenenwechsel schließen normalerweise eine Bewegungskompensation über die Grenzen hinweg aus und bieten einen ideale Möglichkeit einen I-Frame. Ein Szenenwechsel, der am Ende einer GOP auftritt, ohne dass zwingend ein I-Framefolgen muss, wird effektiverweise zwei I- oder PFrames hintereinander aufweisen. Die meisten Decoder kennen das GOP-Layout innerhalb des MPEG-Stroms (in Übereinstimmung mit den MPEG-Spezifikationen) und und können daher leicht variable GOP-Größen verarbeiten. Vergrößerung der Abstände zwischen I-Frames Je größer die GOP (die N-Zahl) ist, desto geringer ist der Bit-abhängige Verlust des I-Frames und umso höher ist die Qualität der Encodierung. Verbindet man eine große N-Zahl (60 bis 150) mit Szenenwechseln, um I-Frames zu generieren, führt das oftmals zu der Erkenntnis, dass die Bit-abhängig Verlust verursachenden I-Frames sich meist genau an den Szenenwechseln befinden, wo sie auch benötigt werden. Die meisten Ausspielsysteme begrenzen aber die Maximalmenge an Frames zwischen I-Frames auf 15. Eine geringere N-Zahl erhöht die Fehler-RecoveryResponse-Zeit im Stream und ermöglicht eine schnelle Voraussicht, indem nur die I-Frames einen Halbsekundenintervalls decodiert werden. Veränderung des Quellvideos vor dem Encodieren: „weicher machen“ Der Einsatz eines „Softening“-Filters vor dem eigentlichen Videokomprimierungsvorgang verringert die hochfrequenten Bildinhalte, was sich wiederum im Rückgang der Kompri- mierung ausdrückt, die erforderlich ist, um eine bestimmte Bitrate zu erhalten. Oftmals muss der Anwender (compressionist) zwischen einem weicheren Videosignal ohne Artefakte oder einem schärferen Signal mit Artefakten entscheiden. Die Filter können von Szene zu Szene oder einem bestimmten Bereich oder Bereichen eines jeden Vollbildes zugeordnet werden, um so die Effekte zu minimieren, die auf die von der Komprimierung nicht betroffenen Teile des Vidoesignals einwirken könnten. Videofarben Obwohl MPEG das volle Grafikspektrum von 8-bit-Pixelwerten zwischen 0 und 255 Quantisierungsebenen unterstützt, umfasst die digitale Wiedergabe von NTSC-BroadcastVideosignalen nur die Werte zwischen 16 und 235. Die Werte unterhalb von 16 werden als Super-Black und die oberhalb von 235 als Super-White bezeichnet. Werden die Grafikfarben vor dem Encodieren auf den unterstützten Bereich für Broadcastsignale reduziert, begrenzt das den Content um 12 %, was effektiv 12 % mehr Bits pro Frame ausmacht. Einsatz von „Open GOPs“ „Open GOPs“ können eine Bewegungskompensation benachbarter GOPs enthalten und daher nicht selbstdecodierend dargestellt werden. Sie erfordern die Information der benachbarten GOPs. „Closed GOPs“ können ohne Referenz zu benachbarten GOPs decodiert werden. „Open GOPs“ werden zur Verbesserung der Signalqualität eingesetzt, da der Decoder Vorteile aus der Bewegungskompensation benachbarter GOPs ziehen kann. Einige MPEG-Systeme verlangen „Closed GOPs“, um die Fehler-Recovery-Zeit ihrer Ströme zu verringern. Wenn möglich und erlaubt, sollte der MPEG-Encoder für in optimales Ergebnis aber „Open GOPs“ nutzen. Anwenderspezifische Quantisierung Der verlustbehaftete Teil der MPEG-Encodierung ist hauptsächlich der Quantisierung der Frequenzkomponenten zuzuschreiben. Eine Quantisierung verringert zum Beispiel den Koeffizientenbereich von 0 bis 255 auf 0 bis 10. MPEG schließt sowohl eine Quantisierungsmatrix für jeden Sequenz-Header (typischerweise jede halbe Sekunde), die bestimmt, welcher Anteil eines Frequenzbereiches verworfen wird, einen Quantisierungswert (m_quant) für jeden 16×16-Pixelblock ein, durch den wiederum zusätzlich alle frequenzrelevanten Komponenten begrenzt xx/2011 FKT 3 MPEG-Codierung 4 werden. Die Überwachung der Ausgangsbitrate erfolgt durch die Modulation der m_quants, die sich innerhalb eines jeden Vollbildes ändern können. Normalerweise wird der Content im oberen Frequenzbereich über die Quantisierungsmatrix mehr quantisiert als derjenige im unteren Frequenzbereich. Denn „Blockiness“ im oberen Frequenzbereich des Bildmaterials ist weniger auffällig als das Auftreten von „Banding“ (low frequency) in Bereichen sichtbar, die zuvor sanfte Übergänge aufwiesen wie etwa ein wolkenloser Himmel. Es ist generell möglich, die Matrix kundenspezifisch für jede Szene zur Optimierung der Signalqualität anzupassen. Der Anwender kann hier steuernd eingreifen, indem Quantisierungsmatrizen, die die oberen Frequenzbereiche durchlassen, kurz vor der relevanten Szene in den Sequenz-Header eingefügt werden. Das daraus entstehende MPEGSignal dieser Szene muss überwacht werden, damit sichergestellt ist, dass auftretendes Blocking nicht durch die oberen Frequenzanteile verursacht wird. Im umgekehrten Fall setzt der Anwender unter Umständen eine „stärkere“ Quantisierungsmatrix in Szenen ein, die eine Herausforderung für die Komprimierung des Signals darstellen. In komplexen Szenen wird dazu die Bitratensteuerung des Encoders die m_quants so nach oben verändert, dass die gewünschte Zielbitrate erreicht wird. Viele m_quants erzeugen oftmals sichtbare Blockartefakte. Der Einsatz von „stärkeren“ Quantisierungsmatrizen in diesen Szenen kann die Komponenten im oberen Frequenzbereich verringern und weniger störende m_quants zulassen. Bild 6 zeigt eine Default-MPEG-2-Quantisierungsmatrix für Intra-Frames, Bild 7 eine Default-MPEG-2-Quantisierungsmatrix für Non-Intra-Frames. Die unteren Frequenzbereichkomponenten sind oben links und erkennbar oberen Frequenzkomponenten unten rechts. Eine Vermehrung der hohen Frequenzanteile, die durch den MPEG-Encodierprozess laufen, kann durch eine Verringerung der Werte der oberen Frequenzkomponenten (unten rechts) erreicht werden. Diese kundenspezifisch angepassten Matrizen können über den Encoder den Sequenz-Headern hinzugefügt werden, die oft so eingestellt sind, dass sie nach jedem 15. Vollbild auftreten. Der Nachteil einer solchen angepassten Matrix ist, dass MPEG bereits eine uneingeschränkte Default-Matrix enthält. Mit dem Hinzufügen neuer Non-Default-Quantisierungsmatrizen nimmt die Menge der für die Komprimierung zur Verfügung stehenden Bits leicht ab. Ein weiterer Ansatz zur Entfernung von Blockiness in einem bestimmten Bereich ist, den Encoder zu zwingen, eine schwächere Quantisierung (lower m_quants) in diesem Bereich einzusetzen. Dadurch werden keine Artefakte aus dem Vollbild entfernt, jedoch wedeb duese ub eubeb weniger auffälligen Bereich verschoben. MPEG kann aber auch praktisch verlustfrei erzeugt werden indem einheitliche Quantisierungsmatrizen genutzt und die m_quants-Werte für jeden Block als „Eins“ definiert werden. Bild 6. Default-Intra-Quantisierungs-Matrix Bild 7. Default-Inter-Quantisierungs-Matrix xx/2011 FKT Entfernung einer Filmabtastung als Quelle Ein wirklich guter „Detelecine“-Prozess, bei dem bestimmte Halbbilder vom Film-/Progressive-Content entfernt werden, kann die Bitrate pro Bild effektiv um 20 % nach oben verändern. Diese Extra-Halbbilder werden ohne eine bestimmte Ordnung eingefügt, wodurch sichtbare „jaggedness“ in Szenen mit Bewegung auftritt. Diese falsch angepassten Abtastzeilen resultieren in künstlichen, hochfrequenten Komponenten, die meist schwer zu encodieren sind. Der encodierte Film kann mit den höheren NTSC-Halbbild-Wechselraten wiedergegeben werden, indem der Encoder die erforderlichen Flags für die Wiederholung der Top- oder Bottom-Fields im Telecine-Rythmus einfügt. So wird die Filmquelle mit 23,96 B/s fencodiert, aber mit 29,97 B/s decodiert, wobei der Decoder die 23,96- zu 29,97-B/sTelecine-Abtastfrequenz bestimmt. Halbbild-Encodierung Eine der wichtigsten Verbesserungen von MPEG-2 im Vergleich zu MPEG-1 ist die Erweiterung mit Halbbild-Encodierung. MPEG-2 kann individuelle Halbbilder encodieren und dadurch eine von Halbbild zu Halbbild, Vollbild zu Vollbild und/oder Vollbild zu Halbbild durchgeführte Bewegungskompensation erreichen, was letztendlich zu einer besseren Komprimierung führt. Viele der ersten Hardware-DecoderChips für DVDs und STBen boten keine funktionalen Halbbild-Decodiermöglichkeiten. Außerdem verboten die ersten Videosystemspezifikationen eine MPEG-HalbbildEncodierung. Einige dieser Decoder befinden sich aber noch heute im Einsatz. Daraus resultiert, dass der meiste Content sowohl mit MPEG-1- als auch MPEG-2Encodern verarbeitet werden kann. Alle MPEG-2-Decoder müssen MPEG-1-Ströme decodieren können. Obwohl ursprünglich MPEG-1 für Desktop-Videoanwendungen mit einer Bildgröße von 352 × 288 bzw. 352 × 240 Pixeln standardisiert worden war, gibt es keine bestehenden Bildgrößen- oder Bitratebeschränkungen. MPEG-1 kann für HD oder größere Bildbreiten und sehr hohe Bitraten genutzt werden. Die MPEG-VollbildEncodierung kann sowohl für Voll- als auch Halbbildcontent eingesetzt werden, wobei die Halbbild-Encodierung die Codierqualität erheblich verbessert. Videoencodierung in der Zukunft Die Zukunft für komprimiertes Video bleibt weiter interessant. Während die Prozessoren in ihrer Größe schrumpfen, verbessern sich ihre Fähigkeiten, und neue Videokomprimierungsstandards eröffnen weiterer Möglichkeiten, Signale bei noch geringerer Bitrate zu codieren. Mehrere simultane Videoströme können bereits mittels Software decodiert werden, und die Komprimierung bietet zudem die Option, noch mehr Videomaterial auf Archivspeicher abzulegen. Mit der Zunahme von Übertragungen auf 4K-Großdisplays wird das Betrachten von Content, der bei stärkerer Komprimierung gleichzeitig eine höhere Übertragungsbandbreite aufweist, für den Zuschauer zum Erlebnis. ı|