Les technologies de compression vidéo numériques évoluent
Transcription
Les technologies de compression vidéo numériques évoluent
COMPRESSION AUDIO/VIDÉO David Wood Responsable «Nouvelles technologies », UER Les technologies de compression vidéo numériques évoluent constamment et placent radiodiffuseurs et fournisseurs de contenus devant des choix difficiles. Quels sont les facteurs qui façonnent cette évolution ? Quelles performances peut-on attendre des systèmes de compression actuels ? Le «Lomo Compact» est plus qu’un simple appareil photo fabriqué à SaintPétersbourg. Sa sortie constitue un véritable événement pour tous les photographes. Ses partisans soutiennent avec ferveur qu’il prend les plus belles photos du monde et que celles-ci ont un look particulier, unique en son genre. La photographie a cédé la place à la «lomographie» et des clubs réunissent les adeptes de cet objet culte aux quatre coins du globe. Toutefois, lorsque des ingénieurs TV examinent ce type de photos, ils sont sidérés: couleurs sursaturées, gamma incorrect, vignettage, etc. Malgré ces «distorsions», les clichés du «Lomo Compact» sont particulièrement prisés. En réalité, évaluer la qualité d’image est une question d’une grande complexité en raison des nombreuses variables et, parfois, de l’absence de logique apparente. Nous devons nous y résigner lorsque nous abordons la notion de qualité, quel que soit le UER–REVUETECHNIQUE –SÉLECTION2003 domaine, y compris celui du codage et de la compression d’images. Le débat sur la qualité d’image ne peut être manichéen. Chaque évaluation doit être nuancée. Ainsi, plusieurs séries contenant chacune divers types de contenus doivent être considérées ainsi que d’autres variables. Malgré la difficulté de la tâche, nous devons essayer de généraliser la notion de qualité d’image. Nous devons prendre le taureau par les cornes et décrire la qualité de manière directe, intelligible et utile. Une telle démarche est importante dans de nombreux domaines, notamment lorsqu’il s’agit de comprendre le fonctionnement et l’efficacité des systèmes de compression numériques. La compression vidéo numérique est à la croisée des chemins. MPEG-2 a parfaitement assumé son rôle depuis la milieu des années 90. La génération suivante – MPEG-4, partie 4 – incluait non Le Compact Lomo seulement des outils de compression poussés, mais aussi un nouveau mode de diffusion de contenus multimédias par codage sémantique orienté objet. Toutefois, les outils de compression sont restés la composante la plus largement utilisée. Le MPEG-4, Partie10 (H. 264) marque le début d’une nouvelle génération. Microsoft s’est aussi lancé dans la bataille avec un codec vidéo intégré à Windows Media Series 9, que le géant de Seattle considère aussi utile pour Internet que pour la radiodiffusion. 1 COMPRESSION AUDIO/VIDÉO dent sur ces courbes pour prendre leurs décisions. Bien que ces simples graphes qualité/débit fournissent des informations utiles, ils dissimulent un monde complexe. Chaque courbe est issue d’une distribution statistique de courbes qui traduisent les performances du codec avec un contenu diversement critique, pondérée par sa «fréquence d’occurrence». Ces courbes sont, de manière schématique, une approximation de la réalité. Un cliché Lomo standard, trop saturé, trop contrasté, du vignettage mais tellement «flashy » Mais comment évaluer ces codecs et comment prendre les décisions stratégiques pertinentes? Sans prétendre être exhaustif, nous espérons donner dans ces lignes quelques indications. Nous n’expliquerons pas le fonctionnement de ces nouveaux codecs que les développeurs ont décrit en long et en large dans d’excellents documents de référence. Nous tenterons de cerner le problème dans sa globalité afin de déterminer où nous sommes, où nous allons et quels facteurs peuvent nous aider à choisir un système. fique, nous pouvons établir des différences dans l’«efficacité de la qualité de distribution» (ci-après efficacité entre guillemets) des codecs. Ces informations nous permettent de poser un jugement stratégique sur l’opportunité d’utiliser tel type de compression et dans quelles circonstances. L’UER et le groupe de travail MPEG du CTM1 de l’ISO/CEI se fon- La forme et l’emplacement de ces courbes sont toutefois un indicateur important des performances du système de compression. Lorsque les courbes sont parallèles, la différence d’efficacité est indépendante du niveau de qualité. Dans le cas contraire, elle en est tributaire. En général, les courbes qualité/débit convergent lorsque la qualité absolue augmente: les différences entre les systèmes de compression sont habituellement moins prononcées à des degrés de qualité plus élevés. En fait, lorsque nous détectons un système dont les courbes restent parallèles sur l’ensemble de la gamme de qualité, le champagne peut couler à flot. Les courbes qualité/débit ne constituent en aucun cas le seul élément à considérer Courbes d’évaluation Lorsque des évaluations subjectives de la qualité sont réalisées selon des procédures classiques, nous obtenons des courbes indiquant le rapport entre la conception moyenne de ce qui constitue une bonne ou plus ou moins bonne qualité d’image et une variable clé, en général le débit binaire. Le type de courbes que nous utilisons est illustré figure1 et provient d’études récentes réalisées à l’UER (BPN 055). En général, nous pourrions évaluer plusieurs codecs et parvenir à une famille de courbes. En comparant les qualités obtenues à un débit binaire donné ou les débits binaires requis pour parvenir à une qualité spéci- 2 Figure 1 – Exemple de présentation de la qualité subjective repris d’une récente publication de l’UER sur les performances des codecs pour contenu web UER–REVUETECHNIQUE –SÉLECTION2003 COMPRESSION AUDIO/VIDÉO lorsqu’il s’agit de prendre une décision stratégique concernant l’adoption d’un codec. Il convient avant tout de connaître le rapport entre l’«efficacité» relative et sa durée exprimée en mois ou en années. En d’autres termes, nous devons anticiper l’évolution des performances d’un codec particulier et les comparer à celles d’autres codecs sur la période pendant laquelle nous avons l’intention de l’utiliser afin d’amortir notre investissement. Nous devons nous poser les questions suivantes: quand disposerons-nous d’un meilleur système et quelle sera l’ampleur de l’amélioration? Nous devons également considérer l’évolution des coûts des codecs. Répondre à ces questions paraît impossible. Il faudrait savoir à l’avance quand le génie frappera les esprits des spécialistes de la normalisation des technologies de la compression. La situation n’est pourtant pas à ce point désespérée. Certaines tendances permettent de nous risquer à des prévisions raisonnables. Tendances et prévisions Pour se rassurer, il suffit de voir comment dans un autre domaine la «loi de Moore» a permis une planification stratégique dans de nombreuses situations liées aux circuits intégrés. Selon cette loi, la complexité d’un circuit intégré de dimensions données est multipliée par deux tous les 18mois. Cette règle de Gordon Moore est d’actualité depuis des décennies. Elle repose sur un principe simple: observer l’évolution jusqu’à ce jour et refuser de concevoir que soudainement, comme par enchantement, le cycle est rompu. En fait, le codeur, contrairement au décodeur, ne doit en général pas être spécifié. Dans ce cas, le fabricant de codeurs doit simplement concevoir un boîtier qui diffusera un signal décodable. Il est libre de concevoir à sa guise les entrailles de son boîtier pourvu que celui-ci émette un signal normalisé lisible par le décodeur. Ainsi, les performances générales peuvent progressivement s’améliorer à mesure que les fabricants produisent des codeurs de plus en plus «intelligents». Ce scénario est tout à fait possible. Les caractéristiques du contenu peuvent être analysées et l’image traitée pour donner les signaux les plus facilement compressibles. Quelle panoplie d’outils devrait entrer dans la composition d’un système de décompression? Le choix est tout d’abord basé sur des considérations pratiques – quelle complexité la loi de Moore autorise-t-elle actuellement au niveau des récepteurs? En dépit de l’évolution constante, il est possible d’estimer les coûts des récepteurs actuels comme dans un avenir proche. Le choix dépend aussi des systèmes mis au point par les laboratoires. Si un dispositif n’a pas encore été conçu, il ne peut être utilisé! Facteurs déterminants Nous observons en gros deux facteurs susceptibles d’influencer le développement et l’utilisation des codecs. D’une part, il y a le cycle d’amélioration de la qualité qui intervient lorsqu’un ensemble d’outils de compression est reconnu comme le meilleur à un moment donné. D’autre part, il y a la possibilité d’aboutir à un nouvel ensemble d’outils – parce que des circuits intégrés plus complexes le permettent et que les connaissances Existe-t-il un postulat équivalent appli- ont évolué –, généralement en complécable à la compression numérique? tant le jeu existant afin de créer un nouTout porte à le croire. veau codec. Si vous utilisez tous les anciens outils dans le nouvel ensemble, Les systèmes de compression réunissent vous pouvez faire en sorte que des imadifférents «outils» de compression. Les ges compressées sous l’ancien système systèmes modernes pour la diffusion de pourront être décodées par le nouveau – médias à grande échelle sont axés sur une cette rétrocompatibilité est en effet intécomplexité asymétrique. Il est logique grée à de nombreux systèmes MPEG. d’intégrer une complexité minimale au décodeur et une complexité maximale au Une autre caractéristique de l’évolution codeur. Ainsi, il existe des millions de – à la fois en termes d’amélioration de décodeurs et seulement quelques «l’efficacité» dans un ensemble doncodeurs; rien d’anormal à cette situation. nés et de l’assemblage de nouveaux UER–REVUETECHNIQUE –SÉLECTION2003 ensembles plus complets – est que la procédure de compression est de plus en plus fidèle au contexte. Le système de compression peut s’adapter de manière encore plus intelligente au type de contenu. Nous passons du «systématique» à «l’adaptatif». Prenons par exemple la procédure d’entrelacement – le premier outil de compression vidéo jamais mis au point. Lorsque l’entrelacement est appliqué, une ligne sur deux est omise dans un cycle à deux trames. End’autres termes – si vous êtes porté sur les mathématiques –, cette opération élimine de la scène le contenu informatif temporel à composante verticale élevée, permettant avantageusement de diviser par deux la largeur de bande du signal. Cette méthode est très efficace car ce contenu représente la portion la moins remarquable de l’information sur l’image lorsqu’aucun détail ne se déplace à la verticale. Cependant, la procédure est appliquée à chaque image, quelle que soit la scène. Il s’agit donc d’un outil de compression «systématique». Alors que nous avons une connaissance de plus en plus approfondie de la compression, nous disposons maintenant de techniques de compression, non pas systématiques, mais adaptatives en fonction du contenu. L’entrelacement est une technique acceptable lorsque l’image est statique et qu’aucun détail ne se déplace. Dès qu’il y a déplacement, le résultat est flou. Ne serait-il pas intéressant de pouvoir suspendre l’entrelacement chaque fois qu’un détail se déplace ? Ne serait-il pas non plus intéressant de pouvoir changer de système de compression selon le contenu? Ce sont précisément ces aspects des systèmes de compression qui font sans cesse l’objet d’améliorations. Paradoxalement, alors que l’entrelacement était une technique idéale à l’ère de l’analogique, il s’avère être un handicap à l’heure du numérique car un système de compression numérique adaptatif permet d’obtenir de meilleurs résultats. Avec la prochaine génération des systèmes de radiodiffusion, nous évoluerons peut-être vers des systèmes de production à balayage progressif qui, comprimés, se caractériseront par une « efficacité» accrue. 3 COMPRESSION AUDIO/VIDÉO affirmer – sur la base du travail réalisé et consigné dans le document d’information I35 de l’UER – qu’il se situe quelque part entre les courbes du MPEG-4, partie4 et du MPEG-4, partie10. Sa position dépend du niveau de qualité absolu considéré et de la configuration des éléments internes dans le codec de WM9. Figure 2 – L’évolution des normes ouvertes de compression vidéo Des poupées gigognes Si nous passons en revue l’histoire des codecs, nous retrouvons une série de courbes semblables à celles illustrées à la figure2. Nous n’avons pas inclus le MPEG-1 sur cette figure, ni même des codecs antérieurs, faute de place. Nous connaissons le cycle de développement du codec MPEG-2 en termes de qualité. «L’efficacité» a été considérablement améliorée depuis que les premiers outils ont été mis sur pied. Ces perfectionnements se poursuivent d’ailleurs toujours. Les cycles de développement répondent à un schéma particulier permettant d’enregistrer des gains continus à long terme en matière d’efficacité. Nous avons supposé ici que seul un niveau de qualité particulier nous intéressait, par exemple des images de degré 4.5 pour une radiodiffusion de qualité professionnelle. Toutes les données s’appliquent au débit nécessaire pour cette qualité spécifique en utilisant un matériel d’une «criticité» donnée (provenant souvent de scènes considérées comme «critiques mais sans plus»). Ce diagramme illustre les courbes du MPEG-2 et du MPEG-4, partie4. Nous avons également ajouté une troisième courbe pour la norme plus récente MPEG-4, partie10 (ou H. 264) et une quatrième pour un prochain ensemble d’outils de compression. 4 En pratique, il s’agit de vraies courbes et pas simplement de lignes droites – n’oubliez pas que différentes courbes correspondent à différents niveaux de qualité. Pour entrer dans le vif du sujet, commençons par une image simplifiée. «L’efficacité» d’un codec augmente (un débit moindre pour un niveau de qualité donné) dans les années qui suivent la normalisation des outils. Par la suite des modifications progressives interviennent avec l’apparition de nouveaux codecs. Malgré le chevauchement probable entre un ensemble et le suivant, tout nouvel ensemble d’outils accroît « l’efficacité» beaucoup plus que ne le fait le précédent. Nous constatons un schéma de cycles de développement à court terme qui se traduit par des gains continus à long terme en matière «d’efficacité». Des informations qui résultent de l’évaluation de la qualité des systèmes de compression, il ressort que le cycle interne d’améliorations des systèmes est d’environ 5 à 8 ans. En outre, le gain à long terme en matière «d’efficacité» pour la SDTV (TV définition standard) est, en moyenne, d’environ 5 à 10 ans. Ces prévisions ne reposent bien sûr pas sur une science exacte; une recherche plus approfondie s’impose pour obtenir des valeurs plus précises. L’important ne sont pas les valeurs absolues, mais l’évaluation du phénomène et l’identification des facteurs à prendre en compte lors d’une réflexion sur les codecs. Pour Windows Media Player 9 (WM9), nous pourrions Un point important est qu’il n’y a aucune raison pour que ces cycles, pas plus que les améliorations internes dans un ensemble d’outils, prennent fin. Nous pouvons nous attendre à ce que de nouveaux ensembles d’outils voient le jour, utilisant des circuits intégrés plus complexes. En effet, les outils ayant recours aux techniques des ondelettes plutôt qu’à la transformée en cosinus discrète (TCD) constitueront sans doute le prochain ensemble après la norme H.264. Les radiodiffuseurs doivent déterminer dans quelle mesure ces cycles d’améliorations peuvent avoir une incidence sur le choix de codecs. Performances De nouveaux ensembles plus performants sont mis sur pied lorsque les normes sont avalisées. Quelle alchimie préside à ces améliorations? Les systèmes de compression vidéo numérique reposent tous sur la même structure. En réalité, ils extraient les informations redondantes de l’image – c’est-à-dire que l’image peut être reconstituée dans le récepteur sans que ces informations soient explicitement envoyées. Ensuite, le système procède au besoin à des approximations du signal afin de réduire le débit binaire au-delà du débit possible grâce à la seule redondance et, enfin, le système détermine le moyen le plus efficace d’envoyer ces données. Le processus passe par trois phases: 1) compensation de mouvement; 2) codage par transformée; 3) codage statistique. Première phase: la compensation de mouvement. Le système détermine tout d’abord si des parties de l’image n’ont pas déjà été rencontrées et, dans ce cas, transmet l’information sur leur emplacement plutôt que les parties en soi. Ensuite, les UER–REVUETECHNIQUE –SÉLECTION2003 COMPRESSION AUDIO/VIDÉO Comparaison entre le MPEG-4, partie4 et le MPEG-2 m qualité SDTV: 15-20% m qualité CIF: 20-30% m qualité QCIF: 30-50% Comparaison entre le MPEG-4, partie10 et le MPEG-2 m qualité HDTV: 20-40% m qualité SDTV: 40-50% m qualité CIF: 50-60% parties restantes passent à la phase de compression: le codage par transformée. À ce niveau, le signal du domaine temporel (le monde réel) est converti au domaine fréquentiel (le signal prend la forme d’un groupe de composantes en fréquence). Les composantes basses fréquences (parce qu’elles sont les plus discrètes) sont éliminées et les fréquences restantes passent à la phase suivante, en l’occurrence le codage statistique: les mots numériques qui apparaissent sur une période donnée sont examinés, ceux qui apparaissent le plus souvent (comme les mots les plus courts) sont recodés. Ensuite, le signal est transmis. Comment accroître l’efficacité de ces trois phases en utilisant une puissance de traitement encore plus importante? Pour la première phase, la compensation de mouvement, nous pourrions étendre davantage les zones de recherche pour déterminer où la même portion de l’image a déjà été rencontrée. Pour la deuxième phase, nous pouvons diviser l’image en blocs de plus petite taille ou de taille répondant spécifiquement à leur contenu. Pour la troisième phase, nous pouvons augmenter le nombre de signaux examinés et utiliser des moyens plus sophistiqués pour établir la correspondance entre la longueur du mot et la fréquence de l’occurrence. Ce n’est pas d’une extrême simplicité mais il s’agit ici de la démarche la plus élémentaire pour améliorer les performances d’un codec. Combien de temps les améliorations seront-elles encore possibles? Le débit binaire nécessaire à la transmission d’un signal vidéo de qualité supérieure ne peut évidemment être réduit à zéro. Bien qu’une compression accrue puisse augmenter «l’efficacité» moyenne, elle peut également, en cas de défaillance du codec (le contenu de la scène n’est pas UER–REVUETECHNIQUE –SÉLECTION2003 transmis), entraîner un dysfonctionnement plus grave même si moins fréquent. En outre, plus les données sont comprimées, plus l’espace réservé à l’entête dans le signal est réduit. Si vous utilisez la totalité de la redondance, un deuxième passage par un codec ou un autre système de traitement d’images accroît le risque d’imperfections visibles. Les systèmes de compression utilisés dans un environnement où les traitements sont plus importants doivent être moins intensifs que ceux où il n’y aura aucune opération. Les systèmes de compression utilisés dans un environnement où le public peut être importuné par la moindre défaillance doivent également être plus légers que dans un contexte où l’attention du public se situe dans «la norme». Ces considérations compliquent le choix d’un système mais ces facteurs font partie du quotidien. Il est probable que le MPEG-4, partie10 soit suivi d’au moins deux cycles. Nous devrions pouvoir, au cours des dix prochaines années, apporter des améliorations à long terme à «l’efficacité». Approximations Il est toujours possible de trouver des raisons pour éviter de tirer des conclusions à caractère quantitatif sur les performances des codecs, mais cette attitude n’est d’aucune utilité pour arrêter la stratégie. En revanche, nous pouvons envisager de tirer des conclusions raisonnables dès lors que nous acceptons et comprenons les éléments cachés – notamment que les résultats dépendent du niveau de qualité absolu et du contenu. Le niveau de qualité visé et les éléments constitutifs de la scène ont leur importance car ils ont une incidence directe sur les résultats. Afin de comprendre dans les grandes lignes les différences entre les systèmes de compression vidéo, l’information existante – loin d’être idéale pour tirer ce type de conclusions – peut permettre de dégager des règles de bon sens pour le matériel dont l’importance n’est pas capitale. Examinons les résultats d’évaluations de qualité dans deux domaines: - le premier concerne le rapport entre MPEG-2 (le codec le plus populaire au monde) et le système de génération suivante, MPEG-4, partie4 (également dénommé MPEG-4 Visual); - le second concerne le rapport entre la qualité obtenue avec le MPEG-2 et le nouveau système H.264 (c’est-àdire le MPEG-4, partie10). Le MPEG-4, partie4 et partie10, sont nettement plus complexes que le MPEG-2 en termes de traitement requis dans le récepteur, mais cette évolution s’inscrit dans une certaine logique et est «autorisée» par la loi de Moore. Les rapports entre ces trois systèmes sont illustrés dans l’encadré ci-dessus. Le MPEG-4Partie4 est considéré à trois niveaux: - SDTV – télévision définition standard (qualité PAL/SECAM); - CIF (Common Interchange Format ) – résolution d’un quart de l’image SDTV utilisée dans certains cas pour la diffusion large bande sur Internet; - QCIF (Quarter Common Interchange Format ) – résolution égale à un quart du CIF et aussi utilisé pour la diffusion de contenu vidéo Web. Le MPEG-4, partie10 est considéré au niveau de la TV haute définition (environ quatre fois la TV définition standard) ainsi qu’aux niveaux de la TV standard et du CIF. Les pourcentages indiqués dans l’encadré correspondent aux réductions du débit binaire qui fourniraient la même qualité d’image. Ces observations indiquent que, à des niveaux de qualité d’image plus élevés (HDTV et SDTV), les gains en pourcentage par rapport au MPEG-2 sont inférieurs à ceux des niveaux CIF et QCIF. Lors de l’utilisation du MPEG-4, partie10, les gains sont considérables à des niveaux de qualité d’image inférieurs (50 à 60% au niveau CIF) et diminuent aux niveaux HDTV (20 à 40%). Cependant, de tels gains seraient-ils suffisants pour cautionner une modification du système de compression? Justifieraient- 5 COMPRESSION AUDIO/VIDÉO David Wood est le «patron» des nouvelles technologies de l’UER à Genève. Il est diplômé du département d’électronique de l’université de Southampton et de l’UNIIRT en Ukraine. Avant de rejoindre l’UER, il a travaillé à la BBC et à l’ancienne IBA au Royaume-Uni. les frais globaux les plus réduits. Prenez vos décisions commerciales avant les décisions techniques finales. - Notez qu’il n’existe aucune loi physique stipulant que l’efficacité des codecs atteindra un jour un niveau de perfectionnement maximal. Ce n’est d’ailleurs pas le cas. - Certains signes indiquent que le MPEG-4, partie4 a été détrôné, ou va l’être, par la technologie MPEG-4, partie10 (H.264). Cette évolution peut fournir des informations sur le moment opportun d’adopter une nouvelle technologie. - Question coûts et qualités techniques, le MPEG-4, partie4 pourrait être freiné par les propositions en faveur d’une facturation à l’utilisation. Le MPEG-4, partie10 souffrirait également de cet handicap si la même philosophie était appliquée. Il est rapporteur des groupes de l’UER Stratégie numérique, Services en ligne et Evaluation de la qualité de la télévision. ils l’utilisation d’un des systèmes successeurs du MPEG-2 en cas de mise sur pied d’un tout nouveau service. Coûts des licences Autre facteur à prendre sérieusement en considération: le coût des systèmes de compression. En effet, les nouveaux dispositifs exigent souvent de lourds investissements une fois les dépenses de R&D amorties. Le choix des systèmes de compression ne tourne toutefois pas qu’autour du coût du matériel et de la marge des fabricants. Des coûts de licences doivent être pris en considération. Tous les organes de normalisation proposent des spécifications dont l’homologation repose sur des termes «équitables, raisonnables et non discriminatoires». Cette approche paraît excellente mais personne ne sait exactement ce que signifie notamment le terme «raisonnable». La licence d’exploitation du MPEG-2 est basée sur un coût par récepteur de l’ordre de 2,5 US$. Il s’agit d’un système simple pour tous, car tout le monde sait d’emblée à combien doit en principe s’élever le montant de la facture. Cependant, le nouveau régime de licence en cours d’élaboration pour le MPEG-4, partie 4 est différent. Dans ce cas, il est proposé que pour les services payés par l’utilisateur – ou les services vers des mobiles – la facturation soit établie par heure d’utilisation. Cette facturation horaire inquiète les radiodiffuseurs car elle est à leurs yeux dissuasive et va à l’encontre de l’utilisation de tels codecs. Le régime qui sera adopté pour le MPEG-4, partie10 n’a pas encore été arrêté, mais Microsoft a 6 annoncé qu’il ne facturerait pas son Windows Media Player9 sur cette base. Cette volonté de modifier les contrats de licence et de les axer sur l’utilisation – plutôt que sur le dispositif récepteur – est peut-être due, ironiquement, au succès des organismes mondiaux de normalisation tels que l’ISO/CEI (CTM1 MPEG). Autrefois, lorsqu’une société donnée détenait les brevets d’un système, elle pouvait demander des royalties sur les récepteurs d’autres fabricants, ce qui lui permettait d’obtenir un revenu permanent. Aujourd’hui, lorsque plusieurs fabricants détiennent des brevets sur un système à normes ouvertes, et que ces mêmes sociétés produisent des récepteurs, le paiement de droits de licence sur un récepteur revient à se payer soimême pour obtenir le droit d’utiliser son propre système. Ces fabricants préféreraient naturellement que d’autres paient ces royalties, en l’occurrence les radiodiffuseurs – avec l’argent de ceux qui paient pour utiliser le service. Cette question de licence, basée soit sur l’utilisation, soit sur le récepteur, peut être liée au détenteur des brevets et au domaine dans lequel ce dernier évolue. Cet aspect pourrait acquérir de l’importance dans les prochaines années – seul l’avenir nous le dira. Quelles conclusions tirer pour le développement des codecs? - Il faut choisir le système de compression le plus près possible de sa date de mise en service. Il ne s’agit pas de la première, mais de la dernière chose à faire. Ainsi on obtient l’efficacité de diffusion la plus élevée et Des discussions et des documents provenant de nombreuses sources ont été nécessaires pour préparer cet article. Des remerciements particuliers sont adressés à M.Ken McCann, qui dirige le groupe DVB-AVC, pour ses informations éclairées. Il semblerait que Vladimir Poutine soit également – à l’instar de l’auteur – un adepte du Lomo Compact. Références [1] EBUI34-2002: The potential impact of Flat Panel displays on broadcast delivery of television. [2] EBUI35-2003: Further considerations on the impact of Flat Panel home displays on the broadcasting chain. [3] BPN055: Subjective viewing evaluations of some commercial internet video codecs – Phase 1, May 2003. Ces documents peuvent être obtenus auprès de Mme Lina Vanberghem au siège de l’UER. © UER Publié en anglais en juillet 2003 UER–REVUETECHNIQUE –SÉLECTION2003