Les technologies de compression vidéo numériques évoluent

Transcription

Les technologies de compression vidéo numériques évoluent
COMPRESSION AUDIO/VIDÉO
David Wood
Responsable «Nouvelles technologies », UER
Les technologies de compression vidéo numériques évoluent constamment et placent
radiodiffuseurs et fournisseurs de contenus devant des choix difficiles.
Quels sont les facteurs qui façonnent cette évolution ? Quelles performances peut-on
attendre des systèmes de compression actuels ?
Le «Lomo Compact» est plus qu’un
simple appareil photo fabriqué à SaintPétersbourg. Sa sortie constitue un véritable événement pour tous les photographes. Ses partisans soutiennent avec
ferveur qu’il prend les plus belles photos du monde et que celles-ci ont un
look particulier, unique en son genre.
La photographie a cédé la place à la
«lomographie» et des clubs réunissent
les adeptes de cet objet culte aux quatre
coins du globe.
Toutefois, lorsque des ingénieurs TV
examinent ce type de photos, ils sont
sidérés: couleurs sursaturées, gamma
incorrect, vignettage, etc. Malgré ces
«distorsions», les clichés du «Lomo
Compact» sont particulièrement prisés. En réalité, évaluer la qualité
d’image est une question d’une grande
complexité en raison des nombreuses
variables et, parfois, de l’absence de
logique apparente. Nous devons nous y
résigner lorsque nous abordons la
notion de qualité, quel que soit le
UER–REVUETECHNIQUE –SÉLECTION2003
domaine, y compris celui du codage et
de la compression d’images.
Le débat sur la qualité d’image ne peut
être manichéen. Chaque évaluation doit
être nuancée. Ainsi, plusieurs séries contenant chacune divers types de contenus
doivent être considérées ainsi que
d’autres variables.
Malgré la difficulté de la tâche, nous
devons essayer de généraliser la notion
de qualité d’image. Nous devons prendre le taureau par les cornes et décrire
la qualité de manière directe, intelligible
et utile. Une telle démarche est importante dans de nombreux domaines,
notamment lorsqu’il s’agit de comprendre le fonctionnement et l’efficacité des
systèmes de compression numériques.
La compression vidéo numérique est à
la croisée des chemins. MPEG-2 a parfaitement assumé son rôle depuis la
milieu des années 90. La génération suivante – MPEG-4, partie 4 – incluait non
Le Compact Lomo
seulement des outils de compression
poussés, mais aussi un nouveau mode de
diffusion de contenus multimédias par
codage sémantique orienté objet. Toutefois, les outils de compression sont restés la composante la plus largement
utilisée. Le MPEG-4, Partie10 (H. 264)
marque le début d’une nouvelle génération. Microsoft s’est aussi lancé dans la
bataille avec un codec vidéo intégré à
Windows Media Series 9, que le géant
de Seattle considère aussi utile pour
Internet que pour la radiodiffusion.
1
COMPRESSION AUDIO/VIDÉO
dent sur ces courbes pour prendre leurs
décisions. Bien que ces simples graphes
qualité/débit fournissent des informations utiles, ils dissimulent un monde
complexe. Chaque courbe est issue d’une
distribution statistique de courbes qui
traduisent les performances du codec
avec un contenu diversement critique,
pondérée
par
sa
«fréquence
d’occurrence». Ces courbes sont, de
manière schématique, une approximation de la réalité.
Un cliché Lomo standard, trop saturé, trop contrasté, du vignettage mais tellement «flashy »
Mais comment évaluer ces codecs et
comment prendre les décisions stratégiques pertinentes? Sans prétendre être
exhaustif, nous espérons donner dans
ces lignes quelques indications.
Nous n’expliquerons pas le fonctionnement de ces nouveaux codecs que les
développeurs ont décrit en long et en
large dans d’excellents documents de
référence. Nous tenterons de cerner le
problème dans sa globalité afin de
déterminer où nous sommes, où nous
allons et quels facteurs peuvent nous
aider à choisir un système.
fique, nous pouvons établir des différences dans l’«efficacité de la qualité de
distribution» (ci-après efficacité entre
guillemets) des codecs. Ces informations
nous permettent de poser un jugement
stratégique sur l’opportunité d’utiliser tel
type de compression et dans quelles circonstances. L’UER et le groupe de travail
MPEG du CTM1 de l’ISO/CEI se fon-
La forme et l’emplacement de ces courbes sont toutefois un indicateur important des performances du système de
compression. Lorsque les courbes sont
parallèles, la différence d’efficacité est
indépendante du niveau de qualité. Dans
le cas contraire, elle en est tributaire. En
général, les courbes qualité/débit convergent lorsque la qualité absolue
augmente: les différences entre les systèmes de compression sont habituellement
moins prononcées à des degrés de qualité
plus élevés. En fait, lorsque nous détectons un système dont les courbes restent
parallèles sur l’ensemble de la gamme de
qualité, le champagne peut couler à flot.
Les courbes qualité/débit ne constituent
en aucun cas le seul élément à considérer
Courbes d’évaluation
Lorsque des évaluations subjectives de
la qualité sont réalisées selon des procédures classiques, nous obtenons des
courbes indiquant le rapport entre la
conception moyenne de ce qui constitue
une bonne ou plus ou moins bonne qualité d’image et une variable clé, en général le débit binaire. Le type de courbes
que nous utilisons est illustré figure1 et
provient d’études récentes réalisées à
l’UER (BPN 055). En général, nous
pourrions évaluer plusieurs codecs et
parvenir à une famille de courbes.
En comparant les qualités obtenues à un
débit binaire donné ou les débits binaires
requis pour parvenir à une qualité spéci-
2
Figure 1 – Exemple de présentation de la qualité subjective repris
d’une récente publication de l’UER sur les performances des codecs pour contenu web
UER–REVUETECHNIQUE –SÉLECTION2003
COMPRESSION AUDIO/VIDÉO
lorsqu’il s’agit de prendre une décision
stratégique concernant l’adoption d’un
codec. Il convient avant tout de connaître le rapport entre l’«efficacité» relative et sa durée exprimée en mois ou en
années. En d’autres termes, nous devons
anticiper l’évolution des performances
d’un codec particulier et les comparer à
celles d’autres codecs sur la période pendant laquelle nous avons l’intention de
l’utiliser afin d’amortir notre investissement. Nous devons nous poser les questions suivantes: quand disposerons-nous
d’un meilleur système et quelle sera
l’ampleur de l’amélioration? Nous
devons également considérer l’évolution
des coûts des codecs.
Répondre à ces questions paraît impossible. Il faudrait savoir à l’avance quand
le génie frappera les esprits des spécialistes de la normalisation des technologies de la compression. La situation
n’est pourtant pas à ce point désespérée.
Certaines tendances permettent de nous
risquer à des prévisions raisonnables.
Tendances et prévisions
Pour se rassurer, il suffit de voir comment dans un autre domaine la «loi de
Moore» a permis une planification stratégique dans de nombreuses situations
liées aux circuits intégrés. Selon cette
loi, la complexité d’un circuit intégré de
dimensions données est multipliée par
deux tous les 18mois. Cette règle de
Gordon Moore est d’actualité depuis
des décennies. Elle repose sur un principe simple: observer l’évolution
jusqu’à ce jour et refuser de concevoir
que soudainement, comme par enchantement, le cycle est rompu.
En fait, le codeur, contrairement au décodeur, ne doit en général pas être spécifié.
Dans ce cas, le fabricant de codeurs doit
simplement concevoir un boîtier qui diffusera un signal décodable. Il est libre de
concevoir à sa guise les entrailles de son
boîtier pourvu que celui-ci émette un
signal normalisé lisible par le décodeur.
Ainsi, les performances générales peuvent
progressivement s’améliorer à mesure
que les fabricants produisent des codeurs
de plus en plus «intelligents». Ce scénario est tout à fait possible. Les caractéristiques du contenu peuvent être analysées
et l’image traitée pour donner les signaux
les plus facilement compressibles.
Quelle panoplie d’outils devrait entrer
dans la composition d’un système de
décompression? Le choix est tout
d’abord basé sur des considérations pratiques – quelle complexité la loi de Moore
autorise-t-elle actuellement au niveau des
récepteurs? En dépit de l’évolution constante, il est possible d’estimer les coûts
des récepteurs actuels comme dans un
avenir proche. Le choix dépend aussi des
systèmes mis au point par les laboratoires. Si un dispositif n’a pas encore été
conçu, il ne peut être utilisé!
Facteurs déterminants
Nous observons en gros deux facteurs
susceptibles d’influencer le développement et l’utilisation des codecs. D’une
part, il y a le cycle d’amélioration de la
qualité qui intervient lorsqu’un ensemble
d’outils de compression est reconnu
comme le meilleur à un moment donné.
D’autre part, il y a la possibilité d’aboutir
à un nouvel ensemble d’outils – parce
que des circuits intégrés plus complexes
le permettent et que les connaissances
Existe-t-il un postulat équivalent appli- ont évolué –, généralement en complécable à la compression numérique? tant le jeu existant afin de créer un nouTout porte à le croire.
veau codec. Si vous utilisez tous les
anciens outils dans le nouvel ensemble,
Les systèmes de compression réunissent vous pouvez faire en sorte que des imadifférents «outils» de compression. Les ges compressées sous l’ancien système
systèmes modernes pour la diffusion de pourront être décodées par le nouveau –
médias à grande échelle sont axés sur une cette rétrocompatibilité est en effet intécomplexité asymétrique. Il est logique grée à de nombreux systèmes MPEG.
d’intégrer une complexité minimale au
décodeur et une complexité maximale au Une autre caractéristique de l’évolution
codeur. Ainsi, il existe des millions de – à la fois en termes d’amélioration de
décodeurs et seulement quelques «l’efficacité» dans un ensemble doncodeurs; rien d’anormal à cette situation. nés et de l’assemblage de nouveaux
UER–REVUETECHNIQUE –SÉLECTION2003
ensembles plus complets – est que la
procédure de compression est de plus
en plus fidèle au contexte. Le système
de compression peut s’adapter de
manière encore plus intelligente au type
de contenu. Nous passons du
«systématique» à «l’adaptatif».
Prenons par exemple la procédure
d’entrelacement – le premier outil de
compression vidéo jamais mis au point.
Lorsque l’entrelacement est appliqué,
une ligne sur deux est omise dans un
cycle à deux trames. End’autres termes
– si vous êtes porté sur les mathématiques –, cette opération élimine de la
scène le contenu informatif temporel à
composante verticale élevée, permettant
avantageusement de diviser par deux la
largeur de bande du signal. Cette
méthode est très efficace car ce contenu
représente la portion la moins remarquable de l’information sur l’image
lorsqu’aucun détail ne se déplace à la
verticale. Cependant, la procédure est
appliquée à chaque image, quelle que
soit la scène. Il s’agit donc d’un outil de
compression «systématique».
Alors que nous avons une connaissance de plus en plus approfondie de
la compression, nous disposons maintenant de techniques de compression,
non pas systématiques, mais adaptatives en fonction du contenu. L’entrelacement est une technique acceptable
lorsque l’image est statique et
qu’aucun détail ne se déplace. Dès
qu’il y a déplacement, le résultat est
flou. Ne serait-il pas intéressant de
pouvoir suspendre l’entrelacement
chaque fois qu’un détail se déplace ?
Ne serait-il pas non plus intéressant de
pouvoir changer de système de compression selon le contenu? Ce sont
précisément ces aspects des systèmes
de compression qui font sans cesse
l’objet d’améliorations.
Paradoxalement, alors que l’entrelacement était une technique idéale à l’ère
de l’analogique, il s’avère être un handicap à l’heure du numérique car un
système de compression numérique
adaptatif
permet
d’obtenir
de
meilleurs résultats. Avec la prochaine
génération des systèmes de radiodiffusion, nous évoluerons peut-être vers
des systèmes de production à balayage
progressif qui, comprimés, se caractériseront par une « efficacité» accrue.
3
COMPRESSION AUDIO/VIDÉO
affirmer – sur la base du travail réalisé et
consigné dans le document d’information
I35 de l’UER – qu’il se situe quelque part
entre les courbes du MPEG-4, partie4 et
du MPEG-4, partie10. Sa position
dépend du niveau de qualité absolu considéré et de la configuration des éléments
internes dans le codec de WM9.
Figure 2 – L’évolution des normes ouvertes de compression vidéo
Des poupées gigognes
Si nous passons en revue l’histoire des
codecs, nous retrouvons une série de
courbes semblables à celles illustrées à la
figure2. Nous n’avons pas inclus le
MPEG-1 sur cette figure, ni même des
codecs antérieurs, faute de place. Nous
connaissons le cycle de développement
du codec MPEG-2 en termes de qualité.
«L’efficacité» a été considérablement
améliorée depuis que les premiers outils
ont été mis sur pied. Ces perfectionnements se poursuivent d’ailleurs toujours.
Les cycles de développement répondent
à un schéma particulier permettant
d’enregistrer des gains continus à long
terme en matière d’efficacité.
Nous avons supposé ici que seul un
niveau de qualité particulier nous intéressait, par exemple des images de degré
4.5 pour une radiodiffusion de qualité
professionnelle. Toutes les données
s’appliquent au débit nécessaire pour
cette qualité spécifique en utilisant un
matériel d’une «criticité» donnée (provenant souvent de scènes considérées
comme «critiques mais sans plus»).
Ce diagramme illustre les courbes du
MPEG-2 et du MPEG-4, partie4. Nous
avons également ajouté une troisième
courbe pour la norme plus récente
MPEG-4, partie10 (ou H. 264) et une
quatrième pour un prochain ensemble
d’outils de compression.
4
En pratique, il s’agit de vraies courbes et
pas simplement de lignes droites –
n’oubliez pas que différentes courbes
correspondent à différents niveaux de
qualité. Pour entrer dans le vif du sujet,
commençons par une image simplifiée.
«L’efficacité» d’un codec augmente (un
débit moindre pour un niveau de qualité donné) dans les années qui suivent
la normalisation des outils. Par la suite
des modifications progressives interviennent avec l’apparition de nouveaux
codecs. Malgré le chevauchement probable entre un ensemble et le suivant,
tout nouvel ensemble d’outils accroît
« l’efficacité» beaucoup plus que ne le
fait le précédent.
Nous constatons un schéma de cycles de
développement à court terme qui se traduit par des gains continus à long terme
en matière «d’efficacité».
Des informations qui résultent de l’évaluation de la qualité des systèmes de compression, il ressort que le cycle interne
d’améliorations des systèmes est d’environ 5 à 8 ans. En outre, le gain à long
terme en matière «d’efficacité» pour la
SDTV (TV définition standard) est, en
moyenne, d’environ 5 à 10 ans. Ces prévisions ne reposent bien sûr pas sur une
science exacte; une recherche plus
approfondie s’impose pour obtenir des
valeurs plus précises. L’important ne sont
pas les valeurs absolues, mais l’évaluation
du phénomène et l’identification des facteurs à prendre en compte lors d’une
réflexion sur les codecs. Pour Windows
Media Player 9 (WM9), nous pourrions
Un point important est qu’il n’y a
aucune raison pour que ces cycles, pas
plus que les améliorations internes dans
un ensemble d’outils, prennent fin.
Nous pouvons nous attendre à ce que
de nouveaux ensembles d’outils voient
le jour, utilisant des circuits intégrés
plus complexes. En effet, les outils
ayant recours aux techniques des ondelettes plutôt qu’à la transformée en cosinus discrète (TCD) constitueront sans
doute le prochain ensemble après la
norme H.264. Les radiodiffuseurs doivent déterminer dans quelle mesure ces
cycles d’améliorations peuvent avoir
une incidence sur le choix de codecs.
Performances
De nouveaux ensembles plus performants sont mis sur pied lorsque les normes sont avalisées. Quelle alchimie
préside à ces améliorations? Les systèmes de compression vidéo numérique
reposent tous sur la même structure. En
réalité, ils extraient les informations
redondantes de l’image – c’est-à-dire
que l’image peut être reconstituée dans
le récepteur sans que ces informations
soient explicitement envoyées. Ensuite,
le système procède au besoin à des
approximations du signal afin de
réduire le débit binaire au-delà du débit
possible grâce à la seule redondance et,
enfin, le système détermine le moyen le
plus efficace d’envoyer ces données.
Le processus passe par trois phases:
1) compensation de mouvement;
2) codage par transformée;
3) codage statistique.
Première phase: la compensation de
mouvement. Le système détermine tout
d’abord si des parties de l’image n’ont pas
déjà été rencontrées et, dans ce cas, transmet l’information sur leur emplacement
plutôt que les parties en soi. Ensuite, les
UER–REVUETECHNIQUE –SÉLECTION2003
COMPRESSION AUDIO/VIDÉO
Comparaison entre le MPEG-4,
partie4 et le MPEG-2
m qualité SDTV: 15-20%
m qualité CIF: 20-30%
m qualité QCIF: 30-50%
Comparaison entre le MPEG-4,
partie10 et le MPEG-2
m qualité HDTV: 20-40%
m qualité SDTV: 40-50%
m qualité CIF: 50-60%
parties restantes passent à la phase de
compression: le codage par transformée.
À ce niveau, le signal du domaine temporel (le monde réel) est converti au
domaine fréquentiel (le signal prend la
forme d’un groupe de composantes en
fréquence). Les composantes basses fréquences (parce qu’elles sont les plus discrètes) sont éliminées et les fréquences
restantes passent à la phase suivante, en
l’occurrence le codage statistique: les
mots numériques qui apparaissent sur une
période donnée sont examinés, ceux qui
apparaissent le plus souvent (comme les
mots les plus courts) sont recodés.
Ensuite, le signal est transmis.
Comment accroître l’efficacité de ces trois
phases en utilisant une puissance de traitement encore plus importante? Pour la
première phase, la compensation de mouvement, nous pourrions étendre davantage les zones de recherche pour
déterminer où la même portion de
l’image a déjà été rencontrée. Pour la
deuxième phase, nous pouvons diviser
l’image en blocs de plus petite taille ou de
taille répondant spécifiquement à leur
contenu. Pour la troisième phase, nous
pouvons augmenter le nombre de signaux
examinés et utiliser des moyens plus
sophistiqués pour établir la correspondance entre la longueur du mot et la fréquence de l’occurrence. Ce n’est pas
d’une extrême simplicité mais il s’agit ici
de la démarche la plus élémentaire pour
améliorer les performances d’un codec.
Combien de temps les améliorations
seront-elles encore possibles? Le débit
binaire nécessaire à la transmission d’un
signal vidéo de qualité supérieure ne
peut évidemment être réduit à zéro. Bien
qu’une compression accrue puisse augmenter «l’efficacité» moyenne, elle peut
également, en cas de défaillance du
codec (le contenu de la scène n’est pas
UER–REVUETECHNIQUE –SÉLECTION2003
transmis), entraîner un dysfonctionnement plus grave même si moins fréquent.
En outre, plus les données sont comprimées, plus l’espace réservé à l’entête
dans le signal est réduit. Si vous utilisez
la totalité de la redondance, un
deuxième passage par un codec ou un
autre système de traitement d’images
accroît le risque d’imperfections visibles.
Les systèmes de compression utilisés
dans un environnement où les traitements sont plus importants doivent être
moins intensifs que ceux où il n’y aura
aucune opération. Les systèmes de compression utilisés dans un environnement
où le public peut être importuné par la
moindre défaillance doivent également
être plus légers que dans un contexte où
l’attention du public se situe dans «la
norme». Ces considérations compliquent le choix d’un système mais ces facteurs font partie du quotidien.
Il est probable que le MPEG-4, partie10
soit suivi d’au moins deux cycles. Nous
devrions pouvoir, au cours des dix prochaines années, apporter des améliorations à long terme à «l’efficacité».
Approximations
Il est toujours possible de trouver des
raisons pour éviter de tirer des conclusions à caractère quantitatif sur les performances des codecs, mais cette
attitude n’est d’aucune utilité pour arrêter la stratégie. En revanche, nous pouvons envisager de tirer des conclusions
raisonnables dès lors que nous acceptons et comprenons les éléments cachés
– notamment que les résultats dépendent du niveau de qualité absolu et du
contenu. Le niveau de qualité visé et les
éléments constitutifs de la scène ont
leur importance car ils ont une incidence directe sur les résultats.
Afin de comprendre dans les grandes
lignes les différences entre les systèmes de
compression vidéo, l’information existante – loin d’être idéale pour tirer ce type
de conclusions – peut permettre de dégager des règles de bon sens pour le matériel
dont l’importance n’est pas capitale.
Examinons les résultats d’évaluations de
qualité dans deux domaines:
-
le premier concerne le rapport entre
MPEG-2 (le codec le plus populaire
au monde) et le système de génération
suivante, MPEG-4, partie4 (également dénommé MPEG-4 Visual);
-
le second concerne le rapport entre
la qualité obtenue avec le MPEG-2 et
le nouveau système H.264 (c’est-àdire le MPEG-4, partie10).
Le MPEG-4, partie4 et partie10, sont
nettement plus complexes que le
MPEG-2 en termes de traitement requis
dans le récepteur, mais cette évolution
s’inscrit dans une certaine logique et est
«autorisée» par la loi de Moore.
Les rapports entre ces trois systèmes
sont illustrés dans l’encadré ci-dessus.
Le MPEG-4Partie4 est considéré à
trois niveaux:
-
SDTV – télévision définition standard (qualité PAL/SECAM);
-
CIF (Common Interchange Format ) –
résolution d’un quart de l’image
SDTV utilisée dans certains cas pour
la diffusion large bande sur Internet;
-
QCIF (Quarter Common Interchange
Format ) – résolution égale à un quart
du CIF et aussi utilisé pour la diffusion de contenu vidéo Web.
Le MPEG-4, partie10 est considéré au
niveau de la TV haute définition (environ quatre fois la TV définition standard) ainsi qu’aux niveaux de la TV
standard et du CIF.
Les pourcentages indiqués dans l’encadré correspondent aux réductions du
débit binaire qui fourniraient la même
qualité d’image.
Ces observations indiquent que, à des
niveaux de qualité d’image plus élevés
(HDTV et SDTV), les gains en pourcentage par rapport au MPEG-2 sont inférieurs à ceux des niveaux CIF et QCIF.
Lors de l’utilisation du MPEG-4,
partie10, les gains sont considérables à
des niveaux de qualité d’image inférieurs
(50 à 60% au niveau CIF) et diminuent
aux niveaux HDTV (20 à 40%). Cependant, de tels gains seraient-ils suffisants
pour cautionner une modification du
système de compression? Justifieraient-
5
COMPRESSION AUDIO/VIDÉO
David Wood est le «patron» des nouvelles
technologies de l’UER à Genève. Il est diplômé
du département d’électronique de l’université
de Southampton et de l’UNIIRT en Ukraine.
Avant de rejoindre l’UER, il a travaillé à la BBC
et à l’ancienne IBA au Royaume-Uni.
les frais globaux les plus réduits. Prenez vos décisions commerciales avant
les décisions techniques finales.
-
Notez qu’il n’existe aucune loi physique stipulant que l’efficacité des
codecs atteindra un jour un niveau
de perfectionnement maximal. Ce
n’est d’ailleurs pas le cas.
-
Certains signes indiquent que le
MPEG-4, partie4 a été détrôné, ou
va l’être, par la technologie MPEG-4,
partie10 (H.264). Cette évolution
peut fournir des informations sur le
moment opportun d’adopter une
nouvelle technologie.
-
Question coûts et qualités techniques, le MPEG-4, partie4 pourrait
être freiné par les propositions en
faveur d’une facturation à l’utilisation. Le MPEG-4, partie10 souffrirait également de cet handicap si la
même philosophie était appliquée.
Il est rapporteur des groupes de l’UER Stratégie numérique, Services en ligne et Evaluation
de la qualité de la télévision.
ils l’utilisation d’un des systèmes successeurs du MPEG-2 en cas de mise sur pied
d’un tout nouveau service.
Coûts des licences
Autre facteur à prendre sérieusement en
considération: le coût des systèmes de
compression. En effet, les nouveaux dispositifs exigent souvent de lourds investissements une fois les dépenses de
R&D amorties. Le choix des systèmes
de compression ne tourne toutefois pas
qu’autour du coût du matériel et de la
marge des fabricants. Des coûts de
licences doivent être pris en considération. Tous les organes de normalisation
proposent des spécifications dont
l’homologation repose sur des termes
«équitables, raisonnables et non
discriminatoires».
Cette
approche
paraît excellente mais personne ne sait
exactement ce que signifie notamment
le terme «raisonnable».
La licence d’exploitation du MPEG-2
est basée sur un coût par récepteur de
l’ordre de 2,5 US$. Il s’agit d’un système simple pour tous, car tout le
monde sait d’emblée à combien doit en
principe s’élever le montant de la facture. Cependant, le nouveau régime de
licence en cours d’élaboration pour le
MPEG-4, partie 4 est différent. Dans
ce cas, il est proposé que pour les services payés par l’utilisateur – ou les services vers des mobiles – la facturation
soit établie par heure d’utilisation.
Cette facturation horaire inquiète les
radiodiffuseurs car elle est à leurs yeux
dissuasive et va à l’encontre de l’utilisation de tels codecs. Le régime qui sera
adopté pour le MPEG-4, partie10 n’a
pas encore été arrêté, mais Microsoft a
6
annoncé qu’il ne facturerait pas son
Windows Media Player9 sur cette
base.
Cette volonté de modifier les contrats
de licence et de les axer sur l’utilisation
– plutôt que sur le dispositif récepteur –
est peut-être due, ironiquement, au succès des organismes mondiaux de normalisation tels que l’ISO/CEI (CTM1
MPEG). Autrefois, lorsqu’une société
donnée détenait les brevets d’un système, elle pouvait demander des royalties sur les récepteurs d’autres
fabricants, ce qui lui permettait d’obtenir un revenu permanent.
Aujourd’hui, lorsque plusieurs fabricants détiennent des brevets sur un système à normes ouvertes, et que ces
mêmes sociétés produisent des récepteurs, le paiement de droits de licence
sur un récepteur revient à se payer soimême pour obtenir le droit d’utiliser
son propre système. Ces fabricants préféreraient naturellement que d’autres
paient ces royalties, en l’occurrence les
radiodiffuseurs – avec l’argent de ceux
qui paient pour utiliser le service.
Cette question de licence, basée soit sur
l’utilisation, soit sur le récepteur, peut
être liée au détenteur des brevets et au
domaine dans lequel ce dernier évolue.
Cet aspect pourrait acquérir de l’importance dans les prochaines années – seul
l’avenir nous le dira.
Quelles conclusions tirer pour le développement des codecs?
-
Il faut choisir le système de compression le plus près possible de sa date
de mise en service. Il ne s’agit pas de
la première, mais de la dernière
chose à faire. Ainsi on obtient l’efficacité de diffusion la plus élevée et
Des discussions et des documents provenant de nombreuses sources ont été
nécessaires pour préparer cet article. Des
remerciements particuliers sont adressés à
M.Ken McCann, qui dirige le groupe
DVB-AVC, pour ses informations éclairées. Il semblerait que Vladimir Poutine
soit également – à l’instar de l’auteur –
un adepte du Lomo Compact.
Références
[1] EBUI34-2002:
The
potential
impact of Flat Panel displays on
broadcast delivery of television.
[2] EBUI35-2003: Further considerations on the impact of Flat Panel
home displays on the broadcasting
chain.
[3] BPN055: Subjective viewing evaluations of some commercial internet video codecs – Phase 1, May
2003.
Ces documents peuvent être obtenus
auprès de Mme Lina Vanberghem au
siège de l’UER.
© UER Publié en anglais en juillet 2003
UER–REVUETECHNIQUE –SÉLECTION2003