Vidéo - Wikipédia

Transcription

Vidéo - Wikipédia
Vidéo - Wikipédia
10/11/11 8:55 AM
Vidéo - Wikipédia
La vidéo regroupe l'ensemble des techniques permettant l'enregistrement ainsi que la
restitution d'images animées, accompagnées ou non de son, sur un support électronique
et non de type photochimique.
Le mot « vidéo » vient du latin « video » qui signifie : « je vois ». C'est l'apocope de vidéophonie ou vidéogramme. Le substantif vidéo s'accorde en nombre, cependant, l'adjectif
reste toujours invariable.
Théorie[modifier]
Un flux vidéo est composé d'une succession d'images qui défilent à un rythme fixe (par
exemple 25 par seconde dans la norme Française L ou 30 par seconde dans d'autre
normes) pour donner l'illusion du mouvement. Chaque image est décomposée en lignes
horizontales, chaque ligne étant une succession de points. La lecture et la restitution
d'une image s'effectue donc séquentiellement ligne par ligne comme un texte écrit : de
gauche à droite puis de haut en bas.
Balayage[modifier]
Balayage par entrelacement[modifier]
Article détaillé : Entrelacement.
L'image d'un téléviseur est une succession de balayages linéaires horizontaux, de
gauche à droite, partant du haut, et finissant en bas de l'écran. Aux débuts de la télévision, la qualité des éléments phosphorescents du tube était médiocre. De ce fait, quand
le faisceau balayait le bas de l'écran, le haut avait déjà disparu, d'où un phénomène de
scintillement, ressenti fortement par l'œil humain pour 25 Hz ou 30 Hz. La solution la
plus simple eût été d'accélérer la cadence de balayage, mais ceci imposait également
d'augmenter la cadence des images, ce qui était coûteux en bande passante. Une solution plus astucieuse fut d'omettre une ligne sur deux dans chaque image, permettant
ainsi de doubler la cadence de balayage tout en gardant une même bande passante. Ainsi, une première passe affiche toutes les lignes impaires en deux fois moins de temps
que pour une image entière et une seconde passe affiche les lignes manquantes paires :
c'est ce que l'on appelle l'entrelacement. On obtient bien le même nombre de lignes de
balayage pour une image, et on balaye deux fois l'écran pour afficher une seule image.
On désigne par le terme « trame » (« field » en anglais) une passe de balayage. Une
image est donc constituée de deux trames, puisqu'il faut deux balayages pour définir l'ihttp://fr.wikipedia.org/wiki/Vidéo
Page 1 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
mage (« frame » en anglais).
Les caméras, qui fonctionnent comme un « téléviseur inversé », adoptèrent elles aussi
cet entrelacement du balayage. Dans la première moitié du temps d'une image, une 1re
prise de vue définit toutes les lignes impaires, et une moitié d'image plus tard, une seconde prise de vue définit les lignes paires. Ce qu'il faut bien comprendre ici, c'est que
les deux prises de vues sont distantes dans le temps (d'une moitié d'image). Et même si
ces deux prises de vue sont complémentaires d'un point de vue spatial (les deux balayages se complètent dans le cadre), ces deux prises de vue n'affichent pas le même
contenu ! Si un sujet se déplace dans le champ, il aura une position différente sur chacune des deux trames : on a alors un effet de zig-zag sur chaque « frame ».
Ce problème est en partie résolu par un dispositif de lames cristallines biréfringentes qui
« étalent » les détails en dédoublant les rayons lumineux. Il en découle une perte de définition qui confèrent aux système PAL et SECAM une résolution verticale multipliée par
0,7 (facteur de Kell) et qui n'est plus réellement que de 400 lignes environ.
Balayage progressif[modifier]
Lorsque l'affichage n'est plus entrelacé, on parle de balayage progressif. C'est le mode
de capture choisi pour les films tournés en HD TV ou en D-cinéma destinés à être transférés et projetés en 35 mm.
Les 25 images progressives (25p) confèrent alors aux caméras un temps de pose de 1/25
de seconde ce qui est trop long en termes de résolution temporelle. On préfère alors limiter le temps d'intégration des trames à 1/50 s (obturateur électronique).
Les standards de diffusion couleur[modifier]
Les standards PAL ou SECAM n'ont pas de
rapport avec le balayage d'une image, ces standards permettent uniquement d'ajouter la couleur aux images noir et blanc à savoir :
Dans les premiers temps de la télévision, seule
la luminance défini l'image par un certain
nombre de points horizontaux et aussi par trois facteurs de nuance de gris.
Lorsque la télévision couleur a fait son apparition il a fallu que les téléviseurs n/b
puissent tout de même restituer une image, le signal de luminance a été conservé et on a
http://fr.wikipedia.org/wiki/Vidéo
Page 2 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
ajouté un signal que le téléviseur noir et blanc ne pourrait distinguer et donc ne pas afficher, même en tant que signal parasite, c'est la compatibilité ascendante ou rétro compatibilité.
On a donc ajouté les deux différences de couleur R'-Y et B'-Y (le ' signifie que les signaux
ont subi une correction propre à une courbe de gamma pour pallier, à l'époque, un problème de non-linéarité de restitution des tubes cathodiques) afin, qu'en combinant le
tout avec la luminance, qu'on puisse extraire le vert.
Ceci pour la couleur ; maintenant il fallait pouvoir transporter ces deux différences et
c'est là qu'un conflit de standard a été déclaré, à savoir tous les pays n'ont pas adopté la
même façon de transmission des signaux de chrominance.
En France SECAM séquentiel de couleur à mémoire (mémorisation d'une ligne sur
deux afin de calculer le vert).
Aux États-Unis et autre pays le NTSC (changement de phase uniquement sur une
des différences couleur), c'est le premier système mis en place mais qui génère de la
diaphotie auquel la France a rétorqué par le SECAM.
Et le reste du monde le PAL Phase altération line (distinction des deux différences envoyées en même temps et avec des phases différente).
Le signal de chrominance est ensuite une sous porteuse de la luminance…
Le nombre de lignes, la vitesse de balayage, le type de signal positif ou négatif à l'émission, font partie des normes suivant le pays et n'a rien à voir avec les standards de diffusion couleur (PAL, SECAM, MESECAM, et NTSC).
Du fait de la capture en deux trames de 1/50 de seconde chacune, c'est le temps de pose
en vidéo (25i).
Les capteurs photographiques[modifier]
Article détaillé : Capteur photographique.
Les premières caméras, fonctionnant sur le même principe que les téléviseurs, analysaient l'image formée par l'objectif à l'aide d'un tube cathodique. Depuis la fin des années 1980, elles sont dotées d'un capteur photographique de type CCD ou CMOS.
Définition de l'image et fréquence de balayage[modifier]
Il existe différents formats d'image vidéo, qui dépendent essentiellement de la fréquence
http://fr.wikipedia.org/wiki/Vidéo
Page 3 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
de balayage vertical de l'image.
405 lignes 50 Hz (standard anglais abandonné)
noir et blanc
525 lignes 60 Hz : résolution 4/3 utile = 720 x 480
(standard américain) couleur NTSC et PAL-N
625 lignes 50 Hz : résolution 4/3 utile = 768 x 576
(standard européen) couleur PAL, SECAM et
NTSC-4.43
819 lignes 50 Hz : résolution 4/3 utile = 1024 x 768 (standard français abandonné)
noir et blanc
On peut constater à ce point qu'il existe une différence entre le nombre de lignes composant l'image et le nombre de lignes affichées. Ceci représente une différence de 49 lignes
en 50 Hz et de 45 lignes en 60 Hz. Ces lignes perdues sont nécessaires, elles représentent
le temps nécessaire pour que le faisceau d'électrons balayant le tube cathodique puisse
remonter du bas de l'image vers le haut. Ce problème technique n'existe pas avec les
panneaux LCD et les dalles plasma, mais il est conservé pour assurer la compatibilité.
Les lignes libres sont mises partiellement à profit : on y place les signaux du télétexte, du
sous-titrage et aussi le time-code des équipements vidéo professionnels.
Il faut distinguer deux fréquences de balayage de l’image :
Le balayage vertical, qui s'effectue de haut en bas et sert à composer l'image. Il s'effectue 50 ou 60 fois par seconde.
Le balayage horizontal, qui s'effectue de droite à gauche pour chaque ligne de l'image. La fréquence de balayage horizontal est donc égale à la fréquence verticale
multipliée par le nombre de lignes et divisée par deux à cause de l'entrelacement.
Ce qui donne les valeurs suivantes :
Fh(50 Hz) = 50 x 625 / 2 = 15 625 Hz
Fh(60 Hz) = 60 x 525 / 2 = 15 750 Hz
Ce résultat n'est pas dû au hasard. Si les fréquences horizontales sont presque les mêmes
en 50 Hz et en 60 Hz, c'est que cela permet d'utiliser la même circuiterie de balayage horizontal, donc de réaliser des économies.
Couleur[modifier]
Depuis quelques décennies, les spécialistes connaissaient les particularités spectrales de
http://fr.wikipedia.org/wiki/Vidéo
Page 4 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
l'œil humain, qui affichait une très nette préférence pour certaines couleurs. De plus, ils
savaient que le spectre chromatique de l'œil peut se décomposer en trois couleurs primaires, qui permettent par mélange de recréer à peu près toutes les autres couleurs du
spectre. Le cinéma couleur exploite cela en utilisant des émulsions à plusieurs couches,
dont chacune est sensible à une couleur primaire.
Les écrans émettant de la lumière, les ingénieurs utilisèrent la synthèse additive composé de rouge, vert et bleu (à l'inverse le papier absorbe la lumière et utilise la synthèse
soustractive composé de cyan, magenta et jaune) Le rouge, vert et bleu sont les couleurs
primaire de cette synthèse additive. De la même manière le cyan, magenta et jaune sont
les couleurs primaire de la synthèse soustractive.
La prise de vue en couleur s'effectue selon un prisme optique qui répartit la lumière sur
trois capteurs, devant lesquels il a respectivement un filtre rouge, vert et bleu. Ainsi,
chaque capteur n'enregistre que les informations de lumière concernant une couleur. Il
suffit ensuite d'enregistrer puis restituer les 3 composantes RVB sur un moniteur couleur acceptant les trois entrées RVB : il y a trois signaux à la place d'un seul. Il faut non
seulement tripler toutes les liaisons câblées entre les différents équipements, mais aussi
tripler les pistes d'enregistrement sur un magnétoscope, tripler tous les équipements de
production, jusqu'aux équipements de diffusion hertzienne. Le défi était donc de créer
un signal unique englobant trois informations différentes, et qui ne devaient pas se mélanger avant le traitement par le poste de réception.
Le défi était aussi de conserver la totale compatibilité avec les postes noir et blanc encore
très présents dans les foyers. Les chercheurs travaillèrent donc dans le but de créer un
signal vidéo englobant du rouge, du vert, du bleu, ainsi que du noir et du blanc dans le
même « tuyau », sans que ceux-ci se mélangent.
Il était interdit d'avoir une caméra noir et blanc ET une caméra couleur. Il fallait donc fabriquer du noir et blanc à partir des trois composantes RVB. Se basant sur les sensibilités
de l'œil aux différentes couleurs, les spécialistes prirent 59 % de vert, 30 % de rouge et
11 % de bleu. Ils venaient d'inventer un nouveau terme : la luminance (Y). Les téléviseurs noir et blanc pourraient donc voir en noir et blanc des images issues de caméra
couleur. Comment maintenant rajouter à ce Y les informations de couleurs permettant
de retrouver notre RVB original ? Puisqu'il y avait déjà de la lumière (le Y), il fallait « colorier » ce noir et blanc avec des informations de couleurs qui ne contenaient, elles, aucune valeur de lumière, mais uniquement des indications de teinte et de saturation.
Une fois d'accord pour ce noir et blanc colorisé, il fallut trouver l'astuce qui permettrait
de transmettre la lumière (Y) et la chroma (C). Des procédés électroniques aux très longs
http://fr.wikipedia.org/wiki/Vidéo
Page 5 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
noms virent le jour. Il y a par exemple «modulation d'amplitude en quadrature de
phase, à sous-porteuse supprimée». Ces solutions se devaient à la fois de mélanger deux
signaux de manière à pouvoir les discriminer à la réception, mais aussi de n'avoir aucune interférence visible dans le spectre du signal noir et blanc.
Ces solutions furent trouvées et appliquées. Ainsi sont nés le NTSC aux États-Unis, le
SECAM en France, et le PAL en Allemagne. Le codage permet de transformer du RVB
en signal couleur compatible noir et blanc. Le NTSC, le SECAM et le PAL sont trois
types de codages différents incompatibles entre eux. Passer d'un type de codage à un
autre s'appelle le « transcodage ».
Aucune des trois solutions n'est néanmoins transparente, loin s'en faut. Un signal transcodé souffre d'artefacts plus ou moins visibles selon le codage.
Un signal vidéo codé de la sorte est dit signal composite, car il contient plusieurs
sources de nature différente. Les standards vidéo utilisant le composite vont de l'UMATIC / U-MATIC SP au VHS en passant par le 8mm ou Video 8, le Betamax, le VCR
ou encore le V2000. Au vu des dégradations causées par le codage, il devenait urgent de
s'en absoudre en production.
Au début des années 1980, Sony mit au point un format vidéo à composantes séparées,
constitué de plusieurs signaux distincts, véhiculés par des câbles distincts : le Betacam /
Betacam SP. Pour rester compatible avec le noir et blanc, la société évita soigneusement
le RVB, et choisit naturellement un format comportant le Y, plus des informations de
chrominance véhiculées par 2 signaux : U et V (appelés aussi Cr et Cb).
Ces composantes sont reliées par des formules U = R - Y et V = B - Y, où Y = 0,30R +
0,59V + 0,11B (les coefficients étant différents selon le codage utilisé). Cette transformation de RVB en YUV s'appelle matriçage. Le matriçage est une opération plus simple
que le codage qui ne génère pas de dégradation, tout en offrant l'avantage de la compatibilité Y.
Quelques années plus tard, un format grand public apparut : le S-Video ou Y/C, où la
luminance Y et la chrominance C (codée en NTSC, PAL ou SECAM) étaient séparées (SVHS, Hi-8, Super-Betamax). Ce format est de qualité meilleure qu'un format composite,
puisque la chrominance n'empiète plus sur la bande de fréquences de la luminance, ce
qui pouvait amener à des artefacts colorés sur des détails fins. La résolution horizontale
de ces formats pouvait donc être quasiment doublée (400 points/ligne au lieu de 240250).
http://fr.wikipedia.org/wiki/Vidéo
Page 6 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
L'acquisition vidéo[modifier]
Introduction[modifier]
Le procédé de l’acquisition
Mémento CCIR 601
vidéo analogique et de sa
Luminance Chrominance
conversion en numérique
Y
Cr ---Cb
peut s’assimiler au passage Bande passante
5,75 MHz
2,75 MHz
du langage oral au langage Fréquence d'échantillonnage
13,5 MHz
6,75 MHz
écrit. Pour prendre en note le Nombre d'échantillon par ligne
864
432 ---432
discours oral d’une personne, Nombre d’échantillons utiles
720
360 ---360
cette dernière ne doit pas par- par ligne
ler trop rapidement, dans tel Structure d'échantillonnage
Deux trames entrelacées
cas il devient difficile d’écou220 niveaux
225 niveaux
ter et de transcrire simultané- Quantification 8 bits
utiles
utiles
ment. Certes la personne
880 niveaux
900 niveaux
Quantification 10 bits
pourrait ralentir son débit de
utiles
utiles
parole mais si l’on assimile
qualité 8 bits : 56 dB
ces paroles avec le signal vi- Rapport signal sur bruit
qualité 10 bits : 68 dB
déo analogique, on comBinaire
Binaire décalé
prend aisément que le débit Codage
8 bits : 216 Mb/s
ne peut pas être ralenti. On
Débit brut
procède donc à l’échantillon10 bits : 270 Mb/s
nage du discours, c’est-à-dire
8 bits : 166 Mb/s
que l’on ne saisit que des Débit net
10 bits : 207 Mb/s
« morceaux » de message
pour les retranscrire par la
suite. La précision de la retranscription dépend donc directement du nombre d’échantillons de discours prélevés. Pour la vidéo, le phénomène est identique : il est nécessaire
avant toute chose de connaître le signal et de savoir quels sont les signaux à numériser.
Historique[modifier]
L’histoire du numérique dans la vidéo commence véritablement de 1972 à 1982. À l’origine équipements de synchronisation, les appareils se sophistiquèrent avant d’entrer
dans le milieu professionnel. Dès lors, les industriels prirent conscience de l’avènement
de ce nouveau phénomène et présentèrent des normes en matière de numérisation. Une
certaine anarchie numérique régna alors sur le marché ce qui força la main au CCIR (Comité consultatif international des radiocommunications) à normaliser un format vidéo
http://fr.wikipedia.org/wiki/Vidéo
Page 7 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
en composantes numériques compatible dans le monde entier : cette norme c'est le CCIR
601. Elle spécifie les paramètres de codage de signaux à numériser (échantillonnage,
quantification…). Dès lors les innovations ne cessèrent de s’enchaîner pour permettre
aujourd'hui à la vidéo numérique de se généraliser dans les centres de production,
chaînes TV et régie de post-production pour assister le montage vidéo.
Pourquoi un codage des composantes ?[modifier]
Le signal vidéo numérique devait, sans aucun doute, être identique pour tous les pays :
l’idée était de numériser des données communes aux systèmes 625 lignes (PAL, SECAM) et 525 lignes (NTSC). Le CCIR a donc unanimement décidé de numériser de façon séparée les signaux de luminance (Y) et de chrominance (Cr ; Cb). Un système basé
sur le codage numérique des composantes vidéo exclut tous les problèmes qu’auraient
pu engendrer un codage de signal vidéo composite et permet une compatibilité à échelle
mondiale. Ce système devrait donc apparaître comme étant l’accessoire principal d’un
développement de nouveaux équipements, mais aussi et surtout d’un échange international de données, constituant la base de l’audiovisuel : la communication.
L'échantillonnage[modifier]
L’échantillonnage d’un signal, c'est le découpage en tranches temporelles ou « échantillons » de ce dernier. Il est directement suivi de la quantification qui consiste à convertir la valeur de l'échantillon en valeur numérique représentée par un nombre entier (voir
ci-dessous). Il est donc nécessaire que le rythme de découpage (fréquence d’échantillonnage) soit élevé pour pouvoir retranscrire les variations du signal les plus brèves. Car si
l’intervalle de temps entre deux échantillons consécutifs est supérieur au temps de la variation la plus rapide du signal d’origine, cette dernière se trouvera perdue et ne sera
pas prise en compte dans le signal numérique.
Par conséquent, pour échantillonner un signal, en préservant son information, il est nécessaire de connaître la fréquence la plus élevée à laquelle il est susceptible de varier. Le
théorème d'échantillonnage de Nyquist-Shannon établit qu’« un signal dont le spectre
est limité à la fréquence Fmax est entièrement défini par la suite de ses échantillons prélevés à des intervalles de temps réguliers de valeur « T » inférieurs à 1/(2 Fmax) ».
Par conséquent, la fréquence d’échantillonnage doit être ƒe > 2 Fmax pour respecter la
représentation d’origine. Si cette condition n’est pas remplie, les composantes spectrales
répétitives du signal échantillonné ne sont pas assez espacées et se chevauchent. La zone
de repliement, appelée aussi « zone d’aliasing », donne naissance à une fréquence parasite se traduisant par un effet de moiré sur l’image. Pour pallier ce problème, un filtre
http://fr.wikipedia.org/wiki/Vidéo
Page 8 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
passe-bas (filtre anti-aliasing) est disposé en amont de la conversion. Ce filtre à pente
raide rejette les fréquences du signal analogique d’entrée qui sont supérieures à 1/2 ƒe.
Le signal vidéo de luminance possède une bande passante d’environ 6 MHz. Pour que
ce signal soit correctement numérisé, sa fréquence d’échantillonnage doit respecter les
critères de Shanon et Nyquist, soit : ƒe(Y) > 6 x 2 = 12 MHz
Cependant, pour être utilisée au niveau mondial, ƒe(Y) doit être multiple commun des
fréquences lignes des systèmes à 525 et 625 lignes, à savoir 15 625 et 15 734,2 Hz. Le
CCIR a donc retenu la fréquence d’échantillonnage suivante : ƒe(Y) = 13,5 MHz. Cette
fréquence est égale à 864 fois la fréquence ligne des systèmes à 625 lignes et 858 fois celle
des systèmes à 525 lignes (une ligne active contenant 720 échantillons).
Pour les signaux de chrominance, on peut réaliser sans gène visuelle un sous-échantillage, car l’être humain qui est moins sensible aux variations de couleur qu’aux variations d’éclairement. Concrètement, le contour d'un objet paraîtra net si la luminance varie rapidement, mais il n'est pas indispensable que la chrominance varie aussi rapidement. La bande passante pour les signaux de chrominance est d’environ 3 MHz. Le
CCIR a décidé de les échantillonner à une fréquence deux fois moindre que celle de la
luminance, soit ƒe(Cr) = ƒe(Cb) = 6,75 MHz. Pour ces signaux, il n’y aura donc que 360
échantillons par ligne active.
Ces fréquences d’échantillonnage déterminées par le CCIR s’apparentent aux chiffres 4,
2 et 2. Pour un groupe de 8 pixels (4 pixels par ligne et sur 2 lignes), le chiffre 4 représente le nombre de valeurs indiquées par ligne pour la luminance (13,5 MHz), 2 le
nombre de pixels possédant une valeur propre chrominance (6,75 MHz = 13,5/2) sur les
lignes paires, et le dernier 2 idem pour les lignes impaires. C’est ainsi que la norme
CCIR 601, née de ces études, prit le nom courant de norme 4:2:2.
La périodicité deux trames permet trois types de structures d’échantillonnage : orthogonale, quinconce ligne et quinconce trame. C’est la structure orthogonale qui a retenu l’attention dans la norme 4:2:2. Dans cette structure, la phase de l’horloge d’échantillonnage
est identique pour chaque ligne et chaque trame. Les échantillons sont donc situés aux
mêmes emplacements d’une ligne à l’autre et d’une trame à l’autre.
La quantification[modifier]
Chaque échantillon est « pesé », tout comme un aliment, afin d’en déterminer son poids.
En numérique, ce pesage est appelé quantification. Il s’effectue, pour reprendre notre
analogie, à l'aide d'une balance à deux plateaux : dans un des plateaux se trouve l’échanhttp://fr.wikipedia.org/wiki/Vidéo
Page 9 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
tillon à peser, dans l’autre les poids nécessaires pour trouver l’équilibre. La précision du
pesage dépend donc de la valeur du plus petit poids disponible. En vidéo, le poids de
l’échantillon est la tension du signal électrique à numériser et la balance un quantificateur. Cet appareil convertit les tensions en valeurs numériques, exploitables par une station de montage virtuelle, par exemple.
Cependant, la quantification ne peut pas représenter parfaitement la tension de l'échantillon du signal analogique d'origine. En effet, un signal analogique (représenté par un
nombre réel) peut prendre une infinité de valeurs, or il va être converti en un signal formé d'un nombre fini de valeurs numériques « N » dont chacune est codée sur « n » bits
(c'est-à-dire sous forme d'un nombre entier dont la valeur maximale est limitée). Il y
aura donc nécessairement, après quantification, une erreur d'arrondi. La précision du
signal converti sera donc liée au nombre de valeurs disponibles pour traduire chaque
échantillon. L'intervalle situé entre deux valeurs est noté « q » et se nomme « pas de
quantification ». À chaque instant « t », l'amplitude du signal se trouvant à l'intérieur
d'un échelon est remplacé par la valeur de l'échelon le plus proche. On comprend aisément que plus les pas de quantification sont petits, plus ils sont nombreux sur une plage
donnée et donc que plus la précision du signal quantifié est importante (le taux d'erreur
de quantification étant déterminé par la relation Terr = 1/2n).
La quantification du signal vidéo est uniforme, linéaire et s'effectue de façon séparée sur
Cr et Cb. Initialement fixée sur 8 bits, la quantification du signal vidéo de la norme 4:2:2
est passée à 10 bits. En effet, une quantification sur 8 bits permet de disposer de 2^8 =
256 niveaux numériques (dont 220 utiles pour représenter les niveaux de gris) ce qui
n'est parfois pas suffisant. Pour un dégradé de gris du blanc au noir, par exemple, un
« effet d'escalier » apparaît après numérisation. De plus, le rapport S/B (signal à bruit)
d'une quantification sur 8 bits est de 56 dB alors que les caméras d'aujourd'hui atteignent les 60 dB. Le C.C.I.R. a donc choisi de quantifier le signal vidéo sur 10 bits, ce
qui donne 1024 niveaux (dont 880 utiles) soit 4 fois plus qu'une quantification sur 8 bits,
et avec pour rapport S/B 68 dB.
Le signal de luminance est toujours positif et ne pose pas de problèmes à numériser, en
revanche les signaux de chrominance sont bipolaires. On a donc dû fixer une valeur
pour le signal nul : les valeurs au-dessus correspondant à un signal positif et celles audessous à un signal négatif. Cette « valeur zéro » a été fixée par le C.C.I.R. à 512 (à michemin entre 0 et 1024).
Le codage de canal[modifier]
Une fois échantillonné et quantifié, le signal vidéo doit être codé afin d'optimiser son
http://fr.wikipedia.org/wiki/Vidéo
Page 10 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
stockage ou sa transmission. Différentes formes de codage existent et présentent chacune leurs avantages et inconvénients. Le but de la manœuvre est donc de choisir le
code le plus adapté à l'utilisation. Pour cela, plusieurs codes sont à disposition :
Le code NRZ (Non Retour à Zéro) : une donnée binaire « 1 » engendre un niveau
haut de signal et une donnée « 0 » un niveau bas
Le code NRZI (Non Retour à Zéro Inversé) : une donnée binaire « 1 » engendre une
transition au milieu de la demi-période d'horloge, une donnée « 0 » n'a aucun effet.
Ce type de codage est utilisé en vidéo dans les liaisons série 4:2:2 car il permet de
transmettre avec le signal vidéo son signal d'horloge.
Le code Biphase Mark : utilisé pour le signal de LTC des magnétoscopes. Un « 0 »
provoque une transition et un maintien du niveau pendant toute la période d'horloge, alors qu'un « 1 » entraîne une transition et un changement de niveau à la moitié de la demi-période d'horloge.
Il existe encore d'autres codes (comme le code Miller ou le code Miller carré) qui ne sont
utilisés que dans certains magnétoscopes numériques.
La structure de la ligne numérique[modifier]
Les lignes analogiques des systèmes à 625 et 525 lignes sont de durées légèrement différentes. Ainsi, la capacité d’une ligne active doit être suffisante pour contenir un nombre
suffisant d’échantillons afin de couvrir les lignes des deux systèmes. Le CCIR a choisi
720 échantillons pour le signal de luminance et 360 pour les signaux de chrominance.
Ceci est suffisant car les lignes actives analogiques les plus longues sont celles des systèmes à 525 lignes qui nécessitent plus de 710 échantillons pour être totalement analysées. La ligne active 4:2:2 est donc codée sur 1 440 mots (720 x 2). Les signaux permettant
de positionner la ligne active numérique sont codés respectivement sur 264 et 24 mots
pour les systèmes à 625 lignes et sur 244 et 32 pour les systèmes à 525 lignes. Le front
avant des impulsions de synchronisation ligne (SAV) détermine l’arrivée du premier
échantillon et la référence de temps pour la conversion analogique-numérique. Le front
arrière (EAV) en détermine la fin.
Remarques sur la détection et la correction d'erreurs[modifier]
Le support d’enregistrement (ou le canal de transmission) peut engendrer des erreurs
dans le flux de données numériques. C’est-à-dire qu’une valeur binaire peut prendre
une autre valeur (un « 0 » devient « 1 » et vice-versa) ou bien qu’une info peut manquer
à un moment donné. Cette erreur peut soit affecter l’image vidéo visible soit les autres
http://fr.wikipedia.org/wiki/Vidéo
Page 11 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
signaux vidéo selon les bits qu’elle affecte. Elle peut donc avoir des conséquences plus
ou moins importantes d’où l’utilité de les détecter et de les corriger.
La difficulté des systèmes de correction d’erreur réside dans le fait qu’il faut avant tout
détecter l’erreur avant de pouvoir la corriger. Pour cela, des données redondantes sont
ajoutées lors du codage aux données utiles, selon une loi définie et connue du codeur et
du décodeur. À chaque fois que cette loi n’est pas vérifiée au décodage, un processus de
correction est déclenché. Si le manque d’information est tel que même les données redondantes ne suffisent pas à retrouver le signal d’origine, des processus de compensation, qui consistent à calculer la valeur moyenne entre échantillons proches, sont exécutés. Le signal ainsi corrigé peut enfin être utilisé par les différents équipements numériques.
Rapport largeur / hauteur[modifier]
Article détaillé : format de projection.
Historiquement, la télévision a été mise au point sur des écrans au format 4/3 (soit un
rapport de 1,33/1). Ce format a été choisi car il était celui utilisé par le cinéma lors de la
mise au point de la télévision, dans les années 1940. Depuis, le cinéma a évolué, avec des
procédés tels que le cinémascope et autres panavision basés sur l'utilisation d'un objectif
anamorphoseur, les formats courants au cinéma sont le 1,85/1 et le 2,35/1. Lorsqu'il a
été décidé de passer la télévision vers un format panoramique, c'est le format 16/9 qui a
été choisi. Il correspond à un rapport d'image de 1,77/1, assez proche de 1,85 et reste un
bon compromis entre le 1,33 (barres noires à gauche et à droite) et le 2,35 (barres noires
en haut et en bas). Les puristes conservent les barres noires pour voir l'intégralité de l'image, tandis que ceux qui préfèrent profiter du plein écran utilisent le zoom du téléviseur mais perdent par conséquent une partie des bords de l'image.
Formats et standards vidéo[modifier]
Analogiques[modifier]
VHS
VHS-C
S-VHS
8mm ou Video 8
Hi-8
Betacam / Betacam SP
U-MATIC / U-MATIC SP
http://fr.wikipedia.org/wiki/Vidéo
Page 12 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
Betamax
V2000
Bande 1 pouce
Bande 2 pouces
BVU / BVU SP
Numériques[modifier]
Digital 8
DV ou Digital Video
DVCAM
Betacam SX
Digital-S
IMX
XDCAM
DVCPRO
Betacam numérique
HDV
XDCAM HD
DVCPro HD
HDCam
DVD
Avchd
D1
Standards d'enregistrement vidéo[modifier]
PAL
SECAM
NTSC
HD TV
MAC
Vidéo et informatique[modifier]
Les affichages informatiques disposent de résolutions spécifiques et de modes de balayage tout aussi spécifiques. Les micro-ordinateurs 8 bits et les premiers 16 et 32 bits
étaient destinés à un branchement sur un appareil de télévision, leur sortie vidéo était
donc en 625/50 ou 525/60. Les normes utilisées sur PC sont différentes :
http://fr.wikipedia.org/wiki/Vidéo
Page 13 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
CGA 320×200×4c ou 640×200×2c à 60 Hz
Hercules 640×400(N/B) à 72 Hz (?)
EGA 640×350×16c à 60 Hz
VGA 640×480×16c à 60 Hz
Les autres modes d'affichage ne sont pas vraiment normalisés. Les formats d'image standards sont déclinés en un nombre variable de couleurs (16, 256, 65 536, 16 777 216,
4 294 967 296 et plus).
640 × 480
800 × 600
1 024 × 768
1 152 × 864
1 280 × 960
1 280 × 1 024
1 600 × 1 200
2 048 × 1 536
2 560 × 2 048
La fréquence de balayage est comprise entre 50 Hz et plus de 120 Hz. Tous ces affichages sont à balayage progressif bien que dans les plus hautes résolutions, il soit possible de trouver des modes entrelacés.
C'est à cause des fréquences de balayage différentes qu'il n'est pas possible de brancher
un ordinateur directement sur un téléviseur, cela peut même entraîner la destruction du
téléviseur. Par ailleurs, un encodeur couleur (PAL, SECAM ou NTSC) est nécessaire
pour réaliser un enregistrement vidéo d'une image informatique. C'est pour cela que
certains ordinateurs sont dotés d'une sortie vidéo indépendante de la sortie destinée au
moniteur.
Logiciel de montage[modifier]
Article principal : Montage vidéo.
Annexes[modifier]
Bibliographie[modifier]
Jean-Charles Fouché, Comprendre la vidéo numérique, Éditions Baie des Anges, 2007
(ISBN 978-2-9524391-7-6).
Philippe Bellaïche, Les Secrets de l’image vidéo, Paris, Eyrolle, 6e édition, 2006.
http://fr.wikipedia.org/wiki/Vidéo
Page 14 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
Françoise Parfait, Vidéo : un art contemporain, édition du regard, 2001
Marc Marcillac, Cinéma numérique : Le cinéma DV, édition ALEAS, 2004
François Luxereau, Vidéo : principes et techniques, éditions Dujarric
François Luxereau, Vidéo : l'ère numérique, éditions Dujarric
Olivier Cotte, La vidéo de A à Z, éditions Compétence Micro (ISBN 2-915605-92-0).
Articles connexes[modifier]
Genlock
Balayage progressif
Entrelacement (vidéo)
Luminance
Chrominance
Gamma
Coefficients YUV
Vidéo composite
S-Video
Péritel (ou SCART)
NICAM (son)
Timecode (temporel)
Tuner
Télévision numérique terrestre (TNT)
Ultra haute fréquence (UHF)
Très haute fréquence (VHF)
Art vidéo
Appareils[modifier]
Appareil photographique numérique
Système d'arcade
Caméra numérique
Vidéosurveillance
Caméscope
Console de jeux vidéo
DVB
Laserdisc
Lunettes vidéo
Magnétoscope
Ordinateur personnel
http://fr.wikipedia.org/wiki/Vidéo
Page 15 sur 16
Vidéo - Wikipédia
10/11/11 8:55 AM
Moniteur vidéo
Palette graphique
Lecteur de DVD
Téléviseur
Vidéoprojecteur
Webcam
Couleurs informatique[modifier]
Codage informatique des couleurs | Couleurs HTML | RVB | CMJN | RGBA |
TSL | CIERVB | CIEXYZ | CIExyY | CIEUVW | CIEU'V'W' | CIELAB | CIELUV
| TSV | YUV | YDbDr | YCbCr | YPbPr | Vidéo | Gamut | Profil ICC | Pantone
| RAL
Portail de la télévision
Portail des technologies
http://fr.wikipedia.org/wiki/Vidéo
Page 16 sur 16

Documents pareils