Cours Couleurs

Transcription

Cours Couleurs
Table des matières
1 Quelques notions sur la couleur
1.1 Les objets et la lumière . . . . . . . .
1.2 La vision des couleurs (chromatopsie)
1.2.1 Le spectre visible . . . . . . .
1.2.2 Physiologie de l’œil . . . . . .
1.2.3 Le cortex visuel . . . . . . . .
1.3 Conclusion . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Spécificités des capteurs couleur
2.1 Les capteurs couleurs . . . . . . . . . . . .
2.1.1 Caméra couleur mono-CCD . . . . .
2.1.2 Caméra couleur tri-CCD . . . . . . .
2.1.3 La caméra CMOS . . . . . . . . . . .
2.1.4 Les caméras multispectrales . . . . .
2.2 Les principaux capteurs couleurs numériques
2.2.1 Les capteurs CCD . . . . . . . . . .
2.2.2 Les capteurs CMOS . . . . . . . . .
2.2.3 Le super-CCD . . . . . . . . . . . . .
2.2.4 Le capteur X3 . . . . . . . . . . . . .
3 Les
3.1
3.2
3.3
espaces de représentation de la couleur
La colorimétrie . . . . . . . . . . . . . . . .
Définition quantitative de la couleur . . . . .
Les espaces de la CIE . . . . . . . . . . . .
3.3.1 L’espace RGB . . . . . . . . . . . . .
3.3.2 L’espace CIE XYZ . . . . . . . . . .
3.4 Les espaces perceptuellement uniformes . .
3.4.1 L’espace CIE L∗ u∗ v ∗ . . . . . . . .
3.4.2 L’espace CIE L∗ a∗ b∗ . . . . . . . . .
3.4.3 L’espace L∗ C ∗ h∗ . . . . . . . . . . .
3.4.4 Distance entre deux couleurs . . . . .
3.5 Les espaces dédiés à la télévision . . . . . .
3.5.1 L’espace YIQ . . . . . . . . . . . . .
3.5.2 L’espace YUV . . . . . . . . . . . .
3.5.3 L’espace Y Cr Cb . . . . . . . . . . . .
3.5.4 L’espace PhotoYCC de Kodak . . . .
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
du moment
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
. 4
. 4
. 4
. 5
. 10
. 12
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
13
16
16
17
17
18
18
19
20
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
23
23
25
25
27
28
30
31
32
33
33
34
34
35
35
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
TABLE DES MATIÈRES
3.6
Les espaces répondant à la perception humaine . .
3.6.1 Le modèle de Munsell . . . . . . . . . . . .
3.6.2 Le système de coordonnées triangulaires HSI
3.6.3 Le système de cône hexagonal HSV . . . . .
3.7 Les autres espaces de représentation . . . . . . . .
3.7.1 L’espace d’Ohta ou l’espace I1 I2 I3 . . . . . .
3.7.2 L’espace CMY . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
36
36
37
37
38
38
39
Chapitre 1
Quelques notions sur la couleur
Ce que nous appelons couleur est en réalité le résultat de l’action conjuguée de plusieurs
paramètres comme l’illustre la figure 1 :
– la source lumineuse utilisée ;
– la géométrie d’observation (angles d’éclairement et d’observation) ;
– la scène et ses caractéristiques physiques ;
– l’oeil de l’observateur, avec les qualités et les défauts propres à chaque individu ;
– le cerveau de l’observateur, dont la capacité de discernement des couleurs évolue en
fonction de l’âge et de l’expérience acquise.
Nous allons ici faire quelques rappels quant aux relations lumière-matière et donner
quelques éléments de compréhension du système visuel humain.
Fig. 1.1 – perception de la couleur (cf. site
3
4
CHAPITRE 1. QUELQUES NOTIONS SUR LA COULEUR
1.1
Les objets et la lumière
La lumière est une onde électromagnétique, se propageant dans l’espace et le temps. Les
ondes électromagnétiques sont caractérisées par leur longueur d’onde, λ, trajet parcouru
par l’onde pendant une période, et leur fréquence, ν. Ceux-ci sont liés par la formule λ =
c/ν, où c est la célérité de l’onde électromagnétique, soit environ 300000 km.s−1 , que l’on
appelle aussi vitesse de la lumière dans le vide. L’ensemble des ondes électromagnétiques
comprend les rayons gamma, X, ultraviolets, infrarouges, les ondes radios, etc., ainsi que
le montre la figure 1.2.
Fig. 1.2 – Spectre des ondes électromagnétiques.
Les travaux de Max Planck et Albert Einstein sur la ”lumière quantique” ont montré
que l’énergie de la lumière est aussi en quelque sorte ”granuleuse”, ce ”grain d’énergie” est
appelé un photon. Chaque photon d’un rayonnement (lumière, rayons X, . . . ) porte une
quantité d’énergie caractéristique de sa fréquence. Le photon est une particule élémentaire
de la famille des bosons, et explique les échanges d’énergie entre la lumière et la matière.
Ces échanges avec la matière expliquent en effet comment on peut voir certains objets. Il
existe deux types d’objets :
– Les objets qui produisent de la lumière, comme le soleil, les flammes, les lampes à incandescence, etc. Ceux-ci produisent souvent de la lumière par incandescence, le mouvement perpétuel d’agitation de la matière émettant des ondes électromagnétiques ;
– Les objets qui ne sont visibles que s’ils sont éclairés (invisibles dans l’obscurité).
Ils diffusent dans toutes les directions la lumière qu’ils reçoivent, ce qui est appelé
l’émission atomique ou moléculaire.
C’est la perception de cette diffusion qui nous intéresse. On parle d’éclairement lumineux. (”illuminance” en anglais) qui ne caractérise pas directement une source mais
le flux, visible par l’œil humain, reçu par une source. Différents modèles de réflexion
peuvent être trouvés dans le cours de Luc Brun à l’Université de Reims (http://www.
univ-reims.fr/Labos/LERI/membre/luc/ENSEIGNEMENT/COURS/TR_IMG/) ; Nous allons
maintenant passer à quelques éléments principaux déterminant la perception des couleurs.
1.2
1.2.1
La vision des couleurs (chromatopsie)
Le spectre visible
Le système visuel humain ne peut détecter, dans le spectre de la lumière, que des
longueurs d’ondes comprises entre environ 400 et 700 nanomètres. En dessous de ces
1.2. LA VISION DES COULEURS (CHROMATOPSIE)
5
limites on parle de l’ultra-violet, au dessus de l’infra-rouge. Notre système visuel perçoit
cet intervalle de fréquences d’ondes lumineuses comme un arc-en-ciel de couleurs variant
progressivement. On appelle cet intervalle de fréquences d’ondes lumineuses le spectre
visible. L’illustration suivante montre approximativement le spectre visible.
Fig. 1.3 – spectre visible.
Fig. 1.4 – spectre visible.
Une couleur est donc définie par sa longueur d’onde, ou par un mélange de longueurs
d’onde. Par exemple, un vert ”pur” est une radiation monochromatique de longueur d’onde
530 nm, tandis que la lumière blanche est un spectre continu contenant toutes les longueurs d’onde du domaine du visible.
On trouvera dans la figure 1.5 quelques spectres caractéristiques.
1.2.2
Physiologie de l’œil
De forme approximativement sphérique, l’œil est l’organe de base de la vision. Il comporte un ensemble d’éléments destinés à recevoir le rayonnement incident, former l’image
des objets perçus et traiter les informations recueillies.
Comme le montre la figure 1.6, l’œil humain est constitué de :
– La conjonctive : c’est une solide membrane blanche, opaque aux rayons lumineux,
servant à attacher l’oeil dans son orbite.
6
CHAPITRE 1. QUELQUES NOTIONS SUR LA COULEUR
Fig. 1.5 – Différents spectres : Lumière blanche, Tube fluorescent, Lampe à UV. (issus de .
Fig. 1.6 – l’œil en coupe).
– La cornée : il s’agit d’une membrane transparente et résistante située sur la face
avant de l’oeil. Son rôle est de protéger le globe oculaire sur la face avant.
– L’iris : il fonctionne comme un diaphragme en dosant la quantité de lumière qui
pénètre dans l’oeil. Son ouverture centrale est la pupille.
– Le cristallin : il fonctionne comme une lentille à focale variable, grâce à sa capacité
de modifier sa courbure.
– La rétine : c’est sur elle que se forment les images provenant de l’extérieur. La
rétine contient deux types de cellules photosensibles : les cônes et les bâtonnets.
– La macula : appelée également tache jaune, contient en son centre une petite
dépression, la fovéa. Cette dernière est la zone d’acuité maximum de l’œil.
– Le nerf optique : il conduit les informations au cerveau, en passant par un relais
très important, le corps genouillé latéral, chargé d’effectuer une première analyse des
données.
Au début de la perception, nous avons donc un rayon lumineux. Celui-ci traversera
1.2. LA VISION DES COULEURS (CHROMATOPSIE)
7
les milieux transparents de l’oeil, et à cause de leurs indices de réfraction différents, sera
réfracté plusieurs fois, la cornée et le cristallin assurant l’accommodation de l’image. La
lentille convergente formée par ces milieux transparents provoque aussi une ”inversion” de
l’image sur la rétine, qui sera corrigée par l’interprétation cérébrale. Puis le rayon traverse
la rétine, pour arriver finalement aux segments externes des photorécepteurs, où il sera
interprété dans le cortex cérébral dédié à la vison. Cette partie du cerveau appelée aussi
”cerveau visuel” sera abordée rapidement dans le paragraphe suivant.
La rétine est constituée d’une couche fine de cellules nerveuses dont une grande partie
est sensible à la lumière. Les cellules sensibles à la luminosité et au mouvement sont
appelées les bâtonnets (en anglais, rods). Les cellules sensibles à la couleur sont appelées
les cônes (Voir Figure 6). Les bâtonnets sont responsables de la vision nocturne (vision
scotopique) et possèdent un maximum de sensibilité vers 510 nm. Leur sensibilité est liée
à un colorant, la rhodopsine, qui blanchit à la lumière du jour, expliquant par là leur
insensibilité la journée. Les bâtonnets ne fournissent qu’une réponse photométrique et ne
permettent donc pas de déterminer les couleurs (”la nuit, tous les chats sont gris”). Les
cônes fournissent une réponse photométrique et chromatique, grâce à des pigments dont
les maximums d’absorption se situent dans le bleu(450 nm), le vert(540 nm) ou le rouge
(580 nm). On parle aussi de cônes S,M,L pour Small, Medium and Large. Une lumière, à
n’importe quelle longueur d’onde du spectre visible entre 400 et 700 nm, va donc exciter
plus ou moins les cellules de ces 3 types. Notre perception de la couleur dépend donc de
cette combinaison. C’est là la base de la vision des couleurs et son aspect trichromatique.
Une petite remarque : Pourquoi ne percevons-nous pas les rayonnements dans l’infrarouge et l’ultraviolet ? Parce que le cristallin n’est pas assez transparent pour laisser
passer les radiations dans l’ultraviolet. Pour l’infrarouge, l’onde parvient jusqu’au photorécepteurs, mais nous ne possédons pas de pigments visuels adaptés à cette longueur
d’onde.
Fig. 1.7 – la rétine.
Notons également que l’oeil ne présente pas la même sensibilité dans toutes les longueurs d’onde. Une étude statistique réalisée par la CIE, Commission internationale de
8
CHAPITRE 1. QUELQUES NOTIONS SUR LA COULEUR
l’Éclairage, a permis de déterminer la sensibilité spectrale moyenne de l’oeil humain. La
courbe obtenue, appelée courbe de visibilité, est intégrée dans certains appareils de mesure
(correction Gamma), afin qu’ils analysent les couleurs de la même manière que l’homme
les perçoit. L’illustration de la figure 1.7 montre la sensibilité spectrale d’un système de
vision humaine caractéristique. On note usuellement les cellules RVB (Rouge Vert Bleu
= RGB Red Green Blue) avec les lettres grecques ρ ”Rho” (red), γ ”Gamma” (green)
and β ”Beta” (blue).
Fig. 1.8 – Sensibilité spectrale.
Les courbes de sensibilité en ρ, γ et β des cellules de nos yeux déterminent l’intensité
des couleurs que nous percevons pour chaque longueurs d’ondes du spectre visible. La
figure 1.8 est une approximation du spectre visible ajustée avec les courbes de sensibilité
de nos cellules ρ, γ et β.
Fig. 1.9 – Spectre visible en fonction de la sensibilité spectrale.
On remarque, selon ces courbes, que la sensibilité spectrale connaı̂t un pic dans le
jaune-vert. Ainsi une source de lumière située vers 660 nm doit être environ 10 fois
plus lumineuse qu’une source de 560 nm pour être perçue avec la même intensité. Cette
valeur n’est bien sur qu’une moyenne, chaque individu possédant sa propre sensibilité
chromatique.
1.2. LA VISION DES COULEURS (CHROMATOPSIE)
9
On peut synthétiser le rôle des cônes en disant qu’ils se chargent de mesurer, point
par point, sur l’image oculaire, le contenu énergétique de la lumière qu’ils captent et de
traduire ces mesures par une amplitude. Mais avant d’être transmise par les fibres du
nerf optique, l’image est traitée par plusieurs autres cellules nerveuses. Les autres cellules
rétiniennes se chargent ainsi de collecter et d’intégrer des signaux échantillonnés par un
certain nombre de cônes, distribués sur des surfaces plus ou moins étendues de la mosaı̈que
rétinienne. Ces surfaces, ces zones de collecte, s’appellent des champs récepteurs. Ce qui
est transmis au cerveau par le nerf optique est en fait le contraste de lumière entre le centre
et le pourtour d’un champ récepteur. Étant donné que l’activité des trois catégories de
cônes, S, M et L, est restreinte à trois régions distinctes du spectre, le bleu, le vert, et
le rouge, le contraste mesuré pourra porter sur des comparaisons chromatiques entre des
populations distinctes de cônes. Trois sortes d’opposition existent :
– Les signaux des cônes M s’opposent à ceux des cônes L : vert/rouge ;
– Les signaux des cônes S à la somme des signaux issus des cônes M et L (correspondant au jaune) : jaune/bleu ;
– Enfin, quand il y a mélange des signaux des différentes catégories de cônes, l’opposition est achromatique et porte seulement sur la différence entre le clair et le sombre.
Fig. 1.10 – Codage des couleurs.
Lorsque ce codage, illustré par la figure 1.10, est déficient on parle de dyschromatopsie
(trouble de la vision des couleurs). En effet, l’œil peut présenter des défauts de réfraction
(myopie, hypermétropie, astigmatisme), mais également des anomalies, généralement héréditaires,
de la perception des couleurs. On peut rencontrer les phénomènes suivants :
La dichromasie (dit ”daltonisme”) : il s’agit d’une incapacité à distinguer certaines
couleurs ;
L’achromatopsie : cette anomalie se caractérise par une cécité totale aux couleurs.
Le sujet ne perçoit que des niveaux de gris.
Le nom de daltonisme provient du physicien anglais John Dalton, atteint de ce type
de ”cécité des couleurs” et diagnostiqué comme tel par le médecin et physicien Thomas
10
CHAPITRE 1. QUELQUES NOTIONS SUR LA COULEUR
Young au 18◦ siècle. On dit souvent que les daltoniens confondent le vert et le rouge. Mais
en fait, leur perception du monde coloré est très différente de celle de la plupart des gens.
Leur environnement ne comporte que deux couleurs dominantes (le plus souvent bleu
et jaune), mais toutes les autres couleurs du spectre leurs sont visible par des nuances
différentes. Ainsi une confusion Rouge-vert peut survenir si les courbes de sensibilité en
ρ et en γ se chevauchent exactement ou s’il y a un nombre insuffisant de l’une ou l’autre
des catégories de cônes en ρ ou en γ. Une personne souffrant de cette affliction aura des
problèmes de différenciation entre le rouge et le vert, en particulier à de faibles niveaux
d’intensité lumineuse.
On classe en général les formes de daltonisme selon le type du cône atteint. Aux trois
types de cônes correspondent donc trois types de daltonismes :
– pathologie du cône L : le sujet est protanope (pas de iodopsine L) ou protanomal
(rouge présent mais déficient) ;
– cône M : la version du daltonisme la plus fréquente est la deutéranopie (manque de
la iodopsine M ). La deutéranomalie est la déficience du vert.
– cône S : certains sujets sont tritanopes (pas de iodopsine S ), mais ce cas est extrêmement
rare. Encore une fois, il existe la tritanomalie, déficience du bleu.
Ces figures, définies par le Dr Shinobu Ishira, permettent de détecter les anomalies de
perception des couleurs.
Fig. 1.11 – Illustration du daltonisme.
1.2.3
Le cortex visuel
La perception de la couleur de chaque être humain dépend, d’une part du signal couleur parvenant à son cortex visuel (aspect physique et physiologique) et, d’autre part de
la façon dont ce signal va être interprété. Les mécanismes neurophysiologiques liés à cette
interprétation sont relativement complexes et encore mal connus. De grandes avancées
ont pu être faites dans les dernières décennies grâce à des travaux chez le primate, seul
animal à posséder une organisation visuelle cérébrale comparable à celle de l’être humain.
Par ailleurs les techniques d’imagerie cérébrale fonctionnelle ont permis aux chercheurs
de faire de grands progrès dans l’étude du fonctionnement du cerveau et notamment du
”cerveau visuel”. On a ainsi pu constater que la partie dorsale du cortex visuel analyse
l’aspect ”spatial”, alors que la partie ventrale analyse l’aspect ”formes et couleurs” d’une
scène. Toutefois, de nombreux faits d’expérience récents n’ont pas encore pu être conve-
1.2. LA VISION DES COULEURS (CHROMATOPSIE)
11
nablement intégrés dans les hypothèses présentées auparavant. C’est-à-dire qu’à l’heure
actuelle, il n’existe pas d’explication exhaustive et convaincante du fonctionnement de
notre cortex visuel. Nous nous contenterons donc d’insister sur quelques grands axes qui
seront sûrement l’objet de nouvelles réflexions dans l’avenir :
– l’organisation en couches : Le cortex visuel comprend 6 couches numérotées de I
à VI de la plus externe à la plus profonde. La couche IV est elle-même subdivisée en
sous-couches A, B, C-a et C-b. Les axones des magno-cellules provenant des C.G.L.
se terminent pour leur majorité au niveau des cellules corticales de la couche IV-B
et IV-C a et pour quelques-unes à celles de la couche VI interne. La majorité des
signaux transmis par le nerf optique aboutit à la couche IV-C-b et IV-A. Le autres
couches recoivent les informations ayant transité par les couches précédentes et apparaissent plus ou moins spécialisées dans des aspects différents du traitement de
l’information.
– l’organisation en colonnes : HUBEL et WIESEL (Prix Nobel en 1981) ont montré
que l’organisation précédente de type ”horizontal” était également combinée à un
traitement ”vertical”. Le cortex visuel peut en effet être considéré comme lajuxtaposition de zones sensiblement identiques, en forme de ”colonnes” (parallèlépipèdes de
0.5 à 1 mm2 de surface sur 3 à 4mm de profondeur), ayant toutes les mêmes fonctions
étagées dans l’épaisseur de la colonne et s’occupant de traiter les caractéristiques
principales de l’image (luminance, contraste, couleurs, mouvements, vision binoculaire, etc.). D’une colonne à l’autre, la différence vient simplement de la portion
du champ visuel qui leur est affectée, ce champ pouvant être très réduit d’où une
représentation poussée des détails (vision centrale) ou au contraire large avec une
prééminence donnée à d’autres caractéristiques de l’image comme le mouvement (vision périphérique).
Nous n’irons pas plus loin dans la description de notre ”cerveau visuel”. Cependant,
nous pouvons ajouter que notre interprétation d’un signal couleur dépend aussi d’aspects
psychologiques et plus précisément de notre connaissance a priori de notre environnement
et de l’apprentissage que nous avons reçu des couleurs que nous percevons. En effet,
dès notre plus jeune âge, nous percevons et apprenons les couleurs en les nommant.
Cet apprentissage peut être différent selon les individus. Par exemple, ce qui est violet
pour l’un sera mauve pour l’autre. De même, nous pouvons parfaitement identifier la
couleur d’un objet quelles que soient les conditions d’éclairage si nous connaissons a
priori sa couleur. Dans les deux cas, le cerveau interprète et corrige les informations
qu’il reçoit de l’oeil en fonction de la connaissance qu’il a acquise antérieurement. Ce
phénomène d’adaptation est appelé la constance chromatique. L’apprentissage peut aussi
parfois nous amener à de fausses interprétations : ce sont les illusions d’optique dont on
trouvera quelques exemples pour la perception de la couleur sur http://www.mylsite.
com/illusions_optique/couleurs.php3
Le contexte de l’observation joue aussi un rôle essentiel sur la perception de la couleur.
Ainsi, un objet bleu nous paraı̂tra clair sur un fond noir et foncé sur un fond blanc.
Ces effets de contraste ainsi que plusieurs mécanismes visuels jouent donc aussi un rôle
important sur l’apparence colorée et conduisent, depuis peu, à des modèles d’apparence
colorée [Cie98, Fai97].
12
CHAPITRE 1. QUELQUES NOTIONS SUR LA COULEUR
Notons enfin qu’il est possible que l’observateur perçoive de façon identique deux stimuli de couleur physiquement différents. Ces deux stimuli qui, sous un certain éclairage,
peuvent être perçus différemment alors qu’ils ne le seront pas sous un autre éclairage, sont
alors dits métamères (phénomène de métamérisme).
1.3
Conclusion
Nous avons ainsi vu la plupart des mécanismes de la perception de la couleur (ou
chromatopsie) : le photon, provenant d’une source lumineuse, a le rôle de déclencheur
d’une cascade de réactions biochimiques aboutissant elles-même à la formation d’un message nerveux, qui sera véhiculé au cerveau par le biais d’autres neurones. Comme pour
la plupart des fonctions de l’organisme, nous constatons ici une véritable division du
travail : l’image mesurée par les cônes est triée et classée avant d’arriver aux cellules ganglionnaires du cerveau. Tout ce processus naturel, massivement parallèle est difficilement
reproductible par des moyens artificiels. Ceci fait donc la différence entre les hommes et
les ordinateurs. Pourtant, l’avantage des systèmes automatique d’analyse de la couleur
est la reproductibilité et l’objectivité des mesures. En effet, chaque individu étant unique,
son interprétation de la couleur est également unique. De plus, le système visuel n’est pas
exempt d’erreur : le daltonisme, résultat d’une mutation, montre la vulnérabilité de la
physiologie humaine. Mais finalement, ce que nous définissons comme ”voir” est en fait
une construction du cerveau : la mémoire et ”l’apprentissage” jouent un rôle majeur dans
la vision. Ceci suscite une question importante d’ordre philosophique : qu’est-ce vraiment
que la couleur ?
Chapitre 2
Spécificités des capteurs couleur
La caméra est l’un des éléments principaux de la chaı̂ne d’acquisition d’une image. De
nombreux types de caméras existent dans le domaine de l’industrie : Caméras analogiques
ou numériques, caméra linéaires ou matricielles, caméra multi-spectrales.
Les capteurs d’image utilisés en analyse d’image couleur, sont généralement des caméras
possédant un élément sensible à la lumière reçue. Ces éléments sensibles peuvent être un
tube électronique ou une matrice CCD (Charged Coupled Device). Ces éléments ont de
nombreuses caractéristiques : leur définition, leur sensibilité spectrale, leur sensibilité en
luminosité, leur rémanence, . . .
Nous allons nous attacher aux capteurs spécifiques pour l’acquisition d’images numériques
couleur. Nous aborderons d’abord les principes des capteurs couleurs avant de lister
quelques uns des capteurs numériques les plus utilisés aujourd’hui. Notons qu’un recensement des principaux fabricants de capteurs couleur se trouve à l’adresse http:
//www.directindustry.fr/nfk/fr/capteurs-de-couleur.html
2.1
Les capteurs couleurs
Les principaux capteurs analogiques utilisés aujourd’hui pour l’acquisition d’images
couleur sont les caméras CCD couleur, pour lesquelles on distingue deux types de technologies : mono-CCD et tri-CCD. Nous aborderons également les capteurs CMOS et multispectrals. Pour plus de détails on pourra se reporter au cours suivant : http://www-cal.
univ-lille1.fr/~ag/enseigne/image/seance1_2.html. Une comparaison des capteurs
analogiques et des numériques peut par ailleurs être trouvée à http://www.chin.gc.ca/
Francais/Contenu_Numerique/Numerisez_Collections/Sub_sections/numeriques_analogiques.
html
2.1.1
Caméra couleur mono-CCD
Les capteurs CCD, Dispositifs à Couplage de Charge, captent la lumière sur les petits
photosites situés à leur surface. Ils tirent leur nom de la manière dont le nombre de
charges est lu après une exposition à la lumière. La photodiode (ou photosite) est l’élément
optique sensible à la lumière, elle est rectangulaire et c’est elle seule qui capture la lumière
transitant par l’objectif. Elle comprend en plus un canal chargé du contrôle de la charge
et un autre chargé de la transmission de la charge. Dans un capteur CCD couleur, les
13
14
CHAPITRE 2. SPÉCIFICITÉS DES CAPTEURS COULEUR
photosites sont organisés le plus souvent en matrice (rangées et colonnes) avec un passage
vertical entre chacun d’entre eux pour que les charges électriques puissent être transférées.
Après une prise de vue, toutes les charges contenues dans une ligne sont transférées dans
les CCD de la ligne immédiatement inférieure, les CCD de la dernière ligne donnent leur
informations à une ligne de capteurs appelée ”registre”. A la sortie on obtient les valeurs
de charge d’une ligne de CCD. Tout ceci étant réglé par des ”horloges”. Ainsi, la lumière
est transformée en impulsion électrique (à de stade nous sommes toujours en analogique).
Ces impulsions électriques sont alors envoyées vers un convertisseur analogique/numérique
à l’intérieur duquel sont appliqués à l’information des algorithmes pour numériser l’image.
Fig. 2.1 – Elément de base d’un capteur CCD
Les caméras couleurs mono-CCD sont, comme leur nom l’indique, munies d’un seul
capteur CCD. Les composantes couleur de la scène sont obtenues en plaçant une mosaı̈que
de filtres colorés (dépôts en couche mince de substance à base d’oxydes de silicium), de
telle sorte que chaque cellule du capteur CCD ne perçoit qu’une des trois composantes,
généralement Rouge, Verte et Bleue. On trouve sur la figure 2 quelques exemples de filtres
.
Filtre colonne
Filtre de Bayer
Filtre de Rockwell
Fig. 2.2 – filtres utilisés pour les capteurs mono-CCD
Le filtre le plus utilisé dans les technologies actuelles est le filtre de Bayer, illustré
par la figure 3. Il permet de calculer la valeur d’un pixel à partir d’un quadruplet de
2.1. LES CAPTEURS COULEURS
15
photosites, donnant plus de poids à la composante verte, pour laquelle l’œil présente le
maximum de sensibilité. On trouvera des détails quant à la disposition des photosites
et des filtres correspondant à l’adresse http://www.chin.gc.ca/Francais/Contenu_
Numerique/Numerisez_Collections/Sub_sections/capteurs_dimages.html
Fig. 2.3 – le filtre de Bayer
Un pixel est donc composé de quatre photosites (2 verts, 1 bleu et 1 rouge), il y a plus
de vert pour tenir compte du fait que l’oeil humain est plus sensible au vert qu’aux autres
couleurs. Les calculs nécessaires pour construire une image numérique couleur peuvent
donc être très importants comme le montre la figure 4 :
Fig. 2.4 – Schéma de fonctionnement d’un capteur numérique mono-CDD couleur
Les limitations du capteur couleur mono-CCD sont donc liées au fait qu’il faille au
moins trois cellules pour obtenir l’information couleur complète.... d’où une perte de
résolution. De plus, les trois cellules utilisées pour définir la couleur d’un point ne sont
pas localisées au même endroit, ce qui est à l’origine d’aberrations chromatiques.
16
2.1.2
CHAPITRE 2. SPÉCIFICITÉS DES CAPTEURS COULEUR
Caméra couleur tri-CCD
Les caméras 3-CCD sont équipées d’un dispositif à base de prisme, comprenant 3
capteurs CCD. Ainsi, la résolution de l’image couleur n’est pas dégradée par un système
de mosaı̈que : à chaque point de l’image correspond 3 cellules CCD. La caméra se présente
alors de la manière suivante :
Fig. 2.5 – Décomposition de la lumière sur 3 CCD.
2.1.3
La caméra CMOS
Il s’agit ici d’un nouveau type de détecteur semi-conducteur à oxyde de métal complémentaire
les capteurs CMOS (Complementary Metal Oxide Semiconductors) Ce sont de minuscules
circuits et dispositifs gravés sur des puces de silicium. Les processeurs CMOS les plus
récents, dont le Pentium II, contiennent près de 10 millions d’éléments actifs. La fabrication de capteurs d’image CMOS selon le même procédé que pour les puces d’ordinateur
se traduit par une baisse spectaculaire des coûts. Le coût de fabrication d’une plaquette
CMOS est le tiers de celui d’une plaquette équivalente avec des dispositifs à couplage de
charge.
Comme pour les capteurs CCD, la cible comporte des cellules élémentaires, le plus
souvent organisées en ligne et en colonnes. Chaque cellule élémentaire peut être équipée
d’un amplificateur intégré. La sortie des amplificateurs composant une ligne est validée
séquentiellement par l’intermédiaire d’une ligne d’adressage. La technologie CMOS permet
l’intégration des opérateurs analogiques (amplificateurs) ou numériques (adressage) sur
la même puce de semi-conducteur. De plus, il est facilement envisageable d’adresser,
séparément ou par bloc, les cellules élémentaires.
Les avantages de la technologie CMOS par rapport au CCD sont les suivants :
2.2. LES PRINCIPAUX CAPTEURS COULEURS NUMÉRIQUES DU MOMENT
17
– Coûts de fabrication moins important. L’implantation des composants CMOS est
aujourd’hui bien répandue et maı̂trisée.
– Faible consommation d’énergie : L’architecture des capteurs permet une consommation 100 fois plus faible que pour les CCD (composant essentiellement capacitifs qui
consomment pour le transfert des charges). Un systme CCD demande 2-5 watts,
comparé aux 20-50 milliwatts pour les CMOS avec le même nombre de pixel. Par
exemple, une batterie NiCd peut alimenter une caméra CMOS pendant une semaine
et seulement quelques heures pour une caméra CCD
– Accès à des régions de pixels
– Plus grande rapidité pour obtenir l’image
Ces caméras sont pourtant peu utilisées dans le domaine industriel.
2.1.4
Les caméras multispectrales
Des caméras plus spécifiques existent sur le marché : caméra infra-rouge ou multispectrale. Cette dernière devient de plus en plus importante dans les applications. Plusieurs
technologies existent : l’un est le même que pour la caméra mono-CCD avec une roue
de filtres plus importante. Le second est un système de prisme décomposant la lumière
suivant diverses longueur d’ondes comme le montre la figure ci-dessous :
Fig. 2.6 – Décomposition du signal lumineux provenant d’une ligne (spatial) sur un prisme (spectral)
Une autre technologie utilisée est une roue de filtres très sélectifs à positionner devant
la caméra.
Une fois le capteur choisi, il s’agit de lui associer une carte graphique. Comme pour
la caméra, le choix de la carte graphique (Video Frame Grabbers) dépend de l’application. Ainsi, certaines applications demandent une acquisition et un traitement rapide. La
carte graphique est caractérisée par le nombre de bits qu’elle peut afficher, la fréquence
de balayage et le temps de rafraı̂chissement. C’est aussi dans la carte graphique que se
trouve la table de conversion, LUT (Look Up Table), qui sera utilisée pour compenser la caractéristique de l’écran. De plus amples explications sont données sur le site
http://24.16.71.95/topics/Tutorials/marvel_g200.htm. De plus en plus, plutôt que
d’associer une caméra analogique et une carte graphique, on choisit d’utiliser directement
une caméra numérique.
2.2
Les principaux capteurs couleurs numériques du moment
On l’a vu, les technologies CCD et CMOS sont les plus utilisées mais on trouve
désormais des technologies innovantes comme le Super CCD et le X3. On pourra se reporter au site http://laphotonumerique.free.fr/
18
CHAPITRE 2. SPÉCIFICITÉS DES CAPTEURS COULEUR
2.2.1
Les capteurs CCD
Le principe du capteur mono-CCD est rappelé sur la figure 7 :
Fig. 2.7 – Capteur CCD numérique
Physiquement le capteur CCD est un composant gros comme l’ongle du petit doigt et
des photodiodes sont posées dessus, de380.000 photodiodes au début, on en est maintenant
à 6.000.000 au gré des évolutions technologiques. Cela a commencé à devenir une limite
lorsque les capteurs sont arrivés au chiffre de 3.34 millions. En effet jusque là on ajoutait
un million de photosites par an à ce qui existait déjà, en conservant la même surface. On
générait donc des photodiodes de plus en petits. Les problèmes qui apparaissaient étaient
une perte de sensibilité (la surface de chaque photosite diminuant) donc de luminosité,
d’où du ”bruit” vidéo (notamment dans les parties sombres de la photo).
2.2.2
Les capteurs CMOS
Théoriquement, il s’agit de la même technologie que les capteurs CCD, c’est à dire
que ce sont également des capteurs analogiques, mais qu’ils sont fabriqués sur des chaı̂nes
utilisées pour d’autres puces moins coûteuses. Sur un CMOS la sensibilité des photosites
est moins grande que celle d’un capteur CCD. On trouve généralement ces capteurs sur
les appareils d’entrée de gamme, mais ils peuvent aussi être développés au coup par coup
pour des appareils plus importants.
Fig. 2.8 – Le capteur CMOS du Canon D30
Ainsi, Canon a mis au point un capteur CMOS spécialement pour équiper l’appareil
EOS D30. Ce capteur à faible consommation d’énergie ne présente pas les inconvénients
classiques du CMOS, à savoir le ”bruit” et les variations de pixels grâce à des procédés
de réduction du bruit. Le capteur a la dimension d’un film APS (22.7 x 15.1 mm) et est
2.2. LES PRINCIPAUX CAPTEURS COULEURS NUMÉRIQUES DU MOMENT
19
”tapissé” de 3.25 millions de pixels d’une grande sensibilité au vu de leur taille. Notez que
les Canon EOS 1D et D60 possèdent aussi des capteurs CMOS spécifiques.
2.2.3
Le super-CCD
Fuji a conçu un nouveau capteur, appelé capteur super-CCD, où la photodiode n’est
plus rectangulaire, mais hexagonale, ce qui permet théoriquement de loger plus de pixels
dans la même surface, et par là d’obtenir plus de résolution. Ce capteur fait l’objet d’une
polémique car on parle de pixels interpolés, donc fabriqués artificiellement.
Fig. 2.9 – forme des photosites sur un capteur CCD classique à gauche et sur un super CCD à droite.
Ainsi, les capteurs CCD traditionnels ont des photodiodes carrées, le super CCD de
FUJI a des photodiodes de forme octogonales et les pixels sont orientés à 45◦ . L’organisation de l’espace permet :
– De s’affranchir des limites technologiques actuelles puisque les pixels ont une surface
plus élevée que sur un capteur traditionnel, donc d’obtenir une sensibilité plus élevée.
– D’obtenir des résolutions horizontales et verticales qui correspondent pratiquement
aux caractéristiques de perception de l’oeil humain.
L’interpolation traditionnelle consiste à fabriquer des pixels au moyen d’un logiciel qui
va d’après les données de couleurs, luminosité ... etc. de deux pixels en intercaler un nouveau qui sera le résultante de deux ou plusieurs. L’interpolation du Super CCD repose sur
le principe suivant : du photosite octogonal, on détermine un carré au centre du photosite
qui va constituer un pixel, les surfaces restantes (au nombre de quatre) sont rassemblées
pour constituer un autre pixel. Il y a effectivement un calcul, d’où interpolation, mais
cette dernière se fait d’après des éléments existants déjà physiquement .
Ainsi, il y a interpolation dans la mesure ou un pixel sur deux est artificiel. Mais il n’y
a pas interpolation, car le pixel qui est fabriqué l’est à partir d’éléments qui existent déjà
(ils sont simplement réunis pour constituer un nouveau pixel).
De 2.400.000 photosites permettant des images de 4.200.000 pixels (Super CCD I), le
r a évolué à 3.300.000 photosites (Super CCD II) permettant d’atteindre des
super CCD
résolutions de 6.000.000 de pixels avec moins de bonheur en ce qui concerne les résultats
que pour la première version.
Le super CCD vient d’évoluer en une version 3 qui quoique gardant les 3.300.000 photosites a vu les fonctions de calculs et de transfert améliorées pour permettre (théoriquement)
de pousser les sensibilités jusqu’à 800 et même 1600 ISO, mais en perdant le bénéfice des
6 millions de pixels (nouveaux appareils de Fuji : F601, F602). Le capteur du futur S2 Pro
avec 6.17 millions de photosites doit pouvoir délivrer des images de 12 millions de pixels.
20
CHAPITRE 2. SPÉCIFICITÉS DES CAPTEURS COULEUR
Fig. 2.10 – Comparaison des répartitions des photosites dans les 2 technologies
Pour des comparaisons d’images obtenues par CCD traditionnel et Super CCD, on se
reportera au site http://laphotonumerique.free.fr/super_CCD.html.
2.2.4
Le capteur X3
Le capteur X3 de la société américaine Foveon est révolutionnaire : il est doté d’un
verre spécial permettant de séparer et répartir la lumière en proportions égales sur les
trois couleurs RVB. Concrètement un photosite capture une composante RVB et non plus
une valeur de Rouge, Vert et Bleu (Filtre de Bayer) par photosite.
Le schéma de la figure 12 illustre bien le fait qu’un capteur CCD traditionnel capture
seulement une couleur (Rouge, Vert ou Bleu) par photodiode et reconstitue un pixel avec
4 photosites (1 Rouge, 2 Verts 1 Bleu) en utilisant le filtre de Bayer.
Le capteur à technologie X3 développé par Foveon permet la capture des 3 couleurs
(Rouge ,Vert et Bleu) par un seul photosite, d’après une particularité du silicium. En effet
c’est dans l’épaisseur que le silicium est sensible à telle ou telle couleur. Pour simplifier
nous dirons que la couche superficielle du silicium arrête le bleu, que la couche médiane
arrête le vert et enfin que le rouge est stoppé par la couche inférieure, comme l’illustre la
figure suivante :
Les avantages de ce capteur sont nombreux :
– Avantage au niveau des coûts de fabrication : plus besoin de filtres colorés (ils sont
dans le photosite et moins d’électronique de calcul puisque la couleur est directement
obtenue sur le photosite et non plus après traitement électronique des couleurs de 4
photosites).
– Avantage pour la disponibilité de l’appareil à la mise en route et en inter images
(rafale) : moins de calcul égale moins de temps.
– Avantage qualitatif, car il n’y a plus d’interpolation et de calculs destinés à ”fabri-
2.2. LES PRINCIPAUX CAPTEURS COULEURS NUMÉRIQUES DU MOMENT
21
Fig. 2.11 – Interpolation : CCD traditionnel et Super CCD
Fig. 2.12 – Comparaison du fonctionnement général d’un capteur CCD avec le capteur X3.
quer” une couleur après capture. Il ny a donc plus d’interpolation et on est donc
en droit d’attendre des images plus ”propres”. Dans ce même ordre d’idée toute la
lumière est absorbée par le photosite, sur les capteurs traditionnels la luminance de
rouge ne va pas affecter le photosite bleu (il y aurait donc une grosse réduction des
artefacts colorés ainsi que du bruit résultant dans les zones sombres).
Ce capteur est disponible en 4/3 de pouces (3.3 millions de pixels correspondants à
9.9) et en format 1/2” (1.3 millions de pixels correspondants à 3.9).
22
CHAPITRE 2. SPÉCIFICITÉS DES CAPTEURS COULEUR
Fig. 2.13 – Technologie du X3.
Chapitre 3
Les espaces de représentation de la
couleur
3.1
La colorimétrie
La colorimétrie désigne la partie de la science de la couleur qui se charge de l’aspect
psychophysique de la couleur. Elle permet la description de l’interaction existant entre
l’aspect physique de la composition spectrale de la lumière colorée et les caractéristiques
physiologiques du Système Visuel Humain (SVH ).
En d’autres termes, la colorimétrie est la branche de la science de la couleur qui s’occupe
des spécifications quantitatives de la couleur d’un stimulus visuel définit physiquement de
telle sorte que [WS82] :
1. deux stimuli ayant les mêmes spécifications soient identiques quand ils sont vus par
deux observateurs ayant une vision normale des couleurs et sous les mêmes conditions
d’observation et vice versa ;
2. les nombres comprenant la spécification soient des fonctions continues des paramètres
physiques définissant la distribution spectrale de puissance du stimulus.
Plusieurs auteurs ont tenu à donner une définition à la colorimétrie. Lozano [Loz98]
décrit la colorimétrie comme une science qui tente de qualifier une source lumineuse de
manière absolue. Gevers [Gev00] la considère comme la standardisation du triplet lumièreobjet-observateur.
3.2
Définition quantitative de la couleur
Nous avons jusqu’à maintenant défini la couleur d’un point de vue perception et psychosensoriel. Nous allons maintenant décrire quantitativement la couleur afin que nous
puissions parler de modélisation dans les sections suivantes.
Il est impossible de parler quantitativement de la couleur sans aborder l’égalisation
des couleurs appelée aussi appariement. Il s’agit d’expériences où un observateur doit
comparer un stimulus visuel à des stimuli de référence comme le montre la figure 3.1.
À partir de ces expériences d’égalisation, il devient possible de représenter les valeurs du
stimulus de test noté [S] en fonction des primaires (notées [R],[G],[B]). Cette équivalence
visuelle est donnée par :
23
24
CHAPITRE 3. LES ESPACES DE REPRÉSENTATION DE LA COULEUR
Fig. 3.1 – Expérience d’égalisation (appariement) entre un tri-stimulus de référence et le stimulus de
test.
[S] ≡ R[R] + G[G] + B[B],
(3.1)
sachant que les nombres R, G et B sont les composantes trichromatiques et représentent
les quantités respectives des primaires utilisées.
Certaines couleurs très saturées ne peuvent pas être égalisées par synthèse additive.
La solution apportée est de superposer une faible quantité de primaire complémentaire
à la couleur à égaliser afin de la désaturée. Formellement, cette opération, pour une
désaturation avec le vert par exemple, s’écrira comme suit :
[S] + G[G] ≡ R[R] + B[B].
(3.2)
Cette écriture induit, en ramenant la composante verte de l’autre côté de l’équivalence,
la possibilité d’avoir des composantes trichromatiques négatives. Cette équation s’écrira
donc :
[S] ≡ R[R] − G[G] + B[B].
(3.3)
Un énorme travail a été effectué par les chercheurs afin d’obtenir les fonctions colorimétriques R(λ), G(λ) et B(λ) qui permettent de calculer facilement les composantes
trichromatiques d’une lumière colorée. Il a donc fallu réaliser l’égalisation de l’ensemble
des stimuli monochromatiques du spectre visible.
Les expériences se sont succédé les unes après les autres à partir de celles de Maxwell.
Ces dernières n’étaient pas très précises et ont été reprises successivement par König,
Abney en 1900, Troland en 1920 et finalement par Wright. Ce sont ces derniers travaux
que nous connaissons en tant que standard de la CIE de 1931 (figure 3.2)1 .
Grâce aux lois de Grassman [Sèv96, FR98], il est possible de représenter un stimulus de
couleur S(λ) avec les fonctions colorimétriques des trois primaires R(λ), G(λ) et B(λ). En
1 Les
données relatives sont disponibles à l’adresse : http://www.cvrl.org
3.3. LES ESPACES DE LA CIE
25
Fig. 3.2 – Les courbes d’appariement R(λ), G(λ) et B(λ) correspondant aux expériences d’égalisation
avec un angle de 2◦ standardisées par la CIE en 1931.
sachant que les composantes trichromatiques sont calculées avec les formules suivantes :

R λ=780

R = R380 R(λ)S(λ)dλ,
λ=780
(3.4)
G = 380 G(λ)S(λ)dλ,

R λ=780

B = 380 B(λ)S(λ)dλ.
Les lois de Grassman stipulent que :
1. Toute couleur peut être réalisée à partir d’une combinaison linéaire des trois autres
couleurs (primaires) ;
2. Le mélange de deux couleurs (c1 et c2 ) peut être obtenu en additionnant les combinaisons linéaires correspondant aux deux couleurs sources ;
3. Une couleur correspond toujours à une combinaison ou à un mélange quelle que soit
la luminance2 .
3.3
3.3.1
Les espaces de la CIE
L’espace RGB
Pour toute personne plus ou moins liée au traitement d’images, l’espace RGB reste de
loin le plus utilisé et le plus simple à manipuler. De plus, dans les champs d’application
de l’imagerie au sens large du terme, il est devenu normal, du moins par habitude, de
manipuler la couleur en tant que trois composantes (avec des valeurs entières) codées sur
8 bits. Cet attachement à ce système de primaires RGB s’explique principalement par
2 Cette
loi n’est pas toujours vérifiée surtout, dans le cas de très faible éclairage.
26
CHAPITRE 3. LES ESPACES DE REPRÉSENTATION DE LA COULEUR
la dépendance aux matériels (cartes d’acquisition, cartes vidéo, caméras, écrans,...) qui
effectuent leurs échanges d’information uniquement en utilisant les triplets (R,G,B).
Cependant, la définition de l’espace de représentation de la couleur qui dépend des
primaires et du blanc de référence n’est pas unique. Comme le souligne Vandenbroucke
[Van00], de nombreux systèmes RGB ont été définis par différents organismes et sont
utilisés dans d’autres domaines d’application que la colorimétrie. Parmi les systèmes RGB
définis, nous pouvons distinguer celui dédié à la télévision américaine répondant à la norme
NTSC (National Television Standards Committee) et utilisant les primaires fixées par la
FCC (Federal Communications Commission) et ceux de la télévision européenne utilisant
soit la norme PAL(Phase Alternation by Line) adoptée par l’UER (Union Européenne de
Radio-télévision) soit la norme française SECAM (SEquentiel Couleur À Mémoire). En
plus de ces normes qui n’utilisent pas le même blanc de référence, les moniteurs répondent
à leur tour aux normes de leurs constructeurs sans oublier le système de primaires appelé
visu couleur qui a été introduit par la CIE spécialement pour les moniteurs couleurs CRT
[Rog85, Tré93].
Fig. 3.3 – Cube des couleurs RGB.
Finalement, comme le remarque Lozano [Loz98], le seul espace qu’il serait légitime de
baptiser RGB 3 , serait sans doute l’espace RGB introduit par la CIE en 1931 [CIE31].
Celui-ci est défini à partir de trois primaires monochromatiques de couleurs rouge, verte
et bleue comme le montre la figure 3.3. Les longueurs d’ondes associées à chacune des
primaires sont les suivantes :
– 700.0 nm pour le rouge,
– 546.1 nm pour le vert,
– 435.8 nm pour le bleu.
De plus, la puissance de chacune de ses primaires est ajustée de façon à obtenir trois
triplets identiques pour tout spectre d’égale énergie. Les expériences ayant permis d’obtenir les fonctions d’appariement R(λ), G(λ) et B(λ) (figure 3.2) ont été réalisées avec
un écart α d’environ 4 degrés (donc, pour des couleurs relativement proches). En 1964,
3 Par
la suite, nous utiliserons le terme d’espace RGB en nous référant à celui introduit par la CIE.
3.3. LES ESPACES DE LA CIE
27
la CIE a défini un autre espace RGB dont les fonctions d’appariement ont été obtenues
avec un écart de 10 degrés (donc, pour des taches colorées plus éloignées).
Finalement, il est à noter que l’espace RGB défini par la CIE présente quelques inconvénients comme l’existence d’une partie négative dans les spectres et par conséquent,
l’impossibilité de reproduire un certain nombre de couleurs par superposition des trois
spectres. Ceci peut poser des problèmes dès que l’on désire travailler en synthèse additive
(en n’additionnant que des valeurs positives). Afin de pallier les inconvénients, la CIE a
défini un espace de représentation de la couleur basé sur trois primaires non visibles X,
Y et Z. Cet espace est traité dans la section suivante.
3.3.2
L’espace CIE XYZ
Comme nous venons de le décrire, l’espace couleur CIE XYZ a été défini afin de corriger
certains défauts de l’espace RGB. Cet espace résulte des travaux de Judd [Jud30] et est
constitué de trois primaires X, Y et Z, dites virtuelles. Ainsi, il présente les propriétés
suivantes :
– les triplets décrivant chaque couleur en fonction de ses primaires ont tous des valeurs
positives pour les spectres visibles (figure 3.4) ;
– la fonction Y (λ) représente approximativement la sensibilité de l’œil humain à la
luminosité. Par conséquent, la composante Y est usuellement considérée comme la
composante luminance du spectre incident ;
– tout spectre d’égale énergie est associé à un triplet dont toutes les composantes sont
égales.
Fig. 3.4 – Les fonctions colorimétriques X(λ), Y (λ) et Z(λ).
Le passage de l’espace RGB à l’espace XYZ s’effectue simplement grâce à une transformation linéaire pouvant être interprétée comme un changement de base comme le donne
l’équation 3.5 :
28
CHAPITRE 3. LES ESPACES DE REPRÉSENTATION DE LA COULEUR




X
R
 Y  = A ∗  G ,
Z
B
où A est une matrice 3 ∗ 3, dite de passage, ayant la forme suivante :


Xr Xg Xb
 Yr Yg Yb  ,
Zr Zg Z b
(3.5)
(3.6)
sachant que les coefficients de la matrice A sont directement liés au blanc de référence
choisi.
Ainsi, les valeurs des primaires X, Y et Z sont conditionnées par ce blanc de référence
en plus des primaires R, G et B. Par conséquent, comme le souligne Trémeau [Tré93],
plusieurs matrices de passage ont vu le jour suite aux travaux de différents auteurs. Ces
différences sont certes minimes mais bel et bien existantes.
Il semble évident à toute personne ayant travaillé sur la couleur que la manipulation
des vecteurs de données 3D augmente les difficultés quant aux calculs et à la visualisation.
Afin de résoudre ce problème, il est devenu courant d’utiliser une projection des vecteurs
3D sur un plan unitaire où la somme des composantes est égale à 1. Cette somme des
trois composantes représente l’intensité de la couleur et non la proportion de chacune des
primaires. Ainsi, nous obtenons un diagramme de chromaticité où les projections sont
appelées : ”coordonnées chromatiques”. Les valeurs de ce diagramme de chromaticité sont
obtenues à partir des primaires X, Y et Z grâce à l’équation suivante :

X

x = X+Y +Z ,
(3.7)
y = X+YY +Z ,

z =
Z
,
X+Y +Z
où grâce au plan unitaire, nous avons x+y+z = 1. À partir de cela, l’idée de ne représenter
l’ensemble des couleurs qu’en utilisant deux coordonnées surgit. Elle est justifiée par le
fait de pouvoir déduire les valeurs de la troisième composante à tout moment en calculant
la valeur manquante pour atteindre 1. La représentation la plus fréquente est celle du
diagramme de chromaticité xy schématisé par la figure 3.5. Dans ce diagramme appelé
”spectrum locus”, toutes les couleurs sont contenues dans l’aire délimitée par le lieu du
spectre et la droite des pourpres.
3.4
Les espaces perceptuellement uniformes
Dans cette section, la notion de perception de la couleur refait surface et paraı̂t être un
critère pertinent pour différencier et classer les espaces de représentation de la couleur.
Afin de pouvoir parler d’uniformité de perception dans un espace de représentation, il est
indispensable de vérifier les deux critères suivants (sachant que la distance employée est
la distance euclidienne) :
– la distance d(c1 , c2 ) entre les deux couleurs c1 et c2 est correcte, si et seulement si, la
valeur issue de cette distance se rapproche de la différence perçue par l’œil humain,
3.4. LES ESPACES PERCEPTUELLEMENT UNIFORMES
29
Fig. 3.5 – Diagramme de chromaticité xy.
– la distance d(ci , c1 ) = n ∗ d(ci , c2 ) est correcte, si et seulement si, l’œil humain perçoit
la couleur c1 n-fois plus éloignée de la couleur ci que la couleur c2 .
À partir de ces considérations, MacAdam [Mac85] a montré la non-uniformité de l’espace XYZ car la distance entre deux couleurs du diagramme de chromaticité xy n’est
pas perçue de la même façon que le système visuel humain (SVH ). Ses travaux ont porté
sur la mesure de l’adéquation entre les espaces de couleur et la notion de distance. Les
expériences ont consisté à mesurer expérimentalement l’ensemble des couleurs justes discernables ou ayant un écart juste perceptible4 d’un ensemble de couleurs données. Enfin,
ces travaux ont permis la mise en évidence de l’aspect elliptique des ensembles des couleurs justes discernables d’une couleur donnée. Ces ellipses sont de tailles et d’orientations
variables comme le montre la figure 3.6.
Fig. 3.6 – Les ellipses de MacAdam représentées dans le diagramme chromatique xy.
4 De
l’anglais, just noticeable difference (JND).
30
CHAPITRE 3. LES ESPACES DE REPRÉSENTATION DE LA COULEUR
Trémeau [Tré93] a montré que la vision des couleurs obéissait à une géométrie Riemannienne. De ce fait, en considérant que l’espace couleur XYZ, de dimension n = 3 est
de type Riemannien, il faut alors un espace euclidien de dimension m pour pouvoir le
contenir, avec :
n(n + 1)
m=
= 6.
(3.8)
2
Muni de cette transformation, l’utilisation à nouveau de la géométrie euclidienne redevient possible. La conclusion qui peut être tirée est que toute autre solution d’uniformisation, où l’on reste en dimension 3, ne peut être qu’approchée. Plusieurs travaux ont
porté sur ce dernier genre de solution donnant ainsi des espaces tel que :
– l’espace Lab de Hunter ;
– l’espace U ∗ V ∗ W ∗ défini par la CIE en 1964.
Devant le nombre important de travaux de recherche menés dans cette direction, ce
n’est qu’en 1976 que la CIE a proposé les deux espaces ”uniformes” qui sont reconnus et
utilisés par la communauté en tant que standards : L∗ u∗ v ∗ et L∗ a∗ b∗ .
3.4.1
L’espace CIE L∗ u∗ v ∗
Cet espace est issu de la modification mineure par Eastwood de l’espace U ∗ V ∗ W ∗
[Eas73]. Il devient ainsi un standard de la CIE en 1976 [CIE86]. Le blanc de référence
utilisé est caractérisé par les trois composantes tri-chromatiques (X0 Y0 Z0 ) prises dans
l’espace XYZ.
Le passage des coordonnées XYZ vers les coordonnées L∗ u∗ v ∗ s’effectue grâce aux
formules suivantes :

13

116 ∗ YY0
− 16 si YY0 > 0.008856,
∗
L =
(3.9)
903.3 ∗ Y
Y
si
≤
0.008856.
Y0
Y0
Le fait de représenter la luminosité par une racine cubique a été démontré par les
expériences psycho-visuelles menées sur l’appréciation des distances entre des stimuli monochromatiques. De plus, le seuil de 0.008856 est choisi afin de supprimer le caractère
1
trop abrupt des variations de x 3 autour de 0. Cette racine cubique est néanmoins très
intéressante pour le rapprochement du fonctionnement de l’œil humain. En effet, comme
le montre la figure 3.7, l’introduction du rapport YY0 permet de simuler grossièrement
l’adaptation de l’œil humain à une luminosité donnée. Dans le cas des faibles luminances
(vision de nuit par exemple), la pente de la courbe est assez importante marquant l’intervention des bâtonnets. Au contraire, un effet de saturation peut être observé pour les
fortes luminances du fait de la saturation des récepteurs de l’œil.
Les composantes chromatiques de l’espace L∗ u∗ v ∗ sont données par les équations suivantes :
u∗ = 13L∗ (u0 − u00 ),
v ∗ = 13L∗ (v 0 − v00 ),
où les quantités u0 , v 0 , u00 , v00 sont calculées comme suit :
(3.10)
(3.11)
3.4. LES ESPACES PERCEPTUELLEMENT UNIFORMES
Fig. 3.7 – La luminosité des espaces uniforme en fonction de
4X
,
X + 15Y + 3Z
9Y
,
v0 =
X + 15Y + 3Z
4X0
,
u00 =
X0 + 15Y0 + 3Z0
9Y0
v00 =
.
X0 + 15Y0 + 3Z0
31
Y
Y0 .
u0 =
(3.12)
Notons en dernier que la luminance, dans les termes de la CIE, représente la clarté et
les composantes u∗ et v ∗ représentent respectivement l’opposition de couleurs vert-rouge
et l’opposition de couleurs bleu-jaune.
Les valeurs u0 et v 0 définies dans les formules de passage de XYZ vers L∗ u∗ v ∗ permettent
d’obtenir un diagramme de chromaticité. Ainsi, les droites définies dans le diagramme xy
sont transformées en droite dans le diagramme u0 v 0 . Cette propriété nous permet d’avoir
une meilleure idée sur les mélanges additifs.
3.4.2
L’espace CIE L∗ a∗ b∗
Dans la même année, 1976 en l’occurrence, la CIE a introduit un autre système perceptuellement uniforme, le système L∗ a∗ b∗ . Celui-ci s’obtient grâce à des relations nonlinéaires à partir du système XYZ. La composante L∗ est calculée de la même façon que
dans le modèle L∗ u∗ v ∗ (cf. équation 3.9).
Les composantes chromatiques de cet espace sont données par les équations suivantes :
X
Y
a = 500 f
−f
,
X0
Y0
Y
Z
∗
b = 300 f
−f
,
Y0
Z0
∗
avec :
(3.13)
(3.14)
32
CHAPITRE 3. LES ESPACES DE REPRÉSENTATION DE LA COULEUR
( 1
x3
f (x) =
7.787x +
si x > 0.008856,
si x ≤ 0.008856.
16
116
(3.15)
Notons que, dans l’espace L∗ a∗ b∗ , la luminance représente la clarté et les composantes
a∗ et b∗ représentent respectivement l’opposition de couleurs vert-rouge et l’opposition de
couleurs bleu-jaune.
Les axes a∗ et b∗ ont une orientation presque comparable à celle des teintes élémentaires
(vert pour a∗ < 0 et b∗ = 0, rouge pour a∗ > 0 et b∗ = 0, etc.). Cependant, l’espace L∗ a∗ b∗
n’a pas, à proprement parler, de diagramme de chromaticité. Les formules de passage de
XYZ vers L∗ a∗ b∗ étant non-linéaires, il est impossible de définir un diagramme à l’aide
de primaires.
3.4.3
L’espace L∗ C ∗ h∗
L’espace L∗ C ∗ h∗ est obtenu en passant les espaces L∗ a∗ b∗ ou L∗ u∗ v ∗ en coordonnées
semi-polaires. En plus de la luminance L∗ qui reste la même que celle des deux espaces,
les deux autres composantes représentent le chroma C ∗ et la teinte h∗5 . Les valeurs de
chroma et de teinte sont obtenues à partir de l’un des espaces uniformes grâce aux formules
suivantes :
(
√
∗
Cuv
= u∗2 + v ∗2 ,
√
(3.16)
∗
Cab
= a∗2 + b∗2 ,
et
(
h∗uv = arctan
h∗ab = arctan
v∗
,
u∗ a∗
.
b∗
(3.17)
Il est à noter que la formule de calcul de la teinte, telle qu’elle est donnée par l’équation
3.17, ne permet de donner que des angles variant entre −90◦ et +90◦ de part la définition
de la fonction arctan. Afin de pallier ce problème et d’avoir une teinte ayant des valeurs
entre 0◦ et 360◦ , il est indispensable de suivre la convention suivante :

h∗uv



h∗ + 180◦
uv

h∗uv + 180◦


 ∗
huv + 360◦
si
si
si
si
u∗
u∗
u∗
u∗
>0
<0
<0
>0
et
et
et
et
v∗
v∗
v∗
v∗
> 0,
> 0,
< 0,
< 0,
(3.18)
pour l’espace L∗ u∗ v ∗ et de même pour l’espace L∗ a∗ b∗ .
En revanche, l’espace L∗ u∗ v ∗ ayant un diagramme de chromaticité, il est possible de
∗
définir à l’espace L∗ C ∗ h∗ qui lui est associé, une notion de saturation Suv
. Celle-ci est
∗
Cuv
∗
représentée par le rapport entre le chroma et la luminance Suv = L∗ ou par l’equation
suivante :
p
∗
Suv
= 13 (u0 − u00 )2 + (v 0 − v00 )2 .
5 hue
en anglais.
(3.19)
3.5. LES ESPACES DÉDIÉS À LA TÉLÉVISION
3.4.4
33
Distance entre deux couleurs
Il est indispensable de savoir calculer une distance qui soit cohérente. De plus, l’un des
principaux buts des espaces couleur uniformes est de pouvoir donner une distance entre
deux couleurs qui se rapproche le plus possible de la distance perçue par l’œil humain.
De très nombreuses formules de mesure de la distance couleur ont vu le jour grâce à de
nombreux auteurs au cours des dernières décennies. Dans cette section, nous donnerons
juste celles que nous utiliserons par la suite.
Dans les espaces uniformes, la distance Euclidienne est fréquemment utilisée. Ses formules pour les espaces L∗ u∗ v ∗ et L∗ a∗ b∗ sont les suivantes :
p
(∆L∗ )2 + (∆u∗ )2 + (∆v ∗ )2 ,
p
∗
∆Eab
= (∆L∗ )2 + (∆a∗ )2 + (∆b∗ )2 ,
∗
∆Euv
=
(3.20)
où ∆x = x2 − x1 représente la différence entre la même composante de deux couleurs
différentes.
En coordonnées polaires, autrement dit dans l’espace L∗ C ∗ h∗ , ∆x est différente selon
la composante traitée. La formule est comme suit :
p
∆E ∗ = (∆L∗ )2 + (∆C ∗ )2 + (∆0 h∗ )2 ,
(3.21)
où :
3.5
(
∆C ∗ = C2 − C1 ,
∗ ∗
p ∗ ∗
h −h
0 ∗
∆ h = 2 C1 C2 sin 2 2 1 .
(3.22)
Les espaces dédiés à la télévision
La télévision est l’un des domaines où la couleur demeure un moyen inévitable voire indispensable pour la communication. Il ne faut surtout pas oublier qu’au début, la diffusion
télévisuelle se faisait en noir et blanc et elle ne nécessitait que la composante de luminance. Avec l’évolution de la technologie, la télévision s’est vue dotée de la couleur et par
conséquent de récepteurs couleur. Néanmoins, il était indispensable de rester compatible
avec l’ancien système et respecter les deux points suivants :
– donner la possibilité de continuer à recevoir en noir et blanc pour les postes de
télévision noir et blanc ;
– pouvoir visionner des images en noir et blanc sur un poste de télévision couleur.
Ainsi, les signaux émis par les chaı̂nes de télévision séparent l’information de luminance de celle de chrominance. Ce passage est effectué en transformant linéairement les
composantes trichromatiques RGB. Pour tous les systèmes, la luminance est la même
et correspond à la composante Y de l’espace XYZ. En contrepartie, les composantes de
chrominance Cr1 et Cr2 sont obtenues à partir de combinaisons linéaires des valeurs R, B
et Y pondérées par des facteurs. Ces facteurs dépendent du standard de télévision utilisé.
La forme générale des composantes chromatiques est donnée par :
(
Cr1 = α1 (R − Y ) + β1 (B − Y ),
(3.23)
Cr2 = α2 (R − Y ) + β2 (B − Y ),
34
CHAPITRE 3. LES ESPACES DE REPRÉSENTATION DE LA COULEUR
où les coefficients α1 , α2 , β1 et β2 sont les facteurs que nous avons évoqués précédemment.
Dans ce qui suit, nous allons donner une énumération non exhaustive des principaux
espaces de couleur dédiés à la télévision. Il est à noter, comme le rappelle Vandenbroucke [Van00], que les transformations correspondant à un même standard peuvent
être légèrement différentes selon les auteurs.
3.5.1
L’espace YIQ
L’espace YIQ est une variante de l’espace RGB établie pour répondre aux besoins de
la télévision. Il a été introduit par le standard NTSC pour la télévision américaine. En
revanche, cet espace n’utilise pas, pour les besoins de conversion, les composantes R, G et
B du standard CIE. Il utilise, comme il a été décrit dans la section 3.3.1, les composantes
établies par le standard même (NTSC en l’occurrence).
En suivant l’écriture donnée par l’équation 3.23, les composantes de l’espace YIQ
s’écrivent comme suit [Gal89] :


Y = 0.299 R + 0.587 G + 0.114 B,
(3.24)
I = 0.74(R − Y ) − 0.27(B − Y ),

Q = 0.48(R − Y ) + 0.41(B − Y ),
où Y représente la luminance utilisée seule par les téléviseurs noir et blanc et en synthèse
additive par les téléviseurs couleur. I et Q sont respectivement les composantes chromatiques représentant les oppositions cyan-orange et magenta-bleu. En exprimant les
composantes de chrominance en fonction des primaires R, G et B, nous aurons la matrice
de passage suivante :

 
 

R
0.299 0.587
0.114
Y
 I  =  0.596 −0.274 −0.322  ∗  G  .
(3.25)
B
0.212 −0.523 0.311
Q
3.5.2
L’espace YUV
Cet espace a été introduit par le standard allemand PAL. Cet espace utilise à son tour
des composantes R, G et B autres que celles définies par la CIE et par le standard NTSC.
Il utilise à proprement parler, le blanc de référence D65 . La formule de la luminance Y
est la même du point de vue écriture que celle définie pour l’espace YIQ. Néanmoins,
les valeurs YY U V sont légèrement différentes des valeurs YY IQ à cause de l’utilisation de
primaires RGB différentes. Les composantes de l’espace YUV s’écrivent comme suit :


Y = 0.299 R + 0.587 G + 0.114 B,
(3.26)
U = 0.493(B − Y ),

V = 0.877(R − Y ).
De même que pour l’espace YIQ, les composantes peuvent être exprimées sous forme
d’une matrice de passage donnée par la formule suivante :

 
 

Y
0.299
0.587
0.114
R
 U  =  −0.147 −0.289 0.436  ∗  G  .
(3.27)
V
0.615 −0.515 −0.100
B
3.5. LES ESPACES DÉDIÉS À LA TÉLÉVISION
35
L’espace de télévision introduit par le standard SECAM, le Y Dr Db est beaucoup moins
connu que les standards précédents. Il utilise les coefficients α1 = −1.9, α2 = 0, β1 = 0
et β2 = 1.5 pour le calcul des composantes de chrominance à partir des primaires RGB
[Gal89, Bed98, Van00].
3.5.3
L’espace Y Cr Cb
Cet espace est le standard international par excellence, dédié au codage digital des
images de la télévision numérique. Il répond à la norme ITU.BT-601. Il fait actuellement partie du nouveau standard de compression JPEG2000 en tant qu’amendement de
la partie 1 (partie représentant le noyau du standard. En effet, l’ajout de l’espace de
représentation de la couleur Y Cr Cb dans le standard JPEG2000 a été fortement demandé
par les partenaires industriels de l’organisation internationale de standardisation (ISO
International Standard Organisation). Cette demande a été motivée, d’une part, pour les
qualités qu’apportent cet espace dans la chaı̂ne de compression et, d’autre part, à cause
de tous les matériels et applications qui seraient susceptibles d’être en aval du standard
et qui utilisent déjà l’espace Y Cr Cb . Cette partie sera détaillée dans la section dédiée à
JPEG2000.
L’espace Y Cr Cb est différent des autres standards de télévision car il n’impose aucune
règle quant au blanc de référence à utiliser ou à la loi gamma des CRT à adopter. Il
ne prend en considération que la forme numérisée de l’espace de primaires RGB. Les
composantes de cet espace peuvent être exprimées directement sous forme d’une matrice
de passage donnée par la formule suivante :

 
 
R
Y
0.299
0.587
0.114
 Cb  =  −0.169 −0.331 0.500  ∗  G  .
B
0.500 −0.419 −0.081
Cr

(3.28)
Il est à noter que la composante de luminance est la même que celle des autres espaces
de télévision définis précédemment. Une variante de ce standard obtenu à partir des
primaires XYZ a été définie pour la TVHD (Télévision Haute Définition). Celle-ci n’a
pas encore été recommandée pour les usages de radiodiffusion.
3.5.4
L’espace PhotoYCC de Kodak
L’espace PhotoYCC de Kodak n’est pas, à proprement dit, un espace dédié à la
télévision. Il a été conçu pour pouvoir encoder les images avec le système PhotoCD. Ce
système prépare les images pour un affichage à la fois, sur les systèmes graphiques PhotoCD et sur un téléviseur. Le passage du système de primaires RGB à l’espace PhotoYCC
s’effectue en trois étapes :
1. Tout d’abord, une correction gamma.
2. Ensuite, le passage des composantes RGB aux composantes Y C1 C2 grâce à la matrice
de passage suivante :
36
CHAPITRE 3. LES ESPACES DE REPRÉSENTATION DE LA COULEUR

 
 

Y
0.299
0.587
0.114
R
 C1  =  −0.299 −0.587 0.886  ∗  G  .
C2
0.701 −0.587 −0.114
B
3. Finalement, les valeurs sont converties en des entiers 8-bits comme suit :

255
8

Y = 1.402 Y,
C18 = 111.40 ∗ C1 + 156,

C 8 = 135.64 ∗ C + 137.
2
2
3.6
(3.29)
(3.30)
Les espaces répondant à la perception humaine
Pourquoi appelons-nous ces espaces, des espaces perceptuels ou répondant à la perception humaine ? Il suffit de demander à une personne, n’ayant a priori pas de connaissance
en colorimétrie, de nous définir la couleur. Celui-ci parlera de la couleur comme une primitive (rouge, verte, jaune, etc.) à laquelle il associera le taux de blanc présent (clair, foncé,
etc.) et la pureté de la couleur (pastelle, délavée, etc.). Par analogie et dans le but de se
rapprocher du fonctionnement humain, les espaces perceptuels représentent la couleur à
travers trois entités : la teinte, l’intensité ou luminosité et la saturation.
3.6.1
Le modèle de Munsell
Ce modèle colorimétrique qui a été redéfini par la société américaine d’optique (Optical
Society of America) en 1943, a été introduit initialement par Munsell en 1898.
(a)
(b)
Fig. 3.8 – Modèle colorimétrique de Munsell représentant les couleur en teinte, saturation et luminosité.
a- représentation sous forme solide, b- représentation circulaire.
Le modèle de Munsell est composé de trois axes : hue (teinte), chroma (saturation) et
value (luminosité). La principale différence avec les systèmes actuels de type T LS est que
les axes sont faiblement échantillonnés. En d’autres termes, chaque axe est représenté par
3.6. LES ESPACES RÉPONDANT À LA PERCEPTION HUMAINE
37
un faible nombre de valeurs (ex. : 10 pour la teinte). Ainsi, la teinte est représentée par un
disque divisé en 10 secteurs comme le montre la figure 3.8-(a). Ces valeurs correspondent
aux teintes suivantes : rouge R, jaune-rouge Y R, jaune Y , jaune-vert GY , vert G, bleuvert BG, bleu B, bleu-pourpre P B, pourpre P et rouge-pourpre RP . Les abréviations
précédentes sont données en anglais telles qu’elles ont été définies par Munsell. La figure
3.8-(b) montre qu’un secteur peut être subdivisé en sous-sections pour une meilleure
précision. Dans ce cas, un numéro précédera le label donné à la section (3YR par exemple).
3.6.2
Le système de coordonnées triangulaires HSI
Comme le remarque Carron [Car95], ce modèle de représentation de la couleur a été
communément utilisé en traitement d’images couleur. Sa modélisation est issue de la
déformation du cube des couleurs RGB. En effet, il suffit d’imaginer le renversement du
cube sur le coin représentant le noir. Ainsi, l’axe achromatique constituera l’axes des
intensités I et la couleur sera définie par une position sur un pallier circulaire où la
saturation S représente le rayon et la teinte H représente l’angle.
Les formules exprimant la transformation de l’espace RGB à l’espace HSI sont données
par :

,
I = R+G+B

3


3∗min(R,G,B)
S = 1 − R+G+B ,


H = acos √ 0.5∗(R−G)+(R−B)
(R−G)2 +(R−B)(G−B)
3.6.3
(3.31)
.
Le système de cône hexagonal HSV
Le système HSV, connu aussi sous le nom du système de cône hexagonal, a été défini
par Travis. Deux modèles peuvent être distingués : le modèle de cône hexagonal simple
et le modèle hexagonal double (figure 3.9). Ils représentent la couleur sous forme d’un
triplet : Teinte H (Hue), Saturation S et luminosité V (Value).
Dans le cas du modèle simple les transformations sont effectuées comme suit :
V = max(R, G, B),
V − min(R, G, B)
S=
,
V

G−B
si V = R,

 V −min(R,G,B)
B−R
H = 2 + V −min(R,G,B) si V = G,


R−G
4 + V −min(R,G,B)
si V = B.
(3.32)
(3.33)
(3.34)
Le modèle de cône hexagonal double est construit sur le même principe que le modèle
précédent. Sachant que la formule pour calculer la teinte est la même que l’équation 3.34,
la valeur et la saturation sont calculées comme suit :
38
CHAPITRE 3. LES ESPACES DE REPRÉSENTATION DE LA COULEUR
max(R, G, B) + min(R, G, B)
,
2
max(R,G,B)−min(R,G,B)
si V ≤ Vmax
,
2V
2
max(R,G,B)−min(R,G,B)
Vmax
si V > 2 .
2(Vmax −V )
V =
(
S=
(a)
(3.35)
(3.36)
(b)
Fig. 3.9 – Modèle de cône hexagonal de Travis : a- modèle de cône hexagonal simple, b- modèle de cône
hexagonal double.
3.7
Les autres espaces de représentation
En plus des familles de standards de représentation de la couleur que nous venons
de voir. Il existe d’autres représentations qui sont le plus souvent dédiées à un type
d’application. C’est le cas, par exemple, de l’espace CMY qui a été spécialement créé
pour les besoins d’impression couleur.
3.7.1
L’espace d’Ohta ou l’espace I1 I2 I3
Cet espace a été introduit par Ohta et al. [OKS80] dans les années 80. Il répond à une
approche complètement différente de celles que nous avons vues jusqu’à présent. En effet,
il est inspiré de la transformation de Karhunen-Loeve afin de déterminer les trois axes
de plus grande variance de l’ensemble des couleurs. Cet espace est une transformation
3.7. LES AUTRES ESPACES DE REPRÉSENTATION
39
linéaire à partir de l’espace RGB définie par les formules suivantes :
R+G+B
,
3
R−B
I2 =
,
2
2G − R − B
I3 =
,
4
I1 =
(3.37)
(3.38)
(3.39)
où I1 correspond à la composante de luminance. I2 et I3 représentent respectivement les
oppositions bleu-rouge et magenta-vert.
3.7.2
L’espace CMY
L’espace CMY est l’espace dédié à l’impression des couleurs. Il résulte d’une synthèse
soustractive et est représenté par un cube comme l’espace RGB. Mais à l’inverse de ce
dernier, le cube CMY a le blanc pour origine et le cyan, le magenta et le jaune comme
axes. L’ensemble des formules permettant le passage entre les deux espaces est le suivant :


C = 1 − R,
(3.40)
M = 1 − G,

Y = 1 − B.
Cependant, pour des besoins purement matériels (imprimantes en l’occurrence), cet
espace a été étendu en lui rajoutant une quatrième composante nommée K 6 . Cette composante vient combler l’incapacité de restituer parfaitement la couleur noire à partir des
trois pigments CMY. Dans ce cas, les nouvelles composantes C 0 M 0 Y 0 K sont obtenues par :

K = min(C, M, Y ),



C 0 = C−K ,
1−K
(3.41)
M −K
0

M
=
,


 0 Y 1−K
−K
.
Y = 1−K
6K
pour Key black en anglais.
40
CHAPITRE 3. LES ESPACES DE REPRÉSENTATION DE LA COULEUR
Bibliographie
[Bed98] L. Bedat. Aspects psychovisuels de la perception des couleurs. Application au
codage d’images couleur fixes avec compression de l’information. Thèse de doctorat, Université de Nantes, octobre 1998.
[Car95] T. Carron. Segmentations d’images couleur dans la base Teinte-LuminanceSaturation : approche numérique et symbolique. Thèse de doctorat, Université
de Savoie, décembre 1995.
[CIE31] CIE. Compte rendu de la huitième session. Technical report, Cambridge University Press, Cambridge, 1931.
[CIE86] CIE. Colorimetry. Technical Report 15.2, Bureau central de la CIE, Vienna,
1986.
[Eas73] D. Eastwood. A simple modification to improve the visual uniformity of the CIE
1964 U∗ V∗ W∗ colour space. In Second congrès de l’Association Internationale
de la Couleur, Colour’73, pages 293–296, New York, 1973.
[FR98]
A. Ford and A. Roberts. Color space conversions. Technical report, 1998.
[Gal89] S. Galichet. Étude d’Un Système d’Incrustation d’Images Vidéo Couleur. Thèse
de doctorat, Université de Technologies de Compiègne, décembre 1989.
[Gev00] T. Gevers. Color in image databases. Technical report, University of Amsterdam,
2000.
[Jud30] D. B. Judd. Reduction of data on mixture of color stimuli. Bureau of Standards
Journal Research, 4(163) :515–548, 1930.
[Loz98] V. Lozano. Contribution de l’analyse d’image couleur au traitement des images
textile. thèse de doctorat, Université Jean-Monnet, Saint-Étienne, janvier 1998.
[Mac85] D. L. MacAdam. Color measurement, theme and variation. Optical Sciences,
Springer-Verlag, 1985.
[OKS80] Y. I. Ohta, T. Kanade, and T. Sakai. Color information for region segmentation.
Computer Graphics and Image Processing, 13 :222–241, 1980.
[Rog85] D. F. Rogers. Procedural elements for computer graphics. Mc Graw Hill, 1985.
[Sèv96] R. Sève. Physique de la couleur. De l’apparence colorée à la technique colorimétrique. Masson, 1996.
[Tré93]
A. Trémeau. Contribution des modèles de la perception visuelle à l’analyse
d’images couleur. Thèse de doctorat, Université Jean Monnet de Saint-Étienne,
octobre 1993.
41
42
BIBLIOGRAPHIE
[Van00] N. Vandenbroucke. Segmentation d’images couleur par classification de pixels
dans des espaces d’attributs colorimétriques adaptés. Application à l’analyse
d’image de football. thèse de doctorat, Université de Lille 1, décembre 2000.
[WS82] G. Wyszecki and W. Stiles. Color Science : Concepts and Methods, Quantitative
Data and Formulae. John Wiley & Sons, New York, 1982.

Documents pareils