Cours de Théorie de l`Information

Transcription

Cours de Théorie de l`Information
Introduction
à la
Théorie de l'Information
if
G.Beuchot
1
Introduction à la Théorie de l'Information
Sommaire
á Définitions : Information et Entropie
3
FApplication : le canal binaire symétrique (BSC)
á Le canal de transmission
16
FDéfinitions, Capacité du Canal, Théorème Fondamental de Shannon
FLe Canal continu
á Codage
33
FDéfinitions, codes à longueur fixe, code à longueur variable
FApplication à la compression de données (exemple: MPEG)
á Codes correcteurs d’erreur
52
FDistance de Hamming, typologie des codes correcteurs
FCodes cycliques
FCodes de convolution
if
G.Beuchot
2
Introduction à la Théorie de l'Information
Définition de l'information
á Une information est un couple constitué:
d'une représentation matérielle, qui en constitue le formant
et d'un ensemble d'interprétations, qui en constitue le formé
dont la nature, événementielle, consiste en un changement d'état qui, par
l'occurence de cette représentation matérielle, provoque l'activation du champ
interprétatif correspondant, selon les règles fixées par un code préétabli.
Georges Ifrah - Histoire universelle des chiffres
FSeule la composante matérielle (formant) d'une information fait l'objet d'une
communication: ce n'est pas le sens (formé) que l'on transmet
F L'information est la troisième dimension universelle après la matière et l'énergie.
L'information n'est autre que la néguentropie (structure ordonnée)
F Etymologie: informare= donner une forme....
á Quantité d'information
Mesure quantitative de l'incertitude d'un message en fonction du degré de
probabilité de chaque signal composant ce message
if
G.Beuchot
3
Introduction à la Théorie de l'Information
Messages et signaux
á Information (suite...)
F Séquence de signaux, correspondant à des règles de combinaisons précises, transmise entre
une source et un collecteur par l'intermédiaire d'un canal
F Ecrit, fait, notion ou instruction susceptible d’être traitée en tout ou partie par des moyens
automatiques.
F Renseignements obtenus de quelqu'un ou sur quelqu'un ou quelque chose, en particulier
nouvelle communiquée par la presse, la radio,...
á Message
F Lot d'information formant un tout intelligible ou exploitable et transmis en une seule fois
F Séquence de signaux qui correspondent à des règles de combinaisons précises et qu'une
source transmet à un collecteur par l'intermédiaire d'un canal
á Signal
F Phénomène physique porteur d'une information et pouvant représenter des données
F Variation d'une grandeur de nature quelconque grâce à laquelle, dans un équipement, un
élément en influence un autre
F Signe convenu pour avertir, annoncer, donner un ordre.
if
G.Beuchot
4
Introduction à la Théorie de l'Information
L’Information, Grandeur mesurable: Approche empirique
áOn ne s'intéresse ici qu'à l'aspect QUANTITATIF
áL'aspect qualitatif de l'information, son "intérêt" est subjectif
áMesure basée sur la probabilité d'occurrence d'un événement, du message
Source
Message
áL'attitude du collecteur de l'information est probabiliste
FLa communication n'a d'objet que si le contenu du message est inconnu
áPour un événement X de probabilité P(X)
FI(X) = f ( 1 / P(X) ) pour que I(X) croît quand P(X) décroît
FIl faut que I(X) soit toujours POSITIVE et ADDITIVE
ß on choisit donc f= log
1
I ( X ) = log
ß si loge
ß si log10
ß si log2
if
G.Beuchot
P( X )
= − log( P( X ))
unité : Nat
unité : Hartley
unité: bit
5
Introduction à la Théorie de l'Information
L'information, grandeur mesurable: Notations
áX
áY
á P(xk)
á P(xk/ yj)
Y= yj
á P(xk; yj)
Symbole émis par une source
Symbole reçu par l'observateur au collecteur
Probabilité queX= xk
Probabilité d'avoir émis X= xk si on a reçu
Probabilité émettre X= xk et de recevoir Y= yj
I (xk) = - log2 P (xk) bits
if
G.Beuchot
6
Introduction à la Théorie de l'Information
Définitions
á Alphabet: Ensemble fini de symboles appelés lettres
F ex :
F
a b c d e ...
alphabet binaire :
0 1
á Message: Suite finie de symboles ou lettres
F ex : Beuchot, 0110100110
á Source de messages: Ensemble de TOUS les messages
susceptibles d'être formés à partir d'un alphabet
F Source discrète ou continue
F ex :
dictionnaire
F
alphabet N° 5 (AI5) à 7 bits (0000000 à 1111111)
á Extension d’une source
F Soit une source codée par un alphabet de taille k par exemple k = 2 [0,1]
Une séquence de longueur l de lettres de cet alphabet constitue une nouvelle source
appelée
l ème extension de k
F ex : Le code binaire correspondant à l'alphabet AI5 est une extension de taille 7 de
l'alphabet binaire.
if
G.Beuchot
7
Introduction à la Théorie de l'Information
Information moyenne: Approche axiomatique
á Source X de messages x1,x2,...xi....xn de probabilité p1,p2.....pi.....pn
n
pi > 0 ∀ i
et
∑p
i =1
i
= 1
n
Information moyenne H =
∑ p I(x )
i =1
i
i
á Axiomes de Fadeev et Fenstein
Fsi p1=p2.=..pi..=.pn= 1/n, H est fonction monotone croissante de n
FSoit 2 ensembles X(x i) et Y(yj) sources de messages indépendantes
et p(xi) = 1/n ∀ i et p(yj) = 1/m ∀ j
H(...,1/mn, ...) = H(...,1/n, ...) + H(...,1/m, ...)
F(voir polycop) . On n'apporte pas plus d'information en fractionnant les
expériences ....
FPour un alphabet binaire, H(p, 1-p) est une fonction continue de p sur [0,1]
if
G.Beuchot
8
Introduction à la Théorie de l'Information
Information moyenne: Approche axiomatique (suite)
á La seule fonction vérifiant ces 4 axiomes est :
n
H( p1,...p i ,...p n ) = - C∑ p i log a p i
i=1
n
Information moyenne H =
∑ p I(x )
i
i
i=1
FC constante arbitraire > 0 et a base du logarithme
I(pi) = - C loga pi
FI : information moyenne associée au résultat d'un épreuve
FH : information moyenne, espérance mathématique de I
ß ENTROPIE (Shannon, 1948)
if
G.Beuchot
9
Introduction à la Théorie de l'Information
Exemples
á Alphabet + séparateur: 27 symboles
Fsi équiprobables H = 1 ∑ log 1 = log 27 = 4, 7549
27
27
e 1
i=1
2
bit par lettre
27
Fen réalité, les lettres ne sont pas équiprobables et H = 3,98 bit par lettre
ß cette inégalité fait perdre 770 bits pour 1000 lettres
á Source binaire
Fquelconque
ß si p = 0,6 pour X 0 et p = 0,4 pour X1
$ I(X0) = log2 0,6 = 0,73
$I(X1) = log2 0,4 = 1,32
soit H = 0,97 bit
Fsymétrique
ß p = 0,5 pour X 0 et X1
$I(X0) = log2 0,5 = 1 = I(X 1)
soit H = 1 bit
á dé équiprobable H = 2,585 bits
if
G.Beuchot
10
Introduction à la Théorie de l'Information
Propriétés de l’ENTROPIE
á l'entropie est maximale si les
messages sont équiprobables
1
0,8
0,6
á Loi composée
n
0,4
H(X,Y) = -
m
∑ ∑ p(x , y )log (p(x
i
j
i,
y j ))
i=1 j=1
0,2
F généralisable à N sources
0
0 0, 0, 0, 0, 0, 0, 0, 0, 0, 1
1 2 3 4 5 6 7 8 9
H(X,Y) ≤ H(X) + H(Y)
ß avec égalité si indépendance des sources
ß généralisé par
H(X1 ,.. X n ) ≤
n
∑ H(X )
i
i=1
if
G.Beuchot
11
Introduction à la Théorie de l'Information
Propriétés de l’ENTROPIE (suite)
á Loi conditionnelle
p(
Y = yj
H(Y
FL'entropie conditionnelle de Y
relativement à X = xi est l'information
moyenne apportée par Y si la source X
a émis xi
X = xi )
k
X = x ) = −∑ p(
i
yj
j =1
n
m
i =1
j=1
xi )log p(
yj
xi )
y
y
H (Y X) = −∑ p(xi )∑ p( j x )log p( j x )
n
H (Y X) = −∑
i =1
i
m
i
∑ p(x y )log p(
j =1
i,
j
yj
xi )
H(X, Y) = H(Y) + H( X Y) = H(X) + H(Y X)
H(Y X ) ≤ H(Y) égalité si indépendance
if
G.Beuchot
FSi X et Y sont indépendantes, la
connaissance de X n'apporte aucune
information au sujet de Y. L'entropie
conjointe H(X,Y) est alors la somme des
entropies des sources indépendantes.
FSi les sources sont liées, la connaissance
de l'une apporte des information sur l'autre
et l'entropie conjointe est inférieure à la
somme des entropies de chaque source.
12
Introduction à la Théorie de l'Information
INFORMATION TRANSMISE - Equivocation
I(X,Y) = H(X) - H( X Y )
= H(Y) - H( Y X )
I(X,Y) = I(Y, X)
if
G.Beuchot
FNotations
ß H(X) = entropie de la source
ß H(Y) = entropie du collecteur
ß H(X/Y) = partie de l'information source
récupérée au vu de la sortie ou
équivocation
ß H(Y/X) = bruit ou erreur sur le canal
FI(X,Y) est l'incertitude à priori sur X moins
l'incertitude sur X lorsque Y a été réalisée
ß Pour un canal sans bruit I(X;Y) = H(X) =
H(Y)
ß L'incertitude sur X décroît par la
connaissance de Y
ß I(X,Y) est l'apport d'information de Y au
sujet de X
ß 0 ≤ I(X,Y) . I(X,Y) = 0 si les sources sont
indépendantes; Y ne dit rien de X
13
Introduction à la Théorie de l'Information
Application: CANAL de COMMUNICATION
Source
Collecteur
Canal
Codage
Décodage
á Au collecteur on observe Y qui est une conséquence de
X
FStockage
FTransmission
á Dans le canal l'information peut être perturbée, modifiée
....
if
G.Beuchot
14
Introduction à la Théorie de l'Information
Exemple: CANAL BINAIRE SYMETRIQUE
á py = p0px + (1-p 1)(1-px)
Fsi px = 0,5 py = 0,5 (1 + p0 - p1 )
á Le canal est symétrique si p0
= p1 alors py = 0,5
X
px
2
H(Y X ) = −∑ p(xi )∑ p(
i =1
j =1
yj
xi )log p(
yj
0
0
p
y
1
1- py
p(y=1/x=0)
p(y=0/x=1)
1- px
2
Y
p(y=0/x=0) = p0
1
p(y=1/x=1) = p
1
xi )
 p(x = 0)( p( 0 0 )log p( 0 0 ) + p( 10 )log p( 10 )) + 

H( X ) = −
 p(x = 1)( p( 11 )log p( 11 ) + p( 01 )log p( 01 )) 
Y
si p(x) = 0,5 et p( 0 0 ) = p( 11 ) = p
H(Y X ) = p log (p) + (1- p) log (1- p)
if
G.Beuchot
p
1
0,9999
0,999
0,99
0,9
0,5
H (Y / X)
0
0,001473
0,011408
0,0808
0,4690
1
I (X,Y)
1
0,9985
0,988592
0,9192
0,5310
0
15
Introduction à la Théorie de l'Information
Le Canal de Transmission
if
G.Beuchot
16
Introduction à la Théorie de l'Information
á Entre source et collecteur caractérisé par :
Falphabets d'entrée et de sortie
Fprobabilités de transition
Fensemble d'états
á si le canal est SANS MEMOIRE les probabilités de
transition sont indépendantes de l'état du canal
FNous ne traiterons que ce cas
FUne "mémoire" est un canal sans mémoire
if
G.Beuchot
17
Introduction à la Théorie de l'Information
Canal sans mémoire
Fsans perte (sortie implique l'entrée)
Fdéterministe (entrée détermine la sortie)
Fsans erreur (déterministe et sans perte)
symétrique (matrice de transition symétrique)
á exemple : canal binaire symétrique
F (B.S.C. binary symetric channel)
0 è p
î
1-p
ì
1-q
1 è q
if
G.Beuchot
0
1
0 è 1- ε
î ε
ì ε
1 è 1- ε
0
1
18
Introduction à la Théorie de l'Information
Extension du Canal
á Entrée prise dans l'extension de l'alphabet
F ex : p(00/00) = p2 , p(10/00) = qp
FCodage multiniveaux
á exemple:
Fmatrice de probabilité de transition pour BSC
00
01
10
11
00
(1-εε)2
ε(1- ε)
(1- ε)
ε2
01
ε(1- ε) (1- ε)2
ε2
ε(1- ε)
10
ε(1- ε)
ε2
(1- ε)2 ε(1- ε)
11
ε2
ε(1- ε)
ε(1- ε)
(1- ε)2
á CANAL AVEC MEMOIRE
FLa matrice de transition dépend de l'état du canal, donc des transitions
antérieures
FApplication : paquets d'erreurs
if
G.Beuchot
19
Introduction à la Théorie de l'Information
Capacité du canal sans mémoire
á I(X,Y) = H(Y) - H(Y/X) = H(X) - H(X/Y)
FCette information dépend
ß de la source
ß de la matrice de transition fixée par le canal
Fcette matrice de transition est imposée.
á On recherche le maximum d'information transmise. Pour cela il faut
jouer sur la source par un codage approprié.
Fanalogie: adaptation d'impédance
FOn utilisera donc un codeur et un décodeur comme interfaces avec le canal
Source
Collecteur
Codeur
Décodeur
CANAL
if
G.Beuchot
20
Introduction à la Théorie de l'Information
Capacité du Canal (suite)
H(Y) = -
∑p
yj
log p y j
j




H(Y) = − ∑ ∑ p xi log p y j / xi  log ∑ p xi log p y j / xi 
 i

j  i

H( Y X ) = -
∑∑ p
i
xi
p y j / xi log p y j /xi
j
á C = Max[X,Y]
p(xi)


p
p
log
p
p
log
p
∑i ∑j xi y j/ xi  ∑i xi y j/ xi
yj / xi 

p yj / xi
I(X,Y) = ∑ ∑ p xi p y j / xi log
i
j
∑ p xi p y j / xi
I(X,Y) = -
i
if
G.Beuchot
21
Introduction à la Théorie de l'Information
Capacité du Canal Symétrique
á Si L est la taille de l'alphabet B du collecteur
C = Max ( H(Y) - H(Y/X) )
FH(Y) est maximal pour une source équiprobable
p(xi) = 1 / L et
L
C = log L +
 yj
∑ p
j=1
L
∑p
i =1
xi
= 1

yj 
log
p

 x
xi 

i
á Pour un canal binaire symétrique (BSC)
C = 1 + p log p + (1-p) log (1-p) 1
F
F
si p = 0,5 log p = log (1-p) = log 0,5 = - 1
si p = 0,99log p = -0,014495
1-p = 0,01
if
G.Beuchot
log(1-p) -6,643856
C = 0 bit
C = 0,9192 bit
22
Introduction à la Théorie de l'Information
Canal Bruité: probabilité d’erreurs
BRUIT
Source
Codeur
CANAL
Décodeur
Collecteur
á La matrice de transition du canal est liée à des perturbations induites
par l'ajout d'une information parasite "le bruit" dans le canal .
á Exemple : Canal binaire
1
F bruit
0
F Collecteur 1
F erreur
F Source
1
0
1
0
0
0
1
1
0
+
1
0
1
0
1
1
+
0
0
0
1
0
1
0
0
0
á Nous observons 2 erreurs de décodage. Nous allons rechercher la
probabilité d'erreur pei sur un mot Xi et la probabilité moyenne
d'erreurs pe.
if
G.Beuchot
23
Introduction à la Théorie de l'Information
Canal Bruité: probabilité d’erreurs (suite)
Pei =
∑ p(
Yj
Yj
Pe =
Xi )
M
∑ p(X ) p
i
i=1
ei
á A l'entrée du canal sont placés M mots X i de
longueur N. A chaque mot reçu Yi on assigne un
mot émis Xi. Il y a erreur si on reçoit Yj .
á Le décodeur, placé à la sortie du canal, doit
minimiser cette probabilité d'erreurs en
recherchant :
F
F
le maximum de la loi de probabilité à postériori
ou
le maximum de vraisemblance
á Pour une loi d'émission uniforme ces régles se
confondent.
á Le calcul est en général très difficile. On se
contente d'un majorant.
if
G.Beuchot
24
Introduction à la Théorie de l'Information
Canal Binaire Symétrique Bruité: probabilité d’erreurs
á Pour un canal B.S.C.
F avec des probabilités de transition ε et 1-εε
Fdes mots de taille N
(
Pe ≤ 2 ε (1 - ε )
)
N
en réalité
Pe ≈
if
G.Beuchot
(
2
2 ε (1 − ε )
πN
)
N
25
Introduction à la Théorie de l'Information
Théorème Fondamental de SHANNON
á Soit une source émettant des mots de taille N
FSon taux est R = H / N bit par lettre
FLa probabilité d'erreur pe î si N ì
mais R î si N ì
á En fait pour avoir une probabilité d'erreur pe = 0 il faut N = ∞ soit R = 0 !
á On cherche à minimiser pe
Fen fonction de R, N et de la capacité C du canal
FShannon a montré que si R ≤ C , il existe une suite de codes de longueur de
mot N qui minimise la probabilité d'erreur.
FLa taille du code est Partie entière [exp (NR)]
FSi R > C il n'existe aucune méthode de codage qui permette de transmettre de
l'information avec un taux d'erreur négligeable.
FCe théorème fournit une condition limite qui permet d'orienter la recherche
des codes les meilleurs ou de les comparer à cette valeur limite.
if
G.Beuchot
26
Introduction à la Théorie de l'Information
Le Canal Continu
+∞
∫
H(X) = -
f1 ( x ) log f1( x ) dx
-∞
+∞
∫ f ( y ) log f ( y ) dy
H(Y) = -
2
2
-∞
+∞+ ∞
H(
X
Y
∫ ∫ f ( x, y ) log
) = -
- ∞ -∞
+∞+∞
I(X,Y) = -
∫∫
f ( x , y ) log
-∞ - ∞
f ( x, y )
dxdy
f 2( y)
f ( x, y )
dxdy
f1( x ). f2 ( y )
á Les définitions de l'information,
de l'entropie, etc sont étendues à
des sources ou des collecteurs
ayant des fonctions densité de
probabilité continues (et non plus
discrètes) pour utiliser pleinement
les canaux de communication
analogiques
á Cette quantité d’information
est liée à un symbole unique
Capacité du canal continu
C = Max f
1( x )
if
[I(X,Y)]
G.Beuchot
27
Introduction à la Théorie de l'Information
Débit du Canal Continu
FSi T est l'intervalle de temps entre 2 symboles ("Moment")
á le DEBIT d'information vaut
CT = C / T bit/s
á Le taux de la source est RT = H(X) / T
FD'après le second théorème de Shannon,
á si RT
veut.
if
≤
G.Beuchot
CT on peut avoir un taux d'erreurs aussi petit que l'on
28
Introduction à la Théorie de l'Information
Théorème de Shannon-Hartley-Tuller
á On suppose que le canal est additif
et qu'il est perturbé par un "bruit"
gaussien.
+∞
H(Z) = -
∫ q( z ) log q( z )dz
-∞
avec, si B est la puissance du bruit
1
 z2 
q( z ) =
exp 
2πB
 2 B
et si S est la puissance du signal
 x2 
1
f1( x ) =
exp 
 2S 
2πS
if
G.Beuchot
á Soit H(Z) l'entropie de cette"
source de bruit" de densité de
probabilité q(z)
á On suppose aussi que le signal utile
issu de la source possède une
densité de probabilité gaussienne
f1(x)
29
Introduction à la Théorie de l'Information
Théorème de Shannon-Hartley-Tuller (suite)
FH (X) = log (2π
π eS)
FH (Z) = log (2π
πeB)
á Y = X + Z donc
H (Y) = log (2π
πe(S+B))
á I(X,Y) = H(Y) - H (Z)
I (X,Y) =
1
2
log 2 ( 1 +
= log (2π
πe(S+B)) - log (2π
πeB)
S
B
)
á Si B est minimal et S maximal C =
1
2
log 2 ( 1 +
S
B
FNota : Pour avoir le débit maximal théorique d'information nous devrons
multiplier cette capacité par le nombre de symboles transmis par unité de
temps.
if
G.Beuchot
30
Introduction à la Théorie de l'Information
)
Exemple 1 de capacité du canal continu
á Bruit blanc maximum sur canal téléphonique :
48 db au dessous du signal
Fnota : décibel = 10 log10
P2
P1
á soit 10 log10 (S/B) = 48
á C = log2 (1 + S/B) =
ou S/B ≈ 63000
1
2
log10 (1 + BS )
log 10 2
á C = 3,32 log10 (1 + S/B)
F= 3,32 * 4,8 ≈ 7,970 bits par symbole
if
G.Beuchot
31
Introduction à la Théorie de l'Information
Exemple 2 de capacité du canal continu
á Signal émis 1mW
Fnota : sur une ligne téléphonique
ß
puissance crête
ß
puissance moyenne
FAtténuation 30 db soit un facteur 1000
0 dbm = 1 mw
-10 dbm = 0,1 mw
á Signal reçu 1W
á Bruit à la réception 10 nW
FS/B = 100 ( 20 db)
Flog2 (1 +S/B) = log2 (101) = 6,658
á C = 3,329 bit par symbole
FEn pratique on pourra espérer transmettre 3 bit par symbole
if
G.Beuchot
32
Introduction à la Théorie de l'Information
Codage
if
G.Beuchot
14/03/01
33
33
Introduction à la Théorie de l'Information
Définitions
á SOURCES
FIndépendantes
ß xi sont des var. aléatoires indépendantes de même loi , Si M =
x1x2x3
p(M) = p1p2p3
FStationnaires
ß xi sont liées mais les probabilités pour une suite x1x2...xi
ne dépendent pas de l'instant d'émission
Fde Markov
ß Source à mémoire finie
ß loi à priori p(xi) + suite de lois conditionnelles p(x1/ x2),
....,p(x1/ xn)
p(x1/ x2x3)
p(x1/ x1x2x3...xn)
$ On utilise un diagramme d'état pour indiquer les probabilités à prendre
en compte à un instant donné
if
ß exemple : langue naturelle ( ...ait, ...ment, ..)
ß Codage prédictif: images Vidéo
G.Beuchot
14/03/01
34
34
Introduction à la Théorie de l'Information
Définitions (suite)
á LONGUEUR MOYENNE
Fni nombre de caractères du mot mi codant un message xi
FLongueur moyenne des messages :
n = E(n i ) =
N
∑ n p(x )
i
i
i=1
Cette grandeur est aussi appelé le coût moyen par message
á TYPES DE CODES
FA longueur de mot fixe
ß tous les mots sont de même longueur
ß exemple : AI5 (7 bit/lettre) , AI2 (5 bit/lette)
FA longueur de mots variable
ß exemple : code Morse, Huffman, ....
if
G.Beuchot
14/03/01
35
35
Introduction à la Théorie de l'Information
Autres définitions
á DEBITS, ETC.
Fdébit littéral : nombre de caractères par unité de temps
D lettres/ s
H(X)
FTaux d'émission :
bit/lettre
n
FDébit d'information :
η =
FEfficacité :
FRedondance : ρ
if
G.Beuchot
14/03/01
D
H(X)
n bit/s
n min
n
n min longueur moyenne
pour le code le plus court
=1- η
36
36
Introduction à la Théorie de l'Information
Codes à longueur fixe
á Source codée par un alphabet de taille K : a1, a2...ak
F
exemple [0,1] K = 2
á Soit une séquence de longueur l de lettres de cet alphabet
r
Fx1,x2,......xl x= l
FOn peut construire Kl
exemple 2l
FCes Kl séquences constituent une nouvelle source appelée l ème
extension de K
Fexemples : AI2 l = 5 25 = 32 "lettres" de 00000 à 11111
AI5 l = 7 27 = 128 "lettres de 0000000 à 1111111
á Pour coder ces suites par des mots
log de
K taille N à partir d'un alphabet de
N
taille D,
l ≥
log D
on doit avoir
á Exemple : Décimal codé binaire
if
ß
ß
G.Beuchot
=4
14/03/01
D=2
N ≥ 1
K = 10
log 10
= 3,32
log 2
chiffre de l = 1 lettre ( 0 à 9)
37
soit N
37
Introduction à la Théorie de l'Information
Codes à longueur variable
á Code caractérisé par :
Flongueur moyenne des mots
Fnon ambiguïté de la lecture
á Code : partie d'un ensemble de suites finies de caractères issus
d'un alphabet
FUn tel code doit être REGULIER et DECHIFFRABLE
Fexemples :
ß
P(xi)
code 1 code 2 code 3
if
G.Beuchot
14/03/01
code 4
x1
0,5
1
0
1
1
x2
0,25
1
1
10
01
x3
0,15
0
11
100
001
x4
0,1
00
01
1000
000
non régulier non déchiffrable non ambigu
38
irréductible
38
Introduction à la Théorie de l'Information
pas injectif
préfixé
Classification des codes de longueur variable
á Un code est déchiffrable (conditions suffisantes) si
F
Fou
il a une longueur fixe
il est préfixé
á Code
F
F
ß
ß
singulier
régulier non déchiffrable
déchiffrable
réductible
irréductible (ou instantané)
á un code irréductible est construit à l'aide d'un arbre
1
⇒
01
0
001
00
000
if
G.Beuchot
14/03/01
etc.
39
39
Introduction à la Théorie de l'Information
Longueur moyenne d’un code
á Soit un alphabet de taille D (nombre de mots code)
á Code irréductible
H(X)
n ≤
log D
+ 1
á Code déchiffrable
n ≥
H(X)
log D
Si égalité : code optimal
á Pour toute source indépendante, il existe un code irréductible de
longueur moyenne aussi proche que l'on veut de H(X)
F 1er Théorème de Shannon
á Pour un code binaire n
if
G.Beuchot
14/03/01
min
log D
= H(X)
(log D =1)
40
40
Introduction à la Théorie de l'Information
Capacité de codage
á Soit k(N) le nombre de textes codés avec N lettres
limN→∞
k(N) ≤ DN
log k(N)
= C ≤ log D
N
N
avec C solution de
∑2
-Cn i
= 1
i=1
á C est la capacité de codage du code
á Exemple : code binaire [0,1] D = 2
F
longueur optimale
log pi
ni = log 2
FSi on classe p1 ≥ p2 ≥ ....... ≥ pi..... ≥ pn alors n1 ≤ n2≤ ..... ≤ ni ... ≤ nn
ß On cherche les plus petits entiers tels que
-ni
pi ≥ 2
if
G.Beuchot
14/03/01
41
41
Introduction à la Théorie de l'Information
Code de Shannon-Fano
á A chaque étape on regroupe les messages en 2 sous-ensembles de
probabilité la plus voisine possible. On continue jusqu'à obtenir 2
messages que l'on code.
á exemple 1
Fmes.
code
Fx1
Fx2
10
Fx3
110
Fx4
111
p(xi)
0,51
0,29
0,51
0,08
0,49
0
1
0
0,29
10
0,20
11 0,08
110
0,12
111
0,12
Flongueur moyenne : 0,51 + 0,29 * 2 + (0.08 +0,12) * 3 = 1,69
if
G.Beuchot
14/03/01
42
42
Introduction à la Théorie de l'Information
Code de Shannon-Fano (suite)
áExemple 2
mes.
code
x1
10
x2
00
x3
01
x4
110
x5
1110
x6
1111
if
p(xi)
0,4
0,3
0,5
0
0,2
0,05
0,5
0,03
0,4
10
0,3
00
0,2
01
1
0,1
0,05
110
11 0,05
111
0,03
1110
0,02
1111
n min =
0,02
Flongueur moyenne :
G.Beuchot
FH(X)
14/03/01 = 1,994987
ßlog D
=1
(0,4 + 0,3 +0,2) * 2 + 0,05 * 3 + (0,03 +0,02) * 4 = 2,15
43
43
Introduction
à la Théorie de l'Information
1,995
Code de Huffman
áPropriétés
Fsi pi > pj
alors ni nj
Fles 2 mots les moins probables ont même longueur
Fparmi les mots de longueur maximale nm il y en a au moins 2 ayant
les mêmes nm-1 premières lettres
FOn classe les messages et on les regroupe 2 par 2
áexemple 1:
mes. p(xi)
if
x1
x2
x3
0,51
0,29
0,12
x4
0,08
code
0,51
0,29
0,20
0,51
0,49
0
1
10
11
110
0
10
110
111
111
FPour cet exemple même longueur moyenne que Shannon-Fano
G.Beuchot
14/03/01
44
44
Introduction à la Théorie de l'Information
Code de Huffman (suite)
áExemple 2
mes. p(xi)
code
x1
0,4
0,4
0,4
0,4
0,4 1
x2
0,3
0,3
0,3
0,3
0,6 0
x3
x4
0,2 0,2
0,05 0,05
0,2
0,1
0,3
x5 0,03 0,05
01110
x6 0,02
01111
if
Flongueur moyenne :
FH(X) = 1,994987
G.Beuchot
14/03/01
ßlog D = 1
1
00
01
00
010
011
0110
0111
n min =
010
0110
01110
01111
0,4 + 0,3 * 2 + 0,2 * 3 + 0,05 *4 + (0,03+0,02) * 5 = 2,05
45
1,995
Introduction
à
η = 0,9732
45
la Théorie de l'Information
ρ = 0,027
Applications
á COMPRESSION DE DONNEES
Si des données sont codées avec des code de longueur fixe on peut les
comprimer
Fen enlevant les caractères inutiles
Fen évitant les répétitions : Code RLE (Run Lenght Encoding)
ß xxxxxxxxxxx
Rx11
Fen utilisant un code de taille variable
ß Huffman
statique ou adaptatif
ß Huffman -Shannon- Fano autosynchronisant ...
ß Ziv et Lempel (codage par dictionnaire)
$certaines séquences de caractères sont considérés comme des messages
valides : extension de l'alphabet
$On applique un code d'Huffman sur cette extension
if
G.Beuchot
14/03/01
46
46
Introduction à la Théorie de l'Information
Applications (suite)
FOn peut aussi utiliser
ß
des codes Arithmétiques
ß
des transformations mathématiques etc.
Fnota :
code JPEG (Joint Photographic Expert Group)
ß
CCITT T.83 ou ISO
10917-1
F
code MPEG (Motion Picture Expert Group)
ß
CCITT ?? , ISO ??
$MPEG2 Codage vidéo : prédictif + Code d’Huffman
F
CCITT H.261
á QUESTIONNAIRES DICHOTOMIQUES
FQuestionnaire à réponse par oui ou non à nombre de questions minimal
if
G.Beuchot
14/03/01
47
47
Introduction à la Théorie de l'Information
Codage des images vidéo : MPEG
á MPEG : Moving Picture Expert Group
FMPEG-2 : ISO/IEC 13818
FIUT : H26x (H262) , H32x (visioconférence sur ATM)
á Différents formats d'image
FNiveau (résolution)
ß
ß
ß
ß
Low (SIF) :
Main (625l) :
High1440 :
High (TVHD ):
(pel = picture element)
352*288 pels
720*576 pels (aspect 4/3 )
1440*1152 pels (aspect 4/3 )
1920*1152 pels (aspect 16/9)
FProfil (format) : décomposition des macroblocs
ß
ß
ß
ß
ß
if
G.Beuchot
14/03/01
Simple :
Main :
SNR :
Spatial :
High :
4:2:0
4:2:0
4:2:0
4:2:0
4:2:0, 4:2:2
(Main)
(tous niveaux)
(Low, Main)
(High-1440)
(Main, High1440, TVHD)
48
48
Introduction à la Théorie de l'Information
Structure des images
á Séquence vidéo
á Images décomposées en trames (entrelacées ou non)
F I : Intra
Indépendante de toute autre (Non Prédite)
F P : Prédites à partir des images I ou P Précédentes)
F B : Bidirectionnelle (prédites par rapport à I ou P voisine)
á trame : ensembles de tranches (slice)
á tranche : un ou plusieurs macroblocs
á macrobloc :
F16*16pels (picture element)
Fluminance (jaune)+ Chrominance (2 couleurs : rouge +bleu)
F6, 8 ou 12 blocs è 4:2:0 , 4:2:2 , 4:4:4
á bloc :
F8*8 pels luminance et 0 ou 8*8 chrominance
if
G.Beuchot
14/03/01
49
49
Introduction à la Théorie de l'Information
Codage et transfert des images
á Seuls les blocs différents d'une trame à la suivante sont
transmis
FL'adresse des blocs est codée par un code à longueur variable
á Seules les différences entre les blocs sont transmises
FLa repésentation des blocs est transformée par DCT : Transformation
en Cosinus Discrète
FLes coéfficients de la transformée sont codés sur 12 bits (Signe + 11
bits)
FLa différence entre les coéfficients, pour deux trames successives,
est codée par un code à longueur variable (3 à 17 bits)
á Les types de macroblocs et d'image sont codés par des codes à
longueur variable
if
G.Beuchot
14/03/01
50
50
Introduction à la Théorie de l'Information
Codage MPEG pour images vidéo: principe
Images
sources
Réorganisation
des images
tranches /
Macroblocs
Régulation
+
TCD
á TCD:
Transformée
en Cosinus
Discrète
Q
Q-1
CLV
Estimation de
mouvement
Tampon
émission
TCD-1
+
Mémoires
Images
et prédictions
Multiplex
if
G.Beuchot
14/03/01
á Q:
Quantification
Données
á CLV:
Codage à
longueur
variable
(Huffmann)
51
51
Introduction à la Théorie de l'Information
Codes détecteurs
et
correcteurs d’erreurs
if
G.Beuchot
14/03/01
52
52
Introduction à la Théorie de l'Information
Distance de Hamming
á Pour éviter les erreurs de décodage (dues à des perturbations
dans le canal) les messages doivent le plus "différent"
possible les uns des autres.
á On appelle
DE HAMMING de deux mots codes
r DISTANCE
r
x 2 de chiffres par lequel ils diffèrent.
et
lexnombre
1
F
r = 00111010
x1
r = 10110010
x2
d(
r ,r ) = 2
x1 x 2
á Pour des mots de longueur N
r r
d(x1 , x 2 ) =
N
∑x
1i
⊕ x2i
i=1
á La DISTANCE DE HAMMING d'un code est la plus petite distance
observée entre les mots du code (pris 2 à 2).
if
G.Beuchot
14/03/01
53
53
Introduction à la Théorie de l'Information
Distance de Hamming: Propriétés
r r
r r
á d( x1 , x 2) = 0 si et seulement six1 =x 2
r r
r r
r
r
á d( x1 , x 2) = d(x 2 ,x1 ) > 0
si x 2 ≠ x1
r r
r r
r
r
á d( x1 ,x 3 ) + d( x 2 ,x 3 ) ≥ d( x1 , x 2)
FExemples "géométriques"
011
01
11
001
111
101
010
00
10
000
110
100
FSi pour l'espace à 3 dimensions (N=3) on ne garde que des mots codes sur
des sommets opposés (000 et 111 ou 011 et 100 par exemple) leur distance
est d = 3
if
G.Beuchot
14/03/01
54
54
Introduction à la Théorie de l'Information
Régles de Décodage
á Pour un canal B.S.C. décoder selon la règle du maximum de
vraisemblance revient à prendre le mot le plus proche, au sens de la
distance de Hamming, d'un mot code.
FPar exemple
si le code choisi est [001,110]
et
si on observe 000 à la sortie du canal,
on décide que 001 a été émis à la source
á Ceci nous conduit à la notion de boule de décodage dans l'espace à
N dimensions
N-1
FDans une boule de rayon r il y a∑ C iN mots code
i=0
FOn pourra corriger une erreur simple ou multiple si le mot code érroné
observé reste dans la boule de rayon r.
FOn pourra détecter une erreur simple ou multiple si le mot code
observé n'est pas un mot du code.
if
G.Beuchot
14/03/01
55
55
Introduction à la Théorie de l'Information
Théorèmes de Hamming
á Avec un code de distance de Hamming d on peut
if
d ≥ p +1
d ≥ 2q +1
d ≥ q + p +1
Fdetecter
p erreurs
Fcorriger
q erreurs
Fcorriger q et détecter p erreurs
si
si
si
Fd
F1
F2
Puissance
erreur non détectable
détection d'une erreur simple
F3
correction d'une erreur simple
F4
correction d'une erreur simple
et detection d'une erreur double
F5
correction d'une erreur double
G.Beuchot
14/03/01
56
56
Introduction à la Théorie de l'Information
Typologie des codes correcteurs d’erreurs
á Codes à contrôle de parité
FApplication d'un espace à 2k élements dans un espace à 2n éléments
FDans ces codes un ou plusieurs bits de redondance sont ajoutés à une
ensemble de k bits d'information
Fnotation : code (n,k)
á Codes de blocs
Flongueur de bloc (ou de code) n dont k bits d'information
Fcodes linéaires
ß Les bits de redondance sont placés sur des sites particuliers du
bloc de taille n
ß ex : Code de Hamming
$correction d'erreur simple
$n-k bits de "parité"
$n ≤ 2n-k - 1
$code optimal si n = 2n-k - 1
if
G.Beuchot
14/03/01
57
57
Introduction à la Théorie de l'Information
Typologie des codes correcteurs d’erreurs (suite)
Fcodes cycliques
ß En général ("codage par division") les bits de redondance sont
placés après les k bits d'information
ß ex : Code de Hamming
Code B.C.H. (Bose-Chaudhuri-Hocquenghem)
á Codes d'arbre ou codes continus
Fcodes convolutionnels
ß des bits de redondance sont placés au fil de l'eau,
réguliérement, dans la séquence de bits d'information et
portent sur les m bits précédents ( qui peuvent être des bits de
redondance ...)
ß Utilisés à l ’origine pour les bandes magnétiques, ils sonr=t
redevenus très importants pour la téléphonie mobile (GSM)
if
G.Beuchot
14/03/01
58
58
Introduction à la Théorie de l'Information
Utilisation d’une notation matricielle
á Codes systématiques
1 0 . . 0 a1,k +1
0 1 0 . 0 a
2,k +1
G=
0 . . . 0 a.,k+1

0 0 0 . 1 a k,k +1
 a1,k +1 a1,k +2
a
.
2,k +1

H =
 a.,k +1
.

 ak,k +1 a k,k +2
if
G.Beuchot
14/03/01
.
.
.
.
.
.
.
.
a1,n 
a 2,n 

a .,n 

a k,n 
a1,n 
a 2,n 
a.,n 

a k,n 
FMatrice génératrice G
k lignes , n colonnes
r
FUn mot code x est obtenur à partirr d'une
r
séquence d'information u par x = u G
r
Fsi u r= 00.. 010..0 (1 en ième position)
x est la ième ligne de G
FToute combinaison linéaire de lignes de cette
matrice est un mot du code
Fmatrice de parité: k lignes n-k colonnes
r
FPermet de contrôler la réception par x H = 0
si aucune erreur
59
59
Introduction à la Théorie de l'Information
Codes cycliques: Bases
á Ensemble [0,1] muni
F
F
de l'addition ( + est le "ou exclusif" )
de la multiplication
forme le corps de Galois GF(2)
á si ai ∈ GF(2) ( ai = 0 ou1)
an xn + a n-1 xn-1 +
+a0 = P(x)
F P(x) est un polynome de degré n sur GF(2)
F L'ensemble de ces polynomes à une structure d'anneau
ß
pas un groupe pour la multiplication
if
G.Beuchot
14/03/01
60
60
Introduction à la Théorie de l'Information
Division de polynômes sur GF(2); Classes résiduelles
FSoit 2 polynomes P1(x) et P2(x) sur GF(2)
∃ deux polynomes Q(x) et R(x) tels que P1(x) = Q(x) P2(x) +
R(x)
F2 polynomes son équivalents modulo Q(x) si les restes de leur division
par Q(x) sont identiques.
FCeci permet de définir une classe d'équivalence. Ces polynômes
peuvent être représenté par leur classe résiduelle de plus bas degré,
soit ce reste R(x)
Fexemple : Q(x) = x 2 ⊕ 1
0,1,x,x+1
classes résiduelles :
FPour un polynome de degré N, il y a 2N classes résiduelles
if
G.Beuchot
14/03/01
61
61
Introduction à la Théorie de l'Information
Irréductibilité
FUn polynôme P(x) est réductible sur un corps s'il existe deux
polynômes G(x) et H(x) tels que
P(x) = G(x) H(x)
FSi ce n'est pas le cas P(x) est irréductible
FSi P(x) est irréductible les racines de P(x) = 0 sont des éléments d'une
extension de GF(2)
Fsoit
P(x) =
∏ (x
i
if
G.Beuchot
14/03/01
+ αi )
62
62
Introduction à la Théorie de l'Information
Codes cycliques: Définitions
á Classe particulière des codes de groupe obtenu par permutation
circulaire des chiffres
F si
a1a2 ... an C alors a2a3 ... ana1 C, a3a4 ... a2 ∈ C, etc
FOn utilise en général la notation polynomiale définie ci-dessus
Fsi U(x) représente un mot du code, xiU(x) modulo (xn + 1) est aussi
un mot du code
ß Ceci correspond à la ième permutation de U(x)
FToute combinaison linéaire de mots du code est encore un mot du
code
F Il existe un polynôme de plus bas degré qui divise xn + 1
F Ce polynôme U0(x), de degré m, est appelé POLYNOME
GENERATEUR du code C
FIl existe 2 n-m polynômes quotients de xn + 1 par U0(x)
ß Ce code contient donc k = n-m mots
ß
code (n, n-m)
if
G.Beuchot
14/03/01
63
63
Introduction à la Théorie de l'Information
Matrice Génératrice et Matrice de Parité d’un Code cyclique
á MATRICE GENERATRICE
a m
0
G= 
0

0
a m -1
am
.
0
.
a m-1
.
0
. a0
. .
. 0
am .
0
a0
.
.
.
.
.
.
FU0 et ses n-m-1 permutés forment
une base du code, notée par la
1 0 1 1 0 0 0 
0  matrice G
 0 1 0 1 1 0 0
0 

FExemple : Code (7,4) engendré par 
0 3
0 0 1 0 1 1 0
 X +x+1


a0 
0
0
0
1
0
1
1


á MATRICE de PARITE
a0
a
1
H = 
.

0
if
0
a0
.
.
0 
. 0 

.
. 

. an- m 
.
G.Beuchot
14/03/01
1
1

1

0
1

0
0

1
1
1
1
0
1
0
0
0
1

1
1

0
1
64
64
Introduction à la Théorie de l'Information
Codage par matériel
1
x
Sortie
x2
x4
FOn utilise des registres à décalage et des
"ou exclusif" (addition)
FLa multiplication
ßpar 1 est notée par une connexion
ßpar 0 par l'absence de connexion
FCODEUR A k = n-m ETAGES (ENTREE
PARALLELE)
ß Exemple : codeur (7,4)
ßPolynôme orthogonal à x3 + x + 1 soit
x4 + x2 + x + 1 (voir matrice de parité)
FCODEUR A m ETAGES (ENTREE SERIE)
ßLe registre est initialisé à 0.
L'information est introduite poids forts
en tête
if
G.Beuchot
14/03/01
65
65
Introduction à la Théorie de l'Information
Codage par matériel (suite)
1
x
3
x
1
Sortie
F
Codeurs par multiplication.
ß Exemples: Codeurs (7,4)
Entrée
x3
x
1
Sortie
Entrée
1
x
x3
Sortie
FCodeur par division
ß Les m premiers décalages donnent 0
en sortie et ne sont pas utilisés.
ß Exemple: Codeur (7,4)
Entrée
if
G.Beuchot
14/03/01
66
66
Introduction à la Théorie de l'Information
Application: Générateur Pseudo-aléatoire
FUne séquence pseudo-aléatoire de taille 2 m-1 - 1 est générée par
2 m − 1 de
un polynôme de degré m
:
G(x) diviseur
x
ß Exemple : m = 8, n = 255
ß G(x) = x8 + x6 + x5 + x33 + 1
1
x
5
x
6
8
x
x
Sortie
FLa séquence de 255 bits comporte 128 bits à 1 et 127 bit à 0
répartis aléatoirement
FSi le circuit génère des bits en continu, la séquence est répétée
périodiquement
FTechnique utilisée pour
ß les générateurs de bruit
ß les séquences de test
if
G.Beuchot
14/03/01
67
67
Introduction à la Théorie de l'Information
Détection et Correction d’erreurs par code cyclique
FSoit un polynôme irréductible G(x) de degré m, diviseur ou produit de
diviseurs de x 2 m − 1 + 1
Fet une séquence à protéger M(x) et E(x) un syndrome d'erreurs
ß sans erreur E(x) est une séquence nulle 000000....
á CODAGE PAR MULTIPLICATION
C(x) = M(x) • G(x) est le mot du code transmis
On reçoit C*(x) = C(x) + E(x)
On décode Q(x) = C* (x) / G(x) + R(x)
ß si R(x) = 0
M(x) = Q(x)
ß sinon erreur détectée
FCorrection
ß On peut initialiser une table donnant E(x) en fonction de R(x)
ß On peut alors corriger les erreurs par C(x) = C*(x) + E(x)
F
F
F
if
G.Beuchot
14/03/01
68
68
Introduction à la Théorie de l'Information
Détection et Correction d’erreurs par code cyclique (suite)
á CODAGE PAR DIVISION
FOn calcule
ß I(x) = xm • M(x)
$ajout en fin de séquence de m bits à 0
ß r(x) = I(x) - G(x) Q(x)
$reste de la division de I(x) par G(x)
ß C(x) = I(x) + r(x)
$remplacer les m bits à 0 de fin par r(x)
FOn décode
ß Q(x) = C *(x) / G(x) + R(x)
ß Si R(x) = 0
C(x) = C*(x)
$
M(x) = C *(x) / xm
troncature de C(x)
Sinon erreur détectée
Fou correction par C(x) = C* (x) + E(x)
et utilisation d'une table de correction E ( R(x))
if
G.Beuchot
14/03/01
69
69
Introduction à la Théorie de l'Information
Tables de Peterson
FConsidérons le polynôme xn-1 + 1
ßSes racines i sont solutions de xn-1 + 1 = 0
n-1
ßAlors xn-1 + 1 = ∏ ( x - αi )
i =1
FOn peut montrer que xn-1 + 1 peut être décomposé en un produit de
polynômes irréductibles fj(x)
L
F
xn-1 + 1 = ∏ f j( x )
j=1
ßfj(x) a pour racines des racines i de xn-1 + 1 soit
(x
fj(x) = ∏
i
- αi )
FSoit P(x) un polynôme de degré n -1
FSi α est racine de p(x) alors α2 ,α4 ,α8 ,..., (2 k modulo n-1) sont racines de
p(x)
FLes polynômes fj(x) sont difficiles à calculer . Plutôt que de donner des règles,
fonctions du degré du polynôme permettant de les déterminer, Peterson en 1961 a fourni
des tables qui les donnent tous jusqu'au degré 16 en partiellement jusqu'au degré 34.
if
G.Beuchot
14/03/01
70
70
Introduction à la Théorie de l'Information
Tables de Peterson: Exemple
á On lit dans la table
Fdegré 5
1 45E
3 75G
5 67H
FCeci indique 3 polynômes fj(x) correspondant aux racines de base α 1 , α 3
et α 5
FLa lettre donne les propriétés du polynôme fj(x)
Ê A,B,C,D
non primitif
Ê E,F,G,H
primitif
Ë A,B,E,F
racines dépendantes
Ë C,D,G,H
racines indépendantes
Ì A,C,E,G
racines du réciproque dépendantes
Ì B,D,F,H
racines du réciproque indépendantes
FLa valeur donne le polynôme codé en octal (base 8)
if
G.Beuchot
14/03/01
71
71
Introduction à la Théorie de l'Information
Exemple d’utilisation des tables de Peterson
FOn décompose x31 + 1
ß 31 est de la forme 25 -1
ß Il sera décomposé en 6 polynômes de degré 5 et le polynôme (x+1)
FOn recherche ces polynômes dans la table de Peterson
ß Les degrés des racines sont modulo 31
$par exemple α 48 = α 17
ß 45
100101
X5+x2+1
ß 75
111101
X5+x4+x3+x2+1
ß 67
110111
X5+x4+x2+x+1
racines α , α2, α4, α8, α16
racines α3, α6, α12, α24, α17
racines α5, α10, α20, α9, α18
FLes polynômes réciproques sont obtenus en prenant les bits dans l'ordre inverse
ß soit 100101 101001 = 51
ß
111101 101111
ß
110111 111011
racines α30, α29, α27, α23, α15
= 57
racines α28, α25, α19, α7, α14
= 73
racines α26, α21, α11, α22, α13
FIls correspondent à la racine α30, α28 et α 26 . Les puissances sont
complémentaires de 31
FOn peut vérifier que x31 + 1 = (x+1) (X5 + x2 + 1) (X5 + x4 + x3 + x2 + 1)
(X5 + x4 + x 2 + x + 1) (X5 + x 3 + 1) (X5 + x3 + x 2 + x + 1) (X5 + x 4 + x 3 + x + 1)
if
G.Beuchot
14/03/01
72
72
Introduction à la Théorie de l'Information
Codes de Hamming et Codes B.C.H.
á CODES DE HAMMING
F Codes de distance 3, correcteurs d'une erreur
FCes codes sont optimaux
F Construits à partir d'un seul polynôme irréductible G(x) de degré m
ß génèrent des mots de longueur n = 2m -1
ß exemple pour m = 5 , n = 31
code (31,26)
F G(x) est un polynôme irréductible (normal ou réciproque) quelconque
pris dans la table correspondante de Peterson
ß par exemple
X5 + x2 + 1 ou X5 + x3 + x2 + x + 1
á CODES B.C.H.
FHocquenghem et Bose et Chaudhuri ont donné une condition suffisante
pour qu'un code ai une distance de Hamming donnée :
FLeur polynôme générateur doit être un produit de polynômes
irréductibles ayant au moins s = d - 1 racines αi consécutives
if
G.Beuchot
14/03/01
73
73
Introduction à la Théorie de l'Information
Codes de Hamming et Codes B.C.H. (suite)
FCode BCH: Exemple
ß (X5 + x2 + 1)( x5 + x4 + x3 + x2 + 1)
ß a 4 racines consécutives α , α2, α3, α4
F s = 4 , d = 5 . Il est correcteur de 2 erreurs (d = 2q +1)
F taille n = 31, m =10 code (31,21)
á CODES TRONQUES
F On peut n'avoir que l < n bits à protéger (par exemple l = 16)
F On allonge fictivement le mot par n - l zéros et on utilise de code de Hamming
ou B.C.H. correspondant
ß
(31,26) ⇒ (21,16)
Hamming
FMémoires protégées (22,16) avec (x+1)(X5 + x2 + 1)
ß (31,21) ⇒ (26,16)
B.C.H.
⇒ (27,16)
en ajoutant (x+1) à G(x)
if
G.Beuchot
14/03/01
74
74
Introduction à la Théorie de l'Information
Codes convolutionnels
á Codes continus, au fil de l’eau…
FAjout de bits de parité en fonctions des x bits précédents
Ftaux de code: k/n
ß k bits d ’information
ß n bits au total
ß en pratique k/n = 1/2 ou 4/5 (Hagelbarger)
á Codes correcteurs d’erreurs
FPeuvent être très performants en théorie mais pas de codes
connus avec un très bon rendement
Fnécessité d’une séquence assez longue au décodage pour
retrouver l’information
ß si blocs, trainée nécessaire pour que tous les bits utiles soient
protégés
FDistance libre= distance de Hamming minimale
ß dfree= capacité de correction
ß si taux = 1/2 , dfree = 7 correction de 3 erreurs
if
G.Beuchot
75
Introduction à la Théorie de l'Information
Codes convolutionnels: codage
á Pour un code 1/2:
F Entrée Ui, sortie
F Polynômes
F Décodage
if
G.Beuchot
Ci = ( Ci' , Ci" )
G ' ( X ) et G" ( X )
Si = C + C
'
i
"
i
C ' ( X ) = U ( X )G ' ( X )
C " ( X ) = U ( X )G" ( X )
76
Introduction à la Théorie de l'Information
Utilisation dans le GSM
á Codes cycliques
nature
Canal
logique
Taille k
Taille CRC
reXonXance
polynômes
Parole
Classe I.a
TCH/FS
50
3
X 3+X+1
Signalisation
Contrôle
184
40
(X 23+1)( X 17+ X 3 +1)
Accès
SACCH,
FACCH,
BCCH,
PCH, …
RACH
8
6
X 6 + X 5 + X 3+ X 2 +X+1
Synchronis.
SCH
25
10
(X 5+1)( X 7+1)/( X+1)2
á Codes convolutionnels
Fcode principal utilisé pour les données: taux 1/2
Fpolynômes : X4+ X3+ 1 et X4+ X3+X+1
if
G.Beuchot
77
Introduction à la Théorie de l'Information

Documents pareils