canaux de transmissions bruites

Transcription

canaux de transmissions bruites
INSTITUT NATIONAL DES SCIENCES APPLIQUEES DE
TOULOUSE
4ème Année IR
_________
CANAUX DE TRANSMISSIONS
BRUITES
SUPPORT DE COURS
ENONCE DE TRAVAUX DIRIGES
Alexandre Boyer
[email protected]
http://www.alexandre-boyer.fr
Canaux de transmissions bruités
Septembre 2013
TABLE DES MATIERES
Introduction..................................................................................................................... 3
A. Caractéristiques des canaux de transmission ............................................................. 6
B. Le bruit et son effet sur les communications numériques........................................ 16
C. Effet du canal sur le débit d’une transmission numérique ....................................... 40
D. Impact du bruit sur un signal modulé ...................................................................... 55
E. Techniques de fiabilisation d’un canal de transmission par codage de canal .......... 69
F. Techniques de fiabilisation d’un canal de transmission sur la couche physique ..... 78
G. Régénération d’un signal ......................................................................................... 89
Conclusion - Planification d’une transmission numérique ........................................... 99
Références................................................................................................................... 101
Annexe A – Rappel sur les unités ............................................................................... 102
Annexe B – Produits d’intermodulation pour une non-linéarité d’ordre 3................. 104
Annexe C – Spectre d’un signal numérique ............................................................... 107
Annexe D – Démonstration du premier critère de Nyquist et Bande passante de
Nyquist ........................................................................................................................ 113
Annexe E – Filtre en cosinus surélevé........................................................................ 115
Annexe F – Fonction d’erreur de Gauss complémentaire ERFC ............................... 118
Annexe G – Glossaire ................................................................................................. 120
Travaux Dirigés .......................................................................................................... 121
A. Boyer
2
Canaux de transmissions bruités
Septembre 2013
Introduction
Le rôle d’un système de télécommunications est de transmettre à distance des informations
d’un émetteur à un ou plusieurs récepteurs au travers d’un canal de manière fiable et à coût réduit.
Dans un système de transmission numérique, une suite finie de symboles représente l’information.
Celle-ci est transmise sur le canal de transmission par un signal « réel » ou analogique. Ce signal peut
prendre une infinité de valeurs différentes et est ainsi soumis à différentes formes de perturbations et
d’interférences, pouvant conduire à des erreurs d’interprétations du signal recueilli par le récepteur. Le
rôle de l’ingénieur en télécommunications est donc de s’assurer que le récepteur pourra recevoir le
message émis par l’émetteur sans aucune erreur, par un dimensionnement judicieux du canal de
transmission et par la mise en place de techniques le rendant plus robuste.
Rappel historique :
La figure 1 présente un historique de l’évolution des techniques de télécommunications.
Contrairement à ce que l’on pourrait croire, les premiers systèmes de télécommunications à être
apparus étaient numériques. Il s’agissait des télégraphes optiques de Chappe (1794) et électriques de
Morse (1832), dans lesquels l’information était représentée par des impulsions lumineuses ou
électriques. C’est ensuite le téléphone de Bell (1876) et les transmissions radio de Marconi (1896) qui
ont ouvert l’ère des communications analogiques. Ainsi, les premiers systèmes radio mobiles étaient
analogiques. Les premières bases théoriques des communications numériques datent de 1948
(Shannon), mais le numérique est finalement apparu à la fin des années 70 avec des applications telles
que le CD audio, les ordinateurs personnels, les GSM… Ces dernières années ont vu une véritable
explosion des systèmes et des normes de communication, principalement sans fils. Bien que les
premières transmissions radio datent de plus d’un siècle, les systèmes de communication sont restés
principalement filaires. Une des principales difficultés était liée aux propriétés non stationnaires du
canal radio. Un signal peut suivre plusieurs chemins pour arriver à un récepteur donné, ce qui peut
conduire à distordre très fortement le signal reçu. Ainsi, le canal de transmission radio a un impact
néfaste sur la qualité du signal transmis. Il est donc essentiel de mettre en place des circuits et des
algorithmes permettant de fiabiliser la transmission. Néanmoins, même si des ingénieurs et des
chercheurs avaient déjà imaginé des solutions, leur mise en œuvre était difficile voire impossible faute
de technologies suffisamment performantes sur lesquels elles pouvaient être implantées. Le « boom »
de l’industrie de la microélectronique à partir des années 70 et à l’évolution constante des
performances des circuits intégrés a rendu possible le développement récent des systèmes de
télécommunications.
1832 - invention
du télégraphe
1950 – 1st service de
radiotéléphonie
1876 - invention
du téléphone
1860 - 1e liaison
télégraphique
transatlantique
1948 – Travaux de
C. Shannon
1896 - 1e liaison
radio
1987 - standard
GSM
1978 - Advanced
Mobile Phone
Service
1956 - 1e liaison
téléphonique
transatlantique
2008 – DVB-H
en France
2002 - déploiement 2010 – Déploiement
du 1e réseau UMTS
3.9G LTE
1983 - protocole
TCP-IP
2005 -standard
Wimax
Fig. 1 - Historique des techniques de télécommunications
A. Boyer
3
Canaux de transmissions bruités
Septembre 2013
Analogique vs numérique :
Les
signaux
numériques
présentent
certains
avantages
par
rapport
aux
signaux
analogiques. Le principal
avantage est la vulnérabilité
moindre
du
signal
numérique
aux
perturbations extérieures par
rapport
à
un
signal
Fig. 2 – Télégraphe de Morse
Fig. 3 - Téléphone de Bell
analogique. En effet, il est
plus difficile d’entraîner la
modification d’un bit dans
un signal numérique que de
perturber sérieusement un
signal
analogique
de
quelques
dizaines
de
millivolts. Le deuxième
Fig. 4 – Radio de Marconi
Fig. 5 – Claude Shannon
avantage est qu’il est
possible de manipuler un signal numérique et de le soumettre à différents traitements (image, son,
vidéo….). Celui-ci peut être compressé pour améliorer le débit d’informations, des codes détecteurs ou
correcteurs d’erreur peuvent lui être ajoutés, le rendant plus robuste aux perturbations extérieures.
Néanmoins, la mise au point d’un système numérique est plus complexe que celle d’un système
analogique au point de vue systèmes électroniques mais aussi au niveau des algorithmes à développer.
La complexité se traduit aussi en terme de coût. L’avènement des systèmes numériques s’est ainsi fait
en parallèle de celle de l’évolution des circuits intégrés.
Problématique du cours de canaux de transmission bruités
Le rôle de tout système de communication est d’assurer que le récepteur comprenne
l’intégralité des messages transmis par l’émetteur, quel que soit la compression, le format ou le type
des données, mais aussi les perturbations induites sur le canal de transmission et son effet parasite. La
figure 6 présente un schéma général un canal de transmission.
source
10011…
Filtre
émetteur
E(t)
Support de
transmission
Filtre
récepteur
R(t)
Décision
0 ou 1 ?
échantillonneur
BRUIT
Canal de transmission
Fig. 6 - Schéma d’un canal de transmission numérique
Le transfert de l’information nécessite une source de données, traduites dans un système
compréhensible par l’émetteur et le récepteur (codage, format, compression préalablement définis). Le
canal proprement dit représente le lien ou le support de transport de l’information entre les 2 entités
communicantes, mais il comprend aussi les dispositifs en entrée et en sortie du support de transmission
qui vont aider à l‘émission, à la réception et à l’extraction correcte des données numériques. Pour
envoyer le signal à travers le canal, la source a besoin d’un système d’adaptation (physique pour
mettre en forme le signal, logiciel pour le protocole de dialogue). Le signal peut être directement
A. Boyer
4
Canaux de transmissions bruités
Septembre 2013
transmis à travers le canal, la transmission se fait alors sur la même bande de fréquence que le signal à
transmettre. On parle alors de transmission en bande de base. Néanmoins, ce type de transmission
est rarement réalisé en pratique, notamment pour les transmissions radio. Le signal est alors transmis
hors de la bande de base, une modulation permet de transposer le signal en bande de base à des
bandes de fréquence bien plus hautes présentant des caractéristiques bien meilleures et permettant un
partage du canal radiofréquence entre tous les systèmes de télécommunications.
Une fois le signal transmis, le récepteur récupère à l’autre bout du canal un signal perturbé,
déformé et affaibli. De ce signal, il doit extraire l’information numérique originale sans erreur. Un
filtrage permet de compenser les effets néfastes du support de transmission. Puisqu’il s’agit
d’information numérique et synchrone, le récepteur doit être capable de récupérer l’horloge sur
laquelle les bits émis étaient initialement synchronisés. Une fois que le récepteur a reconstruit un
signal numérique « propre », il doit l’interpréter et décider de la valeur prise par signal à chaque
période.
Néanmoins, le signal transmis est soumis à de nombreuses perturbations externes et internes
au canal de transmission. Dans un premier temps, le bruit ambiant peut perturber les communications
numériques, en dégradant l’amplitude des symboles reçus ce qui augmente le risque d’erreur
d’identification de ces symboles. Des techniques de traitement du signal, de codage et de modulation
ont été développées ces dernières années pour améliorer la robustesse des liaisons vis-à-vis du bruit.
Néanmoins, le bruit n’est pas la seule source de perturbations, la fonction de transfert du canal
introduit une distorsion au signal lors de sa propagation. De plus, dans le cas de communications
numériques, l’aspect multi utilisateur doit être pris en compte car le canal de transmission est partagé
et des interférences sont à craindre. Par conséquent, les performances des systèmes de communication
dépendent des caractéristiques du canal de propagation. En outre, les caractéristiques temporelles du
canal tendent à étaler le temps de transmission d’un symbole, augmentant le risque de chevauchement
de plusieurs symboles adjacents et limitant le débit de transmission admissible sur ce canal. La tache
délicate de l’ingénieur en télécommunication est de trouver des solutions en terme de format de
modulation et codage de l’information, pour optimiser ces performances, et donc pour diminuer à la
réception la probabilité d’erreur lors de la décision sur les symboles reçus.
Le but de ce cours est de présenter l’origine de toutes les perturbations pouvant affecter la
transmission d’un signal entre un émetteur et un récepteur, de déterminer dans quelles conditions un
canal va assurer correctement la transmission, et de proposer différentes techniques qui vont permettre
de réduire la probabilité d’apparition d’erreurs. Dans ce cours, nous nous intéresserons principalement
aux transmissions numériques puisque celles-ci sont majoritairement employées dans les standards
de communication. Les objectifs de ce cours sont les suivants :
A. Boyer
Présenter l’architecture générale d’un canal de transmission ainsi que les différents types de
canaux et leurs caractéristiques.
Présenter l’origine du bruit et son effet sur l’identification des symboles transmis (établir
pour un signal binaire le lien entre le rapport signal à bruit et le taux d’erreur binaire).
Présenter les caractéristiques temporelles d’un canal et les limitations posées en terme de
débit de données transférées sur le canal.
Définir la capacité d’un canal de transmission, qui caractérise le débit binaire maximum
théorique sans erreur.
Déterminer la robustesse au bruit de signaux numériques modulés.
Décrire des techniques de fiabilisation de la transmission d’un signal par codage de canal,
filtrage, mise en forme …
Décrire des techniques de régénération du signal.
5
Canaux de transmissions bruités
Septembre 2013
A. Caractéristiques des canaux de
transmission
Dans ce chapitre, nous allons dans un premier temps présenter l’architecture générale d’un
canal de transmission numérique et décrire brièvement les différents blocs le constituant. Dans un
deuxième temps, nous décrirons les principaux supports de transmissions numériques employés de nos
jours ainsi que leurs principales caractéristiques.
I.
Architecture général d’un canal de transmission
Les systèmes de télécommunication numérique sont basés sur l’architecture présentée à la
figure 7. La source primaire d’information peut être soit de type analogique qu’on numérise ensuite
(ex. de la voix pour un téléphone mobile) soit directement de type numérique. L’information
analogique est ensuite échantillonnée et numérisée à travers un étage de conversion analogique
numérique. La taille du message binaire original ainsi produit est en général très importante et contient
en outre un grand nombre de redondance. Il subit alors un codage de source, qui a pour but de le
mettre dans un format standard d’échange et de réduire sa taille (compression). Le codage source peut
aussi comporter une étape de cryptage dans le cas où l’on souhaite sécuriser le transfert des données et
leur archivage.
Reconstitution de la source
Préparation à la transmission
Source
analogique
Source
numérique
Destinataire
numérique
Destinataire
analogique
Numérisation source
Conversion N/A
Codage source
Décompression source
Cryptage
Transmission
Réception
Codage de canal
Décryptage
Décodage de canal
BRUIT
Modulation
Accès multiple. Mise
sur porteuse.
Amplification
Réception =
Reconstruction
du signal
canal
Démodulation
Filtrage. Mise en bande
de base. Amplification
faible bruit
Fig. 7 – Architecture général d’un canal de transmission
Un canal de transmission ne se limite pas seulement au support physique du transfert de
l’information. Il comprend aussi les dispositifs qui permettent d’adapter le signal à transmettre au
canal et de minimiser les erreurs de réception. Ces étapes peuvent être réalisées bien en amont de la
transmission proprement dite. La première étape est le codage de canal, qui consiste à ajouter
A. Boyer
6
Canaux de transmissions bruités
Septembre 2013
volontairement de la redondance au signal afin de le protéger contre les différentes perturbations. On
retrouve par exemple l’ajout de codes détecteurs ou correcteurs d’erreurs. Le codage de canal est
réalisé uniquement en bande de base.
Une fois que ces symboles ont été ajoutés au signal numérique, celui-ci est modulé afin de
transformer le signal informatif en un signal physique capable de transiter sur le canal de transmission
utilisé. Le signal est alors transposé de sa bande de base à une bande de fréquence bien plus haute. La
technique de modulation est choisie en fonction de la nature du canal, de son utilisation et du débit.
Des techniques d’accès multiples ou de multiplexage peuvent être employées afin de partager un
même canal entre différents utilisateurs et d’optimiser son utilisation, mais aussi de réduire l’influence
des parasites. Suivant la technique employée, le multiplexage peut être effectué dans ou hors bande de
base.
Une fois le signal à émettre mis en forme (modulé, filtré, amplifié), il peut être transmis à
travers le canal de transmission. A travers ce cours, on supposera que le signal émis est vierge de tout
parasite puisque toutes les précautions ont été prises afin d’assurer la qualité du signal émis. Le
passage de l’information à travers le canal est critique. Le signal subit l’atténuation et les déformations
inhérentes au canal ainsi que les différentes perturbations extérieures qui se couplent sur le canal. Le
canal n’est pas le seul responsable de l’ajout de bruit au signal utile puisque l’ensemble des circuits de
réception et de régénération du signal ajoute une part non négligeable de bruit. En outre, le bruit n’est
pas le seul problème. Le canal présente certains défauts intrinsèques (inertie aux changements
temporels, atténuation, …) qui limite la quantité d’information qu’on peut faire passer à travers le
canal. A partir de la théorie de l’information (chapitre C), il est possible de prédire les performances
limites théoriques d’un canal de transmission.
Le récepteur reçoit le plus souvent un signal faible, bruité et distordu qu’il va falloir
reconstruire avant de l’interpréter. La première étape de la réception consiste à filtrer le signal et à
l’amplifier afin de l’extraire du bruit ambiant et des interférences. Une étape de démodulation suit afin
d’extraire le signal utile et de le ramener en bande de base. Différentes étapes de régénération
permettent ensuite de reformer un signal numérique d’une qualité suffisante pour être traité par un
circuit électronique. L’opération de décodage de canal suit, afin de vérifier que le signal reçu n’est pas
erroné et enlever l’ensemble des symboles rajoutés lors du codage du canal. En cas de détection
d’erreur, des demandes de retransmission peuvent être prévues suivant le protocole employé. Le signal
numérique qu’on cherchait à transmettre peut enfin être envoyé au destinataire. Si la qualité du canal
et les techniques de fiabilisation de la transmission étaient suffisants, le destinataire ne devrait faire
aucune erreur d’interprétation et retrouver le signal original.
Exercice - Etat de l’art technologique : la figure ci-dessous présente l’intérieur d’un téléphone
portable et un schéma bloc simplifié. Déterminer dans quels blocs sont réalisées les opérations
décrites à la figure 7.
Réponse :
A. Boyer
7
Canaux de transmissions bruités
Septembre 2013
Mémoires
Microprocesseur
BaseBand Analog
Filtre
CAN
Codage
voix
Codage
canal
CNA
Mod.
CNA
I
Q
BaseBand
DSP
♪ ♪
♪
Filtre
CNA
Décodage
voix
Décodage
canal
Transmetteur
RF
Transceiver
CAN
Egal.
CAN
PA
RF & IF
Analog
Antenne
I
Q
Récepteur
RF
Fig. 8 - Téléphone cellulaire éclaté et schéma bloc
A. Boyer
8
Canaux de transmissions bruités
Septembre 2013
II. Les différents types de canaux de transmission
Une transmission d’information se fait toujours à distance, un support physique assure le lien
entre la source et le destinataire. Dans cette partie, nous allons présenter les principaux supports
couramment utilisés comme média de transmission.
1. Communication électrique filaire
L’information est véhiculée par un « signal électrique », c’est à dire une onde
électromagnétique se propageant à travers un câble métallique. On trouve deux catégories de lignes de
transmission utilisées en télécommunications :
câble bifilaire, de bande passante faible et réservé pour les
transmissions à bas débit (inférieur à 2 Mbits/s pour le réseau
téléphonique). Il s’agit le plus souvent de paires bifilaires torsadées
afin de réduire la surface de couplage aux perturbations extérieures.
câble coaxial, de bande passante plus importante et qui permet de réaliser des transmissions
avec un débit relativement élevé (jusqu'à 565 Mbits/s sur le réseau
téléphonique). Le câble coaxial est notamment utilisé pour
connecter les centraux téléphoniques entre lesquels transite un
grand nombre de communications. Son avantage par rapport au
câble bifilaire est d’être blindé, réduisant ainsi le couplage des perturbations
électromagnétiques, et de présenter un milieu de propagation quasi uniforme le long de la
ligne.
La principale caractéristique d’un câble est son impédance caractéristique. Celle-ci est définie
par les dimensions géométriques de la ligne et le milieu de propagation de l’onde électromagnétique le
long de la ligne (constante diélectrique de l’isolant). Cette impédance ne représente pas une impédance
au sens classique électrique du terme, il s’agit en fait du rapport du champ électrique sur le champ
magnétique de l’onde se propageant dans le câble (équation 1). La valeur de l’impédance
caractéristique d’un câble dépend de ses caractéristiques géométriques et du milieu de propagation
(permittivité diélectrique de l’isolant séparant les deux conducteurs du câble).
Z c (Ω ) =
E
(V / m )
H
(A / m)
(Équation 1)
La connaissance de l’impédance caractéristique est fondamentale car elle va permettre de
déterminer la valeur optimale à donner à la charge terminale Zload de la ligne pour assurer la meilleure
transmission du signal. Une ligne est dite adaptée si on vérifie l’égalité suivante : Z c = Z load . Dans le
cas d’une ligne adaptée, toute l’énergie de l’onde incidente est fournie à la charge terminale. Par
contre, toute rupture d’impédance conduit à la réflexion d’une partie de l’onde incidente, à la manière
d’un changement de milieu pour une onde lumineuse. L’amplitude de cette onde réfléchie est d’autant
plus grande que la désadaptation est importante, comme le montre l’équation 2:
Γ=
Vrefl
Vinc
=
Z load − Z C
(Équation 2)
Z load + Z C
Où Γ est le coefficient de réflexion, Vinc et Vrefl l’amplitude en tension des ondes incidentes et
réfléchies. L’onde présente le long de la ligne de transmission est la combinaison des ondes incidentes
et réfléchies.
Que se passe t-il alors si la condition d’adaptation n’est pas respectée ? Pour répondre à cette
question, il faut considérer les effets liés à la propagation de l’onde électromagnétique le long du
câble, qui vont dépendre du rapport entre la longueur du câble et la longueur d’onde du signal
transmis. La longueur d’onde dans le vide d’une onde est liée à sa fréquence par l’équation suivante,
où c est la vitesse de la lumière (3.108 m/s) :
A. Boyer
9
Canaux de transmissions bruités
Septembre 2013
λ=
c
(Équation 3)
f
Pour de faibles fréquences, la longueur d’onde est largement plus grande que la longueur de la
ligne de transmission, l’onde est quasiment constante en tout point de la ligne, quel que soit
l’impédance de charge (fig. 9). Par contre, si la longueur d’onde devient inférieure à la longueur de la
ligne, l’amplitude de l’onde n’est plus constante le long de la ligne, et présente des minima et maxima
régulièrement espacés.
L >> λ
L << λ
onde
onde
câble
câble
Vinc
Vinc
L x
0
L x
0
L’amplitude de l’onde
est quasi constante sur
toute la ligne
L’amplitude de l’onde
n’est pas constante le
long de la ligne
Fig. 9 – Propagation d’une onde le long d’une ligne de transmission en fonction de sa longueur d’onde
Si l’adaptation de la ligne n’est pas assurée à chacun de ses terminaux, l’onde va être réfléchie
plusieurs fois sur chacun des terminaux, faisant osciller la tension aux bornes de la charge (ringing)
comme le montre la figure 10. Les effets sur le signal peuvent être :
Un retard à l’établissement du signal
Des surtensions, sous-tensions et des oscillations pouvant conduire à des erreurs
d’interprétation des signaux reçus.
Câble d’impédance
caractéristique Zc
Vincident
Iin
x
Vin
Vréfléchi
x=0
Vin
Vload
Vload
Si Zload ≠ Zc
temps
temps
Fig. 10 - Effet de la désadaptation d’impédance sur le signal transmis
Exercice – Problème d’adaptation de ligne : soit un câble téléphonique de 1 mètre utilisé pour
transmettre un signal binaire de fréquence F. A partir de quelle fréquence F faut-il prendre en compte
les effets de propagation de l’onde électromagnétique.
Réponse :
A. Boyer
10
Canaux de transmissions bruités
Septembre 2013
Un autre paramètre essentiel est l’atténuation du câble liée aux différentes pertes (ex : les
pertes dans le diélectrique). Cette atténuation augmente en général avec la fréquence. Un câble coaxial
standard présente des pertes typiques de 0.3 dB/m à 100 MHz et 1 dB/m à 1 GHz. Cette atténuation
limite l’utilisation de communications filaires pour de longues distances.
2. Communication optique filaire
Les fibres optiques sont des guides pour les ondes électromagnétiques dont les fréquences sont
de l’ordre du spectre visible. La lumière est guidée le long d’une fibre par réflexions multiples. La
figure 11 décrit la structure d’une fibre optique ainsi que le principe de la propagation de la lumière le
long de la fibre. Les 2 principaux avantages des fibres optiques sont leurs bandes passantes très
élevées (plusieurs dizaines de Gbits/s, voire quelques térabits/s) ainsi que leurs faibles atténuations
(0.2 dB/km pour une longueur d’onde de 1550 nm). Théoriquement, les débits dans les fibres optiques
devraient être infinis, mais ils sont principalement limités par les composants électroniques des étages
de transmission et de réception. En outre, contrairement aux communications filaires et
radioélectriques, les fibres optiques sont insensibles aux perturbations électromagnétiques externes
puisque ces dernières ne peuvent s’y coupler. Inversement, le signal guidé le long de la ligne ne peut
sortir que par l’autre bout de la ligne, interdisant toute fuite du signal et assurant une sûreté de
transmission très élevée. Elles introduisent très peu de distorsions sur le signal et permettent de réaliser
des multiplexages fréquentiels très efficaces. Enfin, elles subissent peu d’échauffement par rapport aux
liaisons filaires électriques ce qui améliorent leur fiabilité. Malgré tous ces avantages, les principaux
points négatifs concernent la fragilité de fibres et de leurs connecteurs, ainsi que le coût d’installation
et d’entretien des réseaux en fibres optiques. Aujourd’hui, la plupart des liaisons transocéaniques sont
réalisées par des fibres optiques puisque 80 % des communications longues distances sont effectuées à
l’aide des 25 millions de kilomètres de fibres optiques enterrées ou submergées.
Propagation du
signal
Cœur (silice, plastique)
Faisceau de
lumière incidente
n1 > n2
Indice de réfraction n2
Indice de réfraction n1
10 – 200 µm
Gaine « réfléchissante »
Fig. 11 – Guidage d’un faisceau lumineux par une fibre optique
Le débit record d’une fibre optique a été obtenu par l’opérateur japonais NTT Docomo, avec
1800 Go/s sur une de distance de 160 km.
Question : Soit une fibre optique de 100 km de long présentant une atténuation de 0.2 dB/km. Quelle
est la puissance restante du signal reçu ?
Réponse :
A. Boyer
11
Canaux de transmissions bruités
Septembre 2013
3. Radio communication
Les radiocommunications utilisent la propagation d'une onde
électromagnétique dans l'atmosphère. Ce milieu est généralement réservé aux
transmissions par satellite ou par faisceaux hertziens ainsi qu'aux communications
mobiles. Le dispositif de base pour transmettre ou recevoir un signal à travers le
canal radioélectrique ou hertzien est une antenne. Les lois de propagation à travers
ce canal sont déterminées par les équations de Maxwell. Les radiocommunications
s’étendent sur un spectre très large (de plusieurs KHz à plusieurs GHz). La figure
12 présente l’occupation du spectre radiofréquence.
MF
HF
VHF
UHF
SHF
EHF
0.3 -3MHz
3- 30MHz
30-300MHz
300 -3000MHz
3-30GHz
30-300GHz
IEEE
802.11b
ILS
RFID
Radio AM
Radio FM
Radio OC
TV VHF
CB
100K
1M
10M
GSM
TV UHF
IEEE
802.11c
GPS
WiMAX
DCS
UMTS
Radar
auto
Fréquence (Hz)
1G
100M
10G
100G
Fig. 12 – Occupation du spectre radiofréquence
RFID : 13.56MHz, 27.1MHz
Radio FM : 88-108MHz
TV : 54-72MHz, 76-88MHz, 174-216MHz,
470-806MHz
Applications commerciales : 434.3MHz
GSM : 890-915MHz (montant), 935-960MHz
(descendant)
DCS : 1800MHz
GPS :
1217.6-1237.6MHz,
1565.41585.4MHz
UMTS : 1920-1980MHz, 2110-2170MHz
Wifi - IEEE 802.11b : 2460MHz
Wifi - IEEE 802.11c : 60 GHz
Bluetooth : 2400MHz
WIMAX (IEEE 802.16) : 2-11 GHz
Type
Paire torsadée
Câble coaxial
Fibre optique
Faisceaux
hertziens
Satellites
Bande passante
>100KHz
>100MHz
>1GHz
Dépend de la
fréquence de la
porteuse
>10MHz
Applications
Téléphonie, LAN
Télévision, LAN
LAN, WAN
Télévision, téléphonie
mobile, LAN
GPS, WAN
Tableau 1 - Les différents supports de transmission et
applications
L’avantage des radiocommunications par rapport aux autres supports de communication
(fialire, fibre optique) est le faible coût d’installation d’un réseau à grande échelle, puisqu’il ne
nécessite pas d’installer des supports physiques entre chaque nœud et terminaux du réseau, il suffit
d’installer une antenne. Néanmoins, il présente de nombreux inconvénients. D’abord, il s’agit du mode
de transmission le plus soumis aux perturbations extérieures et aux effets néfastes du support de
transmission. Par nature, le canal radioélectrique est variable dans le temps, imprédictible et
multichemin. Ensuite, les transmissions de données à travers le canal radioélectrique ne peuvent pas
être sécurisées et n’importe quelle antenne adaptée à la fréquence de transmission est susceptible de
capter le signal. Enfin, le canal radioélectrique subit de très fortes atténuations avec l’éloignement. En
A. Boyer
12
Canaux de transmissions bruités
Septembre 2013
espace libre (sans obstacles), le modèle de propagation d’une onde ne dépend que de la distance
séparant les 2 antennes et de la fréquence. L’équation 4 donne l’expression théorique de l’atténuation
de la puissance transportée en espace libre en fonction de la distance et de la fréquence. Néanmoins,
dans un environnement réel, le cas idéal de l’espace libre ne peut s’appliquer et on doit utiliser des
modèles de propagation plus complexes prenant en compte des réflexions, des diffractions, des
diffusions, des atténuations ainsi que la vitesse de déplacement relatif du récepteur par rapport à
l’émetteur. De plus, le déplacement du récepteur ou de l’émetteur modifie à chaque instant les
caractéristiques du canal de transmission. Enfin, d’autres propriétés peuvent caractériser une antenne,
comme sa polarisation. En pratique, des modèles statistiques permettent d’estimer simplement les
atténuations en prenant en compte les obstacles dans différents types d’environnement (ville, milieu
rural, …). La figure 13 présente les atténuations radio calculées à partir de modèles plus complexes,
prenant en compte la nature de l’environnement de propagation (modèle Okumara-Hata ou COST
231).
f ×d 

 d
Atténuation =  4π  =  4π
 (Équation 4)
c 

 λ
2
2
d : distance en m séparant l’émetteur du récepteur. Cette équation suppose une propagation sans obstacles.
f : fréquence du signal en Hz
λ : longueur d’onde en m.
Fig. 13 – Atténuation d’un signal radiofréquence à 950 MHz pour différents environnements
Question : Un téléphone mobilé GSM émet à pleine puissance (2 W) à une fréquence de 950 MHz. Le
seuil de réception de la station de base du réseau téléphonique est de -102 dBmW. Quelle est
l’atténuation maximale que peut subir le signal émis par le téléphone. Quelle est la portée théorique
de cet émetteur dans l’hypothèse d’un espace libre ? Dans un milieu rural ? Dans un milieu urbain ?
Réponse :
A. Boyer
13
Canaux de transmissions bruités
Septembre 2013
Comme dans une liaison filaire les problèmes d’adaptation d’impédance se posent aussi pour
les liaisons radiofréquences, en entrée et en sortie des antennes d’émission et de réception. Pour
optimiser le transfert, les liaisons entre l’émetteur-récepteur et l’antenne doivent être adaptées autour
de leurs fréquences de résonance. L’impédance caractéristique et la fréquence de résonance d’une
antenne sont principalement liées à la géométrie et à la disposition de l’antenne dans son
environnement.
Cependant, une antenne diffère d’un câble puisque l’onde ne se propage pas le long d’un
circuit bien défini mais dans plusieurs directions dans l’espace. Certaines antennes peuvent émettre de
manière quasi uniforme dans toutes les directions (on parle d’antenne omnidirectionnelle, comme les
antennes fouet), alors que d’autres dans une direction bien précise (antenne directionnelle comme une
antenne parabolique). On caractérise cette faculté à concentrer plus ou moins l’émission sur une zone
de l’espace par la directivité, ou bien par le gain de l’antenne pour comparer la puissance rayonnée
par une antenne donnée dans une direction par rapport à une antenne de référence, le plus souvent
omnidirectionnelle. La figure 14 présente un exemple de diagramme de rayonnement d’une antenne.
Le choix d’une antenne directive dépend de la couverture désirée de l’espace environnant.
Fig. 14 – Diagramme de rayonnement d’une antenne log périodique
4. Comparaison des portées
Les liaisons filaires, optiques et radio subissent des atténuations très différentes. La figure 15
présente une comparaison des atténuations en fonction de la distance séparant l’émetteur du récepteur
pour ces 3 types de canaux de transmission. Le canal radio est celui qui présente l’atténuation la plus
importante, alors que les fibres optiques constituent le support qui introduit le moins d’atténuation.
Néanmoins, les liaisons radiofréquences permettent de construire des réseaux de communication
économique et sont les seuls à autoriser la mobilité des émetteurs-récepteurs.
Fig. 15 - Comparaison de l’atténuation du signal pour différents supports de communication
A. Boyer
14
Canaux de transmissions bruités
Septembre 2013
5. Autres supports de transmission d’information
D’autres supports de transmission existent comme les supports de stockage que sont les CD,
les DVD ou les disques durs. Ils représentent eux aussi des moyens de transfert d’information et sont
aussi soumis à des contraintes spécifiques en terme de taux d’erreur. Il est important de connaître les
caractéristiques d’un support de transmission ainsi que leurs limitations pour le dimensionnement d’un
canal de transmission (capacité max. d’information transmise, bande passante), techniques à adopter
pour assurer la qualité de service. Enfin, il faut s’assurer des réglementations associées à l’utilisation
d’un support.
III. Ce qu’il faut retenir
⇒ Un canal de transmission n’est pas simplement composé du support de transmission,
mais aussi de l’ensemble des dispositifs qui permettent d’adapter le signal à
transmettre au canal et de minimiser les erreurs de réception.
⇒ Afin de résister aux perturbations induites par le support de transmission, un signal à
transmettre subit en général des opérations de codage de source, de codage de canal,
de modulation, de mise en forme …. Il subit les opérations inverses en réception.
⇒ Lors de la transmission à travers le canal, le signal subit les atténuations et les
déformations propres au canal, ainsi que le bruit provenant de perturbateurs externes.
En outre, les émetteurs et récepteurs du canal contribue à générer des perturbations qui
dégradent le signal.
⇒ Les défauts du canal de transmission et les perturbations externes vont limiter la
quantité d’information qui peut passer à travers le canal et affecter la qualité du signal.
⇒ Un récepteur reçoit en général un signal faible, bruité et distordu. Il doit être en
mesure de le reconstruire puis de l’interpréter afin de retrouver le signal d’origine.
⇒ Les transmissions d’informations se font en général par liaison filaire (câble électrique
ou fibre optique) ou par liaison hertzienne (ou sans fils). Cette dernière est la plus
sensible aux perturbations externes et dont l’environnement de propagation est le plus
difficile à modéliser.
A. Boyer
15
Canaux de transmissions bruités
Septembre 2013
B. Le bruit et son effet sur les
communications numériques
Par définition, le bruit est un signal aléatoire superposé au signal utile. Selon l’amplitude du
bruit par rapport à celle du signal, le bruit sera à l’origine d’une fluctuation aléatoire de l’amplitude du
signal. En outre, le canal introduit une atténuation du signal transmis qui va limiter sa portée.
Dans lors, « l’information » transportée par le signal est dégradée, voire perdue, en présence
de bruit. Le but de ce chapitre est de présenter les différentes sources de bruit dans un canal de
transmission, de présenter les grandeurs permettant de le caractériser (rapport signal à bruit) et de lier
la quantité de bruit à la dégradation d’un signal numérique (relation entre le rapport signal à bruit et le
taux d’erreur binaire). A partir de ces critères sur l’amplitude minimale que doit posséder le signal
pour éviter une transmission erronée, il sera possible de dimensionner la puissance à émettre dans le
canal, les caractéristiques du signal, les gains et les pertes des différents éléments du canal. Un outil
nous le permettra : le bilan de liaison.
I.
Bruit lié aux équipements électroniques
1. Définition du bruit
Les signaux utiles sont souvent mélangés à du bruit. Le bruit est par définition un signal
parasite aléatoire, le plus souvent d’origine thermique. Tout signal de fréquence F dont l’amplitude est
inférieure ou égale à celle du bruit, ou sous le seuil de bruit, à la fréquence F ne pourra être
différencié du bruit par un dispositif électronique de réception (fig. 16). Le bruit définit donc la limite
basse en amplitude permettant la détection d’un signal. Au cours du dimensionnement d’un canal de
transmission, il faudra tenir compte du niveau de bruit afin de définir la sensibilité du récepteur. Le
bruit peut être caractérisé de plusieurs manières :
par sa densité spectrale de puissance (DSP) (Fig. 16), c'est-à-dire la répartition énergétique
en fonction de la fréquence (puissance par hertz). Les télécommunications étant basées sur
des transmissions et des réceptions effectuées sur des bandes de spectre étroites, il est
nécessaire de déterminer la quantité totale de bruit occupant la bande spectrale du signal
utile. La quantité totale de bruit sur une bande de fréquence donnée (par exemple la
puissance) est égale à l’intégrale de la DSP sur cette bande de fréquence
par sa fonction de répartition ou densité de probabilité en amplitude (Fig. 17), et aussi par
différentes valeurs statistiques comme sa valeur moyenne et sa variance. En effet, comme le
bruit est généralement aléatoire (il peut être dans certains cas déterministes mais ses
caractéristiques ne sont pas connues), celui est vu comme un signal aléatoire. En appliquant
un modèle de distribution du bruit (distribution normale, log normale …), il est possible
d’estimer l’amplitude maximale prise par le bruit. Les caractéristiques statistiques du bruit
sont généralement données par la valeur moyenne et par l’écart type.
A. Boyer
16
Canaux de transmissions bruités
Septembre 2013
Densité spectrale de puissance
(W/Hz ou dBW/Hz)
Signal non
détectable
Signal
détectable
Puissance du bruit :
N 0 = ∫ n0 df
f
df
Seuil de bruit
n0
Fréquence
Fig. 16 – Représentation de la densité spectrale de puissance du bruit et d’un signal, et détection d’un
signal au dessus du seuil de bruit
Amplitude
du bruit (x)
Amplitude
du bruit (x)
σ = écart-type
2σ
Moyenne
Temps
Densité de
probabilité p(x)
Fig. 17 –Caractérisation statistique du bruit
2. Bruit Johnson
Toute résistance, même si elle n’est pas parcourue par un courant, produit à ses bornes une
tension de bruit appelée bruit Johnson. Ce bruit est produit par l’agitation thermique aléatoire des
électrons. Ce bruit possède un spectre plat, c’est à dire que la puissance du bruit est constante avec la
fréquence. On parle alors de bruit blanc. Son amplitude dépend de la valeur de la résistance et de la
température ambiante. La tension efficace de bruit aux bornes d’une résistance R peut se calculer à
l’aide de l’équation 5, la densité spectrale de bruit à l’aide de l’équation 6.
Vbruit = 4k TR B
(Équation 5)
DSPbruit = 4k TR (V 2 / Hz )
(Équation 6)
R = résistance du conducteur (Ohm)
k=1.38x10-23 Joule/°K, constante de Boltzmann
T= température du matériau (°K)
B=largeur de bande (Hz)
Comme le bruit est un phénomène aléatoire, l’amplitude du bruit Johnson est imprévisible
mais suit une loi gaussienne.
3. Bruit de grenaille
Un courant électrique peut être comparé à un flux de charges discrètes de charges constantes.
Contrairement à l’écoulement d’un fluide, un courant est composé d’éléments finis qui connaissent des
fluctuations statistiques. La fluctuation du courant est donnée par l’équation 7 :
I bruit = 2qIB
A. Boyer
(Équation 7)
17
Canaux de transmissions bruités
Septembre 2013
q=1.6x10-19 C charge d’un électron
I= amplitude du courant continu (A)
B=largeur de bande (Hz)
Les fluctuations relatives du courant sont d’autant plus importantes que le courant est faible.
Comme le bruit Johnson, il s’agit d’un bruit blanc gaussien. Cette formule est particulièrement valable
dans une jonction PN, mais surestime le bruit de grenaille dans un conducteur métallique.
4. Bruit en 1/f ou bruit de scintillement
Alors que les bruits Johnson et de grenaille sont des phénomènes irréductibles liés à des
phénomènes physiques, les composants réels ont une source de bruit supplémentaire ayant plusieurs
origines liées à leur fabrication (nature du matériau, résistif par exemple). Ainsi, les résistances sont
affectées de variations de résistance proportionnelles au courant qui les traversent produisant des
fluctuations de tension à leurs bornes. Le spectre de ce bruit suit à peu près une loi en 1/f, sa densité de
puissance est donc divisée par 10 à chaque décade de fréquence. On appelle aussi ce bruit le bruit rose.
5. Bruit thermique
Comme nous venons de le voir, le bruit est essentiellement d’origine thermique et son
amplitude dépend de la fréquence. Il est beaucoup plus important en basse fréquence qu’en haute
fréquence à cause du bruit de scintillement, mais il a tendance à se stabiliser en haute fréquence. En
considérant que le bruit est constant sur la bande de fréquence visée (ce qui est généralement le cas
puisque les bandes de fréquence allouées aux transmissions sont limitées), la formule suivante est
proposée afin de déterminer de manière simple l’amplitude du bruit d’origine thermique aux bornes
d’un dispositif de réception.
N (dBW ) = 10 log (kTB)
(Équation 8)
N : amplitude du bruit
k : constante de Boltzmann (k=1.38e-23 J/K)
T : température (K)
B : bande de fréquence (Hz)
La formule précédente permet d’évaluer le seuil ou plancher de bruit dû à l’agitation
thermique ambiante.
Question : calculer la densité spectrale du bruit à température ambiante (27°c) à l’aide de la formule
précédente.
Réponse :
6. Bruit d’un circuit actif et facteur de bruit
Les circuits actifs sont constitués de nombreux éléments capables de générer du bruit
(transistors, diodes…). Ainsi, les amplificateurs introduisent une part non négligeable de bruit dans les
récepteurs. Un modèle équivalent de bruit ramené en entrée est donné pour représenter le bruit d’un
amplificateur. Il contient :
Une manière courante de caractériser le bruit interne par un système électronique est le facteur
de bruit ou Noise Figure. Celui-ci est égal au rapport entre la puissance de bruit mesuré en sortie sur la
A. Boyer
18
Canaux de transmissions bruités
Septembre 2013
puissance de bruit mesuré en entrée d’un système électronique (équation 9). Il indique donc la quantité
de bruit ajouté par le système électronique.
NF =
N out
⇒ NF (dB ) = N out (dBm ) − N in (dB ) (Équation 9)
N in
Lorsque plusieurs systèmes électroniques sont cascadés, le facteur de bruit du système complet
va dépendre des facteurs de bruit NFi de tous les éléments et de leurs gains Gi. Il peut se calculer à
partir de la relation de Friis (équation 10).
1e élément
2e élément
Ne élément
Nin
NF =
Nout
G1
G2
GN
NF1
NF2
NFN
N out
NFN − 1
NF2 − 1 NF3 − 1
= NF1 +
+
+ ... +
N in
G1
G1G2
G1G2 ...G N −1
(Équation 10)
Remarque : les circuits passifs génèrent aussi du bruit. En effet, une résistance génère du bruit
Johnson. Le facteur de bruit d’un dispositif passif est lié à son atténuation L par la formule ci-dessous.
NF passif =
1
(Équation 11)
L
7. Bruit d’une antenne
Dans un système de transmission radio, les performances en termes de sensibilité du récepteur
dépendent non seulement de celles des circuits électroniques, mais aussi de l’antenne qui contribue à
ajouter du bruit au signal. L’antenne possède une résistance de perte et présente donc une source de
tension de bruit de Johnson, qui dépend fortement de la température de l’antenne. Une antenne est
aussi une source de bruit à cause de sa fonction première : capturer des ondes électromagnétiques. En
effet, une antenne est susceptible de capter l’ensemble des signaux parasites produits par son
environnement (interférences électromagnétiques, bruit thermique).
8. Autres sources de bruit
Les sources de bruit sont très nombreuses. On peut trouver par exemple les rayonnements
cosmiques qui sont des événements localisés et de haute énergie. Certains circuits peuvent être
sensibles aux vibrations et aux sons comme les détecteurs. Plusieurs techniques existent pour rejeter
le bruit :
moyenne du signal puisque le bruit est de nature aléatoire
réduction de la bande passante
filtrage
techniques de conception de circuits dits faible bruit
La figure 18 présente un exemple de mesure à l’analyseur de spectre du bruit aux bornes d’une
résistance.
A. Boyer
19
Canaux de transmissions bruités
Septembre 2013
Fig. 18 – Mesure du bruit aux bornes d’une résistance
Question : Commenter la mesure de la figure 18.
Réponse :
II. Distorsions non linéaires des circuits électroniques
Les circuits électroniques actifs sont souvent modélisés par des lois linéaires, alors que leur
comportement est purement non linéaire. Celui-ci est négligé afin de faciliter la prédiction de leur
comportement (par ex, en utilisant des fonctions de transfert). Ces effets liés au comportement
intrinsèque des composants et à leurs imperfections vont dégrader les performances du système en
modifiant certains paramètres tels que le gain des étages d’amplification ou en créant des signaux
parasites. Les effets non linéaires sont difficiles à modéliser et, en général, ils sont modélisés à l’aide
de série de développement limité à l’ordre 2 ou 3. Les lois non linéaires apparaissent alors comme des
polynômes d’ordre 2 ou 3 (ces calculs sont présentés à l’annexe B), enrichissant le spectre du signal de
sortie de nouvelles composantes spectrales. On dit alors que les signaux d’entrée et de sortie de
dispositifs non linéaires ne sont plus isomorphes. On distingue plus particulièrement deux types de
distorsions :
La distorsion harmonique
La distorsion d’intermodulation
A. Boyer
20
Canaux de transmissions bruités
Septembre 2013
1. Distorsions harmoniques
La distorsion harmonique est due, en cas d’excitation par une sinusoïdale pure de fréquence
fo, à la création de composantes aux fréquences harmoniques k×fo, où k est un entier. Le spectre en
sortie du dispositif non linéaire est enrichi en nouvelles composantes spectrales. Pour caractériser la
distorsion spectrale, on utilise les notions de taux de distorsion. Le taux de distorsion de
l’harmonique k, notée dk, prend en compte l’apparition de nouvelles composantes spectrales :
dk ( % ) =
A
amplitude harmonique k
= k (Équation 12)
amplitude du fondamental A1
Le taux de distorsion harmonique global d caractérise la distorsion totale du signal. Il s’agit
du rapport des valeurs efficaces du signal de sortie sans la composante fondamentale sur celui avec
fondamentales :
+∞
d=
∑A
2
∑A
2
k =2
+∞
k =1
k
= 1−
k
A1
2
(Équation 13)
+∞
∑A
k =1
2
k
La distorsion apparaît dès que les signaux ont des amplitudes importantes et que les
approximations linéaires ne sont plus valables. Les distorsions harmoniques apparaissent
principalement dans les étages d’amplification des émetteurs-récepteurs. Le gain de tout amplificateur
est considéré comme constant tant que l’amplitude du signal d’entrée reste faible. L’entrée et la sortie
de l’amplificateur sont alors reliées par une loi linéaire et les signaux d’entrée et de sortie sont
isomorphes. Cependant, dès que l’amplitude du signal d’entrée est suffisamment élevée pour sortir du
domaine linéaire, le gain n’est plus constant et diminue. On parle de compression de gain. Dès lors, le
signal de sortie subit une distorsion d’amplitude.
Pour caractériser la plage d’amplitude du signal d’entrée sur laquelle le gain peut être
considéré comme constant, on définit le point de compression à 1 dB; il s’agit de la plage
d’amplitude du signal d’entrée pour laquelle la relation suivante est vérifiée :
G1dB = G0 − 1dB (Équation 14)
où Go est le gain en zone linéaire. Le point à 1dB correspond à la puissance à fournir en entrée
pour que le gain réel de l’amplificateur s’écarte de 1dB du gain linéaire. L’annexe B présente un calcul
qui fait apparaître cette compression de gain dans un système non linéaire d’ordre 3. La figure 19
illustre la notion de point de compression à 1dB. La seule façon de limiter la distorsion du signal de
sortie est de limiter l’amplitude du signal en entrée pour s’assurer que le circuit reste dans la zone de
fonctionnement linéaire. On peut aussi filtrer le signal distordu afin de ne conserver que la composante
de fréquence fondamentale.
Puissance
sortie
Caractéristique
idéale
1dBm
Ps
Distorsion
Zone de
fonctionnement
non linéaire
Pe
Point de
compression à 1dB
Puissance
entrée
Fig. 19 - Illustration de la distorsion d’un signal provoqué par le comportement non linéaire d’un
amplificateur
A. Boyer
21
Canaux de transmissions bruités
Septembre 2013
2. Distorsions d’intermodulation
La distorsion d’intermodulation est liée à l’existence de produits d’intermodulation. Ceux-ci
apparaissent lorsqu’un signal d’entrée constituée d’une combinaison linéaire de termes sinusoïdaux de
fréquences différentes fi, fj, … passe à travers un dispositif non linéaire. Le signal de sortie est alors
composé, en plus des composantes harmoniques initiales, de termes d’intermodulation dont les
fréquences sont égales à des combinaisons linéaires des fréquences initiales F = m × f i ± n × f j .
Ces distorsions sont très gênantes car elles génèrent des signaux parasites dans la bande utile.
Néanmoins, cette propriété est mise à profit dans les circuits mélangeurs des
modulateurs/démodulateurs pour la transposition de fréquences. L’annexe B présente le calcul du
signal de sortie pour un système non linéaire d’ordre 3. La figure 20 présente le spectre du signal de
sortie d’un amplificateur. Le signal d’entrée correspond à la somme de 2 sinusoïdes de fréquences 200
et 250MHz. On remarque que le signal présente de nombreux produits d’intermodulation.
F1 F2
∆f=50MHz
2F1-F2
∆f
2F2-F1
2F1+F2
2F2+F1
∆f
Fig. 20 - Signal de sortie d’un amplificateur non idéal et produits d’intermodulation
On peut remarquer que les produits les plus gênants sont ceux d’ordre 3 (2F1-F2 et 2F2-F1).
En effet, si les fréquences F1 et F2 sont très proches, les produits d’ordre 3 peuvent parasiter le signal
utile si ils apparaissent dans la bande passante du récepteur. Pour caractériser les dégradations
apportées par les produits d’intermodulation, on utilise la distorsion d’intermodulation IM3, qui est
égale au rapport de l’amplitude des signaux de produit d’ordre sur celle des signaux initiaux. Ce
rapport est exprimé en dBc, c pour carrier, c'est-à-dire « par rapport à la porteuse ». Des valeurs
comprises entre 20 et 40 dB peuvent être considérées comme acceptables.
 V

IM 3 = 20 × log  F 1  (dBc) (Équation 15)
 V2 F 1− F 2 
Question : D’après l’exemple de la figure 20, calculer la valeur IM3 ?
Réponse :,
A. Boyer
22
Canaux de transmissions bruités
Septembre 2013
3. Bruit de phase des oscillateurs locaux des récepteurs
Bien que ses effets soient moindres, une autre source de bruit liée aux défauts des circuits
électroniques du récepteur est le bruit de phase. Celui-ci est lié à l’instabilité des oscillateurs locaux
(OL) du récepteur. Ceux-ci sont souvent des oscillateurs contrôlés en tension montés à l’intérieur
d’une boucle à verrouillage de phase (PLL) et subissent en permanence une variation aléatoire de leur
fréquence de fonctionnement. Au niveau du spectre, le bruit de phase se traduit par une large bande de
bruit situé au pied de la porteuse, comme le montre la figure 21.
signal
oscillateur peu bruyant
signal
oscillateur bruyant
bruit de
phase
seuil de
bruit
fréquence
fréquence
Fig. 21 - Bruit de phase
Ces oscillateurs locaux sont utilisés dans les
circuits de réception pour ramener le signal modulé
en bande de base. Si l’OL est bruyant, son bruit va se
superposer au signal utile des canaux adjacents et
être ramené dans la bande passante du récepteur. Le
bruit de phase est très perturbateur car ses effets sont
cumulatifs. Il n’existe pas de contre mesures
permettant de réduire son effet, le seul moyen est
d’améliorer la pureté spectrale de l’OL à sa
conception. Voila pourquoi des gabarits très stricts
sont imposés aux oscillateurs locaux dans les
applications radio, comme celui de la norme GSM
présenté figure 22.
Fig. 22 - Gabarit fréquentiel imposé par la
norme GSM
Le bruit de phase est le plus souvent exprimé en dBc/Hz. Il s’agit du rapport de la puissance
du bruit sur une bande passante de 1Hz sur la puissance de la porteuse. Cette bande est choisie en
s’écartant de 10KHz de la porteuse. Une valeur typique de bruit de phase est de -120dBc/Hz.
puissance
10KHz
1Hz
Bruit de
phase
Porteuse Fp
fréquence
Fig. 23 - Calcul du bruit de phase
A. Boyer
23
Canaux de transmissions bruités
Septembre 2013
4. Autres sources de perturbations
D’autres sources de perturbations liées à l’électronique du récepteur existent et ont déjà été
étudiées les années précédentes : on trouve par exemple les résidus de spectres non supprimés par les
filtres anti-repliement. Ceux-ci sont utilisés pour limiter la largeur de bande d’un signal à
échantillonner. Si celle-ci ne respecte pas le théorème d’échantillonnage de Shannon, un phénomène
de repliement de spectre peut avoir lieu et entraîner une distorsion du signal transmis. Les erreurs de
quantification sont une source de dégradation du signal inévitable dans toute chaîne de conversion
analogique numérique et qui réduisent les performances du système en terme de rapport signal sur
bruit.
III. Atténuation du canal de transmission
1. Affaiblissement
Par définition, l’affaiblissement ou l’atténuation est le rapport de la puissance à la sortie du
système Ps sur la puissance à son entrée Pe. On le calcule de la manière suivante :
P 
A = 10 × log  s  (dB) (Équation 16)
 Pe 
1 P 
A = ln  s  ( Np)
2  Pe 
(Équation 17)
Suivant la base choisie pour le logarithme, le gain ou l’affaiblissement sont exprimés en
décibel (dB) ou en néper (Np). Même si le néper est mathématiquement plus naturel que le décibel
(dans la théorie des lignes, l’atténuation suit une loi exponentielle), l’usage du décibel est plus
répandu. On passe d’une unité à l’autre à l’aide des 2 formules suivantes :
1 Np = 20 × log(e) dB = 8.68 dB (Équation 18)
1 dB =
1
× ln(10) Np = 0.115 Np (Équation 19)
20
Pour la conversion en dB, reportez vous à l’annexe A.
2. Communications filaires
Les câbles, s’ils ne sont pas blindés, peuvent coupler un grand nombre de perturbations
électromagnétiques qui se superposent au signal utile et réduisent le rapport signal à bruit. De plus, les
ruptures d’adaptation existant le long d’un câble ont tendance à ralentir et déformer le signal.
L’atténuation d’un câble réduit non seulement l’amplitude du signal et mais contribue aussi à l’étaler
dans le temps. Un autre problème se pose dans le cas de câbles placés à proximité les uns des autres :
la diaphonie. Elle est due à la proximité de chacun des câbles qui fait se coupler mutuellement les 2
signaux présents sur chacun des 2 câbles (création de couplages inductifs et capacitifs entre les
câbles). Si une ligne sensible est placée trop près d’une ligne sur laquelle un signal rapide est véhiculé,
le signal rapide se couplera sur la ligne sensible par diaphonie et parasitera le signal sensible.
3. Affaiblissement de parcours en propagation hertzienne
Un canal radio représente le médium le plus soumis aux perturbations. Dans la réalité, un
espace libre dégagé de tout obstacle et aux propriétés uniformes est un cas purement idéal.
Considérons d’abord une propagation en espace libre. Lorsqu’une onde électromagnétique se propage
et s’éloigne de la source, la puissance qu’elle transporte par unité de surface décroît avec la distance.
L’atténuation en fonction de la distance d et de la fréquence f est donnée par :
A. Boyer
24
Canaux de transmissions bruités
Septembre 2013
2
2
f ×d 
 d

Atténuation =  4π  =  4π
 (Équation 20)
c 
 λ

Supposons qu’on est une liaison radiofréquence entre un émetteur E et un récepteur R. La
puissance rayonnée par l’antenne de l’émetteur dépend de la puissance électrique Pe et du gain de
l’antenne Ge. La puissance électrique reçue Pr dépend de la puissance transportée par l’onde
électromagnétique et le gain de l’antenne réceptrice Gr. Le rapport entre la puissance électrique reçue
et la puissance électrique émise est donnée par la très célèbre équation de Friis :
Ge G r
Ge G r
Pr
=
=
(Équation 21)
2
2
Pe  d 
f ×d 

 4π 
 4π

c 
 λ

Dans le prochain chapitre, nous détaillerons les différents phénomènes physiques qui affectent
la propagation et altèrent les caractéristiques temporelles du signal.
4. Brouillage ou interférences
Le terme brouillage ou interférences signifie qu’un signal parasite de puissance non
négligeable émis à la même fréquence (ou une fréquence proche) que le signal utile peut perturber la
transmission sur le canal, en dégradant le rapport signal à bruit ou en introduisant des distorsions. Les
problèmes d’interférences se posent dès que plusieurs émetteurs-récepteurs radiofréquences sont
placés à « proximité » les uns des autres et que les fréquences utilisées sont proches.
On distingue 2 types d’interférences :
L’interférence due à la présence simultanée d’autres utilisateurs soit sur le même canal de
transmission (mauvais duplex, interférences entre utilisateurs), soit sur des canaux adjacents
(la largeur de bande du canal adjacent ne respecte pas les contraintes fixées).
Le brouillage intentionnel (activité militaire, volonté de perturber une communication
gênante). La technique revient à placer à proximité de l’utilisateur une source haute
puissance et de la faire émettre à la fréquence du canal. Seules les communications radio
peuvent être brouillées, les communications par fibre optique restent inviolables.
La conséquence de la présence de signaux interférents est une augmentation du seuil de bruit
du récepteur perturbé, qui conduit à une dégradation de la qualité du signal reçu, voire au blocage du
canal de communication.
Dans les réseaux cellulaires, le brouillage entre cellules adjacentes émettant sur une même
sous bande est inévitable. On parle d’interférence co-canal. Celui-ci est dû à la réutilisation des
fréquences allouées par un opérateur dans des cellules voisines, comme le montre la figure 24. Des
règles de réutilisation de fréquence sont dès lors requises ainsi qu’un dimensionnement judicieux des
puissances des émetteurs.
Les canaux émettant sur des bandes de fréquences voisines ou adjacentes peuvent aussi se
perturber. On parle alors d’interférences sur canaux adjacents. En effet, les signaux sont rarement
bornés en fréquence, alors que les bandes de fréquence allouées le sont. Un filtrage efficace est
nécessaire pour couper toute émission hors bande et éviter des phénomènes de blocage de canaux
adjacents. Cependant, les défauts des circuits et des filtres (bruit de phase, distorsions non linéaires,
produits d’intermodulation) limitent l’efficacité du filtrage en produisant un grand nombre
d’harmoniques hors bande. La figure 22 illustre le gabarit fréquentiel imposé à tout émetteur en
téléphonie GSM. Celui-ci définit les limites d’émission de cet émetteur non seulement sur le canal de
communication qui lui est alloué, mais aussi sur les canaux adjacents (à +/- N*200 KHz autour de la
fréquence porteuse). Il est clair que cet émetteur n’est pas capable d’annuler toute émission hors
bande. Bien que le signal hors bande soit faible en comparaison du signal utile à transmettre (sur le
canal adjacent (N = 1) la puissance d’émission est au moins 30 dB en dessous de la puissance de la
A. Boyer
25
Canaux de transmissions bruités
Septembre 2013
porteuse, sur les canaux adjacents suivants (N ≥ 2), au moins 60 dB), il n’est pas forcément
négligeable s’il se superpose à un signal affaibli.
f1
Bande allouée à
un opérateur
f1 f2
f1
Signal
Interférences
fk
Fréquence
Interférences
f1
Interférences
f1
Sous bande
Fig. 24 - Interférence co-canal dans un réseau cellulaire
Dans la plupart des applications de radiocommunications (notamment dans le cadre de réseaux
sans fil impliquant plusieurs émetteurs – récepteurs partageant des canaux identiques ou adjacents, et
placés à proximité géographiques), le niveau de puissance des signaux interférents est souvent très
supérieur à celui du bruit intrinsèque au récepteur (par exemple, le bruit d’origine thermique). Il est
donc indispensable de prendre en compte l’effet des interférences afin de prédire les performances des
récepteurs en terme de seuil de réception et de qualité du signal reçu. L’interférence doit alors être
introduite dans le rapport signal à bruit du récepteur (voir partie V.1).
IV. Modélisation du bruit dans un canal de transmission
Un modèle de canal reste une vision simplifiée de la réalité, sa modélisation complète pourrait
atteindre une très grande complexité (par exemple un réseau cellulaire dans un milieu urbain). Dans ce
cours, on prend la notion de canal au sens large du terme, c'est-à-dire qu’on y inclut le médium de
transmission mais aussi les équipements de transmission et de réception. Voici quelques définitions :
Canal discret : l’ensemble des symboles reçus après le passage dans le canal est fini.
L’information est donc numérique.
Canal à temps discret : l’échelle des temps est discrète.
Canal sans mémoire : le symbole reçu à un instant donné dépend uniquement du symbole
émis au même instant t (en considérant le retard de transmission nul). Si le canal a une
mémoire, la sortie dépend aussi des symboles présents en t’, t’<t.
Canal stationnaire : ses caractéristiques sont fixes au cours du temps. Une fibre optique est
un canal stationnaire, ses caractéristiques étant quasi invariantes au cours du temps, alors
qu’une liaison radio correspond à un canal non stationnaire puisque ses caractéristiques
dépendent de nombreux facteurs tels que les objets environnants, les conditions
atmosphériques ou les perturbations électromagnétiques.
Canal sélectif : le signal à transmettre a des composantes fréquentielles qui sont atténuées
différemment par le canal de propagation. Il introduit donc une distorsion dans le signal
transmis.
Nous allons maintenant présenter quelques modèles simples de canaux de transmission
prenant en compte l’ajout de bruit par le canal. Dans le chapitre suivant, nous verrons comment inclure
les effets temporels induit par le canal. Des modèles bien plus complexes existent (par exemple pour le
canal radioélectrique), mais ils ne sont pas traités dans ce cours.
1. Canal binaire symétrique ou BSC
Il s’agit d’un canal discret binaire sans mémoire. Ce canal est qualifié de symétrique car la
probabilité qu’un 1 devienne un 0 en sortie est égale à celle qu’un 0 devienne un 1. p est la probabilité
d’erreur. La figure 25 illustre le modèle de ce canal.
A. Boyer
26
Canaux de transmissions bruités
Septembre 2013
Densité de
probabilité
entrée
0
sortie
1-p
0
Probabilité que le
symbole émis soit ‘0’
p
p
1
1-p
Probabilité que le
symbole émis soit ‘1’
Interférences
entre symboles
1
-V
On décide que la valeur
reçue est un ‘0’
Valeur pris
par le signal
+V
On décide que la valeur
reçue est un ‘1’
Fig. 25 - Canal binaire symétrique
Même si ce modèle de canal reste simpliste, il permet d’évaluer rapidement les performances
d’un système numérique en termes de taux d’erreur binaire.
2. Bruit blanc gaussien et canal à bruit blanc gaussien additif
(Additive White Gaussian Noise AWGN)
Le bruit blanc gaussien est un modèle de bruit largement utilisé dans de nombreux domaines.
En effet, lorsqu’un phénomène correspond à la somme d’un grand nombre de variables aléatoires, il
est possible de démontrer par le théorème de la limite centrale que la distribution statistique de ce
phénomène suit une distribution gaussienne. Dans le domaine fréquentiel, un bruit blanc présente une
DSP constante en fonction de la fréquence. Un bruit gaussien suit une distribution gaussienne,
caractérisée par une moyenne µ et une variance σ². La densité de probabilité est donnée par l’équation
22. La figure 26 illustre la représentation temporelle d’un bruit gaussien et la distribution statistique
qui peut en être extrait, dont la densité de probabilité suit une distribution gaussienne. La
représentation temporelle ne permet pas d’extraire d’informations sur le signal en raison de sa nature
aléatoire (pas de période par exemple), mais la distribution permet d’extraire des éléments statistiques
sur la nature du bruit.
p( x ) =
 ( x − µ )2
exp −
2σ 2
σ 2π

1
Amplitude
du bruit (x)

 (Équation 22)


Amplitude
du bruit (x)
2σ
Moyenne
Temps
Densité de
probabilité p(x)
Fig. 26 – Représentation temporelle d’un bruit gaussien et distribution statistique de son amplitude
Un canal AWGN est non discret et sans mémoire qui représente parfaitement une liaison radio
en vue directe dont le bruit est principalement d’origine thermique. Le bruit additif est dans ce cas un
bruit gaussien de moyenne nulle et de variance σ². Comme il s’agit d’un bruit blanc, la densité
spectrale de bruit est constante avec la fréquence, ce qui représente une hypothèse simplificatrice des
calculs et mais qui reste valide si on considère des bandes de fréquence étroites. La figure 27 illustre le
A. Boyer
27
Canaux de transmissions bruités
Septembre 2013
modèle général d’un canal AWGN. Le canal est caractérisé par une fonction de transfert ou une
réponse impulsionnelle, qui décrivent le comportement soit fréquentiel soit temporel du canal (voir
chapitre suivant). Les perturbations externes et le bruit se couplent au canal et sont ajoutés au signal
transmis.
Bruit et
1001
perturbations
Filtre linéaire
+
+
Signal numérique
émis
Signal numérique
reçu
Canal de transmission
Fig. 27 - Modèle général d’un canal de transmission à bruit additif
3. Canal de Rayleigh
Dans les liaisons radiomobiles, les canaux de transmission évoluent en fonction du temps à
cause des déplacements aléatoires des entités communicantes et l’existence d’obstacles entre
l’émetteur et le récepteur. Il peut en résulter que le signal émis suit plusieurs trajets avant d’arriver au
récepteur, conduisant à une variabilité importante du signal reçu due à l’addition de plusieurs signaux
déphasés. Lorsque le débit de transmission est suffisamment faible, chaque symbole ne se superpose
qu’avec lui-même, au moins sur une portion significative de sa durée. Un canal de Rayleigh permet de
prendre en compte ces effets : réflexions multiples, évanouissements, fluctuations à grande et petite
échelle et effet Doppler. L’amplitude et la phase du signal reçu apparaissent comme des variables
aléatoires qui suivent une loi de Rayleigh (équation 23). Ce modèle est particulièrement adapté à une
représentation statistique d’un canal radiomobile.
p( x) =
 − x2

exp
2
σ2
 2σ
x2

 (Équation 23)

V. Rapport signal sur bruit
1. Définition
Connaître la puissance du bruit N n’a un intérêt que si on peut la comparer à celle du signal Ps
et en déduire son impact sur la dégradation du signal. C’est pourquoi on utilise généralement un
rapport de puissance appelé rapport signal sur bruit (Signal Noise Ratio) :
SNR =
PS nom
N
(Équation 24)
Le rapport signal sur bruit se rapporte toujours au niveau nominal du signal. Le plus souvent,
celui-ci est exprimé en dB (équation 25). Voir Annexe A pour les conversions entre les échelles
linéaires et les échelles logarithmiques (dB).
 PS nom
SNR(dB ) = 10 × log
 N
A. Boyer

 (Équation 25)

28
Canaux de transmissions bruités
Septembre 2013
Celui-ci va donc permettre d’apprécier la qualité d’un signal et déterminer la sensibilité d’un
dispositif pour une densité spectrale du bruit donnée. Le rapport signal à bruit est une donnée surtout
intéressante pour des signaux analogiques, puisqu’il va permettre d’estimer la dégradation subit par ce
dernier. En effet, plus le rapport signal à bruit est faible, plus le signal est dégradé par le bruit et plus il
sera difficile de supprimer l’influence du bruit sur le signal. Il est nécessaire de garantir un rapport
signal à bruit important pour s’assurer que le signal reçu reste une « copie fidèle » du signal transmis.
Ci-dessous, voici 4 exemples de contraintes en terme de SNR, les 3 premières correspondent à des
transmissions analogiques, la dernière à une transmission numérique.
Exemple de SNR :
Téléphonie classique : SNR ≥ 50dB (B=3.1 KHz), bruit à peine perceptible, bruit à 30dB
très gênant.
Transmission de musique : SNR ≥ 47dB (B=15 KHz), plus sévère que les exigences en
téléphonie puisque largeur de bande plus grande.
Transmission de télévision : SNR ≥ 52dB (B=5 MHz)
Système GSM : SNR ≥ 8dB (B=200KHz), le bruit thermique étant de -120dBm à 290°K, le
premier étage d’amplification ajoutant un bruit de 10dB, la sensibilité du récepteur est de 102dBm (63pW) ! Cette sensibilité permet de garantir un taux d’erreur binaire d’au plus 1
pour 100 bits.
Remarque : dans le cas de signaux modulés, on parle aussi de rapport carrier on noise C/N, où C
représente la puissance de la porteuse.
Comme nous l’avons vu précédemment, le bruit est une notion qui englobe de nombreux
phénomènes différents et il est possible de distinguer le bruit intrinsèque du récepteur (bruit thermique
par exemple) et les interférences (signaux parasites venant d’autres émetteurs). L’évaluation du SNR
nécessite donc de considérer toutes les sources de bruit. On peut distinguer deux cas :
Si le récepteur est éloigné de toute source d’interférences, le bruit pourra se limiter au bruit
intrinsèque du récepteur. On notera le niveau de bruit N.
Si des signaux interférents se superposent au signal utile et qu’ils ont un niveau de
puissance non négligeable par rapport au niveau de bruit intrinsèque, il faudra considérer
comme niveau de bruit la somme des puissances du bruit intrinsèque et des signaux
interférents. On notera le niveau de bruit N+I, I désignant la puissance totale des signaux
interférents.
Dans ce dernier cas, il est courant de retrouver la notation S/I pour désigner le rapport signal à
bruit (équations 26 et 27). On trouvera aussi la notation C/I si on considère la puissance de la porteuse
d’un signal modulé.
S PS nom
=
I N+I
(Équation 26)
P

S
(dB ) = 10 × log S nom  (Équation 27)
I
N+I
2. Cas d’un signal numérique - Rapport signal à bruit par bit
Les signaux numériques sont sensibles au bruit, mais ne sont pas aussi sensibles que les
signaux analogiques. Contrairement à un signal analogique, la qualité d’un signal numérique ne se
mesure pas à la distorsion du signal, mais à la possibilité pour un circuit digital de détecter
A. Boyer
29
Canaux de transmissions bruités
Septembre 2013
correctement l’état binaire transmis. Alors que la principale contrainte d’une communication
analogique est le rapport signal à bruit qui est directement relié à la distorsion du signal, celle d’une
communication numérique est le taux d’erreur binaire.
Alors que les exigences en termes de rapport signal à bruit pour les transmissions analogiques
sont très élevées (plusieurs dizaines de dB !), celles-ci sont beaucoup plus faibles pour des
communications numériques. Les niveaux de bruit nécessaires pour induire une erreur binaire doivent
être très grand et du même ordre que l’amplitude du signal. En général, il est possible de recevoir un
signal numérique avec une qualité acceptable avec un rapport signal à bruit légèrement négatif (nous le
verrons par la suite) !
Ainsi, le rapport signal sur bruit n’est pas la meilleure métrique pour qualifier la qualité d’un
signal numérique. On préfère employer un rapport signal à bruit normalisé appelé rapport signal à
bruit par bit noté Eb/No. Il s’agit du rapport entre l’énergie véhiculée par un bit Eb et la densité
spectrale en puissance du bruit No. Comme nous le verrons plus tard, cette grandeur est directement
reliée au taux d’erreur binaire, et fixer une contrainte en termes de taux d’erreur binaire revient à fixer
une contrainte sur le rapport Eb/No. Intuitivement, on sent que la dégradation d’un signal numérique,
en l’occurrence une erreur d’interprétation de bits, va dépendre du rapport entre l’énergie transportée
par un bit et celle du bruit.
Décortiquons maintenant les deux termes de ce rapport. Eb représente l’énergie transportée par
un bit. L’énergie par unité de temps s’appelle la puissance. Dans le cas d’un signal binaire, l’énergie
par bit (en J/bit) est donc reliée à la puissance moyenne du signal S (en W) par le débit binaire Fb (en
bit/s) comme le montre l’équation 27. On remarque que l’énergie par bit est inversement
proportionnelle du débit binaire.
Eb =
S
Fb
(Équation 28)
N0 représente la densité spectrale de bruit, c'est-à-dire la puissance N transportée par le bruit
sur une bande de fréquence de largeur B. Son unité est W/Hz, ce qui est équivalent à une énergie.
N0 =
N
B
(Équation 29)
En combinant les 2 équations précédentes, on peut relier le rapport signal à bruit et le rapport
Eb/No par l’équation suivante :
E
S Eb Fb
S B
=
× ⇔ b = ×
N No B
N o N Fb
(Équation 30)
S : puissance du signal (W)
N : puissance du bruit (W)
Eb : énergie par bit (W.s/bit)
No : densité spectrale de bruit (W/Hz)
Fb : débit binaire (bits/s)
B : bande passante du canal de transmission (Hz)
 
Eb
(dB ) = 10 × log S  + 10 × log B 
No
N
 Fb 
(Équation 31)
Remarque : le rapport Eb/No dépend non seulement des puissances du signal et du bruit, mais
aussi des propriétés du signal telles que le débit binaire, la modulation (comme nous le verrons, la
bande passante nécessaire pour transporter un signal dépend du type de modulation employée). Le
rapport Eb/No prend donc en compte l’effet de d’autres paramètres influents sur la robustesse d’une
communication numérique. Ce rapport est donc un paramètre plus intéressant pour comparer des
systèmes de communication différents.
A. Boyer
30
Canaux de transmissions bruités
Septembre 2013
Comme pour l’évaluation du rapport signal à bruit, il est nécessaire de déterminer les
principales sources de bruit. Dès que des signaux interférents sont présents, le niveau de bruit
considéré doit intégrer la présence de ces signaux interférents. Il sera courant de trouver les notations
Eb/Io ou Ec/Io, où Io désigne la densité spectrale de bruit intrinsèque No augmentée de la densité
spectrale de puissance des signaux interférents.
Eb
S
B
=
×
I o N + I Fb
(Équation 32)
 
Eb
(dB ) = 10 × log S  + 10 × log B 
Io
N+I
 Fb 
(Équation 33)
3. Résolution en amplitude
Le bruit qui se superpose au signal transmis sur un canal vient dégrader sa qualité. Dans le cas
d’un signal numérique où les différents symboles sont représentés par des amplitudes différentes, plus
le nombre de symboles possible est grand, plus il devient difficile de les différencier en présence de
bruit. Ainsi, comme la puissance du signal est limitée, pour un niveau de bruit donné, il existera une
limite en nombre de symboles pour assurer une transmission numérique. Dans l’hypothèse d’un bruit
additif blanc gaussien et pour un rapport signal sur bruit S/N donné, Shannon a pu montrer que pour
conserver une probabilité d’erreur d’interprétation des symboles quasi nulle, le nombre maximal
d’états Nmax est donné par l’équation 34.
N max = 1 +
S
N
(Équation 34)
Néanmoins, il est impossible d’assurer une probabilité d’erreur nulle puisque cela signifierait
qu’une erreur est un événement impossible. En présence de bruit aléatoire et pour un dispositif de
transmission donné, une erreur est un événement toujours possible. On peut donc en déduire une
quantité maximale de décision par moments, c’est-à-dire un nombre maximal de bits pour représenter
les symboles à transmettre :
Dm (bits ) ≤ Dmax =
1
S

log 2 1 +  (Équation 35)
2
 N
VI. Taux d’erreur binaire d’un signal bruité
1. Définition
Alors que la qualité d’un signal analogique est dégradée par toute distorsion ou atténuation
non linéaire créé par le canal de transmission, la qualité d’un signal numérique ne sera réduite que si
les effets négatifs du canal conduisent le récepteur à confondre plusieurs symboles ou bits dans le cas
d’un signal binaire. Afin de quantifier la dégradation subie par un signal numérique ou de spécifier la
qualité que doit atteindre une transmission numérique, on utilise la notion de taux d’erreur binaire
ou Bit Error Rate (BER). Il s’agit du taux d’erreur mesuré à la réception d’une transmission
numérique, et se calcule à l’aide de l’équation 36.
BER (% ) =
A. Boyer
nombre de bits erronés
(Équation 36)
nombre total de bits reçus
31
Canaux de transmissions bruités
Septembre 2013
Plus la contrainte sur la qualité de service d’une transmission est élevée, plus le BER est
faible. Par exemple, la norme GSM spécifie un BER < 1 % pour une puissance reçue > -102 dBm.
Remarque : le BER n’est pas la seule métrique utilisée pour qualifier la qualité d’un signal
numérique. On retrouve aussi le Frame Error Rate (FER) ainsi que le Block Error Rate (BLER) qui
indique respectivement la probabilité d’erreur par trame et la probabilité d’erreur par blocs de
données.
2. Taux d’erreur binaire théorique d’un signal binaire sur un canal
AWGN
Nous allons maintenant relier la probabilité d’apparition d’erreur binaire en fonction du
rapport signal à bruit. Plaçons-nous dans le cas d’un signal binaire et d’un canal AWGN. On appelle
f(x) la densité de probabilité du bruit, qui suit une distribution gaussienne, de moyenne nulle et d’écart
type σ. Supposons que les 2 états binaires sont représentés par deux niveaux de tension notés a0 et a1.
On appelle A l’amplitude du signal. L’émission des états ‘0’ et ‘1’ sont équiprobables. Ce signal bruité
est appliqué en entrée d’un récepteur binaire, présentant un seuil de décision notée λ0. Supposons de
plus que ce seuil de décision est tel que λ0 =
a 0 + a1
. Une erreur binaire apparaît si le récepteur
2
interprète mal un bit incident. Deux cas peuvent se présenter :
un état ‘0’ est transmis, mais le bruit est suffisant pour que l’amplitude du signal appliquée
en entrée du récepteur dépasse le seuil de décision.
un état ‘1’ est transmis, mais le bruit est suffisant pour que l’amplitude du signal appliquée
en entrée du récepteur soit inférieure au seuil de décision.
Amplitude Vin du
signal binaire reçu
Etat de sortie d :
a1
A
Récepteur
(seuil de
décision λ0 )
λ0
d = ‘0’ si Vin < λ0
d= ‘1’ si Vin > λ0
a0
Etat binaire
transmis a :
0
1
0
temps
Fig. 28 – Modèle de la décision d’un récepteur binaire
Connaissant les probabilités d’apparition des symboles 0 et 1 et sachant que le bruit suit une
distribution gaussienne, on peut déterminer la distribution de l’amplitude du signal d’entrée. Celle-ci
est la somme des distributions de l’amplitude dans le cas où un état ‘0’ est transmis (noté f(x/a0)) et
dans le cas où un état ‘1’ est transmis (noté f(x/a1)) (Fig. 29).
 ( x − a 0 )2
f (x / a0 ) =
exp −
2σ 2
σ 2π


 (Équation 37)


 ( x − a1 )2
exp −
2σ 2
σ 2π


 (Équation 38)


1
f ( x / a1 ) =
A. Boyer
1
32
Canaux de transmissions bruités
Septembre 2013
Densité de
probabilité
f(x/a0)
f(x/a1)
2σ
2σ
a0
Vin
a1
λ0
Fig. 29 - Densité de probabilité de l’amplitude du signal en entrée du récepteur binaire
Calculons la probabilité d’apparition d’une erreur :
Perr = P(d = 1).P(d = 1 / a = a 0 ) + P(d = 0 ).P(d = 0 / a = a1 )
Perr
1
=
2
+∞
∫
λ0
λ
1 0
f ( x / a 0 )dx + ∫ f ( x / a1 )dx
2 −∞
En analysant l’équation précédente et en exploitant les propriétés de symétrie d’une fonction
gaussienne, on peut écrire :
Perr
1
=
2
− A0
1
∫−∞ f (x )dx + 2
+∞
∫ f (x / a )dx
1
A0
Perr =
+ A0

1 
1 − ∫ f ( x )dx 

2  − A0

Perr =
1 
1−
2 
+ A0
∫
0
 x2
exp −
2
2π σ
 2σ
1
 
dx 

 
Comme le seuil est placé de manière symétrique par rapport à a0 et a1, on peut faire intervenir
A, qui correspond à l’amplitude du signal.
Densité de
probabilité
Densité de
probabilité
2σ
2σ
+
a0
a1
λ0
Vin
a0
a1
λ0
Vin
Densité de
probabilité
Perr
2σ
A=
λ0-A/2
λ0
a1 − a0
2
λ0-A0/2 Vin
Fig. 30 - Calcul du taux d’erreur binaire dans le cas d’un signal binaire traversant un canal AWGN
En effectuant le changement de variable suivant : u =
x
2σ
, on peut écrire l’équation
suivante :
A. Boyer
33
Canaux de transmissions bruités
Perr
Septembre 2013

1
2
= 1 −
2
π


+



exp
−
u
du
∫0


A0
2σ
(
2
)
En se reportant à l’annexe E, on remarque que la fonction erfc apparaît dans l’équation
précédente, qui peut s’écrire sous la forme ci-dessous :
Perr =
1
 A 
erfc

2
2
σ


(Équation 39)
Modifions cette équation pour faire apparaître le rapport signal à bruit par bit Eb/No :
Energie du signal : E =
Eb =
A2
2
Tb , où Tb est la période binaire. L’énergie par bit est donc de :
A2
2
Energie du bruit : N = σ 2Tb . Pour chaque période binaire, l’énergie du bruit est donc de :
N0 = σ 2
L’équation 39 peut donc s’écrire sous la forme suivante :
Perr =
 Eb 
1

erfc

2
N
0


(Équation 40)
Le taux d’erreur binaire BER est similaire à la probabilité d’apparition d’erreur binaire, donc
le BER est relié au rapport signal à bruit par bit par l’équation 41 pour un signal binaire. Cette relation
est particulièrement importante pour le dimensionnement d’un canal de transmission car il permet de
définir une limite en terme de rapport signal à bruit à partir d’une contrainte donnée sur le taux
d’erreur binaire maximale. Cette formule reste cependant théorique mais donne une bonne estimation
du taux d’erreur binaire pour un rapport signal à bruit donné. Comme nous le verrons par la suite, cette
relation n’est valable que pour un signal binaire et évolue avec le type de modulation, le codage canal
le filtrage …
BER =
 Eb 
1

× erfc
 N 
2
o 

(Équation 41)
La figure 31 présente le taux d’erreur binaire en fonction du rapport signal à bruit dans le cas
d’un signal binaire. On remarque que plus le rapport signal à bruit augmente, plus le taux d’erreur
binaire diminue. Un fait surprenant est que même si le rapport signal sur bruit est négatif, le taux
d’erreur binaire n’est pas égal à 1. Dans cet exemple, pour Eb/No = 0 dB, le taux d’erreur binaire est de
8 %. Même si ce taux d’erreur est supérieur aux spécifications usuelles des systèmes de
communications numériques, moins de 1 bit sur 10 risque d’être altéré alors que le signal a un niveau
plus faible que le bruit. Il faut cependant rappeler que l’information dans un signal numérique n’est
pas portée par la forme du signal. Il peut être distordu et l’information sera conservée intacte tant qu’il
est possible de reconnaître le bon état binaire transporté.
A. Boyer
34
Canaux de transmissions bruités
Septembre 2013
Fig. 31 – Taux d’erreur binaire en fonction du rapport signal à bruit dans le cas d’un canal AWNG et
d’un signal binaire
Question : Soit un signal binaire de débit = 12 Kbits/s. Le signal en bande de base présente une bande
passante de 25 KHz. Calculer le rapport signal à bruit nécessaire pour garantir un BER < 0.1 %.
Réponse :
VII. Bilan de liaison
Nous venons d’établir une relation entre le rapport signal à bruit (l’amplitude du signal reçu) et
la probabilité d’apparition d’erreur binaire. La quantité d’erreurs induites dans un signal binaire est
donc dépendante de la puissance du signal reçu et du seuil de bruit du récepteur (nous avons pour
l’instant ignoré les effets temporels du canal qui sont une autre source d’erreurs. Nous les aborderons
dans le prochain chapitre). Si nous cherchons à réaliser un canal de transmission numérique et assurer
une transmission avec un minimum d’erreur, nous pouvons déterminer la puissance minimale à
transmettre au récepteur, à condition de connaître le seuil de bruit et la nature du bruit présent. Pour
cela, nous allons introduire un outil adapté au dimensionnement en puissance du canal : le bilan de
liaison.
1. Définition
Le bilan de liaison (ou link budget en anglais) est un outil fondamental pour dimensionner les
puissances à mettre en jeu dans un canal de transmission. Le bilan de liaison fait la somme de la
puissance émise et de tous les gains et les pertes rencontrés jusqu'au récepteur, ainsi que les marges
ajoutées par le concepteur, fournissant la puissance reçue par le récepteur. Celle-ci doit être supérieure
au seuil de réception, lié au niveau de bruit du récepteur et du rapport signal à bruit minimal pour
assurer une détection du signal et une qualité de service suffisante (donnée par exemple sous la forme
d’une contrainte en terme de BER).
A. Boyer
35
Canaux de transmissions bruités
Septembre 2013
La figure ci-dessous présente un schéma général d’un canal de transmission. Une puissance
électrique Pe est mise en entrée de l’émetteur, qui va se charger de mettre en forme le signal et de
l’adapter au medium de propagation. Les différents éléments constituant l’émetteur vont soit amplifier
le signal avec un gain Ge au signal (apporté par exemple par des amplificateurs ou par les dispositifs
de conversion du signal électrique comme les antennes, qui peuvent focaliser l’onde
électromagnétique produite dans une direction privilégiée), soit apporter une perte notée Le (L pour
Loss) (par exemple, les pertes liées aux câbles). La puissance en sortie de l’émetteur tient donc compte
du gain Ge et des pertes Le. Cette puissance traverse le medium de propagation (câbles, fibre optique,
espace libre pour une communication hertzienne) qui va introduire une perte de propagation Lp. Celleci dépend des caractéristiques du milieu et dans la distance séparant l’émetteur du récepteur. La
puissance du signal en entrée du récepteur sera donc égale à la puissance en sortie de l’émetteur moins
la perte de propagation liée au medium de propagation. Enfin, les différents éléments constituant le
récepteur introduisent soit un gain Gr soit une perte Lr. La puissance en sortie du récepteur est donc
égale à la puissance reçue amplifiée par le gain Gr et diminuée par la perte Lr. La probabilité
d’apparition d’erreur dépendra donc du rapport entre la puissance Pr et le bruit superposé au signal
reçu.
Bruit
Puissance en
entrée de
l’émetteur Pe
Emetteur
Medium de
propagation
Récepteur
Gain Ge
Perte de
propagation Lp
Gain Gr
Perte Le
Puissance en
sortie du
récepteur Pr
≤
Erreur
binaire ?
Perte Lr
Fig. 32 – Schéma général d’un canal de transmission et bilan de puissance
En exprimant les différentes puissances, gains et pertes en dB, il est possible de déterminer la
puissance reçue à l’aide de l’équation suivante et donc d’établir un bilan de liaison.
Pr = Pe − Le + G e − L p + G r − Lr
(Équation 42)
Le bilan de liaison se présente généralement sous la forme d’un tableau où on va calculer
introduit la puissance mise en entrée du canal par l’émetteur (à partir de la puissance d’entrée, des
gains et des pertes de l’émetteur), le seuil de réception du récepteur (à partir du seuil de bruit, du bruit
ajouté par le récepteur, des gains et des pertes du récepteur), et déterminer la perte de propagation
maximale. De cette perte et à partir d’un modèle de propagation, il est possible d’estimer la séparation
maximale entre l’émetteur et le récepteur. Le bilan va aussi permettre aussi d’ajuster certains éléments
du canal de transmission, telle que la puissance d’émission, les gains à ajouter, les pertes maximales
autorisées sur l’émetteur ou le récepteur … Cet outil simple va aider le concepteur à dimensionner les
différents éléments du canal.
2. Sensibilité d’un récepteur
Une des principales contraintes d’un récepteur concerne sa sensibilité ou seuil de réception,
c'est-à-dire le niveau de puissance minimal du signal d’entrée pour que celui-ci soit détecté. La
sensibilité d’un récepteur dépend non seulement du niveau de bruit en entrée du signal, mais aussi du
rapport signal à bruit minimal à respecter pour une application donnée et d’éventuelles marges que le
concepteur juge nécessaire pour compenser un certain nombre de pertes additionnelles probables et
d’incertitudes. La sensibilité d’un récepteur peut se calculer à l’aide de la formule suivante :
sensibilité (dBW ) = seuil de bruit + SNRmin + pertes + m arg es (optionnelles)
A. Boyer
(Équation 43)
36
Canaux de transmissions bruités
Septembre 2013
Niveau de
puissance
Seuil de
sensibilité
Marges
supplémentaires
signal
SNRmin
Seuil de bruit
Fig. 33 - Seuil de sensibilité d’un signal
Dans le cas d’une transmission numérique, le rapport signal à bruit est exprimé en terme de
rapport signal à bruit par bit, qui est directement relié au taux d’erreur binaire. Dans le cas d’un bruit
thermique et d’un signal binaire, la sensibilité d’un récepteur peut s’écrire :
sensibilité (dBW ) = 10 log(kT ) + E b / N o + 10 log(Fb ) + pertes
(Équation 44)
k : constante de Boltzmann (1.38e-23 J.K-1)
T : température (K)
Eb/No : rapport signal à bruit par bit (dB)
Fb : débit binaire (Bits/s)
Question : La norme de télécommunication mobile 2G appelée DCS 1800 impose les caractéristiques
suivantes au récepteur :
un taux d’erreur binaire < 2 %, ce qui impose un Eb/No > 4.9 dB
la bande allouée à un canal est de 200 KHz
le débit binaire est de 270.83 Kbits/s
le bruit ajouté par le récepteur sur le signal reçu doit être inférieur à 9 dB
l’atténuation du récepteur sur le signal doit être inférieure à 3 dB
En se plaçant à température ambiante (27°c) et en considérant un signal binaire, calculer la
sensibilité en dBm d’un téléphoné mobile DCS 1800.
Réponse :
3. Exemple de bilan de liaison
Appliquons un bilan de liaison à une application de téléphonie mobile, sur la liaison
descendante entre une station mobile et GSM et un téléphone portable. On donne les contraintes
suivantes :
A. Boyer
37
Canaux de transmissions bruités
Septembre 2013
La station de base est composée par des antennes directives de gain = 14 dB. La puissance
maximale de l’émetteur est d’abord fixée à 42 dBm. Les coupleurs et les câbles induisent
des pertes respectives de 3 et 3.5 dB.
On suppose qu’on transmet un signal binaire, dont le débit binaire est égal à 270 Kbits/s.
Une bande passante de 200 KHz est utilisée.
La station mobile est composée d’une seule antenne omnidirectionnelle (gain 0 dB). Les
pertes sont principalement dues à la proximité d’un corps humain et sont évaluées à 3 dB.
On suppose que le bruit est uniquement d’origine thermique (T°c = 25°c). Le récepteur
présente un noise figure de 5 dB.
Le cahier des charges indiquent que des marges de bruit et d’environnement respectivement
de 3 et 8 dB doivent être ajoutées.
On souhaite déterminer la perte de propagation maximale autorisée pour garantir un taux
d’erreur binaire inférieur à 1 %. Pour cela, le rapport Eb/No minimal est égal à 5 dB.
GBTS
PeBTS
Lc
L f BTS
Tx
Coupleur
Alimentation
Lp
GMS
L f MS
Rx Pr
MS
Station mobile
Station de base
La puissance reçue par la station mobile peut se calculer à partir de la puissance de l’émetteur
en cumulant les gains et les pertes présents dans le canal :
PrMS = PeBTS − Lc − L f BTS + G BTS − L p + GMS − L f MS
(Équation 45)
Le tableau ci-dessous présente le bilan de liaison de ce lien radio.
Bilan de la liaison descendante
Puissance
entrée
l’émetteur
Pertes coupleur
Pertes câbles
Gain antenne
Puissance émise
Eb/No
Débit binaire
Bande passante
Rapport signal à bruit
de PE BTS
Lc
Lf BTS
GBTS
PE = PE BTS- Lc - Lf BTS +GBTS
Eb/No
Fb
B
SNR = Eb/No + 10log(Fb)10log(B)
Densité
de
bruit
No
= 10log(kT)
Récepteur (station
mobile)
Noise figure
NF
Seuil de bruit
N = No + 10log(B)+NF
Gain antenne
GMS
Pertes
Lf MS
Puissance minimum reçue PR = N+SNR+Lf MS-GMS
en entrée du récepteur
Marge de bruit
Mb
Marges
Marge d’environnement
Me
Pertes de propagation maximale
LP max = PE - PR – Mb - Me
Emetteur (station
de base)
A. Boyer
42 dBm
3 dB
3.5 dB
14 dB
49.5 dBm
5 dB
270 Kbits/s
200 KHz
6.3 dB
-174 dBm/Hz
5 dB
-116 dBm
0 dB
3 dB
-106.7 dBm
3 dB
8 dB
145.2 dB
38
Canaux de transmissions bruités
Septembre 2013
La perte de propagation hertzienne maximale est de 145.2 dB. Connaissant le modèle de
propagation adapté à l’environnement, il est possible de déterminer la distance de séparation maximale
entre la station de base et la station mobile (en d’autres termes, la portée de la cellule). Par exemple, en
supposant une propagation en espace libre, la séparation maximale est de 478 km ! Cependant, ce
modèle est irréaliste dans le cas d’une propagation typique dans un réseau cellulaire, où de nombreux
obstacles induisent de fortes atténuations. Dans un milieu urbain, la séparation maximale serait
environ égale à 4 km.
Supposons qu’on cherche à accroître la couverture de cette cellule en conservant une qualité
de service constante (Eb/No constant) et une puissance d’émission constante. Il est nécessaire
d’augmenter la perte de propagation maximale. D’après le bilan de liaison, on peut identifier les
paramètres qui permettraient d’accroître la perte de propagation maximale. Par exemple, en
augmentant l’ensemble des gains ou réduisant les différentes pertes.
VIII.Ce qu’il faut retenir
⇒ Le bruit est un signal aléatoire souvent d’origine thermique, qui fixe le seuil minimum
de réception des systèmes électroniques. Le bruit couplé à un signal dépend de la
bande passante du signal.
⇒ Tout système électronique présente des défauts qui dégradent le signal en lui ajoutant
du bruit et en le distordant par des effets non linéaires.
⇒ On caractérise l’ajout de bruit par un système électronique par le facteur de bruit ou
noise figure.
⇒ Le rapport signal à bruit définit le rapport minimum à respecter entre la puissance du
signal sur la puissance du bruit afin de garantir une réception de qualité du signal.
⇒ Le signal est aussi affecté par les défauts du support de transmission et les
interférences provenant des autres canaux de transmission.
⇒ Les perturbations affectant le canal conduisent à affaiblir le signal et à le distordre.
⇒ Les signaux numériques sont plus robustes au bruit que les signaux analogiques, on
préfère employer le rapport signal à bruit par bit noté Eb/No.
⇒ On mesure la qualité d’un signal analogique par le rapport signal sur bruit, celle d’un
signal numérique par le taux d’erreur binaire (Bit Error Rate BER).
⇒ Dans le cas d’un système de réception d’un signal numérique, le taux d’erreur binaire
est lié au rapport signal à bruit par bit.
⇒ Un bilan de liaison est un bilan de puissance dans un canal de transmission, faisant
apparaître les puissances mises en jeu, les contraintes en terme de seuil de réception,
les gains et les pertes sur l’ensemble du canal. C’est un outil indispensable pour
dimensionner un canal de transmission.
A. Boyer
39
Canaux de transmissions bruités
Septembre 2013
C. Effet du canal sur le débit d’une
transmission numérique
Dans le chapitre précédent, nous nous sommes concentrés sur la dégradation du rapport signal
de l’amplitude du signal transmis, lié à l’atténuation et au bruit apportée par le canal. Cependant, nous
avons ignoré les caractéristiques temporelles du canal. Celles-ci sont liées à un grand nombre d’effets
et leur modélisation reste complexe. Le canal de transmission va modifier la forme temporelle du
signal, qui va s’étaler dans le temps. Dans le cas d’un signal numérique, les symboles transmis sont
émis périodiquement. Si cette période est du même ordre que la constante de temps de la réponse du
canal, des symboles adjacents risquent de se superposer et d’induire des erreurs d’interprétation des
symboles. Cet effet est appelé interférence intersymboles. Les caractéristiques temporelles du canal
vont donc limiter le débit de transmission.
Le but de chapitre est de présenter le phénomène d’interférence intersymboles et de déterminer
la limite de débit de transmission de symboles électriques sur un canal. Les conditions permettant
d’annuler théoriquement le risque d’interférences intersymboles seront aussi présentées. Enfin, la
notion de capacité d’un canal de transmission sera introduite, qui fixera une limite théorique du débit
binaire.
I.
Caractéristiques
transmission
temporelles
d’un
canal
de
1. Retard de transmission
Le temps mis par une information pour parvenir de la source au destinataire peut être un
élément d’appréciation de la qualité de transmission. Il est dû essentiellement au temps de propagation
des ondes électromagnétiques sur un fil ou dans l’espace libre, mais dans certains cas de transmission
de données, il peut aussi être dû à des retards de commutation (commutation par blocs). L’équation 46
donne l’expression de la vitesse de propagation d’une onde électromagnétique dans un milieu
homogène et sans pertes, l’équation 47 permet de calculer le retard dans une ligne.
v=
c0
ε r × µr
(Équation 46)
co = vitesse de la lumière dans le vide = 3e8 m/s
εr = constante diélectrique relative (par exemple 1 dans l’air, 11.6 dans le silicium)
µr = perméabilité magnétique relative (= 1 dans les matériaux non magnétiques)
v = vitesse de propagation du signal
Td =
L
v
(Équation 47)
Td = retard
L = longueur de la ligne
Le retard n’est pas critique dans une communication unilatérale (ex : télévision, fax, …), mais
le devient dès qu’une réponse est attendue dans l’autre sens (ex : conversation téléphonique). Pour des
raisons physiologiques, le retard dans une conversation téléphonique devient sensible dès qu’il atteint
150ms et très pénible dès qu’il dépasse 400ms.
A. Boyer
40
Canaux de transmissions bruités
Septembre 2013
Question : Quel est le retard introduit par une ligne téléphonique entre 2 personnes situées à 1000
km ? Celui dans le cas d’une liaison par satellite géostationnaire ?
Réponse :
2. Transmission conforme – Distorsions linéaires
Même si la transmission conforme ne concerne que les transmissions analogiques, nous allons
quand même aborder ce point. Dans le cas d’une transmission analogique, l’information est contenue
dans la forme du signal qui doit être sauvegardée à tout prix. Pour une transmission conforme, le
signal reçu ne doit différer du signal émis que :
Par un facteur d’affaiblissement constant
Par un retard constant
Il en résulte que l’affaiblissement de la transmission est une constante indépendante de la
fréquence et que le déphasage doit être une fonction linéaire de la fréquence. Si les 2 conditions
précédentes ne peuvent pas être satisfaites, des distorsions linéaires pourront apparaître. On parle en
particulier de :
Distorsion d’affaiblissement si l’affaiblissement varie avec la fréquence
Distorsion de phase si le déphasage ne varie pas linéairement avec la fréquence, c'est-à-dire
si le temps de propagation n’est pas constant.
Ainsi, l’effet de distorsions linéaires sur un signal sinusoïdal émis n’a pas de conséquence
puisqu’en réception on récupère un signal sinusoïdal. Cependant tout autre signal voit sa forme et son
spectre modifiés. Toutefois, aucune nouvelle composante fréquentielle n’apparaît, contrairement aux
cas de distorsions non linéaires.
Remarque : distorsion de phase
Soit un signal dont le spectre est composé de 2 harmoniques de fréquences F1 et F2.
Supposons que ce signal passe à travers un filtre qui ajoute un déphasage à chacune des harmoniques
et par conséquent un retard ou temps de propagation au signal. Pour ne pas déformer le signal, il faut
que le retard des 2 harmoniques soit identique. Pour un signal de période T et de fréquence f,
déphasage Ф et temps de propagation τ sont liés par la relation suivante :
τ=
Φ
Φ
Φ
×T =
=
2π
2π f ω
(Équation 48)
Si on veut que le retard soit indépendant de la fréquence, il faut que le déphasage soit une
fonction linéaire de la fréquence, autrement dit un déphasage linéaire.
si Φ = k × f , τ =
A. Boyer
k× f
k
=
= cons tan te
2π f 2π
41
Canaux de transmissions bruités
Septembre 2013
Cependant, pour une transmission numérique, la conformité n’est pas nécessaire ! En effet, le
signal reçu étant échantillonné et régénéré avant que l’information numérique en soit extraite, la seule
condition est que l’interférence entre symboles ou moments soit nulle.
3. Propagation multi-trajet dans un canal hertzien
Un canal hertzien est le médium le plus soumis aux perturbations. En pratique, un espace libre
dégagé de tout obstacle et aux propriétés uniformes est un cas purement idéal. Dans un canal hertzien
réel, l’onde incidente peut subir les effets suivants :
Des réflexions multiples qui deviennent complexes aux fréquences radio UHF car les
irrégularités des obstacles sont à l’origine de différences de phase entre les différents rayons
réfléchies. Ces réflexions multiples créent différents trajets, de longueurs variées, entre
l’émetteur et le récepteur entraînant un étalement temporel. On parle de propagation multi
trajet.
Des diffusions, c'est-à-dire des réflexions pour lesquelles il n’existe aucune direction
privilégiée. Elles sont provoquées par exemple par des gouttelettes d’eau en suspension
Des diffractions qui interviennent dès que les dimensions des obstacles deviennent
comparables à la longueur d’onde. Ce problème est majeur pour les ondes UHF.
Des absorptions par l’eau et les gaz de l’atmosphère, l’atténuation variant avec la fréquence
En raison des réflexions, réfractions et diffusions des ondes électromagnétiques dans des
environnements contenant de nombreux obstacles (milieu indoor par exemple), le signal transmis
atteint souvent le récepteur par plusieurs chemins, créant le phénomène d’atténuation multitrajet (ou
multipath fading). Les différentes composantes du signal provenant des chemins directs et indirects se
recombinent avec des amplitudes, des phases et des instants d’arrivée différents, et produisent une
version distordue du signal original. Lorsque la transmission se fait sur un canal à bande étroite,
l’enveloppe du signal reçu subit de fortes fluctuations d’amplitude. On parle d’évanouissement
rapide ou sélectif, décrit par la figure 34. Dans le cas d’un canal à bande large, une série d’impulsions
atténuées et retardées apparaissent pour chaque impulsion transmise, à la manière d’un écho.
Signal reçu
Impulsion
transmission
Diffusion /
diffraction
seuil
fade
Trajets multiples
temps
réflexion
Fonction de
transfert
seuil
fade
fréquence
Fig. 34 - Phénomène de trajets multiples et évanouissement rapide d’un signal radio
Leurs causes sont multiples, elles sont liées aux trajets multiples empruntés par les ondes, mais
aussi à l’effet Doppler résultant du déplacement du mobile par rapport à l’émetteur. Ces 2 phénomènes
créent des interférences entre les signaux incidents qui peuvent devenir constructives ou destructives.
Dans ce cas, une perte très importante voire totale du signal est à craindre pendant des durées qui vont
de quelques µs à quelques secondes. Parallèlement, cela se traduit par un évanouissement affectant
quelques bandes de fréquence étroites. De plus, contrairement aux liaisons filaires et par fibre optique,
une liaison radio est un canal dont les caractéristiques ne sont pas stationnaires dans le temps. Par
A. Boyer
42
Canaux de transmissions bruités
Septembre 2013
conséquent, ce phénomène est un des problèmes les plus sérieux en télécommunications car les
atténuations sont importantes, difficile à modéliser et à combattre efficacement.
Les figures ci-dessous présentent plusieurs exemples de réponses impulsionnelles mesurées en
milieu indoor ou en environnement urbain. On voit clairement l’étalement temporel de la réponse, qui
peut atteindre plusieurs centaines de ns en milieu indoor, plus dizaines de µs en milieu urbain, et
l’apparition de nombreux échos de l’impulsion initial.
Fig. 35 – Exemples de réponses impulsionnelles mesurées en milieu indoor (H. Hashemi, « The Indoor
Radio Propagation channel », Proceedings IEEE, vol. 81, no 3, July 1993)
Fig. 36 – Exemple de réponses impulsionnelles mesurées en milieu urbain (J. B. Andersen, T. S.
Rappaport, S. Yoshida, « Propagation Measurements and Models for Wireless Communications
Channels», IEEE Communications Magazine, January 1995)
4. Modélisation de la réponse temporel d’un canal de transmission
La réponse temporelle d’un canal réelle reste complexe, souvent aléatoire et non stationnaire.
Il est possible de les modéliser en un point donné de l’espace par un filtre linéaire variable dans le
temps, caractérisé par une réponse impulsionnelle h(t) dont les coefficients varient dans le temps (Fig.
37). Le canal peut aussi être modélisé par sa fonction de transfert H(f).
y (t ) = h(t ) ∗ x(t )
Bruit et
perturbations n(t)
1001
N −1
h(t ) = ∑ ak (t )δ (t − tk ) exp( jθ k (t ))
k =0
+
Signal numérique
émis x(t)
+
Réponse
impulsionnelle h(t)
Signal numérique
reçu y(t)
Canal de transmission
Fig. 37 – Modèle mathématique d’un canal de transmission
A. Boyer
43
Canaux de transmissions bruités
Septembre 2013
II. Interférences inter symbole – diagramme de l’oeil
1. Définition
Le phénomène d’interférence intersymbole (ISI ou IES) consiste en un chevauchement
partiel entre les symboles adjacents, comme le montre la figure 38. La valeur du symbole reçu à
l’instant T est perturbée par les symboles reçus précédemment. Le symbole reçu peut alors être
confondu avec un autre et introduire des erreurs d’interprétation par le récepteur. L’interférence inter
symbole est la principale source d’erreur binaire dans les communications numériques.
Signal à émettre
transmission
Signal reçu
temps
temps
Fig. 38 - Etalement d’un signal numérique après transmission
Pour améliorer la fiabilité d’une communication numérique, il convient de minimiser le risque
d’apparition d’IES. Comme nous le verrons dans les chapitre C et F, la théorie de l’information prévoit
que ces interférences apparaissent si les conditions de Nyquist ne sont pas respectées. Si ces
conditions sont respectées, la probabilité qu’il existe de l’interférence inter-symbole tend vers 0.
2. Condition d’apparition d’interférences intersymboles
Il est possible de savoir si un canal pourra présenter un risque important d’apparition
d’interférence inter symbole en étudiant sa réponse impulsionnelle discrète. Soit le canal de
transmission décrit à la figure 39, présentant un filtre émetteur, un support de transmission puis un
filtre récepteur.
n(t)
Filtre
émetteur
x(t)
Support de
transmission
+
z(t)
y(t)
Filtre
récepteur
Fig. 39 – Modèle de canal de transmission
Supposons qu’un émetteur transmette une séquence binaire ai sous la forme d’un signal x(t),
où s(t) représente la réponse impulsionnelle du filtre émetteur et Ts la période des symboles binaires :
x(t ) = ∑ ai s (t − iTS ) (Équation 49)
i
Le signal est ensuite transmis à travers le canal de transmission, caractérisé par une réponse
impulsionnelle c(t) et qui ajoute un bruit n(t). Le signal en entrée du récepteur z(t) peut s’écrire sous la
forme :
z (t ) = x(t ) * c(t ) + n(t ) (Équation 50)
Ce signal passe ensuite à travers un filtre de réception, dont la réponse impulsionnelle est
notée r(t). Le signal en sortie du filtre de réception peut s’écrire :
y (t ) = r (t ) * z (t ) (Équation 51)
y (t ) = ∑ a i p (t − iTS ) + w(t ) (Équation 52)
i
A. Boyer
44
Canaux de transmissions bruités
Septembre 2013
où w(t) représente le bruit en sortie du filtre et p(t) la réponse impulsionnelle du système
composé du canal et des filtres d’émission et de réception. Finalement, le signal de sortie est
échantillonné de manière synchrone avec l’émetteur tous les ti = i.Ts et peut s’écrire :
∞
y (ti ) = ai p (0 ) + ∑ a k p ((i − k )TS ) + w(ti )
(Équation 53)
k ≠i
Le premier terme représente la contribution du ieme symbole transmis, c'est-à-dire celui qu’on
cherche à recevoir sans erreurs. Le second terme représente l’effet résiduel des symboles
précédemment transmis sur le décodage du ieme symbole. Cet effet est appelé interférence inter
symboles. En l’absence de bruit et d’IES, on ne récupèrerait que le premier terme et aucune erreur
d’interprétation ne serait possible.
Plaçons nous dans le cas où le rapport signal à bruit est important, le terme w(ti) peut être
négligé. Intéressons nous aux conditions sur la réponse impulsionnelle p(t) qui permettent d’annuler
l’IES.
Remarque :
Pour qu’il n’y ait pas d’IES, il faut que les symboles ne chevauchent pas. Une première
condition simple pour annuler l’IES est d’avoir un support de transmission dont la durée de
transmission (c’est à dire la durée de la réponse impulsionnelle) est inférieure à la période binaire.
Cependant, cette condition est rarement rencontrée dans les systèmes de transmission. Ainsi, en raison
des longueurs des câbles téléphoniques et des désadaptations, l’IES s’étale sur plusieurs millisecondes.
Dans le cas d’un débit de symboles de 2400 Bauds, l’IES s’étale sur plusieurs dizaines de symboles.
A partir de l’équation 53, il est possible d’énoncer la condition sur p(t) pour laquelle l’IES
s’annule. Cette condition est appelée critère de Nyquist en temps :
 p (0 ) pour i = k
p ((i − k )TS ) = 
 0 pour i ≠ k
Si
cette
( )
condition
()
est
⇔
vérifiée,
p (t ) = 0 pour t = TS , 2TS , 3TS ...
le
signal
en
sortie
du
filtre
(Équation 54)
de
réception
s’écrit : y t i = ai p 0 . Cette condition indique que tous les symboles doivent s’annuler aux instants
d’échantillonnage des autres symboles. Le filtre p(t), qui représente le canal en entier (filtre
d’émission, support de transmission, filtre de réception) est dit canal de Nyquist s’il vérifie cette
condition.
La figure 40 illustre la condition de Nyquist d’apparition d’interférences intersymbole. A
l’instant d’échantillonnage suivant le retour à ‘0’ de l’impulsion, le signal reçu qui a traversé le canal 2
est bien revenu à l’état 0, le risque de confondre ce symbole avec un autre est quasi nul. Cependant,
dans le cas du canal 1, le signal n’est pas encore revenu à 0 et son état se situe sur une zone
indéterminée. En présence de bruit supplémentaire, cet état pourra être interprété par la récepteur
comme un ‘1’ logique, provoquant une erreur binaire.
A. Boyer
45
Canaux de transmissions bruités
Septembre 2013
‘1’
≠0
Transmission à
travers canal 1
Impulsion
élémentaire
Indéterminé
‘0’
Tm
Tm
Risque d’ISE
Tm
temps
‘1’
Transmission à
travers canal 2
Indéterminé
=0
Tm
‘0’
Tm
Pas d’ISE
Fig. 40 - Condition d’apparition d’IES – Annulation du signal reçu aux instants d’échantillonnage
3. Diagramme de l’oeil
Cette condition d’annulation de l’IES est facilement vérifiable à l’aide d’un diagramme de
l’œil. Le diagramme de l’œil est un outil graphique permettant de visualiser la présence d’IES
affectant une communication et de qualifier la qualité du signal numérique reçu. Le principe consiste à
envoyer à travers un canal de transmission une série de symbole (binaire) connu, de mesurer la
réponse à la sortie de canal et de superposer les tracés du signal reçu sur un multiple de la durée du
symbole. On réalise donc la superposition des intervalles [i×Ts; (i+1)×Ts]. Ce type de diagramme peut
être généré à l’aide d’un oscilloscope synchronisé sur le débit du signal. La ressemblance du résultat
graphique avec un œil a donné le nom à ce diagramme. La figure 41 donne un exemple de signal
binaire et le diagramme de l’œil en résultant.
Fig. 41 - Tracé d’un diagramme de l’œil
Le diagramme est un outil graphique très intéressant car sa lecture fournit des informations sur
les performances du canal de transmission :
L’ouverture verticale ou la hauteur de l’œil donne la marge en terme de bruit sur les
niveaux. Plus l’ouverture est faible, plus la présence de bruit pourra causer une erreur de
décision sur le niveau.
L’ouverture horizontale ou la largeur de l’œil donne la marge en terme d’écart temporel
entre l’instant d’échantillonnage idéal et tout autre temps d’échantillonnage. L’instant
d’échantillonnage idéal, c'est-à-dire le moment où la probabilité d’erreur est minimisée, se
situe à l’instant où l’œil présente sa plus grande ouverture.
A. Boyer
46
Canaux de transmissions bruités
Septembre 2013
La pente de fermeture ou d’ouverture donne la sensibilité aux erreurs temporelles.
De manière générale, plus l’œil est fermé, plus l’effet de l’IES est grave. En pratique, le
diagramme de l’œil permet :
D’ajuster un égaliseur afin d’annuler l’IES
D’ajuster l’horloge locale du régénérateur afin d’échantillonner le signal reçu au moment où
l’IES s’annule
De contrôler la qualité du signal reçu durant la réception
La figure 42 présente un exemple de diagramme de l’œil pour un signal binaire faiblement
bruité. La figure 43 présente le digramme de l’œil obtenu pour un signal bruité et trop rapide par
rapport à la bande passante du canal.
T
Fig. 42 - Diagramme de l’œil d’un signal peu bruité
T
Fig. 43 - Diagramme de l’œil d’un signal bruité et rapide
Question : À partir des figures 42 et 43, dire dans quel cas on a un fort risque d’IES et indiquer quel
est l’instant idéal pour échantillonner le signal.
Réponse :
A. Boyer
47
Canaux de transmissions bruités
Septembre 2013
III. Limite théorique du débit de transmission de symboles
électriques
Si il est en principe possible de transmettre n’importe quel type et n’importe quelle quantité
d’information à travers un canal quelconque, à condition d’y mettre le temps, et de mettre en œuvre
des méthodes de traitement de signal (modulation, codage), le débit d’information transmissible en
« temps réel » à travers un canal donné est strictement limité par ses caractéristiques propres. Dans le
cas d’une transmission numérique, le récepteur doit pouvoir distinguer deux symboles électriques
successifs pour interpréter correctement le contenu du signal. Le canal doit donc disposer d’une
certaine résolution en amplitude afin de distinguer deux états adjacents. Le bruit de fond va fixer la
limite à la résolution en amplitude. Le récepteur dispose aussi d’une certaine résolution temporelle.
Celles-ci sont prévues dans le cadre de la théorie de l’information définie par Shannon.
Avant d’établir la limite théorique de débit de transmission de symboles électriques, il est
nécessaire de présenter quelques éléments de théorie de l’information.
1. Quelques éléments de la théorie de l’information
Le but de ce cours n’est pas de présenter de manière exhaustive la théorie de l’information,
mais de comprendre ce qu’elle apporte comme contraintes pour celui qui cherche à dimensionner un
canal. La théorie de l’information a été proposée par Claude Shannon en 1948, qui cherchait à évaluer
les performances optimales des systèmes de télécommunications en présence de perturbations de
nature aléatoire. Ses travaux ont mis en évidence plusieurs résultats fondamentaux que nous pouvons
résumer ainsi :
Shannon montre qu’il est possible de transmettre une information sans erreur quel que soit
les perturbations ou le bruit de fond existants, à condition d’employer une représentation
appropriée de l’information, c'est-à-dire en utilisant un codage approprié. Même si Shannon
ne propose pas de codage permettant d’atteindre cette condition, il démontre que de tels
codes existent et permettent de se rapprocher des conditions de transmission sans erreur.
Shannon fournit ensuite un ensemble de grandeurs permettant de quantifier l’information
contenue dans un message.
Shannon donne une contrainte sur le débit d’informations transmises en fonction des
caractéristiques du canal, et donne ainsi des limitations sur la bande passante du canal
Enfin, il donne une contrainte sur le nombre de valeurs différentes prise par un signal en
fonction du rapport signal sur bruit.
2. Calcul de la quantité d’information d’un message binaire
Quantifier l’information contenue dans un message n’est pas trivial car l’information est une
notion abstraite. L’information peut se définir ainsi : elle représente « l’effet de surprise » que possède
un message. Il convient maintenant de mettre en équations cette définition.
Nous nous intéressons ici à l’information véhiculée par une source discrète ou numérique. Soit
un message de k caractères appartenant à un alphabet composé de n caractères. L’information que
contient un caractère dépend de sa probabilité d’apparition P. On peut calculer la quantité
d’information I (exprimée en Shannon) contenu dans un caractère par la formule suivante :
A. Boyer
48
Canaux de transmissions bruités
Septembre 2013
I ( sh ) = − log n ( P ) = −
ln ( P )
ln ( n )
(Équation 55)
Nous allons nous placer dans le cas particulier de messages binaires. La quantité précédente
devient :
I ( sh ) = − log 2 ( P ) = −
ln ( P )
ln 2
(Équation 56)
Ainsi, si P=1, la quantité d’information est nulle puisqu’on annule l’effet de surprise de
l’apparition de ce caractère. Plus la probabilité d’apparition d’un caractère est faible, plus la quantité
d’information est grande. Pour calculer la quantité d’information totale d’un message binaire, on
utilise la notion de quantité d’information moyenne d’une source Itot :
n
I tot = ∑ − kPi log 2 ( Pi ) (Équation 57)
i =1
La quantité d’information moyenne par caractère émis par la source est définie par l’entropie
de la source notée H :
n
H ( sh / caractère) = −∑ Pi log 2 ( Pi ) (Équation 58)
i =1
L’entropie sera maximum si le message est purement aléatoire, c'est-à-dire quand l’effet de
surprise sera maximal. Pour traduire l’écart entre l’entropie d’une source et l’entropie maximale
possible, on définit la redondance d’une source à l’aide de l’équation 59. Il s’agit d’une notion
fondamentale pour le codage de source, nous y reviendrons.
R (%) = 1 −
H
H max
(Équation 59)
3. Cadence de transmission de l’information dans un canal
Rappel : notion de symbole ou de moment
On appelle moment l’intervalle de temps pendant lequel le symbole électrique codant
l’information est physiquement transmis sur le canal. Le symbole peut être un potentiel électrique (par
exemple les niveaux électriques haut ou bas représentant 2 états binaires), un état de phase ou de
fréquence pour un signal modulé … Lorsqu’un signal binaire est transmis, le symbole transmis est un
bit et le moment correspond à la période binaire. Un symbole peut aussi être codé par plusieurs bits.
Par exemple, supposons que l’information transmise soit représentée par 4 niveaux de tension
possibles. Dans ce cas, ces 4 niveaux peuvent être codés par 2 bits. Le moment est donc égal à la durée
de 2 bits. Cette technique permet de transmettre plusieurs bits à l’aide d’un seul symbole.
La cadence de transmission de l’information dépend du nombre de symboles émis par unité de
•
temps. On définit le débit de moments M comme le nombre de symboles par unité de temps et il
s’exprime en bauds. Dans une transmission numérique, chaque symbole reste constant durant une
durée constante TM appelée la durée des moments. On calcule le débit de moments à l’aide de
l’équation 60, qui est relié à la vitesse de variation des signaux sur un canal.
•
M (Bd ) =
1
TM
(Équation 60)
Dans le cas d’une information numérique, un symbole est codé à l’aide d’un certain nombre de
bits. Le choix de ce nombre peut se calculer à l’aide de la quantité de décision D, qui dépend de la
taille n de l’alphabet employé. Il faut par exemple 8 bits pour définir 256 niveaux de gris sur une
image noir et blanc.
A. Boyer
49
Canaux de transmissions bruités
Septembre 2013
D (bits ) = log 2 ( n ) (Équation 61)
Le débit binaire de la source ou débit de la source est donc le produit du débit de moments
(le nombre de symbole par unité de temps) par la quantité de décision (le nombre de bits pour coder un
symbole).
•
•
D (bits / s ) = M × D =
log 2 (n )
(Équation 62)
TM
Plus le débit binaire sera important et plus la quantité d’information transmise sera importante.
Néanmoins, tout canal réel est limité à une valeur maximale de débit, appelée capacité du canal. La
connaissance de cette capacité est fondamentale car elle va fixer des contraintes sur la bande passante
du canal de transmission et sur le rapport signal à bruit minimal à respecter.
4. Premier critère de Nyquist - Résolution dans le temps
Nous allons considérer un canal de transmission sans bruit, nous ne nous intéressons qu’à son
effet temporel et sa limite à transmettre rapidement un signal. Tout canal de transmission possède une
certaine inertie et il n’est pas possible de faire varier les paramètres d’un signal (électrique, lumineux)
à une vitesse infinie. On peut assimiler un canal à un filtre passe-bas. De manière empirique, elle est
limitée au moins par le temps de montée du signal Tr, ce qui va imposer une limite inférieure à la
durée des moments TM, comme le montre la figure 44.
Tm min = Tr
•
⇔ M max =
1
(Équation 63)
Tr
Signal reçu
Tr = temps de montée
TM = durée d’un moment
Signal émis
Tr=TM
temps
Fig. 44 - Limitation temporelle de l’établissement d’un signal sur un canal
Si on ne respecte pas la condition précédente, il est possible que deux symboles consécutifs
soient confondus, créant alors une interférence intersymbole. Le temps de montée d’un signal transmis
dans un canal est lié à la bande passante de ce canal. Le canal de transmission doit donc présenter une
bande passante minimale pour faire passer un signal sans risques d’interférences intersymboles.
Reprenons le critère de Nyquist pour déterminer cette condition sur la bande passante du
canal. A partir de l’équation 48, le critère de Nyquist présenté à l’équation 54 peut aussi être énoncé
dans le domaine fréquentiel en appliquant une transformée de Fourier sur la réponse impusionnelle
discrète du canal de transmission. Le signal reçu échantillonné tous les t = Ts peut être vu comme un
peigne de Dirac. La transformée de Fourier de l’égalité de l’équation 53 peut alors s’écrire :
∞
∞
∑ p((i − k )T ) = p(0) ∑ p(k )δ (t − kT ) = p(0)δ (0)
k = −∞
S
Transformée de Fourier :
A. Boyer
S
k = −∞
1
TS
∞

k = −∞

k 
 = p(0)
S 
∑ p(k )δ  f − T
50
Canaux de transmissions bruités
+∞

k = −∞

Septembre 2013
k 
 = p (0 )TS
S 
∑ P f − T
(Équation 64)
La figure 45 présente une allure du spectre de la réponse impulsionnelle discrète du canal. Le
spectre présente le spectre de la réponse impulsionnelle du canal P(f), répété infiniment tous
1
les FS =
, où Fs est la fréquence d’échantillonnage du signal reçu. B représente la bande passante
TS
du canal de transmission.
P(f+2FS)
−
P(f-FS)
2
TS
−
P(f)
1
TS
0
2B
P(f-FS)
P(f-2FS)
1
TS
2
TS
fréquence
Fig. 45 – Spectre de la réponse impulsionnelle discrète du canal de transmission
L’égalité de l’équation 59 n’est respectée que si le spectre est constant quelque soit la
fréquence. Cette égalité ne peut être respectée que si toutes les répétitions de P(f) se chevauchent les
unes les autres. Il est possible de montrer que cette condition peut être réalisé si :
B>
1
⇔ FS < 2 B
2TS
(Équation 65)
Cette condition est similaire à la condition de Nyquist, mais vue dans le domaine fréquentiel.
Cette condition fixe la bande passante minimale que doit présenter un canal de transmission pour faire
passer sans erreurs un message binaire avec un débit de symboles donné, ou inversement, le débit de
symbole maximal pour un canal de bande passante donné.
On peut montrer que pour un canal idéal représenté par un filtre passe bas de largeur de bande
B, le temps de montée et la largeur de bande et le temps de montée sont liés par la relation suivante
(cf. annexe D) :
B × Tr = 0.5
(Équation 66)
Cette condition permet d’énoncer le théorème de Nyquist (1928) :
« Pour un canal passe-bas idéal de largeur de bande B, le passage dans le canal n’amène
aucune interférence entre moments si et seulement si : »
•
•
M ≤ M max =
1
TM min
=
1
= 2 × B (Équation 67)
Tr
Ce théorème a surtout un intérêt théorique puisqu’il considère un canal passe-bas idéal, ce qui
est loin d’être représentatif d’un canal réel. Cependant, ce théorème donne une limite absolue à la
rapidité d’une transmission dans un canal réel. Ainsi, en pratique, on prend souvent comme limite
minimale pour la période d’un symbole la relation suivante : TM min = 2 × Tr .
En pratique, on retrouve la relation suivante pour un canal réel :
B × Tr = 0.35 ou 0.4 (Équation 68)
Cette relation permet d’énoncer le critère de Nyquist élargi :
•
M≤
A. Boyer
1
TM min
=
1
= 1.25 × B (Équation 69)
2 × Tr
51
Canaux de transmissions bruités
Septembre 2013
Cette relation empirique donne une limite en terme de débit dans les canaux de transmission
usuels plus réaliste que celui prévu par le théorème de Nyquist. Elle signifie qu’on peut transmettre
1.25 Bd par Hertz de largeur de bande ou, inversement, qu’il faut consacrer 0.8Hz à chaque symbole
que l’on souhaite transmettre. Le critère de Nyquist et le critère de Nyquist élargi fournissent des
formules simples pour déterminer la bande passante nécessaire à donner à un canal de transmission
pour autoriser un débit binaire donné. Le critère de Nyquist est aussi appelé critère de Nyquist en
fréquence et permet de déterminer si une transmission numérique en bande de base peut se faire sans
IES.
Remarque : canal passe-bande
Nous avons considéré un canal passe-bas, qui représente une transmission dite en bande de
base. Mais que se passe t-il lorsque le signal est modulé et transposé en fréquence (voir chapitre
suivant sur les modulations) ? Le signal est alors transposé autour d’une fréquence porteuse avec deux
bandes latérales identiques « à gauche et à droite » de la fréquence porteuse. La bande passante
occupée est alors égale à 2*B. Comment se fait-il que les bandes passantes des versions bande de base
et modulée du signal soit différente alors que le débit de symboles reste inchangé ? Il ne faut pas
oublier que la bande passante est toujours mesurée sur l’axe positif des fréquences. Si on observe le
spectre du signal en bande de base, celui-ci occupe la bande [-B ; +B]. La largeur de la bande occupée
est donc égale à 2*B ! Si on souhaite conserver les 2 bandes latérales du signal, la bande passante du
canal devra donc être deux fois plus grande que celle du canal d’une transmission en bande de base.
On peut remarquer que certaines modulations permettent de supprimer une des bandes latérales.
Pour résumer, le critère de Nyquist fixe une limite au débit de symboles transmis en fonction
de la bande passante du canal. La bande passante du canal doit donc être choisie pour satisfaire au
critère de Nyquist lorsqu’on cherche à transmettre un débit de symboles donné. Dans le cas où l’on
transmet un signal binaire (un bit est alors un symbole élémentaire), le débit binaire ne pourra jamais
être supérieur à 2 fois la bande passante (ou 1.25 fois la bande passante dans le cadre du critère élargi).
Cela pose un très gros souci à l’ingénieur télécom qui cherche à transmettre le débit le plus
grand possible sur la bande passante la plus étroite possible. La solution est fournie par le codage. Par
exemple, en codant les symboles transmis par plusieurs bits. Si un symbole est codé par N bits, alors le
débit binaire maximale pouvant être transmis dans un canal idéal de bande passante B est égal à
2*N*B. Pour accroître le débit binaire dans le cas d’une transmission à bande passante limitée, il suffit
donc d’accroître le nombre de symboles possibles pour augmenter le nombre de bits représenté par un
symbole.
Ce nombre est bien entendu limité par la quantité de bruit qui se superpose au signal reçu.
Comme nous l’avons vu dans le chapitre précédent, le bruit limite la résolution en amplitude du canal,
c'est-à-dire la capacité de différencier plusieurs symboles. La performance d’un canal en terme de
débit binaire dépend donc de sa bande passante et de sa résolution en amplitude. Cette performance
s’appelle capacité d’un canal.
IV. Capacité d’un canal de transmission
Supposons qu’on dispose du canal de transmission comme celui présenté à la figure 46. Celuici présente une bande passante finie B et est soumis à diverses perturbations, qu’on modélise comme
un bruit blanc gaussien (canal AWGN). Le récepteur au bout du canal impose une contrainte sur le
rapport signal sur bruit.
A. Boyer
52
Canaux de transmissions bruités
Septembre 2013
Bruit additif blanc
et gaussien
Canal de transmission idéal
de largeur de bande B
S/N
sortie
Fig. 46 - Canal de transmission bruité
Comme nous l’avons vu dans les deux paragraphes précédents, il nous faut vérifier les deux
conditions suivantes :
le débit de moments doit respecter le critère de Nyquist pour annuler l’interférence
intersymbole
la quantité de décision par moments doit respecter l’inégalité donnée par la résolution en
amplitude du canal, afin de différencier les différentes valeurs prises par un symbole.
A partir de ces deux conditions, il est possible de déduire la capacité C du canal, c’est à dire le
débit binaire maximal que peut transmettre le canal. Celle-ci est donnée par l’équation 70.
•
•
S

C (bits / s ) = D m max = Dm max × M max = B × log 2  1 + 
N

(Équation 70)
Cette capacité définit la limite maximum pour le débit binaire que peut supporter le canal, quel
que soit le codage canal employé. Une transmission binaire peut se faire théoriquement avec une
probabilité d’erreur quasi nulle si le débit binaire respecte la condition suivante :
•
Dm ≤ C
(Équation 71)
Si cette condition n’est pas respectée, un risque d’apparition d’interférences entre symboles est
à craindre. Cependant, en pratique, on constate que la probabilité d’erreur ne peut pas tendre
totalement vers 0 et il n’est pas possible de la réduire autant qu’on le voudrait. Dans le cas d’une
transmission numérique, même en respectant la condition précédente, plus la contrainte en terme de
taux d’erreur binaire est faible, plus il faudra réduire le débit binaire.
Question : Discuter de l’interchangeabilité de la largeur de bande B et du rapport S/N.
Réponse :
A. Boyer
53
Canaux de transmissions bruités
Septembre 2013
V. Ce qu’il faut retenir
⇒ Les caractéristiques du canal conduisent à affecter les caractéristiques temporelles du
signal transmis, en le retardant, en l’étalant dans le temps, voire à faire apparaître de
multiples versions d’un même symbole dans le temps (propagation multitrajets).
⇒ Le comportement temporel d’un canal stationnaire peut être modélisé par sa réponse
impulsionnelle, son comportement fréquentiel par sa fonction de transfert.
⇒ Dans le cas d’un signal numérique, ces effets peuvent conduire à des interférences
inter symboles, c'est-à-dire le chevauchement des symboles successifs, et donc à des
erreurs d’interprétation.
⇒ Le diagramme de l’œil est un outil graphique qui permet de mesurer la dégradation en
amplitude et temporelle apportée par le canal.
⇒ Théoriquement, il est possible d’annuler l’interférence intersymbole d’un canal s’il
s’agit d’un canal de Nyquist, c’est àdire que sa réponse impulsionnelle respecte le
critère de Nyquist dans le temps.
⇒ Dans le cadre de la théorie de l’information, le théorème de Nyquist définit le débit de
moments maximal admissible dans un canal idéal.
⇒ Le débit de données transmissibles en temps réel à travers un canal de transmission est
limité par ses caractéristiques propres. Le récepteur doit être en mesure de distinguer
deux symboles successifs. Il doit disposer d’une résolution suffisante en amplitude
(liée au bruit) et en temps (lié à l’inertie du canal).
⇒ La capacité d’un canal définit le débit binaire maximal que peut transmettre un canal
afin de garantir une interférence inter symboles quasi nulle. La capacité dépend de la
bande passante du canal et du rapport signal à bruit.
A. Boyer
54
Canaux de transmissions bruités
Septembre 2013
D. Impact du bruit sur un signal modulé
La transmission de l’information sur de longues distances se fait généralement à l’aide de
signaux modulés. La modulation permet d’adapter les caractéristiques du signal au medium de
transmission. Jusque-là, nous avons présenté l’effet du bruit et des caractéristiques du canal sur
l’apparition d’erreur dans le cadre d’un signal binaire émis en bande de base, sans aucune modulation.
Dans ce chapitre, nous allons déterminer quelle est l’influence de la modulation sur la robustesse au
bruit. En outre, comme les bandes de fréquence allouées aux télécommunications sont étroites, il est
important de se poser la question de l’occupation spectrale d’un signal modulé. La bande passante
étant une « ressource rare », celle-ci constituera une limite pour le débit de transmission. Selon la
technique de modulation employée, nous verrons qu’il sera possible d’utiliser cette ressource
fréquentielle efficacement, c'est-à-dire transmettre un débit binaire plus important pour une bande
passante donnée.
I.
Modulation et démodulation
1. Définition
La transmission des signaux se fait habituellement dans leurs bandes de fréquences initiales.
On parle de transmission en bande de base. Parfois, la transmission en bande de base n’est pas
optimale voire impossible car le canal présente de mauvaises caractéristiques à ces fréquence (bruit
important, antennes d’émission/réception trop larges …) ou il est impossible de partager le canal entre
plusieurs utilisateurs sans que ceux-ci interfèrent. Dans ce cas, une modulation est nécessaire car elle
permet de transposer le signal initial de la bande de base à une bande de fréquence plus haute, sans
modifier le contenu informatif du message, comme le décrit la figure 47 (dans ce qui suit, seul la partie
positive de l’axe des fréquences est représenté). Le signal informatif est appelé signal modulant, il
modifie en temps réel une ou plusieurs caractéristiques (amplitude, fréquence, phase) d’un autre signal
simple appelé porteuse. La porteuse est en général un signal sinusoïdal. Le signal résultant de la
modulation est appelé signal modulé. L’opération inverse de la modulation est appelée démodulation.
Transposition de fréquence
Modulation
Signal en bande
de base
Signal modulé
0
Fporteuse
-Fsignal
+Fsignal
Fréquence
Fig. 47 - Modulation et transposition de fréquence
De nombreuses techniques de modulation existent, beaucoup ont été mise au point ces
dernières années avec le développement des systèmes de télécommunication mobiles. Plusieurs
critères permettent de sélectionner une technique de modulation. Les modulations se différencient par
leurs occupations spectrales et par la puissance à émettre, ainsi que par leur capacité à minimiser la
probabilité d’erreur. L’objectif de l’ingénieur concevant un système de transmission est de réduire
l’occupation spectrale, la puissance d’émission et la probabilité d’erreur. La modulation choisie doit en
plus être résistante vis-à-vis des défauts du canal de transmission. En outre, le coût du système de
A. Boyer
55
Canaux de transmissions bruités
Septembre 2013
modulation/démodulation ne doit pas être négligé. En effet, plus on cherchera à optimiser le contenu
spectral ou la puissance à émettre, plus les systèmes à réaliser seront complexes et par conséquent
coûteux.
2. Opération de transposition de fréquence
La modulation et la démodulation sont basées sur une opération non linéaire, généralement
une multiplication, entre le modulant et la porteuse (Fig. 48 et 49).
Modulation
Multiplieur
Modulant
UM
Signal
modulé
UE
Bandes latérales
FM
Porteuse
UP
U E (t ) = U M (t )U P (t ) = A cos(ω M t ) cos(ω P t )
A
[cos(ω M t + ω P t ) + cos(ω P t − ω M t )]
2
A
U E (t ) = [cos((ω M + ω P )t ) + cos((ω P − ω M )t )] F1
2
Fréquence
FP-FM FP FP+FM
Modulation
Bandes latérales
U E (t ) =
F2
FP-F2
FP
FP+F2 Fréquence
FP+F1
FP-F1
Fig. 48 - Principe de la transposition de fréquence par multiplication de deux signaux
Démodulation
filtrage
Multiplieur
UE
Signal
modulé
UR
Signal
démodulé
FM
FP-FM FP FP+FM
Démodulation
UP
Porteuse
filtrage
F1
U D (t ) = U E (t )U P (t )
Fréquence
2FP-FM 2FP+FM
F2 FP-F2
FP
FP-F1
FP+F2
FP+F1
Fréquence
A
[cos((ω M + ω P )t ) + cos((ω P − ω M )t )]× cos(ω P t )
2
A
A
U D (t ) = cos((ω M + ω P )t ) cos(ω P t ) + cos((ω P − ω M )t ) cos(ω P t )
2
2
A
A
U D (t ) = [cos((ω M + 2ω P )t ) + cos((ω P + ω M − ω P )t )] + [cos((2ω P − ω M )t ) + cos((ω P − ω P + ω M )t )]
4
4
A
A
A
U D (t ) = cos(ω M t ) + cos((ω M + 2ω P )t ) + cos((2ω P − ω M )t )
2
4
4
U D (t ) =
Fig. 49 - Principe de la démodulation
3. Les différentes types de modulations
On distingue deux types de modulations : les modulations analogiques et les modulations
numériques. Dans une modulation analogique, le signal modulant est un signal analogique, un ou
A. Boyer
56
Canaux de transmissions bruités
Septembre 2013
plusieurs paramètres de la porteuse sont modifiés de manière continue. Dans une modulation
numérique, le signal modulant est un signal numérique synchrone, qui a subi un échantillonnage et une
quantification. La porteuse voit ses propriétés modifiées à chaque période binaire du signal modulant
et prendre un ensemble fini de valeurs. Les grandeurs usuellement modifiées pour réaliser une
modulation sont :
L’amplitude
La fréquence
La phase
La durée
Le tableau 2 décrit les modulations couramment employées.
Forme de la
Paramètre
Type de modulation
porteuse
modulé
AM (mod. d’amplitude), SSB ou BLU (mod. à
Amplitude
bande de base unique)
Sinusoïde
Fréquence
FM (mod. de fréquence)
Phase
ФM (mod. de phase)
Modulation
analogique
Amplitude
PAM (mod. d’impulsions en amplitude)
Fréquence
PFM (mod. d’impulsions en fréquence)
Impulsions
Phase
PPM (mod. d’impulsions en position)
Durée
PWM (Pulse Width Modulation)
ASK (mod. d’amplitude discrète), OOK (mod.
Amplitude
tout ou rien)
Sinusoïde
Fréquence
FSK (Frequency Shift Key)
Modulation
Phase
PSK (Phase Shift Key)
numérique
PCM (Pulse Coded Modulation
Signal
DPCM (Differential Pulse Coded Modulation)
code
d’horloge
∆M (Delta Modulation)
A∆M (Adaptative Delta Modulation)
Tableau 2 – Exemples de modulation analogique et numérique
Les modulations analogiques sont fortement altérées par le bruit et les distorsions introduites
par le canal. Les modulations numériques étant bien plus robustes que les modulations analogiques,
elles sont massivement employées dans les systèmes de télécommunications modernes. La figure 50
décrit le principe des 3 principaux types de modulations numériques :
en amplitude (Amplitude Shift Key ou ASK), l’amplitude varie à chaque période de bit
S (t ) = B × sin(ω p t ), B = 0 ou 1
en fréquence (Frequency Shift Key ou FSK), la fréquence varie à chaque période de bit
en
A. Boyer
S (t ) = A0 × sin((ω p + B × ω m ) ∗ t ), B = ±1
phase
(Phase
Shift
Key),
la
S (t ) = A0 × sin(ω p t + B × π ), B = 0 ou 1
phase
varie
à
chaque
période
de
bit
57
Canaux de transmissions bruités
État binaire
Septembre 2013
0
1
1
0
1
1
A0
A1
A1
A0
A1
A1
F0
F1
F1
F0
F1
F1
φ0
φ1
φ1
φ0
φ1
φ1
modulant
porteuse
Amplitude
ASK
Signal
modulé
Fréquence
FSK
Signal
modulé
Phase
PSK
Signal
modulé
Fig. 50 - Principe d’une modulation numérique
Question : Parmi ces 3 modulations, laquelle semble la plus avantageuse pour une communication
numérique ?
Réponse :
4. Efficacité spectrale
Si aucun filtrage n’est appliqué lors de la modulation, le spectre d’un signal modulé est une
version transposée du signal de bande de base autour de la fréquence porteuse. Si on considère une
modulation numérique, le signal modulant occupe une large bande de fréquence (voir annexe C). Son
spectre de bande de base est composé d’un lobe principal dont la largeur est égale au débit binaire et
d’une infinité de lobes secondaires dont l’amplitude décroît avec la fréquence. Afin de réduire
l’occupation spectrale d’un signal numérique modulé, il est possible de filtrer le signal modulant de
manière à ne garder que le lobe principal. D’après le théorème de Nyquist, si la bande passante utilisée
A. Boyer
58
Canaux de transmissions bruités
Septembre 2013
est supérieure à la moitié du débit de symboles, il est théoriquement possible de transmettre sans erreur
le signal… A condition que le filtre employé respecte le critère de Nyquist. Nous reviendrons sur les
aspects filtrage dans le chapitre F. En général, la bande passante sera égale au débit de symbole afin de
ne conserver que le lobe principal du spectre du signal, qui contient la majeure partie du signal.
On définit l’efficacité spectrale η d’une modulation comme le rapport entre le débit binaire
transmis par le signal modulé sur la bande passante utilisée. Ainsi, pour une modulation BPSK,
l’efficacité spectrale est de 1 bit/s/Hz. Cela signifie que pour transmettre un bit par seconde, une bande
passante de 1 Hz est nécessaire.
η (bits / s / Hz ) =
Db
(Équation 72)
B
Db : débit de la source
B : bande passante nécessaire au canal
5. Exemple : modulation BPSK
La figure 51 présente le principe de la modulation PSK ou BPSK (Binary Phase Shift Key). Le
déphasage de la porteuse prend comme état 0 et π en fonction de l’état binaire du modulant.
0
1
1
0
1
1
π
π
0
π
π
porteuse
modulant
0
BPSK
Fig. 51 – Modulation BPSK
Comme il s’agit d’un signal binaire modulé en fréquence, la bande passante occupée en bande
de base est égale à la fréquence symbole (c’est-à-dire le débit binaire). Après transposition de
fréquence, la bande de fréquence occupée est égale à 2 fois la fréquence symbole. La figure ci-dessous
présente un signal BPSK dans les domaines temporels et fréquentiels. Le débit binaire est égal à Db =
100 Kbits/s et la fréquence de la porteuse est égale à 1 MHz. Le spectre du signal modulé est centré
sur de la fréquence porteuse. Autour de celle-ci, on trouve 2 lobes principaux suivis de lobes
secondaires d’amplitude décroissante. L’énergie de ce signal est principalement concentrée sur les
lobes principaux, qui occupent une bande de 200 KHz de large. D’après le théorème de Nyquist, il est
théoriquement possible de transmettre sans erreur ce signal si la bande passante (en bande de base) est
supérieure au débit de symboles divisé par 2. En bande de base, on peut utiliser une bande passante B
égale au débit binaire Fb pour conserver l’énergie du lobe principal. Si on considère le signal modulé,
il faut une bande passante B égale à deux fois le débit binaire Fb pour conserver l’énergie des deux
lobes principaux. Si on n’en conserve qu’un, on peut utiliser une bande passante B égale au débit
binaire Fb.
A. Boyer
59
Canaux de transmissions bruités
Septembre 2013
Saut de
phase
Lobe
principal
Lobes
secondaires
1 symbole
B = 2Fs = 200 KHz
Fig. 52 – Signal modulé en BPSK (domaine temporel à gauche, spectre à droite)
II. Modulation M-aire
1. Principe
Dans la plupart des systèmes de télécommunications, la bande de fréquence allouée est faible
au regard du débit souhaité. Afin d’augmenter le débit sans pour autant augmenter la bande passante,
des modulations à plusieurs états ou modulations M-Aire ont été développées. Le principe de cette
modulation est d’associer à chaque groupe de M symboles binaires de durée Tb un symbole complexe
de durée Ts :
TS = Tb × log 2 (M ) (Équation 73)
Avec le cas particulier M = 2, on retrouve une modulation binaire à 2 états comme nous
venons de les voir (ASK, BPSK, FSK). Plus M sera grand, plus l’efficacité spectrale η sera grande.
Ainsi, si on choisit une forte valeur de M, pour un débit de source donné, on diminuera le nombre de
symboles à envoyer et donc la bande passante nécessaire. Inversement, pour une bande passante
donnée, le débit de symboles reste constant mais le débit binaire augmente avec la valeur de M.
En pratique, il est possible de créer une modulation numérique M-aire en créant des signaux à
M états, c'est-à-dire en donnant plus de 2 états possibles au signal modulant. De nombreuses
modulations M-aires sont basées sur un modulateur I/Q. Nous allons en présenter le principe.
2. Concept de canaux I et Q
Comment faire une modulation à partir de plusieurs symboles binaires ? La solution consiste à
utiliser une famille de fonctions indépendantes et orthogonales qui transporte chacune un bit puis de
les combiner. Expliquons-nous …
Un signal modulé est un vecteur, dont on fait varier l’amplitude et la phase. Il est possible de
représenter ce vecteur dans un repère (x ;y), qui utilise un ensemble de 2 vecteurs de base φi = (0 ;1) et
φj = (1 ;0) qui sont orthogonales entre elles. Mathématiquement, l’orthogonalité entre 2 vecteurs est
vérifié si :
∫
+∞
−∞
1
0
ϕ i (t )ϕ j (t )dt = 
si i = j
sin on
(Équation 74)
Un exemple intéressant de vecteurs orthogonaux est la paire formée par les fonctions cosinus
et sinus, qui vérifient la condition précédente. C’est cette base de vecteurs qui est utilisée dans les
systèmes de télécommunications comme porteuses dans les modulations M-aires. Appelons I (pour In
phase) le vecteur donné par la fonction cosinus et Q (pour Quadrature) celui donné par la fonction
A. Boyer
60
Canaux de transmissions bruités
Septembre 2013
sinus. Comme le montre la figure ci-dessous, on peut représenter n’importe quel signal modulé
d’amplitude A et de phase φ à l’aide d’une combinaison linéaire des vecteurs I et Q (fc est la
fréquence de la porteuse.
Signal
modulé
Amplitude A
AQ
Phase φ
AI
Porteuse I
s(t ) = A cos(2πf c t + ϕ ) = AI cos(2πf c t ) + AQ sin (2πf ct )
s(t ) = AI I + AQ Q
A = AI + AQ
2
 AQ 

et ϕ = arctan
 AI 
2
Fig. 53 – Représentation vectorielle d’un signal modulé à partir des vecteurs I et Q
L’amplitude et la phase prises par le signal modulé va donc dépendre uniquement de
l’amplitude prise par les porteuses I et Q. La figure ci-dessous présente le schéma général d’un
modulateur I/Q. Il est composé de trois blocs :
le traitement en bande de base, qui traite les bits du signal modulant et produit 2 signaux
modulant pour les canaux I et Q.
la multiplication par les porteuses I et Q. Celles-ci sont issues d’un oscillateur local qui
fournit une porteuse sinusoïdale à la fréquence porteuse, qui est ensuite déphasée.
le signal modulé est issu de l’addition des canaux I et Q
Canal Q
Signal
binaire
Traitement
bande de base
Q
+
Signal modulé
(amplitude et
/ou phase)
Canal I
I
Oscillateur
local
Porteuse
cos(2πf C t )
0°
90
°
Fig. 54 – Schéma général d’un modulateur I/Q
3. Exemple : modulation QPSK
a. Principe
De manière générale, un signal modulé en phase M-aire peut s’exprimer de la manière
suivante :
si (t ) = AP cos(2πf c t + θ i ), θ i =
2πi
et i ∈ [0; M − 1] (Équation 75)
M
si(t) : le signal modulé à l’instant t, qui transmet un symbole i. Il existe M symboles possibles
Ap : amplitude constante du signal modulé en phase
fc : fréquence porteuse
θi : l’angle de la modulation pour le symbole i
A. Boyer
61
Canaux de transmissions bruités
Septembre 2013
Dans le cas d’une modulation 4-PSK, M = 4 et θ i =
π ×i
2
et i ∈ [0;3] . Le problème de cette
forme est que les signaux I et Q doivent prendre 3 états d’amplitude possibles : -1, 0 et +1. Une
solution pour réduire le nombre d’états d’amplitude est de déphaser l’angle d’amplitude 45° :
θi =
π ×i
2
+
π
4
et i ∈ [0;3] . C’est ce qui est fait pour une modulation QPSK. L’expression du signal
modulé devient :
πi π 
π (2i + 1) 


si (t ) = AP cos 2πf c t + +  = AP cos 2πf c t +

2 4
4



 π (2i + 1) 
 π (2i + 1)  (Équation 76)
si (t ) = AP cos(2πf c t ) cos
 − AP sin (2πf c t )sin 

4
4




2
2
 π (2i + 1) 
 π (2i + 1) 
si (t ) = I cos
I −±
Q
 − Q sin 
=±
4
4
2
2




Le signal modulé en QPSK correspond donc à la combinaison des signaux I et Q multipliés
par +/- √2/2 en fonction du symbole transmis. Ce dernier correspond aux 4 états de phase de la
modulation et est codé par 2 bits. La figure 55 présente le principe de construction du signal QPSK. La
correspondance entre les bits du signal binaire et la phase du signal modulé est :
Symbole
Porteuse I
2
2
11 π/4 ( +
I+
Q)
2
2
01 3 π/4 ( −
2
2
I+
Q)
2
2
Signal I modulé
00 5 π/4 ( −
2
2
I−
Q)
2
2
Signal Q modulé
10 7π/4 ( +
Porteuse Q
2
2
I−
Q)
2
2
01
10
11
-1
+1
+1
+1
-1
+1
3π
4
7π
4
π
π
2
4
Signal I+Q modulé
Fig. 55 - Modulation QPSK
b. Modulateur/démodulateur I/Q en QPSK
La plupart des modulations M-aire telles que QPSK (ou d’autres telle que la M-QAM) sont
obtenues à partir du modulateur I/Q. Celui-ci consiste à séparer le flux binaire en entrée en 2 flux
parallèle et de les multiplier par deux porteuses de même fréquence mais en quadrature. En les
recombinant, on obtient un signal modulé en phase. La figure ci-dessous présente le modulateur I/Q
pour une modulation QPSK.
A. Boyer
62
Canaux de transmissions bruités
Septembre 2013
± sin (2πf C t )
[− 1,+1,−1]
Signal binaire
[− 1,+1,+1,−1,−1,+1]
_
Signal QPSK
Q
DEMUX
sin (2πf C t )
[+ 1,−1,+1]
+
(2i + 1)π 

2 × cos 2πf C t +

4


± cos(2πf C t )
I
Oscillateur local
Porteuse
cos(2πf C t )
0°
90
°
Fig. 56 – Schéma de principe d’un modulateur I/Q pour une modulation QPSK
La figure ci-dessous présente le schéma de principe du démodulateur I/Q. Le principe est
inversé. En multipliant le signal modulé par les signaux I et Q, il est possible de récupérer les états
binaires ayant servi à la modulation.
AP
cosθ i
Q
2
Signal QPSK
AP cos(2πf C t + θ i )
sin (2πf C t )
MUX
Flux « binaire »
I
AP
sin θ i
2
Oscillateur
local
Porteuse
cos(2πf C t )
0°
90°
Fig. 57 – Schéma de principe d’un démodulateur I/Q pour une modulation QPSK
c. Occupation spectrale
Soit Tb la durée d’un bit, avec Tb = 1/Fb. La durée d’un symbole ou moment est égal à 2Tb et
le débit de moment égal à Fb/2. Le spectre du signal modulé en QPSK va donc être celui d’un signal
numérique dont le débit est égal à Fb/2. Par exemple, la figure 58 présente le profil temporel d’un
signal modulé en QPSK ainsi que l’évolution de la phase dans le temps. Le débit de symbole est de 1
MBauds, le débit binaire est donc de 2 Mbits/s, la fréquence de la porteuse est de 10 MHz. La figure
59 présente le spectre en bande de base du signal en sortie du modulateur IQ.
Fig. 58 - Profil temporel d’un signal modulé en QPSK (gauche) et phase (droite) (débit de symbole = 1
MBauds, fréquence porteuse = 10 MHz)
A. Boyer
63
Canaux de transmissions bruités
Septembre 2013
Fig. 59 - Spectre en bande de base d’un signal modulé en QPSK
Le spectre présente un lobe principal centré sur 10 MHz et de largeur 2 MHz (2 fois le débit de
symbole). C’est là qu’est concentré la plus grande partie de l’énergie du signal. En filtrant ce signal de
manière à ne garder qu’une bande latérale du lobe principal, on peut transmettre ce signal modulé sur
une bande fréquentielle de largeur 1 MHz.
L’efficacité spectrale d’une modulation QPSK est donc égale à : η QPSK =
2 Mbits / s
= 2.
1MHz
C’est le double de celle d’une modulation BPSK.
On pourrait montrer que l’efficacité spectrale d’une modulation M-aire est égale à :
N
(Équation 77)
M − aire
η
= N, M = 2
Ce qui se comprend intuitivement puisqu’on fait passer N bits par symbole. Plus on accroît le
nombre de symboles M, meilleure est l’efficacité spectrale. Pour un canal à bande passante donnée, le
débit binaire augmentera avec M. Cela fournit à l’ingénieur télécom une solution pour accroître le
débit d’une transmission sur un canal à bande limitée. Cependant, le bruit présent sur le canal va
limiter le nombre de symbole (résolution en amplitude).
III. Filtrage d’un signal modulé– Pulse shaping
En pratique, il est nécessaire de filtrer le signal modulé afin de réduire son occupation
spectrale. Un filtre passe bas d’ordre élevé est appliqué directement sur le signal de bande de base
avant modulation. En général, seul le premier lobe est conservé puisque celui-ci contient la majeure
partie de l’énergie du signal. De nombreux types de filtre existent pour limiter la bande passante du
signal modulé. Un filtre courant est le filtre à cosinus surélevé (cf annexe E). Comme ce filtre modifie
le spectre du signal modulé, la réponse temporelle est aussi affectée. On parle aussi de filtre de pulse
shaping. Le choix du filtre est critique car il ne doit pas dégrader la réponse temporelle et introduire
des interférences intersymboles. Nous y reviendrons au chapitre F.
La figure 60 présente l’occupation spectrale du signal issu du modulateur IQ après passage
dans un filtre à cosinus surélevé, avec un coefficient de raidissement r de 0.7. Les lobes secondaires
ont été considérablement atténués (40 dB sur le canal adjacent) et on ne distingue plus que le lobe
principal.
A. Boyer
64
Canaux de transmissions bruités
Septembre 2013
Fig. 60 - Spectre en bande de base d’un signal modulé en QPSK puis filtré par un filtre à cosinus raidi
(r=0.7)
L’ajout d’un filtre modifie la forme temporelle du signal et le ralentit, comme le montre la
figure 61 qui compare le signal en sortie du modulateur IQ et celui en sortie du filtre (ces 2 signaux
présentent un décalage d’une période, qui correspond au temps de traitement du filtre). Le filtre à
cosinus raidi permet d’éviter l’apparition d’interférences intersymboles. En effet, les symboles peuvent
être distingués à chaque période, comme le montre le diagramme de l’œil de la figure 62.
Fig. 61 - Comparaison du signal en bande de base avant et après filtre en cosinus raidi
Fig. 62 - Diagramme de l’œil du signal de bande de base avant et après filtre en cosinus raidi
A. Boyer
65
Canaux de transmissions bruités
Septembre 2013
IV. Diagramme de constellations
La plupart du temps, la représentation temporelle des modulations M-aire est complexe et il
devient difficile de distinguer 2 symboles différents. Une nouvelle représentation appelée diagramme
de constellation peut alors être employée pour simplifier la représentation d’une modulation M-aire.
Dans ce diagramme, les états pris par la porteuse sont placés dans un plan polaire. Chaque état associé
à un symbole apparaît comme un point avec une amplitude et une phase données. Comme nous
l’avons vu précédemment, les modulations M-aire sont généralement crées à l’aide d’un modulateur
I/Q, le signal modulé étant une combinaison linéaire des signaux I et Q. Les axes x et y du diagramme
de constellation sont donc appelés I et Q. La figure 63 présente deux exemples de diagramme de
constellation, le premier pour une modulation QPSK, le deuxième pour une modulation QAM-16.
Porteuse Q
1110
1010
Porteuse Q
1000
1100
0000
0100
+1
+3
0001
0101
1001
1101
+3
01
11
symbole
0110
0010
+1
Porteuse I
symbole
00
-3
-1
0111
0011
Porteuse I
-1
10
1111
1011
-3
Fig. 63 – Constellation d’une modulation QPSK (gauche) et 16-QAM (droite)
Le diagramme de constellation est un outil
graphique très approprié pour évaluer qualitativement la
dégradation du signal modulé et le risque d’apparition
d’erreur binaire. En l’absence de toute forme de bruit et de
distorsion due au canal, les états reçus apparaissent comme
des points sur le diagramme. Cependant, dès que le signal
est perturbé, il fluctue en amplitude ou en phase et les états
apparaissent comme des taches. Si ces taches deviennent
larges, plus le taux d’erreur binaire augmente. La figure 64
présente un exemple de diagramme de constellation
provenant de la mesure d’un signal modulé en 16-QAM.
Dans le diagramme de constellation, chaque état du signal
reçu apparaît dans une des 16 taches, une erreur de
modulation (en amplitude ou en phase) est donc présente.
Dans cet exemple, le rapport signal à bruit est grand (25
dB), d’après la figure 65, le taux d’erreur binaire théorique
est négligeable.
Fig. 64 – Diagramme de constellation
d’un signal modulé en 16-QAM
V. Effet de la modulation sur le taux d’erreur binaire
Bien qu’augmenter le nombre d’états dans une modulation M-aire permette d’augmenter
l’efficacité spectrale, cela rend aussi le système moins robuste face au bruit et aux distorsions du canal.
En effet, plus il y a de symboles différents, moins il devient simple de les distinguer car la distance
entre les états diminue. Pour un bruit donné, à mesure qu’on augmentera le nombre d’états, on
augmentera aussi le taux d’erreur binaire.
Dans le cadre d’un canal AWGN, il est possible de déterminer la relation théorique entre le
taux d’erreur binaire et le rapport signal à bruit par bit, en utilisant le même type de raisonnement
mathématique qui nous a permis d’établir cette relation dans le cas d’un signal binaire. Nous ne
A. Boyer
66
Canaux de transmissions bruités
Septembre 2013
démontrerons pas les calculs pour des signaux modulés, nous nous contenterons de donner les
résultats, en supposant qu’aucun codage source n’est utilisé et que les démodulations sont synchrones.
Le tableau ci-dessous donne les expressions théoriques pour les modulations abordées dans ce
chapitre.
Type de modulation
BER = f(Eb/No)
ASK binaire
BER =
 Eb 
1

erfc
 4 No 
2


FSK binaire
BER =
 Eb 
1

erfc
 2 No 
2


BPSK
BER =
QPSK
 Eb 
1

erfc
 No 
2


 Eb 
1

BER = erfc
 No 
2


Ces résultats montrent que la modulation de phase est théoriquement plus robuste au bruit que
les modulations d’amplitude et de fréquence. Il est intéressant de noter que la modulation QPSK est
aussi robuste que la modulation BPSK, en raison de l’utilisation de 2 porteuses en quadrature. La
figure 65 compare les taux d’erreur binaire des modulations FSK, QPSK, et de 2 autres modulations
courants : 16-QAM et 64-QAM. Même utilisées à débit constant, l’effet du bruit sera bien plus
important pour des modulations avec de un grand nombre d’états.
Fig. 65 – Taux d’erreur binaire en fonction du rapport signal sur bruit pour 4 types de modulations à
débit constant
VI. Ce qu’il faut retenir
⇒ La modulation est une opération de transformation du signal permettant de faciliter le
transfert de l’information sur le medium de transmission.
A. Boyer
67
Canaux de transmissions bruités
Septembre 2013
⇒ Une modulation numérique utilise un modulant numérique. Les modulations de
fréquence et de phase sont plus robustes au bruit que les modulations en amplitude.
⇒ L’efficacité spectrale d’une modulation représente le rapport entre le débit binaire
transmis sur la bande passante utilisée.
⇒ Le signal en bande de base est généralement mis en forme et filtré afin de réduire la
bande spectrale occupée par le signal modulé. Les filtres de mise en forme ne doivent
pas introduire d’interférences intersymboles.
⇒ En codant les symboles transmis par plusieurs bits, l’efficacité spectrale d’une
modulation s’accroît.
⇒ Le taux d’erreur binaire d’un signal numérique dépend du type de modulation
employé.
A. Boyer
68
Canaux de transmissions bruités
Septembre 2013
E. Techniques de fiabilisation d’un canal
de transmission par codage de canal
Les canaux réels présentent différents défauts : ils déforment les signaux transmis (distorsions)
et ajoutent des perturbations indésirables (bruit). Dans le chapitre précédent, nous avons appris à
déterminer les performances théoriques d’un canal. En pratique, il est cependant difficile de les
atteindre et les performances réellement atteintes peuvent ne pas être suffisamment satisfaisante pour
l’application envisagée. Afin d’optimiser les performances des canaux de transmission, différentes
techniques peuvent être mises en place afin de réduire l’effet du bruit, des perturbations ou des
distorsions et augmenter le débit du canal jusqu’à se rapprocher de sa capacité maximale. Il est
possible de modifier « physiquement » le signal ou bien modifier son contenu en employant un codage
appelé codage de canal qui le rendra plus robuste aux perturbations. Ces deux types de techniques
peuvent être réalisés simultanément, mais ne font pas appel aux mêmes procédés.
Numéro de
Tout système de communication peut
couche
être modélisé en utilisant le modèle ISO / OSI
Application
(International Standard Organization / Open
7
Systems Interconnections) (ISO 7498), présenté à
Présentation
6
la figure 66. Ce modèle décrit les fonctionnalités
nécessaires à l’interconnexion au sein d’un
Session
réseau de systèmes communicants.
5
La problématique de fiabilisation du
Transport
canal de transmission est traitée dans les couches
4
les plus basses : la couche physique et la couche
Réseau
liaison de données. Les deux chapitres suivants
3
traitent des techniques mises en œuvre dans ces
deux couches pour fiabiliser le canal. Ce chapitre
Liaison de données
2
traite des techniques de codage de canal, mise en
œuvre dans la couche liaison de données.
Physique
1
Support de transmission
Fig. 66 – Modèle ISO/OSI
I.
Couche liaison de données
La couche liaison de données a pour but d’assurer la communication des données entre 2
entités communicantes. Elle assure une mise en forme des données qui permet de vérifier la validité du
message, par l’encapsulation des données dans des trames et par l’ajout de codes détecteurs ou
correcteurs d’erreurs. Elle est subdivisée en 2 sous couches (fig. 67) :
Sous couche Medium Access Control (MAC) : cette sous couche gère l’acceptation des
messages vers les couches plus élevées. Elle est responsable de la mise en trame du message
(encapsulation/décapsulation des données), du codage des trames, de l’arbitrage de l’accès
au support de transmission, de la détection et de la signalisation des erreurs, et de
l’acquittement des messages reçus
A. Boyer
69
Canaux de transmissions bruités
Septembre 2013
Sous couche Logical Link Control (LLC) : elle est dédiée au filtrage des messages, à la
notification des surcharges (plusieurs messages reçus simultanément qui peuvent être
écrasés) et gère la procédure de recouvrement des erreurs détectées par la couche MAC.
7. Application
6. Présentation
5. Session
4. Transport
3. Réseau
Logic Link Control (LLC)
2. Liaison de données
Medium Access Control (MAC)
1. Physique
Fig. 67 – Couche liaison de données
II. Codage de source
Le codage sert à adapter au mieux l’information à transmettre aux caractéristiques du canal.
On distingue deux types de codage :
Le codage de source, qui sert réduire la taille du message à transmettre
Le codage de canal, qui sert à réduire les effets des distorsions induites par le canal et des
perturbations externes sur le message à transmettre
Le codage de source modifie d’une manière prédéfinie le contenu du message initial.
L’opération de décodage en réception permettra de retrouver le contenu initial du message. Le codage
de source sert à compresser le message, c'est-à-dire réduire sa taille et optimiser la quantité
d’information à envoyer. Une autre utilité est de crypter l’information et d’améliorer la sécurité de la
transmission. La source peut être considérée comme un ensemble de messages ou de mots appartenant
à un ensemble de M messages possibles. Chaque message est une suite ordonnée de caractères parmi
les n caractères disponibles. L’opération de codage de source n’a de sens que si le codage est
déchiffrable, c'est-à-dire si il est :
Défini : deux messages différents ne doivent pas être représentés par le même mot
Séparable : on peut placer sans ambiguïté la coupure entre chaque mot.
Si tous les mots ont la même longueur, ils commencent ou se terminent par le même caractère
spécial qu’on ne peut trouver qu’en début ou en fin de mot, alors le code peut être séparable. Un code
est dit irréductible si il vérifie la règle du préfixe, c'est-à-dire qu’un mot ne peut pas être le début
d’un autre mot. Un code irréductible est forcément séparable, mais la réciproque est fausse.
Question : Soit une source binaire comprenant M=4 messages et n=2 caractères. Quels sont les codes
déchiffrables ?
Messages
a
b
c
d
Code 1
00
01
00
11
Code 2
00
01
10
11
Code 3
0
1
00
11
Code 4
0
10
110
111
Code 5
0
01
011
0111
Code 6
1
01
001
0001
Réponse :
A. Boyer
70
Canaux de transmissions bruités
Septembre 2013
On définit la longueur moyenne L des messages de la source comme le nombre moyen de
caractères par message. On peut la calculer en connaissant la probabilité d’apparition Pi et la longueur
Li en caractères du message i, à l’aide de l’équation suivante 78.
M
L ( caractères ) = ∑ Pi × Li (Équation 78)
i =1
Le codage de source consiste à représenter les différents messages de façon à minimiser L.
Cependant, Shannon a montré qu’il existe une limite inférieure à cette longueur. Elle est donnée à
l’aide du premier théorème de Shannon ou théorème de codage de source qui s’applique
uniquement aux sources sans mémoire :
L ≥ Lmin =
H
log 2 ( n )
(Équation 79)
On peut définir l’efficacité η d’un code déchiffrable pour une source sans mémoire à l’aide de
l’équation 80. On peut aussi définir la redondance d’un code (équation 81). Le but du codage est
d’augmenter l’efficacité du codage ou de diminuer sa redondance.
η (%) =
Lmin
L (Équation 80)
R ( %) = 1 −η
(Équation 81)
Cependant, le codage de source doit se faire en connaissant le débit de moments qu’on
souhaite faire passer à travers le canal. En effet, la vitesse à laquelle la source transmet des données à
l’étage d’émission des moments dans le canal ne doit pas être trop importante si on cherche à faire une
transmission en continu ou transmission en temps réel, comme le montre la figure 68.
•
Information
Dc
Source
•
Emetteur
Dm
Canal
Codage canal
Codage source
Modulation, …
Fig. 68 - Transmission en temps réel
•
•
Si DC représente le débit de caractères fournit par la source et D m le débit de moments émis
à travers le canal, pour réaliser une transmission en temps réel, il faut vérifier la condition énoncée
dans l’équation 82. Si cette inégalité n’est pas respectée, la source devra fournir les données de
manière discontinue de manière à ce que l’émetteur puisse émettre toutes les données fournies par la
source sans en perdre.
•
•
Dc ≤ Dm
(Équation 82)
III. Codage/décodage d’un canal – Codes correcteur
d’erreur
On désigne par codage de canal la transformation à appliquer aux symboles à transmettre pour
les protéger des perturbations rencontrées durant la transmission. Contrairement au codage de source,
le codage de canal consiste à ajouter de la redondance au message à transmettre, comme l’ajout code
détecteur ou correcteur d’erreur pour les transmissions numériques. Il existe 2 stratégies de codage de
canal :
Détection d’erreurs dans le message reçu et demande de retransmission à l’aide d’un
meilleur protocole (Automatic Repeat reQuest). Cette technique nécessite une voie de retour
A. Boyer
71
Canaux de transmissions bruités
Septembre 2013
(si cela est autorisé) et créé des risques de congestion du canal si la perturbation est trop
forte.
Détection d’erreurs et correction en réception (Forward Error Coding). Cette technique
introduit de la redondance dans le message initial, mais les circuits et les algorithmes à
implémenter sont plus complexes.
Cette dernière technique est couramment employée dans la plupart des systèmes de
télécommunications numériques. Elle consiste à ajouter en fin de trames plusieurs bits, appelés bits de
redondance, dépendants du contenu d’une ou plusieurs trames afin de les protéger contre les erreurs
de décisions du récepteur. En réception, un traitement de ces bits supplémentaires permet de détecter
les erreurs voire pour certains codes de restaurer les symboles d’origine. La gestion de la détection
d’erreur est décrite dans le protocole de la transmission.
L’ajout d’un code correcteur d’erreur est limité par la capacité du canal. En effet, des
séquences trop longues ne peuvent pas être ajoutées sans réduire le débit de données utiles. Pour
quantifier la redondance ajoutée à un message, on emploie le terme de rendement de code ou taux de
codage R :
Message
code
K bits
Message codé
R=
N bits
K
N
On définit parfois un code de la manière suivante : pour le code ci-dessus, on parle de code
(k,n,t), avec k le nombre de bits du message à coder, n le nombre de bits du message codé et t le
nombre de bits erronés qui pourront être détectés ou corrigés.
Quelques définitions :
Un code est dit systématique si on retrouve dans le message codé le message non codé à
l’identique. Dans le cas où le message initial est de longueur K bits et la longueur du message codé est
de N bits, les N-K bits sont des bits de parité. Dans ce cas, le rendement est élevé, supérieur en
général à 0.7. En pratique, on parle d’un faible rendement s’il est inférieur à 0.4.
Le codage entraîne un surdébit qui se traduit soit par une diminution du débit utile soit par une
augmentation du débit transmis sur le canal et par conséquent d’une augmentation de la bande
passante ou de la puissance émise pour accroître la capacité. On peut lier le débit avant codage Dc
avec le débit après codage Db à l’aide du rendement, comme le montre l’équation 83.
•
DC =
Db
R
(Équation 83)
Même si le codage de canal augmente la redondance et diminue le débit utile d’information, il
améliore globalement le système de transmission puisqu’il apporte une protection au message
transmis. Afin de quantifier cette amélioration, on utilise le gain de codage, qui représente la
différence en dB entre les rapports signal/bruit respectifs du système codé et non codé qui permettent
d’atteindre le même taux d’erreur. Comme le montre la figure 69, pour une limite en terme de taux
d’erreur binaire, la contrainte en terme de rapport signal sur bruit sera plus faible pour un message
auquel on a ajouté un code correcteur d’erreur (message 2) par rapport au message non codé (message
1). Le gain de codage représente la différence de rapport signal à bruit entre ces 2 techniques pour
atteindre la même performance en terme de taux d’erreur binaire.
Taux d’erreur
binaire
2
1
Gain de codage
Eb/No
Fig. 69 - Gain de codage
A. Boyer
72
Canaux de transmissions bruités
Septembre 2013
Un code est dit linéaire si la transformation entre le message d’origine et le message codé est
linéaire. Ainsi, toute combinaison linéaire de mots de code reste un mot de code. Il est possible
d’utiliser plusieurs codes différents pour un même message. On parle de code concaténé en série
quand on met en œuvre successivement 2 codes ou davantage. L’idée directrice de la conception d’un
code est d’espacer au maximum les mots codés afin qu’un nombre limité d’erreurs dues au canal de
transmission puisse transformer le mot initial en un mot qui n’appartient pas au code. Le récepteur
pourra détecter les erreurs en vérifiant si le mot appartient ou non au code et les corriger en prenant le
mot de code le plus proche du mot reçu. On distingue 2 types de codes : les codes en blocs et les codes
convolutifs. Nous allons voir leurs différences dans la prochaine partie.
Exemple : le bus CAN
Le bus CAN (Controller Area Network) (norme IEC 11898) est couramment employé dans
l’automobile afin d’interconnecter les différents contrôleurs électroniques présents dans un véhicule et
multiplexer les différentes requêtes sur un même bus série. La transmission physique peut s’effectuer
sur une paire torsadée, sur une fibre optique, par liaison infrarouge ou par liaison radio. La figure 71
présente le format des trames de données du protocole CAN.
Début de
trame
Champ de
contrôle
Identificateur
1 bit
12 bits
Fin de
trame
Données
6 bits
0 – 8 octets
CRC
16 bits 9 bits
Fig. 71 - Format d’une trame dans le protocole CAN
Fig. 70 – Systèmes électroniques
embarquées dans une automobile
Le protocole CAN intègre plusieurs mécanismes de gestion des erreurs (code correcteur
d’erreurs, surveillance permanente du bus par l’ensemble des stations, gestion automatique des
conflits). Toutes ces techniques permettent de réduire la probabilité d’erreur à 4.6e-11 !
IV. Code en blocs
Le principe d’un code en blocs consiste à découper le flux d’information en plusieurs blocs de
K symboles, auxquels on ajoute N symboles de code associé. Chaque bloc est ainsi transformé en un
nouveau bloc de K+N symboles. Chaque bloc reste indépendant des autres blocs. L’information n’est
pas traitée de manière continue puisqu’il sera nécessaire de bufferiser les K symboles reçus avant de
les envoyer avec les N symboles supplémentaires de codage. L’information en entrée est traitée par
paquet.
Question : bits de parité :
Soit l’information binaire initiale : 100110100001avec les blocs originaux (K=3) : 100-110100-001. On ajoute dans chaque bloc un ‘0’ ou un ‘1’ de manière à toujours obtenir un nombre pair
de ‘1’ dans chaque bloc. On obtient les blocs codés suivants (N+K = 4) : 1001-1100-1001-0011
Calculer le rendement de ce code. Pourquoi est-ce un code détecteur d’erreur ? Est-ce un code
correcteur d’erreur ?
Réponse :
A. Boyer
73
Canaux de transmissions bruités
Septembre 2013
V. Code convolutif
Un codeur convolutif traite l’information de manière continue. Les N bits ajoutés par le codeur
ont été déterminé à partir des K bits présents en entrée, mais dépendent aussi des G-1 groupes de K
bits précédents. G correspond à la longueur de contrainte du code. Le code dépend alors de
l’échantillon présent et d’un certain nombre d’échantillons précédents, créant une forte corrélation
entre plusieurs paquets d’information. Ainsi, si un paquet parmi les G paquets utilisés pour le codage
est altéré, cette forte corrélation réduit la probabilité d’erreur. Cette technique offre donc un moyen de
protection puissant pour les données à transmettre dans des milieux très bruités comme une liaison
satellite. La figure 72 présente un exemple de codeur utilisé pour la DVB (Digital Video Broadcasting)
ou télévision numérique.
Fig. 72 - Exemple de codeur convolutif
Chaque bit entrant va générer 2 bits sortant qui seront liés aux 6 bits précédents. Le bit 1 de
sortie est un "OU exclusif" entre les bits 1,2,3,4 et 7 tandis que le bit 2 de sortie est un "OU exclusif"
des bits 1,3,4,6 et 7. En observant les bits précédemment reçus, on pourra deviner la valeur la plus
probable du bit reçu. Un décodeur de Viterbi réalise l’opération de décodage. Cependant, cette
technique double la longueur du message à transmettre ! Une astuce pour réduire la longueur du
message réside dans le poinçonnage des bits du message. Cette opération consiste à ne pas transmettre
tous les bits du message, permettant ainsi d’améliorer le rendement du codage. Le décodeur rajoutera
un ‘0’ là où il considère qu’un bit a été supprimé. Même si des erreurs sont délibérément introduites
dans le code à transmettre, la grande robustesse du code convolutif permet de retrouver la valeur la
plus probable du bit supprimé.
A. Boyer
74
Canaux de transmissions bruités
Septembre 2013
VI. Exemple de codes
1. Codage de Gray
Lorsqu’un récepteur fait une erreur sur un symbole, il confond généralement ce symbole avec
son plus proche voisin. Un codage de Gray code des symboles voisins par des mots ne différant que
d’un bit. Ainsi, une confusion d’un des deux symboles n’introduira une erreur que sur un seul bit. Le
codage de Gray peut se construire de la manière suivante :
bk-
ak-
Codage
de Gray
Soit une suite d’entiers appartenant à l’intervalle [0,N-1]. Ils peuvent être codés sur k bits bi
tels que N − 1 = 2k − 1 . Pour un entier n donné de cet intervalle, le code de Gray ak −1ak − 2 ...a0 du mot
binaire naturel bk −1bk − 2 ...b0 s’écrit :
ak −1 = bk −1
ai = bi +1 ⊕ bi
∀i ∈ [ 0, k − 2]
Exemple : Codage de Gray de nombre entier naturel
Nombre entier
0
1
2
3
4
5
6
7
Codage binaire classique
0000
0001
0010
0011
0100
0101
0110
0111
Codage de Gray
0000
0001
0011
0010
0110
1110
1100
0100
2. Codage de Reed Solomon
Le codage de Reed Solomon est un code en bloc détecteur et correcteur d’erreur. Celui-ci est
notamment utilisé dans la norme DVB. Il est noté RS(188,204,t=8).
Question : Que signifie la notation RS(188,204,t=8) ?
Réponse :
Ce code consiste à ajouter des octets redondants valant soit la somme soit la somme pondérée
des différents octets présents dans le message. Pour comprendre ce code, appliquons le à un message
composé de 3 octets, par exemple le suivant : 12 15 34. On ajoute 2 octets de redondances. Le premier
est égal à la somme des 3 octets, le second à la somme pondéré par le rang de chaque octet des 3
octets :
Premier octet de redondance : 12+15+34 = 51
Deuxième octet de redondance : 12×1+15×2+34×3 = 114
A. Boyer
75
Canaux de transmissions bruités
Septembre 2013
Le message codé devient donc : 12 15 34 51 114. Imaginons qu’on transmette ce message,
qu’un des octets ait été perturbé et qu’on récupère le message suivant : 18 15 34 51 114. Si on refait la
somme des 3 octets et la somme pondérée, on peut détecter une erreur :
18+15+34 = 57
18×1+15×2+34×3 = 120
La différence des sommes simples (celle reçue et celle recalculée) donne la valeur de l’erreur :
57-51 = 6. Celle des différences pondérées divisées par l’erreur donne le rang de l’erreur :
120 − 114
= 1 . Il s’agit donc du premier octet qui est défectueux et l’erreur est de +6. Bien entendu, si
6
une erreur affecte un des octets de redondance, l’erreur ne pourra pas être détectée, sauf si on ajoute
une redondance à la redondance.
VII. Entrelacement - Brassage
entrelacement
Tous les codes correcteurs d’erreurs ont une limite en terme de correction. Une des choses les
plus difficiles à corriger est une longue suite de bits erronés. Afin d’éviter ce genre d’événement, il est
possible de répartir les bits d’un paquet à émettre sur plusieurs paquets. On appelle cette technique
l’entrelacement. Elle est répandue dans des applications diverses : téléphonie mobile, compact
disques, DVB... Le principe de l’entrelacement utilisé est décrit par la figure 73. L’exemple suivant va
nous aider à mieux comprendre l’intérêt de l’entrelacement des données. On suppose qu’un octet code
une lettre et qu’un mot de 5 lettres correspond à un
paquet.
Le tableau 3 présente une partie du message
à émettre. Celui-ci subit une opération
d’entrelacement et est envoyé à travers le canal de
transmission (les – correspondent aux lettres des
paquets précédents qu’on a pas fait apparaître dans
l’exemple). Quatre erreurs viennent alors affecter le
Fig. 73 - Principe de l’entrelacement
message reçu. Ces 4 erreurs se suivent et empêchent
toute correction simple d’un des paquets (3 erreurs !). Mais après désentrelacement, ces erreurs sont
convenablement réparties sur chacun des paquets ; 4 paquets sont affectés d’une seule erreur et une
méthode de correction simple permettra de récupérer le message original. Sans entrelacement, cette
méthode serait restée inefficace.
Message original
carte
niche
vieux
poule
tasse
route
verre
Entrelacement
s----
na---
vir---
pict-
toehe
rauue
voslx
Réception du
message – 4 fautes
s----
na---
vir---
pict-
toehe
raXXX
Xoslx
Désentrelacement
carte
nichX
vieXx
poXle
tasse
route
Xerre
Tableau 3 – Répartition des erreurs à l’aide d’un entrelacement
Une autre technique proche de l’entrelacement est le brassage. Cette technique permet
d’éviter de longues suites de ‘0’ et de ‘1’ qui vont créer une ou plusieurs raies spectrales à forte
énergie, et de répartir uniformément l’énergie sur le spectre du canal. Dans les chapitres suivants, nous
verrons que cette technique s’apparente à ajouter au signal de la diversité fréquentielle. Ainsi, même
sans présence de signal en entrée, un flux digital est transmis, ce qui facilite la synchronisation de
l’horloge du récepteur nécessaire à la récupération des données. Cette technique est utilisée par
exemple dans la DVB. La figure 74 présente un schéma de principe du circuit utilisé en DVB pour
brasser des données à l’aide d’un générateur pseudo-aléatoire. C’est le même circuit qui est utilisé
pour « débrasser » les données.
A. Boyer
76
Canaux de transmissions bruités
Septembre 2013
1 0 0 1 0 1 0 1 0
1 2 3 4 5 6 7 8 9
0
0
0
0
0
0
10 11 12 13 14 15
Registre à décalage
+
Générateur pseudo-aléatoire
enable
AND
+
Données
brassées
Données
Fig. 74 - Principe du brassage utilisé en DVB
VIII.Ce qu’il faut retenir
⇒ Afin de se protéger contre le bruit, les perturbations externes et les effets parasites du
canal de transmission, le canal peut être rendu plus robuste à l’aide de techniques
spéciales implémentées sur les émetteurs et les récepteurs. Elles aident à augmenter la
capacité et la rapprocher des limites théoriques.
⇒ Les techniques qui modifient le contenu d’un signal numérique pour rendre le canal
plus robuste face au bruit sont qualifiées de codage de canal.
⇒ Les techniques de codage de canal sont assurées par la couche liaison de données dans
le cadre du modèle ISO/OSI.
⇒ La technique de codage de canal la plus courante est l’ajout de codes
détecteur/correcteur d’erreurs.
⇒ Dans le cas d’un code détecteur d’erreurs, le récepteur demande généralement une
retransmission des données. Dans le cas d’un code correcteur d’erreurs, le message
initial pourra être retrouvé à condition que peu de bits soient erronés. Le nombre
maximal de bits erronés dépend des performances du code.
⇒ D’autres techniques courantes de codage de canal visent à mélanger l’ordre des bits
dans un message binaire (entrelacement) ou à introduire des bits supplémentaires pour
ajouter de la diversité fréquentielle au signal (brassage).
A. Boyer
77
Canaux de transmissions bruités
Septembre 2013
F. Techniques de fiabilisation d’un canal
de transmission sur la couche physique
Dans le chapitre précédent, nous avons vu qu’il était possible de rendre un canal de
transmission robuste par codage du message à transmettre. Il est aussi possible d’accroître la fiabilité
d’une transmission en agissant sur le signal électrique à transmettre. Cela se traduit par des techniques
de mise en forme du signal, de filtrage du signal reçu, de modulations, d’égalisation, d’accès multiples
ou d’ajout de diversité. Ces techniques concernent les couches physiques des systèmes de transmission
(fig. 66).
I.
Couche physique
La couche physique définit la façon dont le signal est transmis. Elle assure le transfert
physique des données binaires entre les différents systèmes communicants d’un réseau en fonction des
propriétés du support de transmission (électriques, électroniques, optiques …). Cette couche a pour
missions principales de garantir la représentation correct des bits (niveaux électriques, timing…),
synchroniser les bits avec une horloge système pour garantir un échantillonnage correct, et définir le
support de transmission. La couche physique peut être subdivisée en 3 sous couches (fig. 75) :
Sous couche Medium Dependent Interface (MDI) : connectique avec le support de
transmission
Sous couche Physical Medium Attach (PMA) : définit les caractéristiques physiques des
émetteurs et récepteurs
Physical Signalling (PLS) : codage/décodage des bits (niveaux électriques associés aux
bits), bit timing, synchronisation des bits
7. Application
6. Présentation
5. Session
4. Transport
3. Réseau
Physical Signalling (PLS)
2. Liaison de données
1. Physique
Physical Medium Attach (PMA)
Medium Dependent Interface (MDI)
Fig. 75 – Couche physique
II. Mise en forme électrique – code en ligne – codage
bande de base
Le codage de canal se traduit aussi par la mise en forme électrique du signal numérique, qui
consiste à faire la correspondance entre les symboles du message et les impulsions électriques qui
seront physiquement transmises sur le canal. Cela s’apparente à une modulation en bande de base. Le
choix du code en ligne se fait selon certains critères, notamment celui d’assurer la compatibilité
A. Boyer
78
Canaux de transmissions bruités
Septembre 2013
entre le débit à transmettre et la bande passante du milieu de transmission. En choisissant la
méthode de codage appropriée, on peut donner certaines caractéristiques avantageuses au
signal :
modification de l’occupation spectrale (meilleure adaptation au support de transmission,
notamment la suppression de la composante continue, de la porteuse et de bandes de
fréquences superflues afin d’améliorer le rendement énergétique)
synchronisation de l’horloge du récepteur sur le flux numérique reçu
utilisation de la redondance intrinsèque du code pour la détection des erreurs
La sélection d'une méthode de codage consiste à rechercher le meilleur compromis entre
certains des avantages cités auparavant et la dégradation du rapport signal à bruit. Ce compromis
dépend avant tout du support de transmission. Les codes peuvent être à symboles indépendants dans le
cas où l’apparition de chaque symbole est équiprobable et décorrélée de l’apparition des autres.
1. Code NRZ (Non Return to Zero) binaire
Deux niveaux de tension différents de 0 sont utilisés pour coder chacun des états binaires. Le
plus souvent, on choisit une tension négative pour le bit ‘0’. Il n’y a jamais de passage à la tension
nulle, on dit qu’il n’y a pas de transitions. La version la plus simple est le code NRZ-L (Level). Pour
chaque période de bit Tb, la valeur du signal Sk pour chaque bit bk est calculée de la manière suivante :
Sk = +V si bk = '1'
Sk = −V
si bk = '0 '
Il s’agit donc d’un signal rectangulaire de largeur Tb. La figure 76 présente un exemple de
chronogramme d’un code NRZ accompagné de sa transformée de Fourier. La période de bit Tb est de
10ns, donc la fréquence de bit ou de rythme Fb est de 100MHz. En annexe C, l’expression théorique
d’un signal binaire codé en NRZ est démontrée.
Fig. 76 - Code NRZ (chronogramme et densité spectrale de puissance)
L’énergie d’un signal codé en NRZ est principalement situé sur la bande [0;Fb], qui contient le
lobe principal du spectre. Une composante continue existe, ce qui peut être pénalisant en terme de
rendement énergétique si le canal bloque la composante continue (exemple des antennes), puisque de
de l’énergie est consommée pour rien. De plus, aucune raie n’est présente à la fréquence de bits Fb, ce
qui rend difficile la récupération d’un signal d’horloge de synchronisation de la réception du signal
(démodulation synchrone). Le fait qu’il n’y ait pas de raies en Fb provient du fait qu’il n’y a pas
forcément de transition tous les Tb.
2. Code RZ (Return to Zero) binaire
Dans le code RZ, le niveau ‘0’ est codé par un signal nul. Il s’agit d’un signal rectangulaire
d’amplitude +V, unipolaire et de largeur [0;λTb], suivi d’un retour à 0 pendant l’intervalle [λTb ;Tb].
Λ est un nombre compris entre 0 et 1.
A. Boyer
79
Canaux de transmissions bruités
Septembre 2013
+
 V ∀t ∈ [ 0; λTb ]
Sk = 
si bk = '1'
0 ∀t ∈ [ λTb ; Tb ]
Sk = 0 si bk = '0 '
La figure 77 présente un exemple de chronogramme d’un code RZ et de sa transformée de
Fourier. Le message binaire est le même que dans l’exemple précédent, la fréquence de rythme est
similaire. On prend dans cet exemple λ=0.5.
Fig. 77 - Code RZ (chronogramme et densité spectrale de puissance)
Ce codage entraîne toujours l’apparition d’une composante continue. Pour λ=0.5, le codage
RZ permet de récupérer une raie à la fréquence de commutation des bits ce qui va faciliter la
récupération du rythme de la transmission en réception. Néanmoins, l’apparition de cette raie suppose
la stationnarité des éléments binaires, c'est-à-dire une séquence équilibrée de ‘0’ et de ‘1’. Si une
longue suite de ‘0’ apparaît dans le message, le signal transmis reste nul pendant un long laps de
temps. L’amplitude de la raie à Fb décroît alors fortement et la puissance du signal recueilli peut
devenir insuffisante pour assurer la récupération du rythme. Le récepteur peut alors perd sa
synchronisation.
3. Code binaire biphase (code Manchester)
La règle du codage est la suivante.

 +V

Sk = 
 −V


 −V

Sk = 
 +V

 T 
∀ t ∈  0; b 
 2
T

∀ t ∈  b ; Tb 
2


si bk = '1'
 T 
∀ t ∈  0; b 
 2
T

∀ t ∈  b ; Tb 
2


si bk = ' 0 '
La figure 78 présente un exemple de chronogramme d’un code Manchester et de sa
transformée de Fourier. Le message binaire est le même que dans l’exemple précédent, la fréquence de
rythme est similaire.
A. Boyer
80
Canaux de transmissions bruités
Septembre 2013
Fig. 78 - Code Manchester (chronogramme et densité spectrale de puissance)
Cette fois, le spectre du code Manchester ne contient pas de composante continue, ce qui
pouvait se prévoir de manière statistique. On peut ainsi transmettre sur le même canal une tension
d’alimentation continue et le signal informatif sans perturber ce dernier. Puisqu’il y a toujours des
transitions tous les Tb, on peut récupérer une raie à Fb et reconstituer le signal d’horloge à l’aide d’un
filtre sélectif centré sur Fb. Cependant, par rapport au code NRZ, l’occupation spectrale du code
Manchester est plus large [0 ;2×Fb]. Le codage Manchester est notamment utilisé dans la norme
Ethernet.
4. Code bipolaire RZ ou Alternate Marked Inversion
Contrairement aux codes en ligne précédents, ce code n’est pas à symboles indépendants. Il
permet d’ajouter une corrélation entre les symboles transmis, alors qu’il n’en existait aucune dans la
source du message, où tous les symboles étaient indépendants. L’ajout d’une certaine corrélation entre
les symboles ajoute une redondance à l’information sans avoir à ajouter de bits supplémentaires. La
règle du codage est la suivante.

 Tb 
 nV ∀t ∈  0; 2 



Sk = 
si bk = '1', n var ie alternativement de + 1 à − 1.
 −nV ∀t ∈  Tb ; T 
 2 b



S k = 0 si bk = '0 '
La figure 79 présente un exemple de chronogramme d’un code AMI et de sa transformée de
Fourier. Le message binaire est le même que dans l’exemple précédent, la fréquence de rythme est
similaire.
Fig. 79 - Code AMI (chronogramme et densité spectrale de puissance)
Ce codage présente plusieurs intérêts :
A. Boyer
81
Canaux de transmissions bruités
Septembre 2013
Il permet une détection d’erreur en contrôlant la somme des symboles, sans avoir à ajouter
de bits redondants
La composante continue est nulle
Par contre, aucune raie à Fb n’est présente. Cependant, on peut néanmoins récupérer l’horloge
bit. Si on effectue un redressement double alternance, on retrouve un codage RZ qui présente une raie
à Fb. Mais des problèmes de perte de synchronisation peuvent apparaître. D’autres méthodes à
symboles dépendants ne présentant pas ce problème ont été imaginées (code HDBn) mais nous ne les
traiterons pas.
III. Filtrage et pulse shapping
1. Filtrage
La fonction filtrage est présente en différents endroits d’un émetteur et d’un récepteur afin d
réduire la bande passante du signal, cela pour 2 raisons :
limiter l’occupation spectrale du signal et transmettre sur un canal à bande étroite sans
perturber les canaux adjacents
bloquer les signaux indésirables (signaux hors bande) et limiter le bruit (dans le cas d’un
bruit blanc, son amplitude en puissance est directement proportionnelle à la bade passante
du canal)
La réponse des filtres peut être caractérisée soit dans le domaine fréquentiel par la fonction de
transfert, soit dans le domaine temporel par la réponse impulsionnelle. Ces filtres peuvent être
analogiques (à base de composants passifs RLC) ou digitaux (filtres FIR ou IIR synthétisés par des
composants digitaux de traitement de signal).
Les filtres doivent cependant ne pas introduire trop d’atténuation sur la bande passante et ne
pas distordre le signal transmis ou reçu. De plus, en réduisant l’occupation spectrale d’un signal
numérique, ces fronts ralentissent et le risque d’apparition d’interférences intersymboles s’accroît. Il
convient de s’assurer que ces filtres respectent le critère de Nyquist dans le temps. En d’autre terme, le
filtre ne doit pas dégrader le signal numérique à l’instant où celui-ci est échantillonné pour détecter
son état binaire.
La figure ci-dessous indique les positions typiques des filtres dans un canal de transmission
(toutes ne sont pas représentées). Le filtre de mise en forme (pulse shaping) est un filtre passe-bas
appliqué sur le signal en bande de base avant la modulation. Il permet de réduire l’occupation spectrale
du signal modulé (voir annexe C pour le spectre d’un signal numérique). Comme il ralentit et étale le
signal numérique, il est nécessaire de s’assurer qu’il n’introduit pas d’interférences intersymboles. En
entrée et en sortie du medium de transmission, on trouve des filtres passe bande centrés sur la bande
passante du canal. Ils servent à supprimer le bruit hors bande. Enfin, on trouve aussi un filtre de mise
en forme en sortie de l’étage de démodulation afin d’annuler l’interférence intersymbole.
EMETTEUR
Signal binaire
bande de base
Suppression du
bruit hors bande
Mise en
forme
Traitement
bande de base
Modulation
amplification
Medium de
transmission
Signal binaire
bande de base
Mise en
forme
Traitement
bande de base
amplification
Démodulation
Suppression du
bruit hors bande
RECEPTEUR
Fig. 80 – Positions typiques du filtrage dans un canal de transmission
A. Boyer
82
Canaux de transmissions bruités
Septembre 2013
2. Pulse shaping – Filtre à cosinus surélevé
L’interférence intersymbole est un effet inévitable dans les communications filaires et
hertziennes, lié à leurs caractéristiques. La solution immédiate pour s’en prémunir est de ralentir le
débit su signal transmis. En effet, comme le canal de transmission tend à étaler dans le temps chaque
symbole transmis, on réduit ainsi le risque de recouvrement de symboles adjacents. Cependant, que
faire pour réduire l’interférence intersymbole s’il n’est pas possible de réduire le débit ?
La solution réside dans la mise en forme du signal binaire (pulse shaping). Considérons un
signal formé d’impulsions. Le principe est de s’assurer qu’à l’instant de l’échantillonnage du signal
reçu pour déterminer l’état binaire transporté, l’interférence intersymbole s’annule. Ailleurs, même si
les symboles se recouvrent, cela n’a pas d’importance. Pour cela, on va « tailler » la forme temporelle
des impulsions de manière à ce que :
elles occupent une bande de fréquence étroite
une impulsion s’annule au moment où on échantillonne une autre impulsion
Pourquoi une impulsion de forme rectangulaire n’est pas souhaitable ? Parce que son spectre
tend à occuper une bande fréquentielle très large, proche d’une fonction sinus cardinal (voir annexe
C). Une première forme temporelle qui pourrait parfaitement convenir est justement un sinus cardinal.
La transformée de Fourier d’un sinus cardinal est une fonction porte, donc le spectre de ce signal est à
bande limitée : sa bande passante est égale au débit de symbole divisé par 2, qui est la bande passante
de Nyquist (voir annexe D) ! En outre, la fonction sinc respecte le critère de Nyquist dans le temps,
puisqu’elle s’annule régulièrement dans le temps. Si on synchronise l’échantillonnage des symboles
sur les zéros de la fonction sinc, alors un symbole ne peut plus interférer avec les symboles suivants.
Cependant, en pratique, ce type de mise en forme est très délicate à mettre en œuvre. Ensuite, les
temps de montée et de descente de la fonction sinc sont grands. Si une erreur temporelle affecte
l’instant d’échantillonnage, alors il y aura interférence intersymbole.
Une autre classe de forme temporelle très largement utilisée est celle des fonctions en cosinus
surélevé (ou raidi) (voir annexe E). Cette fonction est une modification de la fonction sinc :
 πrt 

cos
T
 t 
 S  (Équation 84)
f (t ) = sin c 
2
T
 S   2rt 

1 − 
 TS 
Ts : période symbole
r : facteur de roll-off
Elle est caractérisée par le facteur de roll-off qui permet d’ajuster la bande passante et de se
rapprocher de la bande passante de Nyquist. Pour un facteur de roll-off de 0 %, la bande passante est
égale à la bande passante de Nyquist (on obtient alors une fonction sinc). Pour un facteur de roll-off de
100 %, la bande passante est égale à 2 fois la bande passante de Nyquist. Les 2 figures ci-dessous
comparent la réponse temporelle et le spectre d’une impulsion passée à travers un filtre en cosinus
surélevé de facteur de roll-off = 0, 0.5 ou 1. Le débit de symbole est de 500 Kbauds. Plus on augmente
le facteur de roll-off, moins l’impulsion s’étale et plus le risque d’interférences intersymboles diminue.
Par contre, l’occupation spectrale s’élargit. On appelle l’excès de bande passante la bande passante
supplémentaire occupée par le signal par rapport à la bande passante de Nyquist BNyquist. On peut
montrer que l’excès de bande passante Wo est égal à :
W0 = r × B Nyquist = r × FS (Équation 85)
A. Boyer
83
Canaux de transmissions bruités
Septembre 2013
Fig. 81 – Réponse temporelle d’une impulsion passée à travers un filtre en cosinus surélevé
Excès de bande
passante
Bande passante
de Nyquist
Fig. 82 – Spectre d’une impulsion passée à travers un filtre en cosinus surélevé
En pratique, le facteur de roll-off est compris entre 0.2 et 0.4. En pratique, ce type de filtre
n’est pas implémenté directement. On préfère le dispatcher en 2 filtres en racine de cosinus surélevé,
placés sur l’émetteur et le récepteur. La réponse globale des 2 filtres est équivalente à un filtre en
cosinus surélevé, mais le résultat est meilleur.
IV. Accès multiples
Les accès multiples ou multiplexage sont un moyen courant pour transmettre simultanément
les messages provenant de plusieurs sources sur un même canal, permettant à une même ressource
d’être partagée entre plusieurs utilisateurs. Outre l’optimisation de l’utilisation du canal de
transmission, les techniques d’accès multiples offrent certains avantages en terme de fiabilisation de la
transmission. Afin qu’un accès multiple fonctionne, il est nécessaire de définir d’une part le principe
de l’allocation de la ressource à une demande de communication et d’autre part le principe de partage
de la ressource. Cette gestion est assurée par une couche basse des protocoles de communication,
appelée Medium Access Control (MAC) dans le cas de réseaux locaux. Le but de cette couche est de
définir la méthode d’accès au canal de transmission afin de « se faire entendre et comprendre des
autres ». Elle reste néanmoins indépendante de la couche physique dont le rôle est d’interfacer le
système de communication au canal de transmission.
Un canal bidirectionnel est déjà un canal partagé entre 2 utilisateurs, qui ont une liaison en
mode duplex. Cependant, le partage est limité à 2 utilisateurs au maximum. Afin d’assurer un partage
entre plus d’utilisateurs, des méthodes d’accès déterministes ont été développées. Elles consistent à
allouer une fraction de la ressource à des utilisateurs pour la durée de la communication. Chaque
A. Boyer
84
Canaux de transmissions bruités
Septembre 2013
ressource est alors isolée des autres en assurant l’orthogonalité entre les différents sous-canaux, ce qui
évite toute interférence entre les utilisateurs. Il existe trois types de partage de canal de transmission,
qui sont résumées sur la figure 83.
Remarque : la propriété d’orthogonalité indique si deux entités (signaux, codes, …) sont
séparables, c’est à dire qu’en leur appliquant une opération donnée, on trouve un résultat nul. Ainsi,
deux droites orthogonales ont un produit scalaire nul.
fréquence
temps
…
Utilisateur 3
tem
ps
qu
en
ce
fré
…
Utilisateur N
Utilisateur 3
Utilisateur 2
Utilisateur 1
ps
tem
…
Utilisateur N
Utilisateur 3
Utilisateur 2
Utilisateur 1
Utilisateur N
Utilisateur 2
Utilisateur 1
fréquence
FDMA
TDMA
CDMA
Fig. 83 - Les différentes méthodes d’accès multiples déterministes
Frequency Division Multiple Access (FDMA) : les utilisateurs se partagent le canal dans
le domaine fréquentiel et émettent sur un sous-canal donné. Les canaux adjacents ne se
recouvrent jamais grâce à l’utilisation d’intervalle de garde entre chaque voie, les rendant
ainsi orthogonales. Les différents utilisateurs n’ont pas besoin d’être synchronisés entre eux
ce qui rend cette technique simple à mettre en œuvre par rapport aux autres. De plus, c’est la
seule technique de multiplexage qui peut être employée avec des signaux analogiques.
Cependant, cette technique présente un des inconvénients majeurs des communications
radio, celui des évanouissements sélectifs. Une bande de fréquence étroite peut subir
pendant une durée assez longue une forte atténuation. Pour y remédier, il est possible
d’introduire des sauts de fréquence (frequency hoping) suivant un motif prédéfini. Ainsi,
l’utilisateur change régulièrement de bande de fréquence, réduisant la durée pendant
laquelle il est susceptible de subir un évanouissement sélectif. De plus, afin d’éviter que
chaque canal adjacent ne se recouvre à cause des élargissements de spectre que peuvent
subir les signaux, les émetteurs doivent être munis de filtres très sélectifs. Ceux-ci doivent
remplir des conditions très strictes au niveau de leur spectre d’émission. Enfin, la gestion de
l’allocation de la ressource n’est pas optimale. En effet, dans le cas où peu d’utilisateurs
communiquent, une partie des canaux reste alors inutilisée.
Time Domain Multiple Acces (TDMA) : les utilisateurs se partagent le même canal
fréquentiel dans le domaine temporel, qui est découpée en intervalles de durée fixe appelés
Time Slots (fig. 84). L’émission est donc discontinue et se fait par rafales (bursts). Cette
technique ne peut s’appliquer qu’à des communications numériques synchrones, dont les
messages ont été découpés en trames, et nécessitent de nombreux signaux de contrôle. Les
trames des différents utilisateurs ne doivent pas interférer entre eux, d’où l’ajout
d’intervalles de garde entre chaque bursts, rendant chaque voie orthogonale aux autres. La
capacité de chaque utilisateur diminue à mesure que leur nombre augmente. Cependant, il
permet une gestion plus souple de l’allocation de la ressource car la ressource sera toujours
entièrement utilisée. Néanmoins, le TDMA comme le FDMA émettent sur des bandes
étroites déterminées et souffrent du phénomène d’évanouissements sélectifs dus à la
propagation multi trajets des signaux. Cette technique est très utilisée en
télécommunication, et est utilisée avec le FDMA en téléphonie mobile (GSM).
A. Boyer
85
Canaux de transmissions bruités
Septembre 2013
Fig. 84 – Partage du canal par TDMA
Code Division Multiple Access (CDMA) : il s’agit d’une méthode d’étalement de spectre
obtenue soit par saut de fréquence soit par modulation d’un signal à débit plus élevé (Direct
Sequence Spread Spectrum), s’appliquant uniquement aux communications numériques. Le
système de gestion permet à plusieurs utilisateurs d’émettre en même temps sur toute la
bande de fréquence. Mais pour que le destinataire sépare le message qui lui est attribué des
autres, chaque utilisateur émet avec un code qui lui est propre. Ce code est une séquence
pseudo-aléatoire unique et orthogonale aux autres codes. Elle va permettre de gérer les sauts
de fréquence et d’éliminer le bruit binaire dû aux autres communications. Ainsi, seul le
signal ayant le même code que le destinataire sera desétalé. L’utilisateur partage donc la
même bande que les autres utilisateurs. Cette technique est parfois surprenante car le signal
détecté est en général sous le niveau de bruit, puisqu’il se retrouve noyé avec les autres
signaux émis dans un signal aléatoire sur l’unique bande de fréquence allouée. La figure 85
illustre le processus d’étalement/desétalement de spectre employé en CDMA. Elle permet
d’obtenir une très bonne efficacité spectrale et de combattre très efficacement les
évanouissements sélectifs grâce une bande de fréquence plus large. Cependant, comme
plusieurs utilisateurs émettent sur la même bande de fréquence, ils contribuent à dégrader
les performances en augmentant le bruit de fond. Il s’agit là du principal facteur limitant de
cette technique. De plus, elle requiert d’importantes capacités de calcul et donc l’utilisation
de composants coûteux. Le CDMA a été initialement développé au Etats-Unis et a servi en
téléphonie mobile et en télécommunications spatiales (GPS). Ce système a subi plusieurs
évolutions et connaît aujourd’hui un succès important comme avec le Wide-CDMA (WCDMA) pour la téléphonie 3G.
Bruit de fond
Interférences
Autres utilisateurs
Fig. 85 – Principe du processus étalement/desétalement de spectre employé en CDMA
A. Boyer
86
Canaux de transmissions bruités
Septembre 2013
V. Diversité
Comme nous l’avons vu, la plupart des systèmes de transmission est soumise à des problèmes
de propagation multi-trajet, qui provoque des évanouissements sélectifs de très fortes valeurs. En
général, la durée de ces évanouissements est en général grande devant la période du signal binaire. Si
un signal subit un évanouissement sélectif, de nombreuses techniques servant à fiabiliser la
transmission, telle que l’ajout de codes correcteur d’erreurs deviennent inefficaces.
Il existe un moyen pour remédier à ce problème : proposer différents chemins de transmission
à un même signal. Cela peut consister à « éparpiller » l’information dans le message à transmettre (par
exemple entrelacement des données) ou bien de le transmettre/recevoir par différents canaux. En
télécommunications, on dit qu’on ajoute de la diversité aux chemins de propagation. Il s’agit de
transmettre simultanément un message sur plusieurs canaux totalement indépendants qui présenteront
des caractéristiques différentes. La diversité peut se présenter sous différentes formes :
diversité fréquentielle : l’information est transmise sur différentes porteuses suffisamment
espacées en fréquence pour qu’elles ne subissent pas le même évanouissement sélectif. Il est
cependant nécessaire de disposer d’un canal avec une bande de fréquence suffisamment
large pour que les porteuses restent éloignées et soient affectées d’une manière différente
par la sélectivité du canal
diversité temporel : l’information est transmise sur une seule et même porteuse mais
plusieurs fois à des instants différents. Cependant, un délai est nécessaire pour récupérer et
décoder toute l’information. Ce délai peut devenir inadmissible dans le cas d’applications
temps réel (voix, vidéo). L’entrelacement vu précédemment ajoute de la diversité
temporelle.
diversité spatial ou de réception : dans le cas de radiocommunications, plusieurs antennes
sont utilisées au niveau de l’émetteur et du récepteur. Celles-ci sont espacées d’un multiple
de λ/4 ou λ/2 pour optimiser la diversité.
Remarque :
Une méthode de diversité qui connaît un très grand succès ces dernières années est la
modulation Orthogonal Frequency Division Multiplexing (OFDM), qui ajoute de la diversité
fréquentielle. Il s’agit d’une modulation multi-porteuses qui va permettre d’adapter l’information à
transmettre au canal. Le principe de l’OFDM est décrit par la figure 86.
Fig. 86 – Principe de la modulation OFDM
Elle consiste à séparer l’information à transmettre en N blocs et à les transmettre en parallèle
sur N porteuses différentes et orthogonales (des multiples d’une fréquence fondamentale). Si les
A. Boyer
87
Canaux de transmissions bruités
Septembre 2013
fréquences de ces N porteuses sont suffisamment éloignées, elles ne seront pas atténuées de la même
façon par le canal. Si toutes les porteuses sont émises avec la même puissance, la mesure de
l’amplitude de chacune des porteuses par le récepteur permet de déterminer la fonction de transfert du
canal et d’apporter une correction pour égaliser ou compenser l’effet du canal. Des séquences de bits
spéciales sont envoyées périodiquement pour déterminer les facteurs de correction à apporter.
L’opération employée pour générer le signal OFDM est classique puisqu’il s’agit d’une transformé de
Fourier rapide (FFT) inverse. De même, l’opération de démodulation emploie une FFT. Le
développement ces dernières années des circuits de Digital Signal Processing a aidé à la réalisation
technique de l’OFDM.
Cette technique permet de lutter efficacement contre le phénomène d’évanouissement sélectif
puisqu’elle permet non seulement d’égaliser le canal, mais en plus de détecter quelles sont les bandes
qui subissent un évanouissement sélectif. Une fois ces bandes détectées, celles-ci ne seront plus
utilisées. Cependant, l’OFDM est très sensible au décalage en fréquence des porteuses, qui peut faire
perdre l’orthogonalité. Cela pose de fortes contraintes sur les oscillateurs locaux des émetteurs et des
récepteurs, ainsi que sur l’effet Doppler maximal. Néanmoins, si l’évanouissement sélectif causé par le
canal annule une des porteuses, alors une partie du signal informatif est définitivement perdue. Ainsi,
dans la modulation Coded OFDM (COFDM), les données sont brassées et elles se retrouvent
éparpillées dans les différents blocs. Grâce à ses avantages, la modulation OFDM est utilisée dans de
nombreux systèmes de communication : DVB, radio numérique (DAB), Wimax, WiFi, Hiperlan 2,
ADSL.
VI. Ce qu’il faut retenir
⇒ Une transmission peut être fiabilisée en modifiant de manière adéquate les propriétés
physiques du signal.
⇒ La mise en forme électrique d’un signal numérique ou code en ligne permet de
modifier son occupation spectrale, améliorer la synchronisation du récepteur ou
d’ajouter de la redondance afin de détecter d’éventuelles erreurs.
⇒ Le filtrage est utilisé dans l’émetteur et le récepteur pour supprimer les signaux
indésirables et réduire l’occupation spectrale du signal transmis.
⇒ Afin de réduire l’interférence intersymbole, il est possible de mettre en forme le signal
en bande de base à l’aide d’un filtre dit de pulse shaping. Les filtres à cosinus raidi
sont couramment employés pour la remise en forme des signaux. Ils offrent un bon
compromis entre réduction de l’interférence intersymbole et diminution de
l’occupation spectrale
⇒ Les techniques d’accès multiples sont courantes en télécommunications afin de
partager le canal entre plusieurs utilisateurs. Le canal peut être partagé en fréquence,
dans le temps ou selon des codes. Ces techniques offrent différents avantages en
termes d’optimisation de l’utilisation du canal et de robustesse face au bruit.
⇒ L’ajout de diversité consiste à diversifier les canaux empruntés par le signal (plusieurs
fréquences, à différents instants, plusieurs chemins de propagation) et ainsi le rendre
plus robuste face au bruit.
A. Boyer
88
Canaux de transmissions bruités
Septembre 2013
G. Régénération d’un signal
La régénération d’un signal a pour objet la récupération aussi fidèle que possible des
symboles émis par le récepteur, après que ce signal ait été affaibli, déformé et perturbé par son passage
à travers le canal de transmission. Son rôle est de débarrasser le signal des perturbations et des
distorsions qui l’affectent, notamment à l’aide de filtres et d’égaliseurs, puis de l’interpréter en
fonction des valeurs que peut prendre le signal. En outre, dans le cas d’une transmission synchrone, le
signal reçu doit être échantillonné à des instants précis afin de retrouver le flux binaire original. Cela
nécessite de reconstituer avec précision l’horloge de cadencement du message transmis. La qualité de
service, c'est-à-dire la capacité du système de réception à délivrer des messages avec le minimum
d’erreurs, dépend des caractéristiques du récepteur et de sa capacité à reconstituer fidèlement le signal
malgré les effets parasites du canal de transmission.
I.
Structure d’un régénérateur synchrone
La figure 87 présente la structure classique d’un régénérateur synchrone dans un récepteur
sous la forme d’un schéma bloc. Le régénérateur va reconstituer à partir du signal reçu un signal
binaire aussi fidèlement que possible du flux binaire transmis. Le signal n’a sans doute pas été
transmis directement en bande de base et il a certainement été multiplexé, modulé et filtré. La « tête
RF » ou « RF front end receiver » est le premier élément de la chaîne de réception et va assurer
l’amplification, le filtrage, la démodulation et le démultiplexage du signal reçu afin d’extraire le signal
de bande de base. Cependant, en raison des effets parasites du canal (dispersion temporelle, bruit) et
des filtres de l’émetteur visant à réduire l’occupation spectrale du signal, le signal de bande de base
reçu est déformé et le risque d’interférences inter symbole est très élevé.
Filtre de réception
Signal RF
reçu
Affaiblis,
déformés,
perturbés
Egaliseur
échantillonneur
Mise en forme
T
∫
Bande de
base
dt
0
Corrélateur
Amplification
Décision
Signal binaire
reconstitué
Démodulation
filtre
Extraction
horloge
Fb=1/Tb
Oscillateur
local
Fig. 87 - Schéma-bloc d’un régénérateur synchrone
Le régénérateur est composé de plusieurs circuits digitaux qui vont réduire les interférences
inter symboles et ainsi le taux d’erreur binaire :
Filtre de réception : de manière générale, les filtres de réception vont supprimer les
interférences hors bande et réduire l’interférence inter symboles.
Egaliseur : un égaliseur est un filtre de réception particulier qui vise à compenser les effets
parasites du canal et annuler l’IES.
A. Boyer
89
Canaux de transmissions bruités
Septembre 2013
Corrélateur : les messages binaires sont parfois codés (CDMA par exemple). Certains codes
possèdent des propriétés de corrélation. En exploitant ces propriétés, il est possible
d’améliorer la détection du signal pour un SNR donné. La corrélation consiste en général à
multiplier le signal reçu par le code original puis à l’intégrer dans le temps sur une période
donnée. S’il existe une corrélation entre le code initial et le code qui nous a servi à
multiplier, alors il existe une forte corrélation entre ces signaux et le résultat de l’intégration
donnera un signal de forte amplitude. Sinon, la corrélation sera faible et le résultat de
l’intégration quasi nul.
Détection : une fois le signal binaire reconstitué, il est nécessaire de l’interpréter, c'est-à-dire
reconnaître la valeur prise par chaque symbole parmi les M valeurs possibles. Un détecteur
à seuil effectue cette opération de discrimination, le choix des valeurs des seuils est faite
afin de minimiser la probabilité d’erreur.
Echantillonnage : les signaux digitaux doivent être échantillonnés à chaque période, et à des
instants précis de chaque période, là où l’influence du bruit et de l’IES sera minimale.
Extraction de l’horloge : les signaux digitaux sont généralement transmis sans l’horloge de
cadencement du flux binaire. Or, celle-ci est indispensable pour échantillonner correctement
le signal reçu. Le récepteur connaît certes par défaut la fréquence du signal binaire reçu,
donc il est capable de générer un signal d’horloge de même fréquence. Cependant, celui-ci
doit aussi être en phase avec le signal reçu. L’extraction de l’horloge va permettre de
synchroniser l’horloge créée par un oscillateur local sur le signal binaire reçu.
II. Egalisation
Comme nous l’avons vu dans les chapitres précédents, la transmission d’un signal numérique
à travers le système constitué par le canal de transmission et les filtres d’émission et de réception
conduit à l’ajout de bruit (dégradation du rapport signal à bruit) et à une déformation due aux
limitations de la bande passante du canal et à sa dispersion (qui provoque le phénomène
d’interférences inter symboles). La présence inévitable de bruit et d’interférences inter symboles
introduit des erreurs dans le dispositif de décision. La conception des filtres d’émission et de réception
vise à réduire le bruit et l’IES.
Dans la plupart des systèmes de télécommunications, le rapport signal à bruit reste
suffisamment élevé pour que le fonctionnement soit plus limité par l’IES que par le bruit. Un égaliseur
est un filtre dont le butest d’annuler l’IES provoqué par le canal en annulant ses effets parasites. Les
critères de Nyquist fixent les conditions pour lesquelles l’interférence intersymbole peut être éliminée
(équations 31 et 43). Si la réponse impulsionnelle ou la réponse fréquentielle d’un filtre ou d’un canal
respecte les critères de Nyquist, l’IES peut être annulé. L’égaliseur est donc conçu afin que l’ensemble
canal de transmission + égaliseur forme un filtre de Nyquist.
1. Principe de l’égalisation
En principe, si le canal est parfaitement connue, il est possible en théorie de minimiser voire
d’annuler l’IES à l’aide de filtre d’émission et de réception, de telle sorte que la chaîne complète de
transmission forme un canal de Nyquist. En pratique, on ne connaît que très rarement les
caractéristiques du canal, tout au plus que les caractéristiques moyennes. L’exemple type est le canal
hertzien, qui est fortement non stationnaire. En outre, il peut exister des imperfections dans les filtres.
Ces différents effets conduisent à maintenir une IES résiduelle et variable dans le temps qu’il faut
compenser. L’égaliseur va se charger de cette opération.
En bande de base, si les filtres d’émission et de réception forment un filtre de Nyquist, le rôle
de l’égaliseur sera de compenser l’effet du canal :
E( f ) =
A. Boyer
1
C( f )
sur [− B, B ]
(Équation 86)
90
Canaux de transmissions bruités
Septembre 2013
où E(f) représente la fonction de transfert de l’égaliseur et B la bande passante du canal.
Les parties qui suivent décrivent de manière succincte quelques structures classiques
d’égaliseurs. Pour plus de détails, vous pouvez vous reporter à des ouvrages spécialisés, certains vous
sont donnés dans les références.
a. Egaliseur transverse ou linéaire
Les égaliseurs transverses sont les plus simples à mettre en œuvre. Il s’agit de simples filtres
numériques linéaires à réponse impulsionnelle finie (FIR) (fig. 88). Ce sont des filtres non récursifs
qui présentent l’avantage de ne pas présenter de boucles de contre réaction et donc d’être toujours
stables. Leur fonction de transfert est calculée à partir de celle du canal pour annuler l’IES réponse
impulsionnelle du canal est parfaitement connue, il est possible de déterminer une réponse
impulsionnelle pour l’égaliseur de manière à donner une forme idéale à l’impulsion en sortie du filtre
égaliseur, comme le montre la figure 89.
Malgré leur simplicité, les égaliseurs transverses sont peu efficaces puisque la fonction de
transfert du canal doit être parfaitement connue, stationnaire et causal (échantillons nuls pour n<0), ce
qui est rarement le cas en pratique.
x[n]
T
T
T
bn
bn-1
b1
b0
+
y[n]
Fig. 88 - Structure d’un égaliseur transverse
y[n]
x[n]
1
Egaliseur
transverse
…
-1
0
1
2
N N+1
t
1
…
-1
0
1
2
N N+1
t
y[0] = b0 x[0] + b1 x[0 − 1] + b2 x[0 − 2] + .... + bN x[0 − N ] = 1
y[1] = b0 x[1] + b1 x[1 − 1] + b2 x[1 − 2] + .... + bN x[1 − N ] = 0
....
y[N ] = b0 x[N − 0] + b1 x[N − 1] + b2 x[N − 2] + .... + bN x[N − N ] = 0
Fig. 89 - Calcul des coefficients d’un égaliseur transverse
b. Egaliseur zero forcing
Un égaliseur à zero forcing cherche à compenser exactement la fonction de transfert du canal,
afin d’annuler complètement l’IES. La fonction de transfert du filtre égaliseur est alors l’inverse de
celle du canal, comme le montre l’équation 87. A partir de la transformée en Z, on peut en déduire la
réponse impulsionnelle du filtre, connaissant celle du canal. M représente l’ordre du filtre et R un
retard afin de prendre en compte une partie non causale de la réponse du canal.
A. Boyer
91
Canaux de transmissions bruités
1
E (z ) =
⇔
C (z )
Septembre 2013
M −1
∑ e(i )c(n − i ) = δ (n − R )
(Équation 87)
i =0
Ce filtre présente néanmoins plusieurs défauts. Le premier concerne le risque d’instabilité. En
effet, si C(z) présente des zéros de module supérieur à 1, alors E(z) possède des pôles instables. En
outre, comme les canaux ont généralement des comportements de type passe bas, ce type d’égaliseur
est généralement un filtre de type passe haut. Si le bruit est large bande, alors il s’ensuit une nette
dégradation du rapport signal à bruit en sortie du filtre. Enfin, ce type d’égaliseur est statique et n’est
pas utilisable pour un canal non stationnaire. Il nécessite une estimation préalable de la réponse
impulsionnelle du canal.
c. Egaliseur à maximum de vraisemblance
La présence d’IES est caractéristique d’une mémoire dans le signal lié à un canal imparfait.
Comme il existe une interdépendance entre les symboles reçus, il est possible de reconstituer la
séquence de symboles transmis en maximisant la vraisemblance d’apparition du symbole. Cela se fait
en général en utilisant un algorithme de Viterbi. Celui-ci permet de sélectionner dans un treillis le
chemin de métrique le plus faible.
L’algorithme de Viterbi ne peut s’applique que sur un signal avec un bruit blanc superposé.
L’égaliseur à maximum de vraisemblance est sans doute celui qui affiche les meilleures performances,
mais c’est aussi le plus complexe. Il ne s’applique qu’à des séquences binaires courtes. Comme les
autres égaliseurs, il nécessite aussi une estimation préalable de la réponse impulsionnelle du canal.
d. Egaliseur adaptatif
Tous les égaliseurs précédents souffrent du défaut de considérer le canal stationnaire. En
pratique, les paramètres de l’égaliseur peuvent être remis à jour régulièrement, grâce à l’utilisation de
séquence d’apprentissage. Mais la période de remise à jour doit être suffisamment faible et rien
n’empêche le canal de se modifier entre deux remises à jour.
Les égaliseurs adaptatifs résolvent le double problème de méconnaissance du canal et
d’évolution dans le temps du canal. Les égaliseurs adaptatifs basés sur l’algorithme de gradient
stochastique sont parmi simples au niveau implémentation, stable et peu couteux. Cette approche vise
à minimiser l’erreur quadratique entre les séquences d’entrée et de sortie de l’égaliseur, les coefficients
du filtre étant modifiés au cours du temps. Néanmoins, les performances de ce type d’égaliseur
peuvent être limitées dans le cas de variations brutales du canal.
Il existe beaucoup d’autres techniques d’égalisation beaucoup plus avancées parmi lesquelles
les égaliseurs récursifs à retour de décision et les égaliseurs autodidactes.
2. Estimation du canal
En pratique, les caractéristiques du canal ne sont jamais parfaitement connues, ce qui peut
limiter l’efficacité de certaines méthodes d’égalisation, qui supposent un canal stationnaire et
requièrent une estimation de la fonction de transfert ou la réponse impulsionnelle du canal.
Il est alors nécessaire de réactualiser régulièrement l’estimation de la fonction de transfert du
canal et remettre à jour les paramètres de l’égaliseur. En pratique, la plupart des systèmes de
télécommunications émettent sous la forme de bursts (ou de manière intermittente), ce qui autorise
l’insertion de trames supplémentaires et spécifiques entre chaque burst. Ces séquences, appelées
séquences d’apprentissage, sont connues par le système et vont permettre d’identifier la fonction de
transfert du canal à un instant T. Elles doivent présenter de fortes propriétés d’autocorrélation (proche
d’un Dirac). En effet, si on appelle d(t) la séquence d’apprentissage, le signal reçu peut s’écrire sous la
forme :
y (t ) = d (t ) * c(t ) + n(t )
Si le bruit est négligeable, après intercorrélation du signal reçu avec la séquence
d’apprentissage, on obtient :
A. Boyer
92
Canaux de transmissions bruités
Septembre 2013
R yd (t ) = y (t ) * d (− t ) = d (t ) * d (− t ) * c(t ) = Rd (t ) * c(t )
où Rd(t) est la fonction d’autocorrélation de la séquence d(t). Si celle-ci est proche d’un Dirac,
on obtient alors :
R yd (t ) ≈ c(t )
En réalisant l’intercorrélation entre la séquence d’apprentissage et le signal reçu, il est possible
de déterminer la réponse impulsionnelle du canal. En général, la séquence d’apprentissage doit être
assez courte pour ne pas pénaliser le débit de données utiles, et ne présente pas une fonction
d’autocorrélation aussi idéale, ce qui limite l’identification du canal.
Exemple : Dans le cas du GSM, chaque trame de données ou slot contient une séquence
d’apprentissage de 26 bits, appelée Constant Amplitude Zero AutoCorrelation (CAZAC). En tout, huit
séquences CASAC différentes peuvent être utilisées afin de réduire les interférences entre cellules
proches fonctionnant à la même fréquence.
GSM – trame TDMA
…
…
1 slot = 156 bits = 577 µs
données
séquence
apprentissage
données
58 bits
26 bits
58 bits
période
de garde
Fig. 90 - Exemple de séquence d’apprentissage : séquence CAZAC pour le GSM
III. Synchronisation
La synchronisation d’un récepteur sur un émetteur est un problème crucial dans la
récupération du message numérique. Le problème de synchronisation se pose en deux endroits du
récepteur :
la démodulation synchrone
l’échantillonnage
Dans les parties qui suivent, nous allons d’abord décrire les problèmes liés à la perte de
synchronisation, puis nous décrirons succinctement la manière dont on put conserver cette
synchronisation.
1. Démodulation synchrone
La plupart des systèmes de télécommunication utilise des démodulateurs synchrones ou
cohérents. La figure 91 présente le schéma de principe d’un démodulateur d’amplitude cohérent. UR(t)
correspond à un signal modulé en amplitude avec un indice de modulation m. Le signal modulant est
un signal sinusoïdal de fréquence ωm et d’amplitude 1. La porteuse est un signal sinusoïdal de
fréquence ωP et d’amplitude AP. La démodulation cohérente consiste à multiplier le signal reçu avec
un signal identique en fréquence et en phase au signal porteur afin de transposer en fréquence le
A. Boyer
93
Canaux de transmissions bruités
Septembre 2013
signal. Après un filtrage passe bas, seul le signal de bande de base est conservé. Le principal avantage
de la démodulation cohérente est de réduire l’influence du bruit sur le signal démodulé. Grace au
filtrage, seul le bruit superposé au signal modulé est ramené en bande de base.
US
UR
UD(t)
UP
Reconstitution
porteuse
U S (t ) = U R (t ) × B cos(ω P t )
A m


U S (t ) =  AP cos(ω P t ) + P (cos((ω P − ω M )t ) + cos((ω P + ω M )t )) × B cos(ω P t )
2


A Bm
A Bm
U S (t ) = AP B cos 2 (ω P t ) + P
cos((ω P − ω M )t ) cos(ω P t ) + P
cos((ω P + ω M )t ) cos(ω P t )
2
2
A B
A Bm
A Bm
U S (t ) = P (1 + cos(2ω P t )) + P
[cos((2ω P − ω M )t ) + cos(ω M t )] + P [cos((2ω P + ω M )t ) + cos(ω M t )]
2
4
4
Après filtrage : U S (t ) =
AP B AP Bm
A B
+
cos(ω M t ) = P (1 + m cos(ω M t )) (Équation 88)
2
2
2
Fig. 91 - Démodulateur d’amplitude cohérent
Néanmoins, la démodulation synchrone nécessite de pouvoir reconstituer la porteuse sans
erreur de phase. Tout déphasage entre la porteuse reconstituée et la porteuse originale dégradera le
signal démodulé, comme le montre la démonstration ci-dessous. Reprenons l’exemple précédent de
signal modulé en amplitude. Supposons que la porteuse reconstruite par le récepteur présente un
décalage de phase φ(t) avec le signal reçu, ce décalage pouvant varier dans le temps. En notant φ ce
déphasage, on récupère après filtrage le signal suivant :
A m


U S (t ) =  AP cos(ω P t ) + P (cos((ω P − ω M )t ) + cos((ω P + ω M )t )) × B cos(ω P t + ϕ )
2


AP Bm
A Bm
cos((ω P − ω M )t ) cos(ω P t + ϕ ) + P
cos((ω P + ω M )t ) cos(ω P t + ϕ )
U S (t ) = AP B cos(ω P t ) cos(ω P t + ϕ ) +
2
2
A B
A Bm
U S (t ) = P [cos(2ω P t + ϕ ) + cos ϕ ] + P
[cos((2ω P − ω M )t + ϕ ) + cos(ω M t − ϕ )] + AP Bm [cos((2ω P + ω M )t + ϕ ) + cos(ω M t + ϕ )]
2
4
4
AP B
A Bm
cos ϕ + P
[cos(ω M t − ϕ ) + cos(ω M t + ϕ )]
2
4
A B
A Bm
U S (t ) = P cos ϕ + P
cos(ω M t ) cos ϕ
(Équation 89)
2
2
A B
U S (t ) = P cos ϕ (t )(1 + m cos(ω M t ))
2
Après filtrage : U S (t ) =
L’amplitude du signal démodulé dépend du décalage de phase entre la porteuse reconstituée et
le signal reçu, conduisant à modifier l’enveloppe du signal reçu et à le dégrader. La seule manière de
retrouver le signal d’origine est soit d’avoir un décalage de phase constant. Dans le cas où ce
déphasage est nul, on retrouve le signal de l’équation 83.
Cet exemple pourrait s’appliquer à tout type de démodulation et démontre l’importance de la
synchronisation du récepteur sur la porteuse du signal reçu pour que la démodulation n’introduise pas
d’erreurs.
A. Boyer
94
Canaux de transmissions bruités
Septembre 2013
2. Echantillonnage synchrone
Comme nous l’avons vu dans les chapitres précédents, l’échantillonnage doit se faire à des
instants précis, là où l’influence de l’IES est la plus faible. Il est donc indispensable que le rythme du
signal binaire de bande de base soit récupéré correctement.
Si le récepteur est parfaitement synchroniser avec la porteuse et avec le flux binaire, le signal
reçu et échantillonné peut s’écrire sous la forme suivante :
y (t ) = y (kT ) = ∑ a k p (t − kT ) + n(t ) (Équation 90)
k
où p(t) représente la réponse impulsionnelle des signaux en entrée du récepteur, T la période
du signal binaire, ak l’amplitude prise par chaque symbole et n(t) le bruit additionnel. En présence d’un
asynchronisme entre la porteuse reconstituée par le récepteur et la porteuse du signal, une erreur de
démodulation notée e − iξ (t ) apparaît qui vient modifier l’enveloppe du signal reçu, où ξ(t) représente
l’erreur de phase. En présence d’un asynchronisme entre le rythme du signal reçu et l’horloge binaire
reconstitué, un retard noté τ = ε .T , où ε une fraction de cette période. Le signal reçu et échantillonné
en présence de ces asynchronismes peut s’écrire sous la forme :
y (kT ) = e − iξ (t ) ∑ a k p (t − kT − τ ) + n(t ) (Équation 91)
k
Les systèmes de synchronisation doivent donc correctement récupérer la porteuse afin
d’annuler l’erreur de phase, et correctement récupérer le rythme afin d’annuler le retard sur les instants
d’échantillonnage optimaux.
De nombreuses structures existent pour correctement récupérer la synchronisation avec un
signal, qui sortent du cadre de ce cours. En pratique, le signal est reconstitué à partir d’un oscillateur
local, la fréquence du signal étant à priori connu. Afin d’être en phase ou en rythme avec le signal
reçu, l’oscillateur local est asservi par un système analogique ou numérique, qui corrige en temps réel
la phase de l’oscillateur local en fonction des décalages de phase avec le signal reçu. Ce type
d’asservissement est assuré par une boucle à verrouillage de phase ou Phase Locked Loop (PLL).
IV. Décision – Récepteur optimal
Le signal obtenu en sortie d’un canal de transmission est une version déformée, déphasée et
perturbée par du bruit, du signal émis. Le problème du récepteur est de démoduler le signal reçu puis
de décider de l’affectation des symboles reçus à l’un des symboles composant l’alphabet de départ.
Cette étape est appelée décision. Celle-ci doit être effectuée de manière à minimiser le risque de
mauvaise détection du signal. Ainsi, dans chaque récepteur, une règle de décision est élaborée, ainsi
qu’une structure du récepteur. Des performances en termes de taux d’erreur binaire seront associées à
cette règle et à cette structure, dans le cadre d’un canal et d’un bruit donné. Si la règle de décision et la
structure du récepteur permettent de minimiser le risque d’erreur, on parle de récepteur optimal.
Dans cette partie, nous allons chercher à déterminer la règle de décision optimale dans le cas
d’un signal binaire (ou un signal BPSK) traversant un canal AWGN, puis nous déterminerons les
performances en terme de taux d’erreur binaire. Ce type de raisonnement pourra être étendu à des
signaux à M états, mais cela dépasse le cadre de ce cours.
1. Seuil de décision pour un signal binaire traversant un canal AWGN
La figure 92 décrit le positionnement du problème. Un signal x(t) émis en bande de base
traverse un canal AWGN caractérisé par un bruit blanc gaussien d’écart type σ et arrive en entrée du
récepteur. Après avoir été filtré, égalisé et échantillonné avec une période Te (on suppose que le
récepteur est parfaitement synchronisé avec le signal reçu), le signal yk arrive en entrée d’un
comparateur à seuil, qui va déterminer quel est l’état binaire pris par le symbole reçu. Le but du
problème est de déterminer le seuil λ0 du comparateur à seuil qui va minimiser l’erreur d’interprétation
du message binaire. A cause du bruit ajouté par le canal, la probabilité d’une erreur d’interprétation
n’est pas nulle.
A. Boyer
95
Canaux de transmissions bruités
Septembre 2013
Te
Canal
AWGN
égaliseur
z(t)
y(t)
z (t ) = x(t ) * c (t ) + n(t )
yk
Comparateur
à seuil λ0
dk
yk < λ ⇒ d k = 0
yk > λ ⇒ d k = 1
Fig. 92 - Détection d’un signal binaire traversant un canal AWGN
Le signal en entrée du comparateur peut s’écrire :
y k = a k + nk , où
a k = a0 si x k ='0'
a k = a1 si x k ='1'
Comme le bruit est de type gaussien, la densité de probabilité du bruit peut s’écrire à l’aide de
la fonction suivante :
 ( x − x 0 )2
exp −
2σ 2
2π σ

f (x ) =
1

 (Équation 92)


On peut en déduire la densité de probabilité de l’amplitude prise par le signal yk (fig. 93).
Densité de
probabilité
2σ
2σ
a0
λ0 ?
y
a1
Fig. 93 - Densité de probabilité de l’amplitude pris par le signal en entrée de l’étage de décision
Une erreur se déclare dans les 2 cas suivants :
ak
=
a0
et
dk
=
1,
en
P (d = 1 / a = a 0 ) =
+∞
∫λ
terme
f ( x / a 0 )dx , où f (x / a0 ) =
de
probabilité
 ( x − a 0 )2
exp −
2σ 2
2π σ

1
ak = a1 et dk = 0, en terme de probabilité cela s’écrit : P (d = 0 / a = a1 ) =
f ( x / a1 ) =
 ( x − a1 )2
exp −
2σ 2
2π σ

1
cela
s’écrit :




λ
∫ f (x / a )dx , où
1
−∞




La probabilité d’apparition d’une erreur peut donc s’écrire sous la forme suivante :
Perr = P (d = 1).P (d = 1 / a = a0 ) + P(d = 0 ).P (d = 0 / a = a1 ) (Équation 93)
A. Boyer
96
Canaux de transmissions bruités
Septembre 2013
+∞
λ0
λ0
−∞
Perr = P(d = 1). ∫ f ( x / a 0 )dx + P(d = 0 ). ∫ f ( x / a1 )dx
λ0
 λ0

Perr = P(d = 1).1 − ∫ f (x / a 0 )dx  + P(d = 0 ). ∫ f ( x / a1 )dx


−∞
 −∞

Perr = P(d = 1) +
λ0
∫ [P(d = 0). f (x / a ) − P(d = 1). f (x / a )]dx
1
(Équation 94)
0
−∞
Nous cherchons à déterminer λ0 pour minimiser l’erreur, c'est-à-dire
dPerr
(λ0 ) = 0 . Cela est
dλ
possible si le contenu de l’intégrale est annulé.
P(d = 0 ). f ( x / a1 ) − P(d = 1). f ( x / a 0 ) = 0
 (λ − a )2 
exp − 0 2 0 


2σ
P(d = 0 ) f ( x = λ0 / a 0 )


=
=
2
P(d = 1) f ( x = λ0 / a1 )
 (λ − a ) 
exp − 0 2 1 


2σ


 P(d = 0 ) 
1
 =
(λ0 − a1 )2 − (λ0 − a 0 )2
log 2 
2
 P(d = 1)  2σ
 P(d = 0 )  λ0 (a 0 − a1 ) a12 − a 02
 =
log 2 
+
σ2
2σ 2
 P(d = 1) 
(
a 0 + a1
 P(d = 0 ) 
σ2

λ0 =
+
log 2 
2
a 0 − a1
 P(d = 1) 
)
(Équation 95)
Si les 2 états binaires sont équiprobables, on détermine le seuil de décision suivant :
λ0 =
a0 + a1
2
(Équation 96)
Ce résultat assez intuitif montre que le récepteur optimal possède le seuil de décision à mi
distance entre les amplitudes liées aux 2 états binaires.
V. Ce qu’il faut retenir
⇒ Après le passage à travers le canal, le récepteur a pour rôle de régénérer le signal.
⇒ Cela correspond à supprimer les perturbations et distorsions qui affectent le signal
(filtrage et égalisation), puis de l’interpréter correctement (décision). Dans le cas d’un
signal numérique synchrone, le récepteur doit se synchroniser sur le signal reçu.
⇒ Dans la plupart des transmissions numériques, l’interférence inter symboles est plus
problématique que le bruit. L’émetteur et le récepteur contiennent des filtres qui
doivent limiter l’interférence inter symboles.
⇒ Les critères de Nyquist définissent les conditions d’annulation de l’interférence inter
symboles dans un filtre ou dans un canal.
A. Boyer
97
Canaux de transmissions bruités
Septembre 2013
⇒ Un égaliseur est un bloc du récepteur spécifiquement dédié à l’annulation de
l’interférence inter symboles, en compense l’effet du canal.
⇒ La plupart des égaliseurs font appel à des séquences d’apprentissage incluses dans les
trames transmises. Elles permettent d’estimer régulièrement la réponse impulsionnelle
du canal pour remettre à jour les propriétés de l’égaliseur.
⇒ La synchronisation de la démodulation avec la porteuse et de l’échantillonnage avec le
signal binaire reçu sont requises pour éviter les erreurs d’interprétation du signal. Le
récepteur doit être capable de récupérer la phase et le rythme du signal reçu.
⇒ Le seuil de décision d’un récepteur est choisi afin de minimiser le taux d’erreur
binaire. Dans le cas d’un canal AWGN, il est possible de déterminer les performances
en terme de taux d’erreur binaire connaissant le rapport signal à bruit.
A. Boyer
98
Canaux de transmissions bruités
Septembre 2013
Conclusion - Planification d’une
transmission numérique
La figure 94 fournit une vue générale d’un canal de transmission ainsi qu’un récapitulatif des
principales contraintes qu’il doit respecter pour qu’un message numérique soit transmis sans erreur.
Information
numérique
K messages dans un
alphabet de no caractères
Destinataire
Débit
d’info. H
Taux d’erreur binaire
BER = f(Eb/No)
Décodage source
Codage source
Amélioration rendement
K messages dans un
alphabet de n caractères
Canal de transmission
Débit Dc
Codage canal
Décodage canal
Adaptation au canal
Signal électrique
Débit Dm
M moments
Couche physique
Optimisation
Largeur de bande Bm
Condition
largeur de bande
Largeur de
bande Bc
Modulation
Bm ≤ B
Bruit,
R
perturbations,b appo
ru
it S rt si
distorsions
/N gna
o u l su
Eb r
/N
o
Canal de capacité C
S

C = BC × log 2  1 + 
N

Condition débit
.
Dc
Transmission en
temps réel
Régénération
.
≤ Dm
≤ C
Annulation IES, filtrage,
synchronisation, décision
Démodulation
Mise en bande de base
Condition de Nyquist sur
le canal et les filtres
pour annuler l’IES
Annulation IES
Fig. 94 - Vue générale d’un canal de transmission bruité et des contraintes associées pour limiter
l’apparition d’erreur de transmission
Pour réaliser une liaison numérique sans erreurs, les données suivantes sont nécessaires
planifier la transmission :
A. Boyer
Le taux d’erreur binaire maximal, qui permet de déterminer le rapport signal à bruit minimal
et donc le seuil de sensibilité du récepteur
Le débit binaire de la source
La fonction de transfert du canal. S’il s’agit d’une transmission analogique, il faut se
demander si le canal va introduire uniquement des distorsions linéaires. Dans le cas d’une
transmission numérique, est-ce que des interférences inter-symboles sont à craindre ?
99
Canaux de transmissions bruités
Septembre 2013
La bande passante du canal et la bande de fréquence allouée pour la transmission (ainsi que
les tolérances d’émission sur les canaux adjacents)
La densité spectrale de bruit No, le rapport signal sur bruit minimal au niveau du récepteur
S/N ou le rapport signal à bruit par bit Eb/No. Rappelons que celui-ci dépend de la
spécification en terme de taux d’erreur binaire, de la modulation employée et des techniques
de codage de source et de canal.
La puissance d’émission disponible et tolérable (réglementation des émissions)
Une fois ces données connues, il est nécessaire de :
Déterminer le débit binaire et le nombre de bits utilisés pour coder les différents symboles.
Ils dépendent de la largeur de bande et de la probabilité d’erreur
Déterminer la forme des signaux élémentaires, les modulations et le filtrage associé, afin de
fixer l’encombrement spectral (efficacité spectrale)
Concevoir les différents étages du récepteur pour minimiser l’effet du bruit et des
interférences inter symboles (filtrage, égalisation, synchronisation, décision)
Dans le cas d’une transmission numérique, vérifier si le taux d’erreurs binaires est
acceptable, ajouter du codage canal et une marge de bruit si nécessaire
Le respect des conditions de Nyquist et de la capacité maximale d’un canal permet en théorie
d’annuler l’interférence inter symboles. Mais dans un canal réel, différentes techniques doivent être
mises en jeu afin de minimiser le taux d’erreur. Au niveau de l’émetteur, on peut :
Ajouter des codes détecteur/correcteur d’erreur, entrelacer les données
Réaliser un codage en ligne (modulations, mise en forme électrique) adapté au canal
Filtrer le signal
Pratiquer des accès multiples (son intérêt reste l’optimisation de l’utilisation du canal)
Ajouter de la diversité
Au niveau du récepteur, la réduction des erreurs d’interprétations des données est
principalement assurée par l’égaliseur qui compense les effets parasites du canal. Il est nécessaire de
soigner la conception du régénérateur (synchronisation, amplification, filtrage, décision).
A. Boyer
100
Canaux de transmissions bruités
Septembre 2013
Références
⇒ Geneviève Baudoin, « Radiocommunications Numériques – Tome 1 : Principes,
Modélisation et simulation », Dunod collection Technique et Ingénierie, ISBN 978-210-050514-2, 2002.
⇒ Yvon Mori, « Electronique pour le Traitement du Signal – Volume IV – Techniques
de Modulation », Hermès Science, ISBN 2-7462-1342-7, 2006
⇒ Yvon Mori, « Electronique pour le Traitement du Signal – Volume V – Théorie de
l’Information et du Codage », Hermès Science, ISBN 2-7462-1343-5, 2006
⇒ Guillaume Vivier, Khaldoun Al Agha, Guy Pujolle, Bruno Vidal « Réseaux de
mobiles & Réseaux sans fil », Eyrolles, 2-212-11018-9, 2001.
⇒ Xavier Lagrange, Philippe Godlewski, Sami Tabbane, « Réseaux GSM-DCS – Des
Principes à la Norme, 4e édition revue et augmentée », Hermes Sciences collection
Réseaux et Télécommunications, ISBN 2746200287, 1999.
⇒ H. Holma, A. Toskala, « WCDMA for UMTS – HSPA Evolution and LTE – 4th
Edition», Wiley, 2007, 550 pp
⇒ P. Degauque, A. Zeddam, « Compatibilité Electromagnétique 2 – Des Concepts de
Base aux Applications », Hermes Science, ISBN 978-2-7462-1664-8, 2007
⇒ Lawrence E. Larson, « RF and Microwave Circuit Design for Wireless
Communications », Artech House Publisher, ISBN 0-89006-818-6, 1997
⇒ D. Paret, « Réseaux Multiplexés pour Systèmes Embarqués », Dunod, série EEA,
ISBN 2-10-005267-5, 2005
A. Boyer
101
Canaux de transmissions bruités
Septembre 2013
Annexe A – Rappel sur les unités
Pour le dimensionnement d’un canal, on doit prendre en compte l’ensemble des gains et des
pertes présentes sur le canal, afin de déterminer la puissance minimale à mettre en entrée de l’émetteur
pour que le récepteur détecte un signal. On parle alors d’un bilan de puissance. Afin de faire ce bilan,
on préfère utiliser des unités en dB afin de remplacer multiplication et division par des additions et des
soustractions. Le passage en dB correspond au rapport d’une grandeur (puissance, tension …) avec
une grandeur de référence, placé sur une échelle logarithmique (équations 97 et 98). Dans le cas où il
s’agit d’un rapport de puissance, on utilise l’équation 97. Dans le cas où il s’agit d’un rapport en
tension, on utilise l’équation 98.
P
X (dB ) = 10 log( x ) = 10 log 1
 P0

 (Équation 97)

V
X (dB ) = 20 log( x ) = 20 log 1
 V0

 (Équation 98)

L’intérêt d’une représentation logarithmique réside dans la possibilité d’additionner les
affaiblissements et les gains au lieu de multiplier les rapports de puissance. De plus, elle permet de
représenter une très grande dynamique au niveau des amplitudes.
En pratique, on indique parfois l’unité des grandeurs du rapport. Il n’est pas rare de trouver
des dBV, des dBmW, des dBV/m … Il s’agit toujours de nombres sans unité, mais correspondant à un
rapport entre 2 grandeurs exprimées dans l’unité qui est ajoutée au dB. Par exemple, les équations 99
et 100 donnent les formules de calcul de rapports exprimés en dBV et dBW.
V 
V ( dBV ) = 20 × log   (Équation 99)
 1V 
 P
P(dBW ) = 10 × log
1W



(Équation 100)
Volts
dBV
Watts
dBW
1000
60
1000
30
100
40
100
20
10
20
10
10
1
0
1
0
0.1
-20
0.1
-10
0.01
-40
0.01
-20
0.001
-60
0.001
-30
En télécommunications, les signaux reçus sont en général très faibles et les microvolts (µV) et
milliwatts (mW) sont les unités les plus courantes. Il est courant de rencontrer des rapports exprimés
en dBµV et dBmW ou dBm (équations 101 et 102).
A. Boyer
102
Canaux de transmissions bruités
Septembre 2013
 V (µV ) 

V (dBµV ) = 20 × log
1
µV


(Équation 101)
 V (V ) 
V (dBµV ) = 20 × log − 6  = 20 log(V (V )) + 120 = V (dBV ) + 120
 10 V 
 P(mW ) 

P(dBm ) = 10 × log
 1 mW 
(Équation 102)
 P (W ) 
P(dBm ) = 10 × log −3  = 10 log(P (W )) + 30 = P(dBW ) + 30
 10 W 
Volts
A. Boyer
dBµV
mW
dBm
1
120
1000
30
0.1
100
100
20
0.01
80
10
10
0.001
60
1
0
0.0001
40
0.1
-10
0.00001
20
0.01
-20
0.000001
0
0.001
-30
103
Canaux de transmissions bruités
Septembre 2013
Annexe B – Produits d’intermodulation
pour une non-linéarité d’ordre 3
Pour expliquer l’apparition de ces produits d’intermodulation, on peut représenter la fonction
de transfert du système (par exemple un mélangeur) par un polynôme du 3e ordre (on se limite à cet
ordre pour diminuer la complexité du calcul) :
Vs (t ) = α1Ve (t ) + α 2Ve2 (t ) + α 3Ve3 (t )
(Équation 103)
où Ve et Vs sont respectivement les tensions d’entrée et de sortie du système, α1 est le gain
linéaire du système. Supposons le cas simplifié suivant : le signal d’entrée est constitué de 2 porteuses
sinusoïdales. Le signal de sortie devient :
2
3
Vs (t ) = α1 ( A1 cos ω1t + A2 cos ω1t ) + α2 ( A1 cos ω1t + A2 cos ω1t ) + α3 ( A1 cos ω1t + A2 cos ω1t ) (Équation 104)
Vs (t ) = α1 ( A1 cos ω1t + A2 cos ω1t )
 1 + cos 2ω1t
cos (ω1 + ω2 ) t + cos (ω1 − ω2 ) t 
1 + cos 2ω2t
+α2  A12
+ A22
+ 2 A1 A2

2
2
2


 A3
 
A3
 1 ( 3cos ω1t + cos3ω1t ) + 2 ( 3cos ω2t + cos3ω2t )  
4
 4
 


3
3
 2 3

+α3 + A1 A2  cos ω2t + cos(2ω1 − ω2 )t + cos(2ω1 + ω2 )t  
4
4
2


 2 3
3
3

+ A2 A1  cos ω1t + cos(2ω2 − ω1 )t + cos(2ω2 + ω1 )t  
4
4
2

(Équation 105)


Ce développement fait apparaître plusieurs raies à différentes fréquences harmoniques et non
harmoniques. Le tableau 4 présente les amplitudes des raies jusqu’à l’ordre 3.

3α3 A13 3α3 A1 A22 
+
Fréquence ω1
α1 A1 +
 cos ω1t
4
4 

Ordre 1

3α3 A23 3α3 A2 A12 
Fréquence ω 2
+
α1 A2 +
 cos ω2t
4
4 

Ordre 2
α2 A1 A2 cos (ω1 + ω2 ) t + α2 A1 A2 cos (ω1 − ω2 ) t
ω ± ω2
Fréquence 1
3α3 A12 A2
3α A2 A
2ω1 ± ω2
cos ( 2ω1 + ω2 ) t + 3 1 2 cos ( 2ω1 − ω2 ) t
Fréquence
Ordre 3
4
4
2
2
3
α
A
A
3
α
3 2 1
3 A2 A1
2ω2 ± ω1
ω
+
ω
t
+
cos
2
cos ( 2ω2 − ω1 ) t
(
)
2
1
Fréquence
4
4
…..
Tableau 4 - Amplitudes des différentes composantes spectrales d’un signal résultant du produit
d’intermodulation de deux signaux sinusoïdaux
Prenons le cas d’un amplificateur de tension de gain 10. La figure 95 présente sa
caractéristique de gain. Il présente une forte saturation à partir de 0.7V.
A. Boyer
104
Canaux de transmissions bruités
Septembre 2013
Fig. 95- Caractéristique d’un amplificateur réel
Cette caractéristique peut être approximée par le polynôme d’ordre 3 suivant :
Vout = 8.86Vin + 4.48Vin2 − 5.94Vin3
On suppose qu’on fasse passer à travers cet amplificateur un signal composé de la somme de 2
sinusoïdes parfaites de fréquences F1 = 200 et F2 = 250MHz et d’amplitude 0.9V. La figure 96
présente le spectre du signal en entrée, il contient 2 Diracs à 200 et 250MHz. La figure
97 présente le spectre du signal de sortie sur lequel apparaît de très nombreux signaux parasites,
prouvant que le signal a subi de nombreuses distorsions.
∆f=50MHz
Fig. 96 - Signal en entrée de l’amplificateur
On voit que les produits les plus gênants sont ceux d’ordre 3 (2F1-F2 et 2F2-F1). En effet, si
les fréquences F1 et F2 sont très proches (ce qui peut être le cas par exemple sur les bandes GSM, qui
contiennent des canaux adjacents séparés de 200KHz), les produits apparaîtront très près des
fréquences fondamentales et pourront parasiter le signal. De plus, ces formules permettent de mieux
comprendre le phénomène de compression de gain typique d’un amplificateur. Celui-ci peut être aussi
modélisé à l’aide d’un polynôme d’ordre 3.
A. Boyer
105
Canaux de transmissions bruités
Septembre 2013
F1 F2
∆f=50MHz
2F1-F2
∆f
2F2-F1
2F1+F2 2F2+F1
∆f
Fig. 97 - Signal en sortie de l’amplificateur et produits d’intermodulation
Supposons cette fois qu’une seule harmonique de fréquence ω et d’amplitude A soit en entrée.
Le gain de la fréquence harmonique s’écrit donc :
α1 +
3α 3 A2
4
Équation 106
L’amplitude de la composante fondamentale est donc modifiée par le terme du troisième
ordre, engendrant alors une distorsion d’amplitude. Pour les forts signaux, le terme
3α 3 A2
vient
4
modifier le gain. Comme α3 est généralement négatif, le gain est réduit, correspondant à une
compression ou une saturation de la puissance en sortie. Dans l’exemple ci-dessus, l’amplitude de
chacune des 2 fréquences fondamentales était de 0.9V. Le gain linéaire de cet amplificateur est de 10.
Or, en sortie, les raies des fréquences fondamentales sont 3.5V, le gain n’est donc plus que de 4. On
peut donc en conclure que le signal a subi une importante distorsion d’amplitude en plus de
l’apparition de nouvelles harmoniques.
A. Boyer
106
Canaux de transmissions bruités
Septembre 2013
Annexe C – Spectre d’un signal
numérique
Nous allons déterminer dans cette annexe l’expression théorique des spectres de signaux
numériques par l’utilisation de la transformée de Fourier. Qu’est qu’un signal numérique ? Nous
aborderons différentes formes, plus ou moins théoriques. Nous appelons signal numérique un signal à
impulsions rectangulaires dont les niveaux de tension représentent soit un ‘0’ soit un ‘1’ logique.
I.
Rappel - Transformée de Fourier et spectre
La transformée de Fourier est un outil mathématique qui permet de déterminer l’expression
d’un signal périodique dans le domaine fréquentiel. Elle est basée sur le concept de série de Fourier, à
la base de l’analyse harmonique des signaux : toute fonction périodique de période T0 (ou de
fréquence f0) en l’exprimant sous la forme d’une suite de fonctions sinusoïdales sur des fréquences
multiples (ou harmoniques) de la fréquence fondamentale f0 :
∞
∞
∞
n =0
n =0
n=0
f (t ) = a 0 + ∑ a n cos(2πnf 0 t ) + ∑ bn sin (2πnf 0 t ) = ∑ C n exp( j 2πnf 0 t )
Équation 107
La transformée de Fourier permet de calculer les valeurs des coefficients de la série.
T
T
T
1 0
2 0
2 0
π
a0 =
f
(
t
)
dt
a
=
f
(
t
)
sin
(
2
nf
t
)
dt
b
=
f (t ) cos(2πnf 0 t )dt
n
n
0
T0 ∫0
T0 ∫0
T0 ∫0
1
Cn =
2T0
Équation 108
T0
∫ f (t )exp(− j 2πnf t )dt
0
−T0
Le spectre est la représentation graphique dans un repère cartésien des valeurs des coefficients
de la série, avec les fréquences harmonique n.f0 en abscisse. Dans la représentation spectrale d’un
signal, on trace généralement soit l’amplitude |Cn| soit la phase φn d’une harmonique :
∞
f (t ) = C 0 + ∑ C n cos(2πnf 0 t + ϕ n )
Équation 109
n =1
C n = a n2 + bn2
 bn
 an
ϕ n = arctan



Équation 110
Si la fonction n’est pas périodique, il est quand même possible d’utiliser la transformée de
Fourier en considérant cette fonction non périodique comme une fonction périodique de période
infinie. La fonction n’est plus représentée par une série de Fourier sur un ensemble de fréquences
discrètes, mais par une intégration sur toutes les fréquences. L’expression dans le domaine fréquentiel
F(f) d’une fonction f(t) est déterminée par la transformée de Fourier TF :
F ( f ) = TF ( f (t )) =
+∞
∫ f (t )exp( j 2πft )dt
Équation 111
−∞
Une fonction non périodique f(t) peut être considérée comme la somme d’un nombre infini de
fonctions harmoniques exp(-j2πft), chacune ayant un poids en amplitude et en phase donnée par le
A. Boyer
107
Canaux de transmissions bruités
Septembre 2013
spectre de F(f).La transformée de Fourier inverse TF-1 permet de déterminer l’expression dans le
domaine temporelle f(t) d’une fonction exprimée dans le domaine fréquentielle.
f (t ) = TF −1 (F ( f )) =
+∞
∫ F ( f )exp(− j 2πft )df
Équation 112
−∞
On ne détaillera pas l’ensemble des propriétés de la transformée de Fourier, ni les méthodes
numériques permettant de déterminer la transformée de Fourier sur des signaux complexes
(transformée de Fourier discrète DFT, transformée de Fourier rapide FFT). On mentionnera juste pour
la suite que lorsqu’il n’est pas possible de calculer la transformée de Fourier d’un signal, il est possible
de déterminer sa densité spectrale de puissance par le calcul de la transformée de Fourier de son
autocorrélation.
II. Transformée de Fourier d’une suite d’impulsion idéale
(Dirac)
La transmission d’un signal binaire rapide peut être considérée comme une impulsion courte.
Si on néglige la durée de cette impulsion, on peut la modéliser par un Dirac δ(x) défini de la manière
suivante :
∞ si t = a
 0 sin on
δ (t − a ) = 
Équation 113
Il s’agit d’un rectangle infiniment fin centrée sur l’abscisse a. La fonction est normalisée de
+∞
telle manière que sa surface = 1 :
∫ δ (t − a )dt = 1 . Une propriété intéressante de la fonction Dirac
−∞
est que si on l’a multiplie à une fonction f(t) et qu’on l’intègre le produit, on obtient la valeur f(a) :
+∞
∫ f (t )δ (t − a )dt = f (a ) . En utilisant cette propriété, on peut déterminer la TF de la fonction Dirac :
−∞
+∞
∫ δ (t )exp( j 2πft )dt = exp( j 2πf 0) = 1
Équation 114
−∞
Le spectre d’une impulsion élémentaire est donc infini. Il possède de l’énergie quelque soit la
fréquence. Il s’agit bien évidemment d’un cas limite purement théorique.
III. Transformée de Fourier d’une impulsion rectangulaire
Une fonction rectangle constitue une meilleure représentation d’une impulsion binaire,
puisqu’il représente une impulsion de durée non nulle. Soit une impulsion rectangulaire de durée T
centrée sur t = 0 et d’amplitude P0. On suppose que ses temps de montée et de descente sont nuls.
L’expression théorique du spectre se calcule :
F( f ) =
+∞
∫
f (t ) exp( j 2πft )dt = P0
−∞
F( f ) =
P0
j 2πf
∫ f (t )exp( j 2πft )dt
−T / 2

T
T   P sin (πfT )


 exp j 2πf  − exp − j 2πf   = 0
2
2 
πf



F ( f ) = P0T sin c(πfT )
A. Boyer
+T / 2
Équation 115
108
Canaux de transmissions bruités
Septembre 2013
La figure ci-dessous présente le spectre d’une impulsion rectangulaire d’amplitude 1 et de
durée T = 1 µs. Le spectre a la forme d’un sinus cardinal, s’annulant tous les f = 1/T. Le spectre d’une
impulsion rectangulaire est donc infini, avec un lobe principal et un ensemble de lobes secondaires qui
s’atténuent au fur et à mesure que la fréquence augmente. Comme la majeure partie de l’énergie du
signal se trouve dans le lobe principal, il est possible de réduire l’occupation spectrale de ce signal en
filtrant tous les lobes secondaires. En bande de base, la bande passante de ce signal est égale à 1/T.
Après transposition de fréquence, sa bande passante double.
Fig. 98 – Signal rectangulaire (à gauche) et représentation spectrale (à droite)
IV. Impulsion en sinus cardinal
Il est intéressant de remarquer que la transformée de Fourier d’une fonction sinus cardinal
donne une fonction rectangulaire. Imaginons qu’on donne aux impulsions binaire une forme
temporelle en sinus cardinal (une impulsion « en forme de cloche » de durée T entourée d’oscillations
amorties). Soit T la durée de l’impulsion, c'est-à-dire la largeur du lobe principal. L’occupation
spectrale de ce signal est à bande limitée, compris entre f = -1/2T et f = 1/2T. Une impulsion en sinus
cardinal présente l’occupation spectrale minimale, sa bande passante est égale à la bande passante de
Nyquist (voir annexe D). La figure ci-dessous compare les spectres des impulsions rectanguaires et en
sinus cardinal.
Impulsion
rectangulaire
-T/2
Impulsion
sinc
2/T
T
0
T/2
temps
-1/T
T
0
1/T
fréquence
2/T
TF
0
-T/2
temps
T/2
-1/T
0
1/T
fréquence
Fig. 99 – Comparaison entre les spectres d’impulsions rectangulaire et sinus cardinal
Cette comparaison est intéressante car elle met en lumière le dilemme qui se pose dans le
choix de la forme temporelle du signal binaire. Afin d’accroître le débit binaire et réduire
l’interférence intersymbole lié à l’effet d’étalement temporel du canal de transmission, il vaut mieux
privilégier une impulsion rapide. De ce point de vue, l’impulsion rectangulaire est idéale, alors que
l’impulsion en sinus cardinal tend à s’étaler sur une période égale à plusieurs fois la durée de
l’impulsion. On peut remarquer qu’elle satisfait au critère de Nyquist dans le temps puisqu’elle
A. Boyer
109
Canaux de transmissions bruités
Septembre 2013
s’annule régulièrement. Si on est capable de garantir que l’instant d’échantillonnage du signal binaire
se fait à l’instant précis où les impulsions précédentes s’annulent, l’interférence intersymbole s’annule
aussi. Mais cette condition reste difficile à assurer en pratique.
Parallèlement, les communications se font sur des canaux à bande étroite et il est nécessaire de
veiller à ce que le spectre du signal transmis n’occupe pas une bande de fréquence trop large. De ce
point de vue, l’impulsion en sinus cardinal est idéale puisqu’elle occupe la plus petite bande passante
possible. Par contre, l’impulsion rectangulaire occupe une bande beaucoup plus large, théoriquement
infini. En pratique, celle-ci peut être limité à 2 fois la bande passante de Nyquist par filtrage.
Il n’existe pas de forme temporelle idéale à donner à une impulsion. Plus celle-ci sera rapide et
plus elle occupera une bande passante large. Inversement, plus elle sera à bande étroite et plus elle
aura tendance à s’étaler dans le temps. En pratique, les formes temporelles sont « taillées » à l’aide de
filtres de mise en forme, généralement en cosinus surélevé (voir annexe E) afin de minimiser
l’interférence intersymbole et l’occupation spectrale.
V. Spectre d’un signal carré périodique
Un signal binaire se présente sous la forme d’une suite d’impulsions électriques, généralement
synchronisées sur une horloge de référence. Intéressons-nous à un signal carré périodique, qui
représente un signal binaire présentant une succession d’états logiques ‘0’ et ‘1’. Ce signal ne
transporte aucune information.
Soit un signal carré de période T formé d’impulsions rectangulaires de durée τ avec des temps
de montée et de descente nuls. Comme il s’agit d’un signal carré, τ = T/2. Le signal est périodique et
peut donc être représenté par une série de Fourier dont les coefficients peuvent se calculer de la
manière suivante :
 τ
sin  nπ 
2 Aτ
 T
Cn =
τ
T
nπ
T
 nπ 
sin 

2 

⇒ signal carré : C n = A
nπ
2
Équation 116
La figure ci-dessous présente le spectre d’un signal carré de période 100 ns. On voit que toutes
les harmoniques de rang pair sont nulles. L’occupation spectrale du signal est très large. L’amplitude
des harmoniques diminue au fur et à mesure que leur rang n augmente et donc avec la fréquence au
rythme d’une division par 10 par décade.
Période T = 100 ns, rapport cyclique = 50 %,
Tr = Tf = 0 ns
Fig. 100 – Spectre d’un signal carré de 100 ns de période (Tr = Tf = 0)
Cependant, les signaux réels mettent un certain temps pour s’établir, donc il existe toujours un
temps de montée ou de descente non nul. Dans le cas où les temps de montée Tr et de descente Tf sont
non nuls et égaux, les coefficients de la série de Fourier se calcule :
A. Boyer
110
Canaux de transmissions bruités
t 

 τ
sin  nπ  sin  nπ r 
2 Aτ
T
 T

Cn =
t
τ
T
nπ
nπ r
T
T
Septembre 2013
t 

 nπ 
sin 
 sin  nπ r 
T  Équation 117
2 

⇒ signal carré : C n = A 
nπ
t
nπ r
2
T
La figure ci-dessous présente le spectre d’un signal carré de période 100 ns avec des temps de
montée et de descente de 2 ns. Toutes les harmoniques de rang pair sont nulles. L’occupation spectrale
du signal reste large. L’amplitude des harmoniques diminue toujours avec une division par 10 par
décade tant que la fréquence est très inférieure à 1/Tr. Au-delà, l’amplitude du spectre diminue plus
fortement qu’un signal carré à temps de montée/descente nul. Le spectre s’annule autour des multiples
de la fréquence 1/Tr. On pourrait montrer que la bande passante de ce signal, où se trouve la majeure
partie de l’énergie, est environ égale à 1/πTr
Période T = 100 ns, rapport cyclique = 50 %,
Tr = Tf = 2 ns
Fig. 101 – Spectre d’un signal carré de 100 ns de période (Tr = Tf = 2 ns)
VI. Spectre d’un signal binaire aléatoire avec un code en
ligne
Un signal binaire informatif est aléatoire, donc non périodique. Bien que le spectre d’un signal
carré donne une idée de celui du signal binaire informatif et de son occupation spectrale, il ne nous
donne pas l’expression exacte du spectre. D’autant plus que, comme nous l’avons vu au chapitre F, la
mise en forme électrique (codage en ligne) modifie la forme du signal et donc son spectre. En outre, si
les symboles transmis sont codés par plusieurs bits, la modélisation par un signal à 2 états n’est plus
valable. Essayons d’établir une forme générale du spectre d’un signal binaire, quelque soit son
contenu, le nombre de bits transmis par symbole et le codage en ligne employé.
Soit un signal informatif a(t) pouvant prendre les M états logiques et de période symbole T =
n.Tb, où Tb est la durée d’un bit et n le nombre de bits codant les symboles, tel que M= 2n.
∞
a (t ) = ∑ a i δ (t − iT ) Équation 118
i =1
Soit la fonction g(t) qui définit la forme temporelle des symboles. On note s(t) le signal
électrique lié au signal informatif. Celui-ci peut être vu comme le signal de sortie d’un filtre de
réponse impulsionnelle g(t) ayant a(t) comme signal d’entrée. Le signal s(t) peut s’exprimer :
s(t ) = g (t ) ∗ a(t ) Équation 119
Pour passer dans le domaine fréquentiel, on peut utiliser la transformée de Fourier :
S ( f ) = TF (s (t )) = G ( f ). A( f ) Équation 120
Comme le signal informatif a(t) est aléatoire et imprévisible, il n’est pas possible de calculer
sa transformée de Fourier. On ne peut donc pas passer par cette méthode pour déterminer le spectre du
signal s(t). Néanmoins, on peut toujours déterminer la densité spectrale de puissance de a(t), notée
Φa(f) à partir du calcul de son autocorrélation Ra(τ) :
A. Boyer
111
Canaux de transmissions bruités
Septembre 2013
Φ a ( f ) = TF (Ra (τ ))
1
R a (τ ) = lim
T − >∞ T
+T / 2
*
∫ a (t ).a(t + τ )
Équation 121
−T / 2
L’intérêt réside dans le fait que la DSP de a(t) dépend des propriétés statistiques de a(t).
L’approche statistique convient parfaitement à l’étude des signaux aléatoires. Dans le cas d’un code à
symbole indépendant (canal sans mémoire) et dont l’apparition est équiprobable, la DSP de a(t) peut
se calculer de la manière suivante :
σ a2
m a2
Φa ( f )=
+ 2
T
T
+∞

∑ δ  f
−
i = −∞
i
 Équation 122
T
Où σa² est la variance du signal a(t) et ma sa valeur moyenne. Ainsi, il devient possible de
calculer la DSP du signal transmis s(t) :
Φ S ( f ) = G( f ) Φ a ( f )
2
Équation 123
Prenons l’exemple d’un signal binaire codé en NRZ. Les impulsions ont une forme
rectangulaire, de durée T = Tb. Les signaux peuvent prendre comme valeur +V si le bit transmis = ‘1’
et –V si le bit = ‘0’. L’amplitude prise par le signal a(t) est égale à +/- V. En supposant que les
apparitions des bits ‘0’ et ‘1’ soient équiprobables et indépendants, la moyenne du signal ma = 0 et sa
variance σa² = V². La mise en forme du signal est rectangulaire donc : G ( f ) = Tb sin c(πfTb ) . La
DSP du signal binaire NRZ est donc :
Φ S ( f ) = G( f ) Φ a ( f )
2
 sin πfTb
Φ S ( f ) = T 
 πfTb
2
b
2
 σ a2
 sin πfTb

= V 2Tb 
 Tb
 πfTb
2

 Équation 124

Cette expression peut être comparée au tracé de la FFT d’un signal NRZ présenté au chapitre
F. On retrouve dans cette expression les propriétés d’un signal NRZ. Le signal contient une
composante continue non nulle et s’annule pour f = 1/Tb, rendant la synchronisation du récepteur sur
ce signal difficile.
A. Boyer
112
Canaux de transmissions bruités
Septembre 2013
Annexe D – Démonstration du premier
critère de Nyquist et Bande passante de
Nyquist
Soit un canal idéal, on peut le représenter par un filtre passe
bas de largeur de bande B. Il s’agit d’un filtre passe bas idéalement
sélectif, qui coupe tout ce qui ne se trouve pas dans la bande de
fréquence [-B ;B]. Sa fonction de transfert est égale à la fonction porte,
sa réponse dans le domaine temporelle peut se calculer en utilisant la
transformée de Fourier inverse. La réponse impulsionnelle de ce canal
est un sinus cardinal.
TF
C ( f ) = Π 2 B ( f ) ⇒ c(t ) = 2 B ×
sin ( 2π Bt )
2π Bt
C(f)
0
B
Équation 125
Nyquist cherchait à déterminer quel était le débit de symbole maximal qu’on pouvait faire
passer à travers ce canal. Supposons qu’on transmette des impulsions de durée très courte,
suffisamment courte pour les représenter par une fonction de type Dirac δ(t). Notons e(t) = δ(t) le
signal d’entrée du canal composé d’une impulsion. Le signal en sortie du canal s(t) se calcule :
s (t ) = c(t ) ∗ e(t )
+∞
+∞
−∞
−∞
s (t ) = ∫ c (τ )e(t − τ )dτ = ∫ 2 B sin c(2πBτ )δ (t − τ )dτ
s (t ) = 2 B sin c(2πBt )
Le signal en sortie de ce canal a donc la forme d’un sinus cardinal, et s’annule pour les temps
multiples de 1/2B (Fig 102). L’abscisse t = 0 correspond à l’instant où le signal est transmis.
On voit que le signal s’étale dans le temps en raison des multiples rebonds de la fonction sinc.
Pour éviter tout chevauchement entre symboles consécutifs, après transmission d’un symbole, il serait
nécessaire d’attendre que ces rebonds se soient fortement atténués avant d’en transmettre un autre.
Plus on attendra et plus le débit de symbole sera limité, mais moins il y aura de risque d’interférence
intersymbole. Cependant, si on décide de transmettre un autre symbole à t = 1/2B, on le transmet au
moment où le symbole précédent n’a plus d’influence sur ce nouveau symbole. Si on en transmet
encore un autre après un temps t = 1/2B, les 2 symboles précédents n’auront pas d’influence non plus.
Et ainsi de suite. On peut donc en déduire une condition sur le débit de symbole maximal qui peut
traverser un canal idéal. La durée d’un symbole Ts doit respecter l’inégalité suivante :
TS ≥
1
2B
Équation 126
Pour éviter toute erreur de transmission dans un canal idéal, le débit de symbole doit respecter
l’inégalité suivante :
°
M ≤ 2B
A. Boyer
Équation 127
113
f
Canaux de transmissions bruités
Septembre 2013
0
1/2B 1/B
Fig. 102 – Réponse impulsionnelle d’un canal idéal de bande passante B - Sinus cardinal
Inversement, si on cherche à transmettre un débit de symbole donné à travers un canal passebas idéal, sa bande passante B doit être telle que :
°
M
≤B
2
Équation 128
Cette valeur est la bande passante minimale du canal. On l’appelle bande passante de Nyquist.
A. Boyer
114
Canaux de transmissions bruités
Septembre 2013
Annexe E – Filtre en cosinus surélevé
Les signaux à émettre ou reçus doivent généralement être filtrés afin de les remettre en forme,
supprimer des composantes fréquentielles parasites et de réduire leur occupation spectrale pour ne pas
perturber ou bloquer des canaux voisins. Néanmoins, l’ajout d’un filtre conduit à modifier la forme des
signaux et à les étaler dans le temps. En effet, la plupart des filtres utilisés pour limiter l’occupation
spectrale d’un signal sont de type passe-bas. Ceux-ci contribuent à ralentir les temps de montée et de
descente des signaux binaires. Il convient donc de s’assurer que le filtre ne va pas générer des
interférences intersymboles, notamment si la réponse impulsionnelle de ce filtre s’étale sur plusieurs
période binaire.
Pour qu’un filtre ne produise pas d’IES, celui-ci doit respecter le critère temporel de Nyquist
(cf. chapitre C). Ainsi, sa réponse impulsionnelle doit s’annuler à chaque instant d’échantillonnage du
signal. Une famille de filtres couramment employée pour limiter l’occupation spectrale des signaux et
qui respecte les critères de Nyquist est appelée filtre en cosinus surélevé (raised cosinus). L’équation
suivante donne la forme temporelle d’une impulsion rectangulaire idéale passée à travers un filtre en
cosinus surélevé.
 πrt 

cos
TS 
 t 

f (t ) = sin c 
(Équation 129)
2
 TS   2rt 

1 − 
 TS 
Ts est la durée de l’impulsion (donc du symbole transmis) et r est le facteur de raidissement
(roll-off) excès de bande, compris entre 0 et 1. Il caractérise la raideur de la pente du filtre passe-bas et
l’excès de bande passante. La figure ci-dessous présente sa réponse spectrale en bande de base et
l’expression du spectre.
r=0.25
Canal idéal
F2
F1
M/2



.

T
,
si
f
≤
f
=
0.5
×
(1
−
r
)
M
M
1

.

C ( f ) = 0, si f ≥ f 2 = 0.5 × (1 + r ) M

.
 


π  f − 0.5 × (1 − r ) M  


2


.
TM × cos 


2r M




°
Fig. 103 - Réponse fréquentielle d’un filtre à
cosinus surélevé
M est le débit de symbole = 1/Ts
Le facteur de roll-off est lié aux caractéristiques de la réponse fréquentielle par :
A. Boyer
115
Canaux de transmissions bruités
F2 −
r=
1
2TS
1
2TS
Équation 130
Septembre 2013
1
− F1
2TS
r=
1
2TS
Équation 131
Ainsi, plus r est faible, plus la coupure est raide et plus F2 est faible. Un faible coefficient r
permet de limiter efficacement la bande passante du signal. Pour un coefficient r de 0.25, on a une
.
fréquence F1 = 0.4 M , où F1 représente la largeur de bande du canal.
Qu’en est-il de sa réponse impulsionnelle ? L’équation 132 donne l’expression de la réponse
impulsionnelle du filtre à cosinus surélevé, où p(0) est l’amplitude de l’impulsion en entrée du filtre à
cosinus surélevé.
 π .r.t 

cos
TS 
 t 

p(t ) = p(0 )sin c 
Équation 132
2
T


S
 
2.r.t

1 − 
T
 S 
La figure 104 montre la réponse impulsionnelle de ce filtre pour 3 valeurs différentes de
coefficient de raidissement. La durée d’un symbole est de 2 µs. Il apparaît clairement que ce filtre
satisfait aux critères de Nyquist puisque la réponse impulsionnelle s’annule à chaque multiple de la
période d’échantillonnage. Néanmoins, suivant la valeur de r, la réponse présente des oscillations plus
ou moins importantes. Une valeur de r proche de 1 tend à réduire rapidement les oscillations et donc à
ne quasiment par induire d’IES, au détriment d’une plus grande occupation spectrale.
Fig. 104 - Réponse impulsionnelle d’un filtre à cosinus surélevé pour différentes valeurs de coefficient de
raidissement
La figure ci-dessous présente le spectre d’une impulsion passée au travers d’un filtre en
cosinus surélevé. On voit clairement que plus r se rapproche de 0, plus la réponse spectrale se
rapproche de celle d’un canal passe-bas idéal dont la bande passante est égale à la bande passante de
Nyquist. Plus r se rapproche de 1 et plus la bande spectrale occupée s’accroît. On exprime cet
accroissement à l’aide de l’excès de bande passante donné par :
°
W0 = F2 − F1 = r × B Nyquist = r × M
A. Boyer
(Équation 133)
116
Canaux de transmissions bruités
Septembre 2013
Excès de bande
passante
Bande passante
de Nyquist
Fig. 105 – Spectre d’une impulsion passée à travers un filtre en cosinus surélevé
Les réponses fréquentielles et impulsionnelles montrent qu’il existe une valeur optimale de r,
qui permet de trouver un bon compromis entre occupation spectrale et qualité du signal transmis. En
pratique, on trouve r compris entre 0.2 et 0.4.
A. Boyer
117
Canaux de transmissions bruités
Septembre 2013
Annexe F – Fonction d’erreur de Gauss
complémentaire ERFC
Le calcul de la probabilité d’erreur implique la connaissance de la distribution statistique de la
perturbation. Un modèle couramment utilisé car
f(x)
suffisamment réaliste est la distribution de Gauss, dont la
densité de probabilité est :
Gc
 ( x − µ )2 
1
f (x ) =
2π σ
exp −

2σ 2
 (Équation 134)


0
x
a
où σ est l’écart type et µ est la valeur moyenne. La
probabilité d’erreur, c'est-à-dire que la variable aléatoire x dépasse un seuil a, peut se calculer comme :
Perr = P(x ≥ a ) = ∫
+∞
a
f ( x )dx = 1 − ∫ f ( x )dx (Équation 135)
−∞
a
Une loi de probabilité est dite normale et centrée si µ=0 et si l’écart type σ=1, son intégrale
entre -∞ et +∞ est égale à 1. Celle-ci s’écrit :
f (x ) =
 x2 
exp − 
2π
 2  (Équation 136)
1
La fonction d’erreur de Gauss notée erf(z) est une fonction commune en analyse et
correspond à la probabilité qu’une variable normale centrée réduite prenne une valeur dans l’intervalle
[-z ;+z]. Elle s’écrit donc :
erf ( z ) =
2
π
∫
z
0
(
)
exp − x 2 dx
(Équation 137)
Cette fonction n’est pas calculable par simple intégration, mais est fourni dans des tables et est
définie dans la plupart des logiciels de calculs numériques (Matlab, Scilab) et tableurs (Excel). La
fonction d’erreur de Gauss complémentaire erfc(z) se calcule à l’aide de l’équation suivante :
erfc( z ) = 1 − erf ( z ) =
A. Boyer
2
π
∫
+∞
z
(
)
exp − x 2 dx
(Équation 138)
118
Canaux de transmissions bruités
Septembre 2013
Fig. 106 – Tracés de la fonction erfc(x), échelle des abscisses linéaire en haut, en dB en bas
A. Boyer
119
Canaux de transmissions bruités
Septembre 2013
Annexe G – Glossaire
3GPP
AWGN
BER
CDMA
DCS (DCS1800)
DAB
DSP
DVB
Eb/No
EHF
FDMA
FFT
FSK
GSM
HF
IEEE
IES ou ISI
ILS
LTE (3.9G)
MAC
MF
OFDM
PLL
PSK
QAM
QPSK
RFID
SHF
SNR
TDMA
UHF
UMTS
VCO
VHF
W-CDMA
A. Boyer
3rd Generation Partnership Project
Additive White Gaussian Noise
Bit Error Rate
Code Division Multiple Access
Digital Cellular System
Digital Audio Broadcasting
Densité Spectrale de Puissance
Digital Video Broadcasting
Rapport signal à bruit par bit
Extra High Frequency
Frequency Division Multiple Access
Fast Fourier Transform
Frequency Shift Key
Global System for Mobile communications
High Frequency
Institute of Electrical and Electronics Engineers
Interférence Entre Symboles, Inter Symbol Interference
Instrument Landing System
Long Term Evolution
Medium Access Control
Medium Frequency
Orthogonal Frequency Division Multiplexing
Phase Locked Loop
Phase Shift Key
Quadrature Amplitude Modulation
Quadrature Phase Shift Key
Radio Frequency Identificator
Super High Frequency
Signal-to-Noise Ratio
Time Division Multiple Access
Ultra High Frequency
Universal Mobile Telecommunications System
Voltage Controlled Oscillator
Very High Frequency
Wide Code Division Multiple Access
120
Canaux de transmissions bruités
Septembre 2013
Travaux Dirigés
A. Boyer
121
Canaux de transmissions bruités
Septembre 2013
NOTIONS DE BASE
1. BRUIT DE FOND
Calculer le niveau absolu de bruit thermique obtenu pour une température ambiante de 25° C,
dans le cas :
d’une voie téléphonique
d’une transmission de musique
d’une transmission de télévision
Quelle est la puissance minimale que doit avoir le signal transmis pour assurer un rapport
signal à bruit d’au moins 50 dB ?
2. DISTORSION DE SIGNAUX SINUSOÏDAUX PAR UN
OPERATEUR QUADRATIQUE
Déterminer les taux de distorsion harmonique, la forme temporelle et le spectre du signal de sortie
d’un opérateur quadratique, lorsque le signal d’entrée est :
purement sinusoïdal
la somme de 2 termes sinusoïdaux
A quelles applications pourraient servir un opérateur quadratique
3. MESURE DE L’INFORMATION - IMAGE TV
Une image TV haute résolution en noir et blanc comporte environ 2 106 pixels et 256 niveaux
de gris. La fréquence de renouvellement est de 32 images par seconde. On suppose que les pixels sont
indépendants les uns des autres et que les niveaux de gris sont équiprobables.
1. Evaluer le débit d’information de cette émission de télévision.
2. Quelle est la bande passante nécessaire pour transmettre le signal binaire en bande de base ?
afin d’assurer une réception de qualité ?
4. MULTIPLEX PCM
Cinq signaux de télémétrie d'une largeur de bande de 1 kHz doivent être transmis en multiplex
PCM. L'erreur maximale tolérée sur la quantification est de 0,5% de leur valeur crête. Ils sont
échantillonnés à 20% au-dessus de la fréquence de Nyquist. La synchronisation et le tramage
demandent un supplément de bits de 0,5%. Déterminer le débit minimal de la liaison et la bande
passante requise pour la transmission du signal multiplexé.
5. CANAL AVEC BRUIT BLANC ADDITIF GAUSSIEN
Un signal analogique de 4 kHz de largeur de bande est échantillonné à 1,25 fois la fréquence
de Nyquist, chaque échantillon étant quantifié sur 256 niveaux équiprobables. On suppose que les
échantillons sont statistiquement indépendants.
A. Boyer
122
Canaux de transmissions bruités
Septembre 2013
1. Quel est le débit binaire issu de la source ?
2. Peut-on transmettre sans erreur le signal sur un canal à bruit blanc additif gaussien centré de
10 kHz de bande passante et présentant un rapport signal sur bruit de 20 dB ?
3. Calculer le SNR requis pour assurer une transmission sans erreur dans les conditions
précédentes.
4. Calculer la bande passante requise pour acheminer sans erreur les signaux de la source
considérée sur un canal avec bruit blanc additif gaussien centré de SNR 20 dB.
6. FILTRE A COSINUS SURELEVE
Soit un canal de bande passante égal à 36 MHz. On transmet un signal modulé en QPSK.
1. Calculer le débit de symbole maximal (en bande de base et après transposition de
fréquence).
2. Calculer le débit de symbole maximal si le signal de bande de base est mis en forme à l’aide
d’un filtre en sinc.
3. Calculer le débit de symbole maximal si le signal de bande de base est mis en forme à l’aide
d’un filtre à cosinus surélevé de facteur de raidissement r = 0.3.
4. Dans les 3 cas, calculer le débit binaire.
7. DIAPHONIE DANS UN DEMODULATEUR I/Q
On considère une modulation QPSK. On s’intéresse à l’effet d’une désynchronisation entre le
signal modulé reçu et la porteuse reconstituée par le récepteur.
1. En reprenant le modulateur I/Q présenté à la figure 57, proposez le schéma de principe d’un
démodulateur I/Q. Calculer les expressions théoriques des signaux modulés et démodulés.
2. Soit φ(t) le déphasage instantané entre le signal modulé reçu et la porteuse reconstituée par
le récepteur. Quel est l’impact sur les signaux démodulés ?
3. On note distorsion le rapport entre le signal parasite généré par le déphasage sur le signal
voulu. Quelle est la tolérance sur le déphasage pour que la distorsion soit inférieure à -40 dB ?
8. SENSIBILITE D’UN RECEPTEUR RADIO
Un récepteur radio dédié à une application de communication radio numérique vient d’être
développé. Cette application transmet un signal binaire de débit = 1 Mbits/s et utilise une bande
passante de 2.5 MHz. Pour garantir une qualité de service suffisante, le rapport signal à bruit par bit
Eb/No > 2 dB. Pour obtenir une couverture radio suffisante, le récepteur doit pouvoir mesurer des
signaux d’au moins -107 dBm (puissance mesurée en sortie de l’antenne).
La figure ci-dessous décrit l’architecture simplifiée de l’étage « front end » de réception. Les
caractéristiques de chaque étage vous sont aussi fournies.
G2 = 20 dB
NF2 = 10 dB
antenne
câble
LNA
G1 = -3 dB
mixer
Seuil de
sensibilité ?
G3 = -10 dB
OL NF3 = 6 dB
A. Boyer
123
Canaux de transmissions bruités
Septembre 2013
1. Calculer le facteur de bruit du récepteur.
2. Calculer le seuil de sensibilité en sortie du récepteur.
3. Est-ce que ce récepteur répond à la spécification attendue en terme de sensibilité ?
4. Que faudrait-il faire pour respecter la spécification en terme de sensibilité ?
9. BILAN DE LIAISON
On reprend le récepteur de l’exercice précédent. On considère une liaison entre un émetteur de
puissance égale à 20 dBm. Le gain de l’étage d’émission est de 10 dB. L’ensemble des pertes de
l’émetteur est d’environ 2 dB. Le signal transmis est modulé en QPSK.
Déterminer la perte de propagation maximale pour assurer un taux d’erreur binaire supérieur à
1 %.
10. CARACTERISATION DU TAUX D’ERREUR BINAIRE D’UNE
INTERFACE RADIO
Les ingénieurs d’une compagnie de fabrication de téléphone mobile viennent de développer un
prototype de circuit récepteur GPRS (General Packet Radio Service). Ce prototype doit subir une
batterie de tests afin de vérifier ces performances, dont un test de sensibilité. Il s’agit de vérifier que le
récepteur est capable de recevoir correctement les données en présence jusqu’à une valeur limite de
rapport signal sur bruit. Les spécifications de l’étage d’émission réception sont les suivantes :
taux d’erreur : BER < 0.1 %
modulation : QPSK
Fréquence bande descendante : 1805 – 1850 MHz
largeur d’une sous bande : 200 KHz
débit binaire maximal : 171 Kbits/s
Le test est effectué en utilisant un testeur de communication radio, capable de générer un
signal RF avec un niveau de puissance précis, de récupérer le flux binaire capté et régénérer par le
système sous test et de mesurer le nombre d’erreurs binaires. Dans un premier temps, le niveau de
bruit est mesuré sur l’ensemble de la bande descendante. Dans un deuxième temps, durant 100 ms, une
séquence binaire aléatoire est générée au rythme binaire maximal. Le flux binaire récupéré par le
récepteur et la puissance du signal en entrée du récepteur sont envoyés à l’appareil de test, permettant
de mesurer le nombre d’erreurs pour un rapport signal sur bruit donné. Ce test est effectué sur chaque
sous bande de la bande descendante. L’équipe de test s’est intéressée à 3 sous bandes qu’on appelle A,
B et C, sur lesquelles ils obtiennent les résultats suivants :
sous bande
SNR (dB)
nombre d’erreurs
A
6.1
15
B
5.2
34
C
8
45
1. Expliquer sous forme d’un schéma le protocole de mesure. Indiquer quelles sont les
grandeurs mesurées.
2. Commentez les résultats obtenus.
A. Boyer
124
Canaux de transmissions bruités
Septembre 2013
11. RECEPTEUR UMTS ET SIGNAUX INTERFERENTS
Soit un mobile noté M1 fonctionnant en UMTS – FDD (Frequency Domain Duplex). Le
mobile transmet un signal modulé vers une station de base (lien montant ou uplink) sur un canal dont
la fréquence porteuse est 1942.5 MHz, étalé sur une bande de fréquence de 3.84 MHz. Le canal
présente une largeur de bande de 5 MHz.
Le mobile M1 transmet un signal de type « voix », dont le débit binaire R1 est égal à 12.2
Kbits/s. M1 est placé dans l’aire de service d’une station de base UMTS. Cette dernière présente un
seuil de bruit à -100 dBm. Le signal issu de M1 mesuré par la station de base est noté S1 et est égal à 108 dBm. Ci-dessous, on donne les contraintes permettant d’établir une liaison montante en fonction
du type de service.
Service
Débit du service (Kbits/s)
Eb/No uplink (dB)
Voix
12.2
6
Données
64
3
Données
384
1
1. On suppose dans un premier temps que le mobile M1 est seul dans l’aire de service et qu’il
n’y a aucune source d’interférence possible. Calculez le rapport Eb/No de ce lien. Est-ce que la liaison
montante peut être établie dans ces conditions ?
2. On suppose dans un deuxième temps qu’un second mobile noté M2 est placé dans l’aire de
service. Il utilise un service de débit R2 = 384 Kbits/s. Le signal issu du mobile M2 mesuré par la
station de base S2 = -90 dBm. Calculez les rapports Eb/No des 2 liens.
3. Les deux mobiles peuvent-ils assurer une connexion de qualité en lien montant ? Que se
passerait-il si le mobile M1 utilisait un service de données ?
4. Calculer dans chaque scénario la puissance S1 à partir de laquelle la liaison montante entre
le mobile M1 et la station de base ne pourrait plus être maintenue ?
12. INTERNET HAUT DEBIT PAR LIAISON TELEPHONIQUE
Il y a quelques années, le réseau téléphonique classique appelé Réseau Téléphonique
Commuté (RTC) était employé pour accéder à Internet. Cependant, les débits étaient limités dans le
meilleur des cas à 56 Kbits/s, interdisant tout accès en haut débit. Cette situation faisait craindre le pire
aux opérateurs téléphoniques pour leur avenir puisque, au même moment, des opérateurs concurrents
investissaient sur des techniques alternatives (fibres optiques, satellites). Pourtant, les opérateurs
téléphoniques ont gagné la bataille de l’Internet haut débit en continuant à transmettre sur les câbles à
paires cuivrées, grâce à une famille de techniques appelée xDSL (x Digital Subscriber Line).
Dans cet exercice, nous allons analyser les techniques d’accès à Internet par le réseau RTC et
par les techniques de type xDSL.
A. Boyer
125
Canaux de transmissions bruités
Septembre 2013
Voix
Voies
multiplexées
[0 – 4 KHz]
Centre
Local
Centre
Local
Centre à autonomie
d’acheminement
Boucle locale
Lignes analogiques
Centre
Local
RTC
1. Pourquoi un signal numérique à 56 Kbits/s ne peut pas être transmis directement en bande
de base sur le réseau RTC ? Pourquoi un modem analogique est-il requis ?
2. Quel est le débit binaire maximal qu’on peut atteindre si on emploie une modulation de type
FSK, pour laquelle un ‘0’ est transmis par une fréquence F et un ‘1’ par une fréquence 2F ? Si on
emploie une modulation de type QAM64 ?
3. Proposer une solution permettant d’augmenter le débit binaire en continuant à utiliser le
réseau téléphonique. Quel problème apparaît pour une utilisation de type échange de données ?
4. Une première modulation imaginée pour l’ADSL est la modulation CAP (Carrierless
Amplitude Phase modulation). Celle-ci est proche d’une modulation m-QAM, mais elle est
entièrement numérique. Si on utilise une modulation de type 512-CAP, quel est le débit binaire
maximal théorique ?
5. Quelles sont les conséquences de l’ajout de bruit sur le signal ? Comment maintenir une
qualité de service constante ?
6. Pour surmonter les problèmes de la modulation CAP, une autre modulation appelée
Discrete Multi-Tone a été proposée. Elle est aussi basée sur une modulation m-QAM, mais la bande
allouée est subdivisée en canaux de 4.3 KHz de largeur, 250 sous-canaux sont réservés au signal
ADSL. Si une modulation de type QAM sur 15 bits est employée, quel est le débit maximal
théorique ? Quel est l’avantage de cette technique de modulation par rapport à la modulation CAP en
terme de robustesse au bruit ?
13. SIGNAUX BLOQUANTS ET PRODUIT D’INTERMODULATION
On cherche à dimensionner la plage de linéarité d’un récepteur dans le cadre d’une application
Bluetooth. Les caractéristiques de ce récepteur sont les suivantes :
•
•
•
•
•
F0 = 2400 – 2483.5 MHz
Largeur de canal = 1 MHz
Niveau de sensibilité de référence < -70 dBm
SNR > 10 dB
Gain récepteur = 10 dB
La figure ci-dessous décrit le gabarit fréquentiel du spectre du signal reçu, défini par la norme
Bluetooth. Il définit le niveau maximal pris par les signaux bloquants.
A. Boyer
126
Canaux de transmissions bruités
Septembre 2013
1. Pourquoi les signaux bloquants sont un problème pour la qualité du signal reçu ? Quel
phénomène se produit lorsqu’un signal bloquant interfère avec le signal désiré ?
2. Quelle est la situation pire cas en terme de réception ?
3. Calculer la distorsion d’ordre 3 IM3 nécessaire pour garantir une bonne réception même
dans le pire cas.
A. Boyer
127