Matrices Al´eatoires et T´el´ecommunications: de Wigner `a Shannon

Transcription

Matrices Al´eatoires et T´el´ecommunications: de Wigner `a Shannon
Supelec
Matrices Aléatoires et Télécommunications:
de Wigner à Shannon
Mérouane Debbah
Alcatel-Lucent Chair on Flexible Radio
[email protected]
Evolution des standards
1
Bell Labs (1948)
A Mathematical Theory of Communication, The Bell Labs Technical Journal, July-October,
vol. 27, 379-457,623-656, 1948.
(1921-1948)
2
La théorie de l’information
• L’information est une mesure objective de notre incertitude indépendante du sens du
message.
• Cette incertitude est désignée par la notion d’entropie.
• Elle est liée au nombre de possibilités (et donc aux probabilités) de réalisation du
message.
• Exemple: Si un message peut avoir M = 2N possibilités, il contient log2(M ) = N
bits d’information.
3
Le cas continu
• Dans le cas continu, une formulation de la notion d’information existe.
• Dans le cas d’un signal bande limitée, Shannon trouve une représentation élégante
du signal à partir d’un certain nombre de ces échantillons: c’est le théorème
d’échantillonnage de shannon.
• Ironie de l’histoire, ce théorème est dans la section ”mathematical preliminaries”.
4
Comment transmettre un signal?
• Shannon donne le schéma général d’un schéma de communication.
• La notion de débit est également introduite: pendant une durée T , le signal est émis
selon un certain nombre de niveaux M.
log (M )
bits/s.
• Le débit est donné par: 2T
• Le schéma de communication comprend:
Un source dinformation.
Un transmetteur.
Un canal
Un récepteur
Une destination.
5
Comment transmettre un signal?
6
Exemple
0 1 0 1 0
0 1 1
A
A
T
−A
−A
7
Exemple
A
A
A/3
A/3
−A/3
−A/3
T
−A
−A
8
Existe-t-il une limite au débit?
• On peut effectivement augmenter le débit (en tant que vitesse de transmission) en
augmentant le nombre de niveaux.
• Par contre, si l’on parle de débit en tant que nombre de bits par seconde arrivant sans
erreur au niveau du récepteur, alors ceci n’est pas possible.
9
Existe-t-il une limite au débit?
• En effet, plus le nombre de niveaux augmente (à puissance fixée, la puissance est
toujours normalisée pour des questions de coût de transmission) et plus les niveaux
émis ont des valeurs de plus en plus proches.
• Par contre, si l’on parle de débit en tant que nombre de bits par seconde arrivant sans
erreur au niveau du récepteur, alors ceci n’est pas possible.
• Il est alors difficile au niveau du récepteur de discriminer entre 2 valeurs entachées
d’erreurs dûes au bruit.
10
Existe-t-il une limite au débit?
• Le débit a donc une limite déterminée par un seuil que l’on appelle la capacité du canal.
• Le fait de pouvoir transmettre à un débit non nul sans erreur était une idée à contrecourant des travaux des scientifiques avant1949.
• Il était alors naturel à l’époque de réduire la probabilité d’erreur d’une transmission en
réduisant le débit. Ce n’est qu’avec les travaux de Shannon que le codage est apparu
comme une issue à ce dilemme.
11
Capacité d’un canal
On encode une série de C bits en un vecteur de dimension N .
y, x et b sont des vecteurs de dimension N
y =x+b
Pour N assez grand, la puissance de
• b est proche de N σ 2
• x est proche de N P
• y est proche de N (P + σ 2)
12
Capacité d’un canal
13
Capacité d’un canal
p
Le volume de la sphère du signal est proportionnel à ( N (P + σ 2))N
p
Le volume de la sphère du bruit est proportionnel à ( N (σ 2))N
Le nombre total de codes (messages) que l’on peut mettre est donné par le ratio suivant:
(
p
N (P + σ 2))N
p
( N (σ 2))N
Ce qui donne un nombre de bits par temps symbole égal à:
p
1
( N (P + σ 2))N
1
P + σ2
C=
log2(
)=
log2(
)
p
2
2
N
NT
2T
σ
( N (σ ))
14
Volume d’une sphère
Le volume d’une sphère de rayon r (en dimension N ) est donné par:
N
V =
π 2 rN
Γ( N2 + 1)
15
Capacité d’un canal
y =x+n
P + σ2
1
log2(
)
C=
2T
σ2
Dans le cas complexe et si on définit SNR =
P
,
σ2
la capacité est donnée par:
1
C = log2(1 + SNR)
T
16
Bande et Rapport Signal à Bruit
C = W log(1 + SNR)
SNR = C
Eb
N0
Eb
2C − 1
lim
=
= log(2)
C→0 N 0
C
Nous n’avons que deux degrés de liberté
.
17
Le monde sans fils
18
Le monde sans fils
I
E , B
I
19
Le monde sans fils
y = hx + n
| h |2 P
C = W log(1 +
)
2
σ
20
Les réseaux Multi-Antennes sans fils
21
Les réseaux Multi-Antennes sans fils
22
Les réseaux Multi-Antennes sans fils
Rx
Tx
23
Représentation Matricielle
y = Hx + n



H=

h11
...
...
h nr 1
...
...
...
...
...
...
...
...
h1nt
...
...
h nr nt





(1)
24
Capacité d’un système MIMO
y = Hx + n
H = UΛV
H
r=U y
H
s=V x
r = Λs + n
0
25
Capacité d’un système MIMO
y(i) = λ(i)s(i) + n(i)
Sur chaque lien spatial, la capacité est de:
λ2i
Ci = log2(1 + 2 )
σ
La capacité totale est donnée par:
C=
nr
X
i=1
λ2i
log2(1 + 2 )
σ
L’espace joue le même rôle que la bande.
26
Capacité d’un systéme MIMO
C=
nr
X
i=1
λ2i
log2(1 + (1 + 2 )
σ
¶
µ
1
H
C = log2 det I + 2 HH
σ
Quels sont les débits que l’on peut atteindre dans les milieux sans fils MIMO?
27
Freebox ADSL MIMO
”Parmis les nouveautés techniques de cette freebox HD, on notera l’utilisation dune
nouvelle solution sans fil dénommée Wifi Mimo”
28
Equation de Schrondinger
HΦi = EiΦi
Φi est la fonction d’onde
Ei est le niveau d’énergie
H est un hamiltonien
Interaction magnétique entre les spins
29
La naissance des matrices aléatoires
Eugene Paul Wigner, 1902-1995
30
L’aléatoire en 1955
E. Wigner. ”Characteristic Vectors of bordered matrices with infinite dimensions”, The
annal of mathematics, vol. 62, pp.546-564, 1955.



1 

√ 
n


0
+1
+1
+1
−1
−1
+1
0
−1
+1
+1
+1
+1
−1
0
+1
+1
+1
+1
+1
+1
0
+1
+1
−1
+1
+1
+1
0
−1
−1
+1
+1
+1
−1
0









Quand la dimension de la matrice augmente, que peut-on dire des valeurs propres
(niveaux d’énergie)?
31
Matrices de Wigner: la loi semi-circulaire
32
Loi empirique des valeurs propres de H
H est hermitienne
N
1 X
δ (λ − λ1)
dFN (λ) =
N i=1
Les moments de la distribution sont donnés par:
N
=
N
=
...
=
N
=
m1
m2
mk
Z
N
1
1 X
tr (H) =
λi =
λdFN (λ)
N
N i=1
Z
1
2
2
tr (H) =
λ dFN (λ)
N
...
Z
1
k
k
tr (H) =
λ dFN (λ)
N
Dans beaucoup de cas, tous les moments convergent. C’est exactement le genre de
résultat dont nous avons besoin pour comprendre le réseau.
33
Matrices de Wigner: la loi semi-circulaire
La preuve de Wigner pour la convergence vers la loi semi-circulaire
Les moments empiriques de
2k
1
N Trace(H )
1
2k
lim
Trace(H )
N →∞ N
→ Nombres de Catalan
Z
2
=
2k
x f (x)dx
−2
=
1
2k
Ck
k+1
Comme la loi est symmetrique, les moments impaires tendent vers zéro.
34
Matrices de Wigner: la loi semi-circulaire
Calcul récursif:
On intègre par parties et on obtient:
α2k
=
=
=
=
1
π
Z
2
x
2k
p
4 − x2dx
−2
Z 2
1
−x
2k−1
2
−
x
(4 − x )dx
√
2π −2 4 − x2
Z 2p
1
2k−1
2 0
4 − x2(x
(4 − x )) dx
2π −2
4(2k − 1)α2k−2 − (2k + 1)α2k
Le résultat est donc obtenu de manière récursive:
α2k =
2(2k − 1)
α2k−2
k+1
35
Nombres de Catalan
Eugène Charles Catalan, 1814-1894
36
Matrices de Wigner: la loi semi-circulaire
E. Wigner. ”On the Distribution of Roots of certain symmetric matrices”, The Annals of
Mathematics, vol. 67, pp.325-327, 1958.
Theorem2. Consider a N × N standard Wigner matrix W such that, for some constant κ
and sufficiently large N ,
κ
4
maxi,j E(| wij | ) ≤ 2
N
Then the empirical distribution of W converges almost surely to the semi-circle law whose
density is:
1 p
f (x) =
4 − x2
2π
with | x |≤ 2
The semi-circle law is also known as the non-commutative analog of the Gaussian
distribution.
37
Remarques sur les rśultats asymptotiques
Distribution: la distribution asymptotique ne dépend pas de la distribution des entrées
indépendentes.
Ergodicité: L’histogramme des valeurs propres d’une réalisation converge presque
sûrement vers la distribution asymtptotique des valeurs propres.
Vitesse de Convergence: 8 = ∞
Cas Gaussien: C’est le seul cas pour lequel nous savons traiter le cas non-asymptotique.
38
Dterminisme et alátoire
•
•
•
•
•
Distribution de λ(H).
Distribution de λ(HH H).
Distribution de λmax(H).
Dsitribution conjointe de of λ1(H), ..., λN (H).
Distribution de l’espacement des valeurs propres (liée à la fameuse hypothèse de
Riemann).
• Distribution de HH H.
• Distribution de la matrice des vecteurs propres de HH H.
39
L’alátoire en 1967
H une matrice N × K avec des élément i.i.d., de moyenne zéro et de variance 1/N .
Valeurs propres de



N

|

H
{z
K

}






















HH
quand N → ∞, K/N → α ne sont l’identité!
Remarque: Si les entrées sont Gaussiennes, nous parlons de matrices de Wishart avec
K degés de liberté. La distribution exacte est connue dans le cas fini.
40
Dsitribution limite des valeurs propres pour α = 10
Remarque: De manière assez remarquable, les support est borné alors que les entrées
peuvent prendre n’importe quelle valeur.
41
Distribution empirique des valeurs propres de HHH
H est N × K i.i.d avec
K
N
=α
N
1 X
dFN (λ) =
δ (λ − λ1)
N i=1
Les moments sont donnés par:
N
m1
N
m2
N
m3
=
N
´
1 X
1 ³
H
tr HH
=
λi → 1
N
N i=1
=
N
´2
1 ³
1 X 2
H
λ →1+α
tr HH
=
N
N i=1 i
=
N
´3
1 ³
1 X 3
2
H
λi → α + 3α + 1
tr HH
=
N
N i=1
42
The Marchenko-Pastur Distribution Law
V. A. Marchenko and L. A. Pastur, ”Distributions of eigenvalues for some sets of random
matrices,” Math USSR-Sbornik, vol.1 pp.457-483, 1967.
Theorem. Consider an N × K matrix H whose entries are independent zero-mean
complex (or real) random variables with variance N1 and fourth moments of order O( N12 ).
H
As K, N → ∞ with K
N → α, the empirical distribution of H H converges almost surely
to a nonrandom limiting distribution with density
1 +
f (x) = (1 − ) δ(x) +
α
√
√
where a = (1 − α)2 and b = (1 + α)2.
p
(x − a)+(b − x)+
2παx
43
Matrice carré avec des coefficients i.i.d
44
La loi circulaire
V. L. Girko, ”Circular Law”, Theory. Prob. Appl., vol. 29, pp. 694-706, 1984
Z. D. Bai, ”The Circle Law”, The Annals of Probability, pp. 494-529, 1997.
Theorem. Let H be an N × N complex random matrix whose entries are independent
random variables with identical mean and variance and finite kth moments for k ≥ 4.
Assume that the joint distribution of the entries real and imaginary parts of the entries
have uniformly bounded support densities. Then, the asymptotic spectrum of H
converges almost surely to the circular law, namely the uniform distribution over the unit
disk on the complex plane, {ξ ∈ C, | ξ |≤ 1} whose density is given by:
f (ξ) =
1
, | ξ |≤ 1
π
45
Les applications des matrices aléatoires
• Wigner (55) , Dyson (67) : Théorie des matrices aléatoires et physique nucléaire.
• Potters (00), Bouchaud (00) : Théorie des matrices aléatoires et finance.
• Voiculescu (91) , Biane (00), Hiai, Petz (00): Théorie des matrices aléatoires et théorie
des probabilités libres.
• Silverstein (89), Pastur (72), Girko (90), Edelman (89): Théorie des matrices aléatoires
et transform’ee de Cauchy-Stieljes.
• Speicher (92): Théorie des matrices aléatoires et combinatoire.
• Tanaka (01), Moustakas (03), Sengupta (03) : Théorie des matrices aléatoires et
mécanique statistique.
46
Capacité de Shannon
Considérons la variable alátoire
CN
1
=
log det
N
µ
1
H
IN + 2 WW
σ
¶
µ
N
³
´¶
1
1 X
H
log 1 + 2 λk WW
=
N k=1
σ
Quand N → ∞ et K/N → γ ( σ12 = ρ),
Z
CN
=
∞
log(1 + ρλ)dF (λ)
0
=
γ log(1 + ρ − ρα) + ln(1 + ργ − ρα) − α
avec
α=
1
1
[1 + γ + −
2
ρ
s
1
(1 + γ + )2 − 4γ]
ρ
47
Propagation avec reflecteurs multiples
Rx
Tx
Φnr ×sr
Θsr ×st
Ψst ×nt
• Ψst×nt
• Φnr ×sr
• Θsr ×st
48
Propagation avec reflecteurs multiples
y
=
Hx + n
=
Φnr ×sr Θsr ×st Ψst×nt x + n
µ
log2det
I nr
¶
1
H
+ 2 HH
?
σ
49
L’aléatoire dans les années 1980
Que pouvons nous dire des valeurs propres de C = AB
• En général, il n’est pas possible de trouver les valeurs propres du produit de matrices à
partir des valeurs propres de chaque matrice.
• Une exception est le cas où les matrices ont les mêmes vecteurs propres.
50
Distribution empirique des valeurs propres de C = AB
N
dFC (λ)
N
´
1 X ³
C
=
δ λ − λ1
N i=1
Dans beaucoup de cas, les moments asymptotiques de C peuvent s’exprimer en fonction
des moments asymptotiques de A and B.
C
mk
=
1
k
A
A
B
B
tr (C) = f (m1 , ..., mk , m1 , ..., mk )
N →∞ N
lim
En d’autres termes, la distribution asymptotique des valeurs propres de C dépend
uniquement de la distribution empirique des valeurs propres de A and B.
Quand cela arrive, les deux matrices sont libres et le cadre général est celui des
probabilités libres. Ces résultats sont aussi valides pour C = A + B.
51
Résultat H =
η et ξ sont respectivement les valeurs propres
sr × st avec des entrées i.i.d):
C=
nt
X
log2(1 + ρξir) +
i=1
H
1
sr ΦΦ
nr
X
et
H
1
st Ψ Ψ
(Θ est une matrice
log2(1 + ρηiq) − nr qr
i=1
"
g(r, q) =
√ 1 ΦΘΨ
sr st
nt
ρηi
1 X
2
(
)
nt i=1 1 + ηiρq
#"
1
nt
nr
X
(
i=1
ρξi
2
)
1 + ξiρr
#
n
t
ρηi
1 X
r=
nt i=1 1 + ηiρq
n
r
1 X
ρξi
q=
nt i=1 1 + ξiρr
52
Validation par des mesures
53
Validation par des mesures
54
Validation par des mesures
55
Les réseaux flexibles: du b/s/Hz au b/s/Hz/m2
Les réseaux flexibles (ou réseaux aléatoires) ne considèrent pas les ressources radio
comme un ”gâteau à partager” entre les utilisateurs mais profitent du grande nombre
d’interactions entre les termainaux pour accroitre l’éfficacité spectrale.
Plus de terminaux représente plus d’opportunités pour faire transiter l’information dans le
réseau, ce qui accroit le débit global.
56
Les réseaux MIMO
”Nous construisons trop de murs...pas assez de ponts”, Isaac Newton
Combattre l’interférence à travers le partage du spectre/contrôle de puissance.
Exploiter l’interference à travers la coopération et la coordination.
57
Les réseaux MIMO
En théorie, le seul facteur limitant sera le nombre de stations de base.
58
Réseaux MIMO Intelligent
C’est l’aléatoire dans le réseau qui amène les gains potentiels...nous devons exploiter
cette opportunité et non la combattre!
Pour cela, nous travaillons sur des modèles plus complexes (avec les outils adéquats pour
les traiter)
59
Cours en ligne
http://www.supelec.fr/d2ri/flexibleradio/cours.en.html
Course 1: Overview and Historical development.
Course 2: Probability and convergence measures review.
Course 3: Basic Results on Random Matrix Theory
Course 4: What about deterministic matrices?
Course 5: Stieltjes Transform Method.
Course 6: Results on Unitary Random Matrix Theory
Course 7: The role of the Cauchy-Stieltjes transform in communications
Course 8: Free probability theory and random matrices
Course 9: Free deconvolution for signal processing applications
Course 10 MIMO Channel Modelling and random matrices
Course 11: Asymptotic analysis of (MC)-CDMA systems
Course 12: Asymptotic Analysis of MIMO systems
Course 13: Asymptotic design of receivers
Course 14: Decoding order in receivers
Course 15: Game theory and Random matrix theory
Course 16: Asymptotic Analysis of Multi-hop relay channels
60
Random Matrix Theory
61
Last Slide
THANK YOU!
62

Documents pareils