Sommaire - AgroParisTech

Transcription

Sommaire - AgroParisTech
Sommaire
Sommaire
xiii
Table des illustrations
xix
Liste des tableaux
I
xxiii
L’ANALYSE BAYÉSIENNE
1 La décision en présence d’information
1.1 Décision, information et règle de décision
1.2 Ensemble A des décisions ou actions . . .
1.3 Ensemble X des informations . . . . . . .
1.4 Les campagnes de collecte d’information .
1.5 Associer x ∈ Xe et a ∈ A . . . . . . . . .
1
.
.
.
.
.
.
.
.
.
.
3
3
6
8
11
11
2 Représentation probabiliste des connaissances
2.1 Modèle statistique et modèle d’expertise . . . . . . . . . . .
2.1.1 De l’utilité des représentations probabilistes . . . . . .
2.1.2 Les observables X et les observées x . . . . . . . . . .
2.1.3 Les inconnues θ . . . . . . . . . . . . . . . . . . . . . .
2.2 Modèles statistiques paramétriques . . . . . . . . . . . . . .
2.2.1 Exemple 1 : un modèle probabiliste à variable discrète
2.2.2 Exemple 2 : pollution bactériologique . . . . . . . . .
2.2.3 Exemple 3 : longueurs de saumons . . . . . . . . . . .
2.2.4 Exemple 4 : rencontres de football . . . . . . . . . . .
2.2.5 Exemple 5 : débordements d’une rivière . . . . . . . .
2.3 Modèles d’expertise . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Utiliser d’autres données . . . . . . . . . . . . . . . . .
2.3.2 La méthode par introspection . . . . . . . . . . . . . .
2.3.3 Choix de priors non informatifs . . . . . . . . . . . . .
2.4 Que sait-on ? Incertitude et aléa . . . . . . . . . . . . . . . .
2.4.1 Mise à jour de prior par propriété de conjugaison . . .
2.4.2 Quand les informations l’emportent sur le prior . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
20
20
21
22
22
23
23
24
26
29
30
31
34
39
41
42
49
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
xiv
Le raisonnement bayésien
3 Risque et aide bayésienne à la décision
3.1 Le cadre décisionnel théorique . . . . . . . . . . . . .
3.1.1 Analyse extensive (ou a posteriori) . . . . . . .
3.1.2 Analyse normale (ou prédictive) . . . . . . . .
3.2 Des fonctions de désutilité simplifiées . . . . . . . . .
3.2.1 La pénalisation quadratique . . . . . . . . . . .
3.2.2 La pénalisation linéaire dissymétrique . . . . .
3.3 Exemples d’analyses décisionnelles complètes . . . . .
3.3.1 Protéger ou ne pas protéger . . . . . . . . . . .
3.3.2 Prise en compte réglementaire des risques . . .
3.4 Traitement décisionnel de la construction d’une digue
3.4.1 Période de retour . . . . . . . . . . . . . . . . .
3.4.2 Interprétation économique de la crue de projet
3.4.3 Prior non informatif . . . . . . . . . . . . . . .
3.4.4 Règle de décision bayésienne . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
53
54
54
54
55
56
56
57
57
59
61
62
63
64
65
4 Comment construire un modèle ?
4.1 Questions préliminaires . . . . . . . . . . . . . . . . . . . .
4.1.1 Le modèle existe-il ? . . . . . . . . . . . . . . . . . .
4.1.2 Le scientifique est condammé à la statistique . . . .
4.1.3 L’état de la nature est inaccessible à nos sens . . . .
4.2 Modèles par théorèmes asymptotiques . . . . . . . . . . . .
4.2.1 Loi normale . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Loi de Poisson . . . . . . . . . . . . . . . . . . . . .
4.2.3 Loi généralisée des extrêmes . . . . . . . . . . . . . .
4.2.4 Loi des dépassements . . . . . . . . . . . . . . . . .
4.3 Modèles par convolution . . . . . . . . . . . . . . . . . . .
4.3.1 Loi de Student . . . . . . . . . . . . . . . . . . . . .
4.3.2 Loi binomiale négative . . . . . . . . . . . . . . . . .
4.4 Modèles statistiques par maximum d’entropie . . . . . . . .
4.4.1 Interprétation intuitive de l’entropie . . . . . . . . .
4.4.2 Maximiser l’entropie Q sous contraintes . . . . . . .
4.4.3 Lois connues et reconnues de la famille exponentielle
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
73
74
74
74
74
75
76
76
77
78
79
80
82
83
84
86
88
.
.
.
.
.
.
.
.
.
93
94
95
97
100
100
105
105
108
111
5 Construire un modèle brique par brique
5.1 Dépendance et indépendance conditionnelles . . . . .
5.2 Modèle et symétrie par échangéabilité . . . . . . . . .
5.3
Conditionnement, causalité et graphe orienté . . . . .
5.4 Définitions grâce à un graphe orienté . . . . . . . . .
5.5 Conditionner, la clé pour modéliser intelligemment . .
5.6 Classes de modèles par conditionnement probabiliste .
5.6.1 Données manquantes et censurées . . . . . . .
5.6.2 Modèle dynamique à temps discret . . . . . . .
5.6.3 Modèle hiérarchique . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Sommaire
II
xv
LE CALCUL BAYÉSIEN
6 Motivations du calcul bayésien
6.1 Un passage obligé de l’inférence statistique bayésienne . .
6.1.1 Un calcul d’intégrale . . . . . . . . . . . . . . . . .
6.1.2 Difficultés . . . . . . . . . . . . . . . . . . . . . . .
6.2 Inventaire des méthodes . . . . . . . . . . . . . . . . . . .
6.2.1 Les commodités mathématiques de la conjugaison
6.2.2 Les techniques asymptotiques . . . . . . . . . . . .
6.2.3 Algorithmes de simulation avec indépendance . . .
6.2.4 Simulation Monte Carlo avec dépendance . . . . .
6.3 Guide de lecture . . . . . . . . . . . . . . . . . . . . . . .
123
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
125
126
126
127
128
128
128
128
129
129
7 Méthodes exactes et modèles unidimensionnels
133
7.1 Distributions conjuguées naturelles . . . . . . . . . . . . . . . . 134
7.2 Théorème de Koopman-Darmois . . . . . . . . . . . . . . . . . 135
7.3 Densité conjuguée d’un modèle exponentiel modifié . . . . . . 136
7.3.1 Construire la distribution conjuguée . . . . . . . . . . . 136
7.3.2 Extensions aux mélanges des propriétés de conjugaison . 137
7.4 Distributions conjuguées pour les modèles les plus courants . . 137
7.5 Inférence par les distributions conjuguées naturelles . . . . . . 139
7.5.1 Exemple 2 de la pollution bactériologique . . . . . . . . 139
7.5.2 Exemple 3 des saumons revisité . . . . . . . . . . . . . . 142
7.6 Distribution a posteriori d’un quantile normal . . . . . . . . . 147
7.7 Au-delà des distributions conjuguées naturelles . . . . . . . . . 149
8 Représentations multidimensionnelles
8.1 Un cas particulier de modèle normal . . . . . . . . . . . . . .
8.1.1 Vraisemblance . . . . . . . . . . . . . . . . . . . . . .
8.1.2 Inférence statistique . . . . . . . . . . . . . . . . . . .
8.1.3 Extensions à l’approximation de lois non normales . .
8.2 Modèle multinormal général . . . . . . . . . . . . . . . . . .
8.2.1 Modèle multinormal avec prior multinormal-Wishart .
8.2.2 Modèle multinormal sur l’exemple 9 . . . . . . . . . .
8.2.3 Données multivariées partiellement manquantes . . . .
8.3 Le modèle multinomial-Dirichlet . . . . . . . . . . . . . . . .
8.3.1 Le conjugué naturel du modèle multinomial . . . . . .
8.3.2 Inférence pour l’exemple 4 du loto-foot . . . . . . . . .
8.4 Extensions vers le non-paramétrique . . . . . . . . . . . . . .
8.4.1 Application du modèle Dirichlet au bootstrap bayésien
8.4.2 Boostrap bayésien sur l’exemple 9 . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
153
153
153
155
156
156
158
161
162
164
164
165
165
166
167
xvi
Le raisonnement bayésien
9 Les méthodes asymptotiques
9.1 Utilisation des modes a posteriori . . . .
9.2 Posterior avec prior négligeable . . . . .
9.2.1 θ est un paramètre réel scalaire . .
9.2.2 θ est un paramètre k-dimensionnel
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
171
171
173
173
175
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10 Simulation Monte Carlo avec indépendance
10.1 Nombres au hasard . . . . . . . . . . . . . . . . . . . . .
10.2 Du déterminisme à l’aléatoire . . . . . . . . . . . . . . . .
10.3 La distribution uniforme sur l’intervalle [0,1] . . . . . . .
10.4 Distribution réelle discrète ou continue . . . . . . . . . .
10.4.1 Par méthode d’inversion . . . . . . . . . . . . . . .
10.4.2 Simulation d’une variable normale N (0, 1) . . . . .
10.5 La méthode d’acceptation-rejet . . . . . . . . . . . . . . .
10.6 Méthode d’inversion générale . . . . . . . . . . . . . . . .
10.7 Intégration par échantillonnage simple . . . . . . . . . . .
10.8 Échantillonnage pondéré ou préférentiel . . . . . . . . . .
10.8.1 Choix de la distribution instrumentale . . . . . . .
10.8.2 Méthode IS approchée . . . . . . . . . . . . . . . .
10.8.3 Calcul bayésien par échantillonnage pondéré . . . .
10.8.4 Ré-échantillonnage . . . . . . . . . . . . . . . . . .
10.8.5 Méthodes générales de ré-échantillonnage . . . . .
10.9 Applications . . . . . . . . . . . . . . . . . . . . . . . . .
10.9.1 Quantile de Gumbel pour l’exemple 11 . . . . . . .
10.9.2 Intégration par échantillonnage . . . . . . . . . . .
10.9.3 Évaluation d’un prior informatif pour l’exemple 4
10.9.4 Rendement de la méthode SIR de Rubin . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
181
. 181
. 182
. 183
. 183
. 183
. 185
. 186
. 189
. 190
. 191
. 193
. 193
. 194
. 195
. 196
. 197
. 197
. 198
. 200
. 202
11 Chaînes de Markov et simulations Monte Carlo
11.1 Quelques illustrations de chaînes de Markov . . .
11.2 Éléments constitutifs des chaînes de Markov . . .
11.2.1 États . . . . . . . . . . . . . . . . . . . . .
11.2.2 Propriété de Markov . . . . . . . . . . . . .
11.2.3 Homogénéité (ou stationnarité forte) . . . .
11.2.4 Noyau d’une chaîne de Markov . . . . . . .
11.2.5 Équations de Chapman-Kolmogorov . . . .
11.2.6 Motivations pour passer à la limite . . . . .
11.2.7 Itérer une chaîne de Markov ? . . . . . . . .
11.2.8 Distribution invariante . . . . . . . . . . . .
11.3 Chaînes de Markov sur l’espace d’états de cardinal
11.3.1 Irréductibilité . . . . . . . . . . . . . . . . .
11.3.2 Propriétés caractéristiques des visites . . . .
11.3.3 Chaîne récurrente . . . . . . . . . . . . . .
11.3.4 Chaîne apériodique . . . . . . . . . . . . . .
11.3.5 Chaîne positive . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
fini
. . .
. . .
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
205
206
214
214
214
214
215
217
220
221
222
224
225
225
229
229
229
Sommaire
xvii
11.4 Chaînes de Markov pour les espaces d’états de cardinal infini
11.4.1 ϕ−Irréductibilité . . . . . . . . . . . . . . . . . . . . .
11.4.2 Chaîne récurrente . . . . . . . . . . . . . . . . . . . .
11.4.3 Harris-récurrence . . . . . . . . . . . . . . . . . . . . .
11.4.4 Chaîne positive récurrente . . . . . . . . . . . . . . . .
11.5 Théorème général de convergence ergodique . . . . . . . . . .
11.5.1 Moyenne empirique le long d’une trajectoire . . . . . .
11.5.2 Recours à la Harris-récurrence . . . . . . . . . . . . .
11.5.3 Interprétation de la propriété ergodique . . . . . . . .
11.5.4 Intégrer par échantillonnage le long d’une trajectoire .
11.6 Rapidité de convergence . . . . . . . . . . . . . . . . . . . . .
11.6.1 A-t-on atteint le régime stationnaire ? . . . . . . . . .
11.6.2 Contrôler la rapidité de convergence . . . . . . . . . .
11.6.3 Réversibilité . . . . . . . . . . . . . . . . . . . . . . . .
11.7 Simulations informatiques . . . . . . . . . . . . . . . . . . . .
12 Algorithme de Metropolis-Hastings
12.1 Une méthode MCMC générale : Metropolis-Hastings .
12.1.1 L’algorithme d’acceptation-rejet revisité . . . . .
12.1.2 Limitations de l’algorithme d’acceptation-rejet .
12.1.3 Algorithme de Metropolis-Hastings . . . . . . . .
12.1.4 Conditions de π-réversibilité . . . . . . . . . . . .
12.1.5 Pratique de l’algorithme de Metropolis-Hastings
12.2 Réglages de l’algorithme Metropolis-Hastings . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 230
. 230
. 231
. 232
. 232
. 233
. 233
. 234
. 234
. 235
. 236
. 236
. 239
. 241
. 242
.
.
.
.
.
.
.
245
246
247
247
249
250
251
255
13 Algorithme de Gibbs
263
13.1 Échantillonneur de Gibbs . . . . . . . . . . . . . . . . . . . . . 263
13.1.1 Cas de deux coordonnées à valeurs continues . . . . . . 264
13.1.2 Condition d’invariance . . . . . . . . . . . . . . . . . . . 265
13.1.3 Échantillonnage de Gibbs d’un vecteur à k composantes 266
13.1.4 Exemple d’application de l’échantillonneur de Gibbs . . 268
13.2 Algorithme de Gibbs et modélisation graphique . . . . . . . . 270
13.2.1 Le DAG : une représentation utile du problème . . . . . 270
13.2.2 Modèle graphique et conditionnelles complètes . . . . . 271
13.2.3 Variables non observables . . . . . . . . . . . . . . . . . 273
13.2.4 Traitement de l’exemple 6 . . . . . . . . . . . . . . . . . 275
13.2.5 Traitement de l’exemple 10 . . . . . . . . . . . . . . . . 276
13.2.6 Traitement de l’exemple 7 . . . . . . . . . . . . . . . . . 279
13.3 Discussions et exercices de maniement . . . . . . . . . . . . . . 280
13.3.1 Le modèle linéaire . . . . . . . . . . . . . . . . . . . . . 280
13.3.2 Capture/marquage/recapture . . . . . . . . . . . . . . . 281
xviii
Le raisonnement bayésien
14 Algorithmes MCMC et par-delà
14.1 Méthodes hybrides . . . . . . . . . . . . . . . . . . . . . . . .
14.2 Rao-Blackwell . . . . . . . . . . . . . . . . . . . . . . . . . .
14.3 Les logiciels d’analyse bayésienne . . . . . . . . . . . . . . . .
14.3.1 Écrire ses propres programmes . . . . . . . . . . . . .
14.3.2 Utiliser des packages bayésiens tout faits . . . . . . . .
14.3.3 WinBUGS . . . . . . . . . . . . . . . . . . . . . . . . .
14.4 Calculs d’intégration et contrôles pratiques de la convergence
14.4.1 Contrôle par l’échantillonnage pondéré séquentiel . . .
14.4.2 Approximation par un autorégressif . . . . . . . . . .
14.4.3 Test pour contrôler que la phase ergodique est atteinte
14.5 Introduction aux méthodes particulaires . . . . . . . . . . . .
14.5.1 Une étape d’échantillonnage pondéré . . . . . . . . . .
14.5.2 Une étape de ré-échantillonnage . . . . . . . . . . . . .
14.5.3 Ajouter une transition à la mode MCMC . . . . . . .
14.5.4 Premières idées pour un algorithme particulaire . . . .
14.5.5 Réconcilier échantillonnage pondéré et MCMC . . . .
14.5.6 Utilisation des algorithmes particulaires . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
283
284
288
294
294
295
296
300
300
301
303
306
306
307
309
309
313
314
15 Conclusions
15.1 Une démarche cohérente et des outils efficaces
15.2 De la difficulté d’être statisticien . . . . . . . .
15.3 Jeter des ponts transdisciplinaires . . . . . . .
15.4 Du plaisir d’être statisticien . . . . . . . . . . .
.
.
.
.
323
323
325
326
327
Annexes
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
331
Bibliographie
351
Index
359