Chapitre 8. Principes de la modélisation Au cœur des sciences

Transcription

Chapitre 8. Principes de la modélisation Au cœur des sciences
Chapitre 8. Principes de la modélisation
Au cœur des sciences cognitives, au delà des nombreuses disciplines qui travaillent de concert
afin de décrire la formation des connaissances, on trouve un quadruplet fondamental de
méthodes : la conceptualisation, l'expérimentation, la modélisation et la simulation, la dernière
étant la plus fortement caractérisée par l'essor de l'informatique. La conceptualisation est une
mise en forme essentiellement verbale visant la description précise des causes, du fonctionnement
ou de la structure d'un phénomène (observé ou attendu). La conceptualisation peut s'appliquer à
différents niveaux, que ce soit la description d'un mécanisme mental de haut niveau tel qu'un
raisonnement précis dans un contexte donné, ou l'explication de bas niveau du fonctionnement
cérébral telle que l'idée qu'un déséquilibre de la dopamine dans le cerveau puisse être à l'origine
des troubles de l'attention chez l'enfant. Une conceptualisation peut se réduire au simple lien entre
plusieurs variables sans qu'aucune causalité ne soit imputée à l'une d'elles. Par exemple, la théorie
des états mentaux inversables (Reversal theory) présuppose que des individus peuvent alterner
entre des états mentaux complètement inversés selon leur état d'esprit à un moment t, ou que
plusieurs individus peuvent se comporter de façon complètement inverse dans un même contexte
du fait de leur personnalité (Kerr, 1999). Les états téliques et paratéliques illustrent bien ce
phénomène de polarité. Un état télique correspond à la focalisation sur un but alors qu’un état
paratélique se caractérise par la focalisation sur les moyens d’y parvenir. Une personne dans un
état télique perçoit son objectif comme fondamental et les moyens pour y parvenir sont
secondaires. Tout obstacle est perçu de façon négative, le travail à fournir pour atteindre l'objectif
est vécu comme douloureux et la moindre contrariété est source d'anxiété. L'état paratélique
considère que les moyens sont à investir en premier lieu, de façon à ce que l'objectif puisse être
atteint de façon agréable. La personne paratélique est orientée sur l'activité elle-même, et tout ce
qui est fait au cours du cheminement pour atteindre un but est vécu avec plaisir. L'objectif est
même parfois arbitraire, et posé au départ comme une simple raison de s'engager dans une
activité. De ce fait, la personne dans un état paratélique peut être perçue comme moins sérieuse
que celle dans l'état télique. Les surprises et les sensations sont les bienvenues, contrairement aux
attentes de la personne télique. On retrouve aisément cette distinction chez les personnes qui
pratiquent le sport pour le plaisir ou pour gagner car pour les uns, jouer sans la perspective de
gagner ne permet pas de pratiquer un sport correctement, alors que pour les autres, un adversaire
voulant absolument gagner semble passer à côté de l'essentiel du plaisir procuré par la pratique du
sport. Ces conceptualisations peuvent être assimilées à une théorie dont on attend qu'elle puisse
produire des hypothèses testables par l'expérimentation. Par exemple, la théorie peut prédire
qu'une personne télique peut se sentir relaxée dans le cas où elle ressent un plaisir assez faible
pendant son activité, alors que la personne paratélique ressentira un ennui profond lorsque son
éveil physiologique est faible. Au contraire, si les sensations sont intenses, la personne télique
ressentira une forme d'anxiété pendant que celle paratélique sera en pleine euphorie. D'autres
variables, de type binaire également, peuvent être ajoutées pour prédire des états mentaux
doublement inversables, comme le fait de présenter au départ un caractère conformiste ou
marginal, etc.
1
La différence entre conceptualisation et modélisation se situe dans la mathématisation. La
description des états téliques et paratéliques ne permet ici de mesurer aucune relation précise
comme par exemple le passage d'un état à un autre. Rien n'est dit par exemple sur le type de
fonction (exponentielle, logarithmique) qui relie deux variables. Par exemple, le passage des états
Relaxation à Anxiété est arbitrairement négativement exponentiel, alors que le passage de l'ennui
à l'état d'excitation est arbitrairement logarithmique. Nous avons volontairement choisi ces deux
types de courbes (à la différence de la théorie originale) afin de montrer l'absence de lien précis
entre les états. Aucune équation n'est formalisée ici, ce qui néanmoins peut être une aubaine pour
la diffusion d'une théorie car il paraît qu'on perd la moitié des lecteurs à chaque fois qu'on écrit
une équation ! L'exemple pris ici minimise volontairement la portée de la théorie et nous invitons
le lecteur intéressé à parcourir la littérature récente sur le sujet, qui ne manque pas d'apporter des
prédictions précises.
Puisque l'expérimentation vise la manipulation des variables, elle peut naturellement s'appuyer
sur une conceptualisation afin d'induire un effet expérimental. Pour rappel, l'expérimentation
suppose que la variable dépendante (la mesure) est fonction de la variable indépendante (le
facteur), une relation que l'on peut écrire VD = f(VI). Le moyen de s'en souvenir est que la
variable dépendante "dépend OU est fonction de" la variable indépendante (qui ne dépend de rien
dans le contexte isolé de l'expérimentation). Dans l'exemple pris précédemment, on peut tenter de
maintenir constante l'intensité d'une sensation dans un jeu vidéo afin de voir l'effet sur des
personnes au préalable identifiées comme téliques ou paratéliques. La variable dépendante,
autrement appelée mesure, peut simplement viser à connaître l'état (excité ou relaxé) de la
personne à l'issue du jeu. Les statistiques subséquentes serviront à établir si le facteur a induit une
différence significative entre les personnes téliques et paratéliques.
L'objectif ici n'est nullement de s’attarder la méthode expérimentale, mais de montrer comment
passer de la conceptualisation à la modélisation. De façon péjorative, on pourrait dire qu'une
conceptualisation est une simple intuition, qui mérite une formalisation plus précise, encore une
fois, fondée sur des équations mathématiques La simulation est encore plus complexe que le
modèle, dans le sens où elle cherche à faire vivre le modèle. La modélisation est statique, et la
simulation est dynamique. Nous reviendrons sur ce point plus complexe après avoir donné
quelques exemples de modèles. Nous commençons par développer quelques exemples de
modèles qui semblent gouverner des phénomènes divers tels que la vitesse de reproduction des
animaux, la disposition des feuilles sur une tige, la présence de parastiches (i.e., les motifs
spiralés) dans les fleurs de tournesol, etc.
2
Conceptualiser la reproduction des lapins peut commencer par le constat qu'ils semblent se
reproduire très rapidement. Notez qu'on ne dit pas qu'ils semblent se reproduire de façon
exponentielle, ce qui serait déjà la signature d'un modèle. Un modèle classique de cette
reproduction est la suite de Fibonacci, posant les deux constantes et l'équation suivantes :
U0 = 1; U1 = 1; Un+2 = Un+1 + Un,
Cette suite produit la série de nombres :
1, 1, 2, 3, 5, 8, 13, 21, 34,
selon les calculs simples,
1 +1 = 2,
1+2=3
2 + 3 = 5, etc.
3
La raison pour laquelle cette suite décrit bien la croissance du nombre de lapins est qu'1 couple de
lapins (nommés a et b) qui se regardent dans le blanc des yeux ne génère rien d'autre que ce
même couple de lapins (a et b). Cela explique déjà les deux premiers 1 de la suite ! Ce couple de
lapin entreprend assez rapidement d'avoir un couple de lapereaux (c et d), qui en première
génération sont trop jeunes pour être fertiles. Cela explique la présence de 2 couples. A la
génération suivante le premier couple engendre un nouveau couple de lapereaux (e et f) pendant
que les deux premiers lapereaux (c et d) atteignent l'âge de procréer, ce qui fait 3 couples. A la
génération suivante, le premier couple (a et b) continue d'engendrer un nouveau couple de
lapereaux (g et h), c et d procèdent à leur première contribution à la surpopulation (i et j), tandis
que e et f arrivent en âge de procréer, ce qui fait 5 couples au total. Tout en prédisant assez bien le
rythme de croissance de la population de lapins (voir Figure suivante), le modèle ne prend pas en
compte les décès (pourtant plus que probables) des lapins dans l'histoire, ce qui illustre
parfaitement le fait qu'un modèle est souvent simplifié.
25
Effectif de couples de lapins
20
15
10
5
0
1
2
3
4
5
Reproduction
6
7
8
Un exemple de modélisation d'un phénomène précisément exponentiel est la loi de Moore qui
indique que la puissance des ordinateurs (à coût constant) double tous les 18 mois. Elle est assez
bien vérifiée depuis plus de 40 ans (Delahaye, septembre 2013). C'est une loi bien plus précise
que de remarquer naïvement "que le monde progresse", que nous pourrions assimiler à une forme
de proto-concept. Toutes les lois ne sont pas mathématisées. Il vous arrive peut-être de vous dire
que vous choisissez toujours la mauvaise file (sur une route ou dans un supermarché). Il s'agit de
la fameuse malédiction de la mauvaise file que tout le monde a cru connaître un jour ou l'autre.
Elle s'explique plus ou moins sérieusement par la loi de Murphy dite loi de l’emmerdement
maximum, postulant que "Si ça peut mal se passer, cela se passera mal. Il n’y a donc rien
d’étonnant à se retrouver toujours dans la mauvaise file." (Delahaye, mai 2012).
Revenons vers la suite de Fibonacci pour en montrer son applicabilité à la description d'autres
phénomènes naturels. La bifurcation des branches suit une structure similaire à la suite de
Fibonacci. Dessinez une grande branche numérotée 1, que vous laissez grimper sur votre feuille
sans plus jamais y retoucher. En bas de cette première branche, opérez une première bifurcation à
droite de la branche numéro 2, et sur cette seconde branche une 3e à gauche, puis une 4e à droite
4
un peu plus haut. Sur la 3e, on peut faire une 5e bifurcation à gauche, puis une 6e à droite de la 3e,
une 7e à droite de la 4e, puis une nouvelle à gauche de la 5e. A gauche, on retrouve la suite 1, 1, 2,
3, 5 et 8. Ces nombres expliquent le nombre d'embranchements à chaque poussée de la plante.
L'arbre dessiné dans la figure ci-dessous semble assez naturel, et dans tous les cas, certainement
plus proche de la réalité qu'un arbre binaire se scindant en deux branches à chaque poussée (1, 2,
4, 8, 16) dont le rendu est trop symétrique. On remarque qu'un point essentiel du modèle est de
permettre une reproduction d'une structure réelle.
La suite de Fibonacci est également liée au nombre d'or, que l'on retrouve en divisant deux
nombres consécutifs de cette suite, par exemple, 3/2 = 1.5, 5/3 = 1.66, 8/5 = 1.6, 13/8 = 1.63,
21/13 = 1.62, 34/21 = 1.61, etc. Remarquez que plus les deux nombres que l’on divise sont
grands, plus le résultat s’approche du nombre d’or. La proportion d'or est en effet déterminée par
deux chiffres consécutifs a et b lorsque (a + b)/a = a/b. On peut alors définir sur la base de ce
nombre d’or, le rectangle d'or, la spirale d'or et l'angle d'or. On retrouve ce nombre d'or dans des
phénomènes naturels comme par exemple la direction que prennent les feuilles poussant le long
d'une tige et leur permettant la meilleure exposition au soleil, phénomène auquel s’intéresse
exclusivement la phyllotaxie. La spirale d'or décrit à merveille l’organisation du coquillage
nautile ou de certaines galaxies. De même, l'angle d'or décrit la position des graines dans la fleur
de tournesol, la pomme de pin ou l'ananas.
Il est souvent compliqué d'expliquer pourquoi le nombre d'or s'applique si bien à la nature, mais
nous souhaitons montrer en guise d'exemple que la modélisation par ce nombre permet de
reproduire le cœur de la fleur de tournesol. Le cœur de la fleur de tournesol est formé d'un
ensemble d’unités voisines organisées en forme d’hélices, des parastiches, qui peuvent être
directes ou inverses selon qu'elles ont tendance à tourner vers la gauche ou vers la droite. Cette
organisation recoupe très bien deux nombres consécutifs de la suite de Fibonacci, le plus souvent
21 partant vers la droite et 34 partant vers la gauche. Au croisement des parastiches apparaît une
5
graine. Le site web http://tpe.tournesol.free.fr/tournesol.htm, qui existe depuis de nombreuses
années (parmi d’autres ressources électroniques ou papier sur le même sujet), illustre
parfaitement la raison de ce positionnement particulier des graines, qui est principalement liée à
la satisfaction de contraintes spatiales. En effet, il semble que les graines apparaissent de façon
régulière autour du cœur en fonction de l'angle d'or, puis suivent leur progression vers l'extérieur
du cœur au fur et à mesure que la fleur grandit. Le site web fournit une modélisation qui permet
de régler l'angle d'apparition des graines. Ci-après, nous indiquons quelques captures d'écran de la
simulation que l'on peut obtenir sur le site, étape par étape, via les boutons "Suivant" jusqu'à
arriver dans le simulateur qui permet de régler de nombreux paramètres comme la vitesse
d'éloignement des graines. On remarque dans la première capture d'écran un angle d'or entre la
première graine apparue à droite et la seconde en bas, puis un second angle d'or entre la graine de
gauche en bas et celle en haut commençant à émerger. Le processus continue ensuite d'une façon
qui paraît anarchique, puis l'arrangement en parastiches est de plus en plus visible. Remarquez
que les graines sont condensées au maximum au cœur de la fleur, alors qu'une très légère
modification de l'angle aboutit à la dernière capture, dont la fleur contient des graines bien plus
espacées malgré son aspect certes symétrique.
L'exemple de la fleur de tournesol montre de la manière la plus convaincante que l'aboutissement
de la modélisation est la simulation, c'est à dire la possibilité de reconstruire l'objet décrit.
Il est nécessaire de saisir la distinction entre la pensée formelle et l'intuition lorsqu’on entreprend
une démarche de modélisation. On peut construire un navire sur la simple intuition mais il n'est
6
pas certain qu'il soit insubmersible. En revanche, un calcul mathématique expert permet de tester
la flottaison avant d’entreprendre la construction du navire. Voyons maintenant quels sont les
principes de la modélisation en étudiant la solution d'Erasthotène au calcul de la circonférence de
la terre (Hunt, 2007). Il y a plus de 2000 ans, ce directeur de la bibliothèque d'Alexandrie,
mathématicien géographe, eu l'idée d'utiliser l'hypothèse que les rayons du soleil sont parallèles
pour calculer la circonférence. En ayant eu connaissance que le soleil se voyait au fond d'un puits
dans la ville de Syène à une époque précise de l'année (que l'on appelle maintenant le solstice),
Erasthotène en conclut que les rayons du soleil étaient parfaitement perpendiculaires à la surface
et devaient pointer vers le centre de la terre. En faisant la supposition que les rayons du soleil sont
parallèles, il en déduisit que l'angle alpha (entre Alexandrie et le puits de Syène) pouvait être
retrouvé à la surface en mesurant l'angle formé par l'ombre. Ayant mesuré que cet angle était égal
à un cinquantième de cercles, il multiplia la distance Syène-Alexandrie par cinquante pour arriver
à l'estimation d'environ 40.000 km. L'erreur d'estimation est évaluée à environ 1%, ce qui avec les
moyens de l'époque est assez surprenant.
La mathématisation du problème de la mesure de la circonférence de la terre par Erasthotène
illustre quelques principes élémentaires. Le premier est qu'un modèle est une simplification d'un
phénomène. La terre n'est pas une sphère parfaite et les rayons du soleil ne sont pas parfaitement
parallèles. Sans cette simplification, le scientifique reste crispé sur la complexité de la réalité et
n'envisage aucun calcul possible. Mais plus intéressant encore, le rasoir d'Occam, sur lequel nous
reviendrons plus tard, indique qu'un modèle a plus de chance d'être correct lorsque le modèle est
le plus simple possible. Le deuxième principe est que l'analogie entre les symboles et le monde
réel doit être explicite. C'est le cas ici pour les villes et la terre qui sont représentées sur la figure.
Un troisième principe est que le modèle tolère une marge d'erreur, et qu’en ce sens il n'est qu'une
approximation de la réalité. Cela ne doit pas être confondu avec le premier principe qui fait
référence à la structure du modèle et non aux mesures. Les mesures d'Erasthotène n'ont pas eu
vocation à être exactes (ni celle d'alpha, ni la distance Alexandrie-Syène), seulement les plus
précises possibles. Un dernier principe est qu'un modèle ne peut pas être simplement accepté ou
7
refusé de façon dichotomique. On estime simplement la similarité produite avec le monde qu'il
tente de décrire. Lorsque c'est possible, on calcule un ajustement du modèle (produisant des
données artificielles) aux données réelles grâce à des statistiques. C'est plutôt la proximité de la
correspondance qui est jugée et on suppose que le meilleur modèle est celui prédisant le mieux les
données. C'est très simple à comprendre avec la météorologie grâce à laquelle on souhaite
pouvoir prédire le temps de la façon la plus fine possible. N'être pas convaincu des fondements
théoriques d'un modèle prédisant pourtant avec une quasi perfection le temps n'aurait aucun sens.
Dans le domaine de la météorologie, c'est la performance du modèle qui est jugée.
La mesure d'Erasthotène est unique, mais on aurait pu essayer plusieurs distances de villes
associées avec plusieurs angles alpha. Dans ce cas, il aurait obtenu une distribution de mesures
dont il aurait pu simplement retenir la moyenne, en considérant les mesures de part et d'autre de
la moyenne comme des erreurs de mesure. Par exemple, si vous mesurer le poids de votre
baguette de pain tous les jours, vous remarquerez qu'il est centré autour de 250 grammes. C'est
une expérience qu'avait conduite Poincaré en son temps, démontrant qu'au delà des fluctuations
naturelles, le poids du pain tendait vers un peu moins d'un kilogramme aux dépends de l'acheteur.
Les fluctuations aléatoires de mesure sont banales et acceptées en science.
La mesure unique d'Erasthotène est également limitée à une seule prévision, alors qu'en
météorologie, une fois qu'un modèle a été capable d'ajuster correctement plusieurs jours de
données météorologiques, on peut tester sa capacité à prédire le temps le lendemain. Un modèle
est donc caractérisé par des données en entrée (le temps au jour j) et des données en sortie (le
temps au jour j + 1), ce qui nous ramène au problème de la simplicité du modèle. Prenons
l'exemple de points qui semblent distribués de façon croissante. Il s'agit des paires (1, 1), (2,
100), (3, 110), (4, 150), (5, 170) et (6, 220). Ces 6 points semblent presque alignés sur une
droite si bien qu'une simple régression linéaire (en rouge dans la figure ci-dessous) rend assez
bien compte de leur progression. Néanmoins, il est possible de régresser ces points à l'aide d'un
polynôme de degré 6 (la courbe verte), permettant une "explication parfaite" de la position des
points puisque la courbe passe sur chacun d'entre eux. Ce second modèle n'est malheureusement
pas satisfaisant car il semble expliquer autant le phénomène de croissance (qui semble essentiel)
que les fluctuations aléatoires, et il est donc à ce titre trop flexible, trop puissant ou autorisant la
prédiction d'une trop grande variance dans les données. Le pire étant que la capacité de prédiction
du modèle le plus complexe est moins bonne que celui du modèle simple. On dit que sa capacité
de généralisation est problématique. La raison est que si nous établissons une nouvelle mesure du
phénomène, le nouveau point aura plus de chance d'être proche de la ligne rouge que de la courbe
verte. C'est un peu comme si le modèle avait appris par cœur une liste d'objets sans faire
abstraction du principe qui sous-tend leur organisation. La ligne rouge par sa simplicité reflète un
processus d'abstraction. L'erreur d'un tel modèle serait par exemple de décrire parfaitement 6
oiseaux différents (un rouge, un orange, un jaune, un vert, un bleu, et un indigo) et manquer de
reconnaître un oiseau violet faute de ne pas avoir compris l'essence même d'un oiseau, par
exemple le fait de posséder des ailes. La simplification d'un modèle n'est donc pas une simple
simplification de l'esprit visant à dépasser la complexité du réel, mais bien un véritable outil de
compréhension et de conceptualisation.
8
La figure précédente a été produite avec le code suivant :
%% Régression de données grâce à polyfit
%Données
x=[1 2 3 4 5 6]
y=[1 100 110 150 170 220] %ces nombres sont inventés
% Régression linéaire, c-a-d un polynôme de degré 1 de la forme ax+b
p1=polyfit(x,y,1)
xBis=[1:.1:6] %ce grand vecteur est utilisé pour obtenir une ligne continue
yLinearPrediction=polyval(p1, xBis) % cela permet de calculer plus simplement
yLinearPrediction=p1(2)+p1(1)*xBis
%Régression par un polynôme de degré 6 de la forme fx6 + ex5 + dx4 + cx3 + bx2 + ax
+b; cette fonction garantit que la courbe passe par tous les points
p6=polyfit(x,y,6)
yPolynomialPrediction=polyval(p6,xBis)
%PLOT
plot(xBis,yLinearPrediction,'r', x,y,'o',xBis,yPolynomialPrediction)
Le philosophe du 14e siècle Guillaume d'Ockham (ou Occam) s’est intéressé à ce principe de
simplicité, autrement appelé principe de parcimonie, que l'on traduit maintenant en langage
moderne par l'idée que les hypothèses les plus simples sont les meilleures. Nous conseillons sur
ce point précis la lecture de Roberts et Pashler (2000) ou Pitt et Myung (2002), car il est essentiel
de comprendre avant de se lancer dans le domaine de la modélisation qu'il ne s'agit pas d'une
course à la complexité, mais plutôt le contraire. Précisons que dans de nombreux domaines, la
simplicité l'emporte toujours. En cryptographie par exemple, afin d'envoyer un message secret il y
a quelques centaines d'années, une possibilité était de cadenasser un coffre, l'envoyer au
destinataire, laisser le destinataire ajouter son propre cadenas et renvoyer le coffre à l'expéditeur,
laisser l'expéditeur enlever le premier cadenas puis renvoyer le coffre au destinataire afin qu'il
puisse enfin accéder au contenu du coffre en enlevant son propre cadenas. Ce n'est pas
conceptuellement simple. Maintenant, avec l'avènement de la cryptographie informatique, certes
plus compliqué sur le plan matériel, le processus global est néanmoins plus simple : le principe de
la clé publique consiste pour le destinataire à distribuer publiquement des cadenas dont il est le
seul à détenir la clé, ce qui évite la série d'aller-retour dont nous venons de parler.
9
Pour terminer cette partie, nous précisons que la modélisation du comportement concerne des
grands champs d'études comme la psychophysique, la psychométrie, la prise de décision, les
neurosciences, tout aussi bien que des processus psychologiques fins tels que la capacité à
alterner entre deux tâches, l'inhibition mentale, etc. Le chapitre suivant exemplifie quelques uns
de ces processus afin de montrer concrètement comment on simule un modèle grâce à
l'algorithmique.
Références
Hunt, E. (2007). The mathematics of behavior. New York, NY: Cambridge University Press.
Kerr, J. (1999). Experiencing sport reversal theory. New York, NY: John Wiley & Sons.
Pitt, M. A., & Myung, I. J. (2002). When a good fit can be bad. Trends in Cognitive Sciences, 6,
421-425.
Roberts, S., & Pashler, H. (2000). How persuasive is a good fit ? A comment on theory testing.
Psychological Review, 107, 358-367.
10