Chapitre 8. Principes de la modélisation Au cœur des sciences
Transcription
Chapitre 8. Principes de la modélisation Au cœur des sciences
Chapitre 8. Principes de la modélisation Au cœur des sciences cognitives, au delà des nombreuses disciplines qui travaillent de concert afin de décrire la formation des connaissances, on trouve un quadruplet fondamental de méthodes : la conceptualisation, l'expérimentation, la modélisation et la simulation, la dernière étant la plus fortement caractérisée par l'essor de l'informatique. La conceptualisation est une mise en forme essentiellement verbale visant la description précise des causes, du fonctionnement ou de la structure d'un phénomène (observé ou attendu). La conceptualisation peut s'appliquer à différents niveaux, que ce soit la description d'un mécanisme mental de haut niveau tel qu'un raisonnement précis dans un contexte donné, ou l'explication de bas niveau du fonctionnement cérébral telle que l'idée qu'un déséquilibre de la dopamine dans le cerveau puisse être à l'origine des troubles de l'attention chez l'enfant. Une conceptualisation peut se réduire au simple lien entre plusieurs variables sans qu'aucune causalité ne soit imputée à l'une d'elles. Par exemple, la théorie des états mentaux inversables (Reversal theory) présuppose que des individus peuvent alterner entre des états mentaux complètement inversés selon leur état d'esprit à un moment t, ou que plusieurs individus peuvent se comporter de façon complètement inverse dans un même contexte du fait de leur personnalité (Kerr, 1999). Les états téliques et paratéliques illustrent bien ce phénomène de polarité. Un état télique correspond à la focalisation sur un but alors qu’un état paratélique se caractérise par la focalisation sur les moyens d’y parvenir. Une personne dans un état télique perçoit son objectif comme fondamental et les moyens pour y parvenir sont secondaires. Tout obstacle est perçu de façon négative, le travail à fournir pour atteindre l'objectif est vécu comme douloureux et la moindre contrariété est source d'anxiété. L'état paratélique considère que les moyens sont à investir en premier lieu, de façon à ce que l'objectif puisse être atteint de façon agréable. La personne paratélique est orientée sur l'activité elle-même, et tout ce qui est fait au cours du cheminement pour atteindre un but est vécu avec plaisir. L'objectif est même parfois arbitraire, et posé au départ comme une simple raison de s'engager dans une activité. De ce fait, la personne dans un état paratélique peut être perçue comme moins sérieuse que celle dans l'état télique. Les surprises et les sensations sont les bienvenues, contrairement aux attentes de la personne télique. On retrouve aisément cette distinction chez les personnes qui pratiquent le sport pour le plaisir ou pour gagner car pour les uns, jouer sans la perspective de gagner ne permet pas de pratiquer un sport correctement, alors que pour les autres, un adversaire voulant absolument gagner semble passer à côté de l'essentiel du plaisir procuré par la pratique du sport. Ces conceptualisations peuvent être assimilées à une théorie dont on attend qu'elle puisse produire des hypothèses testables par l'expérimentation. Par exemple, la théorie peut prédire qu'une personne télique peut se sentir relaxée dans le cas où elle ressent un plaisir assez faible pendant son activité, alors que la personne paratélique ressentira un ennui profond lorsque son éveil physiologique est faible. Au contraire, si les sensations sont intenses, la personne télique ressentira une forme d'anxiété pendant que celle paratélique sera en pleine euphorie. D'autres variables, de type binaire également, peuvent être ajoutées pour prédire des états mentaux doublement inversables, comme le fait de présenter au départ un caractère conformiste ou marginal, etc. 1 La différence entre conceptualisation et modélisation se situe dans la mathématisation. La description des états téliques et paratéliques ne permet ici de mesurer aucune relation précise comme par exemple le passage d'un état à un autre. Rien n'est dit par exemple sur le type de fonction (exponentielle, logarithmique) qui relie deux variables. Par exemple, le passage des états Relaxation à Anxiété est arbitrairement négativement exponentiel, alors que le passage de l'ennui à l'état d'excitation est arbitrairement logarithmique. Nous avons volontairement choisi ces deux types de courbes (à la différence de la théorie originale) afin de montrer l'absence de lien précis entre les états. Aucune équation n'est formalisée ici, ce qui néanmoins peut être une aubaine pour la diffusion d'une théorie car il paraît qu'on perd la moitié des lecteurs à chaque fois qu'on écrit une équation ! L'exemple pris ici minimise volontairement la portée de la théorie et nous invitons le lecteur intéressé à parcourir la littérature récente sur le sujet, qui ne manque pas d'apporter des prédictions précises. Puisque l'expérimentation vise la manipulation des variables, elle peut naturellement s'appuyer sur une conceptualisation afin d'induire un effet expérimental. Pour rappel, l'expérimentation suppose que la variable dépendante (la mesure) est fonction de la variable indépendante (le facteur), une relation que l'on peut écrire VD = f(VI). Le moyen de s'en souvenir est que la variable dépendante "dépend OU est fonction de" la variable indépendante (qui ne dépend de rien dans le contexte isolé de l'expérimentation). Dans l'exemple pris précédemment, on peut tenter de maintenir constante l'intensité d'une sensation dans un jeu vidéo afin de voir l'effet sur des personnes au préalable identifiées comme téliques ou paratéliques. La variable dépendante, autrement appelée mesure, peut simplement viser à connaître l'état (excité ou relaxé) de la personne à l'issue du jeu. Les statistiques subséquentes serviront à établir si le facteur a induit une différence significative entre les personnes téliques et paratéliques. L'objectif ici n'est nullement de s’attarder la méthode expérimentale, mais de montrer comment passer de la conceptualisation à la modélisation. De façon péjorative, on pourrait dire qu'une conceptualisation est une simple intuition, qui mérite une formalisation plus précise, encore une fois, fondée sur des équations mathématiques La simulation est encore plus complexe que le modèle, dans le sens où elle cherche à faire vivre le modèle. La modélisation est statique, et la simulation est dynamique. Nous reviendrons sur ce point plus complexe après avoir donné quelques exemples de modèles. Nous commençons par développer quelques exemples de modèles qui semblent gouverner des phénomènes divers tels que la vitesse de reproduction des animaux, la disposition des feuilles sur une tige, la présence de parastiches (i.e., les motifs spiralés) dans les fleurs de tournesol, etc. 2 Conceptualiser la reproduction des lapins peut commencer par le constat qu'ils semblent se reproduire très rapidement. Notez qu'on ne dit pas qu'ils semblent se reproduire de façon exponentielle, ce qui serait déjà la signature d'un modèle. Un modèle classique de cette reproduction est la suite de Fibonacci, posant les deux constantes et l'équation suivantes : U0 = 1; U1 = 1; Un+2 = Un+1 + Un, Cette suite produit la série de nombres : 1, 1, 2, 3, 5, 8, 13, 21, 34, selon les calculs simples, 1 +1 = 2, 1+2=3 2 + 3 = 5, etc. 3 La raison pour laquelle cette suite décrit bien la croissance du nombre de lapins est qu'1 couple de lapins (nommés a et b) qui se regardent dans le blanc des yeux ne génère rien d'autre que ce même couple de lapins (a et b). Cela explique déjà les deux premiers 1 de la suite ! Ce couple de lapin entreprend assez rapidement d'avoir un couple de lapereaux (c et d), qui en première génération sont trop jeunes pour être fertiles. Cela explique la présence de 2 couples. A la génération suivante le premier couple engendre un nouveau couple de lapereaux (e et f) pendant que les deux premiers lapereaux (c et d) atteignent l'âge de procréer, ce qui fait 3 couples. A la génération suivante, le premier couple (a et b) continue d'engendrer un nouveau couple de lapereaux (g et h), c et d procèdent à leur première contribution à la surpopulation (i et j), tandis que e et f arrivent en âge de procréer, ce qui fait 5 couples au total. Tout en prédisant assez bien le rythme de croissance de la population de lapins (voir Figure suivante), le modèle ne prend pas en compte les décès (pourtant plus que probables) des lapins dans l'histoire, ce qui illustre parfaitement le fait qu'un modèle est souvent simplifié. 25 Effectif de couples de lapins 20 15 10 5 0 1 2 3 4 5 Reproduction 6 7 8 Un exemple de modélisation d'un phénomène précisément exponentiel est la loi de Moore qui indique que la puissance des ordinateurs (à coût constant) double tous les 18 mois. Elle est assez bien vérifiée depuis plus de 40 ans (Delahaye, septembre 2013). C'est une loi bien plus précise que de remarquer naïvement "que le monde progresse", que nous pourrions assimiler à une forme de proto-concept. Toutes les lois ne sont pas mathématisées. Il vous arrive peut-être de vous dire que vous choisissez toujours la mauvaise file (sur une route ou dans un supermarché). Il s'agit de la fameuse malédiction de la mauvaise file que tout le monde a cru connaître un jour ou l'autre. Elle s'explique plus ou moins sérieusement par la loi de Murphy dite loi de l’emmerdement maximum, postulant que "Si ça peut mal se passer, cela se passera mal. Il n’y a donc rien d’étonnant à se retrouver toujours dans la mauvaise file." (Delahaye, mai 2012). Revenons vers la suite de Fibonacci pour en montrer son applicabilité à la description d'autres phénomènes naturels. La bifurcation des branches suit une structure similaire à la suite de Fibonacci. Dessinez une grande branche numérotée 1, que vous laissez grimper sur votre feuille sans plus jamais y retoucher. En bas de cette première branche, opérez une première bifurcation à droite de la branche numéro 2, et sur cette seconde branche une 3e à gauche, puis une 4e à droite 4 un peu plus haut. Sur la 3e, on peut faire une 5e bifurcation à gauche, puis une 6e à droite de la 3e, une 7e à droite de la 4e, puis une nouvelle à gauche de la 5e. A gauche, on retrouve la suite 1, 1, 2, 3, 5 et 8. Ces nombres expliquent le nombre d'embranchements à chaque poussée de la plante. L'arbre dessiné dans la figure ci-dessous semble assez naturel, et dans tous les cas, certainement plus proche de la réalité qu'un arbre binaire se scindant en deux branches à chaque poussée (1, 2, 4, 8, 16) dont le rendu est trop symétrique. On remarque qu'un point essentiel du modèle est de permettre une reproduction d'une structure réelle. La suite de Fibonacci est également liée au nombre d'or, que l'on retrouve en divisant deux nombres consécutifs de cette suite, par exemple, 3/2 = 1.5, 5/3 = 1.66, 8/5 = 1.6, 13/8 = 1.63, 21/13 = 1.62, 34/21 = 1.61, etc. Remarquez que plus les deux nombres que l’on divise sont grands, plus le résultat s’approche du nombre d’or. La proportion d'or est en effet déterminée par deux chiffres consécutifs a et b lorsque (a + b)/a = a/b. On peut alors définir sur la base de ce nombre d’or, le rectangle d'or, la spirale d'or et l'angle d'or. On retrouve ce nombre d'or dans des phénomènes naturels comme par exemple la direction que prennent les feuilles poussant le long d'une tige et leur permettant la meilleure exposition au soleil, phénomène auquel s’intéresse exclusivement la phyllotaxie. La spirale d'or décrit à merveille l’organisation du coquillage nautile ou de certaines galaxies. De même, l'angle d'or décrit la position des graines dans la fleur de tournesol, la pomme de pin ou l'ananas. Il est souvent compliqué d'expliquer pourquoi le nombre d'or s'applique si bien à la nature, mais nous souhaitons montrer en guise d'exemple que la modélisation par ce nombre permet de reproduire le cœur de la fleur de tournesol. Le cœur de la fleur de tournesol est formé d'un ensemble d’unités voisines organisées en forme d’hélices, des parastiches, qui peuvent être directes ou inverses selon qu'elles ont tendance à tourner vers la gauche ou vers la droite. Cette organisation recoupe très bien deux nombres consécutifs de la suite de Fibonacci, le plus souvent 21 partant vers la droite et 34 partant vers la gauche. Au croisement des parastiches apparaît une 5 graine. Le site web http://tpe.tournesol.free.fr/tournesol.htm, qui existe depuis de nombreuses années (parmi d’autres ressources électroniques ou papier sur le même sujet), illustre parfaitement la raison de ce positionnement particulier des graines, qui est principalement liée à la satisfaction de contraintes spatiales. En effet, il semble que les graines apparaissent de façon régulière autour du cœur en fonction de l'angle d'or, puis suivent leur progression vers l'extérieur du cœur au fur et à mesure que la fleur grandit. Le site web fournit une modélisation qui permet de régler l'angle d'apparition des graines. Ci-après, nous indiquons quelques captures d'écran de la simulation que l'on peut obtenir sur le site, étape par étape, via les boutons "Suivant" jusqu'à arriver dans le simulateur qui permet de régler de nombreux paramètres comme la vitesse d'éloignement des graines. On remarque dans la première capture d'écran un angle d'or entre la première graine apparue à droite et la seconde en bas, puis un second angle d'or entre la graine de gauche en bas et celle en haut commençant à émerger. Le processus continue ensuite d'une façon qui paraît anarchique, puis l'arrangement en parastiches est de plus en plus visible. Remarquez que les graines sont condensées au maximum au cœur de la fleur, alors qu'une très légère modification de l'angle aboutit à la dernière capture, dont la fleur contient des graines bien plus espacées malgré son aspect certes symétrique. L'exemple de la fleur de tournesol montre de la manière la plus convaincante que l'aboutissement de la modélisation est la simulation, c'est à dire la possibilité de reconstruire l'objet décrit. Il est nécessaire de saisir la distinction entre la pensée formelle et l'intuition lorsqu’on entreprend une démarche de modélisation. On peut construire un navire sur la simple intuition mais il n'est 6 pas certain qu'il soit insubmersible. En revanche, un calcul mathématique expert permet de tester la flottaison avant d’entreprendre la construction du navire. Voyons maintenant quels sont les principes de la modélisation en étudiant la solution d'Erasthotène au calcul de la circonférence de la terre (Hunt, 2007). Il y a plus de 2000 ans, ce directeur de la bibliothèque d'Alexandrie, mathématicien géographe, eu l'idée d'utiliser l'hypothèse que les rayons du soleil sont parallèles pour calculer la circonférence. En ayant eu connaissance que le soleil se voyait au fond d'un puits dans la ville de Syène à une époque précise de l'année (que l'on appelle maintenant le solstice), Erasthotène en conclut que les rayons du soleil étaient parfaitement perpendiculaires à la surface et devaient pointer vers le centre de la terre. En faisant la supposition que les rayons du soleil sont parallèles, il en déduisit que l'angle alpha (entre Alexandrie et le puits de Syène) pouvait être retrouvé à la surface en mesurant l'angle formé par l'ombre. Ayant mesuré que cet angle était égal à un cinquantième de cercles, il multiplia la distance Syène-Alexandrie par cinquante pour arriver à l'estimation d'environ 40.000 km. L'erreur d'estimation est évaluée à environ 1%, ce qui avec les moyens de l'époque est assez surprenant. La mathématisation du problème de la mesure de la circonférence de la terre par Erasthotène illustre quelques principes élémentaires. Le premier est qu'un modèle est une simplification d'un phénomène. La terre n'est pas une sphère parfaite et les rayons du soleil ne sont pas parfaitement parallèles. Sans cette simplification, le scientifique reste crispé sur la complexité de la réalité et n'envisage aucun calcul possible. Mais plus intéressant encore, le rasoir d'Occam, sur lequel nous reviendrons plus tard, indique qu'un modèle a plus de chance d'être correct lorsque le modèle est le plus simple possible. Le deuxième principe est que l'analogie entre les symboles et le monde réel doit être explicite. C'est le cas ici pour les villes et la terre qui sont représentées sur la figure. Un troisième principe est que le modèle tolère une marge d'erreur, et qu’en ce sens il n'est qu'une approximation de la réalité. Cela ne doit pas être confondu avec le premier principe qui fait référence à la structure du modèle et non aux mesures. Les mesures d'Erasthotène n'ont pas eu vocation à être exactes (ni celle d'alpha, ni la distance Alexandrie-Syène), seulement les plus précises possibles. Un dernier principe est qu'un modèle ne peut pas être simplement accepté ou 7 refusé de façon dichotomique. On estime simplement la similarité produite avec le monde qu'il tente de décrire. Lorsque c'est possible, on calcule un ajustement du modèle (produisant des données artificielles) aux données réelles grâce à des statistiques. C'est plutôt la proximité de la correspondance qui est jugée et on suppose que le meilleur modèle est celui prédisant le mieux les données. C'est très simple à comprendre avec la météorologie grâce à laquelle on souhaite pouvoir prédire le temps de la façon la plus fine possible. N'être pas convaincu des fondements théoriques d'un modèle prédisant pourtant avec une quasi perfection le temps n'aurait aucun sens. Dans le domaine de la météorologie, c'est la performance du modèle qui est jugée. La mesure d'Erasthotène est unique, mais on aurait pu essayer plusieurs distances de villes associées avec plusieurs angles alpha. Dans ce cas, il aurait obtenu une distribution de mesures dont il aurait pu simplement retenir la moyenne, en considérant les mesures de part et d'autre de la moyenne comme des erreurs de mesure. Par exemple, si vous mesurer le poids de votre baguette de pain tous les jours, vous remarquerez qu'il est centré autour de 250 grammes. C'est une expérience qu'avait conduite Poincaré en son temps, démontrant qu'au delà des fluctuations naturelles, le poids du pain tendait vers un peu moins d'un kilogramme aux dépends de l'acheteur. Les fluctuations aléatoires de mesure sont banales et acceptées en science. La mesure unique d'Erasthotène est également limitée à une seule prévision, alors qu'en météorologie, une fois qu'un modèle a été capable d'ajuster correctement plusieurs jours de données météorologiques, on peut tester sa capacité à prédire le temps le lendemain. Un modèle est donc caractérisé par des données en entrée (le temps au jour j) et des données en sortie (le temps au jour j + 1), ce qui nous ramène au problème de la simplicité du modèle. Prenons l'exemple de points qui semblent distribués de façon croissante. Il s'agit des paires (1, 1), (2, 100), (3, 110), (4, 150), (5, 170) et (6, 220). Ces 6 points semblent presque alignés sur une droite si bien qu'une simple régression linéaire (en rouge dans la figure ci-dessous) rend assez bien compte de leur progression. Néanmoins, il est possible de régresser ces points à l'aide d'un polynôme de degré 6 (la courbe verte), permettant une "explication parfaite" de la position des points puisque la courbe passe sur chacun d'entre eux. Ce second modèle n'est malheureusement pas satisfaisant car il semble expliquer autant le phénomène de croissance (qui semble essentiel) que les fluctuations aléatoires, et il est donc à ce titre trop flexible, trop puissant ou autorisant la prédiction d'une trop grande variance dans les données. Le pire étant que la capacité de prédiction du modèle le plus complexe est moins bonne que celui du modèle simple. On dit que sa capacité de généralisation est problématique. La raison est que si nous établissons une nouvelle mesure du phénomène, le nouveau point aura plus de chance d'être proche de la ligne rouge que de la courbe verte. C'est un peu comme si le modèle avait appris par cœur une liste d'objets sans faire abstraction du principe qui sous-tend leur organisation. La ligne rouge par sa simplicité reflète un processus d'abstraction. L'erreur d'un tel modèle serait par exemple de décrire parfaitement 6 oiseaux différents (un rouge, un orange, un jaune, un vert, un bleu, et un indigo) et manquer de reconnaître un oiseau violet faute de ne pas avoir compris l'essence même d'un oiseau, par exemple le fait de posséder des ailes. La simplification d'un modèle n'est donc pas une simple simplification de l'esprit visant à dépasser la complexité du réel, mais bien un véritable outil de compréhension et de conceptualisation. 8 La figure précédente a été produite avec le code suivant : %% Régression de données grâce à polyfit %Données x=[1 2 3 4 5 6] y=[1 100 110 150 170 220] %ces nombres sont inventés % Régression linéaire, c-a-d un polynôme de degré 1 de la forme ax+b p1=polyfit(x,y,1) xBis=[1:.1:6] %ce grand vecteur est utilisé pour obtenir une ligne continue yLinearPrediction=polyval(p1, xBis) % cela permet de calculer plus simplement yLinearPrediction=p1(2)+p1(1)*xBis %Régression par un polynôme de degré 6 de la forme fx6 + ex5 + dx4 + cx3 + bx2 + ax +b; cette fonction garantit que la courbe passe par tous les points p6=polyfit(x,y,6) yPolynomialPrediction=polyval(p6,xBis) %PLOT plot(xBis,yLinearPrediction,'r', x,y,'o',xBis,yPolynomialPrediction) Le philosophe du 14e siècle Guillaume d'Ockham (ou Occam) s’est intéressé à ce principe de simplicité, autrement appelé principe de parcimonie, que l'on traduit maintenant en langage moderne par l'idée que les hypothèses les plus simples sont les meilleures. Nous conseillons sur ce point précis la lecture de Roberts et Pashler (2000) ou Pitt et Myung (2002), car il est essentiel de comprendre avant de se lancer dans le domaine de la modélisation qu'il ne s'agit pas d'une course à la complexité, mais plutôt le contraire. Précisons que dans de nombreux domaines, la simplicité l'emporte toujours. En cryptographie par exemple, afin d'envoyer un message secret il y a quelques centaines d'années, une possibilité était de cadenasser un coffre, l'envoyer au destinataire, laisser le destinataire ajouter son propre cadenas et renvoyer le coffre à l'expéditeur, laisser l'expéditeur enlever le premier cadenas puis renvoyer le coffre au destinataire afin qu'il puisse enfin accéder au contenu du coffre en enlevant son propre cadenas. Ce n'est pas conceptuellement simple. Maintenant, avec l'avènement de la cryptographie informatique, certes plus compliqué sur le plan matériel, le processus global est néanmoins plus simple : le principe de la clé publique consiste pour le destinataire à distribuer publiquement des cadenas dont il est le seul à détenir la clé, ce qui évite la série d'aller-retour dont nous venons de parler. 9 Pour terminer cette partie, nous précisons que la modélisation du comportement concerne des grands champs d'études comme la psychophysique, la psychométrie, la prise de décision, les neurosciences, tout aussi bien que des processus psychologiques fins tels que la capacité à alterner entre deux tâches, l'inhibition mentale, etc. Le chapitre suivant exemplifie quelques uns de ces processus afin de montrer concrètement comment on simule un modèle grâce à l'algorithmique. Références Hunt, E. (2007). The mathematics of behavior. New York, NY: Cambridge University Press. Kerr, J. (1999). Experiencing sport reversal theory. New York, NY: John Wiley & Sons. Pitt, M. A., & Myung, I. J. (2002). When a good fit can be bad. Trends in Cognitive Sciences, 6, 421-425. Roberts, S., & Pashler, H. (2000). How persuasive is a good fit ? A comment on theory testing. Psychological Review, 107, 358-367. 10