Le déterminisme étendu pour mieux comprendre et prévoir
Transcription
Le déterminisme étendu pour mieux comprendre et prévoir
Le déterminisme étendu pour mieux comprendre et prévoir Une contribution à la pensée rationnelle entre science et philosophie Cinquième édition, mise à jour le 20/08/2016 Daniel MARTIN http://www.danielmartin.eu/contact.htm 1 Remerciements A Renée Bouveresse, dont la remarquable synthèse de l'œuvre de Karl Popper sur le rationalisme critique m'a fait gagner un temps précieux, et dont la sympathie m'a soutenu dans les périodes de doute. A Hervé Barreau, dont les critiques et suggestions m'ont permis d'éviter bien des erreurs. A André Comte-Sponville, dont les textes et les objections m'ont beaucoup fait réfléchir. 2 Objectifs de ce texte Ce livre montre d’abord que le déterminisme philosophique ne tient pas ses promesses lorsqu’il affirme la possibilité de prédire l’avenir et de reconstituer en pensée le passé. Il montre ensuite comment les principes de causalité et du déterminisme scientifique se déduisent par induction de propriétés fondamentales de l’Univers. Il précise ensuite ces principes, et en étend la définition pour qu’ils régissent les propriétés d’évolution de toutes les lois de la physique. Ces lois relèvent alors du déterminisme étendu, que sa définition constructive structure comme une axiomatique. Le livre montre, après, comment le hasard et le chaos n’interviennent dans la nature que dans des cas précis, tous pris en compte dans le déterminisme étendu, et comment les limites de prédictibilité proviennent aussi d’imprécisions, de complexités, d'indéterminations, d'instabilités et de refus de précision de la nature. La pensée rationnelle ayant besoin de comprendre et de prévoir pour décider, a donc besoin de connaître le déterminisme étendu. A partir d’avancées scientifiques récentes en physique quantique et en génétique, le livre montre alors les limites de la possibilité de prédire des résultats d’évolution et d’obtenir la précision souhaitée. Le livre définit ensuite le déterminisme humain à partir des connaissances récentes de psychologie cognitive comme la Théorie informationnelle du psychisme. La pensée rationnelle est décrite à l'aide des principes de l'axiomatique, les comportements irrationnels à partir des processus de l'inconscient. Malgré son libre arbitre, l’homme reste dominé par des désirs imposés par son inné, son acquis et son contexte de vie. Le texte montre aussi l’absurdité des démonstrations logiques de l'existence de Dieu, notamment celle basée sur le « principe anthropique ». Le texte présente aussi deux solutions au vieux problème philosophique de la « cause première ». L'une basée sur le Big Bang, l'autre sur une conjecture restreignant des contraintes des définitions du déterminisme et de la causalité. Ce livre est une contribution à la pensée rationnelle qui se veut aussi facile à lire que possible. Il est destiné aux intellectuels de culture scientifique ou littéraire qui souhaitent profiter de connaissances à jour en matière de physique quantique, de cosmologie, d’informatique, de psychologie cognitive et de génétique. Le texte complet étant long, environ 570 pages [Livre], il est conseillé de lire d’abord le texte d'introduction "Principes de logique", repris au début de la 3e partie et qu'on pourra alors sauter. Livre : "Le déterminisme étendu pour mieux comprendre et prévoir Une contribution à la pensée rationnelle entre science et philosophie " (564 pages) http://www.danielmartin.eu/Philo/Determinisme.pdf (gratuit) Introduction :"Principes de logique : causalité, homogénéité, raison suffisante, etc." (25 pages + références) http://www.danielmartin.eu/Philo/CausalitePPS.pdf (gratuit) 3 Conseils de lecture Sur les formules mathématiques Ce texte contient beaucoup de formules mathématiques pour être aussi précis que possible ; le lecteur qui a les connaissances scientifiques nécessaires y trouvera les justifications de certaines affirmations concernant le déterminisme. Mais la lecture et la compréhension de ces formules ne sont pas indispensables à celle du texte ; le lecteur qui n'a pas les connaissances nécessaires ou simplement pas envie de lire ces formules peut les ignorer. Sur le style du texte et sa structure Les textes philosophiques sont souvent structurés comme un roman, avec peu de soustitres intermédiaires, laissant au lecteur le soin de comprendre où il en est dans l'enchaînement des idées. Ce texte-ci, au contraire, est fait de paragraphes courts ; il est fortement structuré sous forme de hiérarchie de titres et sous-titres, comme un rapport ou un cours. Cela permet au lecteur de bien comprendre le sujet d'un paragraphe donné et de retrouver rapidement un passage déjà lu. Sur la lecture à l'écran En format PDF, ce texte est fait pour pouvoir aussi être lu sur un écran d'ordinateur en profitant des nombreux hyperliens donnant accès par simple clic à une explication de terme, un complément d'information ou une référence bibliographique sur Internet ; un autre clic permettra ensuite de revenir au point de départ. La table des matières elle-même est un ensemble d'hyperliens permettant d'atteindre directement un paragraphe. Enfin, la recherche d'un mot sur écran est bien plus facile et rapide que sur du papier, et l'extraction de passages du texte pour insertion dans un autre texte est possible, alors qu'un texte sur papier exige un recopiage ou une numérisation. Les références dont le nom commence par un D comme [D1] sont à la fin de la 1re partie ; celles dont le nom commence par un M comme [M4] sont à la fin de la 2e partie ; celles qui sont des nombres entiers comme [5] sont à la fin de la 3e partie. Pour éviter de lire ce que vous savez déjà Le déterminisme étendu sujet de ce livre fait l'objet de la 3 e partie de l'ouvrage. Comme le déterminisme s'appuie sur la doctrine matérialiste, la définition et les implications du matérialisme et de son opposé, l'idéalisme, sont résumées dans la 2 e partie. Et comme le débat entre matérialistes et idéalistes aborde l'existence de Dieu, les 3 types d'arguments logiques en faveur de cette existence apportés au cours des siècles sont dans la 1 re partie. Donc : Si vous connaissez les 3 types d'arguments logiques invoqués au cours des siècles pour prouver l'existence de Dieu - ou simplement si ce problème ne vous intéresse pas - sautez sans hésiter la 1re partie de l'ouvrage ; elle ne fait que rappeler ces « preuves » et en montrer l'absence de valeur. Si vous connaissez les définitions du matérialisme et de l'idéalisme, ainsi que les arguments invoqués par les partisans de chacune de ces deux doctrines, sautez sans hésiter la 2e partie de l'ouvrage, qui ne fait que rappeler ces définitions et arguments avant d'introduire le déterminisme. 4 Table des matières 1. Où en sont les preuves de l'existence de Dieu ? ......................... 16 1.1 1.2 1.3 1.4 1.5 Définitions de Dieu et de la religion ................................................................16 Raisons psychologiques de croire en Dieu, science et laïcité .....................17 L'homme conçoit Dieu à son image ................................................................19 Comment prouver l'existence de Dieu ? .........................................................20 Les preuves logiques de l'existence de Dieu .................................................21 1.5.1 1.5.1.1 1.5.1.2 1.5.1.3 1.5.1.4 1.5.1.5 1.5.2 1.5.2.1 1.5.2.2 1.5.2.3 1.5.3 Croire en Dieu ou en la science : il faut choisir ! ............................................... 21 Définitions : Univers, phénomène, représentation, Monde ....................21 Critique scientifique du concept de créateur de l'Univers ......................24 Critique de Kant de la possibilité de création transcendante .................24 Conclusion logique : il ne peut exister de Dieu physique ......................25 Théologie proposée par Kant ................................................................25 Les 3 preuves possibles de l'existence de Dieu ................................................ 26 Preuve ontologique de l'existence de Dieu............................................27 Preuve cosmologique de l'existence de Dieu ........................................28 Preuve physico-théologique de l'existence de Dieu ..............................29 Raisons de croire en un Dieu transcendantal.................................................... 31 1.6 Compléments philosophiques des tentatives de prouver Dieu ....................31 1.6.1 1.6.2 1.6.2.1 1.6.2.2 1.6.2.3 1.6.2.4 1.6.2.5 1.6.3 La notion d'un Dieu créateur intelligent est contradictoire .............................. 31 Reproche idéaliste de contredire le 2e principe de la thermodynamique ........ 33 Notion d'entropie ...................................................................................33 Entropie de Boltzmann, entropie statistique et entropie d'information ...34 Comprendre le deuxième principe de la thermodynamique ..................36 Etre vivant et thermodynamique ............................................................37 L'objection thermodynamique des idéalistes et la réponse de Prigogine ...............................................................................................37 Agnosticisme et athéisme ................................................................................... 39 1.6.3.1 Le malheureux pari de Pascal ...............................................................39 1.6.3.2 Athéisme, positivisme et altruisme ........................................................40 1.6.3.3 Existe, n'existe pas ou existe autrement ? ............................................40 1.7 Conclusions sur les preuves logiques de l'existence de Dieu .....................41 1.8 Références ........................................................................................................41 2. Matérialisme et idéalisme ............................................................... 44 2.1 Matérialisme et idéalisme : définitions ...........................................................44 2.1.1 2.1.2 2.1.3 2.1.4 Définition succincte du matérialisme ................................................................. 44 Définition succincte de l'idéalisme ..................................................................... 45 Ce qui oppose matérialistes et idéalistes .......................................................... 45 Qu'est-ce qui précède l'autre : l'esprit ou la matière ? ...................................... 47 5 2.2 Matérialisme et idéalisme ne peuvent être ni démontrés ni infirmés ...........48 2.3 La critique nietzschéenne ................................................................................48 2.4 Références ........................................................................................................51 3. Le déterminisme étendu - une contribution pour la pensée rationnelle ......................................................................................... 53 3.1 Prédictions d'évolutions ..................................................................................53 3.1.1 3.1.2 3.1.2.1 3.1.2.2 3.1.3 Première définition du déterminisme ................................................................. 54 Définition, promesses et critique du déterminisme philosophique ................. 55 Le déterminisme philosophique est contredit par des faits ....................55 Définition succincte du déterminisme scientifique .................................57 Le postulat de causalité ...................................................................................... 58 3.1.3.1 Définition du postulat de causalité .........................................................58 3.1.3.1.1 3.1.3.1.2 Causalité étendue Principe de la conservation de l'information dans l'Univers 3.1.3.2 3.1.3.3 Causalité, réalisme et idéalisme ............................................................61 Causalité, nécessité et explication du monde........................................61 3.1.4 3.1.4.1 3.1.4.2 3.1.4.3 3.1.4.4 3.1.4.5 3.1.4.6 3.1.4.7 3.1.5 3.1.5.1 3.1.5.2 3.1.5.3 3.1.6 58 59 Principe de raison suffisante .............................................................................. 62 Les 4 domaines régis par le principe de raison suffisante .....................63 Principe de raison suffisante du devenir - Déterminisme ......................64 Principe de raison suffisante du connaître ............................................64 Principe de raison suffisante de l'être (possibilité de représentation) ....65 Principe de raison suffisante de vouloir, ou loi de la motivation ............66 Réciproques d'une raison suffisante d'évolution....................................66 Raison suffisante et chaîne de causalité ...............................................67 Principe d'homogénéité ...................................................................................... 67 Seul l'esprit humain peut ignorer le principe d'homogénéité..................68 Déterminisme et principe d'homogénéité ..............................................69 Domaine de vérité d'une science et principe d'homogénéité .................70 Le déterminisme scientifique .............................................................................. 70 3.1.6.1 3.1.6.2 3.1.6.3 Règle de stabilité ...................................................................................70 Importance de la vitesse et de l'amplitude d'une évolution ....................71 Définition du déterminisme scientifique .................................................72 3.1.6.3.1 3.1.6.3.2 Déterminisme des évolutions régies par des équations différentielles Déterminisme des formules, algorithmes et logiciels 3.1.6.4 Déterminisme scientifique et obstacles à la prédiction ..........................74 73 73 3.1.6.4.1 L'ignorance de la loi d'évolution 75 3.1.6.4.2 L'imprécision 75 3.1.6.4.3 Le caractère stochastique - Déterminisme statistique 77 3.1.6.4.4 La complexité 80 3.1.6.4.5 Des exigences de prédictibilité impossibles à satisfaire 87 3.1.7 Déterminisme statistique de l'échelle macroscopique...................................... 88 3.1.8 Ensemble de définition d'une loi déterministe .................................................. 88 3.1.8.1 3.1.8.2 3.1.8.3 3.1.9 3.1.9.1 3.1.9.2 3.1.9.3 Structure................................................................................................88 Ensemble de définition d'une loi déterministe .......................................91 Une erreur de certains philosophes.......................................................92 Hasard .................................................................................................................. 92 Le hasard dans l'évolution selon une loi de la nature ............................92 Prédictibilité statistique d'une évolution .................................................93 Définition de René Thom .......................................................................94 6 3.1.9.4 Définition par rencontre de chaînes de causalité indépendantes Hasard par ignorance ............................................................................94 3.1.9.4.1 3.1.9.4.2 Impossibilité d'existence de chaînes de causalité indépendantes Rencontre imprévisible de chaînes de causalité distinctes 3.1.9.5 3.1.9.6 3.1.9.7 3.1.9.8 Définition par la quantité d'information ..................................................96 Des suites ou des ensembles de nombres sont-ils aléatoires ? ............96 Hasard postulé et hasard prouvé ..........................................................96 Différences entre déterminisme statistique, fluctuations quantiques et hasard ...................................................................................................98 Hasard et niveau de détail d'une prédiction ...........................................99 Premières conclusions sur le hasard et la prédictibilité ....................... 100 Différences entre hasard, imprécision et indétermination en Mécanique quantique ............................................................................................ 100 Résumé des conclusions sur le hasard dans l'évolution naturelle ....... 101 Evolutions attribuées à tort au hasard ................................................. 101 Conséquences multiples d'une situation donnée - Décohérence ........ 102 Il faut admettre les dualités de comportement ..................................... 103 3.1.9.9 3.1.9.10 3.1.9.11 3.1.9.12 3.1.9.13 3.1.9.14 3.1.9.15 3.1.10 95 95 Chaos.................................................................................................................. 104 3.1.10.1 3.1.10.2 3.1.10.3 3.1.10.4 3.1.10.5 3.1.10.6 Définition ............................................................................................. 104 Prédictibilité des phénomènes chaotiques – Chaos déterministe........ 104 Conditions d'apparition d'une évolution chaotique – Série de Fourier . 105 Fluctuations faussement aléatoires d'un phénomène apériodique ...... 106 Fluctuations d'énergie dues au principe d'incertitude de Heisenberg .. 108 Fluctuations de variables macroscopiques dues à des variations microscopiques ................................................................................... 108 Amplification génétique et évolution du vivant vers la complexité ....... 109 Domaines où on connaît des évolutions chaotiques ........................... 110 Exemples de phénomènes chaotiques................................................ 110 3.1.10.7 3.1.10.8 3.1.10.9 3.1.10.9.1 Problème des 3 corps 110 3.1.10.9.2 Sensibilité d'une évolution aux conditions initiales - Chaos déterministe 112 3.1.11 Turbulence ......................................................................................................... 113 3.1.12 Le déterminisme étendu .................................................................................... 114 3.1.12.1 Propriétés des lois de l'Univers ........................................................... 114 3.1.12.1.1 3.1.12.1.2 Uniformité des lois de la nature Postulat de causalité 3.1.12.2 Définition du déterminisme étendu ...................................................... 116 3.1.12.2.1 3.1.12.2.2 3.1.12.2.3 3.1.12.2.4 Définition constructive du déterminisme étendu Validité de cette approche Universalité du déterminisme étendu – Monisme - Mécanisme Limites de la règle de stabilité du déterminisme 3.1.12.3 Stabilité des lois d'évolution et situations nouvelles ............................ 120 3.1.12.3.1 3.1.12.3.2 3.1.12.3.3 3.1.12.3.4 Apparition d'une loi d'évolution Restriction du postulat de causalité Exemples d'apparitions Conséquences philosophiques de la possibilité d'apparitions 3.1.12.4 Conclusions sur le déterminisme étendu et la causalité ...................... 122 3.1.12.4.1 3.1.12.4.2 Déterminisme étendu : un principe et un objectif Causalité, déterminisme étendu et prédictions d'évolution physique 114 116 117 117 118 118 120 120 121 122 122 123 3.2 Imprédictibilité de la pensée humaine .......................................................... 126 3.2.1 3.2.2 3.2.3 La barrière de complexité .................................................................................. 127 Rigueur des raisonnements déductifs ............................................................. 128 Champ d'application du déterminisme et de la causalité ............................... 129 7 3.3 Compléments philosophiques sur le déterminisme physique ................... 129 3.3.1 3.3.2 3.3.2.1 3.3.2.2 3.3.2.3 3.3.2.4 3.3.3 3.3.3.1 3.3.3.2 3.3.3.3 3.3.3.4 3.3.3.5 3.3.3.6 3.3.3.7 3.3.4 Trois cas particuliers de déterminisme de la nature ....................................... 129 Symétrie temporelle et réversibilité du déterminisme traditionnel ................ 130 Différence entre symétrie temporelle et réversibilité ............................ 131 Phénomène irréversible ...................................................................... 132 Exemple de loi symétrique par rapport au temps et réversible ............ 133 Système conservatif ou dissipatif – Force conservative ou dissipative............................................................................................ 134 Portée du déterminisme : locale ou globale .................................................... 134 Principe de moindre action de Maupertuis .......................................... 135 Principe de Fermat (plus court chemin de la lumière) ......................... 135 Quasi-cristaux ..................................................................................... 135 Variables complémentaires ................................................................. 136 Conclusion sur le déterminisme global ................................................ 136 Caractère humain, artificiel, de la notion d'échelle .............................. 137 Déterminisme des algorithmes et calculabilité..................................... 137 Compléments sur le déterminisme philosophique .......................................... 137 3.3.4.1 Critique de l'enchaînement des causes et des conséquences ............ 138 3.3.4.1.1 3.3.4.1.2 Une situation peut être précédée ou suivie de plusieurs lois d'évolution Les transformations irréversibles contredisent aussi le déterminisme philosophique 138 139 3.3.4.2 Déterminisme, mesures et objectivité.................................................. 139 3.3.4.3 Déterminisme et libre arbitre de l'homme ............................................ 140 3.3.4.4 Conclusions critiques sur le déterminisme traditionnel ........................ 140 3.4 Pourquoi ce texte et les efforts qu'il suppose .............................................. 141 3.4.1 3.4.2 Inconvénients de l'ignorance, avantages de la connaissance ....................... 141 Ambition limitée de ce texte .............................................................................. 143 3.5 Le déterminisme en physique ....................................................................... 144 3.5.1 3.5.1.1 Système et état .................................................................................................. 144 Degrés de liberté d'un système ........................................................... 144 3.5.1.1.1 Equipartition de l'énergie entre les degrés de liberté 145 3.5.2 Espace des phases – Stabilité des lois physiques d'évolution ...................... 146 3.5.2.1 Représentation de l'évolution d'un système ........................................ 148 3.5.2.1.1 Evolution d'un système représentée par des équations différentielles 3.5.2.2 3.5.2.3 3.5.2.4 3.5.2.5 3.5.2.6 3.5.2.7 3.5.2.8 3.5.2.9 3.5.2.10 3.5.2.11 Lignes de force d'un espace des phases et unicité de l'évolution ....... 149 Stabilité de l'évolution d'un système conservatif .................................. 151 Considérations sur la prévisibilité de l'évolution d'un système ............ 151 Système dissipatif par frottements - Attracteur .................................... 152 Système dissipatif périodique avec échange d'énergie – Cycle limite . 152 Système à évolution quasi périodique ................................................. 153 Déterminisme et prédictibilité des systèmes – Autocorrélation............ 154 Imprédictibilité et hasard ..................................................................... 154 Systèmes apériodiques – Attracteurs étranges ................................... 155 Changement de loi d'évolution par bifurcation – Valeur critique .......... 156 3.5.3 3.5.3.1 3.5.3.2 3.5.3.3 3.5.3.4 3.5.3.5 3.5.4 149 Etat quantique d'un système ............................................................................ 158 Vecteur d'état ...................................................................................... 158 Espace des états ................................................................................. 158 Réalité physique et représentation dans l'espace des états ................ 158 Espace des phases d'un champ et espace des états associé ............. 159 Equipartition de l'énergie dans un champ – Stabilité des atomes ....... 160 Les contradictions de la physique traditionnelle et de son déterminisme .... 160 8 3.5.5 3.5.6 3.5.7 Des forces physiques étonnantes .................................................................... 161 L'évolution nécessite une interaction avec échange d'énergie ...................... 162 1ère extension du déterminisme : fonctions d'onde et pluralité des états ...... 163 3.5.7.1 3.5.7.2 3.5.7.3 Notions de Mécanique quantique ........................................................ 163 De la contingence à la probabilité ....................................................... 164 Extension du déterminisme aux résultats imprécis et probabilistes ..... 165 3.5.7.3.1 3.5.7.3.2 3.5.7.3.3 3.5.7.3.4 3.5.7.3.5 3.5.7.3.6 Le déterminisme statistique, complément du déterminisme scientifique Différence entre déterminisme statistique et hasard pur Dualité onde-particule, déterminisme dual et ondes de matière Trajectoire d'un corpuscule Théorie de la résonance chimique Conséquences pour le déterminisme 3.5.7.4 Equation fondamentale de la Mécanique quantique (Schrödinger) ..... 174 3.5.7.4.1 3.5.7.4.2 Impossibilité de décrire des phénomènes sans symétrie temporelle Inadaptation à la gravitation et à son espace courbe relativiste 3.5.7.5 3.5.8 175 176 Etats finaux d'un système macroscopique .......................................... 176 2e extension du déterminisme : superpositions et décohérence ................... 177 3.5.8.1 3.5.8.2 3.5.8.3 3.5.8.4 3.5.9 165 166 167 168 172 172 Superposition d'états et décohérence ................................................. 177 Superposition de trajectoires ............................................................... 178 Conclusions sur la superposition d'états ou de trajectoires ................. 179 Déterminisme arborescent à univers parallèles de Hugh Everett III .... 180 3e extension du déterminisme : quantification et principe d'incertitude ....... 184 3.5.9.1 3.5.9.2 3.5.9.3 3.5.9.4 Quantification des niveaux d'énergie et des échanges d'énergie ........ 184 Les trois constantes les plus fondamentales de l'Univers ................... 184 Position et vitesse d'une particule ....................................................... 184 Paquet d'ondes et étalement dans le temps ........................................ 184 3.5.9.4.1 3.5.9.4.2 3.5.9.4.3 Description d'un paquet d'ondes de probabilité Etalement du paquet d'ondes de position d'une particule Cas d'une onde de photon 3.5.9.5 3.5.9.6 Incertitude sur la détermination simultanée de 2 variables (Heisenberg)........................................................................................ 187 Remarques sur l'incertitude et l'imprécision ........................................ 189 3.5.9.6.1 Origine physique de l'incertitude de Heisenberg lors d'une mesure 3.5.9.7 3.5.9.8 3.5.9.9 Incertitude contextuelle ....................................................................... 190 Incertitude due à l'effet Compton ......................................................... 191 Mesures, incertitude et objectivité ....................................................... 192 3.5.9.9.1 3.5.9.9.2 3.5.9.9.3 3.5.9.9.4 3.5.9.9.5 3.5.9.9.6 3.5.9.9.7 3.5.9.9.8 Toute mesure de physique quantique modifie la valeur mesurée Mesure souhaitée et mesure effectuée : exemple Copie d'un état quantique. Clonage par copie moléculaire Mesure grâce à un grand nombre de particules Conclusions sur la réalité objective et la réalité mesurable en physique quantique Contraintes de non-indépendance de variables Objectivité des mesures La « mathématicophobie » et l'ignorance 3.5.9.10 Quantification des interactions et conséquences sur le déterminisme 198 3.5.9.10.1 3.5.9.10.2 3.5.9.10.3 Différence entre quantification et imprécision Echanges quantifiés d'énergie et conservation de l'énergie Conséquences de la quantification des interactions : extension du déterminisme Quantification des vibrations - Phonons et frottements Effets mécaniques et thermiques de la lumière Effets photoélectriques 3.5.9.10.4 3.5.9.10.5 3.5.9.10.6 9 184 186 187 190 192 192 193 194 194 195 196 197 199 199 200 200 201 202 3.5.9.11 3.5.10 Conséquences des diverses imprécisions sur le déterminisme .......... 202 4e extension du déterminisme : lois de conservation et symétries ................ 205 3.5.10.1 3.5.10.2 3.5.10.3 3.5.10.4 Invariance de valeurs, invariance de lois physiques ............................ 205 Invariance de lois physiques par rapport à l'espace et au temps ........ 205 Invariances et lois de conservation (lois fondamentales de la physique) ............................................................................................. 208 Un vide plein d'énergie ........................................................................ 209 3.5.10.4.1 3.5.10.4.2 3.5.10.4.3 3.5.10.4.4 3.5.10.4.5 Le vide de la physique quantique Champ et boson de Higgs Distance, temps, densité et masse de Planck Le vide de l'espace cosmique Expansion de l'Univers visible 3.5.10.5 Conclusions sur les symétries et lois de conservation ........................ 216 3.5.11 209 211 212 213 214 5e extension du déterminisme : complexité, imprévisibilité, calculabilité ..... 217 3.5.11.1 Combinaison de nombreux phénomènes déterministes ...................... 218 3.5.11.1.1 Mécanique statistique 3.5.11.2 3.5.11.3 Déterminisme + complexité = imprévisibilité........................................ 219 Modélisation des systèmes complexes, notamment ceux du vivant.... 220 3.5.11.3.1 Des avancées très prometteuses en matière de modélisation 3.5.11.4 3.5.11.5 3.5.11.6 Analyse statistique de systèmes complexes ....................................... 222 Complexité et décisions médicales ..................................................... 223 Résultats remarquables de certains processus calculables ................ 225 3.5.11.6.1 3.5.11.6.2 Algorithme de calcul de Pi - Suite pseudo-aléatoire de nombres entiers Dynamique des populations 3.5.11.7 Déterminisme et durée ........................................................................ 228 3.5.11.7.1 3.5.11.7.2 3.5.11.7.3 Nombres réels et problèmes non calculables Il y a infiniment plus de réels non calculables que de réels calculables Propositions indécidables 3.5.11.8 Calculabilité, déterminisme et prévisibilité ........................................... 233 3.5.11.8.1 3.5.11.8.2 3.5.11.8.3 Calculabilité d'une prédiction Phénomènes déterministes à conséquences imprévisibles et erreurs philosophiques Calculabilité par limitations et approximations 3.5.11.9 3.5.11.10 Déterminisme et convergence des processus et théories ................... 238 Logique formelle. Calcul des propositions. Calcul des prédicats ......... 239 3.5.11.10.1 3.5.11.10.2 3.5.11.10.3 Logique formelle et logique symbolique Calcul des propositions Calcul des prédicats 3.5.11.11 Problèmes insolubles. Théorème de Fermat. Equations diophantiennes .................................................................................... 242 Certitude de l'existence d'une démonstration dans une axiomatique .. 243 Génération de nombres "aléatoires" avec une formule déterministe ... 243 Attracteurs multiples ............................................................................ 244 « Accidents » de la réplication du génome et évolution vers la complexité ........................................................................................... 245 Approche heuristique du déterminisme ............................................... 247 3.5.11.12 3.5.11.13 3.5.11.14 3.5.11.15 3.5.11.16 3.5.12 3.5.12.1 3.5.12.2 3.5.12.3 219 221 225 226 229 231 232 235 236 237 239 240 241 6e extension du déterminisme : irréversibilité thermodynamique .................. 248 Evolution unidirectionnelle du temps ................................................... 248 Radioactivité naturelle et stabilité des particules atomiques ou nucléaires ............................................................................................ 249 L'irréversibilité est une réalité, pas une apparence ............................. 251 10 3.5.12.4 3.5.12.5 Décroissance de l'entropie. Structures dissipatives. Autoorganisation ......................................................................................... 251 Programme génétique et déterminisme .............................................. 253 3.5.12.5.1 3.5.12.5.2 3.5.12.5.3 3.5.12.5.4 3.5.12.5.5 3.5.12.5.6 Gènes et comportement humain Renouvellement biologique et persistance de la personnalité Evolution du programme génétique Evolution d'une population Evolution due à une modification de l'expression de gènes Conclusion sur le déterminisme génétique 3.5.12.6 Vie, organisation, complexité et entropie ............................................. 260 3.5.12.6.1 3.5.12.6.2 3.5.12.6.3 Apparition de la vie et évolution des espèces Preuves de l'évolution darwinienne des espèces L'obstination des tenants du créationnisme 3.5.12.7 Effondrement gravitationnel et irréversibilité. Trous noirs .................... 262 3.5.12.7.1 3.5.12.7.2 3.5.12.7.3 3.5.12.7.4 3.5.12.7.5 3.5.12.7.6 3.5.12.7.7 3.5.12.7.8 3.5.12.7.9 3.5.12.7.10 3.5.12.7.11 3.5.12.7.12 Principe d'exclusion de Pauli La masse limite de Chandrasekhar - Supernova Les étoiles à neutrons Les trous noirs Masses et dimensions dans l'Univers Attraction gravitationnelle au voisinage d'une étoile effondrée Déroulement dans le temps de la chute d'un corps vers un trou noir Irréversibilité des fusions stellaires et d'un effondrement gravitationnel Caractéristiques d'un trou noir Et en plus, un trou noir s'évapore ! Quantité d'information dans un volume délimité par une surface Surface nécessaire pour décrire une évolution - Principe holographique 3.5.12.8 3.5.12.9 Le Big Bang, phénomène irréversible ................................................. 276 Univers à plus de 4 dimensions........................................................... 277 3.5.13 260 261 262 263 264 265 266 267 268 271 271 272 274 275 276 7e extension du déterminisme : Relativité, écoulement du temps ................. 278 3.5.13.1 3.5.13.2 3.5.14 254 255 256 257 258 259 Relativité et irréversibilité .................................................................... 280 Particules virtuelles. Electrodynamique quantique .............................. 280 Attitude face au déterminisme .......................................................................... 281 3.5.14.1 Conséquences des lois de la nature sur le déterminisme ................... 282 3.5.14.1.1 3.5.14.1.2 3.5.14.1.3 3.5.14.1.4 3.5.14.1.5 3.5.14.1.6 3.5.14.1.7 3.5.14.1.8 3.5.14.1.9 Validité des lois de la Mécanique quantique à l'échelle macroscopique Le déterminisme étendu peut abolir les distances et les durées Multiplicité des conséquences possibles Imprévisibilité de l'évolution et de l'état final Difficulté de préciser la situation de départ ou le processus Impossibilité de remonter l'arborescence de causalité Irréversibilité Relativité Matérialisme et déterminisme des lois du vivant 3.5.14.2 Attitude recommandée face au déterminisme ..................................... 289 3.5.14.2.1 3.5.14.2.2 3.5.14.2.3 3.5.14.2.4 3.5.14.2.5 Critique des méthodes de réflexion de quelques philosophes français La liberté d'esprit et d'expression L'ouverture d'esprit Une loi est toujours vraie, elle ne peut être probable Le « principe anthropique » 282 285 286 287 287 288 288 289 289 290 291 292 293 294 3.6 Le déterminisme humain ................................................................................ 297 3.6.1 3.6.1.1 3.6.1.2 3.6.1.3 Niveaux d'abstraction et déterminisme ............................................................ 298 Définition d'une représentation - Différences avec une essence ........ 298 Définition d'un concept ........................................................................ 299 Densité et profondeur d'abstraction ..................................................... 300 11 3.6.1.4 3.6.1.5 3.6.1.6 Compréhension par niveaux d'abstraction .......................................... 303 Penser par niveaux d'abstraction ........................................................ 304 Introduction à la Théorie informationnelle du psychisme ..................... 304 3.6.1.6.1 3.6.1.6.2 3.6.1.6.3 3.6.1.6.4 La machine de Turing Hiérarchie des langages de l'informatique Penser la complexité par niveaux hiérarchiques Processus d'abstraction et de mémorisation 3.6.1.7 Niveaux d'information biologique et déterminisme génétique .............. 308 3.6.1.7.1 3.6.1.7.2 L'information du logiciel génétique Etres vivants artificiels définis à partir de leur seul code génétique 3.6.1.8 Objections idéalistes et leur réfutation................................................. 310 3.6.1.8.1 Un vieux débat : la conscience est-elle transcendante ? 3.6.1.9 3.6.1.10 3.6.1.11 3.6.1.12 3.6.1.13 3.6.1.14 3.6.1.15 3.6.1.16 3.6.1.17 3.6.1.18 Les pensées ne sont que des interprétations de l'état du cerveau ...... 312 A chaque niveau fonctionnel son niveau logiciel ................................. 313 Critères de valeur et d'efficacité, et mécanismes d'évaluation ............ 314 Une signalisation permanente dans le cerveau ................................... 315 Hiérarchie logicielle de la pensée - Modélisation informationnelle ...... 316 Reconnaissance de formes, structures, processus et intentions ......... 317 Intuition d'abord, justification après ..................................................... 318 Evaluation permanente parallèle de situations hypothétiques ............. 319 "Le monde comme volonté et représentation" de Schopenhauer........ 319 Mémorisation et acquisition d'expérience - Déterminisme culturel ...... 320 3.6.1.18.1 3.6.1.18.2 3.6.1.18.3 Mécanismes physiologiques de la mémoire Acquisition d'expérience La mémoire sélective 3.6.1.19 3.6.1.20 Désirs et satisfaction artificiels. Drogues ............................................. 323 Des pensées peuvent aussi se comporter comme des drogues ......... 324 3.6.2 3.6.2.1 304 305 306 307 309 310 311 320 321 323 Mécanismes psychiques non algorithmiques ou imprévisibles .................... 325 Définitions............................................................................................ 325 3.6.2.1.1 Mécanisme psychique algorithmique 325 3.6.2.1.2 Mécanisme psychique déterministe 326 3.6.3 La conscience .................................................................................................... 326 3.6.3.1 3.6.3.2 Conscience morale.............................................................................. 327 Conscience de..................................................................................... 327 3.6.3.2.1 3.6.3.2.2 3.6.3.2.3 3.6.3.2.4 3.6.3.2.5 3.6.3.2.6 3.6.3.2.7 3.6.3.2.8 La conscience de, ETAT du psychisme La prise de conscience de, ACTION du psychisme La conscience de est un couple {Objet + Schéma d'attention} Le champ d'attention La conscience de soi Conscience d'un objet quelconque Modèle prévisionnel de l'évolution d'un objet - Intention d'agir Conscience d'autrui - La Théorie de l'esprit 3.6.3.3 3.6.3.4 3.6.3.5 3.6.3.6 Conscience.......................................................................................... 334 Conclusion sur la conscience .............................................................. 336 Théorie informationnelle du psychisme ............................................... 336 Considérations philosophiques sur la conscience ............................... 337 327 328 331 332 333 333 334 334 3.6.3.6.1 3.6.3.6.2 Conscience et pensée non algorithmique 339 Conclusion sur le caractère non-algorithmique et non-déterministe de la pensée 343 3.6.3.6.3 La pensée naît-elle du corps avec son cerveau ? 343 3.6.4 Le modèle informatique de l'homme ................................................................ 344 3.6.4.1 La pensée en tant que processus d'interprétation ............................... 344 12 3.6.4.2 3.6.4.3 3.6.4.4 3.6.5 3.6.6 3.6.7 3.6.7.1 3.6.7.2 3.6.7.3 3.6.7.4 3.6.7.5 3.6.8 3.6.9 3.6.9.1 Modèle logiciel à couches du psychisme ............................................ 345 Le fonctionnement du psychisme n'est pas souvent déterministe ....... 345 Autres raisonnements humains inaccessibles à un ordinateur ............ 346 Libre arbitre, imprévisibilité et transgressions ................................................ 346 Différences entre représentations mentales de personnes différentes ......... 348 Déterminisme des évolutions ou décisions selon le niveau ou l'échelle....... 350 Difficulté d'expliquer un comportement macroscopique à partir de phénomènes au niveau atomique ....................................................... 350 Niveau des phénomènes naturels ....................................................... 351 Niveau des phénomènes sociétaux..................................................... 351 Autonomie des niveaux et compréhension holistique .......................... 352 Holisme ............................................................................................... 353 Complexité, ouverture d'esprit et causes occultes : discussion polémique . 354 Etre intelligent, déterminisme et prévisibilité .................................................. 357 Equité, confiance, coopération et déterminisme psychologique .......... 359 3.6.9.1.1 Le jeu "Prends ou laisse" 359 3.6.9.1.2 Le point de vue de Kant 360 3.6.10 Le besoin de tromper ses adversaires. Les deux types d'incertitude ............ 360 3.6.10.1 3.6.10.2 Recherches sur les stratégies de bluff et décision en ambiance d'incertitude ......................................................................................... 362 Concurrence entre raison et affects. Connaissances cachées ............ 362 3.6.10.2.1 Importance des automatismes dans la pensée humaine 365 3.6.10.2.2 Coup de foudre 366 3.6.10.2.3 Connaissances cachées 366 3.6.11 Mécanismes de l'intuition.................................................................................. 367 3.6.11.1 La concurrence entre raison et intuition .............................................. 368 3.6.11.1.1 Le jeu du "Dilemme des voyageurs" 368 3.6.11.1.2 L'homme ne suit que les conclusions conformes à ses valeurs 369 3.6.11.1.3 Un raisonnement critiquable 370 3.6.11.1.4 La science économique est basée sur un postulat contestable 370 3.6.12 Ordinateur et compréhension humaine ........................................................... 371 3.6.13 Compréhension, imagination et certitude ........................................................ 373 3.6.14 Les deux étapes d'une décision consciente .................................................... 374 3.7 Le déterminisme dans notre société - La mondialisation ........................... 374 3.7.1 3.7.2 3.7.3 3.7.4 Théories utilitaires des XVIIe et XVIIIe siècles .................................................. 375 Craintes et regrets d'aujourd'hui ...................................................................... 376 Une analogie entre évolution darwinienne et économie de marché .............. 377 La mondialisation, résultat de la concurrence et des communications ........ 378 3.7.4.1 3.7.4.2 3.7.4.3 Lois de la physique et lois de l'économie ............................................ 379 Conséquences économiques de la mondialisation.............................. 379 Mondialisation : causes et inconvénients pour l'homme ...................... 382 3.7.4.3.1 3.7.4.3.2 L'homme, perpétuel insatisfait qui accuse parfois la mondialisation Frustration due aux désirs insatisfaits et réactions 383 384 3.7.4.4 Accepter donc la mondialisation .......................................................... 384 3.8 Le déterminisme du vivant ............................................................................. 385 3.8.1 3.8.2 3.8.3 3.8.4 3.8.4.1 3.8.4.2 3.8.5 Définitions du vivant .......................................................................................... 385 Etres vivants et déterminisme .......................................................................... 385 Possibilité thermodynamique d'une complexification naturelle .................... 386 Possibilité de créer artificiellement un comportement vivant ........................ 386 Synthèse d'acides aminés ................................................................... 386 Génie génétique .................................................................................. 387 Modélisation informatique/neuropsychique du vivant .................................... 387 13 3.8.5.1 3.8.5.2 3.8.5.3 3.8.5.4 3.8.6 Transmission nerveuse : un mécanisme tout-ou-rien .......................... 387 Organisation architecturale et organisation fonctionnelle .................... 389 Algorithmes d'action et algorithmes d'évaluation ................................. 390 Modèle informatique et fonctions de base de la vie............................. 390 Conclusions sur le déterminisme du vivant et sa prévisibilité ....................... 391 3.9 Critique du déterminisme ............................................................................... 392 3.9.1 3.9.2 3.9.3 Conditions de prise en défaut du déterminisme .............................................. 392 Conclusion : il faut postuler le déterminisme .................................................. 394 La causalité elle-même peut-elle être remise en question ? ........................... 394 3.9.3.1 3.9.3.2 3.9.3.3 3.9.3.4 3.9.3.5 Objections à la causalité contestant la méthode scientifique .............. 394 Causalité et théorie de la Relativité ..................................................... 396 Définitions approfondies d'une cause et de la causalité ...................... 397 Horizon de prédiction ou de reconstitution du passé ........................... 398 Critique de la notion de cause première (cause ultime) ...................... 400 3.9.3.5.1 3.9.3.5.2 3.9.3.5.3 3.9.3.5.4 3.9.3.5.5 Définition et problématique Un temps cyclique, pure spéculation Théorie cosmologique de la gravitation quantique Conséquences de la cosmologie sur le « début de la causalité » Conséquences de la Relativité sur l'unicité de la cause première 3.9.3.6 Autres problèmes de la notion de causalité ......................................... 404 400 402 402 402 403 3.9.3.6.1 Objections de multiplicité 404 3.9.3.6.2 Objections de complexité et de chaos 404 3.9.3.6.3 Objection de séparabilité 404 3.9.3.6.4 Légitimité d'une recherche de causalité 404 3.9.4 Critique de la méthode scientifique et de la vérité scientifique ...................... 405 3.9.4.1 3.9.4.2 3.9.4.3 3.9.4.4 3.9.4.5 3.9.4.6 Les formalistes .................................................................................... 405 Les intuitionnistes ................................................................................ 405 Les platoniciens................................................................................... 406 Les rationalistes du XVIIIe siècle......................................................... 406 Les empiristes ..................................................................................... 407 Le rationalisme critique de Karl Popper ............................................... 407 3.9.4.6.1 3.9.4.6.2 3.9.4.6.3 3.9.4.6.4 3.9.4.6.5 3.9.4.6.6 3.9.4.6.7 3.9.4.6.8 3.9.4.6.9 3.9.4.6.10 3.9.4.6.11 3.9.4.6.12 3.9.4.6.13 Définition d'une vérité scientifique Définition d'une théorie appliquée à un domaine pratique Critères à respecter pour qu'une théorie scientifique soit acceptable Risques et inconvénients d'une vérité scientifique par consensus Une théorie peut-elle être probable ? Définition d'une théorie scientifique objective Comparaison du rationalisme critique avec l'empirisme Polémique entre le rationalisme critique et le conventionalisme Objection holistique à la falsifiabilité Les systèmes interprétatifs Sciences dures et sciences molles Evolution d'une vérité, de la science et du monde selon Popper Critique de la position de Popper sur le déterminisme 408 409 410 411 412 412 412 413 414 414 415 416 417 3.9.4.7 Dogmatisme de ma méthode de travail ............................................... 418 3.10 L'homme est-il libre malgré le déterminisme ? ..................................... 418 3.10.1 3.10.2 3.10.3 3.10.4 3.10.5 3.10.6 L'homme est toujours insatisfait ...................................................................... 418 Les 3 déterminants de la conscience et l'imprévisibilité de l'homme ............ 418 Désirs conscients de l'homme et critères d'appréciation ............................... 419 L'homme ne maîtrise ni ses valeurs, ni ses désirs.......................................... 419 Définitions du libre arbitre et de la liberté ........................................................ 420 Exclusions de la discussion qui suit sur le libre arbitre ................................. 421 14 3.10.7 3.10.8 3.10.9 Le libre arbitre selon Sartre .............................................................................. 424 Conclusion sur le libre arbitre .......................................................................... 424 Libre arbitre, déterminisme et responsabilité .................................................. 425 3.10.9.1 Point de vue idéaliste .......................................................................... 425 3.10.9.2 Point de vue matérialiste ..................................................................... 426 3.10.9.3 La société passe avant l'individu ......................................................... 426 3.10.9.4 Pas de tyrannie de la majorité ............................................................. 427 3.10.9.5 Morale naturelle, morale acquise et responsabilité de l'homme .......... 427 3.11 Conclusions et recommandations pratiques......................................... 428 3.12 Références et compléments.................................................................... 430 3.13 Annexe : l'espace-temps de Minkowski ................................................. 547 3.13.1 3.13.2 3.13.3 3.13.4 3.13.5 3.13.6 3.13.7 3.13.8 3.13.9 3.13.10 3.13.11 3.13.12 La Relativité Restreinte ..................................................................................... 547 L'espace-temps .................................................................................................. 547 Diagramme d'espace-temps.............................................................................. 547 Intervalle d'espace-temps ................................................................................. 551 Condition de causalité entre deux événements............................................... 552 Indépendance entre deux événements et relation de causalité ..................... 553 Conclusions sur la causalité ............................................................................. 556 Remarque sur la simultanéité ........................................................................... 556 Ligne d'univers .................................................................................................. 557 Relativité Générale. Mouvement accéléré. Inclinaison du cône de lumière .. 557 Paradoxe du voyageur de Langevin ................................................................. 558 Quadrivecteur énergie-impulsion ..................................................................... 559 3.14 3.15 Scientifiques et philosophes cités ......................................................... 561 Résumé des cas d'imprédictibilité.......................................................... 565 15 Première partie 1. Où en sont les preuves de l'existence de Dieu ? 1.1 Définitions de Dieu et de la religion Le philosophe athée André Comte-Sponville écrit dans [5], pages 80 et 16 : "J'entends par « Dieu » un être éternel spirituel et transcendant (à la fois extérieur et supérieur à la nature), qui aurait consciemment et volontairement créé l'univers. Il est supposé parfait et bienheureux, omniscient et omnipotent. C'est l'être suprême, créateur et incréé (il est cause de soi), infiniment bon et juste, dont tout dépend et qui ne dépend de rien. C'est l'absolu en acte et en personne." "J'appelle « religion » tout ensemble organisé de croyances et de rites portant sur des choses sacrées, surnaturelles ou transcendantes, et spécialement sur un ou plusieurs dieux, croyances et rites qui unissent en une même communauté morale ou spirituelle ceux qui s'y reconnaissent ou les pratiquent." Avant André Comte-Sponville, le sociologue Durkheim avait donné en 1912 [5-a] une définition un peu différente de la religion, dont André Comte-Sponville s'est inspiré : "La religion est « un système solidaire de croyances et de pratiques relatives à des choses sacrées (c’est-à-dire séparées, interdites), croyances et pratiques qui unissent en une même communauté morale, appelée Eglise, tous ceux qui y adhèrent »." Ces deux définitions de la religion ne font pas référence à un dieu mais à des choses sacrées, ce qui permet de prendre en compte les religions animistes et de classer le bouddhisme (croyance sans dieu) parmi les religions. En outre, la définition de Durkheim a l'avantage de rappeler le nom donné à une « communauté morale ou spirituelle » : une Eglise. En tant que système de croyances, une religion fait partie d'une culture. Compte tenu de ces définitions, voyons quelles sont les raisons psychologiques de croire en Dieu de certains hommes. 16 1.2 Raisons psychologiques de croire en Dieu, science et laïcité Prééminence des émotions sur la raison Les connaissances actuelles, issues des neurosciences et de la psychologie, permettent d'affirmer ce qui suit. L'esprit humain ne déclenche une action, geste ou pensée, que pour satisfaire un besoin psychologique, résultant d'une perception physique, d'une émotion inconsciente ou d'une pensée ayant produit un affect. J'agis ou je réfléchis parce que j'ai faim, j'ai peur, je suis amoureux, j'ai soif de justice, j'ai besoin d'être apprécié, j'espère une récompense, etc. Un processus de raisonnement est accompagné de jugements de valeur à chaque étape, avec les affects qui en résultent. De même que chaque perception, chaque pensée est automatiquement et immédiatement jugée en fonction de ses conséquences prévisibles, dont chacune est associée à une ou plusieurs valeurs. C'est ainsi que notre cerveau fonctionne, c'est automatique et impossible à empêcher. La conclusion logique d'un raisonnement ne cause jamais une action ou une inaction ; elle ne peut que faire craindre ou espérer un résultat, dont l'appréciation produira un affect qui justifiera une action. La raison de l'homme est un outil au service de ses affects, un outil au même titre que sa force physique, et pas plus qu'elle. Les philosophes qui pensent, comme Descartes, que la raison est toute-puissante pour faire faire à l'homme des choix contraires à ses désirs profonds se trompent, les neurosciences l'ont bien démontré aujourd'hui. L'homme a bien un libre arbitre, mais toutes les décisions qu'il croit prendre librement sont soumises à un ensemble hiérarchisé de valeurs associées à des émotions, valeurs et émotions dont il n'est pas maître : l'homme peut faire ce qu'il veut, il ne peut pas vouloir ce qu'il veut. Pourquoi certains croient en Dieu Compte tenu de ce qui précède, je ne vois que deux raisons psychologiques qui font que certains hommes croient en Dieu : Le besoin que le monde ait un sens, c'est-à-dire qu'on ait une réponse à des questions comme : « Pourquoi y a-t-il quelque chose plutôt que rien ? » ; « Comment l'Univers est-il né ? » ou (plus moderne) « Qu'y avait-il avant le Big Bang ? » ; « Pourquoi l'Univers est-il si complexe et si beau ? » ; « Comment se fait-il que l'évolution ait abouti à ces merveilles de complexité que sont l'homme et l'environnement qui lui permet de vivre, et n'est-ce pas là une preuve qu'elle a été guidée par une volonté délibérée au lieu d'être le fait d'un hasard aveugle ? ». Croire que la réponse à cette dernière question est nécessairement « Parce qu'il y a un Dieu » s'appelle poser le principe anthropique. J'explique l'erreur 17 de raisonnement à la base de ce postulat au paragraphe « Le principe anthropique ». L'homme a un besoin instinctif de relier entre eux des faits, des événements ou des pensées diverses, pour les comprendre, c'est-à-dire leur donner une structure et situer celle-ci par rapport à d'autres connaissances qu'il a déjà. L'absence de structure ou de lien avec des connaissances préexistantes induit instinctivement dans son esprit une crainte de l'inconnu et des dangers éventuels qu'il peut comporter. Tous les hommes sont ainsi, depuis des milliers d'années que leur esprit pense : il a besoin de sens. [D10] Expliquer ce qu'on ne comprend pas par l'existence et la volonté de Dieu évite de continuer à chercher une réponse en restant dans l'incertitude. Et lorsque des hommes influents, prêtres ou rois, disent croire à l'explication divine, lorsqu'autour de soi tout le monde y croit comme au Moyen Age, l'existence du Dieu créateur devient une évidence. Le besoin de valeurs bien définies [70], comme le Bien et le Mal, le Sacré et le Profane, le Juste et l'Injuste, la Charité et l'Indifférence, etc. Dans un monde où le mal est inévitable et source de tant de souffrances, l'homme peut se consoler en pensant que Dieu lui apportera le bonheur dans l'au-delà. Face à l'injustice, l'homme peut espérer la justice divine. Le pauvre peut espérer la charité, etc. On prête à Dieu la défense des valeurs positives auxquelles on veut croire et qui consolent. Les textes sacrés définissent des règles de morale [70] et des principes de justice grâce auxquels les sociétés ont pu se donner des règles vie en commun acceptables et les hommes ont pu créer du lien social. Il est important de savoir que le besoin psychologique de valeurs de certaines personnes peut être satisfait sans religion ni foi en Dieu, comme le montre [5]. Vérités et valeurs révélées contre science et laïcité Au fur et à mesure que le progrès des connaissances rationnelles, c'est-à-dire la science, faisait reculer l'ignorance, le besoin d'explication divine du monde diminuait. Peu à peu, l'homme a remplacé les vérités révélées, éternelles et infalsifiables [203], par des vérités démontrées. Celles-ci sont vérifiables même si chaque connaissance peut un jour être remplacée par une connaissance plus approfondie. La science explique ce qu'elle peut du monde sans jamais invoquer Dieu. Au fur et à mesure du progrès des sociétés, c'est-à-dire de leurs institutions et des règles de vie admises par leurs citoyens, le besoin de valeurs et règles d'inspiration divine a diminué. Dans une démocratie moderne, on a remplacé les lois provenant de textes sacrés par des lois imaginées et votées par des hommes. On a remplacé des règles de morale [70] issues de lois religieuses (comme l'abstinence de relations sexuelles hors mariage) par une tolérance limitée seulement par le respect d'autrui. On a remplacé des tyrans « Roi par la grâce de Dieu » par des gouvernements issus d'élections libres. On a remplacé des sociétés à classes privilégiées (comme la noblesse et le clergé) par des sociétés d'hommes égaux en droits et en devoirs. La laïcité [336] n'est pas seulement une tolérance, une neutralité vis-à-vis de croyances et pratiques religieuses diverses, c'est aussi et surtout, depuis les Lumières [47], le remplacement de valeurs révélées et imposées par des valeurs négociées et votées. 18 Historiquement, les grandes religions monothéistes ont eu deux rôles importants dans les sociétés humaines : un apport culturel et moral et un lien social entre les croyants, qui étaient la grande majorité. Ces deux influences ont beaucoup diminué dans certaines sociétés : c'est le cas notamment de la France, et les retombées sociologiques constatées sont graves [D6]. 1.3 L'homme conçoit Dieu à son image Je ne blasphème pas, je constate : les hommes prêtent à Dieu les qualités qu'ils n'ont pas assez ou pas du tout, mais qu'ils désirent. Leur conception de Dieu est si anthropomorphique qu'elle est parfois naïve ; on voit bien qu'elle résulte de leur entendement [337], qu'elle reflète leurs problèmes. Tout à la fois, ils conçoivent Dieu comme antérieur à l'homme, Sa créature ; extérieur à lui lorsqu'Il l'a créé, l'aide, le juge ou le punit ; et si semblable à lui lorsqu'Il est jaloux de l'adoration d'autres dieux [D1]. Et la multiplicité des religions qui durent depuis des siècles montre que la même quête des hommes a eu des réponses religieuses diverses, adaptées à des lieux et des habitudes de vie divers. Nous compléterons ce point de vue ci-dessous. Une contradiction fondamentale qui explique la volonté de prouver l'existence de Dieu : le Problème du Mal Il y a une contradiction fondamentale dans la définition même d'un Dieu infiniment bon, avec Sa Providence qui intervient dans les situations graves où le mal pourrait prévaloir : comment se fait-il, alors, que l'on constate depuis toujours dans le monde autant de souffrances et d'injustices, et pourquoi Dieu laisse-t-il l'homme faire autant de mal ? Les croyants ont une réponse à cette contradiction : « Dieu laisse à l'homme son libre arbitre ». Cette réponse a été conçue, à l'évidence, pour innocenter Dieu. Comme elle est contraire au bon sens, les croyants nous demandent de renoncer à être logiques et à chercher à comprendre lorsqu'il s'agit de Dieu : « Les voies du Seigneur sont impénétrables » [D3]. En somme, la religion est révélée et cette révélation doit être acceptée sans être soumise à critique rationnelle. Les grandes religions sont donc des religions révélées, c'est-à-dire présentées comme vérités a priori, à accepter telles quelles sans démonstration. Pour elles, la recherche de preuves logiques de l'existence de Dieu - que nous allons aborder ci-dessous - n'a donc pas de raison d'être. Si tant de religieux et de philosophes croyants y ont travaillé, c'était seulement pour convaincre les non-croyants de croire. En France, par exemple, Pascal et Descartes ont milité en ce sens. Alors que des parents cherchent à protéger leur enfant (qui risque de faire des bêtises parce qu'il n'a pas encore l'âge de raison) en l'empêchant de les faire, Dieu, notre Père, nous laisse les faire, quitte à nous punir ensuite : incohérence ! La contradiction (appelée traditionnellement « le problème du mal ») est même plus grave que ci-dessus. Dans [5] page 122, André Comte-Sponville rapporte quatre hypothèses attribuées à Epicure : "« Ou bien Dieu veut éliminer le mal et ne le peut ; ou il le peut et ne le veut ; ou il ne le veut ni ne le peut ; ou il le veut et le peut. S'il le veut et ne le peut, il est impuissant, ce qui ne convient pas à Dieu ; s'il le peut et ne le veut, il est méchant, ce qui est étranger à Dieu. S'il ne le peut ni le veut, il est à la fois impuissant et méchant, il n'est donc pas Dieu. S'il le veut et le peut, ce qui 19 convient seul à Dieu, d'où vient donc le mal, ou pourquoi Dieu ne le supprime-t-il pas ? » La quatrième hypothèse, la seule qui soit conforme à notre idée de Dieu, est donc réfutée par le réel même (l'existence du mal). Il faut en conclure qu'aucun Dieu n'a créé le monde, ni ne le gouverne, soit parce qu'il n'y a pas de Dieu, soit parce que les dieux (telle était l'opinion d'Épicure) ne s'occupent pas de nous, ni de l'ordre ou du désordre du monde, qu'ils n'ont pas créé et qu'ils ne gouvernent en rien..." Compte tenu de la contradiction fondamentale qui apparaît avec le problème du mal, il a paru essentiel à certains penseurs de vérifier en raisonnant que Dieu existe, ou de prouver aux autres que c'est le cas. 1.4 Comment prouver l'existence de Dieu ? L'homme se fait de Dieu une image très humaine, et pourtant si abstraite qu'il ne peut en vérifier la validité et qu'il ne peut faire d'expérience qui prouve l'existence de Dieu ou son intervention. Un croyant sait que Dieu ne relève pas les défis des hommes. La proposition "Dieu existe" est infalsifiable et indécidable. C'est pourquoi, depuis des millénaires, l'homme se demande comment se prouver rationnellement à lui-même et à ses semblables que Dieu existe. Le judaïsme, puis le christianisme et enfin l'islam sont des religions révélées. Chacune affirme l'existence de Dieu et précise ses commandements en demandant à l'homme de les croire sans démonstration ou preuve expérimentale. Chacune a des textes sacrés qui citent la parole de Dieu sans preuve factuelle ou rationnelle, en demandant à l'homme de faire acte de foi pour les croire. Avant le siècle des Lumières [47] (qui a pris fin avec le décès de Kant, en 1804) seuls quelques philosophes et quelques saints se sont préoccupés de convaincre leurs semblables de croire en Dieu en apportant des preuves logiques - ou ce qu'ils croyaient être des preuves logiques. Constatant l'absence de valeur de ces preuves, point sur lequel nous revenons plus bas, Kant a voulu reprendre à zéro l'étude du sujet et soumettre l'existence de Dieu - en même temps que le reste de notre savoir - au « tribunal de la raison ». Il a écrit en 1781 dans la préface de la Critique de la raison pure [M3] : "Notre siècle est particulièrement le siècle de la critique à laquelle il faut que tout se soumette. La religion, alléguant sa sainteté et la législation sa majesté, veulent d'ordinaire y échapper ; mais alors elles excitent contre elles de justes soupçons et ne peuvent prétendre à cette sincère estime que la raison accorde seulement à ce qui a pu soutenir son libre et public examen." On appelle "théodicée" la partie de la métaphysique [371] qui traite de l'existence et de la nature de Dieu d'après les seules lumières de l'expérience et de la raison ; théodicée est synonyme de théologie rationnelle. Le texte suivant aborde la théodicée. C'est une copie du texte "Les preuves logiques de l'existence de Dieu" http://www.danielmartin.eu/Philo/Dieu-Preuves.pdf. 20 1.5 Les preuves logiques de l'existence de Dieu Ce texte présente les trois types d'arguments cités au cours des siècles pour prouver l'existence de Dieu avec un raisonnement logique. Les personnes ayant une culture philosophique n'y trouveront rien de neuf. Il résume la démonstration de Kant (Critique de la raison pure, 1781) qui a mis un terme au débat sur ce sujet en prouvant qu'une telle preuve n'existe pas. Ce texte précise aussi quelques détails d'une telle preuve à la lumière des connaissances cosmologiques actuelles. Les termes philosophiques et scientifiques de ce texte sont expliqués dans le Dictionnaire des idées de Kant – Vocabulaire de la Critique de la raison pure http://www.danielmartin.eu/Philo/Vocabulaire.pdf 1.5.1 1.5.1.1 Croire en Dieu ou en la science : il faut choisir ! Définitions : Univers, phénomène, représentation, Monde Univers Selon le dictionnaire (Philosophie et langage courant) : ensemble de tout ce qui existe, la totalité des êtres et des choses. (Univers physique, sensible) : ensemble des choses et des phénomènes physiques perçus par l'homme et objets de la science. (Astronomie – Univers avec une majuscule) : ensemble des galaxies, considérées dans leur évolution dans l'espace et dans le temps. (Physique de la Relativité générale) : tout ce qui a existé, existe et existera dans le même espace-temps (continuum quadridimensionnel) que la Terre. Connaissances scientifiques Naissance : notre Univers est né d'une explosion colossale, le Big Bang, il y a 13.8 milliards d'années. Nous ne savons pas s'il a existé quelque chose (espace-temps ou matièreénergie) avant ce Big Bang, nous n'avons à ce sujet que des conjectures. Nous ne savons même pas si l'espace-temps n'est pas apparu en même temps que la matière-énergie de l'Univers lors du Big Bang. Structure : La Relativité générale d'Einstein nous apprend que l'Univers est un continuum (espace continu) quadridimensionnel : 3 dimensions d'espace + 1 dimension de temps, le tout formant l'espace-temps. Le temps est une dimension nécessaire de cet espace-temps, dont on ne peut concevoir un espace réel sans temps ou un temps réel sans espace. Dimension : l'Univers observable depuis la Terre est l'intérieur d'une sphère de la surface de laquelle la lumière a mis 13.8 milliards d'années pour nous parvenir 21 depuis le Big Bang : son rayon est défini par un temps de parcours, pas par une distance. Expansion : l'Univers est en expansion depuis le Big Bang : les galaxies lointaines s'éloignent de nous d'autant plus vite qu'elles sont loin [111]. La vitesse d'expansion de l'Univers a varié depuis le Big Bang, décroissant pendant les 8 à 9 premiers milliards d'années, puis croissant depuis. Du fait de cette vitesse d'expansion variable, les galaxies les plus lointaines jamais créées depuis le Big Bang sont à une distance de 47 milliards d'années-lumière, à la surface d'une sphère appelée Univers physique actuel. Cet Univers contient environ 1011 galaxies, 1023 étoiles. On appelle Volume de Hubble l'intérieur de la sphère à la surface de laquelle les galaxies s'éloignent de nous à la vitesse de la lumière. Les galaxies situées audelà émettent une lumière qui ne nous atteindra jamais, car elle se propage moins vite que l'Univers ne se dilate. La surface de l'Univers observable s'éloigne de nous environ 6 fois plus vite que la vitesse de la lumière c = 299 792 458 m/s (un peu moins de 300 000 km/s). Une telle vitesse ne contredit pas la Relativité Générale, car celle-ci ne limite à c que les vitesses de ce qui est matière ou rayonnement, pas celle de l'expansion. Phénomène 1er sens (scientifique) : fait objectif, observé, susceptible de se reproduire. C'est une réalité extérieure perçue par l'homme. Un type de phénomènes est un concept, classe dont les membres partagent les propriétés. Exemple : phénomènes de propagation de la lumière, d'attraction universelle. Les phénomènes physiques sont régis par des lois déterministes ; exemple : la chute d'une pierre est un phénomène de la classe des effets de la pesanteur. 2ème sens (philosophique) : une situation dont on prend conscience, qui peut se reproduire, acquérir une valeur objective et faire l'objet d'une connaissance. En pratique, le mot phénomène désigne : Tantôt une situation (l'état d'un système perçu à un instant donné) ; Tantôt une évolution dans le temps et/ou l'espace, tous deux observables et susceptibles de se reproduire : Représentation Le mot représentation a deux significations : Acte par lequel l'esprit du sujet se représente quelque chose (son objet, par exemple un phénomène) tel qu'il est à un instant donné. C'est une mise en relation de l'objet avec l'ensemble de données mentales qui le représentent dans l'esprit du sujet. L'objet peut être externe (empirique) ou interne (a priori). L'objet qu'un sujet se représente est présent à son esprit. Résultat de cet acte : l'ensemble de données mentales précédent traitées par le sens interne, donc ordonnées, connectées et mises en rapport ; physiquement, 22 c'est un état de certains neurones et de leurs interconnexions. Cet ensemble (état cérébral interprété par les fonctions psychiques) décrit l'objet d'une manière synthétique, schématique. L'esprit de l'homme ne peut accéder à un objet physique lui-même, il n'accède qu'à la représentation qu'il en a construit, dont la signification (description matérielle et sens psychologique) devient celle de l'objet, de l'objet entier et seulement de cet objet. Pour l'esprit, la représentation (et elle seule) EST l'objet réel. Kant écrit : "Nous n'avons affaire, en tout état de cause, qu'à nos représentations ; ce qu'il peut en être de choses en soi (sans égard aux représentations par lesquelles elles nous affectent), cela tombe entièrement en dehors de notre sphère de connaissance." "Si l'on considère les phénomènes extérieurs [à notre esprit] comme des représentations qui sont produites en nous par leurs objets [extérieurs eux aussi], on ne parvient pas à apercevoir comment l'on pourrait connaître leur existence autrement que par le raisonnement inférant, à partir de l'effet, la cause - raisonnement dans lequel il ne peut que rester toujours douteux de savoir si cette dernière est en nous ou hors de nous [c'est-à-dire si les représentations ne sont pas dues à l'imagination]. […] Les représentations ne sont que des phénomènes, […] qui se trouvent toujours uniquement en nous et dont la réalité repose sur la conscience immédiate, [spontanée, irréfléchie] tout aussi bien que la conscience de mes propres pensées." Monde Kant distingue l'Univers défini plus haut, espace réel contenant tous les objets existants, et le Monde, dont voici les définitions. Le monde sensible Le monde sensible (celui que perçoit notre sens externe à l'instant présent) est défini comme la totalité des phénomènes (tout ce qui existe sous forme perceptible). Kant écrit : "Le monde sensible ne contient rien d'autre que des phénomènes, mais ceux-ci sont de simples représentations…" Différences entre Monde et Nature définis tous deux comme totalité des phénomènes Monde : totalité des phénomènes de l'Univers, résultant d'une synthèse par réunion de ses parties ou de la décomposition d'un phénomène en ses parties. Kant écrit : "Par monde, se trouve compris l'ensemble global de tous les phénomènes" "Le terme de monde […] signifie l'absolue totalité de l'ensemble global des choses existantes" Nature : totalité des phénomènes dont la succession par causalité a produit l'ensemble unifié de tout ce qui existe aujourd'hui. Nature a deux sens : Un sens déterministe indiquant la succession des déterminations d'une chose due aux évolutions physiques, toujours conformes au principe de causalité. 23 Un sens d'ensemble global des phénomènes "en tant qu'ils forment un ensemble systématique [organisé] complet en vertu d'un principe interne de la causalité." Résumé de ces définitions L'Univers physique est perçu par l'homme sous forme de phénomènes, présents à son esprit sous forme de représentations dont l'ensemble constitue, selon le point de vue, le Monde ou la Nature. 1.5.1.2 Critique scientifique du concept de créateur de l'Univers Un dieu qui aurait créé l'Univers aurait été externe à l'Univers, pour ne pas se créer lui-même, et il aurait existé avant sa création de l'Univers. Or chacune de ces deux conditions est contradictoire : D'après la définition de l'Univers il n'y a pas et il n'y a jamais eu d'extérieur de l'Univers : la notion de Dieu extérieur est donc contradictoire. Nous avons la certitude scientifique que notre Univers est né d'une explosion colossale, le Big Bang, il y a 13.8 milliards d'années [313]. Nous ne savons pas s'il a existé quelque chose (espace-temps ou matière-énergie) avant ce Big Bang, nous n'avons à ce sujet que des conjectures. Nous ne savons même pas si l'espace-temps n'est pas apparu en même temps que la matière-énergie de l'Univers lors du Big Bang. La Relativité générale d'Einstein nous apprend que le temps est une dimension nécessaire de l'espace-temps quadridimensionnel de l'Univers, dont on ne peut concevoir un espace réel sans temps ou un temps réel sans espace. D'après la définition de l'Univers il n'y a pas et il n'y a jamais eu d'avant l'Univers : la notion de Dieu existant avant l'Univers est donc contradictoire. Nous n'avons pas la certitude qu'il n'y a pas et qu'il n'y a jamais eu d'espace-temps extérieur et/ou antérieur à notre Univers [313]. Nous savons seulement qu'un tel espace-temps sera toujours hors de portée de nos instruments, et qu'aucune théorie sur ses limites spatio-temporelles ne pourra être confirmée par l'expérience. C'est pourquoi nous pouvons faire comme si l'Univers est, et a toujours été, tout ce qui existe en tant que matière-énergie, que temps et qu'espace. 1.5.1.3 Critique de Kant de la possibilité de création transcendante Kant ne connaissait pas ces arguments scientifiques modernes de l'impossibilité d'un dieu créateur de l'Univers, mais il en a cité un qui se suffit à lui-même. Le voici. Les lois de la nature, conçues par l'homme dans l'Univers et pour décrire les phénomènes de l'Univers, excluent la possibilité qu'une action physique franchisse la limite de l'Univers. Aucune création de l'Univers depuis l'extérieur n'est possible, aucune action causée de l'extérieur ne peut atteindre l'intérieur, et aucune action de l'intérieur ne peut atteindre l'extérieur : l'Univers est un système fermé et les lois de la nature excluent la transcendance (action qui franchit les limites de l'Univers). (Ces règles régissant les lois de la nature sont confirmées par notre science actuelle, et toute action transcendante est pure spéculation.) 24 La Relativité générale exclut la possibilité d'une interaction transcendante La Relativité générale exclut la possibilité d'un déplacement de matière-énergie plus vite que la lumière. C'est pourquoi, par exemple, un voyage vers l'étoile la plus proche, Proxima Centauri, située à 4.2 années-lumière du Soleil, prendra toujours plus de 4.2 années, quels que soient les progrès scientifiques futurs. En outre, l'Univers est en expansion, les galaxies lointaines s'éloignant de nous d'autant plus vite qu'elles sont loin : celles situées sur la sphère enveloppant le Volume de Hubble [111] s'éloignent de nous à la vitesse de la lumière, et celles situées plus loin sont à jamais invisibles, leur lumière n'allant pas assez vite pour nous parvenir [2]. Donc aucune interaction entre la Terre et un point extérieur à cette sphère n'est possible, ni partant de la Terre ni arrivant sur elle. Cette remarque précise la notion d'extérieur à notre Univers. Nos lois physiques sont vérifiables et excluent le hasard Nos lois de la nature ont été imaginées d'après les phénomènes constatés, et vérifiées sans exception depuis leur acceptation par les scientifiques. Kant affirme qu'il n'y a pas de hasard dans les situations et les évolutions de la nature, nécessairement régies par des lois valables partout et toujours, c'est-à-dire dans tout l'espace-temps. La nature ne fait jamais n'importe quoi et respecte ces lois. Le hasard (décrit et discuté dans le Vocabulaire) est une notion scientifique précise, dont l'affirmation par une personne résulte en général de son ignorance. Affirmer qu'un phénomène est « dû au hasard » ou « agit selon le hasard » exige une preuve aussi sérieuse qu'affirmer qu'il est régi par telle loi naturelle. Même la Mécanique quantique, avec ses résultats probabilistes décrivant une forme contreintuitive de réalité et la possibilité de variables indéterminées, n'a que des évolutions régies par l'équation de Schrödinger, parfaitement déterministe donc sans hasard. 1.5.1.4 Conclusion logique : il ne peut exister de Dieu physique Une création transcendante de l'Univers irait donc contre nos lois physiques, qu'il faudrait renier pour croire à une telle création. Chacun de nous doit donc choisir entre croire à l'universalité scientifique vérifiable de nos lois naturelles ou à la création divine dogmatique du monde, chacun des choix excluant l'autre. Position officielle de l'Eglise catholique sur l'origine du monde Pour l'Eglise catholique, dont le pape a rappelé en 2007 le dogme théologique [D7] : Le monde a été créé par Dieu ; L'existence de chaque homme est précédée par une Idée, conformément à l'idéalisme de Platon. Elle a un sens attribué par Dieu, conformément à la doctrine téléologique de l'Eglise, sens dont les valeurs doivent guider sa vie. 1.5.1.5 Théologie proposée par Kant Puisqu'un Dieu créateur de l'Univers est physiquement impossible, Kant a proposé un Dieu transcendantal, notion décrite dans le Vocabulaire. Cette notion fait de Dieu une abstraction pure, imaginée par l'homme pour que ses connaissances de l'Univers présentent une unité d'attribution et de finalité en tant que système, unité psychologiquement plus satisfaisante que des lois naturelles vraies mais disparates. 25 Tout en affirmant clairement l'impossibilité physique de ce Dieu (qualifié à l'occasion d'Intelligence suprême, d'Etre originaire ou d'Etre suprême) Kant encourage ses lecteurs à lui attribuer des propriétés anthropologiques, c'est-à-dire à « concevoir Dieu à l'image de l'homme qui le conçoit », avec des valeurs et des sentiments – à condition de ne pas oublier que c'est une idée transcendantale régnant seulement sur un système unifié de concepts. L'homme n'a pas accès à la réalité physique, dont il perçoit seulement des phénomènes que son esprit transforme en représentations mentales. Tout se passe comme si ces représentations sont la réalité et leurs lois d'évolution sont celles de l'Univers physique. Il n'y a donc pas d'inconvénient à imaginer que toutes ces représentations et toutes les lois naturelles d'évolution proviennent d'un Dieu transcendantal, être parfait. Ce paradigme ne contredit nullement la causalité matérielle de l'Univers réel inaccessible, les lois naturelles déduites par l'homme des phénomènes perçus lui permettant bien d'en prévoir l'évolution. Si on interprète donc la théologie des juifs, chrétiens et musulmans comme affirmant une création divine selon des finalités à découvrir [D7], on a un système de concepts cohérent et psychologiquement satisfaisant puisqu'il donne un sens au monde. Mais comme Kant le rappelle à plusieurs reprises, ce n'est là qu'un paradigme, un modèle conçu pour des raisons de cohérence causale et d'apaisement psychologique. Interaction entre pensée et matière Un cerveau peut penser des concepts et raisonner sur eux. On peut considérer cela comme une action de la matière (le cerveau pensant) sur une abstraction. Mais réciproquement, une abstraction ne peut agir sur de la matière que par l'intermédiaire du cerveau qui l'héberge et commande au corps d'agir. Aucune action directe de la pensée sur la matière n'est possible : ainsi, la psychokinèse est impossible. C'est là une conséquence de la thermodynamique : toute action physique exige un échange d'énergie, et une abstraction n'a pas d'énergie, ne peut en donner et ne peut en recevoir. Si par action de la pensée sur la matière on entend action des ondes cérébrales (enregistrables par électroencéphalographe) sur de la matière, c'est possible et utilisé par exemple pour aider des handicapés moteurs. Un objet transcendantal comme l'Idée de Dieu ne peut donc agir physiquement. 1.5.2 Les 3 preuves possibles de l'existence de Dieu Dans l'excellente traduction [D2] utilisée pour étudier la Critique de la raison pure, Kant écrit (citation de la page 529) : "Il n'y a, procédant de la raison spéculative, que trois types de preuves possibles de l'existence de Dieu. Toutes les voies que l'on peut tenter de suivre dans ce but partent : [Preuve physico-théologique] ou bien de l'expérience déterminée et de la nature particulière de notre monde sensible, telle que cette expérience nous la fait connaître, et elles s'élèvent à partir de celle-ci, en suivant les lois de la causalité, jusqu'à la cause suprême située en dehors du monde ; 26 [Preuve cosmologique] ou bien elles ne prennent empiriquement pour fondement qu'une expérience indéterminée, c'est-à-dire une existence quelconque ; [Preuve ontologique] ou bien enfin elles font abstraction de toute expérience et concluent entièrement a priori, à partir de simples concepts, à l'existence d'une cause suprême. La première preuve est la preuve physico-théologique, la deuxième la preuve cosmologique, la troisième la preuve ontologique. Il n'y en a pas davantage, et il ne peut pas non plus y en avoir davantage. Je démontrerai que la raison parvient à tout aussi peu de résultats sur l'une de ces voies (la voie empirique) que sur l'autre (la voie transcendantale), et que c'est en vain qu'elle déploie ses ailes pour s'élever au-delà du monde sensible par la seule force de la spéculation." (Fin de citation) Le premier mérite de Kant est d'avoir ainsi classé les preuves spéculatives (c'est-àdire purement déductives) possibles en 3 catégories : Une preuve dite physico-théologique basée sur une expérience déterminée, c'est-à-dire une constatation qu'un homme peut faire en considérant un phénomène particulier (une vision de ce qui l'entoure à un instant donné) ; Une preuve dite cosmologique, basée sur ce qu'un homme peut voir en général quand il considère un phénomène comme le précédent (la cosmologie est l'étude de l'ensemble de tous les phénomènes du monde) ; Une preuve dite ontologique, basée sur la logique a priori du raisonnement humain, donc ignorant tout phénomène possible. (L'ontologie est la partie de la philosophie qui a pour objet l'étude des propriétés les plus générales de l'être, telles que l'existence, la possibilité, la durée, le devenir ; synonyme : philosophie première. Pour Kant, l'ontologie est une science qui prétend connaître Dieu par son concept, sans passer par l'expérience, et qui tombe sous le coup de la critique de la preuve ontologique. Il écrit : "…la malheureuse preuve ontologique, qui ne véhicule avec elle rien qui pût satisfaire ni l'entendement naturel et sain ni l'examen méthodique.") 1.5.2.1 Preuve ontologique de l'existence de Dieu Une telle preuve cherche à établir par raisonnement logique que l'existence de Dieu résulte nécessairement de sa définition. Quelle que soit la définition de Dieu, elle ne peut être basée que sur des jugements lui attribuant des qualités, pouvoirs et actes ; mais un tel jugement est une opinion, pas un phénomène constaté. Il n'a donc pas valeur probante, il peut avoir été pensé par erreur. Kant écrit : "Tous les exemples avancés [pour montrer l'existence d'un être absolument nécessaire] sont, sans exception, tirés uniquement de jugements, et non pas de 27 choses et de leur existence. Mais la nécessité inconditionnée des jugements [simple opinion] n'est pas une nécessité absolue des choses." En outre, ce n'est pas parce qu'un homme a pensé la description de quelque chose qu'elle existe. Une même description (ensemble d'informations) pouvant correspondre à zéro, une ou plusieurs occurrences d'un objet, l'existence éventuelle de cet objet est une information séparée ; elle ne peut donc être déduite de la description. Kant écrit : "La détermination est un prédicat qui s'ajoute au concept du sujet et l'accroît. Il faut donc qu'elle ne s'y trouve point déjà contenue." Conclusion Il n'existe pas de preuve ontologique de l'existence de Dieu. Kant écrit : "C'était une démarche totalement contre nature, et qui constituait un simple renouvellement de l'esprit scolastique, que de vouloir tirer d'une idée forgée de façon entièrement arbitraire l'existence de l'objet correspondant à cette idée." Exemple d'erreur ontologique d'un philosophe Exemple d'erreur par inclusion d'un prédicat d'existence dans une définition : Dans l'Ethique de Spinoza, la première partie, De Dieu, a une première définition logiquement impossible : « I. J'entends par cause de soi ce dont l'essence enveloppe [inclut] l'existence, ou ce dont la nature ne peut être conçue que comme existante. » 1.5.2.2 Preuve cosmologique de l'existence de Dieu La contingence du monde, base de la preuve cosmologique La preuve cosmologique repose sur une hypothèse de contingence du monde, « qui existe, mais aurait pu ne pas exister » ; et puisqu'il existe, c'est qu'il a été créé, donc il y a un Créateur. L'hypothèse de contingence de l'Univers est pure conjecture : la science a seulement la certitude qu'il existe depuis le Big Bang, il y a 13.8 milliards d'années. Les lois de la physique nous interdisant à jamais de voir ce qu'il y avait avant – s'il y avait quelque chose, car rien ne prouve que le temps et l'espace existaient avant - la création de l'Univers restera toujours un mystère. Du point de vue philosophique, l'hypothèse de contingence de l'Univers contredit le postulat de causalité que nous considérons comme un postulat de la nécessité des choses, et dont résulte le principe de fatalisme. Kant écrit : (Citation de la page 286 de la Critique de la raison pure [D2]) "La nécessité ne concerne […] que les rapports entre les phénomènes, d'après la loi dynamique de la causalité. [Cette loi permet] de conclure a priori, à partir d'une quelconque existence donnée (à partir d'une cause) à une autre existence (à l'effet). [Principe de fatalisme : ce qui arrive devait arriver] Tout ce qui arrive est hypothétiquement nécessaire [devait arriver] : c'est là un principe fondamental qui soumet dans le monde le changement à une loi, c'est28 à-dire à une règle s'appliquant à l'existence nécessaire, sans laquelle règle il n'y aurait pas même de nature. [Soit S une situation d'un objet précédée d'une situation P, qui en est la cause d'après une loi de la nature. Si S était contingente, la situation P aurait pu ne pas avoir pour conséquence S, ce qui contredit l'exigence de causalité qui rend la conséquence S certaine après P pour respecter la loi de la nature. Donc ce qui arrive (ici : S) devait arriver.] Par conséquent, le principe : rien n'arrive par un hasard aveugle est une loi a priori de la nature ; de même : aucune nécessité intervenant dans la nature n'est une nécessité aveugle…". (Fin de citation) Du point de vue logique (en ignorant le Big Bang), notre Univers a peut-être toujours existé, sans avoir été créé. Mais du point de vue scientifique, sa création a peut-être eu lieu dans un autre Univers : nous avons des théories possibles mais non prouvées (les théories des Multivers) qui le supposent. Kant écrit dans la Critique de la raison pure [D2], page 540 : "Dans cet argument cosmologique, se [tient] dissimulée toute une nichée de prétentions […] que la critique transcendantale peut découvrir et détruire. […] Se trouvent donc ici, par exemple : 1. Le principe transcendantal qui consiste à conclure du contingent à une cause, lequel principe n'a de signification que dans le monde sensible, mais en dehors de lui n'a plus du tout de sens. Car le concept purement intellectuel du contingent ne peut produire aucune proposition synthétique telle que celle de causalité, et le principe de cette dernière n'a aucune signification ni aucun critère réglant son usage, si ce n'est uniquement dans le monde sensible ; or, ici, il devrait servir précisément à sortir du monde sensible et à le dépasser. 2. Le principe qui conduit à conclure de l'impossibilité d'une série infinie de causes données s'étageant les unes au-dessus des autres dans le monde sensible à une cause première - conclusion à laquelle les principes de l'usage de la raison, même dans l'expérience, ne nous autorisent pas, bien loin donc qu'ils nous donnent la capacité d'étendre ce principe au-delà de l'expérience (où cette chaîne ne peut pas du tout être prolongée)." Conclusion Il n'existe pas de preuve cosmologique de l'existence de Dieu. 1.5.2.3 Preuve physico-théologique de l'existence de Dieu Problème posé Dans sa Critique de la raison pure [D2], Kant définit le problème de cette preuve : "Chercher si une expérience déterminée, par conséquent celle des choses appartenant au monde présent autour de nous, si la façon dont elle est constituée et structurée ne fournissent pas un argument probant qui pût nous procurer avec sûreté la conviction de l'existence d'un être suprême. Une telle preuve, nous l'appellerions physico-théologique. 29 Si elle devait elle aussi être impossible, il n'y aurait jamais aucune preuve suffisante qui fût possible, à partir de la raison simplement spéculative, pour démontrer l'existence d'un être correspondant à notre Idée [de Dieu]." Il s'agit donc de trouver un raisonnement qui pourrait déduire d'une éventuelle expérience (un phénomène constatable, indépendamment de son contexte c'est-àdire du reste du Monde), la présence nécessaire d'un être suffisant pour l'existence du Monde entier. Solution de Kant Une expérience déterminée (un phénomène) a nécessairement une cause, d'après le postulat de causalité. Toute conclusion (et notamment une existence nécessaire) qu'on pourrait déduire d'un phénomène donné résulterait d'informations de ce phénomène et/ou de ceux dont il est le résultat, et seulement de ces phénomènes. Or tous ces phénomènes appartiennent à la chaîne de causalité du phénomène de l'expérience (sa cause, la cause de cette cause, etc.) En remontant la chaîne de causalité, on parcourt une série de causes qui sont toutes des phénomènes du Monde. Or nous avons vu à l'occasion de la preuve ontologique qu'aucun phénomène du Monde ne peut avoir créé le Monde, et ce pour deux raisons : Il ne peut être transcendant (situé en dehors du Monde pour éviter l'autocréation) ; Il ne peut préexister au Monde. Conclusion : on ne peut déduire d'une expérience déterminée quoi que ce soit qui soit transcendant et préexistant au Monde ; il n'y a donc pas de preuve physicothéologique de l'existence de Dieu. Comme on ne trouvera pas de phénomène transcendant, on ne trouvera pas d'être ayant une volonté téléologique Puisque d'un phénomène déterminé on ne peut aboutir qu'à des phénomènes du Monde, on ne voit pas pourquoi on trouverait la nécessité d'un être muni d'une volonté téléologique. Kant écrit : (Citation de la page 547 de la Critique de la raison pure [D2]) "Comment une expérience peut-elle jamais être donnée qui soit adéquate à une Idée [comme l'Idée de la raison pure qui décrit Dieu] ? C'est justement le propre des Idées que nulle expérience ne puisse jamais leur correspondre. L'Idée transcendantale d'un être originaire qui soit nécessaire et totalement suffisant est si démesurément grande, elle dépasse de si haut tout ce qui est empirique et se trouve toujours conditionné, que d'une part on ne peut jamais dégager de l'expérience assez de matière [d'informations] pour remplir un tel concept, et que d'autre part on tâtonne toujours au milieu du conditionné [des circonstances] en ne cessant de chercher en vain l'inconditionné [les circonstances absolues à l'origine du Monde entier], dont aucune loi de quelque 30 synthèse empirique que ce soit ne nous fournit un exemple ou ne procure le moindre indice." (Fin de citation) Kant conclut page 549 : "Je soutiens donc que la preuve physico-théologique ne saurait jamais à elle seule démontrer l'existence d'un être suprême…" 1.5.3 Raisons de croire en un Dieu transcendantal Après avoir démontré qu'il n'existe pas de preuve déductive d'existence d'un Créateur du Monde, Kant plaide pour qu'on adopte la croyance en un Dieu transcendantal, tout en sachant qu'il n'est qu'un produit de l'imagination humaine. Les arguments qu'il invoque à l'appui de cette proposition sont ceux de toute doctrine téléologique, notamment ceux de l'Eglise catholique [D7]. (Citation de la Critique de la raison pure [D2] pages 549 et 550) 1. "Dans le monde se découvrent partout des signes transparents d'une mise en ordre conforme à une intention déterminée, opérée avec une grande sagesse et constituant un tout aussi indescriptible dans la diversité de son contenu qu'il peut être illimité quant à la grandeur de son étendue. 2. Cette mise en ordre finalisée est totalement étrangère aux choses du monde, et elle ne leur est attachée que de façon contingente — autrement dit : la nature de cette diversité de choses n'aurait pas pu d'elle-même, par des moyens convergents de tant de sortes, s'accorder à des intentions finales, si ces moyens n'avaient été choisis tout exprès pour cela et disposés à cette fin par un principe organisateur doué de raison prenant pour fondement des Idées et intervenant d'après elles. 3. Il existe donc une (ou plusieurs) cause sublime et sage qui doit être la cause du monde, non pas simplement par fécondité, comme une nature toute-puissante agissant de manière aveugle, mais par liberté, comme une intelligence. 4. On peut conclure à l'unité de cette cause à partir de l'unité de la relation réciproque des parties du monde considérées comme les éléments d'une construction, cela avec certitude pour ce que notre observation atteint, mais pour le reste avec vraisemblance, en suivant tous les principes de l'analogie." (Fin de citation) 1.6 Compléments philosophiques des tentatives de prouver Dieu Les deux paragraphes suivants sont assez abstraits, demandant une lecture attentive. N'étant pas indispensables au reste de l'ouvrage, on peut se dispenser de les lire. 1.6.1 La notion d'un Dieu créateur intelligent est contradictoire Un Dieu qui sait tout ne pense pas, car Il n'a pas de problème à résoudre. Il ne peut donc avoir d'intention, car une intention est une pensée et suppose un projet précédant sa réalisation. Si Dieu concevait un projet, il existerait pour Lui une possibilité qui ne serait pas encore réalisée et Il serait alors fini, ce qui est contradictoire avec son caractère infini. En somme, on ne peut attribuer à Dieu une séparation de la pensée et de l'existence, séparation qui impliquerait la finitude. 31 Ce raisonnement a été fait par Spinoza, qui en a conclu que l'existence d'un Dieu créateur intelligent est une absurdité, ce qui rend également absurde la notion de finalité divine gouvernant le monde, donc aussi celle de Divine providence. La contradiction inhérente à la notion de Dieu créateur intelligent s'ajoute à celle déjà constatée plus haut concernant le problème du mal, contradiction qui a obligé les croyants à déclarer que « Dieu laisse à l'homme son libre arbitre », et qu'il faut en matière divine renoncer à la rationalité car que « les voies du Seigneur sont impénétrables ». Ces deux exemples de contradiction incitent à la prudence : penser l'infini, quand on est un homme qui ne dispose que de concepts et de mécanismes de pensée logique adaptés à son univers limité, risque de mener à des contradictions. Comme certains philosophes l'ont remarqué, Dieu est donc une illusion, une projection irrationnelle de nos désirs, de nos peurs et de nos espoirs : l'homme a conçu Dieu à son image, et celle-ci est pleine de contradictions. Il faut veiller à ne manipuler que des concepts représentables Nous allons voir dans ce paragraphe que même si on imagine un concept non contradictoire d'infini (comme un Dieu tout-puissant mais ne créant pas et ne faisant pas de projet), on risque de ne pouvoir s'en servir pour réfléchir sur notre monde, faute de pouvoir se le représenter clairement ; si on réfléchit avec, on risque de manipuler des mots creux au lieu de garder ses deux pieds sur terre. Rappelons que pour qu'un concept ait un sens dans notre conscience, il doit pouvoir provenir d'une perception sensible ou se déduire d'un concept transcendantal. Exemples : Pour que le concept de "cercle" ait assez de sens pour que je puisse m'en servir pour réfléchir, je dois pouvoir l'associer à quelque chose de concret, comme le dessin d'un rond sur une feuille de papier. Dans ce texte sur le déterminisme il nous faudra étendre le domaine des perceptions sensibles à l'interprétation des phénomènes décrits par des équations et des fonctions, seule manière de les représenter à l'échelle atomique, trop petite pour nos sens. Nous arriverons à nous représenter mentalement ces équations et fonctions en songeant à des images de courbes ou de surfaces auxquelles chacun peut s'habituer peu à peu. Hélas, il n'est pas possible de représenter l'infinité de Dieu à l'aide d'une image, d'un schéma ou d'une équation ; on ne peut le définir qu'avec des règles comme "Il est plus grand que tout", "Il sait tout" ou "la divine Providence est infiniment secourable", et ces règles ne sont pas représentables de manière sensible. Si je reprends alors, par exemple, la notion de "Providence infiniment secourable" que j'ai acceptée sans me la représenter, et que je l'applique au monde dans lequel je vis, avec ses guerres et ses souffrances, la contradiction saute aux yeux : la notion contredit la réalité dans de nombreux cas. En fait, c'est l'application même de la notion de Providence au monde concret qui en construit des représentations, et ce sont celles-ci qui montrent son caractère contradictoire. On voit sur cet exemple à quel point il est indispensable de valider un concept au moyen de représentations sensibles de ce qu'il implique. 32 Exemple : si on me propose un emploi d'un type nouveau pour moi, avant de l'accepter ou de le refuser je dois me représenter concrètement, au moyen d'exemples, mon activité dans le cadre de cet emploi. Que ferai-je chaque jour, en serai-je capable, serai-je heureux de le faire, etc. On trouvera une discussion plus approfondie de ce sujet dans l'ouvrage de Luc Ferry [7], qui résume bien le problème, et notamment la citation [D9]. 1.6.2 Reproche idéaliste de contredire le 2e principe de la thermodynamique Contre le matérialisme, les idéalistes invoquent parfois un argument basé sur la violation de la loi thermodynamique de l'entropie toujours croissante. Ils prétendent que le phénomène de la vie ne peut s'expliquer par les seules lois physiques déterministes du matérialisme, car celles-ci impliquent l'exigence thermodynamique de croissance du désordre dans toute évolution. Pour eux, « puisqu'un être vivant est hautement organisé, et que son corps s'organise à partir de nourriture qui est moins organisée, la vie apporte quelque chose qui contredit la thermodynamique, qui la soumet à un principe qui dépasse la physique et son matérialisme sous-jacent. » Nous montrerons plus bas que ce raisonnement est faux, car le principe thermodynamique de l'entropie toujours croissante ne s'applique qu'aux systèmes en équilibre, qui n'échangent pas d'énergie avec leur environnement. Or le métabolisme d'un être vivant échange l'énergie contenue dans sa nourriture avec de la production de chaleur, de mouvement et de cellules nouvelles. Voyons ce que dit la thermodynamique. 1.6.2.1 Notion d'entropie Définition thermodynamique L'entropie d'un système matériel est sa quantité d'énergie thermique par degré de température qu'on ne peut transformer en travail utile. L'entropie mesure le mouvement désordonné (l'agitation thermique) de ses molécules, donc l'inorganisation du système qu'elles constituent, ce qu'on ignore sur lui. Soit un système matériel que l'on met en contact avec plusieurs sources de chaleur, de températures absolues T 1, T2, etc. Il échange alors avec ces sources des quantités de chaleur respectives Q1, Q2, etc. Chacune de ces quantités peut être positive ou négative, selon le sens du transfert de chaleur. Nous supposerons que l'échange de chaleur du système se fait de manière réversible : à tout moment le système est si près de l'équilibre thermique qu'un faible changement de sens de la différence de température entre lui-même et l'extérieur inverserait le sens de l'échange de chaleur. On définit alors la variation d'entropie ΔS du système par la somme des rapports : ΔS = Q1/T1 + Q2/T2 + … en joules par degré Kelvin. Dans les transformations réelles, c'est-à-dire non réversibles, l'égalité précédente devient une inégalité : ΔS Q1/T1 + Q2/T2 + … 33 Cette inégalité, due au physicien Clausius, exprime le deuxième principe de la thermodynamique : l'entropie d'un système isolé qui subit des transformations est toujours croissante. En particulier, on peut affirmer que l'énergie convertissable en travail de l'Univers s'épuise peu à peu. (Définitions de la thermodynamique : [25]) 1.6.2.2 Entropie de Boltzmann, entropie statistique et entropie d'information Au XIXe siècle, les physiciens Maxwell et Boltzmann inventèrent la Mécanique statistique, science qui déduit les propriétés macroscopiques d'un système (propriétés mesurables à l'échelle humaine comme la température, la pression et la viscosité) de celles de ses molécules ou atomes. La loi qu'ils établirent exprime de manière simple l'entropie S d'un système macroscopique en équilibre thermodynamique à partir du nombre d'agencements W de l'ensemble de ses molécules qui conduisent à une énergie macroscopique donnée. Expliquons cela. Mouvement brownien - Relation entre température absolue et énergie cinétique Chaque molécule du système a une certaine énergie. Si le système est un liquide, de l'eau à 27 degrés C par exemple, cette énergie est l'énergie cinétique de chaque molécule d'eau, énergie cinétique provenant de son mouvement, lui-même dû à la température. A la température absolue T (en degrés Kelvin) chaque molécule a une énergie cinétique moyenne de 3/2 kT, où k est la constante de Boltzmann, k = 1.38066.10-23 joule par degré Kelvin. Autrement dit, une température absolue T > 0 oblige toute molécule à bouger constamment, avec une énergie cinétique moyenne de 3/2kT ; si la masse de la molécule est m, sa vitesse moyenne v sera telle que ½mv² = 3/2kT, d'où v² = 3kT/m : connaissant T on peut calculer v. Pour fixer les idées : A la température T = 300°K (environ 27°C), la vitesse moyenne d'une molécule monoatomique d'hélium He est d'environ 1300 m/s. A une température donnée T, une molécule légère comme l'hydrogène H 2 a une vitesse moyenne plus élevée qu'une molécule plus lourde d'azote N2 : les deux molécules ont même énergie cinétique moyenne, mais les carrés de leurs vitesses moyennes sont dans le rapport des masses molaires 28/2 = 14. Bien entendu, chaque molécule a sa propre énergie cinétique, indépendante de celle d'une autre molécule tant que ces deux molécules ne se sont pas heurtées dans leur agitation incessante, appelée mouvement brownien. Ce mouvement désordonné affecte toutes les molécules d'un liquide ou un gaz ; dans les solides, l'effet de la température se manifeste par une vibration de translation et/ou de rotation de chaque atome autour d'une position moyenne. Statistiques moléculaires Le nombre de molécules d'un système macroscopique est colossal ; par exemple, dans 18 g d'eau (quantité qu'on appelle une mole) il y a 6.02 .1023 molécules (nombre d'Avogadro). Le nombre (immense !) d'ensembles de vitesses (d'agencements) que ces molécules peuvent avoir en s'agitant pour se répartir une énergie macroscopique totale donnée est appelé W, nombre que nous n'aurons jamais à écrire, heureusement ! 34 Par exemple, si un système a 3 molécules dont l'énergie peut varier de 0 à 9, et que son énergie totale est 5, les agencements possibles des molécules sont : (5,0,0) ; (4,1,0) ; (4,0,1) ; (3,2,0) ; (3,0,2) ; (3,1,1) ; (2,3,0) ; (2,0,3) ; (2,2,1), etc. On appelle état microscopique d'un système macroscopique un agencement donné de ses molécules, configuration où chacune a sa propre vitesse donc sa propre énergie cinétique. Pour un état donné du système macroscopique, d'énergie totale donnée, il y a W états microscopiques qui ont cette énergie totale. Il est normal d'admettre que ces états microscopiques du système macroscopique ont la même probabilité de se réaliser, et qu'ils sont indépendants. Cette probabilité P est alors nécessairement P = 1/W, puisque la probabilité totale des W états est une certitude et vaut 1. Nous pouvons alors interpréter W comme une mesure du désordre du système : plus le système est structuré, plus ses molécules sont liées entre elles, moins elles sont indépendantes et moins il y a d'agencements W conduisant à une énergie donnée. Dans un corps à l'état solide dont on ne voit pas les molécules individuelles, on ne peut décrire qu'une énergie totale : W = 1 et P = 1. Exemple : soit un système constitué de 12 g de carbone pur solide (1 mole) et 32 g d'oxygène pur gazeux (2 moles). Soumettons-le à la transformation qui fait brûler le carbone dans l'oxygène : C + O2 CO2. Le résultat – 44 g de gaz carbonique (1 mole = 6.02 .1023 molécules) - est dans un état plus désordonné que l'état initial : son W a augmenté. L'entropie de Boltzmann S d'un thermodynamique est définie par : système macroscopique en équilibre S = k lnW (en joules par degré Kelvin, comme k) où k est la constante de Boltzmann et lnW est le logarithme népérien de W. On voit que W et S varient dans le même sens : l'entropie S est donc aussi une mesure du désordre du système, du nombre d'agencements microscopiques possibles cachés quand on ne voit que l'état macroscopique du système. La température et l'entropie d'un système ne sont stables qu'au voisinage de l'équilibre. Conséquence : tant que l'Univers est en expansion, donc loin de l'équilibre, son entropie (très faible à l'instant du Big Bang) peut croître. Entropie statistique Soit un système dont chacun des états possibles xi a une probabilité 𝑝𝑥𝑖 comprise entre 0 et 1, la somme des 𝑝𝑥𝑖 étant exactement égale à 1 (certitude). On définit alors l'entropie statistique H du système comme : 𝐻 = −𝑘 ∑ 𝑝𝑥𝑖 log 𝑝𝑥𝑖 𝑥𝑖 35 où : Le logarithme est soit népérien, soit en base 10, soit en base 2 ; son choix se répercute alors sur la valeur de k puisqu'on passe d'une base à une autre par simple multiplication : log2 x = (Loge 10 / Loge 2) * log10 x = 3.322 log10 x. La constante k est arbitraire ; c'est par exemple la constante de Boltzmann k = 1.38066.10-23 joule par degré Kelvin pour des logarithmes népériens. En Mécanique statistique, l'entropie mesure l'absence d'informations d'un état macroscopique par rapport à l'état microscopique. Elle se mesure dans l'unité choisie pour la constante k. Lorsqu'on considère le nombre d'états d'un système qui définissent son état global, l'entropie est un nombre sans dimension. Exemple : dans un lanceur de satellite il y a 10 000 pièces indépendantes dont le dysfonctionnement pourrait causer l'échec du lancement. Pour répondre à la question : « Quel est la probabilité de succès du lanceur selon le nombre de pièces en bon état ? » il faut 10 000 informations, chacune avec 2 valeurs possibles : "bon" ou "mauvais", représentées par un bit : 1 pour "bon" et 0 pour "mauvais". Il faut donc 10 000 bits pour représenter les 210000 combinaisons d'états possibles du lanceur (environ 1.995 .103010 - nombre de 31 chiffres en base 10). Si on suppose que les 10 000 pièces ont la même probabilité p de bon fonctionnement, pour que le lancement ait au moins 99 % de chances de réussir il faut que p10000 > 0.99, donc p > 0.999999 : chacune des pièces doit avoir au plus une chance sur un million d'être défectueuse. Lorsque les états sont équiprobables leur nombre étant W, la probabilité de chacun est 1/W. La formule ci-dessus donne alors une entropie statistique égale à l'entropie de Boltzmann : H = k logW. Lorsque les états sont équiprobables l'entropie H est maximale : c'est lorsqu'aucun événement ne diffère des autres qu'on a le moins d'information sur l'état global. Entropie d'information Cette notion apparaît lorsqu'on se pose la question de l'entropie d'un trou noir : avant absorption dans le trou, la matière a une entropie statistique. Que devient l'information représentée par l'entropie transférée ? Réponse : après absorption son entropie a été absorbée dans le trou et stockée sur sa sphère horizon, mais un observateur éloigné ne peut plus en voir d'effet et peut la croire perdue. L'entropie du trou noir a augmenté au moins autant que l'apport extérieur, à cause de l'inégalité de Clausius qui régit les transformations irréversibles. Les formules de [133] décrivent la quantité d'information (l'entropie) sur la sphère horizon du trou noir. 1.6.2.3 Comprendre le deuxième principe de la thermodynamique Le deuxième principe de la thermodynamique [25] affirme que l'entropie d'un système matériel isolé qui se transforme ne peut qu'augmenter, traduisant ainsi un désordre toujours croissant et une énergie susceptible d'être transformée en travail utile toujours décroissante. 36 On oublie souvent que cette affirmation n'est valable que pour un système au voisinage de l'équilibre, dont les variables d'état (énergie, forme géométrique, masse, etc.) sont pratiquement constantes dans le temps. A l'équilibre, le système qui se transforme n'échange avec l'extérieur ni chaleur (qui est une forme d'énergie), ni masse ; son entropie est constante. Au voisinage de l'équilibre, les propriétés d'une petite région donnée du système varient de manière continue : elles ne changent jamais beaucoup sur de petites distances, ce qui suppose que les forces agissant sur la région sont faibles. Au voisinage de l'équilibre thermodynamique, un système évolue donc toujours dans le sens qui fait croître son entropie, sa désorganisation ; le temps a donc un sens unique d'écoulement, une « flèche » du présent vers le futur qui est peut-être due à ce que l'expansion à sens unique de l'Univers se manifeste en tous ses points. Par contre, un système globalement loin de l'équilibre peut comporter des zones proches de l'équilibre auxquelles le deuxième principe de la thermodynamique s'applique. L'évolution d'un système en déséquilibre global peut faire passer l'état d'une de ses régions d'une situation de déséquilibre (par exemple chaotique ou turbulent) à une situation d'équilibre, ou inversement ; les états stables correspondent à des minima locaux d'énergie, certains en équilibre et d'autres en déséquilibre [289]. Contrairement à ce que croient beaucoup de gens, la thermodynamique n'exclut pas l'évolution du désordre vers l'ordre en certaines régions d'un système loin de l'équilibre. Complément : lien entre variation d'entropie et échange d'information [366]. 1.6.2.4 Etre vivant et thermodynamique Comme tout système matériel, un être vivant dans son milieu environnant est soumis à la loi thermodynamique de l'entropie croissante : lorsqu'il mange et transforme des aliments en sa substance vivante, cette transformation augmente l'entropie du système global être vivant + nourriture + environnement. Lorsque les états microscopiques sont équiprobables pour chaque état global d'un système macroscopique qui évolue, le deuxième principe de la thermodynamique affirme que l'état final le plus probable de l'évolution du système macroscopique global est l'état d'équilibre correspondant au maximum de l'entropie, c'est-à-dire au maximum de désordre. 1.6.2.5 L'objection thermodynamique des idéalistes et la réponse de Prigogine La vie est caractérisée par deux sortes d'ordre, par opposition au désordre du hasard : L'ordre architectural, respecté lorsque le code génétique détermine un arrangement précis des molécules, tel que celui qui permet la spécialisation des enzymes ; L'ordre fonctionnel, respecté lorsque le métabolisme des cellules coordonne des milliers de réactions chimiques. Pour les idéalistes, cette exigence d'ordre semble incompatible avec le deuxième principe de la thermodynamique, qui affirme que l'état final d'évolution le plus probable d'un système isolé est l'état d'équilibre désordonné correspondant au maximum 37 d'entropie. Ils pensent que « si le matérialisme avait raison, la matière inerte et désorganisée des aliments se transformerait en être vivant complexe, hautement organisé, ce qui contredit le deuxième principe ». Enoncée de cette manière, l'objection ne tient pas : la nourriture inerte ne se transforme pas toute seule en être vivant complexe, elle le fait dans le cadre d'un système être vivant + nourriture + environnement ; la complexité qui se crée dans l'être vivant (par exemple lorsqu'un bébé qui grandit devient enfant) est accompagnée de désorganisation dans son environnement, l'entropie de l'ensemble augmentant bien. L'évolution des espèces selon la théorie de Prigogine – Attracteurs étranges Mais pour aller au fond des choses, le matérialisme doit expliquer comment, sans intervention divine ou extérieure, de la matière inerte peu organisée peut se transformer en matière vivante très organisée ; en particulier, comment cela s'est-il produit lors de l'apparition de la vie dans l'Univers ? Une explication a été apportée par le chimiste belge Prigogine, prix Nobel de chimie 1977 pour ses contributions à la thermodynamique des processus irréversibles basées sur la théorie du chaos. Selon lui, les structures biologiques sont des états particuliers de non-équilibre. Elles nécessitent une dissipation constante d'énergie et de matière, d'où leur nom de « structures dissipatives » (définition). "C'est, écrit Prigogine, par une succession d'instabilités que la vie est apparue. C'est la nécessité, c'est-à-dire la constitution physicochimique du système et les contraintes que le milieu lui impose, qui détermine le seuil d'instabilité du système. Et c'est le hasard qui décide quelle fluctuation sera amplifiée après que le système a atteint ce seuil et vers quelle structure, quel type de fonctionnement il se dirige parmi tous ceux que rendent possibles les contraintes imposées par le milieu." [M7] Au voisinage de l'équilibre du système dissipatif, qui se transforme en ayant des échanges de travail, de chaleur et de matière avec l'extérieur, les fluctuations disparaissent dès leur apparition : c'est la stabilité qui correspond à l'équilibre. Dans la région non linéaire, en revanche, loin de l'équilibre, certaines fluctuations peuvent s'amplifier à proximité d'un premier état critique, perturber l'état macroscopique et le déstabiliser. Le système bifurque alors vers un nouvel état stable, qui peut être plus structuré que le précédent, d'où croissance de la complexité ; l'état précédent, devenu instable, peut alors être éliminé. Le nouvel état stable est appelé « attracteur étrange » en théorie du chaos. Prigogine montre aussi que des perturbations extérieures au système peuvent avoir le même effet, toujours sans contredire le deuxième principe de la thermodynamique. Il peut donc y avoir auto-organisation de la matière loin de l'équilibre sans intervention miraculeuse. Le rôle du hasard dans l'apparition de la vie est très restreint : il se réduit à un choix entre diverses possibilités d'évolution. Pour plus de détails, voir : "Décroissance de l'entropie. Structures dissipatives. Auto-organisation" ; "Vie, organisation, complexité et entropie" ; Compléments sur la complexité et les attracteurs : [369] 38 Conclusion En opposant le deuxième principe de la thermodynamique à l'explication matérialiste d'apparition et d'évolution de la vie, certains idéalistes contredisent des faits scientifiques établis. 1.6.3 Agnosticisme et athéisme La position de Kant sur l'existence physique d'un Dieu créateur est un agnosticisme : pour lui, une telle affirmation est indémontrable dans le cadre de la logique et l'existence de Dieu est un postulat, comme l'immortalité de l'âme et le libre arbitre de l'homme. Ces postulats sont à la fois indémontrables et (pour un croyant) indispensables au devoir de respect des règles morales. Pour un athée, une bonne action n'est pas nécessairement récompensée et une mauvaise action n'est pas nécessairement punie. Il n'y a donc pas de raison logique de respecter les règles morales. C'est à la société de promulguer, enseigner puis faire respecter des lois, bien qu'une loi soit souvent incapable de remplacer une règle morale. Pour un croyant, toutes les actions, bonnes ou mauvaises, sont tôt ou tard récompensées ou punies par Dieu. Il est donc indispensable de postuler Son existence pour justifier logiquement l'obligation de chacun de faire son devoir. 1.6.3.1 Le malheureux pari de Pascal Pascal a admis qu'on ne pouvait démontrer l'existence de Dieu comme on démontrait un théorème de géométrie. Il propose aux incroyants (contre l'absence de foi de qui il militait), un pari qui consiste à dire que, puisqu'on ne peut prouver que Dieu existe, il est sage de parier que c'est le cas : si on perd son pari parce que Dieu n'existe pas, on ne perd que le temps et les efforts d'une courte vie terrestre, alors que si Dieu existe on gagne la félicité éternelle au Paradis ; le bénéfice potentiel étant infini alors que la perte potentielle est finie, il faut, selon Pascal, parier sur l'existence de Dieu. Il est clair que ce raisonnement est faible. D'abord il remplace la recherche de la vérité (Dieu existe-t-il ?) par celle de l'intérêt personnel, ce qui est suspect et incite à soupçonner que cette vérité est fausse, peu probable ou impossible à démontrer. Ensuite, rien ne prouve qu'il n'y ait que deux possibilités, l'existence de Dieu avec un Paradis, un Purgatoire et un Enfer, ainsi que les commandements chrétiens et la vie éternelle ; et la non-existence : si Dieu et la vie après la mort étaient autrement que l'Eglise les imagine, on aurait peut-être parié à tort en omettant d'autres choix. Et si les probabilités étaient autres (par exemple 99 chances sur 100 d'aller au Paradis même si on a beaucoup péché, parce que Dieu pardonne), l'effort de vivre en respectant les règles morales serait-il toujours justifié ? A mon avis, le pari de Pascal est le genre de raisonnement qui passe bien auprès d'un auditoire pendant le discours d'un orateur habile, parce qu'il a l'air correct et que l'orateur est sympathique, mais pas un raisonnement qu'on peut soutenir par écrit pour des gens qui réfléchissent. 39 1.6.3.2 Athéisme, positivisme et altruisme Le choix d'être athée est aussi justifié - ou peu justifié - que celui d'être croyant. Les philosophes positivistes ont cru que la connaissance scientifique (démontrable ou justifiable par l'expérience) pouvait et devait remplacer la foi révélée en Dieu. Ils ont donc accusé les croyants d'avoir inventé, dans leur religion, un mythe basé sur une illusion destinée à consoler les malheureux, à leur laisser espérer qu'après leur mort ils obtiendront bonheur et justice. Athée, Freud disait que la religion procède toujours d'une illusion, provenant du désir infantile de protection et de consolation. En fait, que l'on soit croyant ou non, chacun doit adopter, à l'échelle individuelle comme à l'échelle sociétale, une morale, c'est-à-dire des règles de comportement permettant une vie en société harmonieuse. Le problème est alors de définir et justifier des règles où l'égoïsme de l'individu passe après l'intérêt de la société. Avec la religion, ce problème est résolu et les règles sont clairement enseignées, avec menace d'aller en Enfer si on les enfreint et promesse de Paradis après une vie vertueuse : la carotte et le bâton. Sans religion, Kant a montré que la raison ne pouvait pas justifier l'altruisme et l'universalité [D5] (pourquoi sacrifier mon intérêt personnel à celui d'autrui ou de la société, en l'absence de crainte de punition divine ou d'espoir de récompense dans l'au-delà ?). Kant a donc proposé, aux croyants comme aux athées, un axiome de valeur suprême remplaçant la vérité révélée : le devoir. Un homme doit faire son devoir, donc être vertueux, parce que c'est son devoir, que c'est la seule manière d'avoir une conduite méritante. En fait, il doit incorporer à son inconscient [353] les règles morales si parfaitement qu'il puisse se passer de la peur du châtiment divin ou du gendarme, et de tout espoir de récompense ; sa raison d'être vertueux doit être le sens du devoir qu'il a en lui-même, et être acquise peu à peu par éducation et imitation des hommes sages. Nous verrons dans la 3e partie de cet ouvrage que la confiance de Kant dans le pouvoir de la raison d'imposer à un homme de faire son devoir est un vœu pieux. Comme Freud l'a montré, ce n'est pas le cas : tout homme a un ensemble ordonné de valeurs, et si son désir d'être vertueux et de faire son devoir est moins fort qu'un autre désir, il ne peut vouloir faire son devoir, il s'efforcera de satisfaire son désir le plus fort. 1.6.3.3 Existe, n'existe pas ou existe autrement ? Dans ce qui précède nous n'avons envisagé que deux hypothèses : « Dieu existe » et « Dieu n'existe pas ». Pourquoi n'y en aurait-il pas une troisième, « Dieu existe autrement ? » Plus précisément, pouvons-nous répondre à la question suivante : « Y a-t-il quelque chose d'externe à notre Univers (c'est-à-dire de transcendant) qui puisse influer sur ce qui s'y passe ? » Cette dernière question peut être reformulée en faisant intervenir le déterminisme : « Y a-t-il des phénomènes de notre Univers qui n'obéissent pas au déterminisme, et dont les causes sont entièrement internes à notre Univers ? ». Un cas particulier de ce problème est particulièrement important par ses implications morales : « Un homme est-il libre de décider ce qu'il veut, cette liberté impliquant la 40 possibilité d'échapper au moins en partie au déterminisme, ou toutes ses décisions sont-elles déterminées par des causes internes à notre Univers ? » Ces points sont abordés dans la 3e partie de cet ouvrage. 1.7 Conclusions sur les preuves logiques de l'existence de Dieu A ma connaissance, aucun philosophe à ce jour n'a réussi à invalider ou même à perfectionner substantiellement les conclusions de Kant. Croire en Dieu reste donc une possibilité pour les hommes qui veulent une justification religieuse du devoir d'une conduite morale, mais en tant que postulat personnel. Et pour ce qui est d'expliquer par l'existence de Dieu la création et le fonctionnement du monde physique, ainsi que de lui donner une finalité, c'est indémontrable et ne peut résulter que d'un choix personnel purement arbitraire, par exemple dans le cadre d'une des religions qui apportent une réponse. Cet ouvrage-ci soutient qu'on peut se passer de croire en Dieu et en son intervention pour expliquer le monde et la vie, notamment celle de l'homme, intelligent et libre. Et il laisse soupçonner que Dieu a été inventé par l'homme pour répondre à des besoins psychologiques comme donner un sens à sa vie et au monde, répondre aux problèmes du salut et du besoin de justice, etc. Le livre [5], publié en septembre 2006 par le philosophe français André ComteSponville, montre avec un texte clair et facile à lire qu'on peut se passer de religion et trouver une morale et une spiritualité sans Dieu, sans religion révélée, sans Eglise. Le court texte de J-P Sartre "L'existentialisme est un humanisme" [15] apporte un point de vue intéressant sur l'existence de Dieu et la liberté de l'homme. Pour un débat plus large, voir la 2ème partie de cet ouvrage-ci. 1.8 Références [D1] "Tu n'auras pas d'autres dieux devant ma face" et autres interdictions concernant d'autres dieux dans la Bible http://www.onlinebible.org/html/fre/ : Exode 20-3, 22-20, 23-13 ; Deutéronome 5-7, 6-14, 7-4, 8-19, 11-16 ; Josué 23-16, etc. [D2] Emmanuel Kant – "Critique de la raison pure" (traduction Alain Renaut Flammarion, 3e édition, 2006 - 749 pages, avec des notes très utiles) [D3] "Les voies du Seigneur sont impénétrables" : Descartes - "Méditations métaphysiques" (1641) http://abu.cnam.fr/cgibin/donner_html?medit3 "…il ne me semble pas que je puisse sans témérité rechercher et entreprendre de découvrir les fins impénétrables de Dieu." Bible Louis Segond http://www.onlinebible.org/html/fre/ : Psaumes chapitre 139, verset 17 : "Que tes pensées, ô Dieu, me semblent impénétrables ! Que le nombre en est grand !" 41 [D4] The New York Times, citant le Cardinal Schönborn : "Leading Cardinal Redefines Church's View on Evolution" (09/07/2005) http://select.nytimes.com/search/restricted/article?res=FB0D13FE3E590C7A8CDDA E0894DD404482 Citations : "The cardinal, Christoph Schönborn, archbishop of Vienna, a theologian who is close to Pope Benedict XVI, staked out his position in an Op-Ed article in The New York Times on Thursday, writing, 'Evolution in the sense of common ancestry might be true, but evolution in the neo-Darwinian sense -- an unguided, unplanned process of random variation and natural selection -- is not.' '' "In his essay, Cardinal Schönborn asserted that he was not trying to break new ground but to correct the idea, 'often invoked,' that the church accepts or at least acquiesces to the theory of evolution." [D5] Définitions des qualités d'altruisme et d'universalité utilisées dans ce texte : Altruisme : désintéressement, abnégation, générosité, faire passer l'intérêt de l'autre avant le mien ; Universalité : ensemble des hommes, société tout entière, faire passer l'intérêt général avant le mien. [D6] "Valeurs perdues, bonheur perdu : pourquoi notre société déprime - Sociologie de la sinistrose française" http://www.danielmartin.eu/Cours/Sinistrose.pdf [D7] Position officielle du pape Benoît XVI sur le créationnisme et l'évolutionnisme http://www.vatican.va/holy_father/benedict_xvi/speeches/2007/july/documents/hf_be n-xvi_spe_20070724_clero-cadore_fr.html Extrait de la réponse de Benoît XVI à une question posée le 24/07/2007 : "Je vois actuellement en Allemagne, mais aussi aux Etats-Unis, un débat assez vif entre ce qu'on appelle le créationnisme et l'évolutionnisme, présentés comme s'ils étaient des alternatives qui s'excluent : celui qui croit dans le Créateur ne pourrait pas penser à l'évolution et celui qui en revanche affirme l'évolution devrait exclure Dieu. Cette opposition est une absurdité parce que, d'un côté, il existe de nombreuses preuves scientifiques en faveur d'une évolution qui apparaît comme une réalité que nous devons voir et qui enrichit notre connaissance de la vie et de l'être comme tel. Mais la doctrine de l'évolution ne répond pas à toutes les questions et surtout, elle ne répond pas à la grande question philosophique : d'où vient toute chose ? et comment le tout s'engage-t-il sur un chemin qui arrive finalement à l'homme ? Il me semble très important et c'est également cela que je voulais dire à Ratisbonne dans ma Conférence, que la raison s'ouvre davantage, qu'elle considère bien sûr ces éléments, mais qu'elle voit également qu'ils ne sont pas suffisants pour expliquer toute la réalité. Cela n'est pas suffisant, notre raison est plus ample et on peut voir également que notre raison n'est pas en fin de compte quelque chose d'irrationnel, un produit de l'irrationalité, mais que la raison précède toute chose, la raison créatrice, et que nous sommes réellement le reflet de la raison créatrice. Nous sommes pensés et voulus et, donc, il existe une idée qui me précède, un sens 42 qui me précède et que je dois découvrir, suivre et qui donne en fin de compte un sens à ma vie." La position du pape, qui admet l'évolution, contredit sur ce point celle du cardinal Schönborn [D4]. [D8] Rapport à l'Assemblée parlementaire du Conseil de l'Europe : "Les dangers du créationnisme dans l’éducation" (17 septembre 2007) http://assembly.coe.int/ASP/Doc/XrefViewHTML.asp?FileID=11751&Language=fr [D9] Citation de Luc Ferry issue de [7], pages 137 à 143 : "un être fini qui tente de penser l'infini ne peut jamais échapper à la contradiction, mais il peut seulement choisir de situer cette contradiction dans le fait de nier son propre point de vue (alors, suivant la logique du concept, il obtiendra un concept non contradictoire mais irreprésentable), ou dans le fait de déformer, par son point de vue, le concept qu'il tente de penser (alors, suivant la logique du schème, le concept deviendra représentable mais contradictoire)." [D10] Réflexion consciente pour trouver un sens Voir le paragraphe au titre ci-dessus dans « Besoin de sens et raisonnements faux » http://www.danielmartin.eu/Philo/BesoinDeSens.pdf . 43 Deuxième partie 2. Matérialisme et idéalisme "L'homme n'est qu'un roseau, le plus faible de la nature, mais c'est un roseau pensant. […] Toute notre dignité consiste donc en la pensée. C'est de là qu'il nous faut relever et non de l'espace et de la durée, que nous ne saurions remplir. Travaillons donc à bien penser voilà le principe de la morale." Blaise Pascal - Pensées [66] 2.1 Matérialisme et idéalisme : définitions Matérialisme et idéalisme sont deux doctrines philosophiques opposées. 2.1.1 Définition succincte du matérialisme La doctrine matérialiste postule que toute réalité - qu'il s'agisse d'objets ou d'êtres vivants – est faite de matière et a pour cause des processus physiques. En particulier, l'esprit humain est lui-même une manifestation de l'activité de ses neurones, activité dont il est la conséquence et sans laquelle il n'existe pas [339]. Nous verrons, en définissant le déterminisme étendu, que tout phénomène de la nature obéit à des lois physiques, et que toutes les lois physiques respectent le déterminisme étendu. Postuler le matérialisme oblige donc à postuler le déterminisme, et nous verrons que postuler le déterminisme étendu oblige à postuler le matérialisme. 44 2.1.2 Définition succincte de l'idéalisme L'idéalisme est une doctrine philosophique qui affirme que tout objet de l'Univers est réductible à une idée, c'est-à-dire à une abstraction. Cette doctrine s'oppose au matérialisme. Pour un idéaliste nos représentations ne proviennent pas de la réalité physique : Soit parce qu'il affirme que toute réalité physique a pour cause une Idée, comme Platon ; Soit parce qu'il nie l'existence de cette réalité (il est immatérialiste) ; Soit parce qu'il affirme, comme Kant, que la représentation étant la seule manière dont notre esprit dispose pour accéder à la réalité physique elle se confond avec cette réalité. La doctrine idéaliste postule l'existence d'une réalité immatérielle, donc non perceptible pour les sens de l'homme ou ses instruments de mesure. Cette réalité immatérielle est décrite par les concepts d'Idée, d'essence, de divinité et d'âme, et la réalité matérielle en découle : le monde a été créé par Dieu, c'est un résultat de Sa volonté (téléologie) ; Dieu a aussi défini et créé l'essence de chaque homme (sa définition abstraite), dont son corps matériel n'est qu'une copie car l'essence de tout objet réel précède l'existence de celui-ci [D7]. Plus généralement, pour un idéaliste tous les objets réels sont des copies d'Idées transcendantes, l'Idée étant la seule réalité objet de la connaissance. Les vérités mathématiques, même si ce sont de pures abstractions comme la théorie des ensembles ou l'arithmétique, sont absolues, éternelles et objectives, bref universelles ; elles seraient tenues pour vraies même par les habitants d'un autre système solaire. Pour plus de détails, voir le paragraphe sur les platoniciens. 2.1.3 Ce qui oppose matérialistes et idéalistes Réalisme et idéalisme Du temps des anciens Grecs comme aujourd'hui, les philosophes se sont opposés sur la question de savoir ce qui est réel. Certains philosophes, les matérialistes, considèrent que les objets matériels existent vraiment, que la réalité objective existe aussi et qu'elle est perceptible par nos sens : « Je vois une table, donc elle existe et elle existe objectivement aussi pour mon voisin. » Descartes, se demandant s'il existait bien, a fini par conclure : « Je pense, donc je suis [c'est-à-dire j'existe] ». (Détails : voir [372]) Postulat de réalité Le matérialisme postule que la réalité (l'Univers physique) existe indépendamment de l'homme qui se la représente mentalement, bien que l'esprit d'un homme soit incapable de distinguer entre la réalité et sa représentation (voir citation de Kant). Ce postulat d'indépendance entre la réalité et ses représentations mentales est connu sous les noms de « postulat de réalité », « postulat de réalisme » ou « postulat de réalisme métaphysique ». Le postulat opposé au réalisme est l'idéalisme, qui n'admet pas que la réalité externe soit la cause de nos représentations : 45 Soit parce que la réalité matérielle n'existe pas, car seul existe réellement l'esprit qui la perçoit (postulat d'immatérialisme de Berkeley et Nietzsche) ; Soit parce que toute réalité externe est une représentation d'une conscience ou d'un sujet pensant ; Soit parce qu'il confond et désigne d'un même mot, comme Platon, l'existence et l'essence (chose en soi abstraite, ensemble de propriétés qui sont des Idées) : l'homme ne voit que la projection de la réalité sur le mur de la caverne. Dans le langage courant, un matérialiste est une personne qui s'attache essentiellement aux valeurs, aux biens et aux plaisirs matériels. Nous n'utiliserons pas ce sens du mot dans la suite du texte, où le mot matérialisme ne nous intéressera que dans son sens philosophique : principe métaphysique [371] affirmant que « tout est matière ou issu de la matière ». Les philosophes non matérialistes, appelés spiritualistes ou idéalistes, considèrent qu'il existe un principe spirituel, l'âme, distinct et indépendant du corps de l'homme, et que l'esprit est « supérieur » à la matière. (Je n'ai jamais vu d'énoncé clair et convaincant des supériorités de l'esprit sur la matière.) Les idéalistes pensent que les concepts et opérations intellectuelles de l'homme ne peuvent s'expliquer par les seuls phénomènes physiologiques : penser implique nécessairement une transcendance (voir aussi [339]). Ils pensent aussi qu'il y a dans l'homme deux types de besoins différents : les besoins physiologiques (manger, dormir...) les désirs proprement humains (être apprécié…) Pour un idéaliste comme Descartes l'homme a deux dimensions : l'âme et le corps, l'âme étant supérieure au corps (toujours sans définition précise de l'âme et sans qu'on sache clairement en quoi réside cette supériorité) (Voir [372]). A partir de la description de l'idéalisme qui précède, une première remarque s'impose à un esprit soucieux de rigueur : les concepts de base de l'idéalisme ("principe spirituel", "esprit", "âme", "impossibilité de réduire l'esprit de l'homme à une émanation de son corps", "supériorité"…) sont vagues ; il n'en existe aucune définition précise et leur compréhension fait appel à l'imagination irrationnelle. Pour une description plus complète de la doctrine idéaliste de Platon voir [343]. Résumé Alors que le matérialisme affirme que l'esprit d'un homme et ses idées sont conséquences du fonctionnement physiologique de son corps, sans lequel ils ne peuvent exister, l'idéalisme affirme que la matière n'est qu'une émanation de l'esprit, seule réalité ultime. Exemple de philosophe idéaliste : Platon Depuis le philosophe grec Platon, l'homme sait qu'il est trompé par ses sens, et que ce qu'il voit n'est qu'un reflet de la réalité, reflet construit par son esprit lorsque celuici se représente cette réalité. L'homme est aussi victime de ses idées préconçues, de ses erreurs. 46 Mythe de la caverne Platon a décrit l'illusion de la vision (représentation) humaine dans un texte célèbre, "l'allégorie de la caverne", appelé aussi "mythe de la caverne" [M1]. Ce texte affirme que l'homme prend souvent l'image construite par son esprit (la représentation qu'il croit voir ou même qu'il a envie de voir) pour la réalité. Platon en a déduit qu'il ne faut pas chercher à connaître la réalité matérielle, qui restera toujours cachée ou déformée par nos sens et le processus de représentation de notre esprit. Il affirme qu'il existe une organisation et une harmonie du monde qui précèdent toute matière : Platon était donc idéaliste (voir aussi l'exemple chrétien de l'idéalisme [D7]). En somme pour Platon, et depuis son époque pour tous les idéalistes, l'Idée (l'essence, le plan, les propriétés) d'une chose matérielle existe toujours avant cette chose, qui n'en est qu'une copie. L'homme accède à cette réalité spirituelle uniquement au moyen de son imagination, qui lui en fournit une « connaissance immédiate ». Pour Platon, cette réalité de l'essence est objective, elle existe indépendamment de l'homme (comme, par exemple, les nombres entiers), et c'est la seule réalité, la réalité physique étant inaccessible. L'Idée est donc aussi la réalité ultime, celle à laquelle on parvient en analysant la réalité perçue : la table est faite de bois, le bois est fait d'atomes (les Grecs Empédocle, Leucippe, Démocrite, Épicure… concevaient intuitivement l'atome, plus petite partie d'un objet parce qu'elle est indivisible) et cet atome matériel (avec ses propriétés) dérive de l'Idée d'atome, réalité ultime. Idéalisme et réalité des Idées L'idéalisme philosophique postule que la réalité a pour base des Idées, et l'idéalisme épistémologique postule que notre esprit ne peut appréhender que ses propres idées, donc que pour un homme l'existence des objets est conditionnée par celle de ces idées. (Pour plus de détails, voir le paragraphe sur les platoniciens.) Matérialisme et existence objective Le matérialisme, au contraire, définit la matière comme tout ce qui existe ; et cette existence est indépendante de l'esprit de l'homme, où elle n'est que notre perception de phénomènes physiques cérébraux. L'opposé de matérialisme est donc idéalisme. Nous allons voir que ces deux doctrines s'excluent mutuellement. 2.1.4 Qu'est-ce qui précède l'autre : l'esprit ou la matière ? Pour un matérialiste, la matière précède la pensée - qui en est une conséquence [339], et l'esprit - qui est le cadre où s'organise la pensée. L'homme a existé avant d'inventer les notions d'esprit et de divinité, concepts formés dans sa pensée, dont le siège est le cerveau. Et à sa mort, sa pensée cesse d'exister. Pour un idéaliste, l'esprit a existé en premier et a créé la matière. En particulier, l'homme matériel et spirituel a été créé par un esprit, une idée ou Dieu [D7]. Et à la mort de son corps il n'y a pas de raison que son esprit ou son âme meurent ; au contraire, son esprit peut avoir une vie après la vie et son âme est immortelle. Il est clair que ces deux conceptions s'excluent mutuellement. Pour un matérialiste « l'existence précède l'essence », comme disait Sartre dans [15] à propos de l'homme, qui s'invente lui-même après sa naissance en exerçant son libre arbitre ; l'essence ne précède l'existence que lorsque l'homme fait un plan d'un objet avant de le fabriquer. 47 Pour un idéaliste comme le pape Benoît XVI, c'est le contraire : l'essence précède l'existence. Un matérialiste cohérent est athée, alors qu'un idéaliste croit en Dieu ou en un Esprit créateur du monde et de l'homme. 2.2 Matérialisme et idéalisme ne peuvent être ni démontrés ni infirmés Il existe en philosophie un principe de causalité, posé a priori comme tous les principes (et discuté plus bas), qui affirme (en simplifiant) que : Tout effet possède une cause et son apparition a une explication ; Tout ce qui existe a une raison d'être et ne peut exister sans avoir été créé. Si on admet ce principe de causalité, il est impossible de démontrer qu'un phénomène constaté : N'est pas dû à une cause matérielle, sa cause étant surnaturelle ou transcendante ; car ce n'est pas parce qu'on ne connaît pas une cause physique qu'elle n'existe pas. Est dû à une cause matérielle, car il pourrait être dû - au moins en partie - à une cause surnaturelle ou transcendante, dont on ne peut prouver la non-intervention qu'en postulant la validité universelle de nos lois de la nature. N'est pas dû à une cause surnaturelle ou transcendante, car la non-intervention d'une telle cause ne peut jamais être prouvée, l'universalité des lois de la nature n'étant pas démontrée mais postulée. Est dû à une cause surnaturelle ou transcendante, car le phénomène pourrait être dû à une cause matérielle inconnue. On peut donc qualifier aussi bien le matérialisme que l'idéalisme de doctrines non falsifiables (dont on ne peut démontrer la fausseté) [203]. On peut aussi qualifier des propositions comme « être matérialiste est cohérent » ou « être idéaliste est cohérent » d'indécidables (dont on ne peut prouver ni la véracité ni la fausseté) [6]. Le matérialisme et l'idéalisme sont des doctrines philosophiques qui s'excluent mutuellement et entre lesquelles chacun doit choisir. Dans le reste de ce livre nous postulerons donc exclusivement le matérialisme. 2.3 La critique nietzschéenne Le philosophe Nietzsche a dénoncé le refus de l'homme d'accepter la réalité quand elle dérange ses préjugés ; Freud en a fait de même un peu plus tard. Quand ils trouvent la vie dénuée de sens, cruelle ou indifférente et sans perspective d'amélioration et de bonheur pour eux, certains hommes ont recours à une religion révélée. Pour Nietzsche, Dieu est une invention humaine (ce que Kant admet et recommande, voir 1ère partie) par refus de la réalité, une « idole » créée par les hommes pour apporter artificiellement du sens, de la perfection et 48 de la justice dans un monde qui n'en a pas parce qu'il est indifférent à nos valeurs ; croire en l'idole Dieu est puéril, dérisoire ; c'est une fuite devant la réalité. Nietzsche déplore que les croyants refusent la réalité et son absence de sens. Par extension, Nietzsche considère comme un refus puéril de la réalité l'idéalisme des philosophes des Lumières [47] comme Kant ou celui de Rousseau, philosophes qui espéraient que la Raison et la Science apporteraient aux hommes la connaissance, le bonheur et la fin des tyrannies. Croire en un tel idéal, pour Nietzsche, c'est aussi fabriquer des idoles et y croire, car pour lui le monde n'a aucun sens, c'est un chaos que l'homme ne comprendra et ne maîtrisera jamais. Nietzsche considère aussi comme utopique un idéal matérialiste comme celui de Karl Marx, qui remplaçait la foi des croyants dans le salut (la rédemption) par un bonheur ici-bas, après avoir transformé la société bourgeoise capitaliste en société communiste par révolution prolétarienne. Pour Nietzsche, l'idéal matérialiste est aussi puéril que l'idéal religieux, c'est aussi une idole créée de toutes pièces pour être adorée, consoler et donner un espoir. Nietzsche critique donc la foi des philosophes des Lumières ou du communisme dans des idéaux et des valeurs qu'il considère comme chimériques : Les Droits de l'homme, la Science, la Raison, la Démocratie, le Socialisme, l'égalité des chances, etc. Il accuse ces philosophes d'être en fait des croyants, qui ont simplement remplacé la foi religieuse par de nouveaux dieux qu'il baptise « idoles », et qui cherchent toujours à inventer un monde idéal meilleur que le vrai. Les valeurs transcendantes (abstraites, absolues, supérieures et extérieures à la vie de notre Univers). Nietzsche accuse ces philosophes de chercher - au lieu d'aider l'humanité - à juger et condamner la vie elle-même, au lieu de l'assumer. Il les accuse aussi de nier la vraie réalité au nom de fausses réalités. Son accusation repose sur l'idée, 100 % matérialiste, qu'il n'existe pas de transcendance, que tout jugement est un symptôme et une émanation de la vie qui fait partie de la vie elle-même, et ne peut se situer hors d'elle. Nietzsche condamne donc l'idéalisme sous toutes ses formes en tant que nihilisme, refus puéril de la réalité et espoir d'un monde meilleur futur. Mais Nietzsche n'en est pas resté à cette philosophie pessimiste, cette déconstruction des philosophies idéalistes, pour en montrer le caractère vain et puéril. Il a proposé d'accepter le présent, même si on ne le comprend pas, si on n'en voit pas la finalité et s'il n'apporte pas d'espoir. Pour lui, le triomphe de la raison consiste précisément à accepter ce qui est, dans l'instant présent, sans en chercher le sens profond, sans nostalgie du passé (qui ne reviendra pas) ou espoir d'un futur meilleur (qui n'est pas encore là), c'est-à-dire en se passant de ces non-réalités. La sagesse consiste même à connaître et aimer cette réalité présente et le destin, attitude que Nietzsche appelle « le gai savoir ». (Voir dans [48] la célèbre citation "Dieu est mort !", et d'autres détails sur la philosophie de Nietzsche et les philosophes postmodernes : [190]) 49 Je constate que cette acceptation d'une réalité, qui nous dérange parce qu'elle est nihiliste, ne console pas du passé et ne promet rien pour l'avenir, est conforme au déterminisme que je présente et défends dans ce texte. Tout en l'approuvant, je propose cependant de la dépasser. Voici comment. Idoles, non ; idéaux, oui Les idoles que Nietzsche dénonce sont des illusions substituées à la réalité ; et tout jugement de valeur, toute décision d'action basée sur des idoles risque fort d'être une erreur. Mais pour peu qu'il ait un minimum d'imagination, un homme ne peut s'empêcher d'avoir des idéaux, nous le verrons plus bas ; les idéaux humains sont-ils donc tous de telles idoles, des illusions imaginées pour être adorées ? Il peut s'agir d'idéaux personnels, comme ceux d'artistes qui rêvent de toujours plus de beauté et plus de perfection, ou comme ceux de sportifs qui rêvent de toujours plus se surpasser. Il peut aussi s'agir d'idéaux altruistes, comme ceux des volontaires de Médecins sans frontières (http://www.paris.msf.org/) ou ceux de Mère Teresa de Calcutta, Prix Nobel. Il peut s'agir de l'idéal de Charles de Gaulle, au service d'une certaine idée de la France, ou de Martin Luther King pour les droits civiques. Dans tous les cas, l'homme qui a un tel idéal est prêt à se dépasser pour le réaliser, à risquer sa carrière, sa santé, voire sa vie. Dans cet idéal, issu de la vie quotidienne et tendu vers un objectif bien terrestre, le dépassement de soi est une transcendance, une vocation qui ignore ou même méprise les objections de la raison. De tels idéaux suscitent notre approbation, voire notre admiration. A la différence des idoles que dénonce Nietzsche, ils ne nient pas la réalité mais travaillent à l'améliorer. En quoi un athlète qui refuse la réalité de ses performances actuelles et s'entraîne pour les dépasser se fait-il nécessairement des illusions ? En quoi le rêve de Charles de Gaulle pour la France était-t-il utopique et l'idéal communiste de Marx une idole ? Un progrès majeur paraît souvent inaccessible tant qu'il n'a pas été réalisé. Quand Einstein, ingénieur inconnu de 26 ans, s'est attaqué aux bases mêmes de la physique en refusant les contradictions du principe newtonien d'espace et de temps absolus, qu'il a osé remplacer par la Relativité [49], il ne créait pas une idole, il en détruisait une, l'hypothèse a priori de vérité absolue de Newton. En tant que concept, une idole a un caractère a priori : c'est alors une vérité de substitution admise sans démonstration. Elle peut se révéler fausse s'il en résulte une contradiction ou une prévision erronée. Mais l'existence de Dieu ne peut pas être démontrée : Nietzsche a donc qualifié la religion d'idole en montrant à quel point ses révélations exigent une croyance sans démonstration, une foi basée sur l'imagination ou sur la fuite devant la réalité, donc à quel point la religion était suspecte. Ses accusations sont soutenables, mais ce ne sont pas des preuves ; la qualification d'idole est souvent un jugement sans preuve. Si l'idole est un espoir, celui-ci a un caractère utopique en supposant possible quelque chose qui ne l'est pas. Le communisme de Marx était - et demeure encore de nos jours - une utopie parce qu'il supposait l'existence future d'hommes bien meilleurs qu'ils n'ont jamais été. Le monde sans concurrence ni profit privé et l'entraide internationale 50 des altermondialistes sont pour le moment des utopies, à en juger par la difficulté des hommes à se mettre d'accord sur des enjeux bien plus modestes. Mais imaginons que les astronomes détectent un astéroïde de 60 km de longueur, pesant trois mille milliards de tonnes, qui percutera la Terre dans 10 ans à la vitesse de 8 km/s en risquant d'y détruire toute vie [199] ; il y a fort à parier, alors, que les hommes s'entendront pour travailler ensemble à un projet de détournement de cet astre errant : l'utopie d'une coopération internationale sera devenue réalité. Et que dire de la probabilité, beaucoup plus forte, que l'effet de serre s'emballe et devienne catastrophique avant le milieu du XXIe siècle ? L'utopie d'un accord international pour diminuer fortement les consommations de combustibles fossiles se transformera alors en nécessité qui s'impose à tous ! 2.4 Références [M1] Platon, "La République", livre VII (écrit vers l'an 400 avant J. C.) : l'allégorie de la caverne - http://www.cvm.qc.ca/encephi/CONTENU/TEXTES/REPUB7.HTM [M2] Karl Marx - "Contribution à la critique de la philosophie du droit de Hegel" (1843) - téléchargeable depuis http://marx.engels.free.fr/marx/txt/1843critiqueh.htm [M3] Kant : "Critique de la raison pure" (1781) Editions Flammarion, traite des limites de la raison et des connaissances ; contient la fameuse démonstration de l'impossibilité de prouver que Dieu existe ou qu'il n'existe pas. "Critique de la raison pratique" (1790) Editions Flammarion, traite de la loi morale. "Critique de la faculté de juger" (1788) Editions Flammarion, traite du jugement de goût et de la finalité téléologique. [M4] Physical Review Letters 77, 4887-4890 (1996) "Observing the Progressive Decoherence of the “Meter” in a Quantum Measurement" http://prola.aps.org/abstract/PRL/v77/i24/p4887_1 Extrait: "A mesoscopic superposition of quantum states involving radiation fields with classically distinct phases was created and its progressive decoherence observed. The experiment involved Rydberg atoms interacting one at a time with a few photon coherent field trapped in a high Q microwave cavity. The mesoscopic superposition was the equivalent of an “atom+measuring apparatus” system in which the “meter” was pointing simultaneously towards two different directions—a “Schrödinger cat.” The decoherence phenomenon transforming this superposition into a statistical mixture was observed while it unfolded, providing a direct insight into a process at the heart of quantum measurement." [M7] Citations d'Ilya Prigogine : Encyclopédie Universalis version 10, article "Hasard et nécessité" Voir aussi [26]. 51 52 Troisième partie 3. Le déterminisme étendu une contribution pour la pensée rationnelle "J'accepte de vivre dans le doute, l'incertitude et l'ignorance. Je pense qu'il vaut mieux vivre sans savoir qu'avoir des réponses qui peuvent être fausses. En restant dans l'incertitude tout en progressant, nous laissons la porte ouverte à des solutions nouvelles. Nous refusons de nous emballer pour l'information, la connaissance ou la vérité absolue du jour, pour rester dans l'incertitude. Pour progresser, il faut laisser entrouverte une porte sur l'inconnu." Richard Feynman - interview sur la BBC, 1981 [245] 3.1 Prédictions d'évolutions Avant d'agir, l'homme a besoin de comprendre la situation, ainsi que de prévoir son évolution et les conséquences d'une éventuelle action. Après le cas simple d'une situation où n'interviennent que des lois physiques de la nature, nous aborderons l'aptitude des raisonnements humains à prévoir. Le texte qui suit est repris de l'introduction ci-dessous, publiée séparément ; pour le sauter, cliquer ici. Hasard, chaos et déterminisme : les limites des prédictions Chacun de nous a des définitions du hasard, du chaos et du déterminisme. J'ai pris la liberté de modifier et compléter ces définitions par souci de rigueur et pour les rendre 53 cohérentes entre elles. Le but de ce texte est de bien cerner les limites de ce qu'on peut prédire lors d'une évolution. Compréhension, prévision et prédiction d'une évolution : comprendre une situation nécessite la connaissance du passé et de l'évolution depuis ce passé, pour situer l'état actuel par rapport à eux ; prévoir une évolution, c'est en construire une représentation mentale. Cela nécessite la connaissance des lois d'évolution qui s'appliquent à l'état actuel ; prédire une évolution ou une situation future, c'est décrire une prévision. Le principe dont l'application permet la compréhension d'une situation physique et la prévision de son évolution est le déterminisme, objet de ce livre. 3.1.1 Première définition du déterminisme Comme il y a plusieurs définitions du déterminisme parce qu'il y a plusieurs cas d'évolution, en voici un exposé succinct qui sera développé dans la suite de l'ouvrage. Le déterminisme est un principe métaphysique [371] selon lequel tout phénomène physique (fait objectif, observé, susceptible de se reproduire) a une cause et suit des lois d'évolution stables (telles que les mêmes causes produisent les mêmes effets, toujours et partout). On distingue : Le déterminisme philosophique, défini par Laplace en 1814, affirmant à tort qu'une connaissance parfaite du présent permet toujours de prévoir l'avenir et de reconstituer mentalement le passé qui y a conduit. Le déterminisme scientifique, affirmant que tout état d'un système physique déclenche nécessairement et immédiatement une évolution selon des lois physiques, stables, qui s'appliquent à cet état. Les évolutions successives produisent un état (valeurs des variables du système) fonction du temps. Le déterminisme statistique, affirmant que, dans certains cas, l'état à un instant t d'un système qui évolue est un élément choisi selon une probabilité statistique dans un ensemble prévisible. Exemples : (En première approximation) le résultat d'un lancer de dé est un nombre choisi avec une probabilité de 1/6 dans l'ensemble {1, 2, 3, 4, 5, 6}. En Mécanique quantique, l'état d'un système (position, vitesse…) est un élément d'un ensemble fini ou non de solutions de l'équation d'évolution de Schrödinger. Le déterminisme étendu, regroupant le déterminisme scientifique et le déterminisme statistique pour régir toutes les lois d'évolution de la nature inanimée. Le déterminisme n'entraîne pas toujours la prédictibilité Mais attention : la nature déterministe des lois d'évolution physique n'entraîne pas la prédictibilité par calcul de toutes les évolutions, bien qu'elle exclue le hasard (possibilité pour la nature de « faire n'importe quoi »). 54 3.1.2 Définition, promesses et critique du déterminisme philosophique L'expression déterminisme traditionnel désigne tantôt une doctrine philosophique, tantôt un principe scientifique. Ce texte étudie le déterminisme au sens : Des conséquences d'une cause ; Du déroulement du processus d'évolution qui fait passer un système d'un état de départ à un état d'arrivée au bout d'un certain temps ; De la possibilité de prévoir l'avenir ou de reconstituer le passé connaissant le présent. Définition et promesses du déterminisme philosophique La définition traditionnelle du déterminisme philosophique a été publiée par Laplace en 1814 dans l'Essai philosophique sur les probabilités [200], où on lit pages 3 et 4 : "Nous devons donc envisager l'état présent de l'Univers comme l'effet de son état antérieur et comme la cause de celui qui va suivre. Une intelligence qui pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'Univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l'avenir comme le passé, serait présent à ses yeux. L'esprit humain offre, dans la perfection qu'il a su donner à l'Astronomie, une faible esquisse de cette intelligence. Ses découvertes en Mécanique et en Géométrie, jointes à celle de la pesanteur universelle, l'ont mis à portée de comprendre dans les mêmes expressions analytiques les états passés et futurs du système du monde." Le déterminisme philosophique affirme donc : Que l'avenir est complètement déterminé par le présent ; Qu'il est complètement prévisible connaissant parfaitement le présent, c'est-àdire que l'Univers est régi par des lois physiques stables ; Qu'une connaissance parfaite de la situation présente permettrait de reconstituer en pensée tout le passé qui y a conduit ; Qu'il existe, pour la situation présente, une chaîne de causalité unique commençant infiniment loin dans le passé et se poursuivant infiniment loin dans l'avenir. Exemple de définition du déterminisme philosophique dans un dictionnaire : [264]. Le postulat de déterminisme philosophique a été construit par induction à partir de constatations d'évolution d'une situation à ses conséquences dans la vie courante, tout particulièrement en considérant les mouvements des planètes, prévisibles avec précision. En affirmant qu'il s'applique - et s'est toujours appliqué - à toutes les évolutions, on en fait un principe métaphysique [371] régissant les lois de l'Univers. 3.1.2.1 Le déterminisme philosophique est contredit par des faits Le déterminisme philosophique qui nous promet, connaissant le présent, la possibilité de prévoir tout l'avenir et de retrouver mentalement tout le passé, est contredit par de 55 nombreux phénomènes de la nature cités dans ce livre. Comme un seul contreexemple suffit pour contredire une affirmation qui ne peut être que vraie ou fausse, en voici un. Décomposition radioactive (fission nucléaire) - Demi-vie d'un élément Un échantillon d'uranium 238 voit ses atomes se décomposer spontanément, sans aucune cause autre que le temps qui passe ; un atome d'uranium se transforme alors en un atome d'hélium et un atome de thorium. Le nombre d'atomes qui se décomposent par unité de temps suit une loi connue : 50 % des atomes d'un échantillon de taille quelconque se décomposeront en un temps fixe T appelé « demivie de l'uranium 238 », puis la moitié du reste (c'est-à-dire ¼) dans le même temps T, puis la moitié du reste (1/8) dans le même temps T, etc. La décomposition radioactive naturelle, c'est-à-dire spontanée, s'explique par l'instabilité de l'énergie de liaison des neutrons et protons du noyau d'un atome radioactif. Ce phénomène est inexplicable dans le cadre de la physique macroscopique, mais il s'explique en Mécanique quantique sous le nom d'effet tunnel : l'énergie d'excitation d'un noyau, instable, peut parfois dépasser l'énergie potentielle appelée « barrière de fission » de l'élément, entraînant une déformation si grande du noyau que celui-ci se décompose. Contrairement à la promesse de prédiction de l'avenir du déterminisme philosophique, on ne peut savoir quels atomes se décomposeront pendant un intervalle de temps donné, ni à quel instant un atome particulier se décomposera, ni quel est le premier atome qui se décomposera, ni quand cela se produira. A l'échelle macroscopique, la décomposition radioactive suit une loi déterministe statistique, valable pour une population d'atomes mais ne permettant pas de prévoir l'évolution d'un atome donné. A l'échelle atomique, la stabilité d'un noyau dépend d'une énergie de liaison instable, qui varie sans cause externe à l'atome et ne permet de prévoir l'évolution de celui-ci (et son éventuelle décomposition) que de manière probabiliste. Le déterminisme philosophique de Laplace excluant les variations spontanées et imprévisibles ne s'applique donc pas aux décompositions radioactives naturelles. En outre, lorsqu'un échantillon contient des atomes résultant d'une décomposition, on ne peut savoir à quel instant chacun d'eux s'est décomposé, ce qui contredit le déterminisme philosophique au sens reconstitution du passé. Donc, de deux choses l'une : Ou il y a des questions, concernant les lois de la nature, qui n'ont pas de sens parce qu'elle n'est pas comme nous croyons ; nous verrons dans la suite de cet ouvrage que c'est souvent le cas en Physique quantique et en théorie de la Relativité générale : la nature est bien toujours déterministe, mais pas toujours comme nous l'imaginons. Ou le déterminisme philosophique ne peut tenir ses promesses ni concernant la prédiction de l'avenir, ni concernant la reconstitution mentale du passé : c'est donc un principe faux dans le cas de la décomposition radioactive. Et comme, d'après la méthode de recherche de la vérité du rationalisme critique présentée dans ce livre, il suffit d'un seul contre-exemple pour qu'une affirmation scientifique soit fausse, nous considérons le déterminisme philosophique comme 56 erroné, bien que la définition ci-dessus figure dans certains dictionnaires philosophiques. Nous verrons qu'il faut une autre définition du déterminisme, le déterminisme statistique, pour prendre en compte les phénomènes comme la radioactivité naturelle et définir quelles questions sont possibles concernant la prédiction de l'évolution future ou la reconstitution du passé. Avec ce déterminisme-là, basé sur une définition étendue de la causalité, la prédiction de l'avenir et la reconstitution du passé de son « démon » redeviendraient théoriquement possibles. Nous allons donc reprendre ci-dessous le problème de compréhension du présent et prédiction de l'avenir d'une manière moins ambitieuse, en repartant de la causalité à la base du déterminisme philosophique et en abandonnant provisoirement ses promesses de prédiction et de reconstitution. Mais avant et pour préciser tout de suite notre objectif, voici une définition succincte du déterminisme scientifique actuel. 3.1.2.2 Définition succincte du déterminisme scientifique Le déterminisme scientifique est un principe métaphysique selon lequel toute évolution dans le temps d'un système physique est régie par deux postulats : Le postulat de causalité, condition nécessaire et suffisante : Condition nécessaire : toute situation (et toute évolution) a nécessairement une cause qui l'a précédée et dont elle résulte ; rien ne peut exister sans avoir été créé auparavant. Condition suffisante : il suffit que la cause existe au départ pour que la conséquence ait lieu (c'est une certitude). La conséquence de la cause est un phénomène d'évolution, pas une situation finale. La règle de stabilité : Les mêmes causes produisent toujours les mêmes effets (reproductibilité : dans la nature les évolutions obéissent à des lois). Les lois physiques dont l'application est déclenchée par une cause donnée sont stables, elles sont les mêmes en tous lieux et à tout instant. Le déterminisme de la nature est postulé à la fois : Pour comprendre (ou expliquer ce qui a produit) une situation ou un phénomène que l'on constate. Pour prévoir l'évolution d'une situation donnée connaissant la loi physique applicable. Principe de fatalisme Lorsque nous constatons un phénomène physique (situation ou évolution d'un objet), nous devons admettre que ce phénomène devait arriver, qu'il était inévitable, même si nous éprouvons un sentiment de surprise, de peur ou de contrariété : Soit S une situation d'un objet précédée d'une situation P, qui en est la cause d'après une loi de la nature. Si S était contingente (si elle pouvait se produire ou ne pas se produire), la situation P aurait pu ne pas avoir pour conséquence S, ce qui contredit l'exigence de causalité qui rend la conséquence S certaine après P pour respecter la loi de la nature. Donc ce qui arrive (ici : S) devait arriver. 57 3.1.3 Le postulat de causalité Depuis qu'il existe, l'homme a remarqué certains enchaînements : pour un système physique, une même situation S est toujours suivie du phénomène d'évolution P. Par une démarche naturelle d'induction, il en a déduit un postulat général : « Les mêmes causes produisent toujours les mêmes conséquences ». Et en réfléchissant aux conditions qui régissaient les enchaînements observés il en a déduit le postulat de causalité, que j'énonce comme suit sous forme de condition nécessaire et suffisante. 3.1.3.1 Définition du postulat de causalité Condition nécessaire : Toute situation (et toute évolution) a nécessairement une cause qui l'a précédée et dont elle résulte ; rien ne peut exister sans avoir été créé auparavant. Donc, si je constate un phénomène ou une situation, je suis sûr qu'il ou elle a une cause dans le passé, mais je renonce pour le moment à pouvoir reconstituer mentalement ce passé en déduisant cette cause de sa conséquence observée, comme le promet le déterminisme philosophique. Condition suffisante : il suffit que la cause existe au départ pour que la conséquence ait lieu (c'est une certitude). Cette conséquence est un phénomène d'évolution, pas une situation finale : nous renonçons ainsi à la promesse de prédiction du résultat de l'évolution, en ne conservant que le postulat de déclenchement de celle-ci. L'évolution déclenchée par la situation-cause se déroule ensuite selon une loi de la nature ; un observateur pourra en constater l'effet, la situation-conséquence, à un moment ultérieur de son choix, moment sans incidence sur le déroulement de l'évolution. Exemple : je tiens une pierre dans ma main ; Pour qu'elle tombe je dois la lâcher, condition nécessaire ; Si je la lâche elle tombe, condition suffisante. Dans certains cas favorables, le postulat de causalité répond aux besoins de la pensée rationnelle de comprendre et de prévoir : La condition nécessaire permet d'expliquer au moins en partie une constatation (évolution ou situation), en remontant le temps jusqu'à sa cause ; La condition suffisante permet de prévoir une conséquence, en suivant le temps vers l'avenir depuis sa cause : l'évolution est déclenchée à coup sûr. 3.1.3.1.1 Causalité étendue Certains philosophes appellent la causalité ci-dessus cause efficace ou cause efficiente [39] ; Schopenhauer l'appelle Principe de raison suffisante du devenir [173]. Mais parce qu'elle définit la conséquence d'une situation-cause comme une évolution (au lieu d'une situation-conséquence) nous l'appellerons causalité étendue : c'est de cette causalité-là qu'il sera question chaque fois que les mots causalité ou cause apparaîtront dans la suite de ce texte. 58 Contrainte d'action d'une cause efficiente: rester dans les limites de l'Univers L'action d'une cause efficiente est régie par les lois de la physique. Elle se déroule et s'achève dans l'espace de l'Univers et le temps de l'Univers, aucun franchissement des frontières de l'espace-temps n'étant possible car il contient tout ce qui existe, a existé et existera. Différence fondamentale de la causalité étendue avec la causalité philosophique Traditionnellement, les philosophes définissent la causalité comme une relation entre deux situations, une cause et sa conséquence ; c'est, par exemple, le cas d'Aristote [39] et de Kant [M3]. En considérant la conséquence de la conséquence de la conséquence, etc., ou la cause de la cause de la cause, etc., ils définissent une chaîne de causalité. Connaissant la situation présente, pour prévoir une situation future ou reconstituer une situation passée, les philosophes passent d'une situation à la suivante ou à la précédente ; ils ont alors un problème en remontant dans le passé (démarche appelée régression) : si toute situation a une cause, la chaîne de causalité est infinie, il n'y a pas de cause première, et le postulat de causalité doit être abandonné ou modifié pour admettre une cause sans cause, comme Dieu créateur de l'Univers. Avec la définition présentée ci-dessus, la conséquence d'une situation n'est pas une autre situation mais une évolution régie par une loi de la nature. Cette loi est un ensemble E de fonctions du temps t, au sens mathématique : la situation au temps tn du passé ou de l'avenir est donnée par les valeurs de toutes des fonctions de E pour t=tn. Le déterminisme postule alors que ces fonctions soit sont toujours définies, soit ont un domaine d'existence, par exemple « à partir du Big Bang ». Cette définition remplace l'évolution discontinue par succession de situations séparées par un intervalle de temps des philosophes par une évolution continue, plus conforme à la continuité évidente des évolutions de la nature macroscopique, qui n'arrêtent jamais. Elle supprime le problème de la cause première et rend inutiles les considérations de Kant sur l'inconditionné [M3] : connaître les fonctions de E d'un système (les lois de la nature et leur domaine d'existence) détermine les réponses à toutes les questions d'évolution possibles sur lui. 3.1.3.1.2 Principe de la conservation de l'information dans l'Univers Ce paradigme de causalité du déterminisme est également conforme au principe de la conservation de l'information dans l'Univers, qui exige ce qui suit. A un instant donné, l'état de Univers est complètement décrit par une certaine information, qui contient toutes les données nécessaires pour le reconstruire théoriquement si on disposait de l'énergie nécessaire : on connaîtrait chaque atome avec les valeurs de ses variables d'énergie, de position et de déplacement, les champs de force et rayonnements en chaque point de l'Univers, etc. Or l'évolution dans le temps et l'espace de l'état physique de tout système est régie par l'équation de Schrödinger, équation fondamentale de la Mécanique quantique. Cette équation déterministe est aussi symétrique par rapport au temps : lorsqu'à partir d'un état B d'un système à l'instant t2 on inverse le sens 59 d'écoulement du temps (comme si on « passait le film des événements à l'envers »), on retrouve à un instant t1 qui précède t2 l'état A qu'il avait. Cela ne veut pas dire qu'on peut changer le sens de l'écoulement du temps de l'Univers physique (notamment parce que la thermodynamique l'interdit), mais seulement qu'on peut reconstituer théoriquement l'information qui décrit un état quelconque du passé d'un système fermé. C'est une conséquence de l'existence d'une loi d'évolution de la nature, postulée réversible et stable dans le temps par le déterminisme. Cet état reconstitué est unique : il n'y a eu, à l'instant t1<t2 qu'un seul état, A, qui est devenu B. Donc tout se passe comme si la nature conservait l'information de tous ses états passés : c'est une conséquence du postulat de déterminisme et de la réversibilité temporelle de l'équation universelle d'évolution de Schrödinger. Conséquence : toutes les équations des lois physiques de la mécanique macroscopique (comme les lois de Newton), de la mécanique quantique, de l'électromagnétisme, de la force nucléaire (interaction forte) et de la relativité (gravitation) sont réversibles par rapport au temps - à de rarissimes exceptions près qui ne sont pas encore expliquées : Lorsqu'un corps céleste disparaît dans un trou noir, l'information qui le décrivait disparaît peut-être (si elle est conservée, on n'est pas encore sûr de l'endroit, peut-être à la surface de l'horizon du trou noir) ; La décomposition d'un méson K0 (force faible) en mésons + et - est irréversible, mais on ne sait pourquoi ; L'expansion de l'Univers, également irréversible et en plus accélérée, est due à un champ de force encore inconnu. Le passage du temps n'altère donc pas la quantité totale d'information d'un système physique, même s'il s'agit de l'Univers entier ; cette quantité étant finie, le nombre d'états possibles de l'Univers est immense, mais fini. Mais cette l'information préservée peut être altérée par l'évolution physique d'un système d'une manière telle qu'on ne sache plus où elle est stockée, même si elle existe toujours. Il existe une probabilité non nulle qu'un état donné de l'Univers ou de tous les atomes d'un système quelconque se reconstitue spontanément, mais les calculs montrent que cela se produirait pour la première fois au bout d'un temps qui se compte en milliers de milliards d'années : quand je renverse du café de ma tasse, la probabilité pour qu'il y remonte tout seul est vraiment faible, même si on lui restitue l'énergie thermique dispersée par le renversement ! Conséquence pour le déterminisme philosophique de Laplace Laplace était un mathématicien spécialiste de mécanique céleste. En pensant au déterminisme, il avait en tête le mouvement parfaitement prévisible et mathématiquement réversible d'une planète, mouvement réputé "peu perturbé par les autres astres" à une époque ou Henri Poincaré n'avait pas encore publié sa théorie du chaos : si dans les équations de son ouvrage Théorie du mouvement et de la figure elliptique des planètes (1784) on changeait le sens du temps, le « film des déplacements sur l'orbite passait à l'envers ». 60 Laplace ne connaissait pas la décomposition radioactive. Mais son déterminisme redevient exact si on en remplace la causalité traditionnelle par notre causalité étendue, qui régit tous les phénomènes parce qu'elle prend en compte l'équation de Schrödinger et son déterminisme statistique. 3.1.3.2 Causalité, réalisme et idéalisme Nous avons vu ci-dessus qu'il y a deux doctrines métaphysiques [371] concernant l'indépendance entre une réalité censée exister objectivement, indépendamment de l'homme qui s'en construit des représentations mentales, doctrine appelée réalisme, et l'idéalisme, qui prétend que toute réalité physique dérive nécessairement d'une Idée, d'une pensée ; l'idéalisme est la doctrine du philosophe grec Platon, dont le philosophe allemand Kant a adopté une variante plus précise, l'Idéalisme transcendantal, qu'il appelle parfois idéalisme critique [372]. Selon la doctrine réaliste, la causalité est : soit une relation entre les choses elles-mêmes, régissant leur durée, leur succession dans le temps, leur interaction ; soit (nous le verrons plus bas) une traduction d'une représentation en une autre. Selon la doctrine idéaliste, la réalité nous est cachée et la causalité ne relie que des abstractions, représentations mentales plus ou moins correctes, mais jamais parfaites ; Kant a expliqué et approfondi parfaitement cette doctrine et ses conséquences [372]. Selon le domaine de connaissance considéré, une des deux approches peut être préférée à l'autre. En physique traditionnelle, la doctrine réaliste permet de décrire au moyen de lois et formules des phénomènes ou situations réels, et le passage d'une situation à sa conséquence. Par exemple, une formule permet de prévoir avec une précision acceptable ce qui se passera dans une situation donnée, c'est-àdire comment elle évoluera. La causalité est alors précise et fiable. En psychologie, la doctrine idéaliste s'impose, car la réalité de l'esprit humain est trop complexe pour être représentée de manière complète et claire. On ne connaît que certains mécanismes mentaux et de manière approximative, avec beaucoup de cas particuliers et peu ou pas d'informations chiffrées [339]. La causalité est alors peu précise et peu fiable, faisant parfois appel à des non-dits. La seule manière de connaître et d'étudier le psychisme humain est de s'en construire des modèles mentaux simplifiés, qu'on confronte ensuite avec les résultats ou mesures de l'expérience. A la causalité précise et fiable de la physique, base du déterminisme scientifique et du déterminisme étendu, s'ajoute donc la causalité approximative et de fiabilité incertaine des actions humaines, à laquelle nous associerons, par définition, un déterminisme humain. 3.1.3.3 Causalité, nécessité et explication du monde La raison justifie l'existence des causes des situations et phénomènes en postulant que tout ce qui existe ou arrive a une cause, et que rien n'existe ou n'arrive sans cause [99]. Et elle prévoit l'évolution des situations en appliquant les lois physiques. 61 La cause explique pourquoi cela existe, est arrivé ou arrivera, connaissance plus approfondie qu'une simple certitude d'existence. L'existence de la cause implique nécessairement la conséquence, mais attention à la réciproque : si on ne connaît pas la loi d'évolution qui y a conduit, une situation constatée peut avoir plusieurs causes possibles. Exemple : un homme trouvé mort a 3 balles dans la tête. Il n'a donc pu se suicider, mais plusieurs personnes qui l'ont fréquenté peuvent l'avoir assassiné. Nous étudierons ci-dessous en détail le principe de raison suffisante, qui énonce une relation certaine, nécessaire : l'existence de la cause implique nécessairement la conséquence (l'évolution qui en résulte). Absurdité du concept « d'être absolument nécessaire » D'après ce qui précède, l'expression « un être absolument nécessaire » (que l'on rencontre dans des textes philosophiques comme [172]), où « absolument » signifie « indépendamment de toute condition, donc de toute cause », est absurde car « absolument » contredit « nécessaire », qui implique une cause ; il n'existe ni être ni situation absolument nécessaire ! L'existence d'un être absolument nécessaire est l'objet des preuves ontologiques de l'existence de Dieu, preuves dont Kant a démontré l'absurdité. Voir aussi [372]. Exemple de pensée métaphysique [371] creuse extrait de la biographie du philosophe Avicenne publiée dans [172] : "Le point extrême auquel la pensée puisse s'élever, après avoir parcouru toute la série de la causalité, est celle de l'Être absolument Nécessaire dont le contraire est le Possible. L'absolument Nécessaire est ce qui, supposé comme non existant, serait nécessairement inconcevable, tandis que le Possible est ce qui se peut également bien concevoir comme existant et comme non existant." Commentaires sur cette citation : il n'y a pas de limite à ce que l'imagination humaine peut concevoir, il y a seulement des objets dont l'existence est possible parce qu'elle ne contredit aucune loi physique, et d'autres qui ne peuvent exister ailleurs que dans l'imagination. « Ce qui, supposé comme non existant, serait nécessairement inconcevable » est une absurdité : pour supposer que quelque chose n'existe pas il faut d'abord l'avoir conçu (défini), ce qui l'empêche d'être inconcevable ! En outre, l'existence ne peut pas être une propriété de l'essence. Une abstraction ne peut causer une existence matérielle, en vertu du principe d'homogénéité et du principe de conservation de l'énergie (toute création ou transformation physique d'objet nécessite de l'énergie qu'une abstraction n'a pas). 3.1.4 Principe de raison suffisante Le principe de raison suffisante fait partie des principes de base des raisonnements, sans le respect desquels ils ne pourraient pas être logiques. Enoncé : rien n'existe ou n'arrive sans qu'une cause ait rendu sa survenance nécessaire, c'est-à-dire inévitable. Pour qu'une chose soit comme elle est, il y a une raison suffisante. Nous analysons ci-dessous ce principe parce qu'il permet de mettre en perspective le déterminisme objet de cet ouvrage, en le situant par rapport aux trois autres principes de raison suffisante. Notre analyse est basée sur le livre de Schopenhauer [173]. 62 3.1.4.1 Les 4 domaines régis par le principe de raison suffisante Remarques préalables Toute connaissance est une relation entre un sujet qui connaît et un objet qu'il connaît ; sans l'une de ces notions, l'autre n'a pas de sens. Un sujet ne peut se connaître lui-même complètement, car il ne peut se placer « à l'extérieur » de lui-même, où il connaîtrait par exemple sa connaissance, c'est-à-dire l'état actuel et le fonctionnement de sa conscience. [339] Définition des 4 domaines de pensée régis par le principe de raison suffisante Décomposons les domaines de pensée où intervient la causalité comme suit. Ou la causalité est celle de la nature, régie par des lois physiques objectives, indépendantes de l'homme, conformément au réalisme. Schopenhauer parle alors de raison suffisante du devenir, pour justifier chaque évolution par sa nécessité physique. Dans tout cet ouvrage nous appellerons ce principe le déterminisme. Ou la causalité est celle de la pensée humaine, et il y a deux cas : La pensée régie par la raison, c'est-à-dire logique ; on peut alors distinguer les propositions proprement dites (affirmations, certitudes) des mécanismes logiques fondamentaux de l'esprit qui les créent et les manipulent. Dans le cas des propositions, Schopenhauer parle de raison suffisante du connaître, pour justifier chaque proposition par sa nécessité logique. Dans le cas des mécanismes fondamentaux de l'esprit, Schopenhauer parle de raison suffisante de l'être, pour décrire les concepts nécessaires à la représentation et la manipulation dans l'esprit de réalités matérielles (objets, situations ou phénomènes), ou d'êtres abstraits comme en mathématiques. La nécessité de ces concepts provient de la manière dont notre esprit se représente l'espace, le temps, les grandeurs physiques fondamentales et les abstractions diverses, avec les opérations mentales permises sur eux. La pensée dominée par des affects [253], des intuitions, « le cœur » dirait Pascal, qui écrivait dans ses Pensées [198] : "Le cœur a ses raisons que la raison ne connaît point ; on le sait en mille choses.". Dans ce cas, Schopenhauer parle de principe de raison suffisante de vouloir, ou loi de la motivation, nécessité de satisfaire ses désirs en vertu de laquelle le sujet veut : soit connaître un objet pour l'apprécier par rapport à ses valeurs ; soit agir sur lui plus tard. Très général, le principe de raison suffisante s'applique : Au domaine des objets, situations et phénomènes matériels, dont il explique l'existence ou la survenance ; Au domaine des représentations ou décisions de l'esprit, abstractions dont il justifie la conception. Avec cette classification, il n'y a que 4 domaines d'application de la raison suffisante. Tous quatre ont en commun d'impliquer deux étapes successives. Voyons les détails. 63 3.1.4.2 Principe de raison suffisante du devenir - Déterminisme Le principe de raison suffisante du devenir affirme la nécessité physique de l'évolution d'une situation initiale dont elle est la conséquence par l'action d'une loi de la nature, c'est-à-dire le déterminisme physique. Il implique une succession dans le temps : la conséquence suit la situation qui la cause. Le plus souvent, affirmer qu'une évolution est déterministe c'est affirmer que son résultat est prévisible par application d'une loi physique, éventuellement en appliquant une formule ou en déroulant un algorithme ; c'est aussi affirmer que ce résultat ne sera pas dû au hasard. Nous verrons plus bas en détail des exceptions importantes à cette prévisibilité. Une situation décrit des objets physiques, indépendants ou non. C'est la situation initiale (l'état initial) qui est cause de l'évolution de ces objets, pas les objets euxmêmes ; et la conséquence de la situation initiale est cette évolution, pas l'état de l'ensemble des objets de la situation finale. Une situation est une abstraction, une représentation sous forme de « photographie instantanée ». Ce n'est pas elle qui est visible, ce sont ses objets. Une situation est une représentation construite par l'esprit de ces objets et des relations entre eux, et c'est elle (non ses objets ou relations) qui est cause de son évolution. L'évolution affecte les objets et leurs relations, pas la situation initiale, photographie d'un passé immuable. L'état d'ensemble de ces objets, à un instant qui suit l'état initial, définit une nouvelle situation. Le caractère final éventuel de celle-ci est purement arbitraire, l'instant de fin de l'évolution étant lui-même une décision humaine ; une même situation initiale, cause de son évolution, a donc une infinité de situations conséquences, selon l'instant de chacune. Déterminisme d'évolution et déterminisme de traduction Un cas particulier d'évolution est la traduction instantanée d'un concept en un autre, par application d'une formule ou d'un algorithme. Exemple : la loi d'attraction universelle de Newton entre deux points matériels de masses M et M' distants de d s'exprime par la formule F = GMM'/d², où G est la constate universelle de gravitation, G = 6.67 .10-11 Nm2/kg2. Connaissant M, M' et d, on en déduit immédiatement la force d'attraction F ; cette force existe sans délai d'évolution, dès qu'existent deux masses séparées. Le déterminisme régit donc, en plus des lois d'évolution dans le temps de la nature, des lois et méthodes de calcul traduisant des données initiales en un résultat final qui est leur conséquence, sans délai d'évolution. 3.1.4.3 Principe de raison suffisante du connaître Ce principe justifie des propositions (affirmations qui ne peuvent être que toujours vraies ou toujours fausses) par leur nécessité logique. La justification implique une succession : les prémisses précèdent les conséquences. Une proposition ne peut être jugée vraie que si on sait pourquoi ; sa vérité appartient alors à l'une des 4 catégories suivantes. Vérité transcendantale (résultant de nos facultés logiques a priori) Une vérité transcendantale est une affirmation qui ne peut se déduire d'aucune autre ni de l'expérience, et qui est considérée comme nécessaire à toute connaissance 64 possible. C'est un résultat de l'application de nos facultés logiques à des concepts a priori (créés par l'esprit indépendamment de toute expérience). Exemple d'affirmation : « Il existe des nombres entiers (concept a priori) et des opérations sur ces nombres entiers comme l'addition ou la comparaison » Vérité métalogique C'est l'un des principes de la logique [99], base de toute pensée rationnelle et des axiomatiques dans le cadre desquelles on démontre des vérités formelles [67]. Les facultés logiques utilisées pour construire des vérités transcendantales et des vérités logiques sont basées sur des vérités métalogiques. Vérité logique (formelle) C'est un théorème ou la vérité d'un théorème, proposition résultant d'une démonstration basée sur une ou plusieurs propositions vraies préexistantes dans le cadre d'une axiomatique. Exemples : Conséquence d'une définition ou d'un syllogisme ; Démonstration par déductions successives [99] à partir d'axiomes ou théorèmes. Attention : une vérité formelle n'a pas de valeur sémantique. Une proposition formellement vraie n'est vraie que dans sa forme, établie dans le cadre logique de son axiomatique. Une éventuelle vérité sémantique ne peut se juger qu'avec des comparaisons avec des objets extérieurs à l'axiomatique : voir [67a] et [220]. Vérité empirique C'est une vérité résultant de nos sens ou d'une expérience. On la considère comme vraie par application du postulat réaliste. 3.1.4.4 Principe de raison suffisante de l'être (possibilité de représentation) Ce principe décrit les concepts nécessaires à la représentation dans l'esprit de réalités matérielles (objets, situations ou phénomènes) ou d'êtres abstraits comme en mathématiques. La nécessité de ces concepts provient de la manière dont notre esprit se représente l'espace, le temps, les grandeurs physiques fondamentales, les concepts mathématiques et les opérations mentales permises sur eux. Ces concepts décrivent des propriétés : Au sens de l'espace et du temps (concepts fondés sur des perceptions intuitives, a priori, ne faisant pas partie des attributs de la chose en soi) : la position d'un objet dans l'espace est définie par rapport à un repère (référentiel), jamais dans l'absolu ; de même, un événement est repéré par rapport à une origine et un sens des temps ; Au sens des grandeurs fondamentales de la physique : masse-énergie, charge électrique, spin, etc. L'importance de ces grandeurs fondamentales, indispensables pour caractériser un objet réel chaque fois qu'il existe, n'était pas reconnue à l'époque de Kant et de Schopenhauer ; Au sens mathématique ou logique. Exemples : chaque nombre entier (ou élément d'une suite) est défini à partir de son prédécesseur ; théorèmes basés sur une axiomatique. 65 Les concepts nécessaires pour représenter une réalité matérielle en sont déduits par perception, mesure expérimentale et/ou abstraction. Les formules et opérations mathématiques sont utilisées soit pour modéliser une loi physique, soit pour situer un concept d'objet par rapport à d'autres tels que des unités, des axes orientés, etc. Le principe de raison suffisante de l'être implique une succession de représentations : les concepts fondamentaux sont associés par l'esprit qui crée une représentation de réalité matérielle ou d'être abstrait par prise de conscience. Détails : [339]. 3.1.4.5 Principe de raison suffisante de vouloir, ou loi de la motivation La raison suffisante de vouloir est la nécessité de satisfaire ses désirs. Le sujet veut : soit connaître l'objet, pour l'apprécier ensuite par rapport à ses valeurs ; soit agir sur lui plus tard. Dans les deux cas, ce principe implique une succession de représentations : le motif est suivi par l'acte. Du fait même qu'il est conscient, un homme veut quelque chose à tout instant. Chaque volonté a des degrés, depuis un faible désir jusqu'à une passion, et chacune correspond à une valeur au moins. Chaque affect [253] d'un homme correspond à une valeur et à quelque chose qu'il veut ; chaque état de conscience [339] d'un sujet comprend au moins un affect et une volonté. Le sujet qui connaît (par sa conscience) est le même que celui qui apprécie une valeur et celui qui veut : dans le psychisme [347] connaissance, jugement de valeur et volonté sont indissociables. Mais, à un instant donné, un sujet connaît mieux ce qu'il veut que lui-même, c'est-à-dire ce qu'il est. Consciemment (ou plus souvent inconsciemment), l'homme juge la situation selon ses valeurs. Ces jugements sont des raisons suffisantes pour une action destinée à en savoir davantage ou à obtenir un résultat désirable. Il y a là une forme de causalité, un automatisme très rapide régissant le psychisme humain, causalité due au lien entre les trois dimensions d'un sujet : conscient, appréciant et voulant. Le principe de raison suffisante de vouloir est la forme humaine du déterminisme de la nature. Déterminisme humain, il gouverne la traduction d'une sensation, d'un affect ou d'une idée en volonté de connaître ou d'agir, comme le déterminisme physique gouverne la traduction d'une donnée en une autre ou l'évolution d'une situation par application d'une loi de la nature. Nous aborderons plus bas le déterminisme humain. 3.1.4.6 Réciproques d'une raison suffisante d'évolution L'existence d'une raison suffisante d'évolution entraîne celle de sa conséquence, l'évolution elle-même ; inversement, l'absence constatée d'évolution entraîne l'absence de raison suffisante d'évolution. Ces propositions sont évidentes. Par contre : L'absence d'une raison suffisante d'évolution n'entraîne pas l'absence de sa conséquence, si l'évolution correspondante peut résulter d'une autre raison suffisante. 66 Exemple : l'absence de clou sur la chaussée ne garantit pas que mon pneu avant droit ne se dégonflera pas ; il pourrait le faire parce qu'il est mal monté sur sa jante ou parce que j'ai heurté un trottoir. L'existence (la constatation) d'une évolution n'entraîne celle d'une raison suffisante particulière que si d'autres raisons suffisantes n'auraient pas pu produire le même effet. Exemples : La victime est morte d'une balle de pistolet tirée à deux mètres ; on ne peut être sûr que l'assassin est son beau-frère, qui la détestait et a un pistolet de ce calibre-là, que si aucun autre porteur de ce type de pistolet n'a pu être présent lors du meurtre. Une statistique montre que 40 % des gens qui ont pris un certain remède homéopathique ont guéri en un mois au plus ; pour en déduire que la prise de ce remède guérit 40 % des malades il faudrait être sûr qu'aucune autre cause de guérison n'était possible : ni guérison spontanée, ni effet placebo, ni autre traitement concomitant, etc. 3.1.4.7 Raison suffisante et chaîne de causalité Toute raison suffisante est basée sur une cause, elle-même basée sur une autre cause, etc. La suite de ces causes définit une chaîne de causalité qui remonte le temps jusqu'à une cause première, postulée faute d'en connaître la cause ou pour que la chaîne reste finie (ce qui constitue une exception à la causalité, en inventant une cause sans cause comme Dieu). Dans notre Univers, toutes les causes physiques remontent dans le temps jusqu'à l'inflation qui précède le Big Bang, parce que nos connaissances physiques ne nous permettent pas de penser ce qui précéderait l'inflation autrement que de manière spéculative [313]. 3.1.5 Principe d'homogénéité Selon [16-b], ce principe de logique est dû à Aristote, qui l'a énoncé sous forme d'interdit : "On n'a pas le droit de conclure d'un genre à un autre" (texte précis : [16a]). Il voulait dire qu'une relation logique ne peut exister qu'entre deux objets du même genre. Exemples : Relation de physique Une comparaison n'est possible qu'entre grandeurs de même type : Les relations A = B ; A B et A B ne sont possibles que si A et B sont tous deux des masses (ou des longueurs, ou des durées, etc.). Toute mesure comparant une grandeur à une unité, on ne peut mesurer une masse en unités de charge électrique ou de longueur : on dit que ces grandeurs sont incommensurables entre elles. Concepts d'ordres différents Une masse et une charge électrique sont de genres (on dit aussi "d'ordres") différents ; aucun des deux ne peut se déduire directement de l'autre, aucun ne peut être directement cause ou conséquence de l'autre (une masse ne devient pas une charge électrique et ne résulte pas d'une charge électrique). Toutefois, on peut passer d'un genre à un autre lorsqu'on dispose d'un intermédiaire qui est des deux genres [16-a (2)], intermédiaire appelé schème par les philosophes 67 [372]. Ainsi, lorsqu'on parle de l'aire d'un champ de blé (exemple : 100 hectares) et d'un poids récolté en quintaux, on peut passer de l'aire à la récolte correspondante par l'intermédiaire d'un rendement (exemple : 70 quintaux à l'hectare) qui est à la fois du genre aire et du genre poids. Interaction de l'esprit avec la matière Cette interaction, estimée possible par certains idéalistes, est contraire au principe d'homogénéité. Du reste, elle contredirait la physique : une action matérielle n'est possible qu'avec un échange d'énergie, et on ne voit pas comment une idée abstraite ou une pensée humaine pourraient fournir ou absorber l'énergie mise en jeu. Une idée n'est cause ou conséquence de quelque chose que par l'intermédiaire d'un esprit humain, ou de Dieu pour les croyants. Une réalité ne peut être cause d'une idée que dans un esprit qui pense. 3.1.5.1 Seul l'esprit humain peut ignorer le principe d'homogénéité L'esprit humain peut créer des relations d'un genre vers un autre sans difficulté, sans la moindre impression d'erreur ; c'est un effet de son aptitude à associer n'importe quel concept à n'importe quel autre car son imagination est libre. Exemple mathématique : axiome de Cantor-Dedekind ou axiome de continuité. « Si, sur une droite D, on reporte les points A1, A2, …, An, d'une part, les points B1, B2, …, Bn d'autre part, les abscisses des premiers formant une suite an non décroissante de nombres rationnels (fractions), celles des seconds une suite bn non croissante de nombres rationnels, la différence bn − an restant positive et tendant vers zéro lorsque n croît, les segments emboîtés [AnBn] ont un point commun unique M, auquel correspond suivant les cas un nombre rationnel ou un nombre irrationnel. » Dans cet exemple, on établit une correspondance biunivoque entre l'ensemble des points d'une droite, concepts géométriques, et l'ensemble des nombres réels, concepts numériques, chacun de ces derniers étant défini comme limite commune de deux suites de nombres rationnels qui convergent en sens opposé. La pensée en tant que processus d'interprétation Beaucoup de philosophes contestent à tort l'origine matérialiste de la pensée en tant qu'effet du fonctionnement du cerveau. Ils raisonnent comme ceci : puisque ce fonctionnement (matériel) est d'un genre différent de la pensée (abstraite), la pensée ne peut provenir seulement de causes matérielles, en raison du principe d'homogénéité, il doit y avoir « autre chose », il faut une transcendance. Ils se trompent : les neurosciences expliquent que la pensée est la perception humaine du fonctionnement du cerveau lorsque celui-ci interprète ses connexions de neurones. C'est cette interprétation qui transforme un état matériel de neurones en abstractions ; elle constitue la seule mise en relation entre concepts de genres différents qui ne viole pas le principe d'homogénéité. En reliant des abstractions, l'esprit humain peut créer n'importe quelle relation, même fantaisiste ou absurde ; il suffit que certains groupes de neurones (des « cliques ») créent, modifient ou suppriment diverses connexions entre eux. Le besoin intuitif d'« autre chose » de ces philosophes résulte du caractère imprévisible de certaines pensées, dû à notre incapacité de décrire rationnellement les 68 mécanismes inconscients [353] ; ils considèrent comme « besoin » un effet de l'ignorance humaine de ces mécanismes. Détails : [339]. 3.1.5.2 Déterminisme et principe d'homogénéité Le déterminisme non-humain, celui de la nature, ne s'applique qu'aux évolutions physiques ; il ne s'applique pas à la pensée parce que celle-ci comprend une partie inconsciente dont nous ne pouvons décrire le fonctionnement précis [353]. L'évolution d'une situation (d'un état) physique ne peut aboutir qu'à une autre situation (état) physique. Comme toutes les situations physiques sont délimitées par notre Univers (dont l'espace-temps comprend, par définition, tout ce qui existe, a existé ou existera), aucune situation de notre Univers ne peut avoir une conséquence externe à l'Univers, aucune ne peut être causée par quelque chose d'extérieur à l'Univers. Nous pouvons cependant voir dans nos télescopes la lumière d'astres qui l'ont émise il y a si longtemps que l'expansion de l'Univers les situe aujourd'hui au-delà de la limite de ce qui est observable [313]. L'esprit humain peut imaginer un franchissement des frontières de l'Univers visible, mais ce sera un raisonnement cosmologique ou une pure spéculation. Même si un jour une théorie sur d'autres Univers affirme des choses vérifiables dans le nôtre, elle ne prouvera pas avec certitude que ces univers existent, car cette existence ne peut être ni vérifiée ni infirmée expérimentalement. [313] Un postulat est une abstraction pure, une base pour construire nos représentations mentales du monde, elles-mêmes des abstractions. Le principe d'homogénéité interdit de déduire un phénomène, une existence physique d'objet ou un état physique d'une abstraction ; une telle déduction doit demeurer une hypothèse, valable seulement dans la mesure où cette abstraction modélise la réalité avec une précision suffisante, et seulement tant que la constatation d'une erreur ou imprécision n'amène pas à remettre le modèle en cause. Violer ce principe conduit à des raisonnements faux, comme : Les preuves cosmologiques de l'existence de Dieu ; Une décision par l'Eglise catholique de considérer comme miraculeuse (d'origine divine) une guérison jugée inexplicable ou impossible dans l'état actuel de nos connaissances ; (l'ignorance de la cause ne justifie pas qu'on l'attribue à Dieu). Déduire de la conception d'une essence ("Idée" de Platon, "chose en soi" de Kant, description complète, cahier des charges…) l'existence d'un objet physique, d'une situation ou d'un phénomène est une erreur ontologique : une essence n'est cause de rien de concret. Avoir conçu une essence ne prouve même pas la possibilité que son objet existe, tant l'imagination humaine est féconde. Une telle possibilité, comme l'existence elle-même, n'est envisageable qu'en tant qu'hypothèse, ou dans un domaine de connaissances abstraites comme les mathématiques. En somme, une essence ne justifie pas une preuve. En mathématiques, toutefois, elle peut être une définition : un être mathématique peut être défini par ses propriétés, si celles-ci ne contredisent aucun théorème établi. 69 Aristote s'était déjà aperçu de l'absence de relation de causalité entre une abstraction et une réalité matérielle [201]. Avant de poursuivre notre propos sur le déterminisme, nous avons besoin de préciser le principe d'homogénéité. 3.1.5.3 Domaine de vérité d'une science et principe d'homogénéité Un intérêt majeur de la règle du respect de l'homogénéité est la délimitation du domaine de vérité d'une science : une affirmation n'a de sens qu'à l'intérieur d'un domaine homogène ; on ne peut en vérifier la véracité que dans un tel domaine. Selon [16-b] page 9 : Husserl écrit : "L'empire de la vérité s'articule objectivement en domaines ; c'est d'après ces unités objectives que les recherches doivent s'orienter et se grouper en sciences." Kant écrit : "On n'étend pas, mais on défigure les sciences quand on fait chevaucher leurs frontières." Cette affirmation provient du caractère axiomatique [67] des sciences exactes, dont chacune a des axiomes et règles de déduction propres qu'on ne doit pas mélanger avec ceux d'une autre science. La connaissance scientifique n'a commencé à progresser que lorsque l'humanité a réussi à la séparer des considérations philosophiques, morales et religieuses [212]. 3.1.6 Le déterminisme scientifique Pour comprendre et prévoir, la pensée rationnelle a besoin d'ajouter au postulat de causalité ci-dessus une règle de stabilité dans le temps et l'espace, c'est-à-dire de reproductibilité dans le cadre de lois d'évolution. 3.1.6.1 Règle de stabilité Règle : "Les mêmes causes produisent toujours les mêmes effets" (reproductibilité : dans la nature les évolutions obéissent à des lois). Les lois physiques dont l'application est déclenchée par une cause donnée sont stables, elles sont les mêmes en tous lieux et à tout instant. Conséquence de la stabilité : une situation stable n'a jamais évolué et n'évoluera jamais ! Pour qu'il y ait une évolution à partir d'un instant t il faut élargir la définition du système observé. En fait, l'écoulement du temps ne se manifeste que lorsque quelque chose évolue ; si rien n'évolue tout se passe comme si le temps s'arrêtait. La règle de stabilité n'a rien d'anodin : elle a pour conséquence la première loi du mouvement de Newton, la loi d'inertie : "Un corps immobile ou se déplaçant en ligne droite à vitesse constante restera immobile ou gardera le même vecteur vitesse tant qu'une force n'agit pas sur lui." Au point de vue déterminisme, le mouvement rectiligne uniforme d'un corps est une situation stable, qui ne changera pas tant qu'une force n'agira pas sur le corps ; et une situation stable est sa propre cause et sa propre conséquence. Grâce à la règle de stabilité on peut induire une loi physique de la nature d'un ensemble d'enchaînements cause-conséquence constatés : si j'ai vu plusieurs fois le même 70 enchaînement, je postule que la même cause (la même situation, le même état d'un système) produit toujours la même conséquence (la même évolution dans le temps). On peut alors regrouper le postulat de causalité et la règle de stabilité en un principe qui régit les lois de la nature décrivant une évolution dans le temps, le postulat de déterminisme scientifique énoncé ci-dessous. 3.1.6.2 Importance de la vitesse et de l'amplitude d'une évolution En pratique, la stabilité d'une loi physique d'évolution est soumise à des incertitudes, comme une variable physique : ses paramètres sont entachés d'erreurs. Une loi d'évolution décrit celle-ci à partir d'une situation initiale en appliquant des règles de calcul. Mais une variable des données initiales, des règles de calcul et de l'heure de l'instant initial n'est connue avec une précision parfaite que lorsque c'est une unité internationale, définie arbitrairement, comme la vitesse de la lumière c = 299 792 458 mètres/seconde exactement ; toutes les autres variables sont entachées d'erreurs, donc le résultat aussi : la prédiction d'une évolution est, en pratique, entachée d'erreurs. Un système est stable lorsque ses variations sont trop petites et/ou trop lentes pour être observées. Un système qui paraît stable en ce moment a peut-être évolué de manière perceptible dans le passé, mais de plus en plus lentement, ou avec de moins en moins d'amplitude jusqu'à paraître stable en ce moment ; et peut-être évoluera-t-il de plus en plus vite ou de plus en plus fort à l'avenir. Exemple Au début d'un cours d'astronomie on considère seulement la direction dans laquelle se trouve une étoile, en ignorant sa distance et son éventuel mouvement par rapport à la Terre. Les étoiles sont alors censées se trouver sur une immense sphère appelée « sphère des fixes », modèle cosmographique qui postule la fixité de la direction de visée de chaque étoile. En effet, à l'échelle de quelques siècles et à fortiori à celle d'une vie humaine, les étoiles paraissent immobiles sur la sphère des fixes : leurs directions et leurs positions relatives ne changent pas. En fait, l'immobilité apparente des étoiles n'existe que si on mesure leurs directions angulaires avec une précision modeste, notamment lorsqu'un homme compare un ciel de sa jeunesse, vu à l'œil nu, avec un ciel de son âge mur. Dès qu'on effectue des mesures de vitesse précises par effet Doppler (déplacement des raies spectrales) on s'aperçoit que les étoiles bougent par rapport à la Terre : les positions stables connues ont été complétées par des lois mathématiques de déplacement. Conclusions La vitesse mesurée d'évolution d'un phénomène n'a pas de raison d'être constante. Une évolution lente aujourd'hui peut avoir été beaucoup plus rapide dans le passé. Exemples : L'expansion de l'Univers observable, dont le rayon augmente aujourd'hui à la vitesse de la lumière, c, a été des milliards de fois plus rapide peu après la naissance de l'Univers (mais avant le Big Bang), pendant une phase appelée inflation [313]. Cette expansion hyperrapide n'a duré qu'un très court instant, moins de 10-35 seconde. 71 Considérons un système physique fermé (n'échangeant rien avec l'extérieur) tel qu'un tube allongé plein d'air. Supposons qu'au début de l'expérience l'air de la partie gauche du tube a été chauffé, pendant que l'air de la partie droite restait froid. Lorsqu'on arrête le chauffage et qu'on laisse l'air du tube fermé évoluer sans intervention extérieure, sa température tend vers une température limite, uniforme, en variant de plus en plus lentement. La température stable constatée au bout d'un temps assez long pour que notre thermomètre de mesure ne bouge plus est le résultat d'une évolution convergente, pas le résultat d'une absence d'évolution. Un observateur qui ne voit qu'un thermomètre qui ne bouge pas aurait tort d'en conclure que l'air du tube a toujours été à la même température. En résumé : compte tenu de l'imprécision inévitable de toute mesure physique, on ne peut conclure d'un état actuel de stabilité ni qu'il n'a jamais évolué, ni qu'il n'évoluera jamais, ni depuis combien de temps il n'évolue pas, ni qu'il n'évoluera pas beaucoup plus vite dans l'avenir… Exemple : si on photographie le balancier d'un pendule oscillant avec un temps d'exposition de un dixième de seconde lorsque ce balancier est au sommet de sa course, on aura une photo nette car il bouge alors lentement ; mais une photo de même temps d'exposition au point le plus bas du balancier sera « bougée ». Du point de vue philosophique, on doit tenir compte de la possibilité qu'une évolution dans le temps ait une vitesse et une amplitude variables, c'est-à-dire décrites par des fonctions non linéaires. La vitesse et l'amplitude d'évolution d'un phénomène, trop petites pour être mesurables à un instant donné, ne l'ont pas nécessairement toujours été, et ne le resteront pas nécessairement toujours à l'avenir. 3.1.6.3 Définition du déterminisme scientifique Définition : le déterminisme scientifique est un postulat qui régit l'évolution dans le temps d'une situation sous l'effet des lois de la nature, conformément au postulat de causalité et à la règle de stabilité. Par rapport au déterminisme philosophique, le déterminisme scientifique : Prédit qu'une situation évoluera certainement sous l'action d'une loi naturelle, mais pas qu'on en connaîtra la valeur future des variables d'état ; N'affirme pas la possibilité de reconstituer mentalement le passé. (Cette possibilité existe avec le déterminisme statistique, qui ajoute au déterminisme scientifique les conséquences de la prise en compte des lois déterministes de populations d'objets et de l'équation de Schrödinger.) Le déterminisme scientifique est basé sur les lois vérifiées de la physique. Il n'est pas, comme le déterminisme philosophique, basé sur la foi (issue des Lumières [47] et de la doctrine de l'Idéalisme transcendantal de Kant [372]) en une Science qui permettra un jour de tout comprendre et prévoir. Remarque importante Le déterminisme scientifique affirme donc que la nature déclenche automatiquement et instantanément une évolution lorsque ses conditions sont réunies ; les 72 conséquences de ces conditions sont le déclenchement et le déroulement d'une évolution définie par une loi, pas une situation à un instant futur (abstraction humaine). Le déterminisme scientifique n'affirme rien sur la prédictibilité des valeurs des variables d'état d'un système aux divers instants futurs, ni sur l'unicité de valeur d'une variable à un instant donné. Nous verrons que la prévision de la valeur d'une variable d'un système physique à un instant donné est parfois impossible ou imprécise, et parfois que cette valeur n'est même pas unique. 3.1.6.3.1 Déterminisme des évolutions régies par des équations différentielles Dans de nombreux phénomènes physiques, l'évolution d'un système est modélisée par une équation différentielle ou un système d'équations différentielles comprenant des dérivations par rapport au temps. Lorsque c'est le cas, la connaissance des conditions initiales permet de déterminer toute l'évolution ultérieure de ses variables, soit parce qu'on peut exprimer celles-ci comme fonctions du temps, soit parce qu'on peut calculer les valeurs successives de ces variables de proche en proche. L'évolution du système est alors déterministe au sens scientifique traditionnel et on peut même parler de déterminisme mathématique. L'existence d'une description du mouvement par équation(s) différentielle(s) implique qu'à tout instant t, le mouvement pendant l'intervalle de temps infiniment petit dt suivant ne dépend que des conditions à cet instant-là, et on peut le calculer sans tenir compte des conditions initiales ou des évolutions qui précèdent l'instant t. La position et la vitesse à tous les instants qui suivent t ne dépendent que des conditions à l'instant t. Le mouvement global, depuis un instant quelconque à partir de t = 0, résulte de l'application répétée du principe précédent : la chaîne de causalité est continue. Le futur dépend du seul présent, pas du passé. Exemples souvent cités : les équations différentielles de la dynamique (2 ème loi de Newton [110]) et de Schrödinger. 3.1.6.3.2 Déterminisme des formules, algorithmes et logiciels Un cas particulier d'évolution est la traduction instantanée d'un concept en un autre, par application d'une formule ou d'un algorithme. Exemple : la loi d'attraction universelle de Newton entre deux points matériels de masses M et M' distants de d s'exprime par la formule F = GMM'/d², où G est la constate universelle de gravitation, G = 6.67 .10-11 Nm²/kg² [110]. Connaissant M, M' et d, on en déduit immédiatement la force d'attraction F ; cette force existe sans délai d'évolution, dès qu'existent M, M' et d. Le déterminisme de la nature régit donc, en plus de ses lois d'évolution, des lois et méthodes de calcul traduisant des données initiales en un résultat final qui est leur conséquence, sans délai d'évolution. Un algorithme de calcul est écrit dans le cadre d'une axiomatique [67] et un programme est écrit dans un langage informatique. Chacune des règles de déduction de l'axiomatique et chacune des instructions du programme respecte les conditions du postulat de causalité et de la règle de stabilité : l'algorithme et le programme étant donc des suites de processus déterministes, sont globalement déterministes. Pourtant, le résultat d'un algorithme ou d'un calcul n'est pas prédictible à la seule vue de leur texte. En particulier, on ne peut savoir s'ils produisent les résultats attendus qu'en déroulant l'algorithme par la pensée et en exécutant le programme. 73 Théorème : il n'existe pas d'algorithme général permettant de savoir si un programme donné s'arrête (donc fournit son résultat) ou non. On ne peut pas, non plus, savoir si la progression vers ce résultat est rapide ou non : un programme peut se mettre à boucler, repassant indéfiniment sur la même séquence d'instructions, et un algorithme peut converger très lentement ou même ne pas converger du tout ; si l'exécution d'un programme doit durer 100 ans aucun homme ne l'attendra. Il existe donc des processus déterministes : dont le résultat est imprévisible avant leur déroulement ; dont le déroulement peut durer si longtemps qu'on ne peut se permettre de l'attendre pour avoir le résultat. Nous voyons donc, sur cet exemple, que le déterminisme d'un processus n'entraîne pas nécessairement la prédictibilité de son résultat. Approfondissons ce problème. 3.1.6.4 Déterminisme scientifique et obstacles à la prédiction Nous allons voir que l'évolution naturelle d'un système peut être déterministe (au sens du déterminisme scientifique) sans que l'état résultant du système soit prédictible. Résultat d'une évolution physique Le résultat à un instant donné de l'évolution physique d'un système est un état caractérisé par les valeurs d'un certain nombre de variables. Chacune de ces variables a un ensemble de définition et (souvent) une unité de mesure. Exemples d'ensembles de définition : Une longueur est un nombre réel positif de mètres ; Une énergie électromagnétique échangée à l'aide de photons de fréquence est un nombre de joules multiple entier de h, où h est la constante de Planck ; En Mécanique quantique, une mesure ne peut donner comme résultat qu'une valeur propre [278] de l'observable [30] du dispositif de mesure. Prédire un résultat d'évolution d'une variable consiste à prédire quel élément de son ensemble de définition résultera de l'application de la loi d'évolution, c'est-à-dire quel élément de cet ensemble elle choisira à un instant donné. En physique atomique, la prédiction utilise la Mécanique quantique et a pour résultat un ensemble connu de valeurs munies de probabilités d'apparition. Déterminisme et prédictibilité Dans le cas général, le déterminisme d'une loi de la nature n'entraîne ni la prédictibilité de ses résultats, ni leur précision. Dans les définitions du postulat de causalité et du déterminisme scientifique nous avons renoncé à prédire un résultat d'évolution. Mais comme nous savons qu'une cause déclenche l'application d'une loi de la nature, le problème de prédire un résultat d'évolution devient celui de prédire le résultat de l'application d'une telle loi. 74 Remarques philosophiques préalables La nature "connaît" des situations-causes et les lois qu'elle applique automatiquement à chacune, mais elle ne connaît pas la notion de résultat, notion et préoccupation humaines. Nous pouvons donc éliminer tout de suite une cause d'impossibilité de prévoir indépendante de la nature : l'intervention du surnaturel. Il est clair que si nous admettons la possibilité qu'une intervention surnaturelle déclenche, empêche ou modifie le déroulement d'une évolution naturelle, nous renonçons en même temps à prévoir son résultat. Nous postulerons donc le matérialisme. En outre, aucune intervention provenant d'un éventuel extérieur de l'Univers n'est possible du fait de la Relativité Générale [328], ce qui exclut toute intervention transcendante [334] de l'extérieur de l'Univers vers l'intérieur ou de l'intérieur vers l'extérieur. Nous exclurons aussi toute intervention provenant de l'intérieur mais n'obéissant à aucune loi de la nature, en nous réservant de préciser plus bas la notion de hasard et sa portée. Cette validation par l'expérience, la falsifiabilité [203] et l'absence de preuve de fausseté ou de contradiction distinguent une théorie scientifique d'une explication magique, surnaturelle ou fantaisiste. Voir en fin de texte la table résumant les cas d'imprédictibilité. Quatre causes très fréquentes d'imprédictibilité Voici quatre raisons qui empêchent de prédire le résultat d'une loi déterministe d'évolution : l'ignorance, l'imprécision, le caractère stochastique [31] et la complexité. 3.1.6.4.1 L'ignorance de la loi d'évolution Pour prédire le résultat d'une loi il faut d'abord la connaître. Il y a beaucoup de phénomènes que la science ne sait ni expliquer, ni même décrire ; exemple : le déclenchement et l'enchaînement des pensées dans l'inconscient [353]. Et malgré Internet qui, de nos jours, permet de trouver beaucoup de renseignements et de poser des questions à des gens qualifiés, une personne donnée a nécessairement des lacunes. De toute manière, la méconnaissance d'un phénomène ne nous autorise pas à l'attribuer au hasard, c'est-à-dire à affirmer que la nature fait n'importe quoi, qu'il y a évolutions où elle ne suit aucune loi, mais improvise. Nous supposerons donc cidessous que toute tentative de prédiction est faite dans un contexte où les lois d'évolution sont connues et stables. 3.1.6.4.2 L'imprécision Le postulat de causalité et le déterminisme scientifique ne promettent pas la prédictibilité d'un résultat, ni sa précision lorsqu'on a pu le prévoir ; pourtant la précision est une préoccupation humaine. Voici des cas où la précision du résultat (calculé ou mesuré) de l'application d'une loi d'évolution peut être jugée insuffisante par l'homme. Imprécision des paramètres et hypothèses simplificatrices d'une loi d'évolution Une loi d'évolution qui a une formulation mathématique a des paramètres. Si ceux-ci sont connus avec une précision insuffisante, le résultat calculé sera lui-même entaché d'imprécision. C'est le cas notamment lorsqu'une loi d'évolution fait des hypothèses simplificatrices. Exemple d'approximation : la dynamique d'un pendule simple est décrite par une équation différentielle non linéaire. Pour simplifier la résolution de cette équation, 75 on recourt à « l'approximation des petites oscillations », qui assimile un sinus à son angle en radians. Cette simplification entraîne des erreurs de prédiction du mouvement qui croissent avec l'amplitude des oscillations. Imprécision ou non-convergence des calculs dans un délai acceptable Si le calcul d'une formule ou d'une solution d'équation est insuffisamment précis, le résultat peut être lui-même imprécis. Il arrive aussi que l'algorithme du modèle mathématique du phénomène ne puisse fournir son résultat, par exemple parce qu'il converge trop lentement. Il peut enfin arriver que le modèle mathématique d'un processus déterministe ait un cas où le calcul de certaines évolutions est impossible, le livre en cite un concernant une propagation d'onde. Sensibilité du modèle d'évolution aux conditions initiales Il peut arriver qu'une variation minime, physiquement non maîtrisable, de ses données initiales, produise une variation considérable et imprévisible du résultat d'un phénomène dont la loi d'évolution est pourtant déterministe et à évolution calculable. C'est le cas, par exemple, pour la direction dans laquelle va tomber un crayon posé verticalement sur sa pointe et qu'on vient de lâcher. (Heureusement, le principe d'incertitude de Heisenberg est censé ne s'appliquer qu'à un système à l'échelle atomique, donc infiniment plus petit qu'un crayon. Car s'il s'appliquait ici, le crayon tomberait dans toutes les directions à la fois en superposition, puisqu'il ne peut être immobile et que son état initial a une symétrie de révolution par rapport à la verticale !) C'est le cas, aussi, des « systèmes dissipatifs à évolution apériodique sur un attracteur étrange dans un espace des phases (définition) ayant au moins 3 dimensions » (explication). Il y a là un phénomène mathématique d'amplification d'effet : l'évolution parfaitement déterministe, donc précise et calculable, à partir d'un ensemble d'états initiaux extrêmement proches, peut aboutir, après un certain temps, à des états finaux très différents. Ce type d'évolution est appelé « chaos déterministe ». On peut, dans ce cas-là, démontrer l'impossibilité de prévoir avec une précision suffisante l'évolution et son état final après un temps donné : il ne peut exister d'algorithme de calcul prévisionnel de cet état final qui soit peu sensible à une petite variation des données initiales. Il ne peut même pas exister d'intervalle statistique de confiance encadrant une variable de l'état final. Le déterminisme n'est pas en cause en tant que principe, mais une prédiction précise d'état final demande une précision infinie dans la connaissance et la reproductibilité de l'état initial et des paramètres d'évolution, conditions physiquement inaccessibles. Cette impossibilité traduit un refus de la nature de satisfaire notre désir de prévoir avec précision l'évolution de certains systèmes. Exemples. Ce phénomène se produit dans certains écoulements turbulents et dans l'évolution génétique des espèces, avec apparition de solutions regroupées autour de points particuliers de l'espace des phases appelés « attracteurs étranges ». En pratique, cette amplification d'effet réduit beaucoup l'horizon de prévisibilité. 76 Instabilité dans le temps d'une loi d'évolution Même s'ils sont bien connus à un instant donné, certains paramètres d'une loi d'évolution peuvent être instables d'une situation à une autre, entraînant l'impossibilité de prédire une évolution trop longtemps à l'avance. C'est le cas, par exemple, pour une loi d'évolution qui bifurque (se transforme en deux autres lois) du fait d'un paramètre qui franchit ou non une valeur critique à cause d'un autre phénomène. Voir aussi [281]. 3.1.6.4.3 Le caractère stochastique - Déterminisme statistique Certaines lois physiques, notamment à l'échelle atomique, ont un caractère stochastique (on dit aussi probabiliste) [31]. Voici leurs conséquences sur la prédictibilité des évolutions. Déterminisme statistique : lois d'évolution stochastiques Avec la définition ci-dessus du déterminisme scientifique, on ne peut pas opposer les adjectifs déterministe et stochastique [31] : nous verrons, par exemple, que la loi d'évolution de Mécanique quantique appelée décohérence produit des résultats probabilistes - donc qualifiés habituellement de stochastiques. Cette loi sera dite déterministe parce qu'elle respecte le principe de causalité et la règle de stabilité, mais comme elle produit des résultats multiples distribués selon une loi de probabilité il s'agira d'un déterminisme statistique. Voici des causes d'imprédictibilité. Imprécision due à la Mécanique quantique, outil mathématique de la physique quantique En physique quantique (physique de l'échelle atomique [325]), la précision sur l'état d'un système est limitée par la représentation par fonctions d'ondes de probabilités de la Mécanique quantique. Exemples : La position et la vitesse d'un corpuscule en mouvement dans un champ de force électromagnétique ne peuvent être déterminées avec une incertitude meilleure que la moitié de la largeur du paquet d'ondes de probabilité qui l'accompagne. Quelle que soit la petitesse du temps de pose d'une photographie instantanée (théorique) du corpuscule, celui-ci apparaîtra toujours flou parce qu'il est en une infinité d'endroits (très proches) en même temps. Pire, même : plus la détermination de la position à un instant donné est précise, plus celle de la vitesse est imprécise, et réciproquement : c'est le « principe d'incertitude de Heisenberg ». Un résultat de physique quantique [325] est inséparable des conditions expérimentales. La Mécanique quantique prédit la fréquence statistique d'apparition de chaque valeur qu'on peut mesurer dans une expérience donnée, dont la reproductibilité des résultats n'est que statistique. En physique quantique, le déterminisme n'est que statistique, il ne permet de prédire que des résultats distribués selon une loi statistique, pas un résultat unique précis ; il contient donc une part de hasard. En Mécanique quantique, non seulement toute mesure perturbe le système mesuré, mais en l'absence de mesure ou avant la mesure la variable mesurée n'a aucune probabilité d'avoir quelque valeur que ce soit : c'est la mesure qui « crée » la valeur d'une variable, et en son absence cette valeur n'existe pas. 77 Il y a là une énorme différence avec la physique macroscopique, où la position d'un corps existe qu'on la mesure ou non, et où une mesure ne perturbe pas nécessairement l'objet mesuré. L'évolution qu'est l'établissement ou la rupture d'une liaison chimique entre atomes, molécules, ou atome et molécule est régie par l'équation de Schrödinger et le principe d'exclusion de Pauli. Cette évolution se fait vers la structure la plus stable, celle de moindre énergie potentielle, comme le veut la thermodynamique. La Mécanique quantique montre qu'il y a souvent plusieurs résultats d'évolution possibles, chacun avec sa probabilité. Cette possibilité qu'une liaison chimique s'établisse ou se rompe avec une certaine probabilité a des conséquences importantes en biologie moléculaire, où elle peut être cause d'anomalies génétiques ou de variations d'expression de gènes. On a montré expérimentalement dans les années 1920 qu'en favorisant les perturbations accidentelles de l'énergie de liaison moléculaire du génome de l'orge au moyen de rayons X on provoquait de multiples mutations artificielles. On a ainsi obtenu des plantes de couleur blanche, jaune pâle ou à bandes de couleurs alternées. Depuis cette date, des mutations artificielles sont déclenchées dans de nombreux pays pour obtenir des espèces nouvelles de plantes ayant des propriétés intéressantes. On a ainsi obtenu des espèces plus résistantes et d'autres donnant de meilleurs rendements. Fluctuations quantiques Le refus de précision et de stabilité de la nature peut se manifester par des fluctuations d'énergie quantiques. Exemple : en un point quelconque de l'espace vide, à l'intérieur d'un atome ou même entre galaxies, l'énergie peut brusquement varier en l'absence de perturbation, sans cause autre que le refus de la nature qu'elle soit définie avec une valeur précise. Cette variation d'énergie ΔE peut être d'autant plus grande que sa durée Δt sera brève. En moyenne, toutefois, l'énergie au point de fluctuation reste constante : si la nature a "emprunté" une énergie ΔE au vide environnant, elle la restitue en totalité environ Δt secondes après. L'énergie est empruntée à l'énergie potentielle du champ de gravitation. Ce phénomène d'instabilité de l'énergie viole la règle de stabilité du déterminisme et empêche de définir des conditions de causalité ! Il survient brusquement, de manière imprévisible, sans cause identifiable. C'est une instabilité dans le temps, traduisant l'impossibilité de définir l'énergie en un point de l'espace vide avec une incertitude sur l'énergie et un intervalle de temps tous deux arbitraires. Du point de vue prévisibilité, on ne peut prévoir ni où une fluctuation se produira (il y en a partout), ni quand, ni avec quelle variation d'énergie ΔE. Ce phénomène n'a rien de négligeable : on lui attribue, peu après le début de l'Univers, des variations de densité d'énergie à l'origine de la matière des galaxies ! A l'échelle alors extrêmement petite de l'Univers, ces variations d'énergie étaient si colossales, leur perturbation de l'espace-temps si considérable, que les équations de la Relativité Générale ne pouvaient s'appliquer. (Voir "Distance, temps, densité et masse de Planck") Conclusion philosophique : à l'échelle atomique toute variation naturelle n'est pas une évolution et n'est pas nécessairement déterministe ; il y a des cas d'instabilité. 78 Imprécision par évolutions simultanées à partir d'un même état initial - Décohérence A l'échelle atomique, la nature permet des superpositions (combinaisons linéaires [29]) de solutions d'équations décrivant l'évolution d'un système dans le temps et l'espace. C'est ainsi qu'un atome peut parcourir plusieurs trajectoires à la fois, produisant des franges d'interférence avec lui-même lorsqu'il passe à travers deux fentes parallèles, même distantes de milliers de diamètres atomiques. C'est ainsi qu'une molécule peut être dans plusieurs états (structures) à la fois. Exemple : la molécule d'ammoniac NH3 a une structure en forme de tétraèdre, où le sommet (atome d'azote N) peut être « au-dessus » ou « au-dessous » du plan des 3 atomes d'hydrogène. A un instant donné, la forme de la molécule peut être « plutôt au-dessus et un peu au-dessous » ou le contraire, du fait de l'effet tunnel (effet statistique de présence au-delà d'une barrière de potentiel électrique sans cause physique de type force entraînant un quelconque déplacement). Les deux formes, « au-dessus » et « au-dessous » de la molécule existent alors simultanément : on dit qu'elles sont « en superposition », « cohérentes ». Lorsque le temps passe, la molécule peut évoluer progressivement d'une forme à l'autre par effet tunnel à une certaine fréquence, dite d'inversion. Lorsqu'un dispositif macroscopique détermine cette forme à l'instant t, il la trouve dans un seul des états, rendu stable par la mesure qui arrête l'oscillation d'inversion : on dit alors que le dispositif a détruit la cohérence de la superposition, qu'il y a eu « décohérence ». Si on refait l'expérience un grand nombre de fois, on trouvera statistiquement 50% de présences « au-dessus » et 50% de présences « audessous ». Lorsqu'une expérience détermine la forme de la molécule NH 3, la nature choisit au hasard celui des deux états symétriques qu'elle révélera à l'homme. Notons que dans ce cas l'état révélé n'est pas quelconque, c'est un élément d'un ensemble parfaitement prédéfini de 2 solutions appelé spectre des valeurs propres [278] du dispositif de mesure : le hasard naturel est alors limité au choix d'une des valeurs du spectre, valeurs toutes connues avec précision avant chaque choix. Dans le cas de la molécule d'ammoniac précédente, la nature choisit entre 2 solutions symétriques de même forme géométrique : « au-dessus » et « audessous ». Ce phénomène est général en physique quantique [325] : lorsqu'une expérience mesure une grandeur qui a plusieurs valeurs superposées, l'expérience en choisit une sans que l'expérimentateur puisse prédire laquelle. Toutefois, les valeurs possibles parmi lesquelles l'expérience choisit appartiennent à un ensemble connu à l'avance : l'ensemble des valeurs propres du dispositif de mesure ; en répétant l'expérience un grand nombre de fois, les diverses valeurs propres "sortiront" avec une probabilité (ou une densité de probabilité) connue à l'avance. (Voir postulats 3 et 4 de la Mécanique quantique.) Du point de vue déterminisme, le hasard se limite au choix d'une valeur appartenant à un ensemble prédéterminé et affectée d'une probabilité (ou une densité de probabilité) également prédéterminée. On peut appeler hasard ce déterminisme de l'échelle atomique, mais comme les résultats finaux ne sont pas quelconques puisqu'ils respectent une distribution statistique, je préfère l'appeler déterminisme statistique, une forme du déterminisme étendu. 79 Le refus de la nature de satisfaire le désir de l'homme de distinguer parfois deux photons à trajectoires différentes atteint un sommet avec le phénomène de nonséparabilité. Dans une expérience [10], deux photons qui ont la propriété d'ensemble d'avoir des polarisations en sens opposé (photons dits intriqués ou corrélés) restent un ensemble indivisible du fait de cette propriété même quand ils se sont éloignés l'un de l'autre de 144 km : si on mesure la polarisation de l'un – ce qui la change – la polarisation de l'autre change aussi aussitôt, la conséquence se propageant de l'un à l'autre à vitesse infinie puisqu'ils ne font qu'un dans l'ensemble de départ, qui conserve son unité tout en se déformant. En somme, toute mesure faite au point A sur une particule peut instantanément influencer une mesure en un point B, même très distant, sur une autre particule, si les deux particules sont corrélées ; et après la mesure, l'interaction qui a corrélé les particules a disparu, les photons ayant été absorbés par le dispositif de mesure. Explication : les deux photons ont été créés ensemble, avec une énergie commune et une information d'existence commune. Mesurer un photon n'est possible qu'en lui prenant son énergie, toute son énergie. Donc lorsqu'on mesure (ou détecte) un des photons intriqués, on ne peut que prendre leur énergie commune, en une fois, en détruisant l'information qui leur est commune pour la céder à l'instrument de mesure. C'est pourquoi détecter un photon détruit l'autre. Imprécision par étalement d'un paquet d'ondes Les ondes de probabilité accompagnant le déplacement d'un corpuscule se rattrapent et se chevauchent, et le paquet d'ondes s'étale tout en se déplaçant. Cet étalement fait croître progressivement l'imprécision sur la position du corpuscule. En somme, à l'échelle atomique, beaucoup de désirs humains concernant la prédiction d'un résultat, son unicité, sa précision ou sa stabilité sont refusés par la nature. Incertitude relativiste sur la relation de causalité entre deux événements Il y a une propriété de l'espace-temps liée à la vitesse de la lumière, propriété qui fait réfléchir à la définition même de la causalité qui situe un événement avant un autre. Dans certains cas précis, deux événements A et B peuvent être vus par certains observateurs dans l'ordre A puis B, et par d'autres observateurs dans l'ordre B puis A ! Les premiers auront connaissance de A avant B et en tireront des prédictions différentes des seconds, qui verront apparaître B avant A. 3.1.6.4.4 La complexité Evolution d'une situation régie par une ou plusieurs loi(s) déterministes L'effet global d'un grand nombre de phénomènes déterministes, simultanés ou non, peut être imprévisible, même si chacun est simple et à résultat prévisible. Exemple : considérons une petite enceinte fermée qui contient un nombre immense de molécules identiques de liquide ou de gaz. Le seul fait que ces molécules aient une température supérieure au zéro absolu fait qu'elles s'agitent sans cesse, l'énergie cinétique associée à leur vitesse provenant de la température. Cette agitation, appelée mouvement brownien, les fait rebondir les unes sur les autres et sur les parois, conformément à des lois des chocs élastiques parfaitement connues et déterministes, 80 sans intervention du hasard. Mais il est impossible de connaître la position et la vitesse à l'instant t d'une molécule donnée, car : Elle a subi trop de rebonds contre d'autres molécules en mouvement et contre les parois de l'enceinte pour que les calculs soient à la portée d'un ordinateur, même très puissant ; A l'échelle atomique, chaque rebond de molécule est affecté par sa forme irrégulière, la rugosité locale de la paroi, et l'imprécision sur la position, la direction et la vitesse d'un choc due à la largeur du paquet d'ondes accompagnant chaque molécule. La loi des chocs élastiques est donc difficile à appliquer avec précision, les conditions initiales de chaque choc étant entachées d'erreurs non négligeables et aucune approche statistique n'étant possible. Cette impossibilité de connaître le mouvement précis d'une molécule donnée est très générale : la combinaison d'un grand nombre de phénomènes déterministes à évolution individuelle prévisible produit une évolution imprévisible, que ces phénomènes soient ou non du même type. Par combinaison il faut entendre ici : soit une succession de phénomènes de même type comme les chocs élastiques d'une molécule donnée ; soit la simultanéité de phénomènes déterministes différents qui agissent indépendamment ou interagissent pour produire un effet global ; soit l'instabilité d'un phénomène qui change de loi d'évolution selon un paramètre critique soumis à un autre phénomène d'évolution lors d'une bifurcation. En résumé, la complexité d'un phénomène à composantes déterministes produit en général une évolution imprévisible, et encore plus imprévisible si on prend en compte les imprécisions dues à la Mécanique quantique. Il faut pourtant se garder d'attribuer au hasard une évolution qui n'est imprévisible que parce que la complexité du phénomène d'origine rend trop difficile la prédiction de son résultat par calcul ou raisonnement. Nous verrons que le caractère aléatoire d'une évolution à l'échelle atomique (décrite donc par la Mécanique quantique) caractérise un choix d'élément de l'ensemble (déterministe) des résultats-valeurs propres [278] possibles d'une équation, alors que le hasard caractérise l'inexistence d'un algorithme à résultats utilisables. L'imprévisibilité par excès de complexité, qui n'existe pas en théorie dans la nature (ses lois d'évolution étant déterministes), sévit hélas en pratique. Elle n'affecte pas la nature, qui jamais n'hésite ou ne prévoit l'avenir, mais elle empêche l'homme de prédire ce qu'elle va faire. Et l'imprévisibilité est d'autant plus grande que le nombre de phénomènes successifs ou simultanés est grand, que leur diversité est grande, que leurs interactions sont nombreuses et que l'imprécision quantique intervient. Les interactions entre phénomènes ont un effet sur leur déterminisme lui-même. Une évolution dont le résultat impacte les conditions initiales d'une autre évolution joue sur la reproductibilité de cette dernière, ce qui handicape encore plus la prédiction de son résultat. 81 C'est pourquoi les phénomènes les plus complexes (ceux des êtres vivants, du psychisme [347] de l'homme et de sa société) ont beau ne comporter au niveau biologie moléculaire que des évolutions physiques déterministes, leurs résultats sont en général si imprévisibles que l'homme a l'impression que la nature fait n'importe quoi. Enfin, ce qui se passe dans l'inconscient [353] est en général imprévisible, sauf peutêtre de manière approximative pour un psychanalyste. Approche analytique ou approche holistique ? La discussion précédente montre qu'il est souvent impossible de prévoir l'évolution d'une situation complexe, même si tous les paramètres de cette évolution sont déterministes, à partir d'une connaissance de toutes ses lois d'évolution et d'interaction : cette approche analytique est très souvent vouée à l'échec. On peut alors abandonner cette approche analytique au profit d'une approche plus globale, holistique. Au lieu de tenter la synthèse d'un nombre immense de phénomènes déterministes, on regroupera ceux-ci en « macro-phénomènes » dont on étudiera le comportement. Exemple 1 : au lieu de s'intéresser au comportement (sans intérêt !) de chacune des milliards de molécules de gaz d'un récipient ou même d'une seule molécule particulière, on s'intéresse à la température et à la pression qui règnent dans ce récipient, variables macroscopiques rendant compte des propriétés d'ensemble des molécules du récipient. Exemple 2 : pour prévoir le chiffre d'affaires des ventes de vêtements d'hiver en France pour une semaine donnée en fonction de la température ressentie, on remplace l'interview de chaque acheteur potentiel (utopique !) par la considération d'un « acheteur français moyen » (population dont on estime le nombre), et on remplace les températures des divers jours ouvrables par la moyenne hebdomadaire de leurs valeurs minimales. Exemple 3 : l'écoulement turbulent d'un fluide est trop complexe à étudier et décrire en fonction des 4 paramètres mesurables que sont sa densité, sa vitesse, sa viscosité cinématique et la longueur d'un obstacle. On utilise une variable sans dimension unique qui en dépend, le nombre de Reynolds [293]. Les exemples 1 et 2 illustrent une première approche des problèmes complexes, l'utilisation de modèles statistiques ; l'exemple 3 illustre une autre simplification, le regroupement de paramètres. Nous allons à présent évoquer brièvement la résolution de problèmes complexes ne se résumant pas, comme les précédents, à prévoir par calcul un ensemble de résultats d'évolution. Nous sortirons provisoirement du sujet des évolutions déterministes pour raisonner le plus logiquement possible sur deux problèmes plus généraux : Prise de décision en vue d'un objectif dans une situation à la fois complexe et incertaine ; Conduite de projets complexes. 82 La complexité limite l'applicabilité des modèles statistiques L'économiste Prix Nobel Von Hayek distinguait deux types de domaines complexes. Dans les domaines « à complexité non organisée », les difficultés de compréhension et de modélisation du comportement dues à la complexité peuvent être contournées grâce à des variables statistiques. C'est le cas, par exemple, en Mécanique statistique, où le comportement d'un volume de gaz ou de liquide comportant un nombre immense de molécules animées de mouvements d'agitation thermique (dits "browniens") peut être modélisé statistiquement à l'aide de moyennes de variables comme la température absolue, la pression et l'énergie d'une molécule. Les lois d'évolution de ces variables sont déterministes. Exemple : la loi des gaz parfaits pv=nRT. Dans les domaines « à complexité organisée », les divers éléments d'un système ont, en plus de propriétés individuelles et de fréquences d'apparition, des interactions complexes et de types différents qu'on ne peut déterminer quantitativement ou modéliser statistiquement du fait de leur complexité. C'est le cas, par exemple, des marchés d'une économie, où interviennent de nombreux acteurs interdépendants, et où les hypothèses économiques traditionnelles de rationalité des acteurs et de concurrence pure et parfaite sont loin d'être satisfaites. Dans ce cas, on ne pourra jamais connaître exhaustivement toutes les variables décrivant les divers agents économiques et leurs interactions, et on ne pourra donc pas – même avec un ordinateur puissant – modéliser le marché et prévoir son évolution avec précision [301]. C'est pourquoi (Hayek a reçu un Prix Nobel d'économie pour l'avoir démontré) l'économie communiste de l'ex-URSS n'a jamais pu avoir une planification centralisée de la production et de la consommation qui fonctionne. L'organisme administratif de planification (le Gosplan) n'a jamais pu connaître les détails précis de ce qu'il était vraiment possible de produire et de transporter, ce qui était effectivement produit, où et à quelle date, etc. Ce qu'il a pu savoir était toujours fragmentaire et trop en retard sur la réalité. Il ne pouvait tenir compte d'aléas climatiques locaux impactant l'agriculture ou les transports. Bref, il n'a jamais pu disposer d'informations suffisantes pour piloter la production, le transport et la consommation, d'où des pénuries et des gaspillages énormes. En fait, la totalité des informations nécessaires pour déterminer l'évolution d'un marché à partir d'une situation donnée n'est disponible que pour l'entité abstraite qu'est le marché lui-même, pas pour un être humain ou une organisation humaine. Et comme le comportement humain est souvent imprévisible parce que soumis à des émotions irrationnelles et des anticipations, l'évolution d'un marché à partir d'une situation donnée est non déterministe. Hayek a montré qu'on ne pouvait alors établir que des lois qualitatives décrivant des relations entre variables économiques et permettant de prévoir des tendances d'évolution ; en aucun cas on ne pouvait prévoir le comportement d'un agent économique donné ou la survenance d'un événement particulier comme la date d'éclatement d'une bulle spéculative ou un effondrement boursier [301]. La rigueur des raisonnements Il y a un autre obstacle à la prise de décisions et la conduite de projets dans le cas des problèmes complexes : l'aptitude des hommes à raisonner correctement. 83 Exemple Quelle politique adopter pour répondre à la crainte des Français d'une forte baisse de leur niveau de vie ? Ils ont peur de perdre leur emploi, de gagner moins et de payer plus d'impôts ; que doivent faire les politiciens au pouvoir ? Certains politiciens proposent une solution simple : le déficit budgétaire, solution dite keynésienne. D'après eux, l'Etat n'a qu'à dépenser beaucoup plus, par exemple en augmentant les salaires des fonctionnaires et les investissements en infrastructure et recherche. Avec plus d'argent en circulation, les dépenses des consommateurs augmenteront, ce qui générera du travail, donc protégera du chômage et produira plus d'impôts, permettant ainsi de payer les dépenses supplémentaires. C'est ce qu'a fait le gouvernement d'union de la gauche du Premier ministre Pierre Mauroy en 1981-82, avec un résultat catastrophique : en quelques mois les caisses pleines de l'Etat ont été vidées, le déficit du commerce extérieur a explosé, et la France a dû adopter une politique de rigueur sévère avec Jacques Delors. Il y a eu trois dévaluations successives, dont deux en moins d'un an ! La consommation des Français avait tellement augmenté que la production intérieure n'a pas pu suivre, ce qui a fait exploser les importations, d'où un déficit extérieur qu'il a fallu compenser par des dévaluations du franc. Celles-ci, à leur tour, ont fait exploser les prix des importations, donc les prix intérieurs. D'où une baisse du niveau de vie après quelques mois d'euphorie, et une croissance sans précédent du chômage. Et comme le déficit budgétaire exige en général des emprunts, la dette nationale a augmenté, obligeant la génération suivante à la rembourser et à payer des intérêts. Ce triste exemple historique illustre une vérité très générale : lorsqu'un problème (ici la croissance économique) a beaucoup de variables interdépendantes, toute solution simple agissant sur une seule variable est inefficace. L'approche simpliste est en général préconisée par des politiciens esclaves de leur idéologie, incompétents ou démagogues, notamment parce qu'elle est facile à expliquer aux électeurs. Une méthode de résolution de problèmes complexes Le principe d'une bonne approche a été décrit par René Descartes en 1637 dans le "Discours de la méthode pour bien conduire sa raison". Il nous suffit de réfléchir à ses préceptes [4] pour les présenter ici d'une manière adaptée à nos problèmes actuels. 1er précepte Ne considérer comme vrai que ce dont on est sûr, dit Descartes. La notion moderne de vérité scientifique a été définie par Karl Popper, et les limites des raisonnements déductifs (axiomatiques [67]) par Gödel et quelques autres logiciens du XXe siècle [6]. En simplifiant beaucoup : La vérité d'une affirmation n'est pas « son accord avec les faits ». C'est le fait qu'aucun spécialiste ne puisse démontrer qu'elle est fausse ou incomplète, ni logiquement ni expérimentalement – alors qu'elle est falsifiable [203] ; on ne démontre donc pas la vérité, on a un consensus de non-fausseté. Et l'affirmation reste vraie provisoirement, jusqu'à ce qu'on trouve une raison incontestable de la remplacer ou de la compléter. 84 Un raisonnement déductif se fait toujours sur la base d'hypothèses admises, les axiomes. Il est impossible de vérifier la cohérence (non-contradiction) ou la vraisemblance (sémantique) d'un système d'axiomes (axiomatique) en tant que conséquence de ces axiomes. Dans toute axiomatique on peut faire des affirmations (propositions) dont la véracité ou la fausseté sont indémontrables (propositions dites indécidables). Au sens du déterminisme, de telles propositions sans justification algorithmique n'ont pas de cause identifiable, donc pas d'origine logique. Si on découvre dans l'esprit d'un homme une telle proposition (ce qui arrive, voir l'important complément [92] et aussi [141]) on peut qualifier sa présence dans le psychisme [347] de non déterministe ; elle résulte souvent de l'inconscient, notamment d'une intuition. Descartes recommande aussi "d’éviter soigneusement la précipitation et la prévention", c'est-à-dire les raisonnements sous l'empire d'une forte émotion ou basés sur des a priori discutables ; ce conseil est toujours d'actualité. 2e précepte Ce précepte a été interprété à tort comme recommandant de décomposer un problème au maximum, en parcelles (sous-problèmes) aussi petites que possible, au prétexte que plus un sous-problème est petit plus il est simple à résoudre. Ce n'est pas ce que Descartes veut dire. En écrivant : "et qu'il serait requis pour les mieux résoudre", il recommande de choisir la décomposition « qui marche le mieux », une décomposition qui peut éventuellement comprendre des sous-problèmes assez complexes pour être résolus de manière holistique, lorsqu'on sait les résoudre ainsi. Une des approches holistiques est l'utilisation de modèles, par exemple statistiques, lorsque c'est possible, c'est-à-dire lorsqu'un modèle mathématique de la situation présente et/ou passée est assez stable et précis pour qu'on puisse s'en servir pour généraliser à toute la population et prévoir l'avenir. Ce n'est pas souvent le cas pour un problème de cours de bourse, par exemple, car on ne peut prévoir les comportements moutonniers ou émotifs des intervenants, les événements politiques susceptibles de changer des perspectives d'évolution de cours, etc. Décomposer un problème implique de faire d'abord une liste de ses sous-problèmes, en précisant pour chacun sa manière d'intervenir dans le problème de niveau supérieur et sa manière d'interagir avec d'autres sous-problèmes. Le seul fait de constituer cette liste empêche de se précipiter et de recommander la première solution qui vient à l'esprit, solution d'un seul sous-problème donc solution inadéquate si le problème est complexe. Dans la manière d'intervenir il faut, en pratique, indiquer les influences de deux paramètres importants de nos jours : la durée nécessaire ou délai alloué, et le budget disponible ou le coût prévisible. On décrit l'interaction avec d'autres sous-problèmes en indiquant le sens des implications : "entraîne", "est conséquence de" ou les deux. On décrit aussi les contraintes d'ordre : pour commencer à résoudre le sous-problème S, il faut déjà avoir résolu les sous-problèmes S1, S2, etc. On construit donc un diagramme où chaque décision, tâche ou étape est représentée par un cercle et ses liens avec les précédentes et suivantes par des lignes indiquant les contraintes de fin, de délai, etc. Exemple : méthode Mesange de l'INSEE [315]. Lorsque ce diagramme est de type 85 P.E.R.T. [310] on peut connaître l'enchaînement d'étapes constituant un « chemin critique » au sens délai ou coût. Cette approche permet de résoudre au moins qualitativement les problèmes ou parties de problèmes "à complexité organisée" au sens de Hayek, lorsqu'il est possible d'identifier les sous-problèmes et leurs interactions. Qu'on ait pu ou non identifier et préciser suffisamment certains sous-problèmes ou interactions, on documente pour chaque sous-problème ou étape les risques de non-résolution ou échec : qu'est-ce qui peut empêcher une bonne prédiction de résultat ou une bonne résolution du problème, une résolution respectant délai et budget ? ; Quels paramètres, quelles contraintes pourraient éventuellement intervenir pour un sous-problème donné ? Peut-on évaluer la probabilité d'un échec, d'un surcoût ou d'un dépassement de délai ? 3e précepte Descartes recommande de résoudre les sous-problèmes un par un, parce que c'est plus facile et plus clair, en commençant par les problèmes les plus simples à résoudre. Chaque fois que tous les sous-problèmes d'un problème de niveau supérieur sont résolus, on travaille à résoudre ce dernier en tenant compte des interactions. On procède ainsi à des intégrations (synthèses) successives. Il faut, chaque fois qu'on a résolu un sous-problème, vérifier la stabilité de sa solution par rapport aux contraintes et risques connus, pour ne pas considérer cette solution comme certaine et sans risque, notamment en ce qui concerne les délais et les coûts. Cette méthode est très utilisée en génie logiciel, où on procède aux tests de chaque module logiciel avant de l'intégrer avec d'autres dans un module englobant, que l'on testera à son tour. Dans certaines applications, après les tests logiques (l'algorithme fait-il ce qu'on en attend dans tous les cas du cahier des charges ?), on procède aux tests de résistance aux cas aberrants (au lieu de s'effondrer, le programme sait-il se défendre contre des données d'entrée absurdes ou des situations aberrantes en fournissant des réponses qui restent maîtrisées ?) et enfin aux tests de performance (débit transactionnel) et temps de réponse. Enfin, on finalise la documentation du logiciel (cahier des charges, mode d'emploi, organisation en modules et modèles de données pour la maintenance, tests et résultats, délai et coût de réalisation). Lorsqu'un problème est tel que certains paramètres, interactions et risques sont inconnus ou incertains, il vaut mieux commencer sa résolution en étudiant les chances d'aboutir : qu'est-ce qui permet d'espérer qu'on trouvera une solution satisfaisante ? Que peut-il se passer si on n'en trouve pas ? On construit ensuite le diagramme d'enchaînement des tâches de la résolution du problème, pour déterminer les chemins critiques de difficulté, de risque, de coût, de délai ; contrairement à ce que Descartes recommande, on ne commence pas par les sous-problèmes les plus simples tant qu'on ne s'est pas assuré qu'on a une chance d'aboutir. 4e précepte Descartes recommande de vérifier qu'on n'a rien oublié. Il faut aussi vérifier qu'on ne s'est pas trompé (tests logiques ci-dessus), que la solution résiste à des évolutions imprévues mais possibles du cahier des charges (tests de résistance ci-dessus), que les contraintes de coût et budget ont des chances d'être respectées. 86 Il est prudent, aussi, de progresser par étapes. Lorsque la solution d'un sousproblème, mise en œuvre isolément, est possible et bénéfique, on peut la mettre en œuvre sans attendre la solution d'ensemble. On vérifiera ainsi qu'elle est valable, et on profitera de ses résultats avant que tout le problème initial soit résolu ; souvent même, l'expérience de son utilisation entraînera une évolution de l'énoncé du problème plus complexe dont elle fait partie, qu'il était donc urgent de ne pas résoudre dans l'état initial de son cahier des charges. Mon expérience d'informaticien m'a appris que de nombreuses applications informatiques géantes, par exemple à l'échelle de toute l'armée de terre ou de toute l'administration des impôts, ont échoué si gravement qu'elles ont été abandonnées après investissement de millions d'euros. Elles ont été remplacées par des sousapplications plus simples, moins ambitieuses, moins intégrées, mais qu'on a su réaliser en respectant la qualité, (et parfois !) le délai et le budget. Compléments sur la complexité : [369]. 3.1.6.4.5 Des exigences de prédictibilité impossibles à satisfaire L'esprit humain a une curiosité qui lui fait souvent poser des questions auxquelles la nature n'a pas de réponse. Nous avons déjà vu l'exemple de la décomposition radioactive, où on ne pouvait savoir quel atome se décomposerait le premier et quand. Il y a aussi le phénomène de décohérence de la physique quantique, où l'interaction d'une superposition d'états quantiques avec l'environnement macroscopique choisit une des solutions superposées de manière imprévisible. Il y a également le phénomène des fluctuations quantiques, les mouvements chaotiques des astres, etc. Dans tous ces cas, la loi d'évolution que la nature applique ne peut fournir la précision que nous voudrions. La loi de décomposition radioactive ne s'applique pas à un atome, mais à une population où chaque atome a une probabilité de se décomposer en un intervalle de temps donné : on ne peut lui faire dire quelque chose pour un atome. Il y a aussi les lois de l'espace-temps de la Relativité générale, où l'ordre de survenance de deux événements A et B peut être différent pour deux observateurs différents : impossible de faire dire à la nature quel événement est le absolument le premier. Il y a aussi l'intrication, où deux photons pourtant distants de plusieurs kilomètres, cèdent leur énergie et disparaissent ensemble, au mépris de la limitation de vitesse d'une propagation de conséquence à celle de la lumière, car il n'y a rien à propager les deux photons formant un tout, à énergie et information communes. Un éventuel désir de connaître l'existence d'un des deux sans impacter l'autre ne peut être satisfait. Il y a encore le principe d'incertitude de Heisenberg, etc. Toutes ces impossibilités de savoir ce que nous voulons, ces obligations de savoir seulement ce que la nature veut bien nous dire, ne mettent pas en cause le déterminisme : chaque cause a bien sa (ou ses) lois-conséquence(s), que la nature applique toujours et sans délai, mais c'est à l'homme d'accepter de la connaître sous les formes qu'elle a, pas sous celles que nous voudrions qu'elle ait. Ainsi, comme nous ne pourrons jamais voir une particule de l'échelle atomique, nous devons nous contenter de la connaître par l'intermédiaire d'équations qui en 87 décrivent les propriétés, notamment de l'équation de Schrödinger qui en décrit l'évolution dans le temps et l'espace. Nous devons renoncer à savoir, à un instant donné, la position et la vitesse de la particule, dont nous n'aurons jamais que des probabilités ou des densités de probabilité, c'est-à-dire une vision floue. Nous devons aussi comprendre qu'une particule peut se trouver à une infinité d'endroits à la fois, un volume donné autour d'un endroit donné ayant alors une certaine probabilité de présence. Une particule peut aussi parcourir une infinité de trajectoires à la fois. Toutes ces réalités ne font intervenir aucun hasard, mais des distributions de probabilités - ce qui n'est pas la même chose. 3.1.7 Déterminisme statistique de l'échelle macroscopique Les résultats d'évolution de certains phénomènes déterministes ne peuvent être décrits correctement que de manière statistique portant sur toute une population de particules microscopiques, pas par des informations sur une particule individuelle. Exemples : Lorsque des atomes d'un corps naturellement radioactif se décomposent, on peut prédire quel pourcentage se décomposera par unité de temps, mais pas de quels atomes précis il s'agira. Le phénomène de radioactivité est abordé plus loin. Le mouvement d'une molécule donnée d'un gaz qui en a des milliards de milliards dans les quelques cm3 d'une petite enceinte ne peut être prédit du fait d'incertitudes décrites plus bas, comme du fait de sa complexité. Mais le comportement de la totalité du gaz de l'enceinte peut être prédit de manière précise par la Mécanique statistique, dans le cadre des lois de la thermodynamique [25]. Le déterminisme portant sur toute une population de milliards de molécules qui oscillent de manière synchrone dans une réaction chimique réversible. Nous verrons aussi un cas très important de déterminisme statistique, celui de l'état des systèmes à l'échelle atomique dans Déterminisme statistique : lois d'évolution stochastiques. 3.1.8 3.1.8.1 Ensemble de définition d'une loi déterministe Structure Une structure est un agencement d'un ensemble construit d'éléments qui en fait un tout cohérent à qui nous associons un nom. Elle a des relations : propriétés statiques, qui décrivent les règles d'assemblage de ses éléments ; propriétés dynamiques qui décrivent leur comportement d'ensemble. Comme toute abstraction a priori (construite sans référence à une réalité) une structure est éternelle : elle n'a pas été créée physiquement et ne peut disparaitre, c'est une Idée au sens de Platon ; et elle peut exister même sans homme pour l'imaginer. Une structure est aussi une classe d'ensembles munis des mêmes lois de définition et de mise en relation (isomorphes) ; l'étude de certains problèmes relatifs à un ensemble 88 d'une classe donnée peut alors être remplacée par une étude sur un autre ensemble de cette classe, si cette dernière est plus simple. Une classe existe indépendamment du nombre de ses réalisations physiques, car elle est définie par des propriétés dont l'existence ne peut faire partie. Le même ensemble de propriétés peut décrire 0, 1, 2… ou une infinité d'objets physiques qui les partagent ; ce n'est pas parce que j'imagine une classe des anges qu'il y en a. 1er exemple physique Un atome d'hydrogène est une structure comprenant un noyau (proton) et un électron. Parmi les propriétés statiques d'un tel atome on peut citer la structure en couches de niveaux d'énergie potentielle : on ne peut le trouver sous forme d'atome d'hydrogène qu'à des niveaux d'énergie précis. Parmi les propriétés dynamiques de cet atome on peut citer l'aptitude de deux d'entre eux à se grouper sous forme de molécule d'hydrogène en dégageant une énergie de 4.45 eV (électrons-volts, 1 eV = 1.6 .10-19 joule). Les propriétés (statiques ou dynamiques) d'une structure sont en général plus riches que la réunion de celles de ses éléments, dont on ne peut les déduire. On ne peut déduire des propriétés réunies du proton et de l'électron ni la possibilité de lier deux atomes d'hydrogène en molécule, ni l'énergie dégagée. La Mécanique quantique décrit les propriétés stationnaires et dynamiques de l'atome et de la molécule d'hydrogène dans un champ électrique. 2e exemple physique : assemblage d'atomes en quasi-cristaux. Exemples mathématiques Une structure mathématique est un ensemble d'éléments muni d'une ou plusieurs lois de définition et souvent aussi de lois de mise en relation. Exemples : L'ensemble des solides réguliers, qui n'a que 5 éléments : le tétraèdre, le cube, l'octogone, le décaèdre et l'icosaèdre. Lois de définition d'un tel solide : les faces sont identiques ; ce sont des polygones réguliers faisant entre arêtes des angles égaux ; Lois de mise en relation : les faces ont même nombre de côtés, les sommets ont le même nombre d'arêtes, les angles sont égaux. L'ensemble des entiers positifs, nul ou négatifs {…-3, -2, -1, 0, 1, 2, 3, ….} est muni de 2 relations : Une loi d'addition, opération définie pour toute paire d'éléments de l'ensemble, commutative, associative, munie de l'élément neutre 0 et d'un élément opposé de chaque entier. Une loi de multiplication, opération définie pour toute paire d'éléments de l'ensemble, commutative, associative, munie de l'élément neutre 1 et distributive par rapport à l'addition. Une structure mathématique est indépendante de règles de représentation : elle reste la même quelles que soient les manières de représenter les éléments de l'ensemble et les lois de définition ; c'est un être universel. Exemple de structure : nombre entier. 89 Richesse d'une structure en informations Parce qu'elle a un comportement d'ensemble, une structure est décrite par plus d'informations que ses éléments considérés séparément. Ce supplément d'informations décrit des relations : interactions des éléments de la structure entre eux et interactions de l'ensemble de la structure avec l'extérieur. Chaque définition d'interaction peut exiger une description en langage ordinaire et un énoncé d'algorithme ou d'équations. Exemple : A partir de couples d'éléments de l'ensemble des entiers naturels auquel on a ajouté une loi de division (sauf par 0) on peut définir l'ensemble des fractions rationnelles. Cet ensemble est plus riche (il a plus d'éléments et permet plus d'opérations) que celui des entiers naturels, car on a ajouté à ce dernier la structure apportée par la loi de division. On peut résumer l'existence du supplément d'informations dû aux relations (interactions internes et externes) d'une structure par : « Le tout est plus riche que la somme des parties ». On peut représenter les relations internes définissant une structure par un graphe dont les sommets sont les éléments de l'ensemble et chaque arc entre deux sommets décrit une relation interne avec son (ses) sens. A X E U D C Les relations externes entre ensembles peuvent être représentées par des arcs reliant des boîtes. Dir. France Dir. Export sous-traitance Atelier 6 Propriétés internes et propriétés dynamiques externes Les propriétés statiques (d'assemblage) d'une structure ne permettent pas, à elles seules, d'en déduire les propriétés dynamiques externes. 90 Le dessin d'un moteur de voiture ne permet d'en déduire ni la puissance maximum, ni les courbes de couple et de consommation en fonction du régime. Ces propriétés de fonctionnement dépendent de lois mécaniques et thermodynamiques absentes du dessin, même si la conception du moteur en a tenu compte. On ne peut donc réduire le comportement d'une structure en tant qu'ensemble, par rapport à son environnement, à des propriétés statiques et dynamiques de ses éléments, bien qu'il en dépende. L'assemblage en structure ajoute de l'information. Concepts fondamentaux et principes de logique Certains concepts a priori figurent dans toute représentation de la réalité comme dans nombre d'abstractions humaines comme les structures. Exemples : le nombre entier, la ligne droite, l'espace et le temps. Comme on ne peut les définir à partir de concepts qui nous paraissent plus simples, nous les considérons comme fondamentaux. Nous pensons que même des êtres différents, dans une autre galaxie, les utiliseraient aussi. Ce sont des bases à partir desquelles nous définissons des concepts secondaires comme la fraction rationnelle et la vitesse. Notre pensée rationnelle repose aussi sur des règles de manipulation des propositions, qui nous paraissent tout aussi fondamentales, universelles (voir Principes de logique). Elle repose également sur des règles fondamentales de calcul comme 2 + 2 = 4 et des règles de logique formelle pour définir et manipuler des ensembles, comme l'appartenance, la comparaison et l'ordre d'apparition. 3.1.8.2 Ensemble de définition d'une loi déterministe Une loi déterministe est définie pour un certain ensemble de situations initiales, dont elle décrit l'évolution. Ne pas confondre une situation initiale (état physique) et l'ensemble de définition de la loi au sens mathématique, qui regroupe les situations à partir desquelles la loi (ou la fonction qui la représente) est définie. Exemple : une fonction d'onde (r, t) a pour ensemble de définition un espace vectoriel de fonctions [127] dit "de Hilbert" et pour résultat un nombre complexe. Considérons un système E, réunion de plusieurs sous-systèmes a, b, c, etc., chacun muni de sa propre loi d'évolution. En général on ne peut pas déduire la loi d'évolution de E de celles de a, b, c, etc., parce que leur regroupement en structure E apporte des propriétés supplémentaires d'interaction irréductibles à celles de a, b, c, etc. Ainsi, un gène humain est une longue chaîne de bases (molécules) dont il n'existe que 4 types : A, C, G et T. Chacune de ces bases a ses propriétés, mais les propriétés d'un gène sont bien plus riches : elles sont définies par des suites de bases définissant des programmes de génération de milliers de protéines par la machinerie cellulaire. Et celle-ci prend en compte, en général, plusieurs gènes à la fois. Il est impossible de déduire de l'ensemble des propriétés des 4 bases ci-dessus celles du génome humain : par sa structure en chaînes de bases, celui-ci constitue un programme très riche qui régit les mécanismes cellulaires. Le fonctionnement de chacun de ces mécanismes résulte de l'ordre des bases d'une chaîne particulière, 91 comme GAAGACT… Le déterminisme d'un tel mécanisme agit au niveau de sa chaîne entière, constituant son ensemble de définition, pas au niveau d'une base. 3.1.8.3 Une erreur de certains philosophes Certains philosophes ont oublié l'enrichissement en propriétés d'un objet dû à sa structure : ils ont essayé de déduire directement les propriétés d'ensemble de l'objet de celles de ses parties, évidemment sans réussir. Certains ont ainsi affirmé que le matérialisme était incapable d'expliquer les propriétés d'un être vivant à partir de celles des molécules de ses cellules, donc que la vie était « quelque chose de plus ». Raisonnement non probant : comme l'explique [339], la pensée et la conscience de l'homme résultent de l'interprétation psychique d'états de ses neurones à un instant donné - et seulement de cette interprétation. La conscience est la manière dont notre cerveau perçoit son propre fonctionnement. Les mécanismes psychiques ne se déduisent pas des seuls mécanismes électrochimiques des neurones, leur description exige en plus des mécanismes élémentaires psychiques. Le matérialisme n'a qu'un seul rapport avec cette démarche : il exclut les explications magiques, basées sur des concepts fumeux comme « l'esprit » ou « l'âme ». Et sa conséquence en matière d'évolution physique, le déterminisme, n'entraîne pas la prédictibilité, ne serait-ce qu'à cause des mécanismes cachés de l'inconscient. [353] 3.1.9 3.1.9.1 Hasard Le hasard dans l'évolution selon une loi de la nature Par manque de rigueur, beaucoup de gens opposent évolution déterministe (qu'ils considèrent à tort comme toujours prédictible) et évolution au hasard (considérée comme toujours imprédictible). En précisant la notion de déterminisme scientifique nous avons vu que le résultat d'une évolution déterministe n'est pas toujours prédictible. Nous allons maintenant préciser la notion de hasard. On ne doit pas attribuer au hasard une évolution naturelle sous le seul prétexte que personne ne sait la décrire ou la prédire : on risquerait d'attribuer à la nature un hasard résultant de l'ignorance humaine. Si elle existe, une évolution naturelle au hasard est une caractéristique objective (indépendante de l'homme) et dont l'imprédictibilité est soit démontrée, soit explicitement postulée pour des raisons scientifiques. Remarque : hasard ou pas, la nature ne peut violer ses propres lois, par exemple de conservation de l'énergie, de la charge électrique, du moment cinétique, de la quantité d'information en Mécanique quantique, etc. Nous considérons comme aléatoires des suites de nombres ou de chiffres dont on ne peut calculer un élément avec un algorithme, directement ou connaissant un nombre, fini ou non, d'autres éléments ; cette propriété s'appelle absence de régularité. Selon cette définition, la suite des décimales successives de Pi n'est pas aléatoire car Pi est calculable, bien qu'on ne lui connaisse aucune régularité. Les éléments d'un ensemble (de nombres, de chiffres ou d'éléments quelconques) qui ont la même probabilité d'apparaître dans un certain tirage ne sont pas 92 nécessairement distribués au hasard : cette égale probabilité n'entraîne pas nécessairement l'inexistence d'un algorithme de calcul. Exemple : dans la suite périodique de décimales successives de 22/7 = 3.142857142857142857…, chacun des chiffres 1 ; 4 ; 2 ; 8 ; 5; 7 apparaît le même nombre fois, chacun des "nombres" 142857 aussi, etc. Pourtant, l'écriture décimale de cette fraction n'est pas aléatoire, car elle est calculable. J'observe que l'opinion courante sur le caractère aléatoire diffère selon les circonstances : Nous attendons d'un dé, d'une roulette de casino et d'une machine à boules de tirage de loto qu'ils produisent, dans un tirage, des nombres équiprobables. Nous pensons que la distribution des résultats d'une même expérience entachés d'erreurs expérimentales répartit ces résultats selon la loi de Gauss, appelée d'ailleurs aussi loi normale [28]. Dans d'autres cas, nous nous attendons à des distributions selon d'autres lois statistiques, comme la loi de Poisson ou la loi binomiale… Il n'existe pas d'algorithme capable de générer une suite de nombres dont le caractère aléatoire soit certain : un tel caractère devra toujours être postulé. Il y a des algorithmes de génération de suites de nombres dites « aléatoires », qu'un observateur trouve imprévisibles mais qui ne le sont pas puisqu'ils sont calculables ; on peut seulement, pour certains de ces logiciels, choisir le premier nombre de la suite. 3.1.9.2 Prédictibilité statistique d'une évolution Par définition, une évolution a une prédictibilité statistique si ses résultats sont distribués selon une loi statistique ; une même expérience renouvelée plusieurs fois peut alors donner des résultats qui diffèrent. Sa loi d'évolution est gouvernée par un déterminisme scientifique où c'est l'ensemble des résultats possibles qui est prédéterminé par les conditions de l'expérience, non un résultat particulier. Lors d'une telle évolution la nature refuse le résultat unique auquel l'homme s'attend ; c'est l'ensemble auquel ce résultat appartient qui est unique et prédéterminé, chaque expérience ayant un résultat appartenant à cet ensemble ; en outre, lors d'expériences renouvelées, les résultats sont distribués selon une loi de probabilité elle-même prédéterminée. On ne parle pas, alors, de résultat au hasard car il ne peut être quelconque, totalement imprévisible ; on parle de déterminisme statistique car le choix de résultat dans l'ensemble prédéterminé est entaché de hasard. Exemple de déterminisme statistique : en Mécanique quantique les évolutions dans le temps et l'espace sont régies par l'équation de Schrödinger. Les résultats d'un phénomène comme la décohérence (les observables [30]) sont nécessairement les éléments d'un ensemble de valeurs propres [278] prédéterminées, parmi lesquels la nature choisit celui que l'on constatera. Nous rappelons plus bas qu'en dehors du déterminisme statistique la nature n'a pas d'évolution entachée de hasard. 93 Voyons à présent les définitions du hasard autres que le déterminisme statistique. 3.1.9.3 Définition de René Thom Le mathématicien René Thom a défini le hasard dans [226] comme suit : "Est aléatoire un processus qui ne peut être simulé par aucun mécanisme, ni décrit par aucun formalisme". René Thom qualifie donc d'aléatoire tout processus non modélisable par un algorithme de calcul. Selon cette définition, la suite des décimales d'un nombre irrationnel – que l'on sait générer par algorithme – n'est pas aléatoire, bien qu'elle n'ait aucune régularité connue ; l'irrégularité n'est donc pas un critère suffisant de hasard. En complément, voir la définition des nombres normaux de Borel [98]. Nous considérons comme aléatoires (constituant un hasard à résultats équiprobables) les tirages du jeu de loto générés par une machine qui agite des boules. René Thom considèrerait-il une telle machine comme un mécanisme, donc ses tirages comme non aléatoires ? Leur caractère aléatoire vient de la complexité de ses processus, où chaque boule subit de nombreux chocs, trop nombreux pour que l'on puisse prédire si elle sortira ou non ; ce caractère aléatoire résulte donc de l'imprévisibilité par complexité, sujet que nous avons abordé ci-dessus ; ce n'est pas un hasard démontré. 3.1.9.4 Définition par rencontre de chaînes de causalité indépendantes - Hasard par ignorance Deux chaînes de causalité déterministes issues d'origines indépendantes peuvent se rencontrer, créant alors une situation nouvelle qui n'était prévisible dans le déroulement d'aucune des deux chaînes prise isolément. Exemple : un jour de tempête, une tuile tombe d'un toit au moment précis où un homme passait par là et elle le blesse. Si on considère la chaîne de causalité tempête-tuile indépendante de celle de l'homme, leur rencontre est imprévisible. Une personne qui n'avait pas prévu cette rencontre peut l'attribuer à tort au hasard. Mais une définition plus large du système, prenant en compte l'ensemble des deux phénomènes, élimine le hasard : à l'origine, toutes les conditions étaient réunies pour que la tuile blesse l'homme. L'étonnement ou la rareté d'un phénomène ne justifient pas qu'on attribue au hasard le résultat global de processus qui respectent tous les lois déterministes de la nature (la seule loi naturelle où il se produit une évolution comprenant une part de hasard statistique est la décohérence, phénomène de Mécanique quantique relevant d'une prédictibilité statistique). Cet exemple montre qu'une prévision basée sur le déterminisme doit prendre en compte tous les paramètres susceptibles d'intervenir dans l'évolution à prévoir. Refuser de prendre en compte la situation d'ensemble, c'est se complaire dans l'ignorance et accepter le risque de prédictions fausses. J'ai vu beaucoup de cas où des gens attribuaient au hasard un phénomène qu'ils ne comprenaient pas ou n'avaient pas prévu, pour pouvoir d'abord expliquer pourquoi ils n'avaient pu le comprendre et trouver ensuite une raison de ne pas chercher une explication ; ce cas fréquent d'attribution au hasard est un « hasard par ignorance ». 94 3.1.9.4.1 Impossibilité d'existence de chaînes de causalité indépendantes Si nous admettons, comme les astrophysiciens, que l'Univers est né et a commencé son expansion à partir d'une région très petite où les atomes n'étaient pas encore formés, il n'y avait en cet instant-là qu'une situation unique, cause première [16] de toute l'histoire ultérieure de l'Univers [313]. Toutes les évolutions physiques ont commencé à ce moment-là. L'Univers a donc une unité d'existence, de structure (homogène et isotrope) et d'évolution conforme aux lois physiques, depuis cet instantlà. Si notre pensée y distingue, à un autre moment, des situations partielles séparées, celles-ci sont pures abstractions humaines, conséquences déterministes (au sens déterminisme étendu) d'une même cause première, la « naissance » qui a précédé d'environ 10-37 s l'inflation, elle-même suivie du Big Bang et d'une expansion qui dure toujours [313]. Des chaînes de causalité particulières, issues de situations partielles par évolutions déterministes, ne peuvent être indépendantes puisqu'elles ont même origine. C'est notre esprit qui les considère parfois comme indépendantes, pour permettre ou simplifier certains raisonnements. Voir aussi le paragraphe "Restriction du postulat de causalité". 3.1.9.4.2 Rencontre imprévisible de chaînes de causalité distinctes En considérant arbitrairement comme distinctes deux situations S 1 et S2 à des instants qui précèdent l'instant actuel t, l'évolution ultérieure de chacune de ces situations est une chaîne de situations reliées par des évolutions. Deux cas d'évolution imprévisible La Mécanique quantique enseigne qu'il y a une possibilité de multiples évolutions simultanées à partir d'une situation donnée, évolutions produisant une superposition quantique qui s'achève par une décohérence ; celle-ci peut se produire avec un résultat (choix d'un élément de l'ensemble déterministe des valeurs propres [278] du dispositif qui évolue) imprévisible : en toute rigueur, l'évolution à partir d'une situation donnée n'est pas une chaîne, elle est : Soit une arborescence dont toutes les branches sont parcourues en même temps, possibilité démontrée en Mécanique quantique ; Soit, lors d'une décohérence, un seul résultat (valeur propre [278]) choisi au hasard par la nature ; nous pouvons prédire qu'il y aura une décohérence et l'ensemble de ses résultats possibles, mais nous ne pouvons prédire celui que nous observerons. Il peut aussi se produire qu'une évolution ait un point de départ si sensible aux conditions de l'instant initial t0 que, malgré son déterminisme parfait, son résultat à l'instant ultérieur t qui nous intéresse soit imprévisible. Ce résultat peut aussi être trop imprécis à l'instant t, même si nous essayons de le calculer connaissant la manière dont l'évolution a débuté pendant sa première fraction de seconde. Nous verrons cela en parlant de chaos déterministe. Le résultat d'une évolution chaotique est imprévisible comme celui d'une décohérence, mais pour des raisons différentes : hasard statistique dans le cas de la décohérence, calcul et mesures imprécis dans le cas de la sensibilité aux conditions initiales. 95 L'existence de ces deux cas d'évolution imprévisible entraîne l'impossibilité de prévoir le résultat de la rencontre de deux arborescences de causalité qui contiennent au moins une évolution imprévisible. Mais il faut savoir qu'à l'échelle macroscopique on n'observe pas de décohérence parce qu'on n'observe pas de superposition quantique. A cette échelle, donc, les seules rencontres imprévisibles de chaînes de causalité considérées ensemble sont celles où l'une au moins a subi une évolution chaotique. Et comme ce type d'évolution ne doit rien au hasard (son imprédictibilité est due à une impossibilité de mesurer et calculer avec une précision infinie, pas à un choix aléatoire de la nature), on peut dire qu'à l'échelle macroscopique il n'y a pas de rencontre de chaînes de causalité qui soit entachée de hasard, même quand son résultat est imprévisible : le déterminisme scientifique est respecté. 3.1.9.5 Définition par la quantité d'information On peut aussi définir comme aléatoire un nombre dont l'écriture est plus concise (en nombre de signes ou de bits, par exemple) que le texte de tout algorithme capable de le générer ; un tel nombre a donc une écriture incompressible par algorithme. En admettant qu'il est absurde d'écrire en un langage informatique un algorithme plus long que le nombre que son exécution générerait, il n'existe pas d'algorithme intéressant capable de générer un nombre aléatoire, ce qui justifie la définition de René Thom. Le problème de cette définition est d'ordre pratique : étant donné un nombre et un algorithme qui le génère, comment être certain que cet algorithme est le plus concis ? C'est impossible ! La définition ci-dessus n'a qu'un intérêt théorique. A part le cas, n'apparaissant qu'en Mécanique quantique, où il est régi par un modèle statistique, le hasard qui gouverne une évolution ne peut être défini que de manière négative : le caractère imprévisible qu'il implique ne peut être défini que par une impossibilité de déduction ou de caractérisation algorithmique. 3.1.9.6 Des suites ou des ensembles de nombres sont-ils aléatoires ? On ne peut le savoir : Il n'existe pas d'algorithme capable, étant donné un nombre, de déterminer si on peut ou non générer sa suite de chiffres par un programme plus concis que lui. On peut malgré tout chercher s'il est absolument normal au sens de Borel [98]. Il n'existe pas, non plus, d'algorithme capable de déterminer si une suite donnée de nombres est aléatoire. On peut en étudier le spectre de Fourier et le coefficient d'autocorrélation, mais cela ne donnera qu'une idée d'éventuelles périodicités, pas une preuve rigoureuse d'origine aléatoire ou non. Enfin, étant donné un ensemble de n-uples de nombres, on peut étudier leur éventuelle conformité à un modèle statistique, mais sans jamais avoir de certitude : un tel modèle est toujours probable (avec une probabilité calculée pour chacun de ses paramètres), jamais certain. 3.1.9.7 Hasard postulé et hasard prouvé Le déroulement ou le résultat d'une évolution régie par une loi physique de la nature ne peut logiquement être entaché que de deux sortes de hasard, le hasard postulé et le hasard prouvé. Voyons comment reconnaître chacune de ces sortes de hasard. 96 Le hasard postulé Il y a hasard postulé lorsqu'il existe un consensus de la communauté scientifique postulant le caractère imprévisible du choix de l'élément, et où il n'existe pas de contreexemple prouvant que ce choix peut être prédit. C'est ainsi que tous les physiciens postulent un choix au hasard d'une valeur propre [278] d'opérateur dans chaque évolution de physique quantique par décohérence : ils admettent alors les postulats 3 et 4 de la Mécanique quantique. A ma connaissance, il n'y a pas en physique d'autre cas d'évolution où la communauté scientifique postule un choix au hasard de résultat. L'évolution par décohérence n'existe que dans des expériences de physique quantique [325]. C'est un cas intéressant (dit « de déterminisme statistique » ou « à prédictibilité statistique ») où le résultat, une valeur propre, fait partie d'un ensemble dont tous les éléments sont prédictibles au départ de l'expérience, chacun avec une probabilité connue. La prédictibilité du résultat est alors limitée à cet ensemble, la nature refusant de choisir un résultat unique tant que l'évolution n'a pas détruit la cohérence, comme le fait une mesure, nécessairement brutale et irréversible. Un autre phénomène de physique quantique, l'effet tunnel, produit des comportements analogues à la décohérence en permettant le choix au hasard d'une valeur propre [278] parmi un ensemble de valeurs propres possibles, correspondant à des états d'énergie entre lesquels un corpuscule peut passer, osciller où simplement se trouver simultanément, chaque état avec sa probabilité. Dans cet exposé nous rattachons l'effet tunnel à la décohérence parce qu'il conduit au même type de choix au hasard, au même déterminisme statistique. Ne connaissant pas d'autre cas où on a postulé qu'une évolution naturelle produit un résultat au hasard, je dois supposer que c'est le seul jusqu'à preuve du contraire. Le hasard prouvé Pour une variable particulière d'une évolution naturelle donnée, le caractère "au hasard" d'un résultat est considéré comme prouvé si et seulement si il existe une démonstration de l'impossibilité de trouver un algorithme de prédiction. Une éventuelle démonstration ayant nécessairement été faite dans le cadre d'une axiomatique [67], elle a une valeur théorique qui doit, si possible, être validée par une expérience. Et là il y a une difficulté : on ne peut pas prouver qu'une valeur est choisie au hasard, c'est-à-dire qu'il n'existe pas de raison logique de ce choix. Si une répétition d'expériences identiques pour une variable donnée produit des résultats distribués selon une loi stable, et que la distribution ne résulte pas d'erreurs expérimentales, le caractère aléatoire peut être supposé ; on peut alors tenter de voir s'il suit une certaine loi statistique, avec des tests conformes à la théorie des probabilités. Mais on n'aura pas une démonstration axiomatique d'évolution au hasard, il ne s'agira pas de hasard prouvé. Il n'y a pas, non plus, de critère pour prouver qu'une suite de valeurs ne présentant pas de régularité évidente est une suite aléatoire. 97 Le déterminisme scientifique est incompatible avec un hasard prouvé. Si un résultat d'évolution n'est pas reproductible et que cette évolution n'est pas une décohérence, il n'y a que deux possibilités : ou la règle de stabilité des lois de la nature est en défaut, ou il y a une erreur dans la réalisation de l'expérience ou la mesure d'un paramètre. Cas particulier intéressant d'« erreur expérimentale » : l'évolution sensible aux conditions initiales ci-dessus, où le calcul de l'évolution est possible mais son résultat est inutilisable. Le hasard qui affecte le résultat n'est pas dû, dans ce cas, à la loi d'évolution, qui reste déterministe au sens scientifique et à résultat calculable avec une précision arbitraire ; il est dû aux erreurs expérimentales inévitables, amplifiées par le modèle mathématique de la loi d'évolution. Conclusion : en postulant le déterminisme scientifique et sa règle de stabilité, une loi d'évolution autre que la décohérence ne peut avoir de résultat relevant d'un hasard prouvé ; et dans le cas de la décohérence, le caractère aléatoire est celui d'un déterminisme statistique. A part les phénomènes de physique quantique, où la nature choisit au hasard un résultat dans un ensemble prédéterminé dont chaque élément est associé à une probabilité, la nature n'a pas d'évolution au hasard. 3.1.9.8 Différences entre déterminisme statistique, fluctuations quantiques et hasard Evolutions régies par un déterminisme statistique Lorsqu'une évolution de Mécanique quantique est régie par l'équation de Schrödinger, une variable d'état continue a un nombre infini de valeurs, chacune avec sa densité de probabilité ; une variable discrète a un nombre fini de valeurs, chacune avec sa probabilité. Quand une décohérence (phénomène ne relevant pas de l'équation de Schrödinger) se termine à l'échelle macroscopique par un choix au hasard de la valeur d'une variable, celle-ci est unique, stable, et appartient à un ensemble prédictible de valeurs propres [278]. Dans ces deux cas, l'évolution est régie par un déterminisme statistique. Elle a une cause connue et elle est reproductible : une même cause (même dispositif expérimental) produit une même évolution déterministe, qui produit le même ensemble de résultats avec les mêmes probabilités ou densités de probabilités. Fluctuation quantique en un point de l'espace Lors d'une telle fluctuation, il y a deux variables : sa durée Δt et l'énergie potentielle empruntée au vide ΔE. Cette énergie produit une particule de matière et une particule d'antimatière qui s'attirent et s'annihilent très rapidement en restituant l'énergie empruntée : l'évolution s'annule par retour à la situation initiale. (Le seul contre-exemple connu est celui de la théorie « d'évaporation » des trous noirs, évolution réelle où l'annihilation est incertaine parce qu'une particule peut retomber dans le trou noir alors que son antiparticule s'échappe.) Une fluctuation quantique n'a pas de cause autre que l'instabilité de l'énergie du vide, qui n'a de valeur définie ou stable à aucun instant, conformément au principe 98 d'incertitude de Heisenberg. Une fluctuation d'énergie n'est pas déterministe, car cette instabilité ne relève ni du postulat de causalité ni de la règle de stabilité. Mais comme elle respecte la limite minimum du principe d'incertitude ΔE . Δt ½ä, ainsi que la conservation de l'énergie moyenne et de la charge électrique d'un volume d'espace et d'un intervalle de temps, ce n'est pas un cas où la nature fait n'importe quoi. Elle est imprévisible et ne peut être qualifiée de hasard que selon la définition de René Thom. 3.1.9.9 Hasard et niveau de détail d'une prédiction On peut interpréter le choix statistique de la nature lors d'une décohérence comme une impossibilité de prédire, pour une variable discrète, la valeur choisie à un niveau plus fin que l'ensemble des valeurs propres [278]. Ce choix lui-même constitue une évolution de type particulier, le déterminisme statistique, qui ne se manifeste qu'au niveau atomique, en physique quantique [325]. De même, la mesure d'une variable continue ne sera précise qu'à une demi-largeur de son paquet d'ondes près. Une limite inférieure de niveau de prédiction intervient aussi dans la décomposition radioactive d'un échantillon d'uranium 238, où le déterminisme régit la proportion de décompositions par unité de temps, pas le choix d'un atome particulier qui se décomposera ou l'instant de sa décomposition. Il ne peut y avoir de loi qui prédit quel atome se décomposera, ou à quel moment un atome donné se décomposera, la Mécanique quantique l'interdit. Nous pouvons parler de choix au hasard de l'atome dans l'ensemble des atomes de l'échantillon, ou de choix au hasard de l'instant de décomposition d'un atome donné dans le futur (choix vague !). Mais de telles affirmations évidentes ne nous apportent rien, en attribuant au hasard soit un refus de précision de la nature dont le déterminisme s'applique au niveau de tout l'échantillon, soit notre ignorance d'une loi de choix ; affirmer le hasard par ignorance est stérile. La notion de niveau de prédiction intervient également lorsqu'on distingue le niveau atomique (où les prédictions viennent de la Mécanique quantique) et le niveau macroscopique (où elles viennent des lois de la physique macroscopique). En appliquant une loi de physique macroscopique on ne peut prévoir quel atome évoluera d'une certaine façon, et l'application de la Mécanique quantique au domaine macroscopique est en général impossible par excès de complexité. Non que les lois de ces deux niveaux se contredisent : à la frontière entre eux elles permettent les mêmes prédictions, d'après le principe de correspondance. Il faut comprendre qu'une loi a un domaine d'application dont on ne doit pas sortir. Certaines personnes attribuent à tort au hasard le résultat imprédictible d'une évolution entre un point situé avant une bifurcation dans l'espace des phases et un point après cette bifurcation. La bifurcation se produit lorsqu'un paramètre de la loi d'évolution franchit une valeur critique, franchissement qui entraîne le choix d'une nouvelle loi au point de bifurcation ; aucun hasard n'intervient dans ce choix. Le fait qu'on étudie des gaz ou des liquides à l'aide des méthodes et théorèmes de la Mécanique statistique ne vient pas d'une évolution aléatoire des molécules de ces fluides, qui se déplacent selon des lois de mouvement et de choc élastique déterministes (et d'ailleurs symétriques par renversement du sens du temps) ; c'est parce qu'on ne s'intéresse qu'à des propriétés macroscopiques de ces fluides (température, pression, entropie, turbulence, etc.). 99 3.1.9.10 Premières conclusions sur le hasard et la prédictibilité Il faut cesser de croire au hasard en tant que principe de comportement imprévisible de la nature. Ce n'est pas parce que je ne sais pas expliquer un phénomène ou prévoir son évolution que je peux invoquer le hasard. L'attribuer au hasard est aussi peu justifié que l'attribuer à Dieu, et faire du hasard un refuge pour mon ignorance ne serait pas rationnel. Une variable qui suit une loi d'évolution ne peut ni échapper à son ensemble de définition, ni évoluer en violant cette loi de la physique. La nature limite ce que l'homme peut prévoir, mais elle n'est jamais fantaisiste : dans une situation donnée elle réagit toujours de la même façon (stabilité de l'ensemble des valeurs de chaque variable, éventuellement probabiliste) et obéit toujours à des lois de conservation (de l'énergie, du moment cinétique, etc.) ; seule exception au déterminisme de la nature, qui n'est pas une évolution : la fluctuation quantique. 3.1.9.11 Différences entre hasard, imprécision et indétermination en Mécanique quantique Il n'y a pas de hasard dans la position ou la vitesse d'un corpuscule de Mécanique quantique, il y a d'abord de l'imprécision, c'est-à-dire un refus de la nature de nous accorder la possibilité de précision infinie qui satisferait notre esprit. Ce refus est dû à la nature probabiliste de ces variables de l'état de chaque corpuscule. Il ne faut donc pas confondre le déterminisme statistique, avec son imprécision (flou par superposition pour une variable continue), et le hasard (où la nature ferait n'importe quoi). En pensant à la « probabilité de position » d'un corpuscule qui se déplace, on risque de se le représenter comme un objet matériel qui a une dimension précise et des chances de se trouver ici plutôt que là, représentation inexacte. Cette dimension n'est pas précise, et il vaut mieux penser à un corpuscule de forme vague, sorte de nuage dont une infinité de réalisations sont superposées dans le paquet d'ondes qui accompagne son déplacement, infinité qui lui donnerait un aspect flou si on pouvait en faire une photo instantanée. L'imprévisibilité associée aux fluctuations ponctuelles d'énergie n'est due au hasard que selon la définition de René Thom. C'est une instabilité (indétermination) permise par le principe d'incertitude de Heisenberg : pendant un court intervalle de temps Δt une énergie n'est pas définie à mieux que ΔE près, où ΔE.Δt ≥ ½ä (ä est une constante de l'Univers appelée constante de Planck). Les fluctuations quantiques manifestent seulement un refus de stabilité de la nature, refus qui ne dure qu'un court instant et ne change pas l'énergie moyenne au point considéré. Il faut accepter ces fluctuations comme on accepte l'imprécision sur la position d'un corpuscule en mouvement, situé « partout » en même temps dans son paquet d'ondes : dans aucun de ces cas la nature n'agit au hasard en faisant n'importe quoi. Une erreur fréquente L'imprécision et l'indétermination de Heisenberg sont des propriétés naturelles et objectives d'une évolution, alors que l'imprédictibilité de son résultat est une considération humaine. Trop de gens parlent d'une « évolution au hasard » dans tous les cas où ils ne peuvent en prévoir un résultat exact, décrivant ainsi une propriété d'une transformation naturelle dans le cadre subjectif de son imprédictibilité. 100 3.1.9.12 Résumé des conclusions sur le hasard dans l'évolution naturelle La nature est parfaitement déterministe Selon le phénomène, la nature inanimée est régie soit par le déterminisme scientifique, soit par le déterminisme statistique. Répétons-le, elle ne fait jamais n'importe quoi. Cette affirmation est confirmée : Par le mathématicien et philosophe des sciences Husserl dans [312] page 226 : « Ce monde n'est pas le même pour l'homme ordinaire et pour l'homme de science ; pour le premier il est un ensemble d'une ordonnance simplement approximative, parsemé de mille hasards ; pour le second il est la nature, entièrement régie par des lois d'une rigueur absolue. » Par le mathématicien René Thom dans [226]. Résumé des autres conclusions sur le déterminisme des évolutions naturelles L'indétermination et le déterminisme statistique affectent la prédictibilité des conséquences, pas les conséquences (lois d'évolution ou situations) ellesmêmes ; la prédictibilité est un besoin humain ignoré par la nature. Le déterminisme statistique de la décohérence est un choix par la nature d'un élément dans un ensemble prédéfini de valeurs propres [278] de l'opérateur associé à une grandeur mesurable, ensemble où chaque valeur a une probabilité prédéfinie. Ce choix ne se produit que dans un seul type d'évolution naturelle, la décohérence, phénomène de physique quantique. Dans le déterminisme statistique des évolutions où une variable d'état (comme la position) est continue, la nature produit une infinité de valeurs en superposition. Une évolution ne viole jamais une loi de la nature ; elle ne viole jamais, notamment, la thermodynamique ou la conservation de l'énergie + masse. Ne pas confondre hasard (valeur choisie sans contrainte), imprécision (refus de précision) et incertitude quantique (instabilité, non-définition). Il faut séparer déterminisme et prédictibilité, le premier n'entraînant pas toujours la seconde. Il y a des lois d'évolution parfaitement déterministes (échappant à tout hasard), à résultat calculable à tout instant t postérieur à un instant initial t0, qui pourtant interdisent en pratique la prédiction de ce résultat à cause d'une sensibilité énorme, non bornée, aux conditions initiales. Dans ce cas d'imprécision on parle de chaos déterministe. Voir en fin de texte la table résumant les cas d'imprédictibilité. 3.1.9.13 Evolutions attribuées à tort au hasard Je me suis permis de limiter le hasard des évolutions naturelles à l'évolution particulière de physique quantique [325] appelée décohérence parce que j'ai précisé ci-dessus des limitations de prédictibilité dues à l'ignorance, l'imprécision ou la complexité. Je considère donc comme erronées des attributions au hasard d'évolutions qu'on ne comprend pas (ignorance), dont on ne peut prédire le résultat avec autant de précision qu'on voudrait (superposition, indétermination, imprécision 101 ou sensibilité aux conditions initiales), ou dont le déroulement est trop complexe pour pouvoir être modélisé et calculé par un algorithme prédictif. Cas particulier : les fluctuations quantiques, qui ne sont des évolutions irréversibles que lors de l'évaporation des trous noirs, ne relèvent pas du déterminisme et ne sont régies que par l'inégalité de Heisenberg ΔE.Δt ≥ ½ä. On peut attribuer celles-ci au hasard, mais seulement si on le définit comme René Thom. Le hasard pour raisons psychologiques J'ai maintes fois constaté qu'une personne attribue des évolutions incomprises au hasard pour des raisons purement psychologiques : Le besoin humain de cohérence rend pénible la non-compréhension d'un phénomène, c'est-à-dire l'impossibilité de le relier à des faits ou phénomènes connus par des relations de causalité, certaines ou au moins probables. L'esprit humain aime mieux, alors, inventer des relations de causalité (en raisonnant par analogie ou induction, ou même en faisant confiance à son intuition) qu'admettre son ignorance ; il n'est même pas capable de s'en empêcher. Il faut à un homme un sérieux entraînement à la rigueur pour admettre son ignorance, mettre en cause son intuition et vivre l'esprit en paix sans comprendre. Le besoin humain de non-culpabilité, de rejet de responsabilité : je prétends qu'un phénomène relève du hasard parce que je ne sais pas l'expliquer et qu'admettre mon ignorance me rabaisserait, aux yeux des autres comme aux miens. Le hasard par raison de contingence Beaucoup de gens, y compris des scientifiques, oublient le principe d'identité : avant de lire la suite, voir l'important développement [16]. Oubliant le principe d'identité, beaucoup de gens considèrent qu'un événement du passé ou du présent dont l'existence est certaine aurait pu ne pas se produire ou avait une certaine probabilité de ne pas se produire. C'est là une faute de logique, une spéculation pure. On se trompe donc en croyant comme Platon que le possible précède le réel et le structure ; au contraire, c'est le réel et son déterminisme qui définissent ce qui est possible pour la nature et peut-être prévisible pour l'homme. 3.1.9.14 Conséquences multiples d'une situation donnée - Décohérence Nous avons vu qu'à part l'ignorance il y a trois types de raisons qui empêchent ou limitent la prédiction des conséquences d'une évolution : l'imprécision, la complexité et le choix statistique en Mécanique quantique. L'existence de ce choix oblige d'ores et déjà à préciser le postulat de causalité : dans la phrase « si la cause existe au départ, la conséquence a lieu » il faut entendre par conséquence d'une situation (au niveau atomique) la possibilité d'une multiplicité de conséquences simultanées, superposées au sens des fonctions d'onde. Imprécision, complexité et choix statistique sont dus à la nature même des lois de l'Univers, qu'il n'est pas question d'ignorer - particulièrement lors d'une prédiction d'évolution. 102 Approfondissons. Nous avons vu plus haut que dans certaines situations la nature réagissait de manière multiple : Soit en déclenchant plusieurs lois d'évolution à la fois, dont chacune a un déroulement indépendant et un résultat unique. C'est le cas en physique quantique lorsque la trajectoire d'un corpuscule entre un point de départ A et un point d'arrivée B peut être considérée comme une infinité de trajectoires simultanées, empruntant des chemins différents avec des vecteurs vitesse fonctions différentes du temps, mais qui se terminent toutes en B en même temps. C'est aussi le cas lorsque la trajectoire d'un corpuscule est définie à chaque instant par un paquet d'ondes superposées, ondes de probabilité décrivant des amplitudes de probabilité de présence du corpuscule qui s'ajoutent en amplitude et en phase. Vu à un instant donné le corpuscule paraît alors flou, comme s'il était composé d'une infinité de corpuscules superposés avec un décalage. Mais, à son échelle macroscopique, l'homme ne voit jamais plusieurs conséquences à la fois, il ne peut voir que leur résultat, nécessairement unique ; et dans le cas d'un corpuscule accompagné d'un paquet d'ondes, ce résultat à un instant donné est une position floue et une vitesse imprécise. Soit en déclenchant une seule loi d'évolution donnant des résultats multiples superposés, c'est-à-dire existant en même temps. Cette superposition d'états simultanés n'est pérenne qu'à l'échelle atomique. L'interaction entre la superposition microscopique et l'environnement macroscopique (par exemple lors d'une mesure physique) met fin à la superposition et révèle à l'échelle macroscopique un seul des états superposés, choisi au hasard ; le passage de l'état superposé à l'état unique est appelé « décohérence » et il est irréversible. ( Compléments sur la décohérence ) 3.1.9.15 Il faut admettre les dualités de comportement La Mécanique quantique, outil mathématique de la physique quantique [325], permet aussi d'expliquer pourquoi certains corpuscules apparaissent tantôt comme de petits objets matériels (particules), tantôt comme des ondes de probabilité capables de provoquer des phénomènes d'interférences. L'explication de cette dualité repose sur le « principe de complémentarité », énoncé en 1928 par Niels Bohr. Selon ce principe, le comportement de phénomènes comme les électrons ou la lumière est tantôt corpusculaire, tantôt ondulatoire, selon l'expérience ; il y a donc une dualité onde-particule. On ne peut observer à la fois un comportement corpusculaire et un comportement ondulatoire, ces deux comportements s'excluant mutuellement et constituant des descriptions complémentaires des phénomènes auxquels ils s'appliquent. De son côté, la Relativité montre que l'énergie et la matière sont deux formes complémentaires d'un même système ou d'une même région de l'espace, formes qui peuvent se transformer l'une dans l'autre selon l'équation d'Einstein e=mc2. Elle montre aussi que la gravitation peut être interprétée comme un champ de force ou comme une courbure de l'espace-temps due à la présence d'une masse. 103 La physique moderne nous oblige donc à considérer qu'un phénomène de la nature peut présenter deux aspects très différents, aspects qui se complètent lorsqu'on veut comprendre ou prédire certaines évolutions. 3.1.10 Chaos Par manque de rigueur, on considère souvent un phénomène naturel chaotique comme régi par le hasard. Nous allons voir qu'en précisant la nature des évolutions chaotiques il n'en est rien. 3.1.10.1 Définition Je ne connais pas de définition précise du mot « chaos » en matière d'évolution. Les divers textes sur la dynamique des systèmes dont j'ai connaissance s'accordent pour qualifier de chaotique une évolution déterministe au sens mathématique : Qui est non linéaire : l'effet d'une variation d'un paramètre n'est pas proportionnel à cette variation ; Qui est si sensible aux conditions initiales qu'on ne peut en prévoir le déroulement à long terme avant son début, mais seulement un instant après, quand elle est « lancée » ; Ou dont la connaissance pendant un temps aussi long qu'on voudra ne permet pas de prévoir le déroulement ultérieur à long terme, ce déroulement étant apériodique (c'est-à-dire dépourvu de régularité) ; Ou dont la courbe d'évolution dans l'espace des phases n'est : Ni réduite à un point, comme celle d'un système qui n'évolue pas ; Ni convergente vers un attracteur ponctuel, comme un système dissipatif qui perd de l'énergie (définition de « dissipatif ») ; Ni fermée, comme celle d'un pendule simple, système périodique conservatif (définition de « conservatif ») ; Ni inscrite sur un tore, comme celle de systèmes quasi périodiques. Dont la courbe d'évolution dans l'espace des phases converge (lorsque le système est dissipatif) vers un attracteur étrange, courbe à structure fractale où toute évolution qui commence reste confinée, mais ne peut être prédite avant son départ, du fait de sa sensibilité aux conditions initiales. Exemples de phénomènes chaotiques. 3.1.10.2 Prédictibilité des phénomènes chaotiques – Chaos déterministe La définition d'une évolution chaotique ne fait pas intervenir le hasard : on parle souvent de « chaos déterministe ». Un phénomène chaotique reste à tout moment régi par une loi déterministe à évolution calculable, même s'il peut aussi, comme tout phénomène, changer de loi d'évolution sous l'influence d'un paramètre qui change. (Exemples) Un phénomène chaotique est apériodique, mais la réciproque n'est pas toujours vraie. Un phénomène apériodique : 104 3.1.10.3 A une évolution prévisible à long terme si on connaît toutes les fréquences d'amplitude non négligeable de sa décomposition en série de Fourier ; N'a la sensibilité aux conditions initiales d'un phénomène chaotique que lorsqu'il est dissipatif, sur l'attracteur étrange vers lequel il converge. Conditions d'apparition d'une évolution chaotique – Série de Fourier Toute évolution dans le temps d'une variable peut être décomposée en série de Fourier, somme f(t) d'un nombre fini ou infini de fonctions sinusoïdales de fréquences multiples d'une fréquence de base, chacune avec son amplitude et sa phase : f(t) = a0 + a1sin(t+1) + a2sin(2t+2) + a3sin(3t+3) +…. L'ensemble des fréquences composantes est appelé spectre de Fourier. L'exemple graphique ci-dessous montre une évolution dans le temps qui se décompose en une somme de 6 fonctions sinusoïdales. Il montre aussi que l'addition de plusieurs phénomènes oscillants sinusoïdaux, chacun avec sa fréquence et sa phase, peut avoir une allure désordonnée, chaotique. Somme de 6 fonctions périodiques de périodes incommensurables (le rapport des périodes des fonctions, prises deux à deux, est toujours irrationnel) Chaque évolution périodique est un comportement régulier, prévisible. Mais la composition de plusieurs fonctions périodiques de fréquence, amplitude et phase différentes peut être apériodique si les périodes des phénomènes composants sont incommensurables entre elles (c'est-à-dire si leurs rapports deux à deux sont tous irrationnels) comme dans l'exemple du graphique. Voici trois cas d'évolution vers un régime chaotique de systèmes dynamiques à petit nombre de degrés de liberté. Un régime périodique pendant un long intervalle de temps peut se déstabiliser brusquement, devenir chaotique pendant un moment, puis redevenir périodique, avant de se déstabiliser de nouveau au bout d'un temps qui n'est pas nécessairement égal au précédent. Une telle évolution « par bouffées » a été observée dans certains cas de convection thermique et de réaction chimique évolutive. 105 Un régime périodique peut évoluer par des doublements successifs de sa période sous l'effet d'un paramètre de contrôle, jusqu'à atteindre un point d'accumulation où la période est infinie et où commence l'évolution chaotique. On rencontre ce type d'évolution en dynamique des populations. Un régime périodique peut devenir quasi périodique sous l'effet d'un paramètre de contrôle. L'évolution correspond alors à 2 fréquences, puis peut-être à 3, etc. Si ces fréquences sont indépendantes et incommensurables (l'une au moins n'étant une fraction exacte d'aucune autre), le régime peut devenir chaotique. Dans un système dynamique à nombre de degrés de liberté plus important, le chaos peut être à la fois temporel (comme les cas que nous avons vus jusqu'à présent) et spatial (le comportement différant d'un point du système à un autre, le système ayant des régions d'évolution ordonnée et des régions d'évolution désordonnée). Conclusion : une évolution déterministe peut passer d'un régime stable et prévisible à un régime chaotique, imprévisible en pratique, sous l'influence de divers paramètres, sans cesser d'être déterministe (et décrite par des équations différentielles ou des équations à dérivées partielles). [281] 3.1.10.4 Fluctuations faussement aléatoires d'un phénomène apériodique Certains auteurs ont attribué à tort au hasard des effets considérables, voire catastrophiques, dus aux fluctuations d'un phénomène apériodique ou chaotique. Voici des exemples de ce qui peut arriver. Fluctuations périodiques dont les amplitudes s'ajoutent Un phénomène apériodique ou quasi périodique peut comporter, dans sa décomposition en série de Fourier, une composante de période très longue et d'amplitude non négligeable. Il peut alors arriver, même si c'est rare, que cette amplitude s'ajoute à d'autres amplitudes de phénomènes composants pour donner une amplitude totale considérable, susceptible de provoquer une catastrophe. Il peut aussi arriver qu'un nombre élevé de phénomènes composants ajoutent leurs amplitudes à des instants précis, même si ces instants sont rares. Ainsi, des « vagues scélérates » océaniques peuvent atteindre des hauteurs de plusieurs dizaines de mètres, par empilement d'oscillations verticales d'eau qui se déplacent à des vitesses différentes et arrivent à se rattraper, et peut-être aussi du fait d'amplifications non linéaires encore mal expliquées. Ces vagues endommagent gravement même de très gros bateaux. Elles sont rares, imprévisibles et font l'objet d'une surveillance internationale par satellite pour avertir les navires menacés. Le hasard n'est pour rien dans de telles fluctuations. Tous les phénomènes périodiques composant un phénomène apériodique ont une évolution calculable, donc prévisible. L'attribution au hasard vient de l'ignorance des auteurs, due en partie à la rareté des phénomènes d'amplification catastrophique, qui gêne leur étude scientifique. Encore une fois, la nature ne connaît le hasard que lors du choix d'un élément dans l'ensemble des valeurs de la solution du modèle mathématique d'évolution, valeurs toutes prédéterminées et à probabilités connues. 106 Amplification d'une fluctuation par franchissement de valeur critique Une fluctuation exceptionnelle mais d'amplitude intrinsèquement modeste (comme une fluctuation moléculaire) peut entraîner une évolution d'ampleur spectaculaire lorsqu'elle fait franchir une valeur critique à un paramètre, mettant alors en jeu une énergie importante et changeant une loi d'évolution par bifurcation dans l'espace des phases. Exemples : Un lac à l'eau très pure qui devrait être gelé est en surfusion à une température largement inférieure à zéro degré C. S'il n'y a pas de vent, sa surface est très calme. Si on y lance un caillou minuscule l'eau peut geler instantanément, avec une énergie de solidification des millions de fois plus importante que l'énergie apportée par la chute du petit caillou. Un rocher de plusieurs milliers de tonnes est en équilibre instable à flanc de montagne. Le gel peut déstabiliser une petite pierre située au-dessus, et cette pierre en tombant va desceller le rocher qui va tomber à son tour, avec un échange d'énergie potentielle en énergie cinétique infiniment supérieur à l'énergie cinétique de la petite pierre. Une variable macroscopique qui fluctue du fait d'évolutions microscopiques peut donc subir : Soit une évolution masquée par les incertitudes sur les autres paramètres macroscopiques. Soit une évolution amplifiée par une sensibilité à des conditions initiales et/ou une bifurcation entraînant un changement de loi d'évolution ; des bifurcations en cascade peuvent alors changer un système stable en système chaotique, comme c'est le cas pour certaines formes de turbulence. Dans ces cas d'amplification le hasard n'est pour rien : les conditions (énergie, instabilité) du déclenchement du phénomène spectaculaire existaient au départ, un paramètre à valeur critique dépendant d'un phénomène fluctuant plus modeste. En parlant d'« effet papillon », le météorologue Edward Lorenz écrivait : "un battement d'ailes d'un tel insecte peut changer le temps qu'il fera à des milliers de kilomètres". Il voulait ainsi illustrer l'extrême sensibilité aux conditions initiales de certains phénomènes atmosphériques, sujet que nous avons évoqué plus haut. Mais il ne faut pas prendre son affirmation au pied de la lettre, les variables météorologiques étant connues avec une précision très inférieure à l'erreur produite en considérant le battement d'ailes du papillon comme négligeable. L'effet d'amplification par bifurcation en un point singulier de l'espace des phases (un paramètre franchissant une valeur critique) ou par changement de bassin d'attraction, peut aussi intervenir lorsque d'un côté au moins de ce point l'évolution du système est fluctuante, par exemple de manière apériodique. Il suffit alors d'une oscillation un peu plus forte pour que la valeur critique soit franchie et le système évolue brusquement de manière spectaculaire. Mais comme précédemment, l'évolution du système n'a jamais cessé d'être prévisible, donc dénuée de hasard. 107 3.1.10.5 Fluctuations d'énergie dues au principe d'incertitude de Heisenberg La Mécanique quantique montre qu'au voisinage de tout point de l'Univers l'énergie potentielle n'est pas définie et stable, mais qu'elle a une plage de variation qui dépend de la largeur de l'intervalle de temps où on l'observe : l'énergie peut varier d'autant plus que l'intervalle de temps est réduit. Bien entendu, le principe de conservation de l'énergie reste respecté en moyenne : un « emprunt » momentané d'énergie à l'espace environnant est restitué l'instant d'après. Ce phénomène a été évoqué plus haut et l'est plus en détail là. Nous avons vu que ce n'est une évolution aléatoire que selon la définition de René Thom. 3.1.10.6 Fluctuations de variables macroscopiques dues à des variations microscopiques Pour présenter et analyser ce phénomène nous allons utiliser un exemple. La complexité du mouvement brownien de molécules de gaz dans une enceinte fermée, due au nombre de molécules (des milliards) et au nombre de chocs par seconde subis par chacune (des milliers), rend illusoire toute prédiction du mouvement d'une molécule donnée connaissant sa position et son vecteur vitesse à l'instant initial, bien que les lois des mouvements et des chocs élastiques de la molécule soient déterministes au sens traditionnel. En outre, le sort d'une molécule particulière étant de peu d'intérêt car toutes les molécules sont identiques, on a pris l'habitude de considérer des grandeurs statistiques caractérisant l'ensemble du gaz de l'enceinte : vitesse moyenne d'une molécule, température, pression et entropie du gaz de l'enceinte, etc. Bien que, pour une enceinte isolée, le 2 ème principe de la thermodynamique affirme que son entropie ne peut que croître jusqu'au « désordre maximum », sa valeur instantanée fluctue constamment un peu autour de ce maximum, du fait du mouvement brownien des molécules. On peut donc se demander si cette fluctuation d'entropie (c'est-à-dire d'organisation-désorganisation) n'est pas un exemple de hasard dans la nature, comme le croît notamment Prigogine. En fait, il n'en est rien. L'entropie n'existe pas dans la nature : c'est une abstraction commode pour modéliser l'état d'organisation d'un ensemble de molécules. Ses fluctuations n'existent que parce qu'on fait des calculs probabilistes sur des populations de molécules, ce ne sont pas des réalités physiques comme une variation de l'énergie totale, impossible pour un système isolé. Les travaux d'Ehrenfest sur des systèmes isolés, à l'équilibre thermodynamique, constitués d'un grand nombre N de molécules indépendantes, montrent que le système s'écarte sans cesse de l'équilibre et y revient. Ces travaux modélisent l'état d'organisation du système et la diffusion de molécules par les transitions d'état d'un processus markovien, modèle théorique arbitraire qui montre (si on lui fait confiance) que l'entropie peut décroître en dessous de son maximum selon une loi de probabilité binomiale en 2-N. Mais les calculs numériques et l'expérimentation ont montré que le temps nécessaire pour qu'une décroissance non négligeable de l'entropie se produise (c'està-dire pour que le système s'organise davantage) est supérieur à l'âge de l'Univers. Considérons, par exemple, le cas - très favorable à la décroissance d'entropie - d'un système constitué de N=100 molécules seulement subissant 1 million de transitions 108 par seconde (10 000 en moyenne par molécule). Pour passer d'un état d'équilibre, où les N molécules sont réparties aléatoirement dans une enceinte, à un état plus organisé où elles sont toutes dans une moitié prédéfinie de l'enceinte, il faut alors environ 1015 ans, soit environ 70 000 fois l'âge de l'Univers. Les expériences ont confirmé qu'un système macroscopique isolé ne voit jamais son entropie décroître de manière mesurable : il ne s'organise pas davantage tout seul. L'irréversibilité d'une évolution macroscopique d'un fluide (prévue par la thermodynamique et qui semble contredire l'évolution réversible prévue molécule par molécule) s'explique théoriquement par le fait que la probabilité pour que toutes ses molécules reviennent à leur position de départ après un certain temps est fantastiquement faible. (En fait, cette explication probabiliste n'est pas certaine : comme toute explication probabiliste, elle est postulée. Heureusement, l'irréversibilité macroscopique n'a jamais été démentie expérimentalement, personne n'ayant jamais constaté un événement aussi improbable qu'une tasse de café où on a fait fondre du sucre et qui se sépare spontanément en café sans sucre et sucre hors de la tasse !) Conclusions : Il n'y a pas de hasard dans un phénomène macroscopique résultant de phénomènes déterministes à l'échelle atomique. Le hasard auquel croient certains est un hasard par ignorance due à l'impossibilité de mesurer et calculer les évolutions élémentaires. Les fluctuations ponctuelles d'une variable statistique comme l'entropie, regroupant des milliards de réalisations d'une variable à l'échelle moléculaire, ont une amplitude dont la probabilité varie exponentiellement en raison inverse du nombre de ces dernières. Elle décroît donc si vite qu'aucune mesure ne peut en détecter un effet à une échelle accessible aux expériences. 3.1.10.7 Amplification génétique et évolution du vivant vers la complexité Nous venons de voir que des fluctuations d'entropie d'origine microscopique ne peuvent avoir d'effet macroscopique. Mais ce que ces fluctuations ne peuvent faire en physique est possible dans un être vivant, en deux étapes d'amplification : Des accidents de réplication du génome sont inévitables du fait des solutions multiples des équations d'évolution de la Mécanique quantique, chacune associée à une probabilité d'apparition. C'est ainsi que des liaisons chimiques peuvent s'établir ou non, modifiant ainsi un gène de milliers de bases ou son expression : il suffit parfois qu'un minuscule radical CH3 de 4 atomes soit lié ou non pour faire une différence ! Un tel accident de réplication peut ne pas avoir d'effet ; il peut aussi produire un être non viable, ou souffrant d'une infériorité par rapport à d'autres espèces qui le fera éliminer par la sélection naturelle. Mais il produit parfois un être parfaitement adapté, qui pourra avoir une descendance. Du point de vue thermodynamique, la complexification (organisation de plus en plus poussée) est possible pour des êtres vivants, car ceux-ci sont des systèmes dissipatifs loin de l'équilibre et le 2ème principe ne s'applique pas. 109 3.1.10.8 Domaines où on connaît des évolutions chaotiques Les évolutions chaotiques d'un système peuvent intervenir dans de nombreux domaines. Exemples : En physiologie, le fonctionnement synchrone des cellules musculaires du cœur peut se désynchroniser, provoquant une arythmie accompagnée d'une tachycardie que l'on soigne par défibrillation et avec des médicaments comme le Cordarone ou le Sotalex. En dynamique des populations animales, la densité d'une population dépend de facteurs internes comme la résistance aux agressions de l'environnement, la fécondité ou les habitudes de vie, et de facteurs externes comme les ressources alimentaires, les prédateurs, etc. Les interactions de tous ces facteurs sont complexes et mal connues. Des modèles mathématiques simplifiés montrent qu'une densité de population peut être stable, ou varier de manière périodique ou même chaotique (exemple). Les propriétés optiques d'un milieu sont affectées par des variations de sa température, de sa densité ou de sa concentration en particules opaques. De telles variations affectent la vitesse de propagation de la lumière dans le milieu, donc son indice de réfraction, et déclenchent des phénomènes d'absorption ou de diffusion à certaines longueurs d'onde. Si ces variations sont chaotiques, les images vues à travers le milieu (par exemple en astronomie) peuvent être fortement perturbées ; c'est ainsi que les mouvements atmosphériques, l'humidité et la pollution brouillent la vision des télescopes. La turbulence d'un fluide accroît souvent ses échanges de chaleur ou ses réactions chimiques avec les parois. Nous avons plus froid, par exemple, dans un vent en rafales que dans un air calme à la même température. Les poils sur la peau de certains animaux diminuent les échanges de température et d'humidité en diminuant la turbulence des mouvements d'air. La peau des requins a des écailles dont la taille, la forme et la rugosité diminuent fortement les frottements lorsqu'il nage, augmentant ainsi considérablement l'efficacité de ses efforts. 3.1.10.9 Exemples de phénomènes chaotiques 3.1.10.9.1 Problème des 3 corps Le problème proposé en 1885 par le roi Oscar II de Suède et Norvège, avec un prix au premier scientifique qui le résoudrait, concerne un phénomène conservatif à solutions chaotiques. Il s'agissait de savoir si le système solaire était stable à long terme, sur des millions d'années, ou si un corps (planète ou un astéroïde) pouvait tomber sur le Soleil, entrer en collision avec un autre corps, être éjecté hors du système, bref changer d'orbite de manière significative. Le gagnant du prix, le mathématicien français Henri Poincaré, étudia les propriétés générales des solutions éventuelles de ce problème. Il en montra la complexité et approfondit le cas plus simple où il n'y avait que 3 corps - par exemple deux gros comme le Soleil et une planète et un très petit par rapport à eux comme un astéroïde - cas appelé depuis « Problème des trois corps ». Il montra que même dans ce cas simple les orbites sont trop complexes pour être décrites par une formule explicite. 110 Pour résoudre ce problème, Poincaré dut inventer une nouvelle branche des mathématiques, la topologie algébrique. Cette science étudie les transformations continues d'objets géométriques en utilisant des structures algébriques. Au XXe siècle, d'autres mathématiciens complétèrent les travaux de Poincaré, montrant que dans certains cas l'évolution d'une orbite peut être imprévisible, découverte qui remit en cause la définition du déterminisme admise à l'époque. On connaît aujourd'hui des évolutions chaotiques dans de nombreux domaines : la dynamique des fluides, la météorologie, la chimie des réactions dissipatives et même la Mécanique quantique. Notons qu'une évolution chaotique peut concerner un système conservatif aussi bien qu'un système dissipatif. Voici un exemple d'évolution chaotique issu de [294] : le mouvement du corps céleste « petit » du problème des 3 corps. Le graphique ci-dessous représente, dans un référentiel où l'axe horizontal passe par les centres du Soleil S et d'une planète P, et l'axe vertical est une perpendiculaire quelconque au premier, deux trajectoires A→A' et B→B' du petit corps lorsque celui-ci est parti de points A et B très voisins. On voit que ces deux trajectoires divergent, la distance finale A'B' étant bien plus grande que la distance initiale AB. 111 A' B P A S B' Divergence des trajectoires d'un petit corps attiré par le Soleil S et une planète P 3.1.10.9.2 Sensibilité d'une évolution aux conditions initiales - Chaos déterministe Nous avons vu que certains phénomènes régis par des systèmes d'équations d'évolution déterministes présentent une extrême sensibilité aux conditions initiales : une toute petite variation de celles-ci se traduit par une variation considérable du résultat final, parfois rapidement, parfois après un certain temps ; l'évolution d'un tel phénomène est imprévisible. On parle alors de « chaos déterministe ». L'évolution et le résultat d'un phénomène de chaos déterministe sont imprévisibles avant le départ. Le graphique ci-dessous illustre la sensibilité aux conditions initiales en représentant les valeurs successives de la suite xn+1 = 2xn (modulo 1) (dite "de Bernoulli" et citée par [26] pages 96 à 105), valeurs calculées en multipliant par 2 la valeur précédente puis en retenant seulement la partie après la virgule, comme dans l'exemple suivant : x0 = 0.7 ; x1 = 2*0.7 (modulo 1) = 0.4 ; x2 = 2*0.4 (modulo 1) = 0.8, etc. 112 On a représenté sur le graphique : en bleu, la suite commençant à x0 = 0.7 ; en rouge, la suite commençant à x0 = 0.697, valeur très proche de 0.7. 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 58 56 54 52 50 48 46 44 42 40 38 36 34 32 30 28 26 24 22 20 18 16 14 12 8 10 6 4 2 0 0 Divergence par chaos déterministe de la suite x n+1 = 2xn (modulo 1) pour x0 = 0.7 et x0 = 0.697 On voit que les deux suites, pratiquement confondues jusque vers n = 4, divergent ensuite de plus en plus. Ensuite (surprise !) elles convergent l'une après l'autre vers zéro, valeur atteinte respectivement pour n = 52 et n = 53 dont elles ne peuvent plus ensuite s'écarter [34]. A partir d'une formule de calcul de la suite parfaitement déterministe au sens traditionnel, nous avons ainsi créé une évolution irréversible, car en partant de x100 = 0 (par exemple) on ne peut retrouver de terme xk0, ni avec k > 100, ni avec k < 100. Il est important de noter que la petite différence initiale à l'origine de la grande différence d'évolution ultérieure peut provenir aussi bien d'une différence effective des valeurs de la variable que d'une imprécision dans sa mesure, sa représentation décimale ou son calcul. 3.1.11 Turbulence Un phénomène physique turbulent : A un comportement de chaos déterministe, donc ne devant rien au hasard. Il apparaît dans la plupart des systèmes non linéaires par franchissement de bifurcations successives dans l'espace des phases. Est irrégulier à petite échelle (au sens dimension ou durée), mais plus régulier à grande échelle, les comportements aux diverses échelles étant interdépendants. Cette différence de comportement entre échelles caractérise la non-linéarité. N'a ni régularité ni mémoire des états passés, ce qui en rend l'évolution imprédictible malgré le caractère déterministe des équations différentielles de 113 son modèle mathématique (qui sont parfois des équations aux dérivées partielles non linéaires). En pratique, l'intégration même numérique de ces équations différentielles peut être si difficile qu'on recourt à des approximations statistiques ou à une étude purement expérimentale. L'évolution d'un système devient turbulente du fait de valeurs de certains paramètres qui franchissent un seuil critique ; la loi d'évolution bifurque alors dans l'espace des phases. Le diagramme des phases d'un fluide turbulent présente des bifurcations successives correspondant à des valeurs critiques des paramètres de bifurcation. L'étude générale des bifurcations relève de la théorie des bifurcations. Les conditions d'établissement, de maintien et de disparition des états entre deux bifurcations successives relèvent de la théorie de la stabilité. Ces deux théories sont déterministes, dénuées de hasard. Les facteurs qui facilitent l'établissement d'un écoulement turbulent d'un fluide sont un nombre de Reynolds grand [293], un nombre élevé de degrés de liberté et la nonlinéarité du système d'équations différentielles de son modèle. Animations montrant de la turbulence : [300]. 3.1.12 Le déterminisme étendu Le déterminisme philosophique promettait de prédire toutes les évolutions, avec leurs résultats, à un horizon arbitrairement lointain ; il promettait aussi la reconstitution du passé, mais avec les connaissance de l'époque ces promesses étaient utopiques. Le déterminisme scientifique a permis plus de conformité aux lois de la nature, en réduisant les promesses de prédiction à celles du postulat de causalité et en ne promettant plus de reconstituer le passé. Le déterminisme statistique a permis de réduire le hasard des évolutions de physique quantique au choix d'un élément d'un ensemble prévisible où il a une probabilité d'apparition calculable ; et il a résolu le problème de la connaissance de valeurs globales d'une population immense, comme la température des molécules d'un gaz. Nous avons besoin d'un principe de déterminisme adapté à toutes les évolutions de la nature, connues ou à découvrir. Un tel principe doit aussi être compatible avec le déterminisme scientifique et le déterminisme statistique, dont on ne peut nier la valeur. Nous allons en construire un par induction à partir de propriétés de l'Univers, et nous l'appellerons « déterminisme étendu ». 3.1.12.1 Propriétés des lois de l'Univers 3.1.12.1.1 Uniformité des lois de la nature La nature que les lois physiques décrivent est uniforme. Cette uniformité de l'Univers a des conséquences fondamentales, comme la conservation de la quantité de mouvement, du moment cinétique, de l'énergie et de la charge électrique. Voici des caractéristiques de cette uniformité. 114 L'espace est homogène et isotrope : il a les mêmes propriétés en tout point et dans toutes les directions. Cette affirmation est le « Principe cosmologique », posé en tant qu'hypothèse pour simplifier des calculs de Relativité Générale. L'homogénéité et l'isotropie de l'Univers avant et après le « Big Bang » sont prouvées avec une très grande précision par la découverte en 1965 du fond diffus cosmologique [233] : la densité d'énergie de l'Univers primitif était la même en tous ses points, mais il se produisait (et il se produit toujours) des fluctuations quantiques dont sont nées les galaxies [313]. La théorie de l'inflation explique l'extrême homogénéité constatée aujourd'hui à grande échelle (100 millions d'années-lumière et plus). Les lois physiques sont stables (invariantes) dans le temps et l'espace. On le voit, par exemple, en astronomie : regarder loin, à 3 milliards d'années-lumière, c'est voir à cet endroit-là ce qui se passait il y a environ 1 milliard d'années [38] ; et on constate, alors, que les lois physiques étaient les mêmes que sur Terre aujourd'hui. Cette stabilité est l'origine de la règle de stabilité associée au postulat de causalité dans le déterminisme scientifique. Même lorsqu'une loi varie avec le temps il y a toujours une loi stable qui décrit ou même explique cette variation. Exemple : le rayon de l'Univers varie [38] ; on s'en est aperçu en 1927 en découvrant son expansion, matérialisée par une vitesse d'éloignement des galaxies lointaines qui croît avec leur distance, mais reste la même dans toutes les directions. Puis on s'est aperçu que la loi de croissance de ce rayon variait elle-même : l'expansion de l'Univers est de plus en plus rapide. Enfin, on a prouvé par raisonnement qu'au commencement de l'Univers, une petite fraction de seconde après le « Big Bang » et pendant un court très instant, sa vitesse d'expansion a été extraordinairement rapide, des milliards de fois plus rapide que la vitesse de la lumière [38]. (Remarque : la vitesse d'expansion de l'espace n'est en rien limitée par celle de la lumière, c, car elle ne déplace ni matière ni énergie [313].) Les lois physiques de l'Univers sont cohérentes (non contradictoires) ; elles se complètent sans jamais se contredire. Elles respectent trois principes fondamentaux de la logique [99], formulés par induction à partir d'observations de la nature : principe de non-contradiction, principe du tiers exclu et principe d'identité. Elles respectent aussi le principe d'homogénéité - [16-b]. Nous savons, en plus, que certaines lois de la nature s'appliquent à un certain niveau de détail sans jamais contredire une loi d'un autre niveau. Exemples : Les lois de la thermodynamique, par exemple, s'appliquent à un niveau macroscopique sans contredire les lois mécaniques des mouvements et chocs des molécules du niveau atomique. Le Principe de moindre action de Maupertuis [62] constitue une loi globale de mouvement qui ne contredit pas les lois locales de Newton. La nature est complète : elle a toutes les lois qu'il faut pour réagir à toutes les situations et expliquer tous les phénomènes ; c'est le postulat de détermination complète de Kant. Il n'y a pas de situation sans loi d'évolution, loi immuable. Une cause donnée produit donc toujours le même effet, d'où le déterminisme. 115 3.1.12.1.2 Postulat de causalité L'existence et la stabilité des lois de l'Univers nous suggèrent le postulat de causalité qu'on peut résumer sous la forme : Tout ce qui existe et tout ce qui se produit dans l'Univers a une cause et obéit à des lois. Ce postulat est légitime dans la mesure où il est vérifié par d'innombrables expériences et n'est contredit par aucune (voir la construction empirique d'une axiomatique [241]). D'après la définition de la vérité scientifique du rationalisme critique ce postulat peut être considéré comme une loi de causalité jusqu'à preuve du contraire. Voir aussi le principe de raison suffisante. Phénomènes ou situations inexpliqués Le fait que certains phénomènes ou situations soient inexpliqués ne contredit pas le déterminisme, il nous incite à faire des efforts de recherche pour les comprendre ; il nous incite aussi à rester vigilants pour le cas où la découverte d'un fait inexplicable dans le cadre d'une loi de calcul ou d'évolution censée l'expliquer, ou qui la contredit, nous oblige à modifier ou remplacer cette loi. On peut aussi envisager d'attribuer un phénomène inexpliqué ou une situation inexpliquée à l'application d'une restriction du postulat de causalité. Fluctuations quantiques Ce phénomène naturel (déjà signalé et décrit en détail plus bas) ne respecte ni le postulat de causalité, ni la règle de stabilité ! Il survient brusquement, de manière imprévisible, sans cause identifiable. C'est une fluctuation, instabilité dans le temps traduisant l'impossibilité de définir l'énergie potentielle en un point de l'espace vide avec une incertitude sur l'énergie et un intervalle de temps tous deux arbitrairement petits. Ce phénomène important, puisqu'il est cause de la naissance des galaxies peu après le Big Bang, échappe donc au déterminisme ; il est dû au hasard, si on définit celui-ci comme René Thom. Du point de vue prédictibilité, on ne peut prévoir ni où une fluctuation se produira, ni quand, ni avec quelle variation d'énergie. Et à part le cas de l'évaporation des trous noirs, ce n'est pas une évolution car chaque fluctuation s'annule d'elle-même rapidement en restituant l'énergie qu'elle a emprunté à l'espace environnant. 3.1.12.2 Définition du déterminisme étendu Dans la suite de ce texte nous allons donc postuler l'uniformité, la stabilité, la cohérence et la complétude des lois physiques de l'Univers, et nous définirons le déterminisme étendu comme suit : Le déterminisme étendu est le principe qui régit l'évolution d'une cause à ses conséquences sous l'action de toute loi naturelle. Cet énoncé du principe de déterminisme étendu doit être compatible avec la définition du déterminisme scientifique donnée précédemment (condition nécessaire et 116 suffisante et règle de stabilité) et avec celle du déterminisme statistique, bien que subsistent les obstacles à la prédiction cités. Le déterminisme statistique (introduit précédemment et décrit en détail plus bas) complète le déterminisme scientifique pour constituer le déterminisme étendu. 3.1.12.2.1 Définition constructive du déterminisme étendu D'habitude, la définition d'un mot décrit sa signification. Ne pouvant me contenter d'une telle définition descriptive pour le déterminisme étendu, j'utilise ci-dessous une définition constructive permettant, si nécessaire, une extension infinie de cette notion déduite de propriétés des lois de l'Univers. Construction Le déterminisme étendu, comprenant le déterminisme scientifique et le déterminisme statistique, peut à ma connaissance régir toutes les lois de la physique, pour permettre toutes les prédictions d'évolution possibles compte tenu des obstacles cités. Si toutefois on trouve une loi d'évolution de la nature, respectant la règle de stabilité, qui échappe à la fois au déterminisme scientifique et au déterminisme statistique, on incorporera ses règles au déterminisme étendu comme suit. Nous prenons toutes les lois d'évolution de l'Univers, une par une, dans un ordre quelconque. Considérons une de ces lois. Si sa règle d'évolution fait déjà partie du déterminisme étendu, nous l'ignorons et passons à la suivante ; sinon nous incorporons cette règle d'évolution à la définition du déterminisme étendu. Chaque fois que nous incorporons la règle d'évolution d'une loi supplémentaire, nous vérifions sa cohérence avec les règles déjà incorporées, de manière à rester conforme à la nature, dont aucune règle d'évolution n'en contredit une autre ; en principe, cette vérification est inutile si les énoncés des lois respectent bien le postulat de cohérence des lois de l'Univers. La définition du déterminisme étendu sera ainsi complétée progressivement, au fur et à mesure des découvertes scientifiques… si nécessaire. 3.1.12.2.2 Validité de cette approche Le déterminisme étendu défini comme ci-dessus constitue une axiomatique [67] dont les axiomes (règles de faits) sont les conditions initiales des diverses lois d'évolution, et les règles de déduction (d'inférence) sont les règles d'évolution correspondantes, selon la sémantique suivante : une situation décrite par les valeurs d'un ensemble de variables S évolue selon un ensemble de règles R(S). R(S) ne comprend qu'une seule loi d'évolution pour chaque variable de S, sauf en physique quantique [325] où plusieurs lois peuvent être déclenchées simultanément. La validité théorique de cette approche de définition constructive a été étudiée et justifiée par les logiciens, qui ont montré comment on peut compléter une axiomatique au fur et à mesure qu'apparaissent des vérités ou des règles de déduction qu'on ne peut déduire des axiomes existants, mais que la sémantique du sujet impose de prendre en compte. Ce point est abordé dans [92]. 117 La validité pratique de cette approche résulte de son respect de la méthode scientifique, qui ajoute des lois nouvelles aux lois existantes ou les remplace, au fur et à mesure du progrès des connaissances. Concernant le déterminisme étendu, on ajoute de nouvelles règles d'évolution des causes aux conséquences au fur et à mesure que de nouvelles connaissances l'exigent, en excluant les redondances et les contradictions. Par construction, le déterminisme étendu n'exclut ni les distributions statistiques de valeurs, ni l'imprécision, ni l'indétermination de la Mécanique quantique. Enfin, la définition constructive du déterminisme étendu n'en fait pas un système interprétatif. 3.1.12.2.3 Universalité du déterminisme étendu – Monisme - Mécanisme L'universalité du déterminisme étendu résulte de sa définition constructive, qui prend bien en compte toutes les lois de l'Univers, toutes celles qui sont connues à un instant donné et toutes celles que l'on découvrira, au fur et à mesure de leur découverte. Le déterminisme étendu régissant toutes les lois d'évolution et de traduction de la nature en tant que principe unificateur peut être considéré comme un monisme, système philosophique qui réduit l'ensemble des lois de l'Univers à un seul principe général. (Ce principe unificateur est la causalité supposée stable.) En tant que théorie philosophique d'évolution, le déterminisme étendu est un mécanisme, système qui explique les évolutions de l'Univers ou de parties de l'Univers uniquement par des causes matérielles efficaces [39], c'est-à-dire des raisons suffisantes du devenir. Cette explication exclut toute cause finale [39]. 3.1.12.2.4 Limites de la règle de stabilité du déterminisme La définition du déterminisme scientifique traditionnel prévoit la stabilité de la loi d'évolution. Mais cette hypothèse n'est pas toujours pertinente. C'est ainsi que, lorsque les astronomes ont découvert que l'Univers est en expansion (après des siècles de croyance a priori en un espace qui n'évolue pas), ils ont commencé par postuler que sa vitesse d'expansion (le nombre d'années-lumière supplémentaires ajoutées à son rayon chaque année) est constante [111]. Puis ils se sont aperçus que ce postulat était doublement faux, car nous avons la preuve que : Dans la première fraction de seconde (environ 10 -35 seconde) après sa naissance, la croissance de l'Univers a été extraordinairement rapide, son rayon croissant des milliards de fois plus vite que la vitesse de la lumière : ce fut la courte phase d'inflation [313]. De nos jours, la vitesse de croissance est bien plus faible (on ne parle plus d'inflation, on parle d'expansion), mais elle augmente : le rayon de l'Univers (environ 47 milliards d'années-lumière, correspondant à un âge de 13.8 milliards d'années) croît de plus en plus vite. [111] [370] Connaître la vitesse d'expansion de l'Univers et sa variation depuis le Big Bang est important pour déterminer l'âge de l'Univers et mieux comprendre les phénomènes physiques qui interviennent encore de nos jours. 118 Conclusion : lorsqu'on suppose qu'une loi d'évolution est stable il faut être prudent, et d'autant plus prudent que l'on considère une période longue. La règle de stabilité des lois du déterminisme scientifique, reprise dans le déterminisme statistique et le déterminisme étendu, n'a pas besoin d'être absolue. Son respect n'est nécessaire que pour assurer la cohérence des évolutions dans le temps et l'espace, ce qui exige : que l'évolution d'une situation S ne dépende que des valeurs initiales de ses variables, pas de l'instant ou de la position de départ (qu'elle soit la même pour deux situations S et S' déduites l'une de l'autre par un déplacement dans le temps ou l'espace) ; qu'une évolution commencée se poursuive avec la même loi pendant toute sa durée et dans tout l'espace concerné. Considérations relativistes J'explique, en décrivant les propriétés relativistes de l'espace-temps dans l'annexe de ce livre, qu'un événement A ne peut être cause d'un événement B que si, dans le diagramme d'espace-temps, B est à l'intérieur du cône de lumière de A, c'est-à-dire si la lumière partant du lieu de l'événement A et se propageant à sa vitesse habituelle (c = 299 792 458 m/s dans le vide) a le temps d'arriver au lieu de l'événement B avant la survenance de ce dernier. Si B est hors du cône de lumière de A, il ne peut avoir été causé par A ou l'avoir influencé, et des lois physiques différentes pourraient s'appliquer aux lieux et instants de A et B sans conséquence sur la cohérence de l'Univers pour des observateurs en A ou B. Par contre un autre observateur, en C, capable de voir les deux événements A et B (donc situé dans leurs deux cônes de lumière) pourrait s'apercevoir d'une éventuelle différence entre les lois de la nature s'appliquant en A et en B si cette différence n'était pas négligeable. Donc, vue de la Terre à notre époque, une éventuelle variation d'une loi de l'Univers peut être visible ou invisible, selon son emplacement et sa date dans l'espace-temps de l'Univers. L'expansion de l'Univers visible se produit à la vitesse de la lumière, c [111]. Elle n'affecte que l'espace entre amas de galaxies : la gravitation qui domine dans ces amas en empêche l'expansion. Le rayon R de l'Univers visible est 47 milliards d'années-lumière ; la lumière a mis 13.8 milliards d'années pour nous en parvenir (du fait de l'expansion). Un événement actuel situé à plus de 9.1 milliards d'années-lumière de notre galaxie nous restera à jamais inconnu, sa lumière ne pouvant nous atteindre parce que la vitesse d'expansion à cette distance-là est déjà égale à c et augmente au-delà. [370] Une éventuelle différence de loi physique entre le lieu et l'époque de cet événement et notre Terre à notre époque serait sans conséquence pour nous et indétectable. La règle de stabilité n'a pas besoin d'être absolue Comme nous venons de le voir, une éventuelle différence entre lois de la nature peut rester invisible pour nous et notre déterminisme, soit pour les raisons relativistes, soit pour des raisons d'éloignement, soit tout simplement si ses effets sont négligeables 119 aux échelles (de temps, de longueur, d'énergie, etc.) où nous pouvons en être impactés. La règle de stabilité n'a donc pas besoin d'être absolue. 3.1.12.3 Stabilité des lois d'évolution et situations nouvelles Nous examinons dans cette section une restriction possible des exigences du postulat de causalité. Une étude approfondie de ce postulat est disponible plus bas. 3.1.12.3.1 Apparition d'une loi d'évolution La règle de stabilité du déterminisme scientifique implique ceci : à l'apparition d'une situation donnée S, une certaine loi physique d'évolution L est appliquée automatiquement par la nature ; et si la même situation S réapparaît à un autre moment et/ou dans un autre lieu, c'est la même loi d'évolution L qui sera appliquée. Mais nous n'avons nullement postulé que la loi L doit exister avant la première survenance de la situation S. Si elle existait avant, cette loi serait, au moins provisoirement, sans objet ; un idéaliste comme Platon pourrait en envisager l'existence, un matérialiste non. Pour l'homme, une loi physique est une abstraction destinée à décrire un phénomène ou son évolution, ou à calculer un résultat. Si l'homme imagine une loi s'appliquant à des situations qui ne se sont jamais produites, comme il peut toujours le faire, cette loi restera pure spéculation jusqu'à ce que ses conditions d'application soient réunies, ce qui arrivera ou non. Donc : Nous limiterons la période d'application de la règle de stabilité d'une loi d'évolution au temps qui suit l'apparition de la première situation où elle s'applique. Une loi d'évolution d'une situation qui ne s'est jamais produite, et dont la survenance n'est pas certaine, est pure spéculation car elle est sans objet ; et son énoncé est infalsifiable [203]. 3.1.12.3.2 Restriction du postulat de causalité En affirmant qu'en l'absence de cause la conséquence n'a pas lieu, notre postulat de causalité exclut la possibilité de situations « vraiment nouvelles », c'est-à-dire sans cause physique existante ou ayant existé dans notre Univers : toute situation a une chaîne de causalité remontant jusqu'à la naissance de l'Univers ; c'est une conséquence déterministe de cette situation initiale. Il ne peut exister de chaîne de causalité indépendante, car si elle avait commencé après la naissance de l'Univers son début aurait résulté d'un enchaînement de situations existant avant elle, ce qui est contradictoire ; et si elle avait commencé avant, elle aurait été prise en compte lors de la naissance de l'Univers, événement ponctuel dans l'espace et le temps [313]. Du reste, imaginer un « avant le Big Bang » est pure spéculation, nos connaissances de physique ne remontent pas si loin. Or la contrainte « pas de situation vraiment nouvelle » n'est en rien nécessaire à la stabilité des lois d'évolution dans le temps et l'espace. Celle-ci exige seulement qu'une fois apparue lors de son application à une situation S, une loi s'applique à l'identique à toute situation S' déduite de S par une translation dans le temps et/ou l'espace. S'imposer qu'il n'y ait jamais de situation nouvelle dans l'Univers est un apriori inutile du moment que la structure de cette situation (ses objets composants et leurs relations) ne contredit pas de loi de structure existante (la nouveauté ne peut rendre impossible ce qui existe déjà, elle peut seulement en changer les lois d'évolution). 120 Bref, notre principe de causalité est fait pour prévoir l'avenir à partir du passé ; il n'exige nullement que la chaîne de causalité remonte à l'infini dans le passé, tant pis pour les philosophes qui ne s'en sont pas aperçu et se sont crus obligés de postuler une « cause première », une « cause sans cause » comme Dieu. Rien n'interdit que l'Univers ait toujours existé, si toutes ses lois d'évolution sont stables après leur première application. Rien n'oblige une loi d'évolution physique d'avoir existé avant la première fois où il existe une situation à laquelle elle doit s'appliquer ; la physique n'a pas besoin des Idées éternelles de Platon. Nous allons donc, dans le reste de cette section, conjecturer que des situations vraiment nouvelles (sans cause préalable) peuvent apparaître dans l'Univers, pour voir si cela permet une explication plausible de situations nouvelles constatées sans en contredire d'autres ; nous appellerons apparitions de telles situations. Une apparition est nécessairement accompagnée de sa loi d'évolution, qui peut être nouvelle ou être une évolution de loi préexistante applicable universellement désormais. Affirmer qu'une situation est une apparition parce que nous n'en connaissons aucune cause et qu'elle n'a pas d'équivalent peut, évidemment, résulter d'une ignorance de notre part, et se trouver démenti ultérieurement ; l'existence d'apparitions n'est donc qu'une conjecture, conséquence d'une restriction du postulat de causalité. Le fait qu'une situation-apparition soit découverte aujourd'hui n'entraîne pas qu'elle n'existait pas auparavant : une telle affirmation ne peut résulter que d'une étude expérimentale ou théorique, avant d'être prouvée elle n'est qu'une conjecture. Voici quelques cas que l'on peut considérer aujourd'hui comme des apparitions. 3.1.12.3.3 Exemples d'apparitions La naissance de l'Univers Rien ne prouve qu'elle résulte d'une situation préexistante dans un Univers extérieur préexistant, par application de lois préexistantes. On peut conjecturer que les lois d'évolution de l'Univers sont nées avec lui, car leur existence antérieure est pure spéculation indémontrable et leur existence ultérieure une certitude. Nous savons [313] que, au commencement de l'Univers, des lois fondamentales de notre Univers actuel ne s'appliquaient pas, notamment parce que des concepts de base comme le temps et l'espace étaient d'une autre nature qu'aujourd'hui (probablement discontinue, quantifiée…) ; mais nous ne savons pas (ou pas encore) quelles lois s'appliquaient. Ce commencement peut donc être considéré comme une apparition, la première. L'inflation La courte période dite d'inflation [313], peu après le commencement de l'Univers mais avant le Big Bang, a vu une expansion de l'Univers fantastiquement rapide, dilatation de l'espace des milliards de fois plus rapide que la vitesse de la lumière et accompagnée de création de matière. 121 Nous ne connaissons pas la cause précise de l'inflation. Nous pouvons seulement conjecturer qu'elle est due à une fluctuation quantique. Cette énergie a pu apparaître sans cause, pendant un temps très bref, par transformation d'énergie potentielle du milieu environnant. L'inflation s'est terminée par la situation que nous appelons Big Bang, elle-même suivie d'une expansion de l'Univers à un rythme beaucoup plus lent et sans création de matière, expansion qui se poursuit de nos jours. ([136] Tegmark) Les fluctuations quantiques Ce phénomène (rappelé plus loin) est une variation d'énergie en un point de l'espace vide sans cause autre que l'affirmation « l'énergie du vide est instable à cause du principe d'incertitude de Heisenberg », ce qui n'explique rien. Ce n'est pas une véritable évolution, car « l'emprunt » d'énergie ΔE à l'espace environnant (matérialisé par l'apparition d'une paire particule + antiparticule) est restitué environ Δt secondes après par fusion de cette particule avec l'antiparticule, en respectant la limite ΔE.Δt ≥ ½ä. C'est donc une apparition. 3.1.12.3.4 Conséquences philosophiques de la possibilité d'apparitions Restreindre la contrainte de stabilité en admettant la possibilité d'apparitions a d'importances conséquences philosophiques. Exemples : Certaines chaînes de causalité peuvent apparaître après la naissance de l'Univers. L'opposition entre matérialisme (qui refuse les phénomènes sans cause actuelle ou passée interne à l'Univers) et idéalisme (qui croit possibles des phénomènes dont la cause est externe à l'Univers, comme la volonté d'un Créateur) n'est plus aussi totale. Des situations et des phénomènes peuvent rester inexpliqués, parce que ce sont des apparitions. L'ensemble des lois d'évolution de l'Univers peut s'enrichir ou évoluer progressivement. Certaines situations ou évolutions considérées comme impossibles avec les lois physiques actuelles peuvent ne plus l'être éternellement. Exemple : l'expansion de l'Univers a été considérée successivement comme inexistante, puis à vitesse constante et aujourd'hui à vitesse croissante : pour qu'une loi de la nature paraisse stable dans le temps ou l'espace, il faut qu'elle varie trop lentement pour qu'on s'en aperçoive avec les moyens dont on dispose. Des lois de conservation comme la conservation de l'énergie ou de la quantité d'informations peuvent être violées à l'occasion d'une apparition (détails). 3.1.12.4 Conclusions sur le déterminisme étendu et la causalité 3.1.12.4.1 Déterminisme étendu : un principe et un objectif L'expression « déterminisme étendu » désigne un principe (en fait : un postulat) régissant les lois d'évolution de la nature. Nous savons que le caractère déterministe n'entraîne pas toujours la prédictibilité ; c'est ainsi que l'action d'un grand nombre de processus déterministes simultanés ne change pas leur nature globale déterministe, mais rend impossible par excès de complexité la prédiction du futur. 122 Le déterminisme étendu constitue un pont entre science et philosophie destiné à mieux comprendre ce qui est et mieux anticiper ce qui sera. 3.1.12.4.2 Causalité, déterminisme étendu et prédictions d'évolution physique Que mes lecteurs soient ou non complètement d'accord avec mes définitions du déterminisme scientifique, du déterminisme statistique, du déterminisme étendu, du hasard et du chaos n'est pas indispensable à la lecture de ce livre. Seule compte la connaissance des limites de la prédiction des évolutions physiques, avec ce qu'elle implique de culture scientifique. Voici un résumé d'affirmations concernant la causalité et le déterminisme étendu des lois de la nature. Une cause est une situation à un instant donné, avec tous ses paramètres. Cette définition n'est pas triviale. Considérons une situation de Mécanique quantique avec superposition d'états qui évolue par décohérence pour devenir un état unique. On pourrait penser qu'il s'agit d'un cas où plusieurs causes (les états superposés) ont évolué vers une conséquence unique, ce qui constituerait une causalité différente de celle où une cause unique évolue vers un ensemble de conséquences. En fait, la superposition d'états constitue bien une situation à considérer dans son ensemble, donc une cause unique. (Développement) La conséquence d'une cause est tirée, automatiquement et immédiatement, par la nature sous forme d'un ensemble d'évolutions simultanées de certaines variables (si aucune n'était affectée, il n'y aurait pas d'évolution). Cet ensemble d'évolutions peut ne comprendre qu'une évolution unique ou (en physique quantique) comprendre plusieurs évolutions simultanées en superposition. Cette superposition prend fin par une décohérence, au bout d'un temps en général court, et d'autant plus court que le système considéré interagit fortement avec son environnement et que les états superposés sont différents, rendant ainsi la superposition instable. Dans la nature, la décohérence est le seul cas d'évolution où le hasard intervient (par déterminisme statistique), si l'on considère les fluctuations quantiques comme étant des phénomènes sans cause préalable qui ne sont pas des évolutions, parce qu'ils reviennent toujours à l'état initial sauf dans le cas des trous noirs qui s'évaporent. Et même la décohérence s'explique sans hasard, de manière déterministe, avec la théorie de Hugh Everett. (Voir en fin de texte la table résumant les cas d'imprédictibilité) Une particule peut parcourir une infinité de trajectoires à la fois, solutions de l'équation de Schrödinger, autour d'une trajectoire la plus probable calculée en pondérant chacune des trajectoires individuelles avec sa probabilité. Cas particulier intéressant : un ensemble de particules décrites par un état quantique global, comme une paire de photons corrélés (on dit aussi "intriqués"), conserve certaines propriétés de cet état global même lorsque les particules s'éloignent les unes des autres. Si un événement affecte alors l'une des particules (exemple : l'absorption d'un photon de l'ensemble intriqué lors d'une mesure) ses conséquences sont propagées instantanément à toutes les autres particules « à une vitesse infinie » : on dit qu'il y a non-séparabilité. 123 Toute évolution physique d'un système laisse invariante la quantité d'informations qui le décrit (conséquence de la réversibilité de l'équation de Schrödinger). Dans la nature, l'instabilité peut constituer une cause d'évolution. L'instabilité peut résulter d'une énergie cinétique traduisant la température, source de l'agitation incessante appelée mouvement brownien. L'instabilité peut se manifester par des fluctuations énergétiques ; il s'agit alors d'une indétermination régie par le principe d'incertitude. L'instabilité des systèmes non linéaires (par exemple les systèmes dissipatifs comme les êtres vivants, en déséquilibre thermodynamique), peut être source d'auto-organisation (comme l'évolution des espèces). L'instabilité peut résulter d'une solution particulière d'un modèle d'évolution, comme l'inflation de l'Univers qui résulte de la Relativité Générale [313]. L'instabilité peut résulter de la nature même d'un système dynamique ; ses lois d'évolution peuvent changer en certains points de bifurcation. [281] La nature ne connaît pas le concept humain de « résultat d'une évolution » et elle n'a pas de finalité (contrairement à la doctrine idéaliste). Par définition, un résultat (notamment la durée d'un phénomène) est l'ensemble des valeurs des variables qui nous intéressent, nous hommes, considérées à un instant donné. Il peut venir d'une ou plusieurs des évolutions déclenchées par une cause donnée. Une cause donnée ne fait que déclencher un ensemble d'évolutions, dont elle ne garantit ni la prédictibilité des résultats, ni la précision de chaque résultat, préoccupations strictement humaines. Chaque évolution déclenchée est gouvernée par une loi physique, selon le principe déterministe « les mêmes causes produisent les mêmes effets », principe qui implique ce qui suit : La stabilité (l'invariance) des lois physiques dans le temps et l'espace (au moins à l'échelle qui nous est accessible). L'absence de hasard dans le choix de la loi d'évolution d'une situation. En Mécanique quantique, lors d'une évolution dont le modèle peut avoir plusieurs solutions, celles-ci constituent un ensemble prédéterminé, dont chaque élément a une probabilité connue d'apparaître si on fait un grand nombre d'expériences identiques. Ce choix statistique d'une valeur est donc un type d'évolution naturelle particulier, faisant passer d'une superposition de valeurs à une valeur unique. C'est le seul cas, dans la nature, où le hasard intervient ; et même lui disparaît avec la théorie à univers multiples de Hugh Everett. Dans le cas d'une bifurcation, la loi choisie dépend d'un paramètre de contrôle qui a une valeur critique au point de bifurcation. En cas d'évolution sensible aux conditions initiales, le résultat est imprédictible à long terme au départ du fait d'une amplification mathématique d'inévitables imprécisions de calcul ou physiques. 124 La nature a toutes les lois qu'il faut pour réagir à toutes les situations. Elle « n'improvise » jamais de conséquence et n'en « oublie » jamais. Il n'y a pas dans l'Univers de situation parfaitement stable pour l'éternité, situation sans loi d'évolution quelle que soit la variable d'état considérée. Les lois physiques constituent un ensemble cohérent : leurs effets se complètent sans jamais se contredire. Exemple : les différentes trajectoires éventuelles d'une particule unique, qui les emprunte toutes à la fois, sont parcourues à des vitesses telles que la particule arrive en une fois à une destination unique, pas à plusieurs dates dépendant des diverses trajectoires. Mais des différences de longueur de trajectoires peuvent produire des interférences. La nature ignore les concepts d'échelle d'espace ou de temps, qui ne sont que des abstractions commodes de l'esprit humain : c'est le principe de correspondance. Une loi physique s'applique à toutes les échelles, mais ses effets peuvent être négligeables ou trop difficiles à calculer à certaines échelles. Certains phénomènes sont modélisés par des structures géométriques dites fractales, qui ont la même forme quelle que soit l'échelle, c'est-à-dire « le grossissement ». Les lois physiques respectent un certain nombre de symétries (invariances) résultant de l'uniformité de l'Univers (homogénéité du temps et de l'espace, isotropie), de la symétrie droite-gauche de l'espace, etc. Il y a aussi des concepts universels, qui seraient les mêmes aussi pour des habitants d'une autre galaxie : nombre entier, point, ligne droite, etc., ainsi que des principes de logique [99]. Le déterminisme ne peut que les respecter. La causalité et le déterminisme tiennent compte de la Relativité, de la Mécanique quantique, de l'Electrodynamique quantique et de la Chromodynamique quantique, qui sont des lois de la nature. La causalité et le déterminisme s'appliquent aux situations et aux évolutions physiques de la nature, pas à la pensée humaine. Nous allons voir ci-dessous que celle-ci est non-déterministe et imprévisible. Conclusions Ce n'est pas à la nature de s'adapter à notre besoin de représentations mentales simples, c'est à nous d'adapter celles-ci et l'échelle que nous considérons à la nature, même si ces représentations sont abstraites, probabilistes, imprécises ou indéterminées. Le déterminisme régit l'évolution qui résulte de la cause initiale ; il ne garantit pas que le résultat de cette évolution puisse être prédit avant, ou mesuré après avec une précision arbitraire : le déterminisme, toujours respecté par les lois de la nature, ne garantit ni la prédictibilité du résultat ni la précision de sa mesure ; il garantit seulement que la cause déclenche une évolution selon la loi qui s'applique. Voir aussi Ensemble de définition d'une loi déterministe. 125 Voir en fin de texte la table résumant les cas d'imprédictibilité. 3.2 Imprédictibilité de la pensée humaine Nous avons vu ci-dessus à propos de la complexité que les phénomènes des êtres vivants, qu'ils soient physiologiques ou psychiques, reposent sur les mécanismes physiques des cellules régis par la biologie moléculaire, chacun déterministe et à évolution et résultat prévisibles. Le déterminisme et la prédictibilité s'entendent ici au sens du déterminisme étendu, à cause du caractère probabiliste de l'établissement et de la rupture de nombreuses liaisons chimiques intervenant en biologie moléculaire. Mais le nombre de ces phénomènes physiques et leurs innombrables interactions rendent les phénomènes du vivant d'une redoutable complexité. C'est cette complexité qui explique l'imprévisibilité de la pensée humaine, qui s'ajoute à une influence permanente de l'inconscient [353] qui échappe à notre conscience. Voyons quelques détails. D'après une interprétation simpliste de la doctrine matérialiste, la pensée est un simple aspect de mécanismes des neurones : établissement et ruptures de connexions par synapses, et communications à travers ces synapses. Ces mécanismes sont euxmêmes basés sur des réactions chimiques régies par le « logiciel » génétique. La pensée, consciente ou non, n'est que l'interprétation par notre esprit du fonctionnement de ses propres neurones, lui-même basé sur des processus de biologie moléculaire, science exacte déterministe (au sens étendu) basée sur la physique quantique [325]. Cette interprétation du psychisme [347] est expliquée dans "Conscience et conscience de soi" [339]. Le logiciel génétique gérant les neurones coordonne des milliers de réactions chimiques, qui dépendent d'innombrables paramètres appartenant à des domaines dont je ne peux citer que quelques-uns : perceptions remontant des sens et du corps vers le cerveau, santé du corps, informations mémorisées dans les neurones, etc. Ces milliers de réactions interdépendantes donnent aux mécanismes physiologiques de la pensée une immense complexité. C'est ainsi que, d'après les recherches récentes citées dans [307] : les synapses des vertébrés contiennent environ 1000 protéines, mises en œuvre dans 13 mécanismes moléculaires, dont l'un utilise 183 protéines différentes ; le cerveau humain compte environ 100 milliards de neurones reliés par 100 trillions de synapses (oui, cent mille milliards de synapses). Un neurone peut dialoguer avec un millier d'autres en même temps : comme les ordinateurs multitâches et/ou multiprocesseurs, beaucoup de processus psychiques se déroulent en parallèle ; un processus peut en démarrer d'autres et communiquer avec eux. Au-dessus de cette complexité physique, la pensée elle-même représente toute une « hiérarchie logicielle », avec ses mécanismes conscients ou non d'acquisition, mémorisation et recherche d'informations, de jugement de sens psychique et de valeur 126 de chaque pensée, d'enchaînement de pensées par analogie, induction, déduction et synthèse, etc. Le fonctionnement de ces mécanismes psychiques ne se déduit pas des seuls mécanismes physiques qui les supportent, on ne peut les décrire qu'en ajoutant des algorithmes décrivant des pensées et leur enchaînement : « le tout est plus riche que la somme des parties ». Comme nous l'avons vu plus haut, la pensée est la perception humaine du fonctionnement du cerveau lorsque celui-ci interprète ses connexions de neurones. C'est cette interprétation qui transforme un état matériel de neurones en abstractions ; elle constitue la seule mise en relation entre concepts de genres différents qui ne viole pas le principe d'homogénéité. En reliant des abstractions, l'esprit humain peut créer n'importe quelle relation, même fantaisiste ou absurde ; il suffit que certains groupes de neurones (des « cliques ») créent, modifient ou suppriment diverses connexions entre neurones. Inconscient (voir aussi [353])- Mais l'inconscient entretient constamment des pensées qui échappent à tout contrôle de la conscience. Il y a, par exemple, la formation de valeurs de l'individu qui vont ensuite guider toute sa pensée et toutes ses actions en définissant le sens psychique des situations ; exemple : "voler est mal". Toute pensée qui a un tel sens produit à son tour des affects [253], comme tout ce qui est désiré ou qui est redouté. Il y a aussi un très grand nombre de vérités et d'opinions a priori, aussi injustifiables logiquement (indécidables [6]) que les pensées relevant de l' « esprit de finesse » (intuition, sagacité, etc. [66] - [141]), mais accessibles à la conscience. La connaissance des processus inconscients progresse, mais elle est encore très embryonnaire. (Détails) L'inconscient et la complexité fantastique des mécanismes de la pensée expliquent l'essentiel de son caractère généralement imprévisible, malgré une base physique déterministe. Inconscient et complexité font que la condition de stabilité (reproductibilité) de la définition du déterminisme scientifique est rarement satisfaite. Selon la quantité de neurotransmetteurs comme la dopamine et l'acétylcholine dans certaines zones du cerveau, les pensées sont très différentes. La mémoire à long terme, soumise elle aussi à un environnement chimique et à des stimulations qui varient avec les circonstances, peut oublier ou déformer les souvenirs, voire même créer de faux souvenirs qui nous paraissent vrais. Le cerveau fabrique souvent des pensées par intuition ou analogie sans que l'individu soit conscient de leur élaboration, et certaines sont erronées ou indécidables tout en paraissant acceptables au mécanisme automatique de jugement de valeur. Voilà pourquoi le cheminement et les conclusions de la pensée humaine sont le plus souvent imprévisibles. Voilà pourquoi la pensée d'un individu est tellement soumise à ses affects que sa raison elle-même n'est qu'un outil à leur service, et que l'individu préfère souvent des décisions qu'il sait irrationnelles ou immorales à des décisions rationnelles ou morales. 3.2.1 La barrière de complexité Depuis que l'homme primitif savait évaluer un danger en un instant, sans prendre le temps de réfléchir à ce qu'il devait faire, l'homme a dans ses gènes une fonction 127 d'évaluation au premier coup d'œil. Cette fonction est si automatique qu'on ne peut la bloquer, et il faut l'effort d'un raisonnement délibéré pour en changer les conclusions. Cet effort est d'autant plus important que la situation est complexe. L'homme doit alors trouver un compromis entre la qualité d'une décision et sa rapidité. L'habitude de juger au premier coup d'œil est si forte que, face à une situation complexe, l'homme adopte souvent la première idée qui lui vient, sans prendre le temps de faire le tour des paramètres et des contraintes du contexte. Beaucoup de citoyens, par exemple, votent pour un programme électoral qu'ils n'ont pas analysé en détail, voire dont ils n'ont lu que le nom du candidat et de son parti. Conséquence : imprédictibilité des décisions économiques et boursières L'imprédictibilité des décisions humaines se manifeste de manière spectaculaire en économie et sur les marchés financiers, où on peut montrer qu'aucun modèle mathématique, même statistique, ne peut permettre des prédictions fiables. C'est pourquoi, par exemple, tant de fonds hautement spéculatifs (hedge funds) basés sur les modèles de mathématiciens de haut niveau (les quants) ont disparu avec de fortes pertes lors de la crise de 2007-2008 - [301]. 3.2.2 Rigueur des raisonnements déductifs Il nous paraît évident qu'un raisonnement purement déductif (« géométrique », comme diraient Pascal et Spinoza) est rigoureux. Le syllogisme démonstratif : "Tous les hommes sont mortels ; Socrate est un homme ; donc Socrate est mortel" nous paraît rigoureux. Mais les neurosciences montrent que nous n'acceptons une conclusion même certaine parce que rigoureuse - que lorsqu'elle ne nous touche pas personnellement, ou lorsque la valeur affective que nous lui attribuons automatiquement ne s'oppose pas à une valeur supérieure associée à une conclusion différente. Dans le cas d'une telle opposition nous préférons être de mauvaise foi, parce qu'accepter la conclusion logique nous coûte plus cher émotionnellement qu'en accepter une illogique. Il arrive qu'on préfère perdre de l'argent plutôt que de perdre la face… Voir aussi le paragraphe sur la dissonance cognitive. En toute rigueur : La 1ère proposition ci-dessus "Tous les hommes sont mortels" implique à elle seule la conclusion, puisque Socrate est un homme : en l'affirmant on sousentend qu'on est déjà certain de cette conclusion. La 2 ème proposition ne sert donc qu'à expliciter le raisonnement pour le clarifier et préparer la conclusion, elle n'ajoute pas d'information à la 1 ère. Une proposition de type "Tous les…" sous-entend en principe qu'on a la certitude pour tous les éléments de l'ensemble concerné, par exemple parce qu'on a vérifié la proposition pour chacun d'eux ou qu'on l'a prouvée logiquement pour tout l'ensemble qu'ils forment. Mais comme il y a de nombreux cas où une telle rigueur est impossible (ici on ne sait même pas combien il y a d'hommes, on ne peut les joindre tous pour vérifier, etc.) la proposition repose alors sur une induction : on sait qu'elle est vraie pour un nombre d'éléments suffisamment grand pour postuler qu'elle doit être vraie pour tous ; on prend le risque de généraliser. 128 Tout raisonnement logique, notamment toute démonstration, repose sur des prémisses admises sans démonstration. Il peut s'agir d'axiomes, de généralisations par induction, de certitudes acquises avant ce raisonnement, etc. Un raisonnement peut, à l'occasion, comprendre une infinité d'étapes : on parle alors par exemple de « régression à l'infini » ou de récurrence. Le raisonnement peut être parfaitement valable et concluant si la suite infinie de déductions converge vers une conclusion : voir le paragraphe Déterminisme et convergence des processus et théories. 3.2.3 Champ d'application du déterminisme et de la causalité La causalité et le déterminisme étendu construit sur elle s'appliquent bien à toutes les lois de la nature. Ils ne s'appliquent pas, en général, à la pensée elle-même : Souvent la pensée ne respecte pas la contrainte de reproductibilité (règle de stabilité) du déterminisme scientifique, notamment parce que la complexité des phénomènes psychiques et le nombre de leurs paramètres (humains et environnementaux) font qu'il y a presque toujours au moins une variable qui a changé entre deux situations apparemment identiques, par exemple dans l'inconscient. [353] Face à une situation, une différence fondamentale entre la nature et l'homme est que la nature applique instantanément la loi ad hoc, alors que l'homme réfléchit aux conséquences d'une éventuelle action, anticipant ainsi l'avenir et agissant en fonction de cette anticipation. Et comme sa réflexion (dominée par ses affects, souvent inconscients) n'est en général pas rationnelle, ses conclusions sont trop souvent imprévisibles pour que ses actions soient prédictibles. L'esprit humain peut spontanément associer n'importe quel concept à n'importe quel autre, au mépris du principe d'homogénéité et de la rigueur. Il lui faut ensuite un effort délibéré de raisonnement conscient pour aboutir à une conclusion rigoureuse, et il échoue souvent du fait de biais inconscients. Nous verrons plus bas en détail pourquoi il y a une classe de phénomènes, dont la pensée fait partie, qui en général ne sont pas déterministes. Notons pour le moment qu'il n'y a pas de contradiction entre le caractère déterministe des mécanismes neuronaux de la pensée, résultant de celui des mécanismes génétiques sous-jacents, et son caractère non déterministe : entre les premiers et la seconde, il y a toute une logique de fonctionnement dont la complexité, la non-conscience et la sensibilité au contexte (santé, etc.) expliquent l'instabilité. Voir en fin de texte la table résumant les cas d'imprédictibilité. 3.3 Compléments philosophiques sur le déterminisme physique 3.3.1 Trois cas particuliers de déterminisme de la nature Au sens du déterminisme traditionnel, le jet d'un dé est un phénomène aléatoire puisque le nombre résultant est imprévisible [299]. En fait, ce résultat n'est pas n'importe quoi : l'ensemble des résultats, {1, 2, 3, 4, 5, 6}, est toujours le même : le résultat est déterministe statistique. Dans le cadre du déterminisme étendu 129 défini ci-dessus le jet d'un dé est un phénomène déterministe sensible aux conditions initiales, pas un phénomène aléatoire. Le résultat d'une évolution physique donnée n'est pas nécessairement unique, il peut s'agir d'un ensemble ; le déterminisme étendu exige seulement qu'une cause donnée déclenche toujours le même phénomène ; son résultat peut avoir plusieurs éléments lorsque le modèle mathématique qui le décrit a plusieurs solutions. Seul le choix d'un élément unique de l'ensemble-résultat produit par une évolution donnée peut être statistique, et cette évolution ne se produit qu'en Mécanique quantique, sous le nom de décohérence. Conclusion : la nature a ses propres limites ; elle ne permet pas toujours la prédictibilité que l'homme souhaite, avec une solution unique et une précision parfaite. C'est pourquoi, par exemple, la position et la vitesse d'un électron en mouvement ne peuvent être connues qu'avec des probabilités dans un volume autour de chaque point. Le résultat d'un algorithme [69] calculé par un ordinateur est nécessairement déterministe [114]. Le fait que la succession des décimales de Pi n'ait aucune régularité connue, c'est-à-dire qu'elle semble aléatoire [98] bien que calculable par un algorithme, montre qu'un algorithme peut générer des suites de nombres paraissant aléatoires malgré son déterminisme (le caractère aléatoire n'est que probablement vrai pour Pi, car aucun contre-exemple n'a jamais été trouvé et nous avons vu qu'il n'existe pas de critère rigoureux de caractère aléatoire d'une suite de nombres). Les logiciels générateurs de nombres « aléatoires » sont très utilisés en informatique et pour concevoir des expériences de physique. Nous verrons que la calculabilité d'un algorithme exige le déterminisme, mais la modélisation informatique d'un processus déterministe ne conduit pas nécessairement à un algorithme calculable. (Détails sur la calculabilité : [114]) Si, par une nuit noire, un désespéré se jette du haut d'un pont dans un fleuve pour se noyer, et qu'un homme qu'il n'a pas vu plonge et le sauve, le sauvetage était imprévisible. C'est un cas de déterminisme où il y a rencontre de deux chaînes de causalité indépendantes (celles des deux hommes). 3.3.2 Symétrie temporelle et réversibilité du déterminisme traditionnel Possibilité d'inverser le sens du temps Pour le déterminisme scientifique traditionnel, le temps peut s'écouler du passé vers l'avenir ou du présent vers le passé. Cette possibilité d'inverser le sens du temps en changeant t en -t dans les équations d'évolution est compatible avec les lois de la physique. Exemples : Les lois du mouvement de Newton [110] (voir exemple) ; Les équations différentielles de Lagrange et de Hamilton ; Les équations de la Relativité Générale d'Einstein [328] ; Les équations de Maxwell [123] ; L'équation de Schrödinger, etc. 130 Chaîne de causalité unique du déterminisme traditionnel Nous savons que pour le déterminisme philosophique, tout état d'un système a une infinité de prédécesseurs et de successeurs, l'ensemble constituant une chaîne de causalité unique, où chaque état a un prédécesseur unique et un successeur unique [200]. L'avenir qui suit la situation à un instant t donné ne dépend que de cet instantlà, on peut le prévoir à partir de cet instant-là sans tenir compte du passé qui précède l'instant t, et le passé d'un présent donné peut être reconstitué en pensée. 3.3.2.1 Différence entre symétrie temporelle et réversibilité Il ne faut pas confondre symétrie temporelle, propriété qui laisse invariante une équation d'évolution lorsqu'on y remplace la variable t par -t, et réversibilité physique, propriété qui permet à un système d'évoluer tantôt dans un sens, tantôt en sens opposé. Symétrie temporelle La symétrie temporelle est une propriété des fonctions et équations invariantes quand on inverse le sens du temps, ce qui revient à "dérouler à l'envers" le fil des événements, du présent vers le passé. Toutes les évolutions dues à une interaction électromagnétique ou une interaction forte [18] sont régies par des lois symétriques par rapport au temps. L'équation de Schrödinger, qui régit en principe toute évolution de système isolé dans le temps et l'espace, est également réversible : elle permet, en théorie, de reconstituer l'état passé du système. C'est pourquoi tout se passe comme si la nature « se souvenait » de ses états passés, c'est-à-dire en conservait l'information. Réversibilité physique La réversibilité physique est une propriété des évolutions ou transformations d'un système ; exemple d'évolution : une réaction chimique. Lorsqu'une évolution réversible change de sens, le temps continue à s'écouler dans le même sens, du présent vers l'avenir. Exemple de symétrie temporelle L'équation fondamentale de la dynamique f = m relie une force f, une masse m et une accélération dérivée seconde de la fonction de position x(t). Si on change t en -t, la vitesse (dérivée de la position par rapport au temps) change de signe et l'accélération (dérivée de la vitesse) change deux fois de signe : elle est donc inchangée. L'équation est donc invariante par un changement de t en -t. Cela se voit dans l'exemple. Exemple de phénomène réversible En chimie certaines réactions entre deux produits A et B convergent vers un état d'équilibre, où A et B coexistent dans une proportion donnée. S'il se forme trop de A aux dépens de B, la réaction s'inversera et formera du B aux dépens de A jusqu'à établir la proportion d'équilibre. Le temps, lui, s'écoulera toujours du présent vers le futur. 131 Remarque philosophique sur la réversibilité Dans [215] page 121, André Comte-Sponville cite l'Ethique à Nicomaque d'Aristote : "Il y a une seule chose dont Dieu même est privé, C'est de faire que ce qui a été fait ne l'ait pas été." Il rappelle ainsi qu'on ne peut faire qu'un événement du passé n'ait pas eu lieu, même si on aimerait bien qu'il n'ait pas eu lieu ; on ne peut pas, non plus, faire que le présent soit autre que ce qu'il est : c'est le principe d'identité [16]). Mais la réversibilité ne revient pas sur le passé, elle recrée le passé en effectuant une transformation en sens inverse sans pour autant changer le sens du temps ; c'est une possibilité déterministe, où l'action d'une loi réversible de la nature fait bien passer du présent au futur par une évolution inverse de celle du passé. 3.3.2.2 Phénomène irréversible Lorsqu'une évolution ne peut se faire que dans un seul sens, on dit qu'elle est irréversible. C'est le cas, par exemple, de la décomposition radioactive d'un noyau atomique : une fois décomposé en d'autres particules avec production éventuelle de photons [117], le noyau ne peut plus se recomposer pour revenir à l'état initial. Une équation qui décrit l'évolution d'un phénomène irréversible ne peut ni être invariante par changement de sens du temps, ni avoir un domaine de validité permettant d'envisager ce changement de sens. Exemples de phénomènes irréversibles Nous verrons plus bas que le deuxième principe de la thermodynamique [25] impose à certains phénomènes comme la radioactivité d'être irréversibles. En physique quantique (physique de l'échelle atomique), toute mesure perturbe le système mesuré de manière irréversible. Malgré tous ses mécanismes de réparation et de renouvellement, le corps humain vieillit et ce vieillissement est irréversible : un corps adulte n'a jamais pu rajeunir et redevenir un corps d'enfant. Remarque : on a parfois tendance à parler de « réversibilité » lorsqu'on change par la pensée le sens d'écoulement du temps, mais c'est un abus de langage. Au lieu de parler de « réversibilité du temps » on devrait parler : Soit de « réversibilité de certains phénomènes » : le temps s'écoule toujours du présent vers l'avenir, mais certains phénomènes physiques sont dits réversibles parce qu'ils peuvent revenir de l'état d'arrivée à l'état de départ, comme on le voit dans certaines réactions chimiques réversibles et dans l'exemple ci-dessous. Soit de « symétrie par rapport au temps » (symétrie d'une équation par rapport à la variable temps), certaines lois physiques étant décrites par des équations invariantes si on change t en -t. Cette symétrie permet de reconstituer le passé par la pensée, en « passant à l'envers le film des événements ». Le déterminisme traditionnel de Laplace [200] affirme la possibilité de remonter le temps par la pensée, c'est-à-dire d'expliquer la succession d'événements qui a conduit au présent. Il n'affirme rien : 132 Ni concernant la possibilité d'une inversion du sens d'écoulement du temps qui permettrait de revenir à une situation physique du passé ; Ni concernant la possibilité de phénomènes réversibles. Attention : le terme « symétrie » est souvent utilisé par les physiciens pour parler d'invariance. 3.3.2.3 Exemple de loi symétrique par rapport au temps et réversible Pour illustrer le déterminisme traditionnel, en voici un exemple. Il est classique car emprunté au domaine des lois de la dynamique et de la gravitation universelle de Newton [103] [110]. Considérons l'équation fondamentale de la dynamique f = mr'', où le vecteur accélération r'' est la dérivée seconde du vecteur position r par rapport au temps. Si l'on inverse le sens du temps, en changeant t en -t pour « dérouler à l'envers le film des événements » ou « permuter l'avenir et le passé », le vecteur vitesse (dérivée r'(t) de la fonction de déplacement r(t) ) change de signe, et l'accélération (dérivée r''(t) de r'(t) ) change aussi de signe par rapport à r'(t) : l'équation de départ est inchangée. On dit qu'elle est symétrique (c'est-à-dire invariante) par rapport au sens du temps. La symétrie temporelle change le sens des vitesses, mais pas celui des accélérations ; et elle ne change ni les grandeurs (valeurs absolues), ni les déplacements, ni la vitesse, ni l'accélération. Exemple L'interprétation de cette symétrie se comprend dans l'exemple suivant. Supposons que sur la Lune, donc en l'absence de frottements atmosphériques, on lance à l'instant 0 une balle à partir du sol avec un angle de 45° vers le haut et une vitesse dont chacune des deux composantes, horizontale et verticale, vaut 2m/s. La balle décrit une parabole d'axe vertical conforme à la loi : x = 2t y = -½ gt² + 2t (1) où g est l'accélération de la pesanteur sur la Lune, g = 1.635 m/s² (environ un sixième de l'accélération terrestre). A l'instant t = 1.22s, la balle atteint sa hauteur maximale. A l'instant t = 2s, ses coordonnées sont x = 4m ; y = 0.73m et la composante verticale de sa vitesse est -1.27m/s. Supposons qu'à l'instant t = 2s on relance la balle vers le haut avec une vitesse opposée à celle qu'elle avait en arrivant : une vitesse horizontale de -2m/s et une vitesse verticale de +1.27m/s. Si on choisit comme nouvel instant 0 l'instant de la relance, la balle décrira une parabole d'axe vertical conforme à la loi : x = -2t + 4 y = -½gt² + 1.27t + 0.73 (2) On remarque que cette nouvelle parabole a le même coefficient -½g du terme t² que la première, la fonction y(t) ayant la même dérivée seconde, comme prévu. A l'instant t = 2 depuis la relance, la balle arrive au sol (x = y = 0). En éliminant t entre les équations (1) on trouve la trajectoire 133 y = (-1/8)gx² + x (3) Or en éliminant t entre les équations (2) on trouve la trajectoire y = (-1/8)gx² + x (4) Les deux trajectoires (3) et (4) sont bien identiques. La balle a parcouru au retour exactement la même parabole qu'à l'aller, mais en sens inverse. On a donc bien une symétrie par rapport au temps permettant de « dérouler le film des événements à l'envers ». On dit aussi que le mouvement de la balle est « réversible de manière artificielle », puisqu'on peut - dans le cadre de la même loi fondamentale de la dynamique - revenir de l'état final à l'état initial, mais sans changer le sens du temps. C'est là un exemple à la fois de réversibilité et de symétrie temporelle. Le déterminisme traditionnel prévoit la symétrie temporelle et n'impose rien concernant la réversibilité. 3.3.2.4 Système conservatif ou dissipatif – Force conservative ou dissipative En Mécanique analytique [340], on appelle système conservatif un système matériel qui a une énergie constante car sans échange avec l'extérieur ; c'est le cas notamment des systèmes sans frottement (en pratique ceux où les frottements ne perturbent l'évolution que de manière négligeable) ; exemple : une planète qui tourne autour du Soleil. Le modèle mathématique d'évolution d'un système conservatif a une symétrie temporelle lorsque c'est un système d'équations différentielles invariable par changement de t en -t. Un système qui n'est pas conservatif (qui échange de l'énergie avec l'extérieur) est dit dissipatif. Les équations différentielles qui en décrivent l'évolution changent lorsqu'on remplace t par -t. Une force est dite conservative si et seulement si le travail qu'elle produit lorsque son point d'application se déplace de A à B est indépendant du chemin suivi ; elle dépend alors d'un potentiel. Exemple : une force centrale (dépendant de l'attraction ou de la répulsion d'un point, le centre, comme la force de gravité du Soleil ou la force électrique d'un noyau atomique) est conservative (exemple : [313]). Une force qui ne dépend pas d'un potentiel est dite dissipative. Lorsque son point d'application se déplace de A à B, son travail dépend du chemin suivi. 3.3.3 Portée du déterminisme : locale ou globale Le déterminisme local régit le passage d'une situation de départ à une situation d'arrivée sous l'effet d'une loi d'évolution locale (qui s'applique à la situation de départ indépendamment des situations qui l'ont précédée ou qui la suivront). Mais la forme locale n'est pas la seule que le déterminisme peut prendre. Il peut aussi, en agissant de manière plus globale : Choisir une loi d'évolution parmi plusieurs possibles, ce que nous verrons cidessous avec le Principe de moindre action de Maupertuis, avec le principe de Fermat et les quasi-cristaux. 134 Mais le principe de correspondance fait qu'aucune loi de portée donnée ne peut faire évoluer une même situation de manière différente de celle d'une loi d'une autre portée : la nature est cohérente. Grouper un certain nombre de variables, en précisant une loi d'évolution globale qui interdit de connaître l'évolution d'une des variables prise isolément ; nous verrons cela ci-dessous avec le déterminisme statistique, les variables complémentaires de la Mécanique quantique et ses particules corrélées. Nous avons évoqué plus haut l'origine des échelles multiples du déterminisme. 3.3.3.1 Principe de moindre action de Maupertuis D'après le postulat de la chaîne de causalité unique du déterminisme traditionnel, le déterminisme agit localement (de proche en proche) en enchaînant causes et conséquences. Mais le Principe de moindre action de Maupertuis [62] (qui est en réalité un théorème démontrable) montre que lors du mouvement d'un corps sous l'action d'un champ de force dérivant d'un potentiel [exemple : le champ d'attraction du Soleil], la trajectoire entre un point de départ et un point d'arrivée ne dépend que de ces points. Elle peut aussi être interprétée comme choisie globalement parmi toutes les trajectoires possibles. 3.3.3.2 Principe de Fermat (plus court chemin de la lumière) Autre exemple de déterminisme global : le principe de Fermat [106] (théorème lui aussi démontrable), selon lequel la lumière choisit toujours le chemin le plus court (au sens du temps de parcours) pour aller d'un point à un autre. Il y a là un déterminisme global imposant les comportements suivants : Dans l'espace ordinaire (espace dit euclidien), le chemin le plus court est une ligne droite [313]. C'est ainsi que la lumière d'une source située au foyer d'un miroir elliptique est focalisée à l'autre foyer après une réflexion unique sur l'intérieur elliptique du miroir, car tous les chemins entre les foyers qui comprennent une réflexion sur l'ellipse ont la même longueur, donc le même temps de parcours. A la surface d'une sphère comme la Terre, le chemin le plus court entre deux points A et B est le plus petit des deux arcs de grand cercle passant par A et B [313]. En passant d'un milieu d'indice n1 à un milieu d'indice n2, il y a réfraction et la lumière change de direction en suivant la 2 e loi de Descartes [106]. 3.3.3.3 Quasi-cristaux Dernier exemple de déterminisme global (ou plus exactement « à grande distance ») : la structure atomique des quasi-cristaux, dont la découverte par Daniel Schechtman a été récompensée par le Prix Nobel de chimie 2011 [308]. Dans un cristal « normal » la construction (cristallisation) se fait par ajout d'atomes un par un, à des emplacements compatibles avec les atomes voisins, pour respecter des motifs simples comme les symétries de rotation d'ordre 2, 3, 4 ou 6, les seules permises par la théorie traditionnelle [149]. Dans un quasi-cristal (forme de matière découverte fortuitement en 1984 et dont on connaît aujourd'hui plus de 100 variétés) la structure des atomes est déterministe (non aléatoire), fortement ordonnée à grande distance (et non pas par rapport aux seuls atomes voisins) et avec des symétries de rotation interdites par la 135 théorie des cristaux normaux. On trouve ainsi, par exemple, des symétries de rotation en icosaèdre, solide régulier dont les 20 faces sont des triangles équilatéraux ! [147] Icosaèdre vu sous trois angles différents Tout se passe dans la construction d'un quasi-cristal comme s'il existait des phénomènes de Mécanique quantique à grande distance caractéristiques d'un nouvel état de la matière. Nous n'entrerons pas dans le détail du phénomène complexe et insuffisamment connu des quasi-cristaux, car ce qui nous intéresse du point de vue déterminisme apparaît suffisamment dans ce qui précède : il existe des phénomènes dont le déterminisme est global et prend en compte des éléments beaucoup plus nombreux ou plus éloignés que ceux auxquels on s'attend d'après le déterminisme classique local. En outre, la Mécanique quantique s'applique aussi à des phénomènes à une échelle bien plus grande que l'échelle atomique. 3.3.3.4 Variables complémentaires Nous verrons en étudiant le déterminisme de la Mécanique quantique qu'on y démontre l'existence d'un « principe d'incertitude », dit de Heisenberg, qui groupe certaines variables par couples dont une mesure simultanée a un minimum d'incertitude globale. Nous verrons que cette incertitude minimum provient de l'existence du quantum d'action h et de l'irréversibilité de la mesure. 3.3.3.5 Conclusion sur le déterminisme global Le déterminisme agit donc aussi parfois globalement, comme s'il était soumis à une finalité. Les situations intermédiaires entre le début et la fin d'une évolution sont alors déterminées par celle du début (« oubliée » dès sa première conséquence dans le déterminisme de proche en proche) et celle de la fin (qui n'est pas encore arrivée !). Mais, comme on le voit dans le principe de Maupertuis [62], ce paradoxe n'est qu'apparent : le déterminisme des lois d'évolution a deux niveaux de portée, un global et un ponctuel. Lorsque le déterminisme choisit une loi globale, la loi ponctuelle (de proche en proche) si elle existe complète la loi globale, qui demeure valable. Ce double comportement n'est pas exceptionnel, nous en verrons un aussi en Mécanique quantique, pour une particule qui est à la fois corpuscule et onde. Le comportement global d'un mouvement, choix de trajectoire découvert par Maupertuis en 1744 [62] après le comportement ponctuel F = m exposé par Newton en 1687 [110], constitue une extension des lois du mouvement de Newton [103]. 136 3.3.3.6 Caractère humain, artificiel, de la notion d'échelle La notion d'échelle est une abstraction humaine dont la nature n'a que faire. L'homme s'en sert pour mieux se représenter les situations et les phénomènes, notamment lorsqu'il compare une chose à une autre. Mais la nature ne juge pas que quelque chose est "grand" ou "petit" par rapport à autre chose ; dans chaque situation elle applique la loi d'évolution qui convient : elle prend en compte l'ensemble des paramètres qui s'appliquent, que l'homme considère cet ensemble comme local ou global, macroscopique ou microscopique. Dire qu'entre deux valeurs d'une même variable la différence relative est minime, car elle n'est que de 10-15 (un millionième de milliardième), n'a pas de sens pour la nature. Si cette différence suffit pour qu'une évolution soit autre, elle le sera d'après le principe d'identité [16]. 3.3.3.7 Déterminisme des algorithmes et calculabilité En plus des phénomènes régis par les lois physiques naturelles, le déterminisme scientifique s'applique à l'ensemble des processus dont le résultat peut être fourni par un algorithme [69], processus que les informaticiens qualifient de calculables. De tels processus respectent : La condition nécessaire et suffisante ci-dessus, si la cause comprend l'existence de l'algorithme et de ses données, ainsi que le lancement du calcul ; La règle de stabilité et reproductibilité, si l'algorithme est stable dans le temps parce qu'il n'y a ni influence extérieure sur sa logique ou ses données, ni autoprogrammation. L'intérêt pratique des algorithmes vient de leur aptitude à modéliser un processus réel dans des domaines aussi variés que la physique ou la dynamique d'une population. Cette modélisation permet à la fois d'expliquer des phénomènes constatés et de prévoir des évolutions : ses modèles sont déterministes. Qu'il ait pour but de comprendre quelque chose, de prévoir une évolution et son résultat ou de démontrer une proposition, un raisonnement d'une science exacte prend toujours la forme d'un algorithme. Un algorithme étant par nature déterministe, un tel raisonnement l'est toujours. Nous verrons plus bas qu'il existe des cas où l'on peut démontrer à la fois qu'un nombre existe et qu'on ne peut pas le calculer ; la démonstration d'existence est alors un algorithme déterministe auquel on ne pourra jamais associer un algorithme de calcul de valeur. 3.3.4 Compléments sur le déterminisme philosophique Selon cette doctrine, tous les événements de l'Univers - y compris les actions humaines - s'enchaînent dans le temps comme suit. En appelant S(t) la situation (l'état) d'un système à l'instant t ; S(t-a) sa situation à l'instant "t-a" qui précède t ; et S(t+b) sa situation à l'instant "t+b" qui suit t, alors : S(t-a) est la seule situation à l'instant t-a qui a précédé et entraîné S(t) ; S(t+b) est la seule situation à l'instant t+b qui résulte de S(t). Le déterminisme philosophique est une interprétation du principe de causalité que nous avons vu, et qui est défini par une condition nécessaire et suffisante. 137 Selon le déterminisme philosophique, appelé aussi "déterminisme de Laplace" [200] : La chaîne de causalité reliant diverses situations qui se suivent dans le temps est unique (il n'y a ni processus parallèles, ni rupture de la chaîne de causalité). L'avenir est écrit d'avance et prédictible ; Le passé d'une situation donnée peut être reconstruit en pensée sans ambiguïté. Dans la mesure où on est certain à l'instant t de la situation S(t), le déterminisme philosophique permet à la fois d'énoncer l'enchaînement d'événements après la situation S(t-a) qui a conduit à S(t), et de prédire que S(t+b) se produira à l'instant t+b. Selon le déterminisme philosophique, la chaîne explicative remonte dans le temps indéfiniment ; mais selon certains philosophes elle remonte jusqu'à une situation initiale appelée parfois « cause ultime » ou « cause première ». Voir aussi [16]) et la définition de Spinoza d'une chose libre et d'une chose déterminée [225]. 3.3.4.1 Critique de l'enchaînement des causes et des conséquences 3.3.4.1.1 Une situation peut être précédée ou suivie de plusieurs lois d'évolution Pluralité des évolutions passées possibles En général, à l'instant t, on ne sait pas quelle était la situation S(t-a) à l'instant t-a, faute de disposer d'un « film historique » des S(t), et faute de connaître parfaitement la loi d'évolution qui a conduit à S(t) ; plusieurs situations S1(t-a), S2(t-a)… peuvent avoir été l'origine unique de S(t). Exemple : si, après une opération arithmétique (déterministe, car calculable) je sais seulement que le résultat est 4, je ne sais pas si l'opération était 2 x 2 = 4, ou 3 + 1 = 4, ou… L'explication et la prédiction des situations S(t-a), S(t) et S(t+b) sont de type externe aux phénomènes, dont elles ne font que décrire l'enchaînement : le déterminisme correspondant peut être qualifié de factuel. Il n'est ni une preuve de la nécessité d'un phénomène, ni un éclairage sur son sens ou sa nature interne ; il ne permet donc pas toujours de comprendre le pourquoi ou le comment d'un phénomène. Pluralité des évolutions futures possibles Nous verrons que plusieurs lois d'évolution sont possibles à partir d'un point de bifurcation de l'espace des phases. Nous verrons aussi, par la suite, qu'en physique quantique il existe des évolutions produisant plusieurs résultats en même temps, dont la coexistence est appelée « superposition », résultats qui finissent par se réduire à un seul par une évolution finale, irréversible, appelée « décohérence ». La nature choisit alors un des résultats possibles, sans que nous puissions savoir d'avance lequel. Conséquences : La conséquence d'une cause donnée peut, en physique quantique, être un ensemble de conséquences, dont la nature retient un seul résultat, ou dont elle retient tous les résultats ensemble pendant un court instant ! 138 Du point de vue causalité, les deux énoncés suivants sont équivalents : Une cause donnée a une conséquence (évolution) unique pouvant produire un ensemble de résultats simultanés ; Une cause donnée a un ensemble de conséquences simultanées, chacune pouvant produire un résultat unique. Cette pluralité contredit le déterminisme philosophique, car elle remplace la chaîne de conséquences unique par une arborescence de conséquences ; et comme l'existence d'un seul contre-exemple fait qu'une loi proposée est fausse, le déterminisme philosophique doit être considéré comme réfuté. 3.3.4.1.2 Les transformations irréversibles contredisent aussi le déterminisme philosophique En physique les transformations réelles sont irréversibles, et seules des transformations idéales, théoriques, sont réversibles (permettant aussi l'évolution en sens inverse) ; nous abordons ce point plus bas. Mais dans ce cas aussi nous pouvons affirmer que le déterminisme philosophique est contredit par l'existence de transformations irréversibles, pour lesquelles on ne peut imaginer ni un changement de sens du temps, ni l'instant de la transformation et la situation à cet instant. Exemple : lorsqu'un atome de corps radioactif s'est décomposé spontanément, il ne peut pas se reconstituer à partir des atomes produits et des photons émis, la thermodynamique l'interdit ; et après avoir trouvé des produits de décomposition, nous ne pouvons connaître ni l'atome dont ils proviennent (qui n'existe plus), ni l'instant de cette décomposition, ni la position exacte de l'atome qui s'est décomposé. Un autre cas particulier de transformation irréversible est celui de la mesure en physique quantique, cas que nous abordons maintenant. 3.3.4.2 Déterminisme, mesures et objectivité En physique quantique toute mesure modifie l'état quantique de l'objet mesuré ; et on démontre qu'une mesure réversible, c'est-à-dire sans modification de son objet, est inconcevable. De ce fait, et contrairement à l'habitude en physique macroscopique, en physique quantique l'interprétation d'une expérience ne peut pas être indépendante du dispositif expérimental. Certains philosophes en ont déduit que le résultat d'une expérience de physique quantique ne pouvait être objectif, puisqu'il dépend de l'expérimentateur. C'est là une erreur : le fait qu'un résultat dépende des détails d'un dispositif expérimental n'entraîne pas qu'il dépend de la personne qui expérimente ! Si un autre expérimentateur refait la même expérience, il obtiendra les mêmes résultats que le premier ; non seulement cela a été vérifié en physique (quantique ou non) des milliers de fois, mais on n'a jamais changé un résultat en changeant d'expérimentateur sans changer le dispositif expérimental : le déterminisme joue bien, l'objectivité de la connaissance des phénomènes et des résultats est possible. L'erreur de ces philosophes résulte peut-être de leur idéalisme, qui cherche à prouver l'existence d'une idée abstraite à la base de toute réalité concrète, pour nier celle-ci ou en faire une production de l'esprit humain ou divin. Ils déduisent donc de l'intervention 139 obligatoire et déterminante de l'expérimentateur - qu'ils ont affirmée à tort - que la réalité objective n'existe pas, puisqu'elle n'existe qu'à travers l'expérimentateur ! Un exemple d'une telle erreur d'idéaliste est donné plus bas. 3.3.4.3 Déterminisme et libre arbitre de l'homme Pour un tenant du déterminisme qui se veut cohérent, l'homme n'est pas libre de ses choix ; toute décision d'action à l'instant t dépend du contexte à cet instant-là (l'homme lui-même, avec son corps et les valeurs qui orientent ses décisions, ainsi que ce qui l'entoure). S'il fait du mal, l'homme n'est pas responsable, puisque ses actions sont conséquences de circonstances dont il n'est pas maître ; et il ne peut pas, non plus, se glorifier d'une bonne action. Malgré son esprit qui le croit libre (parce qu'il peut décider librement en fonction de ses valeurs qu'il ne maîtrise pas), l'homme est comme une machine, un automate asservi au contexte matériel. Le déterminisme est donc une doctrine matérialiste. La thèse d'absence de libre arbitre de l'homme est combattue par de nombreux philosophes, qui n'arrivent pas à admettre que l'homme soit une sorte de machine, que la vie et la pensée soient un ensemble de phénomènes soumis au déterminisme physique de la nature. Voici ce que le mathématicien René Thom écrit dans [226] : "Si l'on essaye d'analyser pourquoi les esprits manifestent une telle réticence à l'égard du déterminisme, on peut, je crois, invoquer deux grandes raisons : 1. Il y a d'abord ceux qui tiennent à sauver le libre arbitre humain. […] 2. Il y a enfin le groupe de ceux qui se sentent opprimés par la montée croissante des technologies, par la collusion de la science et du pouvoir. […]" La thèse d'absence de libre arbitre est aussi combattue par des matérialistes athées, comme André Comte-Sponville dans le court texte commenté dans [2]. Le fonctionnement de la conscience humaine est décrit dans [339], où on trouvera aussi une réfutation de la croyance en une nécessaire transcendance de l'esprit. Nous approfondirons le sujet de la liberté et du libre arbitre de l'homme plus bas. 3.3.4.4 Conclusions critiques sur le déterminisme traditionnel Retenons pour résumer que : Le déterminisme traditionnel implique : une évolution certaine reliant cause et conséquence(s) ; un enchaînement de situations prévisibles conforme aux lois de la nature. Le caractère déterministe traditionnel s'oppose donc : à l'imprévisibilité : selon le déterminisme traditionnel, celle-ci ne peut résulter que d'une méconnaissance du phénomène ; aux comportements aléatoires de la nature, en opposant déterminisme (à évolution et résultat prévisibles) et hasard (imprévisible) ; certains tenants du déterminisme traditionnel admettent pourtant l'existence de hasard, circonstances où la nature peut se comporter de manière imprévisible : ils ne sont pas, alors, à une contradiction près ! à la possibilité de conséquences multiples simultanées d'une même cause. 140 Enfin, en tant que doctrine matérialiste, le déterminisme nie l'existence de phénomènes qui font intervenir des causes surnaturelles (transcendantes), c'està-dire externes à notre Univers ou échappant à ses lois physiques. Il refuse d'envisager une éventuelle intervention surnaturelle dans l'apparition et le déroulement des phénomènes, ainsi qu'une finalité éventuelle imposée au déroulement des phénomènes par un Esprit transcendant qui dominerait la matière. Croire au déterminisme est une attitude rationnelle [210], scientifique, qui postule l'existence d'une réalité objective indépendante de toute idée et opinion humaines et la possibilité pour l'homme de la trouver, souvent par approximations successives résultant de critiques. Cette attitude s'oppose à la croyance dans des vérités révélées sans preuve (et d'ailleurs infalsifiables [203]) par une religion ou une philosophie, vérités qui prétendent expliquer le monde et comptent sur l'intuition ou l'obéissance de certains pour les convaincre, au lieu d'en appeler à leur raison et leurs connaissances factuelles, vérifiables et objectives. 3.4 Pourquoi ce texte et les efforts qu'il suppose Ce long texte demande aux lecteurs plus que des efforts de lecture et de patience ; il leur demande d'accepter de remettre en cause leurs connaissances sur le déterminisme et le hasard. Les buts sont : La connaissance des phénomènes physiques d'évolution les plus importants, pour en saisir le déterminisme et s'en servir pour les décisions d'action ; La compréhension du fait que dans la nature les évolutions sont déterministes, le hasard et l'indétermination n'apparaissant qu'à l'échelle atomique ; La prise en compte des limites de la possibilité de prédire les évolutions et leurs résultats. Ce savoir doit favoriser une attitude d'ouverture, d'objectivité et d'honnêteté intellectuelle. Voici ce qui à mon avis justifie ces efforts des lecteurs, et ceux qu'il m'a fallu pour l'écrire. 3.4.1 Inconvénients de l'ignorance, avantages de la connaissance L'homme évalue toute situation en éprouvant des sentiments parce qu'il ne peut pas s'en empêcher, comme Freud Jung et Sartre l'ont remarqué. L'ignorance entraîne l'incompréhension, qui entraîne, selon les cas : De la frustration pouvant aller jusqu'à un sentiment d'injustice et de la révolte. Nous savons, par exemple, que la plupart des jeunes qui deviennent des trafiquants de drogues, des incendiaires de voitures et des apprentis terroristes ne comprennent rien à notre société. Leur vocabulaire est alors de l'ordre de 1000 mots, moins que celui compris par certains singes dressés. Et comme la pensée organisée ne se forme qu'avec des mots, ils ne disposent pas des concepts nécessaires pour comprendre ce qui se passe. Ils se sentent donc exclus de notre société, méprisés et sans avenir, d'où leur révolte ; et comme ils n'ont pas les mots pour l'exprimer, leur violence est physique et parfois barbare. 141 Une perte d'estime de soi (car « on n'est pas à la hauteur ») et des tendances nihilistes (rien n'a de valeur, rien ne mérite d'effort et de respect). L'impossibilité de prendre une décision ou l'obligation de décider sans savoir, donc de prendre un risque non calculé. Les peurs irraisonnées L'incompréhension peut aussi provoquer une inquiétude pouvant aller jusqu'à la peur. Avez-vous remarqué à quel point beaucoup de gens ont peur de « l'autre » ? En fait, ils ont peur de ce qui, chez lui, est différent : sa couleur de peau, sa force physique, l'attitude de rejet des conventions sociales qu'ils devinent à sa coiffure ou ses vêtements, sa religion « qui produit des terroristes », etc. La première cause d'une telle peur est l'ignorance : tout homme a instinctivement peur de ce qu'il ne connaît pas, notamment lorsqu'il imagine alors le pire. Et la peur entraîne souvent le rejet de l'autre, le refus de le respecter, de dialoguer avec lui, de lui faire confiance, de lui offrir du travail ; c'est une des sources de l'exclusion, de la xénophobie et du racisme. Beaucoup de Français ont une peur irraisonnée des nourritures contenant des OGM. Ils ne savent pas que, rien qu'en Amérique du Nord, plus de 400 millions de personnes en mangent depuis les années 1980 sans qu'aucune pathologie n'en ait résulté. Beaucoup ont aussi peur des ondes radio des téléphones portables, de l'énergie nucléaire, etc. Nous sommes le seul peuple à s'être ridiculisé en mettant dans notre Constitution le « principe de précaution », qui oblige l'Etat à intervenir en cas de danger environnemental grave, comme s'il fallait une telle loi pour faire respecter l'évidence. Ce principe a servi à des juges pour faire démonter des antennes de téléphonie simplement parce que des riverains en avaient peur : merci, président Chirac ! Beaucoup de Français redoutent l'économie de marché et la mondialisation par ignorance de leurs mécanismes. Ils ne savent pas à quel point leur niveau de vie en a profité, sur quels points elles constituent le meilleur système économique et sur quels autres points elles ont besoin d'être encadrées. Ils ne savent pas, mais ils les rejettent car ils en ont peur. Et ils se laissent abuser par les politiciens, les syndicalistes et les journalistes qui profitent de cette peur pour influencer leur opinion. Savoir paie Des études sociologiques approfondies ont montré que la plus grande longévité des intellectuels (cadres, enseignants, professions libérales…) par rapport aux travailleurs manuels ne vient pas, comme l'affirment les syndicats, d'une différence de pénibilité du travail. Elle vient d'une différence d'instruction : connaissant mieux les règles d'hygiène de vie que les manuels, les intellectuels ont une meilleure santé qui entraîne une plus grande longévité ; en notre siècle, celui qui ne sait pas vit moins bien et moins longtemps. Celui qui comprend peut : Avoir la satisfaction de comprendre et de participer aux événements en tant qu'acteur au lieu de les subir, donc avoir de l'estime de soi ; 142 Accumuler une expérience utile et espérer en avoir de plus en plus avec le temps ; et savoir, c'est pouvoir ; Prendre la meilleure décision possible, d'où un sentiment de satisfaction (savoir est indispensable pour être satisfait). Soumission aux faits ou aux injonctions religieuses Celui qui comprend accepte plus facilement les situations sur lesquelles il n'a pas prise que celui qui ne comprend pas. Si ces situations lui sont défavorables, il comprend dans quelle mesure exacte il en est responsable, il peut agir, ou il peut en tirer une expérience qui lui servira peut-être un jour. La possibilité d'être acteur de sa vie, d'être responsable au moins en partie de son avenir est infiniment plus satisfaisante que la soumission à une volonté divine ou politique qu'on doit accepter sans compréhension ni justification. Pour un matérialiste, Dieu est d'abord le refuge psychologique de l'ignorant, qui trouve en lui consolation, promesse de bonheur après la mort, et incitation à accepter son sort car « Dieu l'a voulu » ; Marx résumait cela en écrivant que « la religion est l'opium du peuple » [112]. 3.4.2 Ambition limitée de ce texte Avec la définition donnée, une description complète et détaillée de la manière d'agir du déterminisme scientifique comprendrait nécessairement l'ensemble des lois de la physique, c'est-à-dire l'ensemble des lois de l'Univers. Et là il y a des problèmes. Un énoncé ne peut ni se décrire lui-même ni se comparer à lui-même Une description complète de l'Univers (sous une forme physique comme un texte écrit) se comprendrait elle-même, ce qui est impossible. Cette contrainte d'impossibilité est très générale : aucun énoncé ne peut se décrire luimême ou se comparer à lui-même, par exemple pour se juger par rapport à la vérité. Toute description d'une notion doit se faire à partir d'autres notions ; toute comparaison d'un objet a besoin de faire référence à au moins un autre objet. (Voir détails et solution dans [220].) Cette impossibilité ne concerne pas, bien évidemment, les descriptions internes de l'Univers. On peut énoncer des lois de l'Univers comme la relation fondamentale de la dynamique F = m qui relie entre elles 3 variables toutes définies dans l'Univers, la force F, la masse m et l'accélération . Lorsqu'une telle description interne constitue une loi scientifique, celle-ci est basée sur une axiomatique [67], elle aussi interne à l'Univers. Le caractère universel d'une loi n'est jamais prouvé, il est postulé jusqu'à ce qu'un contre-exemple éventuel le remette en question. La connaissance scientifique de l'Univers est nécessairement incomplète et basée sur des postulats L'impossibilité d'auto-description complète a une conséquence fondamentale en matière de connaissance scientifique de l'Univers : celle-ci n'existe - pour nous qui sommes dans l'Univers - que sous forme d'énoncés (de lois, de valeurs de constantes, etc.) écrits dans des langages à axiomatique [67] dont les axiomes sont supposés connus, compris sans autre description et admis. Ces axiomes ne peuvent pas se décrire eux-mêmes ; ils ne peuvent pas, non plus, se comparer à eux-mêmes ; 143 description et comparaison nécessiteraient des énoncés à axiomatique externe à l'Univers (inconcevable pour nous, êtres de l'Univers) ou faisant référence à une vérité absolue (à supposer que celle-ci existe, débat que nous abordons dans [220]). L'ensemble des énoncés basés sur les axiomes est donc nécessairement incomplet : notre connaissance scientifique de l'Univers ne peut ni être complète, ni contenir des connaissances externes à cet Univers, ni comparer des concepts scientifiques de notre Univers à des concepts ou des vérités qui seraient externes ou absolus comme Dieu, Ses qualités et Ses pouvoirs. Pourtant chaque homme a conscience de lui-même et peut se décrire [339] ; il peut se comparer à d'autres hommes, ou comparer ses qualités et possibilités à des valeurs morales et aux possibilités d'autres êtres vivants ou à celles de machines, etc. Nous en conclurons simplement que la conscience de l'homme ne fonctionne pas souvent de manière scientifique. (Détails : Le rationalisme critique de Karl Popper.) 3.5 Le déterminisme en physique Ce chapitre rappelle d'abord quelques notions et lois physiques utiles pour comprendre les implications du déterminisme en matière de compréhension et de prédiction du comportement de la nature, c'est-à-dire pour raisonner juste en matière d'évolution d'un système physique. Il aborde ensuite des phénomènes et lois dont la description et l'application exigent des extensions du déterminisme scientifique traditionnel, à titre d'exemples de telles extensions et de leur nécessité. 3.5.1 Système et état On appelle état d'un système à un instant t l'ensemble des valeurs des variables qui le décrivent. Un système matériel est ainsi décrit par des variables de composition (ensemble des éléments qui le constituent), de forme, de position, de mouvement, d'interaction, de masse, de charge électrique, d'impulsion [20], de spin [22], etc. Certaines variables, dites externes, décrivent la relation du système à son environnement ; exemples : sa masse et sa charge électrique. D'autres variables sont internes, comme les forces de liaison entre ses divers composants. Certaines variables sont de type numérique, d'autres de type vectoriel, d'autres encore de type booléen (vrai/faux, on dit aussi logique), etc. 3.5.1.1 Degrés de liberté d'un système C'est le nombre minimum de valeurs indépendantes nécessaires pour décrire toutes les variables du système. Par exemple, un point matériel (pesant) en mouvement a : 3 degrés de liberté pour décrire sa position à un instant donné, car il faut 3 coordonnées x, y et z dans le repère du système. 3 degrés de liberté pour décrire son vecteur vitesse à un instant donné, car ce vecteur a 3 composantes selon les axes du repère. Si le système comporte un très grand nombre X de points matériels (exemple : les milliards de milliards de molécules d'un gaz contenues dans un petit récipient, où elles 144 s'agitent sans cesse du fait de leur température) il faut 6X variables pour décrire toutes les positions et vitesses des molécules du système, qui a 6X degrés de liberté. Le nombre de degrés de liberté peut être réduit par des contraintes comme : L'obligation de se déplacer à la surface d'une sphère (la position n'a plus, alors, que deux degrés de liberté, appelés par exemple longitude et latitude) ; L'obligation de tourner autour d'un axe, comme un pendule oscillant, dont la position peut être décrite par une seule variable, l'angle avec la verticale. Plus généralement, si l'état d'un système est décrit par N variables et C contraintes, on dit qu'il a N-C degrés de liberté. 3.5.1.1.1 Equipartition de l'énergie entre les degrés de liberté Il existe une loi de Mécanique statistique dite d'équipartition de l'énergie, qui s'énonce ainsi : "Dans un gaz ou un liquide en équilibre thermique à la température absolue T [121] (c'est-à-dire qui n'échange pas de chaleur avec l'extérieur du récipient qui le contient), chaque molécule possède une énergie cinétique moyenne égale à ½kT par degré de liberté, où k est la constante de Boltzmann [122], k = 1.38066 .10-23 joule par degré Kelvin. Et puisqu'il y a 3 degrés de liberté de vitesse, chaque molécule a une énergie cinétique moyenne de 3/2kT." Conséquences Agitation thermique - Mouvement brownien des molécules Nous avons déjà vu que l'énergie cinétique d'un atome ou d'une molécule est proportionnelle à sa température absolue. Celle-ci étant toujours supérieure au zéro absolu, atomes et molécules ne peuvent s'empêcher de bouger ! Dans un solide, chaque atome vibre et/ou oscille autour d'une position moyenne. Dans un liquide ou un gaz, où chaque molécule est entourée de vide, les diverses molécules bougent sans cesse en s'entrechoquant et en rebondissant sur les parois de temps en temps : on dit qu'elles sont en mouvement brownien. Il est remarquable que les chocs entre les molécules et sur les parois soient parfaitement élastiques et sans perte d'énergie par frottement, et que la température soit une cause nécessaire et suffisante de mouvement : tout cela n'avait rien d'intuitif et notre déterminisme doit en tenir compte. L'énergie cinétique d'une molécule ne dépend pas de la masse moléculaire, résultat qui n'a rien d'intuitif puisqu'on aurait tendance à penser qu'une molécule plus lourde emmagasine plus d'énergie cinétique qu'une plus petite. C'est ainsi qu'une molécule d'oxygène pesant 16 fois plus qu'une molécule d'hydrogène a la même énergie cinétique qu'elle à une température T donnée. Comme une énergie cinétique donnée Ec est reliée à la masse m et la vitesse v par la formule Ec = ½mv2, à une masse 16 fois plus grande correspond une vitesse moyenne 4 fois plus petite, car 42 = 16 : à température égale, une molécule d'oxygène se déplace 4 fois moins vite qu'une molécule d'hydrogène. 145 Equipartition de l'énergie potentielle La règle d'équipartition de l'énergie s'applique aussi à l'énergie potentielle éventuelle des molécules (due par exemple à un champ de force comme un champ électrique ou un champ gravitationnel [313]) : chaque degré de liberté associé à une énergie potentielle apporte, lui aussi, une énergie de ½kT, portant donc l'énergie totale à 3kT par molécule ou atome de solide. C'est ainsi qu'un atome d'un corps à l'état solide qui vibre autour de sa position moyenne a une énergie moyenne totale de 3kT, cette vibration permanente et sans frottement étant la manifestation de la température du solide. L'énergie potentielle affectant les atomes du solide est due aux forces de liaison entre ces atomes en équilibre, forces attractives et répulsives. 3.5.2 Espace des phases – Stabilité des lois physiques d'évolution A un instant donné t, l'ensemble des valeurs des N variables scalaires [126] qui décrivent l'état d'un système peut être représenté par un point dans un espace à N dimensions appelé « espace des phases ». Ainsi, lorsqu'un objet ponctuel se déplace dans l'espace habituel à 3 dimensions, ses coordonnées sont x, y, z et les composantes de sa vitesse en ce point sont les dérivées par rapport au temps x', y', z' ; les 6 coordonnées de l'espace des phases sont alors x, y, z, x', y', z'. Lorsque le point se déplace, ces 6 coordonnées sont des fonctions du temps et le déplacement est associé à une courbe de l'espace des phases dont chaque point correspond à un certain instant t. Lorsque les variables d'état sont toutes des variables de position, l'espace des états est parfois appelé « espace de configuration » : c'est l'ensemble des états possibles au sens position - ou parfois (position + vitesse) ou (position + quantité de mouvement) - que le système peut atteindre. Exemples d'évolution dans l'espace des phases Exemple 1 : la position d'un pendule simple de longueur l qui se balance sans frottement de part et d'autre de la verticale est repérée par l'angle qu'elle fait avec cette verticale. La vitesse de variation de est sa dérivée ' par rapport au temps. Le mouvement est décrit par l'équation différentielle : 𝑑2 𝑔 + 𝑠𝑖𝑛 = 0 𝑑𝑡 2 𝑙 Cette équation, non linéaire à cause du sinus, le devient lorsque, l'angle étant petit, on peut l'assimiler à son sinus ; le mouvement prend alors la forme : = 0 cos(t + ) d'où ′ = −0 sin(t + ) Dans un espace des phases rapporté aux axes et ' avec des unités judicieusement choisies, la courbe d'évolution dans le temps de l'angle du pendule est un cercle, parcouru une fois à chaque période d'oscillation (figure suivante). 146 ' 0 -0 Exemple 2 : l'état du volume intérieur à un cylindre de moteur à explosion, où brûle le mélange combustible, peut être caractérisé à chaque instant par la pression p qui y règne et le volume v du cylindre délimité par la position du piston. L'espace des phases peut alors être rapporté à deux axes, "pression" et "volume". Lorsque le moteur tourne et le piston se déplace, sa position à un instant t correspond à un point de coordonnées (v, p) de l'espace des phases. 147 P D C E A B V Diagramme thermodynamique théorique ABCDEBA du cycle d'un moteur à 4 temps Ce diagramme est fermé, le cycle commencé en A revient en A Nombre d'axes, dimension et degrés de liberté d'un espace des états Si le système considéré comprend n points matériels, indépendants ou soumis à des interactions, il faut N = 6n variables pour en décrire l'évolution de l'état position + vitesse dans l'espace des phases : celui-ci doit être de dimension 6n. Si les 6n variables sont indépendantes, l'espace des phases a 6n degrés de liberté ; si les 6n variables sont liées par 2 relations, on dit qu'il a 6n-2 degrés de liberté, etc. 3.5.2.1 Représentation de l'évolution d'un système Nous avons vu dans les deux exemples ci-dessus que l'évolution du système dans le temps est représentée par un déplacement de son point représentatif dans l'espace des phases : ce point y décrit une courbe paramétrée par la variable de temps t. Dans les deux exemples ci-dessus le système était périodique, et l'évolution de l'état d'un tel système au cours d'un cycle est une courbe fermée. Dans le cas général, il n'y a qu'une seule courbe d'évolution passant par un point donné de l'espace des phases : l'évolution à partir de tout point est unique, c'est un effet du déterminisme. Deux courbes d'évolution séparées de l'espace des phases restent toujours distinctes, sans intersection. Nous reviendrons sur ce point à propos des lignes de force. 148 Chaque point de l'espace des phases représente l'état du système à un instant donné. Ces états ne sont pas nécessairement équiprobables : à un instant donné t, ou entre deux instants t1 et t2, chaque point isolé P a une certaine probabilité d'être atteint et chaque point non isolé Q (c'est-à-dire entouré d'autres points associés à des états possibles) a une certaine densité de probabilité associée [28]. Notation habituelle : coordonnées généralisées On a l'habitude de désigner par qi (i=1, 2…n) les n coordonnées de l'espace de configuration (dites coordonnées généralisées), et par q'i (i=1, 2…n) les n dérivées par rapport au temps des coordonnées qi (dites vitesses généralisées). Exemple : les x et x' précédents seront désignés respectivement par q1 et q'1 ; les y et y' précédents seront désignés respectivement par q2 et q'2. 3.5.2.1.1 Evolution d'un système représentée par des équations différentielles Un système matériel décrit par un ensemble de n coordonnées généralisées qi (i=1, 2…n) définies dans un espace de configuration, ainsi que par les vitesses généralisées correspondantes q'i (i=1, 2…n), évolue souvent selon une loi décrite par un système d'équations différentielles. L'évolution est alors complètement déterminée par la donnée des conditions initiales, positions qi et vitesses q'i : elle est déterministe au sens traditionnel, la donnée des conditions initiales entraîne une évolution unique. Importance de la stabilité d'une évolution L'évolution régie par ce déterminisme mathématique est un modèle fidèle de l'évolution physique si elle est stable, c'est-à-dire si des conditions initiales voisines produisent des évolutions voisines, ne s'écartant guère de l'évolution théorique ; cette condition est indispensable pour tenir compte de l'imprécision qui affecte toujours les paramètres d'un système physique. Nous avons vu à propos du chaos que l'évolution de certains systèmes déterministes n'est pas stable : elle est si sensible à l'imprécision des conditions initiales qu'elle devient imprévisible après un certain temps ; la prédiction de l'évolution est meilleure si on la calcule un instant après le départ. Nous verrons plus bas le cas des systèmes conservatifs. 3.5.2.2 Lignes de force d'un espace des phases et unicité de l'évolution Définition : dans un champ de vecteurs quelconque, on appelle ligne de force toute courbe dont la tangente en tout point a la direction du champ en ce point. Exemple : les lignes de force du champ d'un aimant sortent de son pôle nord et entrent dans son pôle sud ; des particules de fer s'alignent le long de ces lignes de force, comme le montre la figure suivante, issue de Encyclopædia Britannica : 149 Particules de fer alignées le long des lignes de force du champ d'un aimant rouge Dans l'espace des phases d'un système, chaque courbe représentant une évolution dans le temps est une ligne de force de l'espace : en tout point d'une telle courbe, l'évolution se fait selon la tangente en ce point. En général cette tangente est unique, sauf éventuellement en un petit nombre de points singuliers comme : Un point d'équilibre, où le système n'évolue pas ; Un point de bifurcation, où la loi d'évolution change en fonction d'un paramètre externe. L'unicité de la tangente en tout point non singulier de la courbe d'évolution d'un système illustre une propriété de son déterminisme : le modèle mathématique représentant l'évolution du système a une solution unique, une situation donnée ne peut évoluer que d'une seule façon. Lorsqu'une situation donnée peut évoluer de plusieurs façons distinctes, les évolutions possibles sont représentées par des courbes distinctes de l'espace des phases. A partir d'une certaine situation, correspondant par exemple à une valeur critique d'un paramètre, l'évolution peut présenter une bifurcation, avec des branches distinctes issues d'un même point ; elle peut aussi présenter une discontinuité. Au-delà de ce point, elle se poursuit selon une courbe ou une autre, la courbe choisie dépendant de la valeur du paramètre critique. C'est le cas, par exemple, pour des écoulements de fluides dont le paramètre critique est le nombre de Reynolds [293], proportionnel à la vitesse ; selon la valeur de ce nombre, l'écoulement peut être turbulent ou non ; il peut même produire des oscillations périodiques de pression à la fréquence du décrochement des tourbillons, oscillations que l'on entend par exemple dans le bruit des éoliennes ; mais de toute manière, il reste déterministe. 150 3.5.2.3 Stabilité de l'évolution d'un système conservatif Lorsqu'un système conservatif évolue, ses états successifs décrivent une courbe (ligne de force) de l'espace des phases à 2n dimensions rapporté aux coordonnées : positions généralisées qi (i=1,2…n) et moments cinétiques généralisés pi (i=1,2…n). Le théorème de Liouville démontre que, lors de cette évolution, l'aire d'un petit élément de surface qipi de l'espace des phases se conserve, sans nécessairement que l'élément de surface conserve la même forme ; cette aire reste la même qu'à l'instant initial t0 de l'évolution. Des conditions initiales d'évolution très voisines sont représentées par des points très voisins de l'espace des phases, points qu'on peut englober dans un élément de surface petit ; lors de l'évolution, l'aire de cet élément se conserve et reste petite. Dans un espace des phases qui n'a que deux dimensions, q et p, la conservation de l'aire d'un petit élément de surface au cours de l'évolution a pour conséquence que des trajectoires d'évolution parties de points voisins restent proches. Il y a là une forme de stabilité : une petite variation des conditions initiales n'entraîne qu'une variation petite des évolutions correspondantes. Mais dans un espace des phases qui a plus de deux dimensions, quatre par exemple, la conservation de l'aire d'un petit élément de "surface" q1p1q2p2 peut aussi être obtenue lorsque cet élément rétrécit fortement pour un couple de variables tout en s'allongeant fortement pour l'autre. C'est le cas, par exemple, si q1 varie dans le temps comme e at tandis que q2 varie comme e-at, le produit eate-at restant égal à 1. Deux trajectoires d'évolution parties de points très proches peuvent alors diverger considérablement au bout d'un certain temps, traduisant une instabilité du système par hypersensibilité aux conditions initiales. Cette propriété mathématique a des conséquences physiques souvent spectaculaires. 3.5.2.4 Considérations sur la prévisibilité de l'évolution d'un système L'évolution d'un système conservatif décrite par un ensemble d'équations différentielles est bien toujours déterministe, mais il existe des cas où elle est stable par rapport à une petite variation des conditions initiales et d'autres où elle est instable. Une petite variation des conditions initiales peut provenir d'une imprécision expérimentale comme d'une interaction négligée, et impacter alors la stabilité de l'évolution. Une prédiction d'évolution par extrapolation à partir de conditions où une évolution est stable risque donc d'être gravement faussée lorsqu'elle concerne des conditions où l'évolution est instable sans qu'on le sache. Même une prédiction par interpolation risque d'être fausse si elle se base sur deux points A et B de l'espace des phases où les lois d'évolution sont différentes, par exemple parce qu'il y a un point critique entre A et B. Il est évident que les prédictions par extrapolation et interpolation supposent la stabilité des lois d'évolution, qui fait partie des hypothèses de base du déterminisme scientifique ; oublier cette contrainte conduit à des erreurs de raisonnement. Les paragraphes suivants montrent des cas d'instabilité d'une loi physique d'évolution. 151 3.5.2.5 Système dissipatif par frottements - Attracteur Beaucoup de systèmes physiques qui évoluent sont soumis à des frottements, internes ou externes, qui leur font perdre de l'énergie. Exemple : lorsque le pendule simple de l'exemple 1 précédent est soumis à une force de frottement proportionnelle à sa vitesse angulaire et de sens opposé, son évolution dans l'espace des phases rapporté aux axes et ' est décrite par une spirale qui converge vers l'origine ='=0 lorsque t∞ : l'oscillation finit par s'arrêter. Il est très remarquable, alors, que les courbes d'évolution dans l'espace des phases convergent toujours vers le même point, l'origine, quelles que soient les conditions initiales ; ce point est appelé « attracteur ». En outre, l'aire d'un petit élément de surface de cet espace diminue en moyenne au cours d'une évolution, propriété cohérente avec la convergence des courbes d'évolution vers un attracteur. Comme dans le cas des systèmes conservatifs, cette diminution en moyenne d'aire peut avoir lieu avec divergence dans une direction de l'espace et convergence plus rapide dans une autre. Ce phénomène de convergence de toutes les évolutions d'un système dissipatif par perte d'énergie vers un même point attracteur de l'espace des phases est très général. En outre, ce point est indépendant des conditions initiales de l'évolution : un pendule finit toujours par s'arrêter au point le plus bas de ses oscillations. Par contre, l'évolution d'un système conservatif dépend des conditions initiales et ne converge pas vers un attracteur. Définitions : attracteur de l'espace des phases et bassin d'attraction On appelle « attracteur de l'espace des phases » d'un système la zone dans laquelle se trouvera le point représentatif de son état après un temps très long, c'est-à-dire lorsque t∞. La portion de l'espace des phases d'où partent toutes les courbes d'évolution aboutissant à un attracteur donné est appelée « bassin d'attraction » de cet attracteur. 3.5.2.6 Système dissipatif périodique avec échange d'énergie – Cycle limite Il est fréquent qu'un système dissipatif échange de l'énergie avec l'extérieur, à la fois en lui cédant de l'énergie et en recevant de l'énergie, tout en ayant une évolution périodique. Dans l'espace des phases, il existe alors une courbe d'évolution unique, fermée et stable par rapport aux conditions initiales, appelée cycle limite par Poincaré, courbe vers laquelle tendent toutes les courbes d'évolution. Ce cycle limite est un attracteur de toutes les courbes d'évolution dans l'espace des phases : quelle que soit la position du début d'une courbe d'évolution, celle-ci tend toujours vers cet attracteur lorsque t∞. Exemple : le diagramme ci-dessous, d'après [291], montre à sa partie supérieure l'équation dite de Van der Pol, qui décrit l'évolution d'un oscillateur à la fois entretenu (apport d'énergie) et amorti (perte d'énergie). La courbe oscillante en bleu décrit l'évolution de la variable oscillante x dans le temps. La courbe spirale rouge inférieure montre l'évolution dans le plan des phases rapporté aux axes x et v/ω0. L'évolution converge vers le cycle limite (courbe rouge en trait gras), indépendant des conditions initiales. 152 Discussion déterministe Du point de vue du déterminisme scientifique, il arrive qu'une loi d'évolution : Dont on ignore la convergence vers une loi-attracteur, ou qu'on considère avec un horizon de prévision d'évolution assez court, ne respecte pas le critère de stabilité dans le temps. On doit alors la considérer comme non déterministe. Dont on sait qu'elle converge vers une loi-attracteur, peut être considérée comme déterministe dans le cadre d'une prévision d'évolution à long terme. Exemple. Un satellite placé sur une orbite basse perd peu à peu de l'altitude du fait du frottement avec la haute atmosphère. Son orbite, elliptique sur quelques semaines, est en fait une spirale descendante ; sa vitesse de descente accélère même au fur et à mesure que son altitude lui fait rencontrer des couches d'air plus denses. Pour le maintenir le plus longtemps possible sur l'orbite désirée (et pour contrôler son orientation) on prévoit d'éjecter un peu de gaz de temps en temps, mais le réservoir de gaz s'épuise tôt ou tard, limitant la durée de vie du satellite. 3.5.2.7 Système à évolution quasi périodique Lorsque l'évolution temporelle d'un système peut être caractérisée par plusieurs variables qui ont, chacune et indépendamment, une évolution périodique à une certaine fréquence, l'évolution du système est alors qualifiée de « quasi périodique ». Le caractère périodique ou quasi périodique est indépendant du caractère conservatif ou dissipatif. Exemple. Soit un système de coordonnées astronomiques centré au centre du Soleil et dont les axes sont fixes par rapport aux étoiles lointaines. Dans ce repère, la position d'un point à la surface de la Terre présente quatre périodes d'évolution (en négligeant les perturbations induites par l'attraction des autres planètes) : La période d'évolution due à la rotation de la Terre autour de son axe (une journée, soit 24 heures) ; 153 La période d'évolution due à la rotation de la Terre autour du Soleil (une année, soit 365.2425 jours) ; La période d'évolution due au mouvement de précession de l'axe de rotation de la Terre, qui décrit un cône en 25800 ans ; La période d'évolution due au mouvement de nutation de l'axe de rotation de la Terre, mouvement qui le fait osciller légèrement de part et d'autre de son cône moyen de précession (période 19 ans). Lorsqu'un système à évolution quasi périodique est dissipatif, l'évolution converge vers un attracteur torique. C'est ainsi que l'évolution d'un système à deux fréquences de base converge vers une courbe attracteur tracée à la surface d'un tore dans l'espace habituel à 3 dimensions ; la courbe a deux fréquences de rotation : celle autour de l'axe du tore et celle autour de la ligne centrale de son "cylindre". 3.5.2.8 Déterminisme et prédictibilité des systèmes – Autocorrélation Une évolution quasi périodique est déterministe, comme une évolution périodique : à partir de conditions initiales données et d'un modèle d'évolution représenté par un système d'équations différentielles, on peut calculer cette évolution au moins numériquement de proche en proche, et la prédire aussi longtemps à l'avance que l'on veut. Il existe une méthode mathématique de caractérisation de l'évolution d'un système permettant de déterminer sa prédictibilité, c'est-à-dire la possibilité de déterminer la valeur d'une de ses variables, x(t + k) à l'instant t + k, connaissant la valeur x(t) à l'instant t. Cette méthode consiste à étudier la variation d'une fonction dite d'autocorrélation temporelle, C(k), qui caractérise la similitude des valeurs de x(t + k) avec ses valeurs antérieures x(t). Si C(k)0 lorsque t∞ l'évolution n'est pas prédictible ; elle n'est ni périodique ni même quasi périodique, elle n'a aucune régularité. Au contraire, si C(k) reste non nul à long terme, l'évolution présente une régularité qui la rend prédictible. 3.5.2.9 Imprédictibilité et hasard En pratique, il est impossible de distinguer une évolution dont on a constaté l'imprédictibilité (éventuellement par calcul d'autocorrélation) d'une évolution au hasard, si on ne connaît pas la cause du phénomène qui évolue ou si son déclenchement n'est pas suffisamment reproductible pour que son déroulement le soit aussi. C'est pourquoi beaucoup de scientifiques et de philosophes des sciences attribuent au hasard des évolutions déterministes à résultat imprédictible, comme celles que leur nature chaotique rend sensibles aux conditions initiales. Ils confondent alors imprécision sur ces conditions et évolution au hasard, erreur signalée dans l'introduction et due à une connaissance insuffisante des phénomènes. Dans le cas de la sensibilité aux conditions initiales, les mesures de variables initiales sont distribuées selon des lois statistiques, et c'est là que le hasard intervient, pas dans les conséquences d'évolution qu'en tire la nature. En pratique, une précision limitée de la connaissance du présent entraîne toujours une précision limitée de la prévision du futur. Si on connaît une évolution par une suite de valeurs mesurées à des instants successifs, qu'on ne connaît pas la cause de cette évolution, et que la suite de valeurs ne présente aucune régularité au test d'autocorrélation, on peut être tenté de l'attribuer 154 à un hasard postulé. S'il s'agit d'un phénomène naturel, il faut pourtant se garder de le faire, ces phénomènes relevant tous du déterminisme étendu, où le hasard n'intervient qu'en tant que choix d'un élément d'un ensemble de solutions du modèle du phénomène ou en tant que conséquence d'un excès de complexité ; et l'évolution du phénomène peut être apériodique ou chaotique, nous le verrons plus bas. Il vaut donc mieux chercher scientifiquement à comprendre le phénomène. 3.5.2.10 Systèmes apériodiques – Attracteurs étranges Lorsque l'évolution à long terme d'un système n'est ni périodique ni quasi périodique, elle est dite apériodique. Elle ne présente alors aucune régularité permettant de prévoir un état futur connaissant un ou plusieurs états du passé ; sa fonction d'autocorrélation tend alors vers zéro quand t∞. L'évolution d'un tel système n'est prévisible qu'à court terme, et à condition d'en connaître la loi au moins expérimentalement. Le déterminisme étendu régit même des lois de la nature à évolution apériodique ; il le fait en décrivant ces lois le mieux possible en fonction des progrès scientifiques. Systèmes apériodiques dissipatifs - Attracteurs étranges - Déterminisme chaotique On démontre qu'une courbe représentant l'évolution temporelle d'un système dissipatif dans un espace des phases possédant au moins 3 dimensions (correspondant à au moins 3 degrés de liberté) converge vers un attracteur d'un type particulier appelé « attracteur étrange ». Cet attracteur a les propriétés suivantes : L'attracteur étrange est une courbe de dimension fractale (non entière) inférieure au nombre de dimensions de l'espace des phases, comprise entre 2 et 3 dans le cas d'un espace des phases à 3 dimensions. Deux trajectoires d'évolution sur l'attracteur, partant de points aussi proches que l'on veut, divergent : au bout d'un temps donné, parfois court, elles atteignent des points de l'attracteur qui peuvent être bien plus éloignés que leurs points de départ. Connaissant le point de départ d'une évolution (sur l'attracteur) avec une précision parfaite, cette évolution est déterministe et calculable pour un avenir aussi lointain que l'on voudra. Mais la moindre erreur sur ces conditions initiales peut entraîner des différences d'évolution importantes (exemple 1, exemple 2). Il y a là une sensibilité extrême aux conditions initiales, sensibilité qui rend imprévisible en pratique, avant son début, la fin d'une évolution commencée sur l'attracteur, faute d'une précision infinie ; on peut seulement affirmer que le point représentant son état restera quelque part sur l'attracteur. L'évolution est alors dite « déterministe chaotique », et il ne peut exister d'algorithme utilisable prédisant l'état (la valeur d'une variable impactée par l'évolution) à l'instant t + k connaissant l'état à l'instant t, faute de stabilité par rapport aux conditions initiales. Par contre, un instant même court après son début, une évolution commencée sur l'attracteur a un déroulement et une fin parfaitement prévisibles. Enfin, la connaissance de l'état actuel ne permet de reconstituer aucun état passé. Un tel attracteur est dit « étrange » parce que la dissipation d'énergie y fait converger les courbes d'évolution en même temps que la sensibilité extrême aux conditions initiales y fait diverger des évolutions commençant en des points très voisins. 155 Le chaos déterministe est donc un type d'évolution dont le résultat est calculable, mais seulement quand il est trop tard, ce qui le rend inutilisable. Cette évolution n'est pas quelconque (au hasard), elle respecte la position sur l'attracteur étrange (quand le système est dissipatif) et les lois physiques, notamment celles de la thermodynamique. Systèmes apériodiques conservatifs Le phénomène de chaos déterministe peut aussi affecter des systèmes conservatifs : la sensibilité aux conditions initiales n'est pas réservée aux systèmes dissipatifs. Exemple : problème des trois corps. Exemple d'évolution vers un attracteur étrange : le système de Lorenz Pour tenter de comprendre pourquoi les prévisions météorologiques étaient si peu fiables, le météorologue Edward N. Lorenz [294] modélisa la convection naturelle (air chaud qui monte, air froid qui descend) en la simplifiant beaucoup. Il aboutit au système d'équations différentielles suivant : 𝑑𝑥 = 𝑝( 𝑦 − 𝑥 ) 𝑑𝑡 𝑑𝑦 = −𝑥𝑧 + 𝑟𝑥 − 𝑦 𝑑𝑡 𝑑𝑧 = 𝑥𝑦 − 𝑏𝑧 𝑑𝑡 où x, y et z sont les coordonnées dans un espace des phases à 3 degrés de liberté, p est le nombre de Prandtl, b est un facteur de forme et r un paramètre de contrôle proportionnel au nombre de Rayleigh [293]. Ce système d'équations non linéaires est déterministe, mais il est impossible à intégrer analytiquement dans le cas général, ses solutions (calculées point par point en ordinateur) sont chaotiques, les courbes d'évolution tendent vers un attracteur étrange, et une évolution commencée sur cet attracteur a une extrême sensibilité aux conditions initiales. Cette sensibilité explique l'impossibilité d'une prévision météorologique à long terme, la situation initiale ne pouvant jamais être connue avec une précision absolue. Nous avons donc là un exemple d'évolution déterministe chaotique et imprédictible. 3.5.2.11 Changement de loi d'évolution par bifurcation – Valeur critique Il arrive que le changement de valeur d'un paramètre d'une loi d'évolution provoque un changement de nature de la solution du modèle mathématique de cette loi lorsque cette valeur franchit une certaine valeur, qualifiée de critique ; on peut ainsi, par exemple, passer d'une solution stationnaire à une solution périodique, ou sauter d'un bassin d'attraction à un autre. Dans un espace des états où l'un des axes représente le paramètre à valeur critique , et un autre axe une grandeur caractéristique x de la loi d'évolution considérée, la courbe représentant x en fonction de présente une bifurcation au point critique =c ; cette bifurcation peut présenter deux ou plusieurs branches. Le point critique est un point singulier du diagramme des phases. Une bifurcation correspond à la transition d'un premier bassin d'attraction avec son attracteur à un autre bassin d'attraction avec son attracteur. 156 Il peut ainsi arriver que, tant que <c, un système dissipatif évolue vers un point attracteur, et dès que >c il évolue vers un cycle limite. La valeur =c est appelée valeur critique du paramètre . Lorsque celui-ci franchit la valeur c, la solution des équations d'évolution change. Ce changement peut être progressif, par exemple lorsque la courbe d'évolution du système passe de la convergence vers un point attracteur à la convergence vers un cycle limite de taille ponctuelle, qui grossit à mesure que s'éloigne de c. Le changement peut aussi faire passer d'une évolution stable à une évolution instable, où l'une des variables de l'espace des états grandit indéfiniment. On voit aussi sur l'exemple de la bifurcation le danger d'extrapoler ou interpoler. Au sujet des bifurcations, voir aussi la turbulence [300]. Exemple. Le diagramme des phases d'un corps pur comme l'eau ci-dessous représente les courbes de changement d'état en fonction du couple de variables température et pression : 1 – courbe de sublimation 2 – courbe de fusion 3 – courbe de vaporisation Pour une température et une pression au-delà du point critique, le changement de phase entre liquide et gaz se produit sa façon continue, sans qu'une surface séparatrice apparaisse. Au point triple, les trois phases coexistent. Pression Etat solide Etat liquide 2 point critique 3 1 point triple Etat gazeux Température Diagramme des phases d'un corps pur comme l'eau Il peut, enfin, arriver que le paramètre présente une valeur critique c1 lorsque augmente, et une autre valeur critique, c2, lorsque diminue. Cela se produit, par exemple, lorsqu'il y a surfusion d'une eau très pure qui reste liquide à une température inférieure à sa température de solidification à la pression donnée (courbe 2 du diagramme ci-dessus) ; la surfusion cesse (l'eau se transforme brusquement en glace) lorsque la température atteint environ -40°C ou lorsqu'on agite l'eau. Sur le plan déterminisme, retenons que le respect de la règle de stabilité de la loi d'évolution est une condition importante, qu'on ne peut négliger. Nous avons vu un 157 exemple d'instabilité de loi d'évolution en cosmologie : l'expansion de l'Univers accélère depuis quelques milliards d'années. Voir aussi [313]. 3.5.3 Etat quantique d'un système L'état quantique d'un système à un instant donné est l'ensemble des valeurs de ses variables de Mécanique quantique à cet instant-là ; il est décrit par sa fonction d'onde. C'est ainsi que l'état quantique d'un électron comprend ses variables de position, de vitesse et de spin [22]. Toutes ces variables sont scalaires [126]. Comme l'état quantique représente tout ce qu'on peut savoir sur le système à l'instant donné (toute l'information à son sujet) il prend en compte toutes les variables ; il n'y a pas de variable supplémentaire (cachée) qui pourrait nous apprendre quelque chose de plus sur le système ; sa taille atomique (de l'ordre de 1 Å = 10-10 m) et ses contours flous le rendent invisible : on dit que la Mécanique quantique est complète. Elle décrit tout ce qu'on peut savoir sur l'évolution d'un système avec des équations. Deux électrons ont même masse et même charge électrique, caractéristiques qui sont constantes et identiques pour tous les électrons, donc ne sont pas des variables, donc ne font pas partie de leur état quantique. On peut distinguer deux électrons seulement par une différence d'état quantique, c'est-à-dire une différence de position, de vitesse ou de spin. Même remarque pour deux protons ou d'autres paires de particules : deux particules de même type sont toujours identiques, interchangeables, elles ne diffèrent que par une ou plusieurs valeurs de variables de leur état quantique. 3.5.3.1 Vecteur d'état Les variables de l'état quantique d'un système à un instant donné constituent les composantes d'un vecteur appelé vecteur d'état. 3.5.3.2 Espace des états Les vecteurs d'état d'un système qui intéressent les physiciens ne sont pas quelconques : ils appartiennent à un espace vectoriel [127] abstrait appelé « espace des états » du système. Les vecteurs de cet espace ont des composantes qui varient avec le temps si le système évolue. Lorsque nous aborderons plus bas l'équation de Schrödinger, nous désignerons le vecteur d'état associé à la fonction d'onde (r) par une notation due à Dirac |>, appelée « ket psi ». 3.5.3.3 Réalité physique et représentation dans l'espace des états La réalité physique d'un système nous est accessible par l'intermédiaire d'une représentation mentale mathématique, élaborée en utilisant nos concepts, nos méthodes d'abstraction et notre intuition. C'est là un postulat matérialiste, point de vue systématiquement retenu dans ce texte, par opposition à un point de vue idéaliste, comme celui de Platon, qui n'accorde de réalité qu'à des Idées et prétend que la réalité physique est inaccessible à l'homme. La physique atomique moderne va plus loin : elle postule que : L'état d'un système est représenté par un vecteur de l'espace des états, vecteur qui constitue tout ce que l'on peut savoir du système ; 158 L'évolution de ce vecteur d'état dans le temps représente tout ce que l'on peut savoir de l'évolution du système. Ces postulats reviennent à affirmer que la seule réalité physique, objective et digne de confiance pour prédire les évolutions, qui nous soit accessible lorsqu'il s'agit de l'échelle microscopique, est cette représentation mathématique ; aucune représentation issue de nos sens ou de notre intuition n'est suffisamment objective et précise pour comprendre et prévoir, notamment pour les échelles infiniment petite et infiniment grande par rapport à l'homme. En somme, puisqu'il est impossible de voir un électron ou sa trajectoire, nous devons faire confiance à la représentation mathématique qu'en donne la Mécanique quantique. Puisqu'il est impossible de voir la courbure de l'espace astronomique, nous devons faire confiance aux équations de la Relativité Générale [328]. Puisqu'il est impossible de voir un trou noir, nous devons déduire sa présence et sa masse des effets qu'il a sur l'espace environnant et sa matière. Et lorsque nous verrons, dans la suite de ce texte, que cette représentation de la réalité est souvent probabiliste, quantifiée, et plus généralement inaccessible à l'intuition née de nos sens (quand elle ne la contredit pas carrément), nous devrons l'accepter quand même, parce qu'elle a fait ses preuves par la qualité des explications de la réalité et des prédictions de son évolution qu'elle fournit, et qu'elle n'a jamais été démentie. Polémique En matière de connaissance scientifique, les personnes qui refusent de « croire les mathématiques » pour s'en tenir aux intuitions issues de leurs sens font preuve de rigidité intellectuelle et d'excès de confiance en leur jugement. Elles postulent que l'Univers est suffisamment simple pour que l'homme le comprenne d'instinct, ou que l'homme est suffisamment génial pour que toute connaissance puisse être basée sur ce qu'il sent ou imagine. Elles persistent dans leur erreur parce qu'elles ne mettent pas leur représentation du monde à l'épreuve de la réalité, à laquelle elles croient moins qu'à leur imagination et à leurs préjugés. (Voir le paragraphe "Intuition d'abord, justification après" et l'exemple). 3.5.3.4 Espace des phases d'un champ et espace des états associé Jusqu'ici nous avons considéré un système comprenant un nombre fixe n de constituants, par exemple n points matériels pesants, et nous avons défini son évolution dans l'espace des phases en fonction du temps. Cet espace des phases avait un nombre fini de dimensions, par exemple 6n pour représenter les 6 composantes des positions et des vitesses des n points matériels. Considérons à présent un champ, région de l'espace où règnent à la fois (par exemple) des influences gravitationnelle, électrique et magnétique. Ce champ a une infinité de points géométriques. En chaque point P on peut décrire l'état du champ par 3 vecteurs, un pour le champ gravitationnel, un pour le champ électrique et un pour le champ magnétique. L'ensemble de ces 3 vecteurs constituera le vecteur d'état (global) du champ considéré en P, vecteur d'état qui a pour composantes les 9 composantes scalaires [126] des trois vecteurs champ gravitationnel, champ électrique et champ magnétique selon trois axes Ox, Oy et Oz de l'espace des états du champ. 159 Pour décrire l'état de l'infinité des points de l'espace des phases du champ, l'espace des états associé aura un nombre infini de dimensions, à raison de 9 dimensions pour chaque point géométrique du champ. Ce sera un espace vectoriel [127]. Retenons donc que la représentation de l'état et de l'évolution d'un système comprenant un nombre fixe de constituants par un espace des états peut être utilisée pour un champ comprenant une infinité de points. 3.5.3.5 Equipartition de l'énergie dans un champ – Stabilité des atomes La théorie physique traditionnelle d'équipartition prévoit que l'énergie disponible dans un système se répartit uniformément entre tous ses degrés de liberté : c'est là une conséquence de l'homogénéité de l'espace. Lorsqu'il y a un champ de force dans une région de l'espace, par exemple un champ électromagnétique agissant sur des particules chargées comme des électrons ou des protons, ce champ a un nombre infini de points, donc un nombre infini de degrés de liberté à côté duquel le nombre de degrés de liberté fini des électrons et protons d'un atome donné est négligeable. Chaque degré de liberté d'un atome donné devrait ainsi être associé à une quantité infiniment faible d'énergie. Par conséquent, si les électrons d'un atome étaient des corpuscules matériels munis d'une masse (comme les expériences le prouvent) ils devraient avoir une énergie cinétique de rotation infiniment faible, donc une vitesse trop faible pour que la force centrifuge associée leur permette d'équilibrer l'attraction électrostatique du noyau ; ils devraient donc tomber instantanément sur leur noyau, rendant tout atome instable ! Cette instabilité des atomes - supposés avoir une structure "planétaire" composée d'un noyau central positif autour duquel tournent des électrons négatifs - est prédite aussi par les lois de Maxwell [123]. D'après celles-ci, les électrons – charges électriques tournant autour d'un noyau - devraient émettre des ondes électromagnétiques, donc perdre de l'énergie emportée par ces ondes ; cette perte d'énergie les ferait s'écraser rapidement sur le noyau. Ces théories traditionnelles de l'atome construit selon un modèle planétaire (répartition uniforme de l'énergie entre les degrés de liberté, ondes électromagnétiques suivant les équations de Maxwell) ont donc un problème que nous allons à présent aborder. 3.5.4 Les contradictions de la physique traditionnelle et de son déterminisme Les atomes sont stables, sinon notre Univers n'existerait pas ! La physique traditionnelle, établie et vérifiée au niveau macroscopique et statistique, ne s'applique, hélas, pas telle quelle au niveau atomique, nous venons de le voir. Ses lois déterministes, si remarquablement précises et générales, sont fausses à cette échelle minuscule où certains résultats sont probabilistes. Et le problème est très grave puisque le postulat fondamental du caractère absolu de l'espace et du temps, admis par Newton dans ses lois du mouvement [110] et par Maxwell dans sa théorie de l'électromagnétisme [123], est contredit par l'expérience de Michelson et Morley, qui a montré en 1887 que le postulat d'additivité des vitesses est faux lorsque l'une des vitesses est celle de la lumière. En 1900, la physique butait aussi sur le désaccord entre les résultats du calcul des échanges d'énergie électromagnétique par rayonnement entre un corps chaud et un 160 corps froid, et les observations expérimentales. Cette contradiction ne fut résolue que lorsque Max Planck proposa, cette année-là, que l'on considère la quantité d'énergie d'une émission d'ondes de fréquence comme discontinue, multiple d'un minimum h où apparaît une constante universelle, le quantum d'action h, ce qui fait de cette énergie une grandeur quantifiée. Cette approche ouvrit la porte à la physique quantique. Puis, en 1905, Einstein utilisa la théorie de Planck pour décrire les échanges d'énergie entre lumière et électrons constatés dans l'effet photoélectrique, ce qui lui valut le prix Nobel [60]. Une des conséquences de ces travaux était considérable : les ondes électromagnétiques, donc la lumière, avaient à la fois un caractère ondulatoire (par définition) et corpusculaire, ce qui contredisait la physique classique et son déterminisme ! Ce déterminisme traditionnel finit d'être jeté bas la même année, lorsqu'Einstein - encore lui - publia la théorie de la Relativité Restreinte [49], qui met un terme au caractère absolu de l'espace et du temps de la physique newtonienne à la base de ce déterminisme. 3.5.5 Des forces physiques étonnantes Tout le monde sait depuis Newton [110] que l'attraction universelle entre deux corps est inversement proportionnelle au carré de leur distance. L'attraction électrostatique (ou magnétique) entre deux charges électriques (ou magnétiques) de signes opposés (décrite par la loi de Coulomb [341]) est aussi inversement proportionnelle au carré de leur distance. Ces champs de forces "en 1/d2" présents partout semblent être une règle de la nature. Hélas il n'en est rien, et la Mécanique quantique que nous aborderons plus bas explique certaines lois pour le moins surprenantes, dont voici des exemples. La force de Casimir due à la polarisation du vide avec apparition de paires particule-antiparticule est "en 1/d4". La loi de Van der Waals qui décrit l'attraction électrique entre deux atomes ou molécules neutres assez proches est "en 1/d7", produisant des forces extraordinairement intenses à courte distance (quelques angströms). Ces forces sont dues aux fluctuations quantiques des dipôles électriques formés par deux atomes voisins, qui s'attirent alors du fait d'une force dite "faible". Ces forces sont responsables de la cohésion entre molécules de liquides. Elles expliquent aussi l'aptitude d'un petit lézard, le gecko, à marcher sur n'importe quelle surface solide en y adhérant facilement. Il peut ainsi marcher sur la face inférieure d'une plaque horizontale de verre parfaitement lisse, à laquelle ses pattes adhèrent grâce à des poils incroyablement fins (moins de 0.25 micron de diamètre) dont les molécules attirent celles de la plaque de verre grâce aux forces de Van der Waals. La force de répulsion moléculaire due au potentiel de Lennard-Jones est en "1/d12". Elle apparaît quand il y a superposition des nuages de charge de deux systèmes atomiques. La force nucléaire agit de manière attractive entre quarks du noyau atomique pour en maintenir la cohésion sous forme de protons et neutrons, bien que deux protons ayant des charges de même signe tendent à se repousser ; le quantum d'interaction correspondant est appelé gluon [18]. 161 Sa portée est très faible (environ 1 fermi = 10-15 m, un dixième du rayon d'un noyau atomique [137]) et son intensité augmente avec la distance ! (Détails) J'ai cité ces forces étonnantes pour illustrer le fait que le déterminisme n'a rien d'évident ou d'intuitif lorsqu'on veut comprendre les lois physiques et prédire certains comportements, et qu'il faut souvent recourir à la Mécanique quantique pour expliquer ce qui se passe. 3.5.6 L'évolution nécessite une interaction avec échange d'énergie L'évolution d'un système matériel sous l'action de forces ou d'un champ (électrique, de gravitation, etc.) exige un échange d'énergie entre des parties du système et/ou avec l'extérieur. Cet échange se produit dans le cadre d'une interaction [18] entre parties du système et/ou entre le système et son environnement. La science qui étudie les échanges dus à l'influence d'un champ (par opposition à l'influence d'une force de contact) est la Théorie des champs. La théorie classique des champs est née avec la description par Faraday puis Maxwell de l'influence d'un courant électrique, propagée par des ondes électromagnétiques, sur un autre courant ou une charge électrique. Exemple : théorie du champ électrique de Coulomb [341]. La théorie quantique des champs est née avec la quantification par Planck des échanges d'énergie électromagnétique, tous multiples de h (h est la constante de Planck) pour une fréquence donnée, échanges réalisés par des particules appelées photons [117] porteuses des forces d'attraction et répulsion. Exemple : électrodynamique quantique. Le processus d'échange entre un système et un champ comprend trois étapes : (1) Rayonnement du champ par sa source ; Exemple 1 : une lampe électrique émet de la lumière, champ électromagnétique qui transporte l'énergie de ses photons, particules sans masse. Un photon de fréquence a une énergie quantifiée égale à h joules. Exemple 2 : un ressort qui pousse une masse exerce sur elle une force par l'intermédiaire de champs électromagnétiques au niveau atomique, où ils assurent la cohésion de la matière dans le ressort et dans la masse. (2) Propagation du champ dans la matière ou dans le vide, à une vitesse inférieure ou égale à la vitesse de la lumière dans le vide, c (il n'y a pas d'action physique instantanée mettant en jeu de l'énergie, la Relativité l'interdit) ; Dans l'exemple 1, la lumière se propage à partir de la lampe. Dans l'exemple 2, les champs de cohésion du ressort liés aux atomes de celui-ci se propagent jusqu'au contact des atomes de la masse, liés par leurs propres champs de cohésion. (3) Absorption du champ par la cible. Dans l'exemple 1, un atome de la cible éclairée par la source absorbe un photon [117], par exemple, ce qui le fait passer dans un état supérieur d'énergie potentielle. Ou un corpuscule touché par le photon reçoit une impulsion [20] qui modifie sa quantité de mouvement [20], donc son énergie cinétique. 162 Dans l'exemple 2, le champ de cohésion du ressort exerce une force électrostatique de pression sur les atomes de la masse ; le champ de cohésion de la masse exerce une force de réaction sur les atomes du ressort, égale à la précédente et de sens opposé. Dans les deux exemples ci-dessus, les champs des processus d'interaction sont toujours de type électromagnétique. En fait, il existe quatre types de champs de force (voir [18]). Il y a absence d'échange d'énergie lorsqu'aucune force ou champ n'intervient, comme dans le mouvement rectiligne uniforme d'un système soumis à sa seule inertie, où l'évolution est un simple déplacement sans poussée ni frottement. 3.5.7 1ère extension du déterminisme : fonctions d'onde et pluralité des états Nous allons maintenant étudier successivement plusieurs phénomènes physiques d'évolution dont les lois contredisent le déterminisme scientifique traditionnel, qu'il faut donc étendre pour en tenir compte sous forme de déterminisme statistique, qui complète le déterminisme scientifique pour en faire un déterminisme étendu. 3.5.7.1 Notions de Mécanique quantique La Mécanique quantique est un ensemble d'outils mathématiques destinés à la physique de l'infiniment petit, au niveau atomique, c'est-à-dire à une échelle de dimension et de distance de l'ordre de taille d'un atome : 1 angström (Å) = 10-10 m. Ces outils permettent le calcul et la modélisation des systèmes physiques en évolution ou stables ; ils ne constituent pas une science expérimentale de l'infiniment petit, rôle que tient la physique quantique [325]. (Détails sur les postulats de la Mécanique quantique). L'outil Mécanique quantique n'est justifié que par la rigueur de ses démonstrations et l'adéquation à la réalité physique de ses modèles mathématiques. Cette adéquation est prouvée par la vérification, faite d'innombrables fois, que les résultats des calculs de Mécanique quantique sont conformes à la réalité expérimentale, que ce soit pour expliquer une expérience qu'on vient de faire, ou prédire le résultat d'une expérience qu'on va faire. En somme, la Mécanique quantique est une science mathématique ; elle a la rigueur de toute science exacte. Non seulement la Mécanique quantique modélise bien la réalité physique au niveau atomique, mais c'est notre seule façon de "voir", de comprendre et de prévoir ce qui se passe à cette échelle-là. En somme, nous voyons ce monde minuscule à travers des équations et des fonctions, qui décrivent et prédisent le comportement de ses particules avec une fidélité parfaite, compte tenu des inévitables erreurs et contraintes expérimentales. La Mécanique quantique représente une avancée scientifique considérable par l'étendue de ses conséquences et la qualité de ses prédictions. Elle fournit aujourd'hui l'explication fondamentale de la stabilité des atomes et molécules, de leurs échanges d'énergie à la base des lois de la chimie, des phénomènes électromagnétiques comme le laser et la finesse des lignes observées en spectroscopie, etc. 163 La Mécanique quantique nous oblige à réviser notre conception du déterminisme, si nous voulons qu'il décrive toutes les conséquences des lois physiques de la nature. Voici comment. 3.5.7.2 De la contingence à la probabilité Depuis longtemps déjà, avant même qu'on parle de Mécanique quantique au XXe siècle, les hommes ont dû compléter le concept philosophique de contingence par celui de probabilité. Définition : une chose est contingente lorsqu'elle est susceptible d'être ou de ne pas être ; son existence ou inexistence ne résulte pas, alors, ni d'un raisonnement logique ni d'une nécessité ou impossibilité physique. Une situation que je constate en ce moment ne peut être contingente, puisque je la constate, cela violerait le principe d'identité [16]. Elle a pu être contingente dans le passé, tant qu'elle n'existait pas encore, mais elle ne l'est plus puisqu'elle existe ; et (selon son évolution) elle sera peut-être contingente dans l'avenir. Les hommes se sont aperçus que le concept de contingence ne suffisait pas pour rendre compte de certaines situations, dont une description plus fidèle nécessitait une probabilité d'existence. Exemple : si je lance un dé, le fait de sortir un 3 est contingent, cela peut arriver ou non. Mais si je dis que la probabilité de sortir un 3 est d'une chance sur six, je prédis le résultat du jet de dé avec plus de précision. La Mécanique quantique utilise beaucoup les descriptions probabilistes. Elle montre, par exemple, qu'on ne peut pas parler de position d'un électron à un instant donné, mais de probabilité de position de cet électron à cet instant-là dans un espace de dimension donnée autour d'un point précis. Si nous n'avions que la contingence (« l'électron est en ce point ou il ne l'est pas ») la description de la réalité serait si pauvre qu'elle serait inutilisable. Le concept de position précise d'une particule n'a pas cours en Mécanique quantique, sinon en tant qu'approximation grossière. L'évolution d'un système est calculée, en Mécanique quantique, à l'aide de lois physiques parfaitement déterministes (au sens scientifique traditionnel) en utilisant un formalisme appelé « hamiltonien » parce qu'il est basé sur l'énergie totale de la particule. Lorsqu'on applique ces lois déterministes, le résultat d'évolution est également parfaitement reproductible : une situation (état du système) donnée produit toujours le même ensemble de comportements, décrits par un même ensemble de résultats – ensembles qui ont en général plusieurs éléments, voire une infinité. Exemple : dans une molécule d'ammoniac NH3 les 4 atomes sont reliés par des forces électriques, les liaisons chimiques ; celles-ci imposent une structure où l'atome d'azote N est à une certaine distance du plan des 3 atomes d'hydrogène H, et à égale distance de chacun. Les calculs de Mécanique quantique montrent qu'il y a 2 positions possibles de l'atome d'azote, de part et d'autre du plan des atomes d'hydrogène, positions qui sont équiprobables et existent en même temps, comme si l'atome d'azote oscillait entre elles : on dit que l'état de la molécule est une superposition de deux états cohérents. (Détails) L'ensemble des résultats d'évolution d'un système à partir d'un état initial ne décrit pas un mouvement précis comme en mécanique classique, c'est-à-dire une trajectoire définissant des positions successives précises à des instants précis. Il décrit 164 seulement, à chaque instant, des probabilités de présence et de vitesse de la particule au voisinage de divers points de l'espace : la notion de trajectoire précise n'a plus cours, comme dans la physique classique régie par le déterminisme traditionnel. Elle est remplacée par une région de l'espace dont, à un instant précis, chaque point est associé à une densité de probabilité de présence [28]. A chaque instant, la position de la particule apparaît floue, elle est entachée d'imprécision ainsi que sa vitesse. L'introduction de la notion de probabilité, mesurable par un nombre réel positif entre 0 et 1, est un progrès apporté par la démarche scientifique par rapport à la notion de contingence des philosophes et au choix trop manichéen limité à "vrai" ou "faux". 3.5.7.3 Extension du déterminisme aux résultats imprécis et probabilistes Nous devons donc, pour respecter la réalité physique, compléter le déterminisme traditionnel par la possibilité qu'une situation de départ précise produise, pendant et après une évolution, de multiples résultats, chacun accompagné d'une probabilité. La Mécanique quantique prédit qu'une situation de départ peut, à l'arrivée, donner un ensemble de 1, 2, 3… ou même une infinité de résultats. (On peut aussi dire qu'elle prédit un ensemble d'évolutions possibles, chacune donnant un résultat unique.) Après un état initial précis, la position d'un corpuscule à un instant donné est floue (autour d'un point de probabilité maximum) et sa vitesse est distribuée selon une loi de probabilités autour d'une vitesse moyenne. L'interprétation probabiliste de la position d'un corpuscule mobile à un instant donné ne doit donc pas être « il est à une position précise que nous ne pouvons connaître qu'assortie de sa probabilité ». Elle doit être « il est à la fois à toutes les positions d'un ensemble prédéterminé, chacune affectée d'une probabilité » : on parle de positions superposées. Notre conception habituelle d'une présence en un seul point à un instant donné doit donc être étendue, dans le cas de la physique quantique, à une présence simultanée en un ensemble de points où la probabilité totale est 1. Une photographie théorique à temps de pose nul d'un corpuscule mobile serait donc floue. Dire que « chaque point de l'espace a une densité de probabilité de présence de la particule » [28] est conforme à la vérité ; c'est une représentation utile pour des phénomènes comme l'effet tunnel. Nous verrons plus bas que la nature interdit de concevoir la dimension ou la position d'une particule pesante en mouvement avec une précision meilleure que sa longueur d'onde de Compton c ; pour un proton, par exemple, l'imprécision minimum c est de l'ordre de son diamètre. 3.5.7.3.1 Le déterminisme statistique, complément du déterminisme scientifique Nous avons évoqué plus haut le Déterminisme statistique de l'échelle macroscopique. En voici le complément indispensable, fondement de la physique quantique. L'équation fondamentale de la Mécanique quantique, dite « de Schrödinger », qui décrit l'évolution d'un système à l'échelle atomique dans le temps et l'espace, donne des résultats multiples (voire une infinité) distribués selon une loi statistique. C'est une 165 équation déterministe, mais ses solutions étant distribuées statistiquement, on doit parler d'un nouveau type de déterminisme, le déterminisme statistique. Si dans une expérience de physique atomique nous mesurons une variable (dont la valeur est un opérateur mathématique [278]), nous pouvons trouver une ou plusieurs valeurs (appelées valeurs propres de l'opérateur [278]), la Mécanique quantique précisant leur nombre exact lorsqu'il n'y en a pas une infinité. Et si nous répétons la même expérience un très grand nombre de fois en mesurant chaque fois la même variable, nous constatons que chacun des résultats prévus par la théorie (chaque valeur propre) apparaît un pourcentage prévu de fois ; selon l'expérience, les divers résultats possibles sont parfois équiprobables et parfois associés à des probabilités différentes. Prédictions de résultats du déterminisme statistique Le déterminisme statistique complète le déterminisme scientifique à l'échelle atomique, en prédisant la distribution des résultats de mesures éventuelles et l'évolution dans le temps et l'espace des valeurs des variables d'état d'un système. Selon les postulats 3 et 4 de la Mécanique quantique, la mesure d'une grandeur physique ne peut donner comme résultat qu'une des valeurs propres [278] de son observable [30]. Si le nombre de ces valeurs propres est fini (cas des variables discrètes), chacune est affectée d'une probabilité de "sortir dans cette expérience" définie par le postulat 4 (spectre discret). Si le nombre de ces valeurs propres est infini (variables continues), chacune est affectée d'une densité de probabilité définie par le postulat 4 (spectre continu) ; dans chaque volume dV autour d'une valeur propre [278], la probabilité que le résultat soit dans ce volume est le produit de la densité par dV. Stabilité du déterminisme statistique Comme le déterminisme scientifique qu'il complète, le déterminisme statistique respecte la règle de stabilité : pour une expérience donnée, l'ensemble des résultats possibles est toujours le même. 3.5.7.3.2 Différence entre déterminisme statistique et hasard pur Lorsque les résultats mesurés de l'évolution des variables d'état d'un système sont distribués selon une loi statistique de probabilités dont les paramètres sont prévus par la Mécanique quantique pour l'expérience considérée, ils ne relèvent pas du hasard pur. Ces résultats (valeurs possibles de chaque variable d'état) appartiennent à un ensemble prévu par la Mécanique quantique, chacun affecté d'une probabilité : aucune valeur n'est quelconque. Plus précisément, cet ensemble est le spectre des valeurs propres du dispositif de mesure : le hasard naturel est alors limité au choix d'une des valeurs du spectre, valeurs toutes connues avec précision avant chaque choix ; nous avons déjà vu cela. Parfois un ensemble de résultats ne comprend que des nombres entiers, parfois c'est un ensemble de nombres réels, ou de nombres complexes, ou de vecteurs. 166 Exemple de résultats multiples d'une évolution par déplacement Considérons l'expérience de Young de diffraction de la lumière monochromatique à travers deux fentes, réalisée avec un faisceau si faible que ses photons [117] sont émis un par un. Ces photons successifs arrivent sur l'écran en des points différents, bien qu'ils soient tous produits et acheminés de manière identique : chaque position de point est un résultat prédit par la Mécanique quantique avec une certaine probabilité de se produire ; c'est là un comportement qui contredit le déterminisme traditionnel, qui voudrait que tous les photons arrivent au même point. Si le nombre de photons devient très grand, l'image globale formée par les impacts donne bien des franges d'interférences, comme le prédit la théorie ondulatoire de la lumière (voir schéma ci-dessous) : chaque photon est passé par les deux fentes à la fois, les deux parties de son onde ajoutant ou soustrayant leurs amplitudes en tenant compte des différences de phase, ce qui produit des franges d'interférence. Dans cette expérience, un photon peut donc interférer avec lui-même. Expérience de Young : diffraction de la lumière à travers deux fentes ("slits") Sur l'écran ("screen") apparaissent des franges d'interférences Un photon a une masse nulle [117], mais nous allons maintenant voir une possibilité semblable de trajectoires simultanées pour des corpuscules pesants. 3.5.7.3.3 Dualité onde-particule, déterminisme dual et ondes de matière L'expérience de Young, réalisée ci-dessus avec des photons, peut aussi être réalisée avec des atomes, de masse non nulle et même des molécules. Elle illustre un aspect fondamental de la physique quantique : selon l'expérience, une particule de masse non nulle peut tantôt être considérée comme un corpuscule de matière, tantôt comme un « paquet d'énergie » propagé par une onde. Cette onde est analogue à l'onde électromagnétique d'un photon, à cela près que c'est une onde de probabilité ; et c'est la superposition de deux telles ondes résultant du passage par les fentes qui produit le phénomène d'interférence. 167 Les ondes de matière de Louis de Broglie Le physicien français Louis de Broglie a été récompensé en 1929 par un prix Nobel pour avoir découvert les « ondes de matière » associées aux électrons (et aux particules de matière en mouvement en général) et affirmé : A toute particule matérielle de masse m et de vitesse v doit être associée une onde stationnaire de matière de longueur d'onde stable telle que : h mv où h est la constante de Planck, h = 6.6261 .10-34 joule.seconde. C'est ainsi que la longueur d'onde associée à un atome isolé de fer 56Fe se déplaçant à 1000 m/s est de 7 fermis (1 fm = 10-15m), à peine moins que le diamètre de son noyau, qui est de 9.2 fm [137]. Mais la longueur d'onde d'un objet de taille macroscopique, même en déplacement lent, est si petite que ses propriétés ondulatoires sont impossibles à mettre en évidence : pour un caillou de 20 g lancé à 10 m/s on trouve = 3.3 .10-18 fm. La théorie des ondes de matière explique le fait que des électrons ne peuvent parcourir de manière stable, autour d'un noyau atomique, que certaines orbites avec des niveaux d'énergie précis. Pour être stable (stationnaire), une onde doit avoir une longueur d'onde de matière sous-multiple entier de la longueur de la trajectoire circulaire d'un électron. De Broglie a pu ainsi retrouver et confirmer l'orbite de l'électron d'un atome d'hydrogène calculée par Niels Bohr, avec son rayon de 0.529 Å. (Dans l'hypothèse simplificatrice de Bohr, un électron d'un atome décrit des orbites circulaires autour du noyau. L'existence des ondes de matière explique que cet électron ne puisse parcourir que des trajectoires comprenant un nombre entier d'ondes de matière, trajectoires qui correspondent à des états énergétiques bien précis ; si la longueur d'une trajectoire ne correspondait pas à un nombre entier d'ondes de matière, ces ondes s'annuleraient par interférences ; la trajectoire étant alors instable, l'électron la quitterait pour une trajectoire stable.) Une telle dualité onde-particule, impossible dans le cadre du déterminisme traditionnel, est tout sauf intuitive : comment de la matière peut-elle aussi se comporter comme une onde ? L'explication relève de la Mécanique quantique, et de son déterminisme statistique. Pour avoir proposé cette théorie unificatrice en 1924, De Broglie peut être considéré comme « le père de la Mécanique quantique ». 3.5.7.3.4 Trajectoire d'un corpuscule Les résultats de la Mécanique quantique contredisent souvent notre intuition. Ils nous obligent à comprendre la nature à travers des modèles mathématiques (voir détails). Fonction d'onde Au concept classique de trajectoire d'un corpuscule la Mécanique quantique substitue celui d'état dépendant du temps t. Exemple : en négligeant le spin [22], l'état quantique d'un corpuscule de masse non nulle tel que l'électron, avec ses composantes de position et d'impulsion définissant un vecteur d'état, est caractérisé par une fonction 168 d'onde (r, t), prenant ses valeurs dans le corps des nombres complexes [126], qui contient toutes les informations que l'on peut connaître sur le corpuscule ; dans (r, t), la variable vectorielle r a pour composantes les coordonnées de position r x ; ry ; rz et la variable t représente le temps (l'instant). Une fonction d'onde (r, t) donnée appartient à un espace vectoriel dit "de Hilbert" [326]. La fonction d'onde évolue dans le temps de manière parfaitement déterministe au sens traditionnel. Elle est interprétée comme une amplitude de probabilité de présence, nombre complexe ayant un module et une phase. Les positions possibles, dont les coordonnées définissent un vecteur r, forment un continuum (espace continu). La probabilité pour que la particule soit, à l'instant t, dans un élément de volume d3r = dxdydz autour du point r(rx ; ry ; rz) est proportionnelle à d3r et infinitésimale : on la note dP(r, t). La densité de probabilité [28] correspondante est |(r, t)|² si l'on pose dP(r, t) = C|(r, t)|² d3r, où C est une constante de normalisation définie par : 1 | (r, t) |2 d 3 r C Ne pas confondre le nombre réel positif ou nul densité de probabilité |(r, t)|² et le nombre complexe amplitude de probabilité (r, t) : |(r, t)|² est le carré scalaire [127] de (r, t), produit de (r, t) par son complexe conjugué *(r, t). L'évolution dans le temps de l'état du corpuscule (notion qui se substitue à celle de trajectoire) est alors décrite par les solutions de l'équation de Schrödinger - solutions déterministes au sens traditionnel - et toute combinaison linéaire [29] de telles solutions correspondant à une distribution de probabilités. Nature de ces ondes Les ondes dont il s'agit ici ne sont pas des ondes électromagnétiques comme la lumière, ou des ondes de pression comme celles des sons, mais des ondes d'amplitude de probabilité de présence. Une telle onde ne décrit pas les variations d'un champ électrique ou d'une pression, elle décrit la manière dont une particule de matière en mouvement se déplace ; c'est une fonction du temps et de la position, nombre complexe avec son amplitude et sa phase par rapport à une origine. Nous devons accepter cette dualité corpuscule-onde de probabilité, avec ses conséquences déterministes qui la font apparaître tantôt comme de la matière, tantôt comme une onde, selon les circonstances expérimentales. Ce déterminisme dual, qui implique deux aspects très différents d'une même réalité, est loin du déterminisme traditionnel de la physique de Newton ; il nous faut pourtant l'admettre et accepter lorsque c'est nécessaire d'avoir deux représentations mentales de la réalité, avec des comportements distincts qui se complètent sans jamais se contredire. Cette dualité de représentations fait l'objet du principe de complémentarité. Remarque : un double modèle de la réalité existe aussi concernant la masse au repos m d'une quantité de matière et son énergie E, ces deux variables étant reliées par la célèbre équation d'Einstein E = mc2, équation qui décrit comment l'une des formes (par exemple la masse) se transforme en l'autre (ici l'énergie). 169 Conséquences de l'existence des ondes de probabilité de la fonction d'onde Ces ondes pénètrent des barrières de potentiel d'un champ de force comme un son pénètre un mur ; elles traversent la matière comme la force de gravitation. Exemple : un noyau atomique lourd peut subir une désintégration radioactive et se décomposer en un noyau plus léger et une particule alpha (noyau d'atome d'hélium comprenant deux protons et deux neutrons). Bien que la particule alpha n'ait pas assez d'énergie pour vaincre la barrière de force électrique entourant le noyau atomique lourd, sa nature ondulatoire fait qu'elle a une probabilité non nulle de passer à travers cette barrière et de s'éloigner du noyau, d'où la désintégration. La nature ondulatoire d'un électron ou d'un proton lui permet : D'être en plusieurs endroits à la fois, avec des probabilités précises fonction de l'endroit ; D'avoir une infinité de vitesses à la fois, proches d'une vitesse moyenne ; De parcourir une infinité de trajectoires à la fois, autour d'un parcours moyen. Etat quantique et information La Mécanique quantique postule à la fois le déterminisme scientifique et le déterminisme statistique. Des informations complètes sur un système (son état quantique) à un instant donné déterminent toute son évolution ultérieure (l'évolution de son état quantique) ; aucune histoire d'évolution n'est prise en compte. Si, au début de l'évolution d'un système, on dispose de toute l'information concernant ce système (pour autant de variables qu'il a de de degrés de liberté), on doit disposer de la même quantité d'information à la fin de l'évolution ; aucune perte d'information n'est concevable [304]. En outre, une particule peut se déplacer, mais à tout moment elle est quelque part : sa probabilité totale de présence dans l'espace reste égale à 1. Trajectoires d'un électron autour d'un noyau atomique : orbitales Les déplacements et les configurations stables de particules, prévues par la Mécanique quantique, résultent de l'équation de Schrödinger, que nous verrons un peu plus loin ; elles sont surprenantes. C'est ainsi que, loin de tourner autour d'un noyau atomique selon une trajectoire plane elliptique comme celle de la Terre autour du Soleil, un électron peut parcourir, selon son énergie, une région de l'espace (appelée orbitale) en forme de sphère, de paire de lobes, etc. (voir figure ci-dessous) et il faudra interpréter ces "orbites" à trois dimensions comme des régions de l'espace proche du noyau où chaque petit volume autour d'un point a une densité de probabilité de présence de l'électron [28]. Dans la figure ci-dessous, issue de [124], les surfaces en forme de sphère, à gauche, et de paire de lobes, à droite, représentent la partie de l'espace autour du noyau où un électron a une probabilité maximale de se trouver. 170 Orbitales électroniques en forme de sphère ou de lobes ("nucleus" désigne le noyau de l'atome) Dans le graphique ci-dessous, issu de [105] page 863, l'éloignement r du noyau (en abscisse) est exprimé en rapports r/r1, où r1 est le rayon théorique de "l'atome d'hydrogène de Bohr", r1 = 0.5 Å (où 1Å = 10-10m). La probabilité de trouver l'électron à l'intérieur d'une coquille sphérique de rayons r et r+dr est W(r)dr=4r²|(r)|²dr, où (r) est la fonction d'onde. On voit que : La probabilité de présence très près du noyau (où r tend vers 0) est non nulle pour chacune des trois couches électroniques ! Ceci ne se produit que lorsque le nombre quantique l de moment angulaire orbital [104] vaut l=0. La couche de niveau d'énergie n=1 a une distance de densité de probabilité [28] maximum. La couche de niveau n=2, supérieur de 10.2 électronvolts (eV) au niveau d'énergie de la couche 1, en a deux. La couche n=3, de niveau 12.1 eV, en a trois. Densité radiale de probabilité de présence de l'électron W(r)=4r²|(r)|² dans les couches n=1, 2 ou 3 pour un atome d'hydrogène 171 On voit à quel point les "trajectoires" tridimensionnelles réelles de l'électron sont éloignées du modèle "planétaire" plan. En fait, le mot trajectoire ne s'applique pas du tout à la rotation d'un électron autour de son noyau ; il vaut mieux parler de position floue par superposition ou de région de présence. Enfin, le "diamètre" même d'un atome varie avec son énergie, et si on pouvait le voir à un instant donné avec ses électrons l'image serait floue. 3.5.7.3.5 Théorie de la résonance chimique Certaines molécules chimiques comme le benzène C6H6 ont plusieurs structures possibles où les atomes de carbone sont reliés, entre eux et à des atomes d'hydrogène, par des liaisons de valence partageant des électrons. On démontre en Mécanique quantique que la structure stable (état stationnaire) d'une telle molécule, correspondant à l'énergie potentielle la plus faible, a une fonction d'onde combinaison linéaire des diverses fonctions d'onde des structures possibles. On peut considérer que la structure stable de la molécule oscille en résonance entre les diverses structures équiprobables de base. Nous verrons cela en détail avec l'équation de Schrödinger. 3.5.7.3.6 Conséquences pour le déterminisme A l'échelle atomique, le déterminisme naturel peut donc produire plusieurs conséquences simultanées (dites "en superposition") à partir d'une même cause, alors que le jet d'un dé peut produire une valeur parmi 6 seulement. Il nous faut accepter cette forme étendue de déterminisme même si elle nous paraît intuitivement déroutante. Si nous acceptons qu'une fonction de la forme y = ax2 + bx + c, modèle de la composante verticale de la trajectoire d'un boulet de canon, puisse avoir deux solutions (positions où le boulet est à une certaine hauteur) et non une, pourquoi n'accepterions-nous pas que l'équation d'évolution de Schrödinger en ait aussi plus d'une ? Mesurée à un instant donné, la valeur d'une variable de l'état résultant est choisie parmi celles d'une distribution statistique de valeurs prévues par la Mécanique quantique, l'ensemble des valeurs propres [278] de l'opérateur représentant la variable. Le hasard n'est pas, dans le cas d'une mesure, le résultat d'une connaissance insuffisante de ce qui se passe. C'est la manière de la nature de choisir statistiquement un résultat dans un ensemble prévu par la théorie, résultat muni d'une probabilité calculable d'être trouvé si l'on refait une même expérience un grand nombre de fois. Nous l'avons déjà vu en analysant la notion de hasard. Notons bien que la valeur de chaque résultat de mesure possible n'est pas due au hasard, c'est une valeur précise appartenant à un ensemble bien défini ; c'est le choix entre les divers résultats possibles lors d'une mesure qui est fait au hasard comme dans toute distribution statistique. Résultat d'une mesure En physique quantique, le résultat d'une mesure est un ensemble connu avant la mesure, et le choix par la nature d'un élément de cet ensemble résulte du hasard statistique (3ème et 4ème postulats de la Mécanique quantique). Il faut donc considérer ce choix au hasard lors d'une mesure comme une évolution particulière de la nature, évolution dont le résultat n'est prédictible qu'au niveau de l'ensemble, pas à celui de l'élément choisi, tout comme l'ordre de décomposition radioactive des 172 atomes d'un échantillon d'uranium 238. Ce sont là des cas où la nature refuse de satisfaire notre volonté de prédire de manière unique l'élément choisi. Certains comportements déterministes de la nature, comme les positions superposées d'un corpuscule en mouvement et les choix aléatoires parmi les valeurs précises d'un ensemble, impliquent de l'imprédictibilité. Le déterminisme naturel n'est donc pas incompatible avec des cas bien définis de comportement aléatoire, imprécis ou imprédictible ; le déterminisme étendu en tient compte. Le choix au hasard d'une valeur, discrète ou continue, par la nature (c'est-à-dire d'un élément particulier d'un ensemble prédéterminé de solutions d'un modèle mathématique) se produit dans un cas et un seul : en physique quantique, lors du passage du niveau atomique au niveau macroscopique, phénomène d'évolution physique dit « de décohérence », rencontré lors d'une mesure (où le dispositif de mesure interagit avec le système mesuré) ou de l'interaction du système en superposition à l'échelle atomique avec son environnement macroscopique. Je ne connais pas d'autre cas où le hasard intervient dans une évolution naturelle. Et comme la Mécanique quantique prévoit la probabilité de chaque choix de valeur par la nature, on en a fait le 4ème postulat de la Mécanique quantique. Comme les autres postulats de la Mécanique quantique, celui-ci a été vérifié d'innombrables fois depuis des décennies et n'a jamais été contredit. Chaîne et arborescence de causalité Compte tenu de l'existence possible à l'échelle atomique de multiples conséquences d'une cause donnée, on doit donc décrire l'évolution possible en termes d'arborescence de causalité plutôt que de chaîne de causalité. Chaque état du système est représenté par un nœud de l'arborescence qui peut être suivi de plusieurs branches conséquences, voire d'une infinité. L'évolution effective d'un système, dont on suit une variable (scalaire [126] ou vectorielle [127]) à l'échelle macroscopique, est donc décrite par la suite unique des nœuds-états atteints dans l'arborescence des évolutions possibles, suite qui représente la chaîne effective de causalité. Position floue plutôt qu'aléatoire - Interprétation de la décohérence Nous verrons au paragraphe suivant que l'équation fondamentale de la Mécanique quantique, l'équation de Schrödinger, ne prédit pas de position aléatoire, mais des positions superposées floues associées à des paquets d'ondes de probabilité. C'est la mesure d'une variable qui introduit un choix aléatoire, et plus précisément le passage de l'échelle atomique à l'échelle macroscopique avec son échange irréversible d'énergie : on dit alors qu'il y a décohérence, avec réduction de la fonction d'onde. 173 Nous ne savons pas aujourd'hui pourquoi ce changement d'échelle provoque le choix d'un élément de l'ensemble des valeurs possibles, ni pourquoi ce choix est aléatoire. [91] suppose qu'il existe une influence non prise en compte par la Mécanique quantique, probablement due à la gravitation et à la Relativité ; de son côté, la théorie de Hugh Everett, mathématiquement inattaquable, exclut la décohérence en introduisant un basculement de l'Univers qui conserve la fonction d'onde. Irréversibilité du passage de l'échelle atomique à l'échelle macroscopique La transition entre l'échelle atomique et l'échelle macroscopique introduit une évolution régie par un déterminisme particulier, d'un type nouveau inconnu du déterminisme classique, la décohérence. C'est une évolution irréversible qui se produit dès qu'une mesure, ou l'interaction du système atomique avec son environnement macroscopique, a perturbé le résultat ensembliste. Cette évolution a un résultat non calculable ; on suppose qu'il le restera tant qu'il n'existe pas de théorie relativiste de la physique quantique [325], basée sur une interaction gravitationnelle quantifiée [18]. Nous avons vu plus haut que la décohérence est le seul cas où le hasard statistique intervient dans une évolution naturelle ; et ce cas disparaît en admettant la théorie de Hugh Everett. (Voir en fin de texte la table résumant les cas d'imprédictibilité.) 3.5.7.4 Equation fondamentale de la Mécanique quantique (Schrödinger) L'équation fondamentale qui décrit l'évolution dans le temps du vecteur d'état (ket |(t)> en notation de Dirac) d'un objet quantique en fonction de l'observable [30] H(t), opérateur associé à l'énergie totale du système (son hamiltonien), est l'équation différentielle de Schrödinger. Elle s'écrit : iä d/dt|(t)> = H(t)|(t)> où i2=-1 et ä est un quantum de spin [22] qui vaut ä = 1.0542 .10-34 joule.seconde (ä = h/2 où h est la constante de Planck). Cette équation décrit une évolution invariante par une symétrie temporelle qui change le sens du temps. Elle est du premier ordre par rapport au temps t et complètement déterministe : les mêmes conditions initiales produisent le même ensemble de solutions, c'est-à-dire la même évolution dans le temps et l'espace. L'équation de Schrödinger décrit donc une évolution déterministe. Cette équation de description de l'évolution temporelle et spatiale d'un corpuscule en Mécanique quantique joue le même rôle que les équations du mouvement qui déterminent une trajectoire en mécanique classique, équations elles aussi déterministes et symétriques par rapport au temps. Mais un résultat de l'équation de Schrödinger est un vecteur d'état |(t)> fonction du temps, d'où on peut déduire la densité de probabilité [28] de présence de l'objet en chaque point de l'espace à chaque instant t. Ce n'est pas une trajectoire, et à un instant donné l'objet n'est pas en un point précis mais en tous les points à la fois d'un voisinage de ce point, où la probabilité de 174 le trouver est maximale et diminue avec l'éloignement ; et l'instant suivant, son mouvement l'emportera un peu plus loin. Contrairement, donc, aux interprétations erronées que l'on trouve ici et là sur ses résultats, l'équation de Schrödinger est parfaitement déterministe. Mais ses solutions qui s'appliquent à un déplacement ne décrivent pas une trajectoire de particule, elles décrivent l'évolution de son vecteur d'état en fonction du temps, dont on peut déduire à tout instant donné une position nécessairement floue de probabilité maximum. Combinaison linéaire d'états, superposition et imprécision Le caractère linéaire de l'équation de Schrödinger fait que toute combinaison linéaire [29] de ses vecteurs solutions (associés à des fonctions d'onde) est aussi une solution, à condition que sa probabilité de présence dans l'espace tout entier soit 1. Il en résulte : La possibilité pour un état quantique d'être la somme (cas particulier d'une combinaison linéaire) de deux états ou plus. Exemple : l'état d'un électron qui serait à deux endroits à la fois. On dit qu'un tel état est une superposition d'états. La possibilité pour une fonction d'onde d'être combinaison linéaire d'une infinité de fonctions d'onde dont la superposition définit un paquet d'ondes de probabilité accompagnant une particule en mouvement. La position de cette particule à un instant donné a alors un caractère flou ; imprécise, elle ne peut être définie à mieux qu'une demi-largeur près du paquet d'ondes qui l'accompagne. Combinaison linéaire d'une infinité de fonctions d'onde (superposition) Une solution de l'équation de Schrödinger combinaison linéaire d'un nombre infini de fonctions d'onde, où le coefficient (« poids ») de chaque fonction est tel que la probabilité de présence dans l'espace entier est 1, peut se traduire par l'interprétation suivante, due à Feynman : pour aller d'un point A à un point B, un corpuscule emprunte simultanément toutes les trajectoires possibles entre ces deux points, chaque trajectoire étant affectée d'une probabilité correspondant à son poids dans la combinaison linéaire : on dit qu'il y a superposition des trajectoires-solutions [275]. Une combinaison linéaire d'un nombre infini de fonctions d'onde permet aussi de passer des états de position d'une particule à ses états d'impulsion, ou inversement [125]. Cette possibilité purement mathématique de deux descriptions différentes traduit l'unicité de la réalité physique : ces deux types d'états d'une particule sont conséquences des mêmes lois de mouvement et de la même énergie totale ; ce sont donc des formulations de la même fonction d'onde (r, t) dans deux bases différentes d'espaces vectoriels de fonctions. Un postulat fondamental L'équation de Schrödinger fait partie des postulats de la Mécanique quantique. 3.5.7.4.1 Impossibilité de décrire des phénomènes sans symétrie temporelle La Mécanique quantique remplace les trajectoires exactes de la mécanique classique par des zones de présence floues sans renoncer à la symétrie temporelle. Cette symétrie entraîne une limitation lourde de conséquences : basée sur l'équation fondamentale de Schrödinger ci-dessus et la symétrie CPT, la Mécanique quantique, est inadaptée à la description de phénomènes où le temps ne peut aller que du présent vers le futur, notamment ceux qui sont irréversibles. 175 Pourtant, ces phénomènes sont nombreux à l'échelle de la physique quantique. Exemples : Désintégration spontanée de particules par radioactivité, où une particule désintégrée ne peut spontanément se recomposer ; Désexcitation d'un atome qui revient à son état d'énergie fondamental en émettant un photon [117], et qui ne peut de lui-même s'exciter de nouveau pour revenir à l'état précédent ; Mesure d'un résultat, qui interfère nécessairement avec le système mesuré, nous l'avons déjà signalé : toute mesure de physique quantique entraîne une irréversibilité. Il y a là un problème que la physique quantique a donc été obligée de prendre en compte en dépassant l'équation fondamentale de Schrödinger. Nous dirons plus bas quelques mots sur l'irréversibilité au sens Mécanique quantique et au sens thermodynamique. Insistons sur un point : l'équation de Schrödinger décrit l'évolution dans le temps et l'espace d'un système tant que celle-ci est réversible. Elle ne décrit pas l'évolution irréversible qu'est la décohérence, qui transforme une superposition d'états en un état unique choisi parmi les valeurs propres [278] de l'observable du dispositif. Ce choix d'état unique est fait statistiquement, la Mécanique quantique prévoyant la fréquence d'apparition de chaque valeur possible. 3.5.7.4.2 Inadaptation à la gravitation et à son espace courbe relativiste La Mécanique quantique suppose aussi un espace plat [109], donc l'absence d'effet gravitationnel de courbure de l'espace, résultant de la présence d'une masse selon la Relativité Générale. Les efforts des scientifiques depuis les années 1930 pour développer une physique à la fois quantique et relativiste n'ont abouti qu'à des progrès modestes. Il est possible, comme le suggère [91] pages 475 et suivantes, que la décohérence choix aléatoire d'un état parmi tous ceux qui existent simultanément en superposition - provienne de l'influence perturbatrice de la gravitation, avec sa courbure d'espace ; la gravitation est la seule des 4 forces fondamentales [18] à pouvoir agir sur l'état quantique cohérent lorsqu'on passe de l'échelle atomique à l'échelle macroscopique. Cette possibilité est vraisemblable au vu des conclusions de l'expérience de décohérence faite au laboratoire LKB de l'Ecole Normale Supérieure, mais nous n'avons pas encore de théorie unifiant la Mécanique quantique et la Relativité (voir le paragraphe "Validité des lois de la Mécanique quantique à l'échelle macroscopique"). 3.5.7.5 Etats finaux d'un système macroscopique La possibilité que l'état initial d'un système ait pour conséquences possibles après évolution plusieurs états finaux, équiprobables ou non, existe même à l'échelle macroscopique dans des situations particulières. C'est ainsi que lors de l'écoulement turbulent d'un fluide (écoulement dont le vecteur vitesse en un point critique peut subir des variations irrégulières de direction et de grandeur), un point caractéristique P de son espace des phases peut évoluer vers n'importe lequel des points P1, P2, P3, etc. : on dit qu'il y a « diffusion » dans l'espace des phases. 176 La diffusion est un phénomène chaotique faisant passer, à chaque transformation, un système d'un état initial avant un point critique de bifurcation à un état final après bifurcation choisi parmi plusieurs états finaux plus ou moins dispersés. Ce phénomène est irréversible et augmente l'entropie du système [25]. Parfois, après une certaine évolution de ce type, la présence du point représentatif de l'état du système est beaucoup plus probable au voisinage de certains points de l'espace des phases appelés « attracteurs », points vers lesquels l'évolution converge. A l'évidence, l'existence et le caractère chaotique du phénomène de diffusion à l'échelle macroscopique, ainsi que la convergence de son état vers un point attracteur choisi parmi plusieurs, nous obligent à étendre le déterminisme même en dehors de l'échelle atomique lors du franchissement d'un point de bifurcation (et seulement dans ce cas) : un état initial avant bifurcation peut avoir pour conséquences possibles après bifurcation un ensemble d'états finaux, dont un seul se réalisera à l'issue de chaque transformation ; une transformation peut être chaotique et/ou irréversible. (Nous reviendrons plus bas sur l'irréversibilité.) 3.5.8 2e extension du déterminisme : superpositions et décohérence Dans l'exposé précédent, l'état d'un système était "choisi" par une mesure entre plusieurs états possibles, chacun assorti d'une probabilité (ou d'une densité de probabilité) qui décrit une fréquence d'apparition lorsqu'on multiplie les mesures ; ces états s'excluaient mutuellement. Une expérience donnée ne produisait donc qu'un résultat mesuré unique, même si celui-ci faisait partie d'un ensemble de résultats possibles. Exemple : à un instant donné, la mesure d'énergie d'un atome donnait une valeur unique, choisie par l'appareil de mesure (macroscopique) parmi l'ensemble des valeurs prévues par la Mécanique quantique (valeurs propres [278] de l'opérateur représentant le dispositif de mesure). Le choix étant imprévisible, même s'il a lieu avec une probabilité prédéterminée dans un ensemble prédéterminé, on dit que cette évolution de la nature relève d'un déterminisme statistique, qu'il faut se garder de confondre avec un hasard pur où le résultat serait n'importe quoi. Dans ce cas-là, en physique quantique, une évolution déterministe produit un résultat reproductible qui est un ensemble. Il est indispensable que le choix du résultat unique d'une mesure soit limité à des valeurs de l'ensemble qui ne contredisent pas une loi de la physique, comme la conservation de l'énergie ou du moment cinétique du début à la fin de l'expérience. 3.5.8.1 Superposition d'états et décohérence Mais ce choix de résultat n'est pas nécessairement instantané : il peut arriver qu'un certain nombre d'états de l'ensemble coexistent pendant un certain temps, avant que l'un d'eux soit choisi par une interaction avec l'environnement macroscopique telle qu'une mesure et perdure. Les états qui coexistent temporairement sont alors appelés « états cohérents » ou « états superposés ». 177 Une mesure est une transcription à l'échelle macroscopique (la position d'une aiguille...) de l'état d'un système quantique [1] ; c'est une opération de choix qui en retient un seul à l'échelle macroscopique, une évolution particulière appelée décohérence. Tant que la décohérence n'a pas eu lieu, l'état qu'elle choisirait n'existe que virtuellement et on ne peut le connaître. (Rappelons-nous qu'on peut aussi interpréter la multiplicité d'états superposés comme le fait qu'un état de départ a pour conséquences un ensemble d'évolutions, chacune terminée au bout d'un certain temps par un état unique, dont celui choisi par la nature lors de la décohérence (voir l'expérience du laboratoire LKB.) C'est ainsi qu'à un instant donné : Une molécule peut se trouver simultanément dans plusieurs états d'énergies différentes ; son état quantique global (unique, par définition) est une superposition d'états. Un photon peut se trouver dans deux états de polarisation opposés. Un électron peut se trouver simultanément en deux endroits différents, ou même dans l'infinité d'endroits de son paquet d'ondes. Le "chat de Schrödinger" pourrait être à la fois mort et vivant, dans ces deux états superposés, si l'interaction avec leur environnement ne limitait pas si fortement la durée de vie superposée de systèmes macroscopiques, où l'état visible unique a été choisi statistiquement. La fonction d'onde d'une superposition d'états quantiques est une combinaison linéaire des fonctions d'onde de chacun des états quantiques composants. Une superposition d'états quantiques formant un état quantique unique est analogue à la superposition des sons émis par plusieurs cordes de piano vibrant simultanément pour produire un son unique. Lorsqu'une mesure d'une superposition produit une décohérence donnant un résultat unique, les probabilités des divers résultats possibles dépendent des proportions relatives avant décohérence des divers états quantiques superposés, proportions prédites par la Mécanique quantique sous forme de probabilités. Il n'y a pas d'équivalent macroscopique d'un état global superposition de plusieurs états cohérents, car sa durée serait trop faible pour être observée. La superposition d'états est un exemple de plus de réalité naturelle qui défie notre intuition, et nous devons étendre la définition du déterminisme pour la prendre en compte. 3.5.8.2 Superposition de trajectoires Nous avons déjà vu dans l'expérience précédente des « fentes de Young », réalisée avec des atomes au lieu de photons [117], un exemple de parcours de deux trajectoires en même temps : un atome parcourt en fait simultanément deux chemins dans l'appareil, entre source et détection, passant par les deux fentes à la fois comme le ferait une onde lumineuse. Comme il est impossible d'observer la figure d'interférence et en même temps de savoir par quelle fente un atome donné est passé (en vertu du principe de complémentarité), il faut considérer que dans cette expérience 178 l'atome s'est comporté comme une onde de probabilité passant par les deux fentes à la fois, pas comme un corpuscule matériel obligé de passer par une seule des fentes. 3.5.8.3 Conclusions sur la superposition d'états ou de trajectoires Il faut nous faire violence pour accepter la vérité physique représentée par la superposition d'états ou de trajectoires, notre intuition marquée par le déterminisme traditionnel ne parvenant pas à imaginer comment un atome peut être en plusieurs endroits à la fois ou parcourir deux trajectoires différentes en même temps, surtout si elles ont des points distants de plusieurs milliers de diamètres atomiques ! (La difficulté pour la compréhension intuitive humaine vient de la représentation d'un corpuscule en mouvement par des ondes de probabilité, qui passent par deux fentes à la fois aussi facilement que les ondes électromagnétiques. Elle vient aussi de notre difficulté d'accepter qu'une cause soit suivie de multiples conséquences (évolutions) simultanées, superposées en combinaison linéaire d'états, et qui restent distinctes jusqu'à la décohérence.) Cette pluralité expérimentale est d'autant plus difficile à accepter que toute mise en évidence expérimentale des chemins parcourus par un atome n'en trouve qu'un seul, du fait de la décohérence qui se produit automatiquement lors de cette mise en évidence au passage de l'échelle microscopique à l'échelle macroscopique. Il a fallu aux chercheurs du laboratoire LKB de l'Ecole Normale Supérieure beaucoup de génie pour réaliser l'expérience célèbre qui prouve la superposition et observe la décohérence au bout d'un certain temps [1] - [10]. La décohérence est d'autant plus rapide que : le système observé est plus grand, donc soumis à davantage d'interactions (par échange de photons et/ou de chaleur) avec le milieu environnant ; la distance énergétique entre les états cohérents est plus grande, produisant une plus grande instabilité de la superposition d'états. En pratique, la durée de cohérence (durée d'une superposition avant décohérence) peut aller d'une fraction de seconde si courte qu'elle n'est pas mesurable à un certain nombre de minutes, voire plus. Un système peut être dans un état superposition de plusieurs états quantiques même s'il a des milliards d'atomes, même si sa température atteint des centaines de degrés [365]. Nous sommes donc conduits à compléter le déterminisme par la possibilité d'existence d'un état global d'un système qui combine (superpose) un certain nombre d'états de base avant que l'échange d'énergie avec l'environnement en choisisse un au hasard au bout d'un certain temps. L'état unique choisi après décohérence a donc plusieurs prédécesseurs ayant coexisté en superposition, une situation considérée comme impossible par le déterminisme et la physique traditionnels ! Après une décohérence, nous devons considérer la superposition d'états qui l'a précédée comme un état global unique, combinaison linéaire [29] d'états élémentaires superposés dont l'un est devenu permanent. En utilisant la description par fonctions d'ondes, en superposition d'états la fonction d'onde d'un système est une 179 combinaison linéaire de vecteurs propres i [278], alors qu'après décohérence la fonction d'onde est réduite à celui de ses vecteurs propres qui a été choisi au hasard, k. La transformation d'un système par décohérence produit donc une « réduction de sa fonction d'onde ». En somme, l'évolution d'un système à l'échelle atomique est celle d'une superposition d'états régie par l'équation de Schrödinger tant qu'il n'y a pas eu échange d'énergie avec l'environnement (notamment par mesure), puis par sa fonction d'onde réduite à un vecteur d'état choisi au hasard, après : toute mesure détruit la superposition et change l'état du système d'une manière qui n'est prévisible qu'en probabilité. Dérangeant, non ? Irréversibilité La décohérence est un processus irréversible : après le choix au hasard d'un état final unique k par décohérence, on ne peut revenir en arrière et reconstituer l'état superposé . On ne peut même pas "passer le film des événements à l'envers" comme dans un phénomène à symétrie temporelle, car il n'y a pas d'équation de décohérence où on pourrait changer la variable t en -t. En fait, une décohérence n'est pas à proprement parler une évolution régie par une loi physique décrite par l'équation de Schrödinger. C'est pourquoi Hugh Everett a proposé de la considérer comme un choix d'un Univers parmi l'ensemble de ceux qui étaient superposés avant la décohérence, un basculement qui emporte l'expérimentateur qui ne constate que l'existence de l'unique état après évolution qu'il contient ; l'équation de Schrödinger s'applique alors jusqu'au bout. Unicité philosophique de la chaîne de causalité en remontant le temps Plus généralement, il faut remplacer le postulat d'unicité de la chaîne de causalité du déterminisme philosophique [200] dans le sens qui remonte le temps par la certitude que toute situation a une cause au moins. En général on ne peut pas reconstituer le passé en pensée en remontant une chaîne de prédécesseurs uniques d'un état. Exemple : si après une addition nous avons comme résultat le nombre 8, avant l'addition la paire de nombres ajoutés pouvait être (1+7), ou (2+6), etc. A un état final d'un système peuvent correspondre plusieurs prédécesseurs. A l'échelle atomique (et seulement à cette échelle-là) l'état précédent peut avoir été une superposition d'états cohérents. 3.5.8.4 Déterminisme arborescent à univers parallèles de Hugh Everett III Pour éliminer l'embarrassante question sur l'absence de mécanisme physique et de loi expliquant et décrivant la décohérence et le résultat aléatoire que produit sa réduction, le physicien américain Hugh Everett a posé en 1957 un postulat radical : La fonction d'onde est irréductible. 180 Pour lui il n'y a jamais de décohérence, puisque l'évolution d'un système est toujours déterministe, toujours unitaire et régie par la même équation de Schrödinger, qu'il y ait une mesure ou non. [323] Everett a proposé une fonction d'onde universelle, représentant un système à la fois aux échelles atomique et macroscopique. Cette fonction d'onde intègre toujours des variables de mesure macroscopique d'une expérience en plus des variables microscopiques. Un résultat macroscopique donné est toujours possible dès le début d'une évolution décrite par l'équation de Schrödinger, avec une probabilité connue. Lorsqu'un observateur en constate un en particulier, c'est qu'il a évolué avec le reste du système de la façon qui le fait constater la valeur qu'il lui trouve. Pour Everett, donc, il faut considérer l'ensemble du système expérimental - y compris un éventuel appareil de mesure et l'homme qui observe le résultat - comme un tout, un univers décrit par une fonction d'onde universelle. La mesure fait passer sans décohérence de l'état superposé de ce système à l'état macroscopique, par une évolution régie par l'équation de Schrödinger du départ. Tout se passe comme si l'expérience transformait l'Univers unique du début en une superposition comprenant autant d'univers qu'il y a de résultats possibles, chacun avec son expérience et son expérimentateur. En vertu de l'équation de Schrödinger tout ce qui peut arriver arrive ! Lors de la mesure d'un système à l'état superposé, chaque expérimentateur (toujours dans un état unique) suit son système dans une branche de l'arborescence des possibilités d'évolution superposées créées par l'expérience à partir du nœud de l'état avant mesure. Pour lui, le déterminisme de l'équation de Schrödinger a fait évoluer l'univers tout entier – appareil de mesure et lui-même inclus – vers l'état correspondant à la valeur propre qu'il mesure. Les autres univers (système et observateur) existent désormais en même temps, en superposition. Mais ils sont invisibles pour lui, qui ne peut voir que l'univers dans lequel il vit et fait son expérience depuis le début : chaque observateur croit toujours être unique, la même équation de Schrödinger n'ayant jamais cessé de s'appliquer pour décrire l'évolution du système ; il n'y a plus de décohérence à expliquer, plus de hasard. Bien entendu, ce déterminisme arborescent régit toutes les transformations dont les lois ont des solutions multiples, avec ou sans observateur ou dispositif de mesure. Il contredit l'interprétation classique de la physique quantique (dite « interprétation de Copenhague » parce qu'elle était proposée par le Danois Niels Bohr), interprétation selon laquelle les solutions et prédictions de la Mécanique quantique ne s'appliquent pas au domaine macroscopique. Mathématiquement irréfutable, l'élégante interprétation d'Everett est acceptée de nos jours par certains physiciens. Elle est ignorée par les autres, qui ne l'aiment pas bien qu'ils ne puissent prouver qu'elle est fausse ; ils se contentent de dire qu'une mesure réduit la fonction d'onde du système par décohérence, et que le croire ne les empêche pas de faire des calculs justes. Avec cette interprétation : La célèbre expérience de pensée du chat de Schrödinger crée simultanément deux chats, l'un mort et l'autre vivant ; et selon l'Univers où l'observateur a basculé, il voit le chat mort ou vivant sans avoir pu prédire le résultat. 181 L'expérience du comportement non séparable de deux photons intriqués ne prouve plus la non-séparabilité : quel que soit l'Univers où on a basculé lors de l'émission simultanée des deux photons dont les états quantiques sont superposés, la mesure donne toujours un résultat cohérent, sans qu'il soit nécessaire d'envisager une transmission d'information ou une non-séparabilité. Le caractère surprenant de la valeur de tant de constantes de l'Univers, qui semblent choisies « juste comme il faut » pour que l'homme ait pu naître, n'a plus rien de surprenant, le choix faisant partie des choix possibles. L'étonnement des idéalistes partisans du principe anthropique n'a donc plus de raison d'être. L'objection de la dualité onde-particule invisible à l'échelle macroscopique L'équation de Schrödinger prévoit que la superposition des résultats d'une évolution a tantôt un aspect particule, tantôt un aspect onde. L'aspect onde produit des interférences ; il permet par exemple à une particule de passer par deux fentes à la fois et à un objet d'être en plusieurs endroits à la fois. De son côté, l'équation universelle d'évolution de Hugh Everett, qui s'applique aux objets macroscopiques comme aux particules, prévoit qu'un objet macroscopique peut parfois avoir un comportement ondulatoire, existant par exemple en deux endroits à la fois ou sujet à des interférences. Or on a eu beau faire soigneusement des expériences, on n'a jamais pu mettre en évidence un tel comportement ; voici pourquoi. Représentation de la fonction d'onde généralisée par une matrice de densité On peut représenter une fonction d'onde généralisée par une matrice de densité ([68] page 436), tableau qui regroupe les informations de la fonction d'onde et celles d'une connaissance de ses résultats mesurés (ce que l'on sait, en probabilité). Cette matrice est régie par une équation fondamentale de la Mécanique quantique, équivalente à celle de Schrödinger mais formulée par Born, Heisenberg et Jordan. Son élément ligne i colonne j appelé ρij, se calcule à partir du nombre complexe i associé à la valeur propre i de la fonction d'onde par ρij = ij* où j* est le conjugué de j. Ainsi, par exemple : Les deux valeurs propres équiprobables de la fonction d'onde auront des probabilités de 0.5 situées sur la diagonale principale d'une matrice 2x2. 0.5 0.5 L'incertitude sur la connaissance de ces valeurs propres est représentée par les deux nombres de l'autre diagonale, par exemple deux fois 0 s'il n'y a pas d'incertitude (connaissance certaine). Il y a eu alors décohérence et une des valeurs propres est mesurée avec certitude, mais nous ne savons pas laquelle. 0.5 0 0 0.5 182 Si ces deux dernières probabilités sont aussi égales à 0.5, le système est dans un état de superposition ; nous ne savons pas laquelle des valeurs propres serait choisie lors d'une décohérence, et quelle serait sa valeur scalaire. 0.5 0.5 0.5 0.5 Exemple : mesure utilisant le spin d'un électron polarisé Si par exemple le résultat macroscopique de l'expérience est donné par la mesure du spin [22] d'un électron parfaitement polarisé, celle-ci tiendra compte de la décohérence éventuelle et nous pourrions savoir qu'il y a ou non superposition. Mais si l'électron est non-polarisé ou s'il y a trop d'électrons pour une mesure de polarisation, le spin est dans un état indéterminé et nous ne pouvons conclure sur la superposition (valeurs propres multiples ou valeur propre isolée). C'est ce genre de difficulté qui gêne dans la mise en évidence d'un éventuel état superposé d'un objet macroscopique que nous voyons : nous en recevons trop de photons à la fois, des milliards de milliards donnant une image unique qui nous paraît nette : les autres images sont atténuées par la décohérence avant que nous puissions les voir. Et si nous mesurons la polarisation d'un électron que nous avons omis de polariser dans l'expérience, celle-ci ne pourra évidemment pas conclure. Il y a même une difficulté supplémentaire. Une mesure effectuée à l'aide d'une particule (comme un photon ou un électron) ne pouvant être plus précise que la demilargeur de son paquet d'ondes, il restera toujours une incertitude sur la possibilité de distinguer entre états superposés et non-superposés, en même temps qu'une probabilité non-nulle de trouver chacune des valeurs propres, comme dans l'effet tunnel. L'interprétation par univers parallèles de Hugh Everett est donc utilisable. Voir aussi [324]. Pourquoi notre cerveau ne nous permet de voir des objets qu'après décohérence Sources : [136]-Tegmark et [325] Lorsque notre œil reçoit des images provenant d'un objet macroscopique, le nerf optique et divers neurones transmettent ces images à l'inconscient [353] du cerveau. Celui-ci les analyse et ne les passe à la conscience que s'il les juge suffisamment prometteuses ou menaçantes, et nous ne les percevons que dans ce cas-là et après ce traitement cérébral [339]. Ce processus comprend un certain nombre de transmissions d'informations entre neurones, en passant par leurs axones (émetteurs) et dendrites (récepteurs). Comme le nerf optique, un neurone soumet une éventuelle superposition quantique à une décohérence, car il ne peut transmettre à travers un axone qu'une seule information à la fois et qu'il est un objet macroscopique interférant avec l'échelle atomique ; en outre, cette décohérence se produit avant l'évaluation par la barrière de conscience et infiniment plus vite qu'elle [1]. La transmission d'une région du cerveau à une autre par 183 plusieurs neurones en parallèle ne change rien à la décohérence, qui survient toujours avant l'évaluation par la barrière de conscience. Conclusion : lorsque nous sommes conscients de voir un objet nous n'en voyons qu'une seule image, même si l'objet est à l'état de superposition. 3.5.9 3.5.9.1 3e extension du déterminisme : quantification et principe d'incertitude Quantification des niveaux d'énergie et des échanges d'énergie L'étude des spectres d'émission et d'absorption de rayonnements électromagnétiques des divers types d'atomes a mis en évidence un fait inexplicable avec les lois à variation continue d'énergie de la physique traditionnelle : ces spectres sont constitués de raies fines. L'interprétation de cette finesse est la suivante : un atome d'un type donné n'émet ou n'absorbe que des photons de certaines fréquences - donc certaines énergies et longueurs d'onde - bien déterminées. L'énergie potentielle d'un atome est donc quantifiée : elle ne peut prendre que certaines valeurs discrètes. Chaque absorption ou émission d'un photon [117] de fréquence par un atome fait varier l'énergie de celui-ci de la valeur exacte h, où h est une constante universelle appelée "constante de Planck" ou "quantum d'action" et valant h = 6.6261 .10-34 joule.seconde. 3.5.9.2 Les trois constantes les plus fondamentales de l'Univers On mesure une grandeur en la comparant à une unité. Il y a des constantes de l'Univers qui constituent des unités fondamentales, qu'il est judicieux de poser a priori pour en faire dépendre d'autres unités. En voici trois : La constante de Planck, h = 6.6261 .10-34 joule.seconde, dont on utilise aussi une valeur dérivée appelée ä ("h barre") : ä = h/2 = 1.05 .10-34 joule.seconde. La vitesse de la lumière dans le vide, c = 299 792 458 m/s (un peu moins de 300 000 km/s). C'est là une valeur exacte, une unité internationale. La constante universelle de gravitation G = 6.67.10-11 Nm2/kg2 (voir [110]) Il y en a plusieurs dizaines d'autres, comme la charge électrique de l'électron e = 1.602 .10-19 coulomb. Voir aussi Distance, temps, densité et masse de Planck. 3.5.9.3 Position et vitesse d'une particule Nous avons vu ci-dessus à propos de la trajectoire d'un corpuscule qu'en Mécanique quantique la position et la vitesse d'un corpuscule à un instant donné doivent être interprétées avec une certaine probabilité dans un volume donné autour d'une position de probabilité maximum. De ce fait : Les descriptions des états initial et final ont une précision limitée : elles sont entachées d'incertitude, les positions et les vitesses sont approximatives. 3.5.9.4 Paquet d'ondes et étalement dans le temps 3.5.9.4.1 Description d'un paquet d'ondes de probabilité Une autre caractéristique des solutions de l'équation de Schrödinger est encore plus déroutante : l'étalement dans le temps des paquets d'ondes de probabilité. La position d'une particule matérielle qui se déplace conformément à l'équation de Schrödinger est décrite par un paquet d'ondes, superposition d'un ensemble d'ondes d'amplitude 184 de probabilité. Ces ondes sont souvent planes et monochromatiques, de fréquences et phases différentes ; leurs amplitudes s'ajoutent en donnant une probabilité maximum de présence de la particule au centre du paquet, et une probabilité s'annulant rapidement dès que l'on s'éloigne du centre. C'est ainsi qu'un paquet d'ondes de probabilité à une dimension se déplaçant dans la direction des x croissants de l'axe Ox a une équation de la forme : ( x, t ) 1 2 f (k )e i ( kx t ) dk où : (x, t) est un nombre complexe donnant l'amplitude et la phase d'une onde de probabilité de la particule au voisinage de la position x à l'instant t ; à chaque valeur de k entre - et + correspond une onde du paquet ; est la pulsation (fréquence multipliée par 2), reliée à k, à la masse m de la particule et à la constante ä = h/2 par la relation : k 2 2m t est l'instant considéré ; f(k) est la fonction d'amplitude qui détermine la distribution des amplitudes des diverses ondes composantes du paquet en fonction de la variable k ; le rapport /k est appelé v, vitesse de phase de l'onde correspondant à k, égale à c dans le vide mais égale à c/n(k) dans un milieu dispersif dont l'indice vaut n(k). L'amplitude du paquet d'ondes à un instant t donné est représentée par le graphique ci-dessous, qui montre que la probabilité n'est significative que dans un petit intervalle Δx et diminue puis s'annule rapidement en dehors. Amplitude du paquet d'ondes à l'instant t d'une particule se déplaçant à la vitesse v 185 En somme, un paquet d'ondes accompagne une particule qui se déplace, et c'est parce que ce paquet d'ondes a une largeur approximative Δx non nulle que la position de la particule à un instant donné ne peut être définie avec une précision meilleure qu'une demi-largeur de paquet autour de son centre, et que la particule apparaîtrait floue si on pouvait la voir. 3.5.9.4.2 Etalement du paquet d'ondes de position d'une particule La vitesse de déplacement de la particule et de son paquet d'ondes, v, vaut 2 fois la vitesse de phase v de l'onde dont le maximum est au centre du paquet. Le temps passant, les ondes de probabilité se rattrapent et se chevauchent, et le paquet d'ondes s'étale tout en se déplaçant. Le graphique ci-dessous illustre cet étalement, en montrant que t secondes après l'instant initial t=0 sa densité de probabilité [28] maximum |(x)|2 a diminué et sa largeur Δx a augmenté. Densité de probabilité maximum |(x)|2 aux instants 0 et t d'un paquet d'ondes La conséquence de cet étalement est qu'après un calcul de position qui a donné un résultat x à l'instant t (à l'incertitude Δx près), l'incertitude sur la position de la particule en déplacement augmente. En quelque sorte, l'image de la particule devient rapidement encore plus floue. En Mécanique quantique la précision de position en mouvement après une estimation se dégrade rapidement, contrairement à la physique classique. Mais (surprise !) cette dégradation n'existe pas pour la quantité de mouvement Δp [20] d'une particule : l'étalement du paquet d'ondes de quantité de mouvement à l'instant d'une évaluation reste le même après cette évaluation : Δp(t=0) = Δp(t>0) 186 Cela se comprend facilement si l'on se souvient qu'une particule libre (c'est-à-dire qui n'est pas accélérée par un changement de potentiel) a une quantité de mouvement constante. 3.5.9.4.3 Cas d'une onde de photon Nous venons de voir l'étalement du paquet d'ondes accompagnant une particule de masse non nulle, c'est-à-dire un corpuscule. Pour un photon, de masse toujours nulle [117], les choses sont un peu différentes. L'onde électromagnétique du photon dure le temps que met un atome (ou une molécule) à l'émettre en passant d'un niveau d'énergie à un niveau inférieur. La vitesse de cette onde et du photon est la vitesse de la lumière, c. Si on connaît l'émetteur (atome ou molécule), on connaît ses divers niveaux d'énergie, la fréquence du photon, et la longueur de l'onde émise (celle de sa suite d'alternances) c. L'incertitude sur la fréquence du photon et sa longueur d'onde = c/ proviennent des incertitudes sur les différences entre deux niveaux d'énergie de l'émetteur. L'incertitude Δx sur la position du photon est égale à sa longueur d'onde, et l'incertitude sur son impulsion s'en déduit en appliquant le principe d'incertitude de Heisenberg (voir ci-dessous). Il n'y a pas d'étalement dans le temps. Si on fait passer de la lumière monochromatique à travers une fente qu'on ouvre pendant un court instant puis qu'on referme, il y a une incertitude sur la durée d'ouverture de la fente, donc une incertitude sur la longueur du train d'ondes lumineuses qui l'a franchie (voir ci-dessous). 3.5.9.5 Incertitude sur la détermination simultanée de 2 variables (Heisenberg) La Mécanique quantique impose une limite inattendue sur les précisions de la position et de l'impulsion [20] d'un système en évolution comme le mouvement d'une particule lorsqu'on les mesure simultanément : le produit des incertitudes (exactement : des indéterminations) sur la position Δx et l'impulsion Δp doit être toujours supérieur à un minimum de l'ordre de ½ä (prononcer "h barre"), où h 2 h est une constante universelle appelée "constante de Planck" ou "quantum d'action" et valant h = 6.6261 .10-34 joule.seconde ; donc ä = 1.05 .10-34 joule.seconde et ½ä = 0.527 .10-34 joule.seconde. L'inégalité traduisant ce produit minimum s'écrit : Δx . Δp ½ä (a) La contrainte décrite par l'inégalité (a) est le « principe d'incertitude de Heisenberg », découvert en 1927. Voici sa signification : plus le volume considéré autour d'une position de particule en mouvement est petit (plus cette position est déterminée avec précision) et plus l'incertitude sur l'impulsion (ou la quantité de mouvement pour un corpuscule pesant, donc sa vitesse) en ce point est grande, et réciproquement. Lorsque la particule a une masse, l'incertitude sur l'impulsion est en fait une incertitude sur sa quantité de mouvement [20], c'est-à-dire sur sa vitesse si sa masse est constante comme la Mécanique quantique le suppose. 187 Exemple 1 : un atome de fer ayant un rayon de 1.26 angström (1Å = 10-10 m), supposons que l'imprécision sur la position d'un électron soit du même ordre, soit Δx = 1Å. L'incertitude sur la quantité de mouvement de l'électron est alors d'au moins ½ä/Δx = 0.53 .10-24 kg.m/s ; et puisque la masse au repos de l'électron est 0.9 .10-30kg, l'incertitude sur sa vitesse est 0.6 106 m/s, c'est-à-dire 600 km/s ! Par contre, si l'on accepte une incertitude de 1mm sur la position, l'incertitude sur la vitesse tombe à 6 cm/s. Exemple 2 : les incertitudes sur la position et l'impulsion d'un objet de taille macroscopique sont insignifiantes. Un grain de poussière de diamètre 1 m = 10-6 m, pesant environ m = 10-15 kg et se déplaçant à la vitesse de 1 mm/s, dont on mesure la position avec une précision extrême de 0.01 m a une incertitude sur son impulsion de Δp = mΔv = 0.5 .10-26 kg.m/s, c'est-à-dire une incertitude sur sa vitesse de 0.5 .10-8 mm/s : La précision sur la vitesse est meilleure qu'un cent-millionième de mm/s. Lorsque la particule mesurée n'a pas de masse, comme c'est le cas pour un photon [117], il n'y a pas d'incertitude sur sa vitesse - toujours égale à c - mais il y a incertitude sur sa position du fait de sa longueur d'onde. Pour augmenter la précision d'une mesure de position utilisant un rayonnement électromagnétique il faut donc diminuer sa longueur d'onde, c'est-à-dire accroître son énergie. L'incertitude sur deux mesures simultanées doit être comprise axe par axe. C'est ainsi que la composante selon l'axe Oz de l'impulsion, p z, peut être mesurée en même temps que la composante selon l'axe Ox de la position, x, sans que la limitation Δx . Δpz ½ä intervienne. Ne pas confondre l'incertitude due au principe de Heisenberg, qui porte sur des estimations simultanées de la position et de la vitesse, avec la dégradation de la précision de positionnement d'une particule en mouvement due à l'étalement de son paquet d'ondes avec le temps qui passe. Le principe d'incertitude exprime une forme d'incompatibilité entre précisions des déterminations simultanées de la position et de l'impulsion, incompatibilité qui existe aussi pour un autre couple de variables, l'énergie ΔE et la durée Δt : ΔE . Δt ½ä (b) L'inégalité (b) peut être interprétée comme une instabilité de l'énergie, une nonreproductibilité d'expériences mesurant une énergie répétées trop peu de temps l'une après l'autre : si on fait l'expérience "2" longtemps après l'expérience "1", Δt est grand et ΔE peut être très petit, la reproductibilité peut être excellente ; mais plus tôt on réalise l'expérience "2" après l'expérience "1", plus ΔE pourra être grand, ce qui dégradera la reproductibilité. Le manque de reproductibilité est dû à une instabilité naturelle, des fluctuations traduisant un refus de précision et de stabilité de la nature. L'inégalité (b) peut aussi être interprétée comme l'impossibilité de mesurer avec précision l'énergie d'un phénomène extrêmement bref, ou l'impossibilité de dater avec précision l'échange d'une très faible quantité d'énergie. Exemple : lorsqu'un atome perd une énergie ΔE par l'émission d'un photon, la durée de cette transition et de 188 l'émission du photon ne peut être déterminée avec une imprécision meilleure que ä/2ΔE. Enfin, le principe d'incertitude joue aussi pour la position angulaire α et le moment cinétique L en imposant que Δα . ΔL ½ä. 3.5.9.6 Remarques sur l'incertitude et l'imprécision En toute rigueur mathématique le principe d'incertitude de Heisenberg décrit une relation entre les largeurs des spectres de valeurs propres [278] de deux opérateurs qui ne commutent pas (opérateurs de position et d'impulsion, d'énergie et de durée, etc.), largeurs qui ne sont pas à proprement parler des incertitudes. Il y a aussi une incertitude sur la position d'un corpuscule conséquence de la largeur du paquet d'ondes accompagnant le déplacement d'une masse non nulle. Il y a également une incertitude due au fait que, souvent, une particule n'est pas ponctuelle et n'a pas de dimension précise, bien qu'elle soit tout à fait réelle et porteuse d'énergie, tant pis si ce caractère flou défie notre intuition ! C'est ainsi que dans l'expérience des fentes de Young réalisée avec des atomes, un même atome sort des deux fentes avec deux distributions de probabilité de présence, chacune munie de points de probabilité maximum, et les probabilités de ces distributions vont s'ajouter en amplitude et en phase sur l'écran en produisant des franges d'interférences. L'atome aura bien emprunté deux chemins distincts en même temps, avec deux ondes de probabilité se propageant chacune avec son amplitude et sa phase, d'où les interférences lors de leur rencontre. Cette existence de deux parcours simultanés est une forme de superposition de résultats, nous l'avons déjà signalé. Mais l'habitude d'appeler « incertitude » une largeur de paquet d'ondes est devenue une véritable tradition, qui fait oublier à certains que toutes les valeurs d'amplitude d'un intervalle d'incertitude n'ont pas la même probabilité. Quelle que soit l'interprétation, la conséquence de ces deux types d'incertitude (la largeur du paquet d'ondes et le principe d'incertitude de Heisenberg) sur le déterminisme demeure : la précision de nombreuses déterminations est limitée, inutile d'espérer des progrès techniques ! Mais attention : précision limitée ne signifie pas inexistence de la particule, ou indéterminisme au sens « conséquence imprévisible d'une cause ». Ce n'est pas parce qu'un voltmètre a une précision de 0.5 % que la différence de potentiel réelle qu'il mesure n'existe pas, ou qu'elle est une conséquence non déterministe des paramètres du circuit : elle existe avec une valeur probabiliste, de probabilité maximale au milieu d'un intervalle dont la largeur est 0.5 % de la tension maximale mesurable ; nous aurions préféré que cette valeur soit précise avec une infinité de décimales, mais la réalité se moque de nos préférences. Voir aussi plus bas : "Exemple : portée des forces et masse des particules". L'imprécision : Limite la précision d'une mesure, dont la valeur réelle existe mais est définie dans un intervalle au lieu d'être exacte. En langage statistique, l'intervalle est de 189 type « intervalle de confiance » et signifie, par exemple, que la valeur réelle a une probabilité de 95 % d'être entre ses bornes, et une probabilité faible mais non nulle d'être à l'extérieur aussi loin que l'on voudra. Limite notre aptitude à prévoir le résultat exact d'une mesure, donc la conséquence précise d'une évolution. Et après une mesure de position d'une particule de masse non nulle en mouvement, (mesure qui a la précision qu'elle peut), la valeur prédite « s'étale » jusqu'à la prochaine mesure, si on en fait une. Cette imprécision est un phénomène naturel incontournable, qui nous oblige donc à revoir notre conception du déterminisme : une évolution ne peut toujours être prévue avec une précision infinie. Ce phénomène est dû au rapport étroit qui existe, à l'échelle atomique, entre un corpuscule en mouvement et le paquet d'ondes qui l'accompagne. Nous verrons aussi, plus bas, que pour des valeurs extrêmement petites de la longueur ou du temps (longueur et temps de Planck) nos lois physiques ne s'appliquent plus. 3.5.9.6.1 Origine physique de l'incertitude de Heisenberg lors d'une mesure Dans certaines circonstances de physique atomique il y a des variables qui sont instables : leur valeur peut changer d'une mesure à l'autre sans cause autre que le temps qui passe ; dans ces cas-là, le postulat de causalité ne s'applique pas. Exemple : l'énergie potentielle en un point quelconque de l'espace (d'un atome, d'une galaxie…) peut fluctuer autour d'une valeur moyenne par « emprunts de courte durée » d'énergie potentielle à l'espace environnant. A l'échelle atomique, l'incertitude de Heisenberg interdisant de mesurer avec précision la valeur d'une variable lorsqu'on mesure précisément celle d'une autre, et que les deux variables font partie d'un couple « incompatible » (couple d'observables dont les opérateurs associés ne commutent pas), est due à la brutalité d'une mesure, opération physique irréversible qui fait passer de l'échelle atomique à l'échelle macroscopique. Cette brutalité entraîne une perte d'information sur l'état quantique du système atomique, perte qui est à l'origine de l'incertitude. Exemple : une tentative de mesurer avec précision la vitesse d'un électron en mouvement à l'aide de photons suffisamment énergétiques pour que cette mesure soit précise déplace l'électron de manière assez brutale et imprévisible pour perturber gravement une mesure de sa position. Des détails sur ce phénomène sont fournis par l'analyse de l'effet Compton. Mais l'incertitude énergétique due aux fluctuations quantiques n'est pas mesurable, on ne la connaît que par calcul, et les particules qu'elle crée pendant un court instant sont considérées comme virtuelles. 3.5.9.7 Incertitude contextuelle L'incertitude de Heisenberg concerne des couples d'observables A et B mesurées simultanément, observables « incompatibles » en ce sens qu'elles ne commutent pas (l'observable produit AB n'est pas égal à l'observable produit BA, ce qu'on écrit [A,B]0). Mais voici une autre condition d'incompatibilité, dite « contextuelle », découverte par Simon Kochen et Ernst Specker en 1967 [43]. 190 Considérons trois grandeurs, A, B et C, telles que les observables de B et C commutent avec celle de A ([A,B]=0 et [A,C]=0) mais pas entre elles ([B,C]0). D'après le principe d'incertitude, une mesure de A étant compatible avec une mesure simultanée de B ou de C, on s'attend à ce que la valeur propre [278] trouvée pour A soit la même en présence de B ou en présence de C. Or le théorème de KochenSpecker montre que ce n'est pas le cas : à chaque mesure, la valeur propre trouvée pour A dépend de la totalité du système, et notamment des autres grandeurs mesurées : on dit qu'une mesure de physique quantique est toujours contextuelle. A la différence de l'incertitude de Heisenberg, il ne s'agit pas ici d'une indétermination, d'une précision limitée. Il s'agit du choix d'une valeur propre dans l'ensemble des valeurs propres possibles, choix qui peut dépendre d'autres variables du système, variables de Mécanique quantique mais jamais variables « cachées ». Le caractère contextuel de la Mécanique quantique est un argument supplémentaire contre l'existence de valeurs de variables indépendamment de toute mesure, comme en physique macroscopique. On ne peut donc pas, en physique quantique, affirmer qu'une variable a une valeur indépendamment de tout système de mesure. Malgré tout, il existe des propriétés de physique quantique indépendantes des mesures, comme les formes, dimensions et niveaux d'énergie des orbitales électroniques d'un atome donné. 3.5.9.8 Incertitude due à l'effet Compton Une autre conséquence des ondes de matière découvertes par Louis de Broglie est l'effet Compton, qui en fut la première preuve expérimentale en 1923. Un rayonnement électromagnétique de haute énergie (rayon X ou gamma) interagit avec la matière qu'il atteint de trois façons : En provoquant la création d'une paire particule-antiparticule électron-positon ; (on dit aussi positron au lieu de positon) ; En extrayant des électrons d'atomes de la matière par effet photoélectrique ; Par diffusion élastique des photons par des électrons libres ou à faible énergie de liaison, diffusion appelée effet Compton. Lorsqu'un photon incident de longueur d'onde rencontre un électron, il produit un photon diffusé de longueur d'onde ' et l'électron recule dans une direction qui fait un angle avec celle du photon incident. L'impulsion et l'énergie du photon incident se trouvent partagées entre le photon diffusé et l'électron de recul. En appelant me la masse de l'électron, la relation de l'effet Compton est : ' h (1 cos ) mec où le terme h/mec est appelé longueur d'onde de Compton de l'électron. La longueur d'onde de Compton d'une particule de masse m est celle pour laquelle l'énergie des photons est égale à l'énergie au repos de la particule, mc2. 191 La relation de l'effet Compton montre que la position ou la dimension d'une particule de masse m ne peuvent être définies à mieux que sa longueur d'onde de Compton près. [134] Cette forme d'incertitude est négligeable en physique macroscopique. 3.5.9.9 Mesures, incertitude et objectivité 3.5.9.9.1 Toute mesure de physique quantique modifie la valeur mesurée En physique quantique, toute expérience réalisée avec un appareil à l'échelle macroscopique modifie le système microscopique qu'elle manipule ; elle détruit son état initial, devenant de ce fait irréversible. On ne peut pas, par exemple, mesurer ou simplement observer le passage d'un photon sans le détruire ; la seule manière de le prendre en compte dans une expérience est de lui faire céder son énergie, toute son énergie h car elle est quantifiée, c'est-à-dire indivisible [117]. On peut quand même absorber le photon en excitant un atome puis le recréer lorsque celui-ci se désexcite ; mais il faut alors prendre en compte le temps nécessaire à ce processus, qui peut introduire une incertitude sur l'état du photon [21]. On peut également, en utilisant l'énergie d'un champ auxiliaire, faire que la rencontre d'un photon et d'un atome provoque le changement de niveau énergétique de celui-ci sans absorption du photon [174]. En physique quantique on ne peut même pas copier un état quantique tout en laissant l'état d'origine inchangé, comme on copie un fichier en informatique ou une page dans un photocopieur : voir ci-dessous. 3.5.9.9.2 Mesure souhaitée et mesure effectuée : exemple Soit à déterminer expérimentalement la direction d'un mouvement dans un plan, détermination qui exige de repérer cette direction par l'angle qu'elle fait avec un des axes orthogonaux constituant notre repère. Supposons, pour fixer les idées, qu'il s'agit de déterminer le vecteur unitaire up qui décrit la direction de polarisation d'une onde lumineuse plane monochromatique, c'est-à-dire de connaître les composantes de ce vecteur par rapport aux axes du repère Ox et Oy. Pour déterminer la direction du vecteur up, nous disposons d'un analyseur de polarisation, appareil qui a deux directions privilégiées dont nous appellerons les vecteurs de longueur unité ux et uy. Cet analyseur transmet les polarisations parallèles à ux et absorbe les polarisations parallèles à uy. Derrière l'analyseur il y a une cellule photoélectrique qui nous informe sur les photons qui l'ont franchi. (Rappel : ou un photon franchit l'analyseur, ou il est absorbé, il n'y a pas de photon partiellement transmis, nous venons de le voir.) Nous supposerons que tous les photons à analyser ont exactement la même direction de polarisation up, par exemple parce que nous leur avons fait franchir un polariseur (la réflexion sur un simple miroir incliné, par exemple) avant l'analyseur. 192 x ux up Direction de propagation uy y Si nous envoyons les photons polarisés un par un vers l'analyseur, certains photons le traverseront et d'autres seront absorbés. A moins que tous les photons soient transmis (ce qui prouverait que up = ux), ou que tous soient absorbés (ce qui prouverait que up = uy), l'expérience ne nous permet pas de savoir quels angles up fait avec ux et uy. D'où une première conclusion : Un appareil ne mesure que ce qu'il a été fait pour mesurer, pas ce que nous souhaiterions mesurer. Dans l'exemple précédent, l'analyseur mesure dans deux directions privilégiées et elles seules. Les résultats donnés par l'appareil sont les valeurs propres [278] de son observable, conformément au 3e postulat de la Mécanique quantique ; avec un analyseur comme le précédent il y en a deux, associées à ses vecteurs propres ux et uy. Plus précisément, l'analyseur ne mesure que dans la seule direction ux, pour laquelle il ne fournit qu'une réponse de type binaire : OUI si un photon a été transmis, NON dans le cas contraire ; dans la direction uy il ne fournit que des NON. Il est donc impossible de déterminer la direction de polarisation d'un photon avec un analyseur en s'y prenant comme nous venons de le faire. La conclusion ci-dessus - impossibilité de mesurer la direction de polarisation d'un photon - est vraie pour beaucoup d'autres grandeurs de physique quantique ; exemple : la direction d'un vecteur spin [22]. On ne peut souvent déterminer qu'une réponse de type binaire pour une valeur testée (comme la direction ux), et encore en perturbant la grandeur mesurée. Et on ne peut pas connaître la valeur avant la mesure, c'est-à-dire en l'absence de mesure : à part le cas particulier où l'état du système correspond déjà à une valeur propre avant toute mesure, on ne peut pas, en physique quantique, supposer qu'un résultat mesuré existe avant sa mesure ; c'est cette mesure qui crée le résultat, en choisissant une valeur propre ! 3.5.9.9.3 Copie d'un état quantique. Clonage par copie moléculaire Des physiciens astucieux ont eu l'idée de copier un état quantique, en reproduisant la particule ou le système d'origine à l'identique. Ils voulaient ainsi disposer d'une copie, 193 voire d'un grand nombre de copies identiques, pour pouvoir effectuer les mesures à loisir. Mais cette idée est vouée à l'échec : à l'échelle atomique (celle de la physique quantique) toute copie implique une action sur l'objet copié, donc un échange d'énergie, donc une perturbation, exactement comme une mesure. Et une mesure donne une certitude sur l'état après elle, pas sur l'état avant, où elle n'avait pas encore perturbé l'objet. En physique quantique on ne peut donc copier l'état quantique d'un système ou une particule sans le (la) détruire ou en modifier l'énergie. Impossibilité du clonage par copie de structure moléculaire et de la téléportation Il résulte de ce qui précède que le clonage par copie exacte de structure moléculaire envisagé dans [96] est impossible, donc que la « téléportation » imaginée par les auteurs de science-fiction l'est aussi. Mais cette impossibilité théorique peut être contournée, toujours en théorie, grâce à l'effet Einstein-Podolsky-Rosen [368]. 3.5.9.9.4 Mesure grâce à un grand nombre de particules La loi d'optique expérimentale de Malus nous apprend que si on envoie à l'entrée de l'analyseur ci-dessus un très grand nombre de photons par seconde représentant une intensité lumineuse i, l'intensité transmise à la sortie sera icos², où est l'angle de up avec ux, c'est-à-dire qu'on aura up = uxcos + uysin (figure ci-dessus). Ce comportement est dû à la nature d'une onde plane, qui se comporte comme la résultante de deux vibrations dans des plans perpendiculaires. Une onde plane d'amplitude A se décompose ainsi en deux ondes de même fréquence et d'amplitudes respectives Acos et Asin. Et comme l'intensité d'un rayonnement est proportionnelle au carré de son amplitude, les intensités mesurées dans deux directions perpendiculaires seront proportionnelles respectivement à cos² et sin². L'intensité étant proportionnelle au nombre de photons par seconde, la probabilité que des photons traversent l'analyseur est proportionnelle à cos². Le vecteur d'état up cherché est combinaison linéaire des vecteurs de base ux et uy de l'analyseur. La probabilité qu'un des photons incidents franchisse l'analyseur est donc proportionnelle au carré de cos, et la probabilité qu'il soit arrêté est proportionnelle au carré de sin. D'où les conclusions : Avec une mesure unique (un photon) nous ne pouvons pas connaître la polarisation avant la mesure, et après la mesure elle ne peut être que ux ou uy : l'analyseur a perturbé la mesure sans pour autant nous fournir le résultat souhaité. Avec un très grand nombre de mesures (le rayonnement lumineux analysé durant un certain temps), nous pouvons estimer les probabilités des divers résultats de mesure, qui seront les carrés des composantes du vecteur cherché up par rapport aux vecteurs de base ux et uy. 3.5.9.9.5 Conclusions sur la réalité objective et la réalité mesurable en physique quantique La réalité objective d'un système, c'est-à-dire indépendante de toute mesure et de tout observateur, existe bien avant une mesure : par définition c'est son état, 194 repéré par un point ou un vecteur de l'espace des états ; elle peut être, par exemple, une superposition d'états. Le problème est que cette réalité nous est inaccessible, puisque sans mesure on ne la connaît pas et avec une mesure on la perturbe en la mesurant ! La réalité ne nous est accessible qu'à travers une mesure, qui la perturbe tout en donnant un résultat certain... mais choisi avec une certaine probabilité parmi les valeurs propres de l'observable [278] mesurée par l'expérience. Et après une mesure, la réalité d'avant n'existe plus. Il faut même, parfois, un grand nombre de mesures pour estimer des probabilités pour les coefficients des vecteurs de base. A l'échelle atomique, l'inaccessibilité de la réalité objective autrement que par un modèle mathématique (qui la prédit à partir de postulats, et qu'on estime conforme du fait de la précision de ses prédictions et de l'absence d'expériences qui la réfuteraient) fait affirmer à des gens qui ont mal compris la physique quantique que cette réalité objective n'existe pas, nous en verrons un exemple ci-dessous. Leur raisonnement implicite est que la réalité physique est limitée à ce qui est perceptible. Pourtant ces personnes, qui ne voient pas les électrons, croient à leur existence après avoir touché les fils nus d'une prise de courant ! Et comme ils aggravent parfois leur cas en interprétant le principe d'incertitude de Heisenberg comme une preuve de non-existence de la réalité - autre preuve de leur ignorance - nous allons voir quelques détails complémentaires de ce principe. 3.5.9.9.6 Contraintes de non-indépendance de variables La contrainte de non-indépendance de certaines variables par rapport à d'autres formant avec elle un couple de variables dites complémentaires, comme l'énergie ΔE et la durée Δt ci-dessus, est une particularité de la physique quantique susceptible d'en perturber les mesures : nous avons vu que le produit d'incertitudes ΔE.Δt des variables d'un tel couple, lorsqu'on les mesure simultanément, est au moins égal à ½ä. Exemple de non-indépendance : portée des forces et masse des particules Voici un exemple d'impact de la non-indépendance de certaines variables complémentaires formant un couple d'observables qui ne commutent pas, conformément au principe d'incertitude de Heisenberg : l'existence d'une portée maximale des forces résultant des interactions [18]. Comme nous le verrons un peu plus loin, les interactions sont quantifiées, c'est-à-dire matérialisées par des échanges de particules ayant une énergie E qui équivaut d'après la Relativité Restreinte à une certaine masse m : E = mc2. Considérons donc une particule porteuse d'une force d'interaction et ayant une masse m. Cette particule va être émise et se propagera pendant un temps court Δt avant d'être absorbée et de céder son énergie ΔE = mc2 correspondant à sa masse m. Or le principe d'incertitude démontre que l'énergie d'un phénomène qui a une durée Δt ne peut être définie à mieux que ä/(2ΔE) = ä/(2mc2) près. Comme la particule se déplacera à une vitesse nécessairement inférieure à celle de la lumière, c, la distance maximale qu'elle pourra atteindre est d = cΔt = ä/(2mc) : c'est l'ordre de grandeur de la portée de la force correspondant à la particule d'interaction. 195 Si la particule a une masse nulle, comme un photon, la distance d peut être infinie : c'est pourquoi la portée de l'interaction électromagnétique est infinie. La force de gravitation ayant aussi une portée infinie, si comme les trois autres forces [18] elle est due à une particule, celle-ci a nécessairement une masse nulle. Si la particule a une masse non nulle, la portée de l'interaction correspondante est de l'ordre de ä/(2mc). C'est ainsi que pour la particule appelée méson , dont la masse est 0.24 .10-27 kg, la portée est de l'ordre de 0.7 .10-15 m, (environ 1 fermi), voisine du diamètre d'un noyau atomique, environ 100 000 fois plus petit que celui de l'atome. La notion de portée d'une force apparaît et s'explique en Mécanique quantique ; elle n'a pas d'équivalent en physique classique, où l'effet du principe d'incertitude est négligeable. Il faut donc, là aussi, enrichir notre définition du déterminisme. Voici la portée approximative des 4 forces fondamentales [18] en fermi (fm), où 1 fm = 10-15m : Interaction faible : 2 .10-3 fm ; Interaction forte : 1 fm ; La force de gravitation est beaucoup plus faible que la force électromagnétique ; exemple : entre deux protons, la force de gravitation est environ 10 36 fois plus faible que la force électrostatique de Coulomb [341] ; mais la portée de ces deux forces est infinie. Voir le schéma du Modèle standard [59]. 3.5.9.9.7 Objectivité des mesures En physique macroscopique une loi déterministe permet des prévisions de résultat indépendantes de l'expérience, donc aussi objectives et indépendantes de l'observateur. Par contre, selon certains non-physiciens, une mesure de physique quantique est nécessairement perturbée par l'interprétation de l'expérimentateur, ce qui l'empêche d'être objective. Nous allons d'abord voir la différence entre mesures actives et mesures passives, puis développer le sujet de l'objectivité. Mesures actives J'appelle mesure active une mesure dont le dispositif expérimental échange nécessairement de l'énergie avec l'objet ou le phénomène mesuré ; c'est le cas, par exemple, de toutes les mesures de physique quantique. Une telle mesure ne peut pas ne pas perturber son résultat, même si c'est souvent de manière négligeable en physique macroscopique ; et la perturbation causée est toujours irréversible. Exemple : si je mesure au laser la distance de la Terre à la Lune, en émettant un faisceau laser de la Terre qui se réfléchit sur un réflecteur posé sur la Lune, puis en calculant la distance à partir du temps mis par la lumière à faire l'aller-retour, un non-physicien croit que j'effectue une mesure qui ne perturbe pas la distance Terre-Lune, contrairement à une mesure de physique quantique. Pourtant, en toute rigueur, la mesure au laser produit une impulsion [20] lumineuse qui exerce une poussée sur le réflecteur lunaire, modifiant ainsi la distance mesurée. L'erreur 196 ainsi introduite est si minime qu'il n'est pas question d'en tenir compte quantitativement, mais elle existe. Autre exemple : une mesure de tension au voltmètre perturbe la tension mesurée du fait de la petite consommation de courant du voltmètre, dont l'aptitude à peu perturber se mesure en ohms par volt ; un voltmètre à 20 000 ohms/volt est plus perturbateur qu'un voltmètre à 100 000 ohms/volt. Mesures passives J'appelle mesure passive une mesure qui n'échange pas d'énergie avec l'objet ou le phénomène mesuré. Si je mesure la hauteur d'une étoile au-dessus de l'horizon grâce à la lumière que j'en reçois, je ne perturbe pas ma mesure par un échange d'énergie ; de même si je mesure la largeur d'un livre en la comparant à la graduation d'une règle posée à côté. Objectivité d'une mesure - Les erreurs de certains non-physiciens Lorsque des non-physiciens considèrent que la perturbation introduite par une mesure en physique quantique en perturbe aussi l'objectivité, ils se trompent. Le résultat d'une telle mesure est une valeur propre de l'observable mesurée [278], valeur qui dépend de l'expérience mais pas de l'expérimentateur. Mais un non-physicien ne sait pas ce qu'est une valeur propre d'opérateur auto-adjoint associé à une quantité mesurable… Certains non-physiciens - notamment certains philosophes – considèrent à tort qu'une mesure ne perturbe ce qu'elle mesure que si elle est mal organisée. Et lorsqu'ils apprennent qu'en physique quantique toute mesure perturbe la grandeur mesurée, certaines personnes qui ont mal compris la physique quantique en déduisent qu'à cette échelle-là il n'existe pas de réalité objective, mais seulement des cas particuliers de réalité associés à un contexte où l'homme qui mesure intervient nécessairement par ses représentations mentales de la réalité. 3.5.9.9.8 La « mathématicophobie » et l'ignorance Beaucoup de personnes sont intimidées par les sciences à base de mathématiques comme la physique et l'astronomie. Elles sont victimes d'une pédagogie déficiente, pas d'une incapacité pour une intelligence normale à assimiler des outils mathématiques, incapacité qui n'existe pas plus que l'incapacité à maîtriser l'orthographe. L'impossibilité de décrire une réalité en soi à l'échelle atomique à partir de concepts issus de nos sens adaptés à l'échelle macroscopique, et l'obligation de la décrire à l'aide des mathématiques de la Mécanique quantique paraît à certains un vice rédhibitoire de la méthode scientifique. Cette attitude est puérile, car elle postule l'obligation de faire découler toute représentation du monde de concepts issus de nos sens. Et comme nos sens ne peuvent percevoir ni les sons trop aigus ou trop graves, ni les ondes électromagnétiques hors du spectre visible (longueur d'onde 0.4 à 0.7 μm), ni bien d'autres phénomènes, refuser toute représentation abstraite non basée sur nos sens est absurde. Décrire quelque chose exige d'en construire une représentation abstraite, et rien n'impose de limiter les abstractions à celles issues directement de nos sens ; celles issues de concepts a priori de l'entendement comme les outils mathématiques conviennent tout aussi bien sinon mieux, car ils sont moins ambigus. 197 Polémique Je constate que je n'ai rencontré de personnes qui contestent l'existence d'une réalité en soi (comme la matière) que parmi les philosophes comme l'immatérialiste Nietzsche [205]. Ces personnes tentent de justifier les intuitions de leur doctrine (voir discussion sur l'objectivité et la subjectivité). En niant l'existence d'une réalité en soi, ces philosophes veulent réfuter le déterminisme, pour faire triompher la croyance en une intervention transcendante de l'esprit dans tout ou partie des phénomènes physiques ; leur combat est idéologique. C'est pourquoi, dans le débat [61], le philosophe matérialiste André Comte-Sponville a répondu à l'un d'entre eux : "Vous avez écrit 500 pages pour enfoncer une porte ouverte : montrer que la croyance en Dieu est toujours possible. Mais qui le nie ? Vous ne verrez aucun philosophe sérieux affirmer qu'il est impossible de croire en Dieu ! D'un point de vue logique et métaphysique [371], chacun sait depuis longtemps - lisez Kant ou Hume, Pascal ou Montaigne - que la croyance en Dieu est possible, que nous ne pouvons prouver ni son existence ni son inexistence !" Certains idéalistes invoquent "l'interprétation de Bohr" pour nier que la physique quantique soit une représentation de la réalité. En 1927, Bohr avait conseillé aux physiciens qui n'arrivaient pas à croire au modèle contre-intuitif de la Mécanique quantique de faire confiance à ses mathématiques (équation de Schrödinger, etc.) pour faire des calculs et des prédictions justes dans chaque expérience, sans essayer d'interpréter ses résultats comme une description de la réalité perceptible. Cette réalité existe bien objectivement, mais chaque expérience en est un cas particulier où la mesure accessible à l'homme intervient par passage irréversible à l'échelle macroscopique qui ne fournit qu'un résultat après mesure, pas avant. 80 ans après la prise de position de Bohr, le consensus des scientifiques sur les modèles mathématiques de la Mécanique quantique est le suivant : Ces modèles représentent bien - et en totalité - la réalité physique. Ils en décrivent tout ce qu'on peut savoir, les postulats qui l'affirment n'ayant jamais été réfutés mais ayant été confirmés un nombre immense de fois. Ces modèles et les résultats des mesures sont objectifs, c'est-à-dire indépendants de l'observateur et de ce que son esprit comprend ou non. Nous devons admettre qu'à l'échelle atomique la réalité a pour représentation des équations produisant des fonctions d'onde probabilistes, et des opérateurs autoadjoints appelés "observables" avec leurs valeurs propres [278]. Ces notions ne sont pas issues des sens ; et c'est parce que notre esprit doit se faire violence en admettant des représentations si abstraites que Bohr conseillait de ne pas perdre de temps à s'en faire des représentations mentales, mais d'accepter les prévisions calculées, y compris avec les limitations de précision dues aux incertitudes. 3.5.9.10 Quantification des interactions et conséquences sur le déterminisme L'existence du quantum d'action h révèle une propriété fondamentale de toute interaction : pour qu'une source influence physiquement une cible (action mécanique, électrique, échange thermique, rayonnement, etc.) elle doit émettre un nombre entier de quanta d'interaction qui se propageront jusqu'à cette cible. Par exemple l'influence d'un champ électromagnétique échange des quanta d'interaction appelés photons [117] ; cette influence est un rayonnement. La propagation se fait à une vitesse qui ne 198 peut dépasser celle de la lumière dans le vide, appelée c, et valant exactement (par définition, car c'est une unité fondamentale) c = 299 792.458 km/s. Il y a 4 types d'interaction physique [18]. Exemple : tout échange d'énergie par rayonnement électromagnétique (par exemple lorsqu'un corps chaud se refroidit en émettant un rayonnement) met en jeu un nombre entier de photons. L'énergie d'un photon de fréquence est exactement égale à h, et l'échange d'énergie par rayonnement de fréquence ne peut se faire que par quantités discontinues multiples de h. Voir aussi le paragraphe "Nécessité d'une interaction avec échange d'énergie". 3.5.9.10.1 Différence entre quantification et imprécision Le caractère discontinu d'un échange d'énergie électromagnétique, qui pour chaque fréquence échange une quantité d'énergie multiple de h, introduit une impossibilité d'échanger certaines quantités non multiples de h. Il ne faut pas confondre cette impossibilité, qui rend discrète la variable énergie, avec une imprécision qui empêcherait de préciser sa valeur. Voici un exemple de différence entre une variable discrète (ici l'énergie d'un rayonnement électromagnétique) et une variable continue à valeur imprécise (ici une position dans l'espace). Une source lumineuse monochromatique de fréquence rayonne chaque seconde une quantité d'énergie sous forme d'ondes électromagnétiques, quantité discontinue multiple entier du quantum h. Mais la position d'un électron en mouvement sous l'action d'un champ électrique est une grandeur continue, dont la détermination à un instant donné est entachée d'une incertitude au moins égale à la plus grande des deux largeurs suivantes : La demi-largeur du paquet d'ondes accompagnant le déplacement de l'électron, qui rend sa position imprécise ; L'existence d'une longueur d'onde de Compton associée à la masse de l'électron [134], longueur qui détermine une précision maximale de taille ou de position. 3.5.9.10.2 Echanges quantifiés d'énergie et conservation de l'énergie Lorsque des particules chargées électriquement comme les électrons interagissent, elles le font par échange de photons [117]. Conformément au 1 er principe de la thermodynamique [25], chaque échange conserve l'énergie totale, entre le moment où il débute et un photon est émis, et le moment où il prend fin et le photon est absorbé. Mais pendant le court instant Δt où l'échange a lieu, il n'y a pas nécessairement conservation de l'énergie : le principe d'incertitude de Heisenberg permet une variation d'énergie ΔE telle que ΔE.Δt ≥ ½ä : tout se passe comme si le photon échangé "empruntait" une quantité d'énergie de l'ordre de ΔE pendant environ Δt secondes à l'énergie potentielle du milieu (vide) environnant, et la restituait ensuite à la fin de l'échange. Ce photon à énergie empruntée puis restituée est appelé « virtuel », car on ne peut le mettre en évidence expérimentalement ; et il existe des particules virtuelles soumises au principe d'incertitude pour toutes les interactions [18], sauf peut-être la gravitation. Voir aussi les paragraphes "Exemple : portée des forces et masse des particules" et "Un vide plein d'énergie". 199 La non-conservation de l'énergie pendant un emprunt à l'espace environnant, phénomène bien réel mais négligeable en physique classique, nous oblige elle aussi à revoir la notion de déterminisme que nous devons à Newton et Lagrange. 3.5.9.10.3 Conséquences de la quantification des interactions : extension du déterminisme Le déterminisme des lois physiques doit donc être étendu pour tenir compte du caractère discret et quantifié de toutes les interactions (sauf peut-être la gravitation), contrairement à l'intuition qui nous faisait croire qu'elles étaient continues parce que le quantum d'action h est extrêmement petit à l'échelle humaine (il faut l'énergie de 12 milliards de milliards de photons [117] de lumière orangée pour chauffer 1 gramme d'eau de 1 degré C !). Nous avons vu ci-dessus qu'une cause de départ, origine d'une interaction, pouvait avoir plusieurs conséquences, dont une seule sera choisie au hasard lors de la décohérence. Nous savons maintenant, en plus, que toute interaction (toujours sauf peut-être la gravitation) est quantifiée et qu'à l'échelle atomique certaines valeurs numériques associées à un état conséquence d'une interaction sont discrètes. Le déterminisme des lois physiques doit donc être étendu pour tenir compte de la nature quantifiée des interactions, ainsi que de la nature discrète possible des variables d'état d'une conséquence. Voir la citation du mathématicien René Thom sur le hasard [226]. 3.5.9.10.4 Quantification des vibrations - Phonons et frottements Toute action sur de la matière agit sur ses atomes [108]. L'énergie des vibrations mécaniques en tout genre est aussi quantifiée. Le quantum d'énergie vibratoire est appelé phonon. Lorsqu'un groupe d'atomes vibre, qu'il s'agisse de vibrations par ondes sonores ou par réaction à des champs électromagnétiques alternatifs, l'énergie de chacun de ses atomes est quantifiée, contrairement à notre intuition qui voudrait la croire capable de varier de manière continue. Un atome qu'une vibration a écarté de sa position d'équilibre par translation ou rotation transmet un écart à ses voisins, la perturbation s'étendant de proche en proche. Du reste, il n'y a pas que l'énergie échangée qui soit quantifiée, l'impulsion [20] et le moment cinétique le sont aussi. A part les divers types de vibrations, le quantum qu'est le phonon intervient dans toutes sortes de phénomènes de physique du solide comme la conductivité électrique, la chaleur spécifique, la conductivité thermique, la supraconductivité, la ferroélectricité… Nous devons donc nous habituer à ce que toutes sortes de phénomènes soient quantifiés, donc discontinus et n'apparaissant qu'au-delà d'un certain seuil minimum. C'est ainsi que lorsque deux objets sont en contact et que l'on veut déplacer l'un par rapport à l'autre, l'existence de frottements a des effets atomiques et entraîne l'existence d'un effort minimum et d'un bond minimum : un déplacement avec frottement ne peut être continu. Notre déterminisme intuitif doit être révisé aussi dans tout ce qui concerne les vibrations et les mouvements avec frottement. 200 3.5.9.10.5 Effets mécaniques et thermiques de la lumière L'absorption ou l'émission de lumière - ou plus généralement des photons [117] d'un rayonnement électromagnétique - par de la matière a trois sortes d'effets mécaniques ou thermiques : Un échange d'énergie thermique ; Un échange d'impulsion lumineuse des photons contre de la quantité de mouvement de l'objet matériel, qui a tendance à prendre ou céder de la vitesse en vertu du principe de conservation de l'impulsion ; Un photon de longueur d'onde a une impulsion p = h/ [20]. Malgré sa petitesse, cette impulsion peut avoir un effet perceptible à l'échelle macroscopique : lorsqu'un rayonnement lumineux tombe sur une surface ou en part, celle-ci subit une poussée mécanique. Cette poussée se manifeste, par exemple : Par la rotation d'un petit tourniquet à ailettes ; Par la stabilité de certaines étoiles, dont l'enveloppe gazeuse subit une pression des rayonnements venus du noyau qui équilibre la gravitation ; Par la poussée que subit la Terre sous l'influence du rayonnement solaire : environ 6 109 newtons (~600 000 tonnes-force), ce qui est peu par rapport à la force de gravitation. La lumière émise exerce une pression qui repousse la surface qui l'émet. Un échange de moment cinétique entre les photons et l'objet matériel. C'est ainsi qu'une lumière polarisée circulairement exerce un couple de rotation sur une surface sur laquelle elle tombe, couple extrêmement faible mais non nul ; chaque photon apporte un moment cinétique multiple entier de ä : -2ä, -1ä, 0, +1ä, +2ä… dont le signe dépend du sens de rotation. Voici des exemples de fronts d'onde polarisées circulairement cités par [330] : -1ä 0ä +1ä +2ä +3ä Fronts d'onde de lumière polarisée circulairement Les phénomènes d'échange de chaleur sont connus de tout le monde, mais les phénomènes d'échange d'impulsion et de moment cinétique ne sont connus que par peu de personnes. Ils peuvent pourtant être lourds de conséquences : En 28 mois, l'orbite du satellite artificiel Vanguard 1 ("Pamplemousse"), de 16 cm de diamètre, a été déplacée de 1600 m par la pression du rayonnement solaire, selon [105] page 823. L'une des méthodes envisagées pour protéger l'humanité contre un astéroïde qui risquerait de percuter la Terre consiste à y envoyer une équipe qui en recouvrirait une partie d'un matériau réfléchissant comme une feuille de 201 plastique aluminisé, changeant ainsi la poussée de la lumière solaire sur lui, donc sa trajectoire. 3.5.9.10.6 Effets photoélectriques Lorsque de la lumière est absorbée par de la matière, il y a – en plus des effets mécaniques et thermiques ci-dessus – trois effets dits photoélectriques : L'émission photoélectrique : lorsque de la lumière frappe de la matière avec une énergie suffisante, elle détache des électrons de certains atomes, électrons qui peuvent être attirés ou repoussés par un champ électrique. La photoconductivité : augmentation de la conductivité d'un semi-conducteur qui absorbe la lumière. Cette propriété peut être utilisée, par exemple, pour mesurer la quantité de lumière. L'effet photovoltaïque : transformation directe de la lumière en énergie électrique, qui apparaît sous forme de différence de potentiel entre les deux côtés d'une jonction. Cette propriété est utilisée, par exemple, dans des panneaux solaires qui produisent de l'électricité. 3.5.9.11 Conséquences des diverses imprécisions sur le déterminisme L'imprécision sur des valeurs de variables introduit dans certaines transformations à étapes multiples l'existence de branches supplémentaires dans l'arborescence de conséquences issue de l'état initial. Elle ne fait ainsi que multiplier les évolutions possibles entre lesquelles un choix s'opère. Le déterminisme des lois physiques doit être étendu pour tenir compte des imprécisions, qui introduisent des branches supplémentaires dans l'arborescence de conséquences issue d'un état initial. Exemple du mouvement brownien : considérons un récipient cubique fermé de quelques centimètres de côté, supposé parfaitement vide à l'exception d'une molécule de gaz unique. Du fait de la température, cette molécule se déplace tout le temps, son énergie cinétique résultant de la température. Dans son déplacement, la molécule rebondit sur les parois. Pour fixer les idées, la vitesse d'une telle molécule est de l'ordre de 1 km/s ; elle rebondit donc chaque seconde de nombreuses fois sur les parois et sa trajectoire est une ligne brisée très complexe. Du fait de l'incertitude sur les positions d'impact due à la largeur d'un paquet d'ondes, chaque point où on prévoit que la molécule heurtera la paroi est en fait une petite surface ayant une certaine étendue, et le vecteur vitesse du choc est lui-même défini avec une certaine imprécision - en grandeur comme en direction. Comme à l'échelle atomique la surface du récipient présente des aspérités, le moindre déplacement d'un point d'impact peut introduire une variation importante de la direction dans laquelle la molécule rebondit, direction qui s'avère donc imprévisible car entachée de trop d'incertitude. Le rebond suivant pourra donc être très différent selon la direction du rebond précédent. En plus, lorsqu'il y a plus d'une molécule dans le récipient et que deux molécules A et B entrent en collision, un choc de A à un endroit légèrement 202 différent de B - ou avec un vecteur vitesse légèrement différent - pourra faire rebondir A et B avec des vecteurs vitesse très différents. On voit donc que les trajectoires possibles de la molécule (unique ou non), à partir d'un point précis donné où elle avait un vecteur vitesse précis, peuvent être représentées par une arborescence de conséquences où chaque nœud représente un rebond et chaque branche une direction possible à partir de ce nœud. Il y a bien multiplication des branches possibles de l'arborescence de conséquences : la prévision d'une trajectoire à multiples rebonds est impossible, on sait seulement que la trajectoire qui sera effectivement observée est l'une des trajectoires possibles, associée à l'une des innombrables chaînes de conséquences de l'arborescence des évolutions possibles. Convergence possible des fins de trajectoires multiétapes, c'est-à-dire des conséquences finales d'une cause de départ - Attracteurs En pratique, il peut arriver que les diverses chaînes de causalité de l'arborescence des trajectoires possibles ne soient pas équiprobables. On observe alors parfois des points - (ou dans l'espace des phases des couples {point, vecteur vitesse en ce point}) - au voisinage desquels la probabilité de fin d'une trajectoire est bien plus grande qu'ailleurs. Ces points sont appelés « attracteurs », parce que les fins de trajectoires possibles convergent dans leur voisinage ; nous avons déjà évoqué cette notion. Pour d'autres exemples d'attracteurs voir "Attracteurs multiples" et "Accidents de la réplication du génome". Impossibilité de remonter d'une conséquence à sa cause Autre conséquence de cette incertitude sur la trajectoire d'une molécule, on ne peut pas remonter à son origine : à partir d'un point P atteint après des milliers de rebonds, même si on connaît les incertitudes sur la position P et la vitesse en P, ces grandeurs mesurées ne permettent pas de reconstituer la trajectoire de la molécule, c'est-à-dire de savoir où elle se trouvait une seconde auparavant, contrairement à ce que voudrait le déterminisme philosophique [200]. Pourtant, au niveau macroscopique de la thermodynamique, le comportement du gaz est déterministe au sens classique. A volume de récipient constant, par exemple, la pression du gaz intérieur est strictement proportionnelle à sa température absolue [121], d'après la loi des gaz parfaits pv=nRT. Du fait des incompatibilités de détermination simultanée de certains couples de variables, leurs valeurs ne peuvent pas être déterminées de manière indépendante dans une expérience donnée. La connaissance de la plage d'une des valeurs contraint (limite) ce qu'il est possible de connaître de l'autre, déterminant ainsi sa propre plage de valeurs : une plage impacte l'autre. Le déterminisme des lois physiques doit aussi être étendu pour tenir compte de la non-indépendance de certaines variables d'état et de l'interdépendance de leurs imprécisions. Des principes considérés comme évidents en physique macroscopique peuvent être violés en physique quantique. Nous devons donc réviser nos notions sur l'évidence, notamment celles sur la causalité. Voici des exemples. 203 Le principe de conservation de l'énergie peut être violé dans des expériences où l'intervalle de temps Δt est très court : du fait de la relation ΔE . Δt ½ä, une paire particule-antiparticule peut naître en empruntant son énergie à l'espace environnant, se propager sur une courte distance et disparaître par recombinaison en restituant l'énergie empruntée. Cela se produit notamment lorsqu'un trou noir « s'évapore » en rayonnant des particules et des antiparticules, processus connu sous le nom « d'effet (ou rayonnement) Hawking ». Du fait du principe d'incertitude, plus l'intervalle de temps Δt considéré est petit, plus la violation temporaire de la conservation de l'énergie peut être grande (ΔE grand). Autres violations possibles pendant un temps court : la conservation de l'impulsion ; la conservation du nombre de particules (certaines peuvent apparaître, d'autres peuvent disparaître ou se transformer…) « L'effet tunnel » permet à un corpuscule de franchir une barrière de potentiel, alors qu'en principe son énergie est insuffisante. C'est ainsi que, dans certains transistors, un électron peut passer à travers un isolant. C'est là un effet de la nature également ondulatoire de ce corpuscule : les ondes de probabilité de présence traversant la matière, il existe une probabilité de présence non nulle des deux côtés de la barrière (nous l'avons déjà vu). Une mise en évidence expérimentale de la position d'une particule subissant l'effet tunnel ne peut donner qu'un seul résultat, comme lors d'une décohérence, alors que la particule a une probabilité de présence non nulle dans toute une région de l'espace. Autre paradoxe : la règle relativiste qui empêche une interaction de se propager plus vite que la lumière conduit dans certains cas à l'apparition dans les calculs de particules d'énergie négative. En renversant le sens du temps, c'est-à-dire de la causalité, une énergie négative se comporte comme une énergie positive. On interprète donc une particule d'énergie négative qui remonte le temps comme une antiparticule d'énergie positive qui le descend, l'antiparticule ayant la même masse que la particule d'origine mais une charge électrique opposée. Antiparticule : Pour que la causalité se produise bien dans le sens du présent vers l'avenir, il faut qu'existe pour chaque particule chargée électriquement une antiparticule de charge opposée et de même masse : l'électron de charge négative -e [150] a pour antiparticule le positon (on dit aussi positron) de charge +e ; au proton correspond l'antiproton ; à l'atome d'hydrogène proton + électron correspond l'antihydrogène antiproton + positon, etc. C'est ainsi que Dirac a découvert les antiparticules par raisonnement, avant que leur existence soit prouvée expérimentalement. Et lorsqu'une particule rencontre son antiparticule, elles s'annihilent en libérant de l'énergie et/ou en créant une autre paire particule-antiparticule… La validité du principe d'incertitude rend très approximatif le modèle atomique proposé par Niels Bohr en 1913, modèle où un électron de masse m tourne à la vitesse v autour de son noyau d'atome d'hydrogène selon une trajectoire circulaire de rayon r analogue à celle de la Terre autour du Soleil [341]. En effet, pour que ce modèle soit plausible il faudrait que les incertitudes Δx sur la position x de l'électron, et Δp sur son impulsion p = mv, soient négligeables 204 devant r et p respectivement, ce qui est loin d'être le cas pour les trajectoires de niveau d'énergie habituel. (Nous avons déjà présenté les trajectoires électroniques). 3.5.10 4e extension du déterminisme : lois de conservation et symétries Voici quelques détails supplémentaires concernant l'uniformité de l'Univers. 3.5.10.1 Invariance de valeurs, invariance de lois physiques Certaines lois physiques de conservation sont connues depuis longtemps et nous paraissent évidentes, relevant du simple bon sens et du déterminisme traditionnel. Exemples : La conservation de la charge électrique impose que toute évolution d'un système fermé conserve sa charge électrique totale, qui ne peut ni croître ni décroître. Masse m et énergie E sont deux propriétés indissociables d'un système, dont les variations sont reliées par la célèbre équation d'Einstein ΔE = Δm.c². Toute évolution d'un système fermé conserve la somme masse + énergie. Les deux exemples ci-dessus illustrent des conservations de valeurs de variables (charge électrique, masse + énergie…) lorsqu'un système évolue. Mais puisque toute évolution physique est déterministe (obéit à des lois stables), on doit aussi se poser la question de l'invariance des lois qui régissent les évolutions : par exemple, que devient une de ces lois lorsque l'on change le repère des coordonnées d'espace-temps ? Par définition, si une équation représentant une loi physique reste invariable lors d'un changement, on dit qu'elle est symétrique par rapport à ce changement : la symétrie est ici synonyme d'invariance. 3.5.10.2 Invariance de lois physiques par rapport à l'espace et au temps L'invariance par déplacement (translation et rotation) traduit l'homogénéité et l'isotropie de l'espace : un changement du repère R(Ox ;Oy ;Oz) en repère R'(O'x' ;O'y' ;O'z'), où R' se déduit de R par déplacement de l'origine des axes d'un vecteur OO' suivi d'une rotation autour d'un axe quelconque, laisse la loi et son équation inchangées. C'est le cas, par exemple, pour la loi fondamentale de la dynamique f = mr'', où r'' est la dérivée seconde du vecteur r par rapport au temps. Ce type de symétrie est appelé symétrie euclidienne, car elle traduit deux propriétés de l'espace euclidien, l'homogénéité et l'isotropie. L'homogénéité de l'espace a pour conséquence la conservation du vecteur mv, quantité de mouvement [20] d'un corps de masse m, et celle du vecteur impulsion p d'une particule sans masse. Moment cinétique - L'isotropie de l'espace a pour conséquence la conservation du vecteur moment cinétique r mv ou r p, où : r est le vecteur associé à la distance OA entre le point matériel A de masse m et vitesse v, et le point O par rapport auquel on évalue le moment cinétique ; p est le vecteur impulsion d'une particule sans masse ; est l'opérateur de produit vectoriel. 205 L'invariance par translation dans le temps traduit la stabilité des lois physiques dans le temps. Si on change l'origine des temps, par exemple en faisant commencer notre calendrier au début du XXI e siècle, le 1er janvier 2001, les lois physiques sont inchangées. Cette invariance a une conséquence importante, la conservation de la masse et de l'énergie d'un système isolé. Ce type de symétrie est appelé symétrie temporelle, dénomination qui introduit une confusion possible avec celle qui laisse invariante une équation par changement de t en -t. Invariance par changement de repère galiléen. Par définition, un changement de repère galiléen fait passer d'un repère R(Ox ;Oy ;Oz) à un repère R'(O'x' ;O'y' ;O'z') d'axes parallèles à ceux de R et en mouvement rectiligne uniforme parallèle à Ox à la vitesse v par rapport à R ; à l'instant t=0, les origines des deux repères O et O' coïncident. Dans un tel changement, un vecteur r de R devient r - vt dans R'. Cette symétrie traduit le fait que certaines lois physiques sont les mêmes pour deux observateurs en mouvement rectiligne uniforme l'un par rapport à l'autre. Elle implique notamment le « principe d'additivité des vitesses » [36], dont voici un exemple : si, dans un train qui roule à 100 km/h, je marche de l'arrière vers l'avant à la vitesse de 5 km/h, ma vitesse par rapport au sol est 100 + 5 = 105 km/h. Ce type de symétrie est appelé symétrie galiléenne du nom du physicien Galilée. Elle fait partie des hypothèses de base de la mécanique rationnelle de Newton [110], qui suppose l'existence d'un espace (et d'un temps) absolus. Ces hypothèses et la symétrie galiléenne sont des approximations, acceptables seulement lorsque les vitesses sont négligeables par rapport à la vitesse de la lumière, c : nous allons voir cela à propos de l'invariance relativiste. Invariance relativiste. En 1887, Michelson et Morley ont observé que la vitesse de la lumière est constante dans toutes les directions de l'espace. Elle ne s'ajoute donc pas à la vitesse de déplacement de la Terre autour du Soleil (30 km/s), à celle du Soleil en direction de l'étoile de la Lyre (20 km/s), à celle due à la rotation de la Galaxie, etc. La vitesse de la lumière est donc une donnée invariante, une constate de l'Univers. Pour tenir compte de cette invariance, Lorentz a proposé en 1904 une transformation linéaire permettant un changement de repère qui préserve l'invariance des lois de la dynamique. Il suffit de remplacer la loi galiléenne r' = r - vt par une loi qui change simultanément l'espace et le temps ; on passe alors du repère (R) où les coordonnées sont (x ; y ; z ; t) à un repère (R') où elles sont (x' ; y' ; z' ; t') comme suit : ′ 𝑥 = 𝑥 − 𝑣𝑡 √1 − 𝑣² 𝑐² 𝑣 𝑥 𝑐² 𝑡′ = √1 − 𝑣² 𝑐² 𝑡− z' z y' y Transformation de Lorentz utilisée en Relativité Restreinte 206 (On a choisi les axes de (R) et (R') parallèles, le mouvement de (R') par rapport à (R) parallèle à Ox à vitesse constante v, et l'instant 0 de (R) coïncidant avec l'instant 0 de (R') ). Ce type de symétrie est appelé symétrie relativiste ; c'est celle de la théorie de la Relativité Restreinte d'Einstein [49]. Lorsque la vitesse relative v est très faible par rapport à c, cette loi de changement de repère équivaut à la loi galiléenne d'additivité des vitesses : x' = (x - vt) ; y' = y ; z' = z ; t' = t La symétrie relativiste : Contracte ou dilate l'espace (les longueurs) selon le sens du déplacement par rapport à un observateur ; mais (surprise !) une sphère en mouvement reste sphérique, elle ne devient pas un ellipsoïde. Dilate le temps pour une horloge en mouvement, qui prend du retard par rapport à une horloge fixe (par exemple lors des voyages en avion). Sépare deux événements simultanés distincts de (R), distants de Δx, à la fois dans l'espace et dans le temps dans (R'). La relativité affecte la causalité, donc le déterminisme : si deux événements situés en des endroits distincts A et B sont simultanés, l'un ne peut être cause de l'autre ; mais vus d'un troisième point, C, distinct de A et B, ils ne sont plus simultanés. Si l'observateur en C ne connaît pas l'emplacement spatial de A et B et ne sait pas qu'ils sont simultanés, il peut croire que l'un est cause de l'autre. Pour plus de détails voir l'espace-temps de Minkowski. La symétrie relativiste conserve les lois de la dynamique à condition de transformer les longueurs, les durées et les masses conformément aux équations de Lorentz. C'est ainsi, par exemple, que la masse m d'un corps qui vaut m0 au repos varie avec la vitesse v selon la loi m m0 1 v² c² qui implique l'impossibilité pour un corps pesant d'atteindre la vitesse de la lumière c, où sa masse m serait infinie. L'énergie relativiste totale de ce corps est : E m0 c ² 1 v² c² Cette énergie tend vers l'infini lorsque v tend vers c : pour accélérer une masse au repos m0 jusqu'à la vitesse c, il faudrait une énergie infinie ; aucun corps pesant ne peut donc atteindre la vitesse de la lumière, et les plus puissants accélérateurs de particules ne peuvent accélérer celles-ci au-delà d'une énergie de l'ordre de 207 10 000 GeV (1.6 .10-6 joule), correspondant pour un proton à 99.9999995 % de la vitesse de la lumière. 3.5.10.3 Invariances et lois de conservation (lois fondamentales de la physique) En 1918, Emmy Noether a démontré que l'invariance d'une théorie physique par rapport à une transformation continue se traduit toujours par l'existence d'une loi de conservation d'une quantité. Toutes les symétries que nous venons de voir sont continues, qu'il s'agisse de la symétrie euclidienne, de la symétrie temporelle, de la symétrie galiléenne ou de la symétrie relativiste. Il y en a d'autres, dont voici des exemples. La conservation de la charge totale dans toute transformation est vraie séparément pour la charge électrique, la charge baryonique et la charge leptonique. La symétrie par rapport à un plan, celle qui intervient dans la formation d'une image dans un miroir, laisse inchangées les interactions gravitationnelle, électromagnétique et nucléaire décrites dans [18], mais pas l'interaction faible. Les lois fondamentales de la dynamique sont invariantes par cette symétrie. On parle alors de conservation de la parité ou de « symétrie P ». La symétrie d'opérateur P génère une image miroir de la fonction d'onde : P(r) = (-r). La symétrie par changement du sens du temps est en fait un renversement de l'évolution, un « déroulement du film à l'envers ». Nous en avons vu un exemple. Les interactions fondamentales, dont les quatre types sont cités dans [18], sont invariantes par cette symétrie, appelée « symétrie T ». Les lois fondamentales de la dynamique sont aussi invariantes par symétrie T. La conjugaison de charge, appelée aussi « symétrie C » est celle qui fait passer d'une particule à son antiparticule dans les équations. Toute particule a son antiparticule, qui a même masse et même durée de vie, mais des nombres quantiques de charge opposés. Ne pas confondre la conjugaison de charge avec la conservation de la charge ci-dessus. Les lois fondamentales de la dynamique sont invariantes lorsque toutes les charges sont remplacées par des charges de signe opposé. Comme les symétries d'opérateurs P et T, la symétrie d'opérateur C a la propriété suivante : deux opérations successives ramènent à l'état initial. Pour respecter la symétrie de conjugaison de charge, l'Univers devrait être électriquement neutre et avoir autant de particules de chaque espèce que d'antiparticules. Mais, hélas, les observations montrent qu'il n'en est rien et la raison de cette asymétrie est inconnue. L'invariance CPT est celle des lois d'évolution qui se conservent si on applique simultanément les trois symétries C, P et T. Une telle loi serait identique dans notre Univers et dans un univers hypothétique où les particules seraient devenues des antiparticules, la droite serait devenue la gauche comme dans un miroir, et le temps s'écoulerait à l'envers ! Si une loi décrivant un phénomène physique violait l'invariance CPT, elle serait en contradiction avec toutes les lois fondées sur la théorie quantique des champs et 208 même avec le principe de causalité. L'invariance CPT est donc un des principes fondamentaux du déterminisme scientifique [9]. Lois fondamentales de la physique A l'échelle atomique nous avons vu, en abordant l'état quantique d'un système, qu'il représente tout ce qu'on peut savoir sur le système à un instant donné (toute l'information à son sujet). La Mécanique quantique et l'Electrodynamique quantique permettent de manipuler mathématiquement les variables de cet état quantique en décrivant des comportements statiques ou évolutifs dans des circonstances données. L'étonnant est que la nature se comporte exactement comme ces outils l'affirment : chaque comportement de système permis mathématiquement se réalise dans la mesure où il respecte toutes les lois de conservation. Les lois physiques de conservation sont donc des lois fondamentales de la nature. Elles régissent des comportements fondamentaux respectés par les autres lois. Les mesures physiques sont basées sur les constantes fondamentales de l'Univers que sont la vitesse de la lumière c, la charge de l'électron e, la constante de Planck h, la constante de gravitation G, etc., dont sont dérivées toutes les unités utilisées. Les valeurs numériques des variables dépendent du système d'unités. Le plus utilisé aujourd'hui est le Système International (SI) dont les unités fondamentales sont le mètre, le kilogramme, la seconde, l'ampère, le degré de température kelvin, l'intensité lumineuse en candélas et la mole (quantité de molécules ou d'atomes correspondant au Nombre d'Avogadro [24]). 3.5.10.4 Un vide plein d'énergie Le terme « vide » représente pour nous un espace sans matière ni énergie. Nous allons voir que cette conception est simpliste, ne serait-ce que parce que tout point de l'espace cosmique est parcouru par des rayonnements électromagnétiques porteurs d'énergie. 3.5.10.4.1 Le vide de la physique quantique En physique, le vide est l'espace qui entoure la matière (faite de leptons et quarks) et véhicule des interactions [18] résultant de champs de force. C'est aussi l'espace entre atomes d'une molécule et entre électrons et noyau d'un atome. Fluctuations quantiques Le principe d'incertitude de Heisenberg ΔE.Δt ½ä, fait qu'en un point donné on ne peut pas définir une énergie avec une incertitude meilleure que ΔE pendant un temps donné Δt. Cette incertitude (instabilité) énergétique permet au vide quantique d'être le siège de « fluctuations quantiques » d'énergie, avec apparition d'états dits « virtuels » parce qu'on ne peut les mettre en évidence expérimentalement. Ces fluctuations peuvent se matérialiser (spontanément ou en réponse à une excitation - particule ou rayonnement), en faisant apparaître une paire particule-antiparticule, paire qui emprunte son énergie ΔE au vide environnant pendant un temps Δt ½ä / ΔE. Dès leur apparition, les quatre interactions [18] agissent sur la particule et l'antiparticule : celles-ci s'attirent, se rejoignent et s'annihilent en restituant l'énergie empruntée ; en outre par effet Lamb, les particules virtuelles apparaissant dans un atome en modifient légèrement les niveaux d'énergie. 209 Le regroupement des particules d'une paire est rapide et inévitable dans un espace-temps plat ou à courbure très faible. Mais au tout début de l'Univers, lorsque l'espace-temps avait une forte courbure, et particulièrement pendant la courte et brutale période d'inflation, les particules d'une paire ont pu se trouver séparées trop vite pour s'attirer et disparaître, elles ont pu devenir durables. Ce phénomène se poursuit de nos jours lorsqu'un trou noir « s'évapore ». La présence d'une telle paire de charges opposées crée une polarisation et une déformation relativiste du vide, donc un champ qui agit sur la charge électrique ou la couleur d'une particule. L'action d'un champ sur une particule décroît avec la distance de la particule lorsqu'il s'agit du champ électrique ou gravitationnel. Mais lorsqu'il s'agit du champ de couleur agissant sur un quark [18], nous avons vu que l'action croît avec la distance (ce qui est absolument contraire à l'intuition et au déterminisme traditionnel !) : pour séparer les quarks d'une paire on devrait fournir une énergie qui croît avec la distance entre ces quarks, et dès que cette énergie suffit pour séparer les deux quarks elle est absorbée par la création d'une nouvelle paire de quarks, un nouveau quark apparaissant pour se coller à chacun des deux anciens quarks séparés ! Ce phénomène interdit donc aux quarks d'être isolés pendant plus d'une infime fraction de seconde. L'effet Casimir Cette polarisation du vide avec apparition de paires particule-antiparticule est mise en évidence par « l'effet Casimir », prévu en 1948 et observé en 1996 : la présence de deux plaques conductrices distantes de quelques millièmes de millimètre élimine certaines charges et diminue l'énergie de l'ensemble, d'où l'apparition entre les plaques d'une « force de Casimir » inversement proportionnelle à la puissance 4 de leur distance (1/d4). Cette force a été mesurée avec des résultats conformes à la théorie. Fluctuations d'énergie cinétique et de l'espace-temps Les fluctuations du vide dues au principe d'incertitude ne concernent pas que des paires particule-antiparticule. Elles peuvent aussi générer des paires où l'une des particules a une énergie cinétique positive et l'autre une énergie négative correspondant au "trou d'énergie" laissé dans le "vide" par l'apparition de la première. Les particules d'une telle paire peuvent s'annihiler si elles se rencontrent. Mais si la particule d'énergie positive est générée près de l'horizon d'un trou noir à l'extérieur de celui-ci, alors que la particule d'énergie négative est générée à l'intérieur, la première peut s'éloigner du trou noir alors que la seconde, piégée par l'horizon, retombe dans le trou. Pour un observateur extérieur à l'horizon, tout se passe comme si le trou noir a rayonné une particule et perdu la masse correspondante, la particule d'énergie négative additionnant celle-ci algébriquement à celle du trou : un trou noir "s'évapore" ! Enfin, le phénomène des fluctuations quantiques peut aussi affecter l'espace-temps relativiste lui-même, l'horizon d'un trou noir ayant une très forte courbure relativiste. Cela explique l'attraction des particules d'énergie négative à l'intérieur de l'horizon par le trou noir, qui les voit positives. 210 Conclusions Contrairement à notre intuition, le vide dans et autour des atomes et autres particules est le siège de champs quantiques et « plein » d'énergie. En outre, des fluctuations quantiques peuvent faire brièvement varier l'énergie en un point par « emprunts » et « restitutions » ; elles peuvent aussi faire apparaître des champs de force. La fluctuation quantique est un exemple d'instabilité de l'énergie, instabilité à ne pas confondre avec du hasard : nous avons vu qu'il s'agit de l'instabilité d'un couple de variables, pas du choix d'une valeur, bien que les deux entraînent l'imprédictibilité. Lorsqu'une fluctuation d'énergie se produit spontanément, c'est-à-dire en l'absence d'excitation (donc de cause) externe, on ne peut prédire : Ni les endroits où apparaîtront simultanément la particule et l'antiparticule ; Ni l'instant de cette apparition ; Ni la quantité d'énergie qui sera empruntée ; Ni la durée de vie séparée de ces particules avant annihilation avec restitution au vide de leur énergie. Fluctuations et conservation de la densité moyenne d'énergie En l'absence de perturbation extérieure, une fluctuation en un point donné de l'espace qui fait apparaître une paire de particules virtuelles à un instant imprévisible y conserve la densité moyenne d'énergie, car sauf évaporation ce qui est emprunté est restitué. Une violation temporaire du deuxième principe de la thermodynamique A l'occasion d'une fluctuation quantique, il y a violation temporaire du deuxième principe de la thermodynamique : l'entropie commence par décroître lorsque la paire particule-antiparticule est créée, puis elle croît et revient à sa valeur initiale lorsqu'elle se transforme en énergie. 3.5.10.4.2 Champ et boson de Higgs Il y a deux sortes de masses [110] : La masse gravitationnelle, qui intervient dans l'attraction de deux corps pesants, comme celle d'un objet par la Terre ; La masse d'inertie, qui intervient dans la nécessité d'une force pour changer le mouvement uniforme (ou l'immobilité) d'un corps en lui communiquant une accélération. Pour un même objet ces deux masses s'expriment dans la même unité, le kilogramme, et 1 "kg gravitationnel" = 1 "kg inertie". Le champ de force de Higgs, présent dans tout l'espace - de l'échelle atomique à l'échelle astronomique - agit comme un frein sur la masse d'inertie : pour provoquer une accélération donnée, la force nécessaire est proportionnelle à la masse de l'objet : c'est la 2ème loi de Newton [110]. C'est l'existence du champ de Higgs qui explique la masse d'inertie des corps pesants ; si le champ de Higgs disparaissait dans une certaine région, les particules fondamentales (quarks et leptons) en mouvement y perdraient la partie de leur poids qui ne correspond pas aux interactions forte et faible. (Voir [18] et [59]) 211 En physique quantique, la particule de l'interaction quantifiée entre champ de Higgs et corps pesants (leptons et quarks) est appelée boson de Higgs et sa masse est proche de 125 GeV c-2, c'est-à-dire environ 134 fois celle du proton au repos. 3.5.10.4.3 Distance, temps, densité et masse de Planck La notion d'incertitude (non-définition, instabilité, fluctuation) de Heisenberg s'applique aussi à l'incertitude sur une distance lp, en dessous de laquelle l'espace physique luimême ne peut plus être considéré comme continu et nos lois physiques (y compris celles de la Mécanique quantique) ne s'appliquent plus. Cette distance minimum est appelée « distance de Planck » ou « longueur de Planck » lp et vaut : 𝑙𝑝 = √ 𝐺 𝑐3 = 1.6 .10-35 m Au début de l'Univers, avant le Big Bang, la densité d'énergie cinétique (température) était si élevée qu'elle pouvait faire se rapprocher des particules à une distance inférieure à la distance de Planck. Mais l'Univers a immédiatement commencé à se dilater par inflation (en créant littéralement de l'espace et de la matière-énergie, à densité constante [313]), puis plus lentement par expansion en diluant son énergie. Et l'expansion continuant encore de nos jours, il n'y a plus jamais eu d'endroit où la densité d'énergie était suffisante pour contraindre des particules à s'approcher plus près que lP… sauf dans les trous noirs. A des distances de l'ordre de celle de Planck et des densités d'énergie suffisantes pour la création d'un trou noir, la Mécanique quantique et la Relativité Générale s'appliqueraient toutes deux… si on en avait une synthèse, qu'on n'a pas hélas. Aucune distance inférieure à lp n'a de sens pour un phénomène physique. Le postulat de continuité de l'espace n'est pas vrai pour des distances inférieures. Au début de l'Univers, avant le Big Bang, il y a aussi eu une durée pendant laquelle la densité d'énergie permettait à toutes les particules de fusionner en s'approchant à une distance inférieure à lP. Pendant cette durée nos lois physiques actuelles ne s'appliquaient pas. Cette durée est le « temps de Planck » tP mis par la lumière pour parcourir la distance de Planck lP. Il vaut lP/c : ℏ𝐺 𝑡𝑝 = √ 𝑐5 = 0.5391 .10-43 s Au temps de Planck tP l'Univers était extraordinairement dense, sa densité étant appelée « densité de Planck » DP et valant : 𝐷𝑝 = 𝑐5 ℏG² = 5.1 .1096 kg/m3 212 Où G est la constante universelle de gravitation G = 6.67 .10-11 Nm2/kg2. Cette densité est colossale : elle correspond approximativement à celle résultant de la compression d'une centaine de galaxies dans le volume d'un noyau atomique ! La « masse de Planck » mP, matière-énergie contenue dans un cube de lP de côté, est donnée par la formule : ℏc mp = √ G = 2.177 .10-8 kg Un objet de masse mP et de dimension lP serait un trou noir quantique de diamètre lP. Or ce diamètre est proche de la longueur d'onde de Compton de l'objet [134], distance en dessous de laquelle une particule est « floue », c'est-à-dire de position et dimension mal définies au sens Mécanique quantique. En conclusion : lorsque l'espace, le temps ou l'énergie sont inférieurs à leur « valeur de Planck », ou qu'un objet a une dimension proche de sa longueur d'onde de Compton : Il est impossible de considérer comme continus l'espace, le temps et l'énergie : ils sont discontinus et quantifiés (chaque valeur est multiple d'un minimum appelé quantum) ; On ne peut même pas appliquer les lois de la Mécanique quantique, à part le principe d'incertitude de Heisenberg ; Les lois physiques du déterminisme scientifique sont alors erronées, Mécanique quantique et Relativité Générale ne s'appliquant plus ; il faudrait en découvrir une synthèse que nous n'avons pas encore. Aucune causalité ne peut donc remonter aujourd'hui au-delà du temps de Planck et la notion philosophique de « cause ultime » n'a pas de sens au-delà.[17] Remarque La distance, le temps, la densité et la masse de Planck s'expriment en fonction des trois constantes fondamentales de l'Univers : h, G et c. 3.5.10.4.4 Le vide de l'espace cosmique A l'autre bout de l'échelle des distances, le « vide » de l'espace cosmique contient au total bien plus que la matière que nous voyons dans toutes les étoiles, planètes, astéroïdes, poussières et gaz à faible pression, même si on y ajoute l'énergie des divers rayonnements qui le parcourent (addition justifiée par l'équivalence masseénergie représentée par la formule E = mc² de la Relativité). En ajoutant la masse des trous noirs que nous ne voyons pas, mais dont nous voyons les effets gravitationnels (qui montrent que la masse de certains peut dépasser un milliard de fois celle du Soleil), nous sommes toujours loin du compte. La masse totale des corps célestes lumineux ou sombres que nous connaissons, avec ses quelque 400 milliards de galaxies, représente seulement environ 4.9 % de la masse de l'Univers. 213 L'étude des mouvements des galaxies, de leurs satellites et des amas d'étoiles qui les entourent montre qu'il existe nécessairement, dans chaque galaxie et dans son voisinage, une masse énorme que nous ne voyons pas, parce qu'elle n'émet pas de lumière et n'en absorbe pas. Cette masse représente environ 5 fois celle de la matière-énergie visible dans l'Univers, c'est-à-dire environ 27 % de l'énergie totale ; on l'appelle « matière sombre », « matière noire » ou « matière cachée » (dark matter). Dans l'Univers primitif il y avait des zones à peu près sphériques de matière sombre appelées « halos », au centre desquelles les galaxies que nous voyons se sont formées. Ces halos existent toujours, et leur masse importante explique la vitesse de rotation étonnamment élevée des amas et galaxies satellites des galaxies principales. 3.5.10.4.5 Expansion de l'Univers visible Les mesures précises effectuées sur les distances et vitesses des galaxies lointaines montrent que l'Univers visible est en expansion, son rayon augmentant à la vitesse de la lumière, c [313]. Depuis le moment où il avait 380 000 ans jusqu'à nos jours son rayon a été multiplié par environ 1000, et il continue d'augmenter. Après les premiers 8 ou 9 milliards d'années environ, où l'expansion ralentissait (c'est-à-dire depuis 5 milliards d'années) l'expansion est de plus en plus rapide [290]. Ainsi, nous recevons aujourd'hui la lumière d'astres situés à 23 milliards d'années-lumière, lumière qui est partie il y a 12 milliards d'années [314] et [111] [370] Il ne faut cependant pas croire que l'Univers grandit en prenant de la place dans un Univers englobant vide : il grandit par accroissement de ses dimensions ; chacun de ses points s'éloigne de tous ses autres points. Comme l'inflation qui l'a précédé, le Big Bang ne fut pas une explosion dans l'espace, mais une explosion de l'espace, sans point central [118]. Il y a dans l'Univers deux forces qui s'opposent : la gravitation, qui tend à rapprocher les galaxies et produit sur Terre l'attraction de la pesanteur, et une mystérieuse pression négative, gravitation négative qui tend à les éloigner de plus en plus vite en dilatant l'espace lui-même. Cette gravitation négative est attribuée à une « énergie sombre » ou « énergie noire » (dark energy), dont on ne sait rien à part qu'elle existe puisque ses effets existent et satisfont la Relativité Générale ; et elle représente environ 68 % de la masse-énergie totale de l'Univers. 214 Schéma de l'expansion de l'Univers d'après [267] montrant les influences opposées de l'énergie sombre et de la gravitation Le temps depuis le Big Bang croît selon l'axe vertical Gravitation contre expansion La gravitation, qui a pour effet la concentration de la matière pour former des étoiles et des trous noirs, n'empêche nullement l'expansion de l'espace. Celle-ci continue depuis le Big Bang, accélérée par l'énergie sombre, qui éloigne les galaxies les unes des autres de plus en plus vite. La galaxie d'Andromède (notre voisine, à 2.5 millions d'années-lumière) se rapproche de nous sous l'influence de la gravitation, alors que des galaxies très lointaines (1 milliard d'années-lumière et plus) s'éloignent sous l'influence de l'expansion de l'Univers. Aux très grandes distances, la gravitation négative due à l'énergie sombre est prépondérante par rapport à la gravitation [118] et accélère l'expansion. Pendant les 7 à 8 premiers milliards d'années de l'Univers la pression d'expansion a diminué avec le temps sous l'effet de la gravitation, rendant cette expansion de moins en moins rapide. Pendant ce temps-là, la pression négative accélératrice de l'énergie noire augmentait automatiquement avec le volume de l'espace ; elle a fini par inverser le sens de variation de l'expansion, qui depuis s'accélère. Les forces de gravitation dues à la matière baryonique et à la matière noire conservent la forme des galaxies (dimension : environ 100 000 années-lumière) et celle des amas de galaxies (environ 10 millions d'années-lumière) : à leur échelle l'expansion est 215 négligeable. Mais l'énorme volume intergalactique produit assez de pression négative pour que l'expansion de l'Univers dans son ensemble accélère. La courbure de l'Univers due aux masses à l'origine de la gravitation est sans rapport avec son expansion [269], les forces correspondantes étant distinctes. La croissance de l'entropie conformément au 2 e principe de la thermodynamique [25] se produit à la fois lorsque la gravitation concentre la matière et lorsque l'expansion de l'espace la dilue, ces deux phénomènes indépendants respectant tous deux la thermodynamique. Il faut alors expliquer pourquoi l'expansion de l'Univers ne fait pas éclater en mille morceaux la matière et les structures cosmiques comme le système solaire et la galaxie. La raison est simple : les 4 forces du modèle standard [18] responsables de la cohésion de la matière (atomes, molécules et structures cristallines) sont beaucoup plus fortes que la force d'expansion ; même la gravitation, la plus faible de ces 4 forces (qui explique la cohésion des systèmes planétaires, des galaxies et des amas de galaxies) est bien plus forte qu'elle. Cette dernière ne joue donc que loin de toute matière visible et matière sombre, c'est-à-dire entre des amas de galaxies, sur des distances de l'ordre d'au moins 100 millions d'années-lumière. 3.5.10.5 Conclusions sur les symétries et lois de conservation Les quatre types d'interaction [18] conservent : l'énergie ; la quantité de mouvement ou l'impulsion ; le moment cinétique ; les charges électrique, baryonique et leptonique ; le spin [22]. 216 La table ci-dessous indique l'origine physique des lois de conservation : Lois de conservation Origines physiques Energie d'un système isolé Homogénéité du temps (invariance par translation dans le temps) Information totale d'un système isolé Réversibilité dans le temps de l'équation de Schrödinger Quantité de mouvement ou impulsion d'un système isolé Homogénéité de l'espace (invariance par translation dans l'espace) Moment cinétique d'un système isolé Isotropie de l'espace (invariance par rotation) Invariance par le couple de symétries CP Symétrie gauche-droite de l'espace Invariance par la symétrie T Symétrie du temps en changeant dans les équations t en -t Charge électrique d'un système isolé Inconnue Charge baryonique d'un système isolé Inconnue Charge leptonique d'un système isolé Inconnue Etrangeté (propriété de certaines particules) Inconnue Origine physique des lois de conservation La discussion précédente des lois de symétrie et de conservation montre que le déterminisme de la nature a de nombreux comportements qui sont tout sauf évidents ou intuitifs. Certains comportements sont inexpliqués ; on ne sait pas, par exemple, pourquoi l'Univers est fait exclusivement de matière et ne comprend pas d'antimatière, nos théories prédisant la création de masses égales de matière et d'antimatière. Et nous avons vu que le principe d'incertitude permet des violations locales de très courte durée de la conservation de l'énergie. 3.5.11 5e extension du déterminisme : complexité, imprévisibilité, calculabilité Certains phénomènes physiques semblent n'obéir à aucune loi simple, ce qui fait paraître imprévisible leur évolution. Voici des exemples. 217 3.5.11.1 Combinaison de nombreux phénomènes déterministes Exemple 1 : mouvement brownien Les molécules d'un gaz n'arrêtent pas de bouger. Leur agitation, appelée mouvement brownien, résulte de la température du gaz. A la température absolue T [121] chaque molécule a une énergie cinétique moyenne de 3/2 kT, où k est la constante de Boltzmann [122], k = 1.38066 .10-23 joule par degré Kelvin ; nous avons déjà vu cela. En bougeant sans cesse, chacune indépendamment des autres, les molécules s'entrechoquent. Leur nombre étant très grand (2.7 1025 molécules/m3 à la pression atmosphérique normale) et leur vitesse considérable, le nombre de chocs par seconde dans un tel volume est colossal. La trajectoire d'une molécule particulière est donc parfaitement imprévisible, bien qu'entre deux chocs son mouvement soit rectiligne et uniforme car sans frottement, et que les chocs aient lieu sans perte d'énergie. Si on perce un petit trou dans la paroi de l'enceinte contenant le gaz, la prévision de la première molécule qui sortira par ce trou est impossible. Exemple 2 : forme des flocons de neige Un flocon de neige résulte de la formation d'un ou plusieurs cristaux de glace à symétrie hexagonale. Du fait du nombre de variables qui interviennent, la complexité du phénomène de formation de ces cristaux est telle qu'ils peuvent prendre des dizaines de formes différentes [288]. Le nombre de combinaisons de ces formes en flocons est si grand qu'on peut considérer qu'un flocon donné a une forme unique, ou qu'on ne retrouvera peut-être un flocon identique que dans cent ans. Les phénomènes physiques intervenant dans la formation des cristaux de glace et leur regroupement en flocons sont déterministes et assez bien connus. Pourtant on ne peut jamais prévoir quelle forme exacte de flocon se formera dans des conditions données, même lorsque celles-ci sont créées avec précision en laboratoire. Ces exemples sont généralisables : chaque fois qu'un grand nombre de phénomènes déterministes interagissent, l'évolution de l'un quelconque de ces phénomènes est imprévisible, de même que l'évolution du résultat de leur interaction. Le déterminisme n'est pas en cause, l'imprévisibilité du résultat provient de la seule multitude des interactions. Pour rendre compte de cette cause naturelle d'imprévisibilité, le déterminisme doit être complété par la précision que l'action simultanée de trop nombreux phénomènes déterministes (au sens traditionnel) donne un résultat impossible à prédire ou extrêmement difficile à calculer. Le résultat d'un grand nombre de phénomènes déterministes simultanés est imprévisible parce que trop difficile à calculer. Cependant, on peut souvent représenter la situation d'ensemble (c'est-à-dire statistique) des variables d'un système (comme sa température moyenne, sa pression moyenne, et les proportions des corps qui le composent s'il s'agit d'une solution 218 chimique) par celle de la densité de probabilité [28] d'apparition de son point représentatif dans un espace des phases rapporté à ces variables. A chaque instant t, par exemple, on saura pour chaque volume élémentaire au voisinage d'un point de cet espace la probabilité qu'il a d'être atteint. Pour un ensemble donné de valeurs des variables, on pourra connaître l'évolution de sa probabilité d'existence dans le temps. Cette approche probabiliste utilisant l'espace des phases diffère de l'approche traditionnelle basée sur des trajectoires dans l'espace géométrique ; elle a été étudiée notamment par Ilya Prigogine, qui l'a décrite dans [26] ; elle convient aussi aux systèmes dont l'évolution est irréversible, contrairement à l'approche basée sur les trajectoires. 3.5.11.1.1 Mécanique statistique Cette branche de la physique applique les méthodes et outils statistiques aux lois de la Mécanique classique et à celles de la Mécanique quantique. Elle le fait pour expliquer et prédire les propriétés mesurables de systèmes macroscopiques à partir des propriétés et lois d'évolution de leurs composants microscopiques. Exemple : la Mécanique statistique explique et calcule l'énergie thermique à partir de l'énergie de particules atomiques animées de mouvements désordonnés ; elle déduit la température de l'énergie d'ensemble de ces particules. Pour éviter de calculer à partir des propriétés individuelles des milliards de particules d'un système, la Mécanique statistique utilise des lois de probabilité pour trouver les valeurs moyennes pour des particules de même type. Ainsi, elle interprète l'énergie cinétique moyenne des molécules sous forme de température moyenne du système, et déduit les lois de la thermodynamique [25] de telles propriétés statistiques. Elle contourne donc la difficulté de calculer séparément l'évolution dans le temps (position, vitesse) de chaque molécule en ne s'intéressant qu'aux moyennes des vitesses dans leur population. 3.5.11.2 Déterminisme + complexité = imprévisibilité Nous avons déjà vu que l'effet d'un grand nombre de processus déterministes simultanés régis par une même loi peut rendre le résultat de chacun d'eux imprévisible en pratique. Il n'est donc pas étonnant que l'effet global d'un grand nombre de processus déterministes simultanés régis par des lois distinctes soit en général également imprévisible. Dans les deux cas, l'imprévisibilité est d'autant plus grande que les processus sont nombreux et interagissent davantage. Ce phénomène d'imprévisibilité se présente aussi dans les logiciels extrêmement complexes comme les systèmes d'exploitation d'ordinateurs ou les logiciels de simulation de vol, ainsi que dans les processus physiologiques. Exemples : un système d'exploitation de la famille Windows exécute en général un millier de threads, processus qui se déroulent en parallèle en se démarrant ou s'arrêtant l'un l'autre, en s'envoyant des messages, en échangeant des données, en s'attendant ou en se donnant rendez-vous dans certaines circonstances, etc. C'est ainsi que pendant que j'écris ce texte avec WORD d'Office 365 - 64 bits sous Windows 7 professionnel 64 bits, mon système d'exploitation exécute 1413 threads en parallèle, appartenant à 89 processus distincts. 219 De son côté, un corps humain a des centaines de mécanismes indépendants ou interdépendants, régis par le logiciel hypercomplexe qu'est le génome interprété par la machinerie cellulaire, ainsi que par le cerveau et ses 100 milliards de neurones. Le comportement de ces systèmes complexes nous paraît cependant d'autant plus prévisible que les circonstances se reproduisent fréquemment. Leur réponse à un événement fréquent a été observée si souvent qu'elle est devenue prévisible par habitude. Je sais parfaitement déplacer un fichier d'un répertoire à un autre de mon PC, et n'ai jamais de surprise en constatant son comportement lorsque je fais un « glisser-déposer » de l'icône du fichier avec la souris. Je sais aussi prévoir la réponse de mon organisme à des situations particulières comme la pose de ma main sur un objet trop chaud, qui provoque une sensation de brûlure. Mais des circonstances ou événements rares entraînent des comportements imprévisibles et surprenants d'un système complexe. Exemple : un message reçu par Internet, qui provoque un débordement de buffer (zone mémoire tampon) dans mon PC en exploitant un défaut de protection d'un objet logiciel du système d'exploitation, peut se transformer en logiciel de prise de contrôle qui asservira mon PC à un autre système, situé à des milliers de kilomètres, pour le faire participer à des attaques dévastatrices de serveurs bancaires. Si les concepteurs du système d'exploitation de mon PC avaient pu prévoir ce type d'attaque, ils auraient mis en place les protections nécessaires. Mais comme il existe des attaques auxquelles ils n'ont pas pensé, le message Internet en question provoque une réaction imprévue. Conclusion : bien que tous les logiciels aient des algorithmes déterministes, une combinaison complexe de logiciels et de circonstances (événements et données) peut avoir un effet imprévisible, et même difficile à expliquer après coup connaissant ses effets. Tout se passe alors comme si la complexité d'un système parfaitement déterministe l'avait rendu imprévisible, le faisant apparaître comme non déterministe aux yeux de personnes qui (hélas !) ne distinguent pas déterminisme et prédictibilité. De même, il y a des cas où un médecin ne sait pas diagnostiquer le mal de son malade. Certaines douleurs, par exemple, peuvent demeurer inexpliquées malgré d'innombrables examens et la prise de médicaments. Le corps humain est non seulement complexe, mais ses processus sont loin d'être aussi bien connus que les algorithmes des logiciels ; et la complexité de l'esprit est encore plus grande [51]. En résumé, la complexité d'un système, et des circonstances ou enchaînements de circonstances rares, peuvent le rendre imprévisible même si tous ses processus sont déterministes. 3.5.11.3 Modélisation des systèmes complexes, notamment ceux du vivant Jusqu'à ce point de l'exposé nous avons considéré une situation physique comme cause d'une évolution déterministe prévisible. C'est là une simplification qui ne convient pas à des systèmes vraiment complexes comme un corps humain, son psychisme [347], ou l'économie d'un pays. Dans un tel système, une situation à un instant donné prend en compte des milliers de processus se déroulant en même temps, certains interagissant avec d'autres. Dans le corps humain, par exemple, le génome contrôle des milliers de réactions chimiques participant au fonctionnement de 220 tous les organes. Dans un cerveau humain, un grand nombre de pensées se déroulent en même temps dans l'inconscient [353], en plus de la pensée consciente [268] - [339]. Le nombre et la variété des processus qu'on rencontre dans des systèmes comme les êtres vivants fait qu'en général on ne les connaît pas assez pour en décrire un modèle [51] ; l'absence de modèle rend alors la prévision de leur comportement impossible. Un système modélisable ne comprend que des processus et interactions à logique connue et descriptible en langage informatique. Le nombre de processus se déroulant en parallèle ne pose pas problème, dans la mesure où un ordinateur moderne peut exécuter des logiciels simulant des milliers de processus simultanés. La connaissance d'un processus ou d'une interaction implique celle de ses variables d'entrée (reçues de l'extérieur du système ou d'autres processus), de ses variables de sortie (fournies à l'extérieur ou à d'autres processus), de la logique de réponse aux diverses sollicitations avec les temps de réponse correspondants, etc. Un modèle informatique à processus simultanés multiples se comporte comme autant d'ordinateurs indépendants, calculant en même temps et capables de communiquer entre eux et avec l'extérieur. Un processus peut en lancer ou en arrêter un autre, échanger avec lui des messages, attendre un événement venant de l'extérieur ou d'un autre processus, exécuter un calcul en fonction de données reçues ou trouvées en mémoire, tenir compte du temps pour aller à la même vitesse que la réalité qu'il simule, etc. Un processus peut en coordonner d'autres. Il peut aussi leur fournir des services comme la reprise sur incident, la gestion des files d'attente de messages, la journalisation des événements du système à des fins de traçabilité, la protection contre des intrusions, les télécommunications, etc. 3.5.11.3.1 Des avancées très prometteuses en matière de modélisation En pratique, on simule un ensemble de processus simultanés qui interagissent avec un logiciel orienté objets comme C++, où chaque processus est un objet indépendant. Les divers objets peuvent être exécutés simultanément dans un même processeur d'ordinateur en utilisant des tâches et/ou des threads simultanés ; on peut aussi les répartir entre plusieurs ordinateurs qui communiquent en réseau, pour ajouter leurs puissances de calcul. Cette architecture matérielle-logicielle permet d'exécuter simultanément des dizaines de milliers de processus, donc d'émuler le fonctionnement de systèmes extrêmement complexes. Modélisation de processus cellulaires à partir de la biologie moléculaire déterministe L'article [279] rend compte de la simulation de toutes les fonctions d'un microorganisme dont le génome comprend 525 gènes, sur 128 ordinateurs tournant en parallèle. A partir de la connaissance des mécanismes individuels de niveau moléculaire, y compris ceux de l'ADN, de l'ARN, des protéines et des métabolites, on a simulé ainsi tous les événements et processus de la vie de ce microorganisme, un microbe pathogène autonome. Les conséquences de cette possibilité de modélisation sont colossales : On peut ainsi désormais remplacer des tests biologiques de laboratoire par des simulations informatiques, processus reproductible, plus rapide et moins coûteux ; la compréhension des comportements du vivant et la mise au point de médicaments efficaces en sera considérablement facilitée. 221 On a une preuve matérielle de la possibilité, avec une grande puissance de calcul et une architecture logicielle à processus parallèles, de simuler tous les processus du vivant, des fonctions cellulaires de bas niveau à celles de la pensée, en décomposant chacune en niveaux hiérarchiques dont le plus bas est celui de la biologie moléculaire, complètement déterministe statistique. Avec le temps et la croissance de la puissance informatique disponible, on pourra constituer une bibliothèque de fonctions et comportements de base du vivant, sur laquelle on basera la compréhension de comportements de plus en plus complexes. Des modèles si fiables qu'on peut leur confier la vie humaine On sait faire des modèles informatiques complexes si fiables qu'on peut leur confier la vie humaine ; c'est le cas, par exemple, des commandes électriques de vol des avions modernes et de leurs systèmes de pilotage et d'atterrissage automatique sans visibilité. Le danger, alors, vient d'un défaut de spécification où l'homme aurait oublié de prévoir certains événements ou situations, et n'aurait pas introduit dans le modèle la logique nécessaire pour y répondre. On résout ce problème en faisant de nombreux tests – certains avec des valeurs aléatoires de variables initiales (comme dans la méthode de Monte-Carlo avec algorithme Metropolis), d'autres en accumulant de l'expérience ; par souci de sécurité on permet toujours à un homme de reprendre le contrôle en cas d'urgence. La modélisation informatique permet, par exemple, de reconstituer des phénomènes astronomiques ayant duré des millions d'années comme la formation d'un système planétaire à partir de gaz et poussières interstellaires. Elle le permet parce que les lois de la dynamique sont connues, ainsi que les paramètres à fournir au départ de la simulation. Il reste cependant beaucoup à faire Notre connaissance actuelle de l'économie ne nous permet de réaliser que des modèles trop grossiers pour prévoir les crises économiques ou même simplement financières, même lorsque la situation politique est supposée stable (détails : [301]). 3.5.11.4 Analyse statistique de systèmes complexes Il est fréquent que nous n'ayons pas besoin des niveaux de compréhension et de précision fournis par un modèle à processus déterministes pour résoudre un problème. C'est ainsi que, pour soigner certaines maladies, il n'est pas nécessaire d'avoir un modèle de certaines fonctions vitales de l'homme ; il suffit d'avoir le bon médicament ou la bonne association de médicaments. On peut donc souvent se contenter d'étudier la réponse d'un système complexe à certaines actions ou circonstances sans chercher vraiment à le comprendre. On fait alors des expériences (ou des statistiques sur une population) où l'on fait varier certains paramètres en notant à chaque fois la réponse du système. C'est ainsi, par exemple, qu'on teste sous un certain climat et dans un certain type de sol le rendement de diverses variétés d'une céréale alimentaire, en présence d'apports de divers engrais avec divers dosages. L'organisation des expériences doit alors produire le plus possible d'informations avec le minimum d'expériences ou la population testée la plus réduite possible. On utilise pour cela des méthodes statistiques dont nous nous 222 contenterons ici d'évoquer des noms : analyse de variance, plans factoriels, carrés latins, analyse de régression, corrélations, etc. Ces méthodes apportent des informations sur la réponse à certaines combinaisons de valeurs de certaines variables, sur le niveau de confiance qu'on peut avoir dans ces informations, et sur l'influence probable d'autres variables non prises en compte. Ces méthodes permettent même parfois de trouver la combinaison de valeurs de paramètres qui maximise une fonction économique, c'est-à-dire l'ensemble de valeurs de variables qui conduit à un optimum. C'est ainsi que j'ai fait pendant quatre ans des expériences permettant de trouver les paramètres de conception, d'affûtage et d'utilisation de forets qui maximisent la vitesse de perçage dans divers types de fonte ou d'acier, tout en garantissant une qualité géométrique de trou et une durée de vie imposée entre affûtages ; les résultats ont été spectaculaires et l'industrie automobile française en a profité. 3.5.11.5 Complexité et décisions médicales Le domaine de la médecine comprend de nombreux cas de situation complexe. Les connaissances disponibles sont partielles et incertaines : Partielles parce qu'on ne connaît qu'une partie des phénomènes qui interviennent ; Et incertaines parce que les lois d'évolution qui s'appliquent sont du type "avec ce médicament on observe 70 % de guérisons à 5 ans, et sans ce médicament on observe 80 % de décès dans les 2 ans." Dans de tels cas il n'existe pas de décision sans risque, alors que – s'il s'agit d'un malade – il risque parfois sa vie. On peut envisager des raisonnements probabilistes si des statistiques sur une population suffisante sont disponibles et significatives. Mais si ce n'est pas le cas, par exemple parce qu'il s'agit d'une maladie rare où les statistiques portent sur une population réduite, que faire ? Les raisonnements probabilistes consistent à envisager toutes les décisions possibles et à évaluer expérimentalement pour chacune la probabilité de succès, ainsi que le bénéfice et les effets secondaires escomptables (exemple : nombre d'années de survie, pathologies pendant ce temps-là, etc.). On résume les conclusions dans un tableau, qu'elles soient ou non chiffrées et quelle que soit leur précision, on discute entre médecins et si possible avec le patient, et on décide. Dans des cas moins graves ou moins urgents, les médecins appliquent souvent un raisonnement basé sur des facteurs de risque et des facteurs de protection. Facteur de risque On appelle facteur de risque un facteur qui prédispose à la maladie concernée. Exemple : fumer est un facteur de risque dans le cancer du poumon. Un facteur de risque donné accroît le risque de développer la maladie, mais il ne suffit pas pour la déclencher : il y a de gros fumeurs morts à un âge avancé sans avoir souffert de cancer du poumon (exemple : Winston Churchill) ; mais des statistiques sur une population importante montrent que les gros fumeurs ont bien plus souvent un cancer du poumon que les non-fumeurs. 223 Une circonstance est un facteur de risque lorsque d'autres facteurs interviennent, qu'ils soient connus ou non, et qu'on dispose de statistiques significatives ou seulement de corrélations. Un cas particulier important est celui où un facteur de risque A ne joue qu'en présence d'un autre facteur de risque, B. Si A exige B, il peut se faire qu'en réalité le risque de développer la maladie n'est pas associé à A mais seulement à B, et que le plus souvent quand B est présent A l'est aussi, d'où la tendance à penser que A est un facteur de risque. Il faut alors des études sérieuses pour déterminer les rôles respectifs de A et B. Si A exige B, il peut aussi arriver qu'il y ait une interaction entre A et B. Par exemple, B renforce l'effet de A lorsqu'il est présent au-delà d'une certaine limite. D'un point de vue quantitatif, on associe à un facteur de risque, chaque fois que c'est possible, un taux de risque ou risque relatif qui est un coefficient multiplicateur de la probabilité que le facteur de risque induise la maladie. On dit, par exemple, qu'une personne qui présente ce facteur de risque a 15 % de chances de plus que la population moyenne de développer la maladie avant 50 ans. Facteur de protection Il est fréquent qu'on sache qu'un facteur de risque joue moins en présence d'un autre facteur, appelé pour cette raison facteur de protection. Un facteur de protection n'a pas nécessairement en lui-même de rôle bénéfique, il ne joue que pour atténuer le risque d'une pathologie ou l'effet d'un de ses facteurs de risque. Cela peut se produire de deux manières : Soit le facteur de protection est défini comme la négation du facteur de risque. Affirmer, alors, la présence du facteur de protection revient à nier celle du facteur de risque, ou à affirmer que sur une échelle continue de risque on est plutôt du côté « protégé » ou plutôt du côté « à risque ». Exemple : un fort taux de cholestérol est un facteur de risque d'obstruction des artères coronaires, alors qu'un faible taux de cholestérol est un facteur de protection pour cette pathologie. Soit le facteur de protection est défini comme une cause qui s'oppose à la pathologie ou à un de ses facteurs de risque, qui l'empêche de jouer ou diminue son effet. Exemple : l'acquisition d'une immunité par vaccination empêche le plus souvent de développer la maladie. Exemple de raisonnement (chiffres tirés d'expériences sur une population malade) J'ai une arythmie cardiaque (exactement : une fibrillation auriculaire paroxystique) qui, compte tenu de mes autres facteurs de risque et de protection, a une probabilité de 12 % de déclencher un infarctus mortel dans l'année qui suit. Si je prends un médicament anti-arythmique appelé Amiodarone 200 mg, ma probabilité d'infarctus est divisée par 3, ce médicament apportant un facteur de protection ; l'Amiodarone ayant de redoutables effets secondaires, la division du risque par 3 en tient compte pour l'infarctus, mais pas pour d'autres inconvénients comme l'effet perturbateur de l'iode qu'il contient. Ai-je intérêt à prendre ce médicament ? Si je le prends, ma probabilité de mourir d'infarctus dans l'année passe de 224 12 % à 4 %, effets secondaires pris en compte : du point de vue du seul infarctus, j'ai intérêt à prendre ce médicament. Supposons à présent qu'un autre médicament, le Kardegic 160 mg, puisse lui aussi diviser par 3 ma probabilité de décès d'infarctus dans l'année, mais sans effet secondaire. Si on peut le prendre en même temps que l'Amiodarone, pour que leurs effets s'ajoutent, il faut le faire. Mais s'il faut choisir entre les deux traitements, c'est celui qui a le moins d'effets secondaires qui devient préférable. Conclusions Cette approche me paraît correcte, compte tenu de l'état des connaissances en médecine. Mais je constate qu'à force de réfléchir et de décider dans un domaine où les connaissances manquent tellement, certains médecins que je connais ont souvent des raisonnements peu rigoureux : désaccords entre eux sur les faits et sur les méthodes statistiques, prises de position idéologiques et manque d'ouverture d'esprit. Je pense que l'enseignement de la médecine et les pratiques en matière de publication ne prédisposent pas assez à la rigueur intellectuelle, exactement comme ma formation en sciences exactes ne me prédispose pas au sens de l'humain. 3.5.11.6 Résultats remarquables de certains processus calculables 3.5.11.6.1 Algorithme de calcul de Pi - Suite pseudo-aléatoire de nombres entiers (Définition d'un algorithme : voir [69]) Considérons la suite des décimales du nombre Pi ( = 3.1415926535…), nombre parfaitement calculable dont on connaît, paraît-il, les 200 premiers milliards de décimales (voir programme Java [342]). D'après les tests d'autocorrélation effectués, la représentation décimale connue de Pi ne présente aucune régularité permettant de prédire une décimale connaissant les précédentes ; c'est une raison de la considérer comme toute entière imprédictible… jusqu'à preuve du contraire. Exemple : la formule de calcul de Pi donnée par John Machin au XVIIIe siècle est : 16 Arctg 2 k 1 x 1 1 où Arctg x (1) k 4 Arctg 2k 1 5 239 k 0 On peut aussi calculer /4 en sommant directement la série Arctg 1 : 𝜋 1 1 1 1 1 = 1− + − + − +⋯ 4 3 5 7 9 11 Comme il n'existe pas de logiciel de calcul de précision infinie, mais seulement des logiciels garantissant une précision de N chiffres dans chaque opération (où N peut atteindre des milliers de décimales), le calcul de la somme d'une série comme Arctgx a une précision limitée, d'autant plus limitée qu'il faut sommer de nombreux termes. L'algorithme de calcul de Pi est bien déterministe au sens traditionnel. Son résultat, le nombre réel , est calculable avec une approximation qui ne dépend que de la précision des calculs. Comme la représentation décimale de ne présente aucune régularité connue permettant de prédire une décimale connaissant tout ou 225 partie des précédentes, on a là un exemple de processus à déroulement déterministe dont une représentation numérique du résultat présente des irrégularités imprévisibles. Cette imprévisibilité existe quelle que soit la base, même si ce n'est pas 10. En somme, pour tout entier M>0, tout algorithme de calcul de Pi est un générateur de suites de nombres entiers imprévisibles de M chiffres, nombres obtenus en considérant des « tranches » successives de M chiffres dans la suite (infinie et non périodique) des décimales de Pi [98]. Comme on ne peut prouver que cette suite de chiffres est aléatoire, on l'appelle pseudo-aléatoire. Le caractère déterministe d'un processus n'entraîne donc pas nécessairement l'existence d'une représentation de son résultat qui ait une régularité ou une prévisibilité quelconque : précision, périodicité, symétrie, etc.: nous l'avons déjà vu plus haut. Contrairement à une fraction, par exemple, dont la suite des décimales est nécessairement périodique (exemple : 22 divisé par 7 = 3.142857 142857 142857 où la suite de 6 chiffres 142857 se répète indéfiniment) certains nombres réels comme ont une représentation décimale sans périodicité ni loi permettant de prévoir la décimale de rang p connaissant tout ou partie des décimales précédentes [56]. Conclusion Lorsqu'une suite de valeurs ou de concepts semble aléatoire parce que nous n'y trouvons pas de régularité, elle peut résulter d'un phénomène déterministe apériodique comme celui des suites de groupes de M décimales successives de générées par un algorithme ; mais nous n'avons la certitude ni de son caractère imprévisible (hasard postulé), ni de son caractère stochastique (relevant du calcul des probabilités). 3.5.11.6.2 Dynamique des populations Dans les études d'évolution d'une population humaine ou animale limitée par la capacité du milieu à la supporter interviennent parfois des suites de la forme : xn+1 = axn(1-xn) où l'indice n repère le temps (par exemple l'année), x n est la valeur (constante ou moyenne) de la variable x (exemple : effectif de la population à l'instant n), et a est une constante. Par exemple avec a = 4 et x1 = 0.7 cette suite donne des valeurs successives de x lorsque l'instant n varie de 1 à 251 représentées par le graphique ciaprès : 226 Suite des valeurs xn+1 = 4xn(1-xn) où x1 = 0.7 et n varie de 1 à 251 Cet exemple illustre une deuxième catégorie de processus déterministes, dont les résultats varient de manière erratique bien qu'ils soient prévisibles puisqu'on peut les calculer. Lorsqu'un expérimentateur trouve une suite de résultats ressemblant à ceuxlà, il est tenté d'en déduire à tort que le phénomène sous-jacent n'est pas déterministe, mais aléatoire. Le déterminisme d'un phénomène n'est donc pas toujours apparent au vu de son évolution ou de ses résultats. Dans ces cas-là, si on ne sait pas trouver sa loi par raisonnement (par exemple en considérant son spectre de fréquences de Fourier et 227 sa fonction d'autocorrélation) elle peut rester cachée, particulièrement si on ne peut vérifier si elle donne des évolutions reproductibles. 3.5.11.7 Déterminisme et durée Le mathématicien anglais Alan Turing a démontré en 1936 qu'il n'existe pas d'algorithme universel permettant de savoir si un programme (logiciel) donné s'exécutera ou non en un temps fini. Or si le calcul d'un résultat demande un temps infini ou très grand, ce résultat ne peut pas être qualifié de calculable, car il arrive qu'on ne puisse pas le connaître ou en deviner une approximation avant la fin du calcul. Un algorithme est un processus déterministe, car on sait exactement ce qu'il fait et il satisfait aux conditions de la définition du déterminisme scientifique. Mais il peut s'avérer non calculable en pratique si le temps nécessaire pour que son résultat apparaisse est infini ou plus grand que notre patience [114]. Et comme d'après la démonstration de Turing on ne peut savoir d'avance, en général, au vu d'un algorithme et de ses données initiales, si son temps d'exécution sera infini, il faut exécuter le logiciel de l'algorithme et considérer arbitrairement comme infini un temps qui nous paraît trop long… Pour aller plus loin, il faut si possible étudier mathématiquement sa vitesse de convergence. Le déterminisme lui-même, puisqu'il régit l'évolution d'une situation initiale (la cause) à une situation finale (la conséquence), implique un intervalle de temps « acceptable » entre ces deux situations. Un intervalle de temps nul fait qu'on ne parle plus de déterminisme mais de conséquence logique. On ne peut plus séparer cause et conséquence en tant que phénomènes, la conséquence est une simple déduction logique de la cause. Exemple : si la cause du phénomène est "X > 6", la conséquence "X + 1 > 7" est vraie en même temps et ne constitue pas une évolution. Voir aussi l'importante discussion "séparabilité/non-séparabilité" plus bas. Un intervalle de temps infini, ou simplement beaucoup plus long que l'échelle de temps du phénomène, fait qu'on n'attend plus la conséquence ; parfois on la découvre des années après. Exemple : en général le temps de réponse de mon PC est de l'ordre d'une seconde. Il m'est arrivé plusieurs fois, après une longue minute d'attente, de considérer qu'il tournait en rond et d'interrompre brutalement le traitement ; comme ce système exécute environ 1 milliard d'instructions par seconde, je n'imagine pas qu'une application de bureautique puisse prendre si longtemps pour traiter une transaction. Parmi la vingtaine d'applications que j'utilisais jusqu'en 2006 une seule demandait 30 à 40 minutes de traitement, la conversion des 450 pages d'un de mes livres du format ".doc" de WORD en format ".pdf" d'Adobe Reader, et après l'avoir interrompue à tort deux fois, j'ai appris à patienter. Heureusement, depuis la version WORD 2007, ce logiciel de traitement de textes effectue lui-même la conversion de son format natif en format ".pdf", et le fait en une dizaine de secondes pour le même document. Un intervalle de temps acceptable a une durée du même ordre que celle que notre esprit ou la théorie associent à la cause, le résultat attendu ou l'évolution 228 de l'une à l'autre. L'acceptabilité est un critère subjectif, bien entendu, mais par quoi pourrait-on le remplacer ? Exemple : le service public de La Poste doit acheminer une lettre neuf fois sur dix en 1 jour ouvrable. En considérant qu'une lettre qui n'est pas arrivée au bout de 5 jours n'est pas partie ou a été perdue, je ne me trompe que rarement. 3.5.11.7.1 Nombres réels et problèmes non calculables Définitions Par définition, un nombre réel est dit calculable s'il existe un algorithme permettant de le calculer en un temps fini. Une racine carrée, par exemple, est calculable avec toute précision (nombre de chiffres exacts) imposée. Un résultat est dit calculable s'il existe un algorithme permettant de l'obtenir en un nombre fini d'opérations de durée finie (donc en un temps fini). [114] Tout algorithme mettant en jeu un nombre fini d'étapes de durée finie est donc calculable ; sa logique est déterministe. Un ensemble d'entiers E est dit calculable s'il existe un algorithme permettant de savoir en un nombre fini d'étapes si un entier donné X appartient à E. Il existe des ensembles d'entiers non calculables, dont un exemple est cité par [91] page 158. S'il est bien conçu, un algorithme comprend des tests de fin lui permettant de s'arrêter lorsque le nombre de décimales calculées ou de termes calculés est suffisant, ou que le temps de calcul a dépassé une certaine durée ; cet arrêt est indispensable pour que l'algorithme fournisse un résultat, s'il n'en imprime pas une partie (une des décimales successives ou des termes successifs) à chaque étape. Nombres réels non calculables Hélas, il existe des nombres réels non calculables. Un exemple de procédé pour prouver l'existence d'un tel nombre (sans le calculer) est cité dans [91] page 108 ; ce nombre a une infinité de décimales telle que sa décimale de rang n est définie comme prenant la valeur 1 ou la valeur 0 selon que la machine de Turing de rang n calculant sur le nombre n s'arrête ou non, ce qu'il est impossible de savoir d'avance au moyen d'un algorithme (impossibilité démontrée par Turing). J'avoue être pris de vertige quand je songe à un nombre réel (bien nommé, car il existe vraiment !) qu'on ne peut écrire parce qu'on ne peut le calculer ! Et je ne suis pas seul : il y a des gens, les intuitionnistes, qui refusent de croire à l'existence d'un tel nombre. Voir aussi l'exemple d'onde définie par sa fonction de propagation dont l'amplitude à l'instant t=0 est calculable et l'amplitude à l'instant t=1 est continue mais non calculable [115]. Conséquence pour le déterminisme L'existence de nombres réels non calculables - il en existe une infinité - illustre une limite de prédictibilité du déterminisme : il y a des algorithmes déterministes qui prouvent l'existence de quelque chose (ici un nombre) qui ne peut être décrit (sa représentation n'est pas calculable) à l'exception de propriétés particulières (l'unicité 229 par exemple, dans le cas de nombres réels de propriétés données). Le déterminisme permet alors d'en prévoir l'existence et certaines propriétés, mais pas la valeur. Nous avons défini le déterminisme étendu comme un principe régissant toutes les lois de la nature. La définition du déterminisme scientifique traditionnel s'applique aussi aux algorithmes, processus intellectuels qui ne sont pas des évolutions naturelles ; mais la convergence d'un algorithme en un temps fini et la régularité d'une suite de résultats qu'il génère ne sont pas nécessairement prédictibles. Plus généralement, la pensée humaine est imprévisible à partir de la hiérarchie des phénomènes qui la composent, hiérarchie commençant avec la génétique et se terminant par les divers niveaux du « logiciel » psychique ; cela vient, par exemple, de l'effet de l'inconscient [353]. Nous étudierons cela plus bas. L'existence de nombres réels non calculables peut sembler n'intéresser que des mathématiciens. Mais la limite correspondante du déterminisme apparaît aussi dans des phénomènes physiques observables : dans l'Univers il existe de la matière sombre dont l'existence est prouvée mais dont on ne peut rien « voir » d'autre que l'effet gravitationnel à distance; et les particules atomiques ne sont "visibles" que sous forme mathématique. Voir en complément la discussion des conditions de prise en défaut du déterminisme. Exemple de problème non calculable : le pavage du plan Enoncé : étant donné un ensemble fini de formes planes polygonales différentes, existe-t-il un algorithme pour décider si en les juxtaposant d'une certaine façon on peut paver (c'est-à-dire recouvrir) la totalité du plan ? C'est le « problème du carreleur » : comment disposer ses carreaux pour couvrir un sol sans trou ni recouvrement ? Voici un exemple issu de [147] : Pavage de Penrose Le plan est pavé de carreaux en forme de losange. Les carreaux à bords parallèles horizontaux sont grisés et alignés en colonnes séparées tantôt par des intervalles étroits (S) ou larges (L). Le pavage forme des motifs qualifiés de quasi périodiques ; il 230 est déterministe en ce sens que l'ordre de juxtaposition des carreaux peut être généré par un algorithme. Selon [91] page 176, Robert Berger a démontré en 1966 qu'il n'existe pas, en général, d'algorithme permettant de disposer des carreaux polygonaux donnés de manière à paver le plan : ce problème-là est sans solution. Sa démonstration prouve l'existence de pavages du plan qui ne contiennent pas de parallélogramme répétitif, appelés "pavages non périodiques". En voici un exemple dû à [148] : Pavage non périodique Voici trois exemples de pavage répétitif dus à [148] : 3.5.11.7.2 Il y a infiniment plus de réels non calculables que de réels calculables Les programmes que l'on peut écrire dans un langage de programmation donné (exemple en langage Java : [342]) forment un ensemble dénombrable (ensemble qui compte autant d'éléments-programmes que l'ensemble des entiers naturels 0, 1, 2, 3… compte d'entiers. En effet, un tel programme est une combinaison de taille finie 231 d'un nombre fini de symboles de base (signes alphanumériques). Un programme, défini comme un couple (logique de calcul, données initiales) peut donc calculer un nombre réel et un seul. Le nombre de nombres réels calculables par des programmes est donc une infinité dénombrable. Or l'ensemble des nombres réels n'est pas dénombrable : il y a infiniment plus de nombres réels que de nombres entiers naturels (on dit que l'ensemble des réels a « la puissance du continu »). Comme le nombre de programmes est une infinité dénombrable, il y a nécessairement une infinité de nombres réels qui ne sont pas calculables. Approfondissons un peu cette situation en partitionnant l'ensemble des nombres réels en deux catégories, les nombres algébriques et les nombres transcendants [56] : On appelle nombre algébrique un nombre réel qui est racine d'un polynôme à coefficients entiers, c'est-à-dire d'une équation de la forme : a0xn + a1xn-1 + a2xn-2 +….+ an = 0 où les coefficients ai et l'exposant n sont tous entiers. Un nombre réel non algébrique comme est dit transcendant : il n'est racine d'aucune équation polynomiale à coefficients entiers [56]. On démontre que : L'ensemble des nombres réels algébriques est dénombrable, c'est-à-dire que chaque nombre algébrique peut être associé à un entier naturel et un seul ; L'ensemble des nombres réels, algébriques ou transcendants, n'est pas dénombrable ; il y a infiniment plus de nombres réels que de nombres entiers naturels ; il y a donc infiniment plus de nombres transcendants que de nombres algébriques ; Tout nombre algébrique est calculable : on peut écrire au moins un programme informatique qui le calcule en un nombre fini d'étapes ; L'ensemble des nombres réels transcendants comptant infiniment plus d'éléments que l'ensemble des entiers naturels, il existe une infinité de réels pour lesquels on ne peut écrire de programme de calcul, c'est-à-dire de réels non calculables. 3.5.11.7.3 Propositions indécidables Il y a une limite du déterminisme sur laquelle nous reviendrons à propos de la pensée humaine : certaines affirmations peuvent être formulées, mais ni démontrées ni infirmées avec un algorithme calculable [114] ; lorsqu'on peut prouver que leur véracité ne peut être ni démontrée ni infirmée on les qualifie d'indécidables. [6] Certaines de ces affirmations se révéleront exactes dans de très nombreux cas et ne seront fausses dans aucun cas connu, mais on ne pourra pas prouver qu'elles sont toujours vraies ; d'autres se révéleront fausses, un seul cas suffisant alors si on fait l'hypothèse qu'une affirmation est toujours vraie ou toujours fausse [99]. 232 Nous préférerons désormais l'expression proposition logique (ou simplement proposition) à celle d'affirmation, car on a pris l'habitude de parler de calcul des propositions. Une proposition logique est indécidable dans deux cas : Si on peut prouver qu'il n'existe pas d'algorithme pour calculer si elle est vraie ou si elle est fausse ; Ou si la démonstration de sa valeur logique ("vrai" ou "faux") peut exiger un algorithme qui ne s'arrête pas, obligeant ainsi à attendre indéfiniment sa réponse. 3.5.11.8 Calculabilité, déterminisme et prévisibilité Considérons deux nombres réels calculables. Il est important de savoir s'ils sont égaux ou non. Si on connaît une démonstration (par raisonnement) de cette égalité ou inégalité, on a une réponse théorique à la question. Mais si on n'en connaît pas, on peut se demander s'il existe un algorithme à qui la donnée de ces deux nombres (ou la comparaison de paires de décimales successives, une de chaque nombre) permet de répondre à la question de leur égalité. Hélas, la réponse à la question sur leur égalité est "en général, non". Par exemple, deux nombres réels irrationnels ayant une suite infinie et non périodique de décimales, un algorithme qui comparerait une par une les décimales de même rang ne se terminerait pas s'il continuait à comparer les décimales tant qu'elles sont égales ; on n'en connaîtrait donc jamais, alors, le résultat. La comparaison de deux nombres irrationnels n'est pas la seule opération de durée éventuellement infinie, donc par définition non calculable, puisque nous savons que : Un algorithme est toujours déterministe, car il effectue seulement des opérations déterministes (voir les hypothèses [114]). Comme un algorithme n'a que des opérations déterministes, la calculabilité exige le déterminisme : un phénomène non déterministe au sens scientifique traditionnel, s'il existait, ne pourrait être modélisé de manière calculable. Mais nous avons vu à propos du hasard qu'il n'en existe qu'un dans la nature, le déterminisme statistique de la décohérence, et l'évolution par choix au hasard de valeur propre correspondante est régie par le déterminisme étendu. Partant de données initiales, un algorithme peut : S'arrêter après un nombre fini d'opérations, et son résultat est alors, par définition, calculable ; Ne pas s'arrêter, et son résultat est alors, par définition, non calculable. Mais avec des données initiales différentes son comportement peut être autre. (Et comme signalé plus haut, il n'existe pas d'algorithme général pour savoir d'avance, sans l'exécuter, si un algorithme s'arrêtera.) Il y a autant d'algorithmes qui ne s'arrêtent pas que l'on veut, puisque : On peut écrire autant de programmes qui bouclent que l'on veut ; 233 Il existe une infinité de programmes qui bouclent pour certains cas de données initiales et pas pour d'autres ; Un programme calculant une suite ou une série non convergente peut tourner indéfiniment sans converger. Un autre cas de non-calculabilité est celui où le résultat à calculer est infini, ce qui se produit dans certaines théories physiques mal adaptées à la réalité [119]. D'où la confirmation de la conclusion déjà énoncée : il y a des processus déterministes dont le résultat n'est pas calculable, parce qu'il faudrait : Soit un nombre infini d'opérations, donc un temps infini. Ce sont en fait des processus multiétapes, qui en comptent un nombre infini dont chacune a une durée finie (et non infiniment courte !) ; Soit calculer des valeurs infinies, ce qui n'a pas de sens ; Soit parce qu'ils définissent un nombre ou un concept non calculable, problème déjà évoqué ; Soit parce qu'ils ont construit une proposition indécidable [6]. Exemple informatique : étant donné un nombre entier n, valeur initiale fournie à un algorithme, affecter au résultat de l'algorithme la valeur 1 si la machine de Turing de rang n lancée avec le nombre n s'arrête, et 0 si elle ne s'arrête pas. Puisqu'on ne peut savoir d'avance (sans la faire tourner) si la machine de Turing s'arrêtera dans ce cas, la proposition est indécidable et l'algorithme peut ne jamais s'arrêter, son résultat étant donc non calculable. Exemple psychologique : les processus psychiques se déroulent dans l'inconscient [353] sous forme de changement de l'état et des interconnexions de neurones. Comme tout processus de la vie est une combinaison, au plus bas niveau, de réactions de biologie moléculaire (régies par le déterminisme statistique) on pourrait s'attendre à ce que les processus inconscients soient aussi déterministes. Ils ne le sont pas parce que leurs fonctions dépendent de paramètres corporels et psychiques qui varient constamment selon le contexte, et que nous ignorons car ils sont inaccessibles puisque hors de la conscience ; en outre, l'inconscient effectue des associations et transformations d'images mentales et de représentations indépendamment des règles de logique et d'écoulement du temps. Les "pensées" de l'inconscient (images mentales indifférentes au temps et à la logique) apparaissent donc d'une manière imprévisible et non reproductible. Lorsque la conscience a accès à une de ces pensées ou subit l'influence d'un processus inconscient, la pensée dont elle est consciente est apparue de façon inexplicable ; ses qualités de véracité, de non-contradiction, etc. sont donc indécidables. Autre exemple de processus déterministe à résultat non calculable Source : [91] page 243. Les équations différentielles de propagation d'onde sont déterministes au sens traditionnel : leurs solutions sont telles que les données de l'instant t=0 déterminent complètement l'onde à tout instant ultérieur. Or il existe des cas où une solution a des données initiales calculables et des valeurs ultérieures non calculables [116] ; dans une telle solution à un problème physique déterministe, 234 certaines fonctions ont des valeurs tantôt calculables, tantôt non calculables. Et pourtant la nature n'hésite pas : à partir de toute situation initiale elle déclenche une évolution conforme à ses lois ! Conclusion Dans des cas particuliers rares, en physique ou dans des expériences de pensée construites à cet effet, le résultat d'une formule ou d'un processus physique déterministe peut être non calculable, ou tantôt calculable tantôt non calculable. Si le processus est une évolution physique, la non-calculabilité n'empêche pas l'évolution, elle empêche seulement de prévoir son résultat. 3.5.11.8.1 Calculabilité d'une prédiction En généralisant par induction nos observations sur les évolutions des systèmes physiques, nous avons postulé que les phénomènes de l'Univers sont déterministes. A part comprendre une situation, connaître le déterminisme sert à prévoir l'avenir. Il est important de savoir si, dans une situation donnée, il existe nécessairement un algorithme de prédiction de son évolution. Cette question se pose d'autant plus que nous venons de voir qu'il y a des processus déterministes dont le résultat n'est pas calculable ; nous savons aussi déjà qu'un algorithme est toujours déterministe, mais qu'il ne fournit pas toujours un résultat. Indécidabilité prouvée et indécidabilité pratique Considérons l'affirmation inquiétante : « La guerre atomique qui détruira l'humanité commencera dans 30 ans. » Nous ne savons pas si cette affirmation est décidable, c'est-à-dire s'il existe aujourd'hui un algorithme (raisonnement déductif formel) permettant de la déclarer vraie ou fausse. Nous savons, en revanche, que le nombre de paramètres d'un tel algorithme permettant d'y répondre est immense, tellement immense que l'effort pour trouver cet algorithme est décourageant. En pratique, donc, nous considérerons cette affirmation comme indécidable. D'où une première constatation : une proposition peut être indécidable à coup sûr, parce que cette indécidabilité a été démontrée dans le cadre d'une axiomatique [67], ou être indécidable en pratique, parce que l'effort pour le savoir est hors de portée ou parce que nous n'avons pas les connaissances nécessaires. Remarquons aussi, en passant, que l'affirmation ci-dessus est infalsifiable : il n'existe pas de moyen pratique de prouver qu'elle est fausse 30 années à l'avance. C'est le cas de toutes les prédictions « boule de cristal » que les auteurs d'horoscopes formulent soigneusement pour qu'elles soient infalsifiables. Considérons à présent l'affirmation « La guerre atomique qui détruira l'humanité commencera dans 30 minutes. » Cette affirmation a beaucoup de chances d'être fausse, parce que la situation mondiale grave conduisant à une telle guerre n'existe pas en ce moment, et qu'il faudrait plus de 30 minutes pour qu'elle apparaisse. On voit qu'une différence minime, le remplacement du mot "ans" par le mot "minutes", peut changer la prédictibilité pratique d'un résultat d'évolution. Cette calculabilité (ou, plus généralement, cette prédictibilité) pratique n'est donc pas une propriété exclusivement formelle, elle dépend aussi de la sémantique. Donc, en général : 235 On ne peut prédire le résultat du déroulement d'un algorithme au vu de son texte et de ses données initiales, il faut attendre la fin de son déroulement ; cela peut prendre du temps, et si ce temps est trop long… On ne peut prédire l'évolution d'une situation complexe par un simple raisonnement déductif formel, il faut prendre en compte les valeurs de ses paramètres, leur signification et leur impact. Parfois, il faudra attendre que la situation ait déjà un peu évolué avant de pouvoir prédire la suite de cette évolution. Déterminisme et prédiction de l'avenir Nous savons maintenant qu'il y a des phénomènes déterministes dont le résultat n'est pas prédictible par raisonnement logique ou calcul, en théorie (indécidabilité) ou en pratique. Mais leur caractère déterministe n'en est pas moins certain puisqu'ils satisfont les deux critères de la définition : la condition nécessaire et suffisante et la stabilité. C'est ainsi que tous les phénomènes biologiques du vivant sont déterministes en tant que résultats d'un ensemble de phénomènes composants déterministes (de biologie moléculaire), alors que les conséquences des mécanismes physiologiques et psychologiques basés sur eux sont souvent imprévisibles : Parce qu'on ne connaît pas – ou pas assez bien - tous ces composants [51] - notamment lorsqu'interviennent des mécanismes mentaux non conscients ; nous verrons plus bas cette conséquence de la complexité. Parce que la reproductibilité (stabilité des circonstances complexes) n'est pas assurée. L'homme est souvent imprévisible bien qu'il fasse partie de l'Univers, dont les phénomènes physiques sont tous déterministes, mais dont les interactions (exemple : phénomènes psychologiques) ne le sont pas nécessairement (en psychologie du fait de l'inconscient [353]). Il faut donc bien, en pratique, limiter la promesse de prédictibilité du déterminisme traditionnel, que ce soit celui de Laplace [200] ou le déterminisme scientifique. Nous l'avions déjà remarqué. 3.5.11.8.2 Phénomènes déterministes à conséquences imprévisibles et erreurs philosophiques Nous savons à présent qu'il existe des phénomènes dont le déroulement est déterministe, mais dont le résultat ne peut être prédit au départ : Soit parce qu'il faut un temps de calcul infini pour que l'algorithme calcule le résultat ; Soit parce qu'au vu d'un algorithme et de ses données initiales on ne peut savoir à l'instant du lancement s'il s'arrêtera, s'il se bloquera sur une opération impossible comme une division par zéro, ou s'il fournira un résultat en un temps fini assez court pour que nous l'attendions ; Soit parce que la complexité du phénomène (nombre de phénomènes déterministes composants trop élevé, interactions trop complexes), la présence d'imprécisions (paquet d'ondes, Compton) ou celle d'instabilités (Heisenberg), rendent son évolution imprévisible en pratique, même si elle est prévisible en théorie ; 236 Le cas le plus grave d'impossibilité de prédire une évolution est certainement celui dû au principe d'incertitude de Heisenberg. Lorsque, conformément à ce principe, la valeur d'une variable à un instant donné n'est pas définie et peut changer sans cause, on ne peut même pas décrire l'état actuel ; il est alors impensable de décrire son évolution. Ainsi, on ne peut prédire les fluctuations quantiques. Soit parce que l'instabilité du contexte du phénomène ou sa sensibilité aux conditions initiales rend celui-ci imprévisible en pratique ; Soit parce qu'il n'existe pas d'algorithme pour calculer le résultat (exemple : problème du pavage du plan avec des carreaux polygonaux, qui n'a pas d'algorithme dans le cas général, mais dont tout pavage réalisé par un homme l'a nécessairement été de manière déterministe). Cette situation a été à l'origine d'erreurs de raisonnement sur le déterminisme, commises par des philosophes qui confondaient impossibilité de toujours prévoir par algorithme (raisonnement logique) le résultat d'une évolution, et non-déterminisme. 3.5.11.8.3 Calculabilité par limitations et approximations Dans un ordinateur, un programme ayant un nombre d'instructions fini de durée individuelle finie, ne peut durer indéfiniment que s'il exécute un nombre infini d'opérations, soit en bouclant, soit en exécutant un algorithme non convergent. Ces cas impliquent l'oubli par le programmeur d'inclure des tests de convergence. Excluons-le désormais. Un programme qui manipule des nombres réels travaille sur des approximations binaires finies de ces nombres ; chaque opération de calcul a donc une durée finie. L'égalité de deux nombres est définie à une décimale du dernier ordre près. Les opérations (comme la multiplication et la division) qui génèrent plus de décimales que le logiciel n'en peut traiter se terminent par une troncature des décimales en surnombre du résultat. Les calculs approchés ayant des règles précises, ils sont déterministes. L'utilisation de valeurs numériques approchées est justifiée parce que : la précision des grandeurs physiques, scientifiques, financières ou autres qu'elles représentent est elle-même limitée ; nous ne savons pas créer et manipuler des nombres de précision infinie. L'esprit humain effectue, lui aussi, des opérations approchées, notamment lorsqu'il raisonne par analogie, lorsqu'il compare deux objets en ne considérant qu'une partie de leurs propriétés, ou lorsque l'inconscient [353] fait des rapprochements surprenants. Cette possibilité est bénéfique, car une connaissance exhaustive est rare, et un résultat approché obtenu rapidement est souvent plus utile dans la vie courante qu'un résultat plus précis obtenu trop tard. Nous verrons plus bas que ces opérations mentales approchées sont en général non déterministes, parce qu'elles mettent en œuvre des critères de qualité (précision, rigueur, etc.) non reproductibles ; ces critères peuvent être basés, par exemple, sur des quantités de neurotransmetteur ("molécules d'anticipation, de désir") positives (agréables) ou négatives (désagréables) dans le cortex préfrontal du cerveau, quantités qui peuvent varier avec les circonstances externes (environnement, santé, etc.) [51] 237 3.5.11.9 Déterminisme et convergence des processus et théories Le déterminisme est un principe qui régit l'évolution d'une cause vers sa conséquence. Nous avons vu que si cette évolution est celle d'un algorithme qui demande un temps de calcul infini on ne peut plus parler de calculabilité, même si chaque étape de calcul peut se faire en un temps fini. Il est donc naturel de définir arbitrairement comme non déterministe un processus de calcul de durée infinie, au motif que son résultat est inaccessible, donc qu'il ne répond pas au besoin de prévoir. Si on accepte d'imposer au déterminisme cette contrainte de finitude, d'autres cas apparaissent où elle ne peut être satisfaite, cas que nous qualifierons de non convergents ou de divergents. Tous ces cas auront en commun de définir un résultat, de type scalaire, vectoriel, matriciel, tensoriel, ou autre : Soit comme la somme d'un nombre infini de termes dus aux étapes intermédiaires, somme que les mathématiciens appellent série, et une série peut converger ou non vers une somme limite finie, un nombre complexe déterminé, etc. ; Soit comme la limite d'une suite infinie de termes, qui peuvent tendre vers une limite finie ou non. Exemple : considérons la course entre le rapide Achille et une tortue [19]. Celle-ci part avec une avance a sur Achille et progresse à une vitesse v (petit v) tandis qu'Achille part en même temps et progresse à la vitesse V (grand V). Nous savons qu'Achille rattrapera la tortue en un temps a/(V-v) à la position aV/(V-v). Zénon (philosophe sceptique grec du IIIe siècle avant J.C.) calculait le temps nécessaire au rattrapage comme la somme d'une série ayant une infinité de termes [19], et comme il ne savait pas qu'une telle série peut être convergente si ses termes successifs décroissent suffisamment vite, il en concluait (par goût du paradoxe) qu'elle divergeait et qu'en réalité Achille ne rattraperait jamais la tortue ! L'exemple précédent montre l'intérêt d'un minimum de culture mathématique, la connaissance des cas de convergence et de divergence des séries et des suites de valeurs étant indispensable aux raisonnements déterministes comprenant un grand nombre d'étapes. Il y a d'abord la convergence dans l'espace, cas où les étapes successives d'un processus déterministe qui en compte une infinité ajoutent chacune de la distance au résultat ; celui-ci peut alors s'éloigner à l'infini ou devenir infiniment étendu si les ajouts successifs ne décroissent pas assez vite. En généralisant ce raisonnement à un espace des phases, un processus comptant une infinité d'étapes sera déclaré non déterministe pour cause de divergence si l'une des variables de son espace des phases est décrite par une suite ou une série divergente. Les exemples de convergence qui viennent naturellement à l'esprit comprennent une limite unique, mais il existe des convergences vers plusieurs limites comme dans le cas des attracteurs multiples. Enfin, on peut parler de convergence d'une théorie : voir [219]. 238 3.5.11.10 Logique formelle. Calcul des propositions. Calcul des prédicats 3.5.11.10.1 Logique formelle et logique symbolique La logique formelle La logique formelle est l'étude des affirmations, propositions et déductions considérées du point de vue logique, abstraction faite de leur application et de leur sémantique. Elle s'intéresse à la manière de déduire logiquement des propositions les unes des autres, avec des implications ou des exclusions. C'est une étude a priori, sans caractère expérimental ; elle n'utilise que des raisonnements logiques déductifs, sans jamais recourir à l'observation, l'expérimentation ou la critique du sens. Exemple 1 : l'affirmation « Le petit chat est mort » ne peut être que vraie ou fausse (principes de logique dits de contradiction et du tiers exclu, voir [99]) ; si j'admets qu'elle est vraie, je ne puis en même temps affirmer « Le petit chat est vivant », quel que soit mon raisonnement. Exemple 2 : le respect de la logique formelle est une condition nécessaire de validité d'une proposition. Si j'écris « le chat noir est blanc », c'est formellement impossible, parce que j'affirme à la fois une chose et son contraire, ce qui est illogique. Mais la validité en logique formelle n'est pas une condition suffisante pour qu'une proposition soit acceptable. La phrase « l'escargot déploya ses ailes et s'envola » est parfaite sur le plan du formalisme grammatical, mais son sens est absurde. La logique symbolique La logique symbolique fait partie de la logique formelle. Elle consiste d'abord à décrire de manière symbolique une axiomatique [67] comprenant : Des propositions (c'est-à-dire des formules ou des affirmations logiques désignées par une lettre minuscule comme p, q, r, ou s) ; exemples : p : « Un camion a heurté violemment le petit chat » q : « Le petit chat est mort » r:«x<5» s:«x=8» 0=0 (formule, proposition particulière non désignée par une lettre). La proposition contraire de p, appelée « non p » est notée ¬p. La valeur logique d'une proposition p ne peut être que 1 (vrai) ou 0 (faux) ; si p est vraie on écrit simplement p ou p=1, si elle est fausse on écrit ¬p ou p=0. Des opérations logiques sur ces propositions. Exemples : L'inférence "DONC" (c'est-à-dire si « proposition 1 » est vraie, alors « proposition 2 » est aussi vraie) notée ; Les conjonctions "ET" notée et "OU" notée , etc.) Ces opérations enchaînent deux ou plusieurs propositions ; exemples : p q (« si un camion a heurté violemment le petit chat, alors le petit chat est mort ») ; r ¬s (si x < 5, alors x=8 est faux, c'est-à-dire x8) 239 ¬(r s) = 1 (affirmer à la fois « x < 5 » et « x = 8 » c'est énoncer quelque chose de faux, mais son contraire est vrai). Le calcul logique symbolique consiste ensuite, une fois la notation posée, à écrire un algorithme (c'est-à-dire un raisonnement) qui enchaîne propositions et opérations pour arriver à une conclusion : c'est un calcul de propositions, abordé ci-dessous. La logique formelle est une activité parfaitement justifiée dans sa forme, mais qui ne se préoccupe pas de la signification et des implications de ses conclusions. En fait, elle exclut toute sémantique des propositions qu'elle manipule, laissant cette sémantique à une métalogique qui a ses propres règles. Elle est à la portée d'un ordinateur à qui elle permet, par exemple, de trouver des démonstrations en combinant de toutes les manières possibles les axiomes fournis au départ et les propositions déjà établies. La logique formelle ne convient ni aux raisonnements nuancés, ni à ceux dont on ne peut énoncer les axiomes de départ et les règles de déduction de manière complète et non ambiguë. Voir aussi l'important complément [221]. 3.5.11.10.2 Calcul des propositions Le calcul des propositions est la mise en œuvre de la logique formelle. Il est basé sur une axiomatique [67] appelée algèbre de Boole, qui applique aux propositions les concepts suivants : L'ensemble non vide de propositions appelé A, dont les éléments sont x, y, z… Les opérateurs d'appartenance à un ensemble (appartient) et (n'appartient pas) ; exemple : x A ; Les opérations logiques associatives "ET" notée et "OU" notée ; L'opérateur unaire (c'est-à-dire portant sur une seule proposition) "NON" noté ¬ ; Les paires de parenthèses ou de crochets "(" et ")" et "[" et "]" entourant une proposition à considérer comme un tout, avec une priorité d'autant plus grande que la paire est intérieure à une autre ; Les valeurs logiques 1 (vrai) ou 0 (faux) ; Le symbole = désignant un résultat de calcul logique. Les axiomes de l'algèbre de Boole sont d'après [128] : xA yA (x y) y = y ; (quels que soient x et y appartenant à A, la proposition (x y) y équivaut à y, ce qui est une tautologie) xA yA (x y) y = y ; xA yA zA x (y z) = (x y) (x z) ; xA yA zA x (y z) = (x y) (x z) ; xA x ¬x = 0 ; xA x ¬x = 1 ; 240 xA x 0 = x ; xA x 1 = x . Le calcul des propositions peut aussi se baser sur des tables comme la suivante, où la 3e ligne, par exemple, se lit : si p est faux et q est vrai, alors p q est faux, p q est vrai et p q est faux. p q pq pq pq 1 1 1 1 1 1 0 0 1 0 0 1 0 1 0 0 0 0 0 1 Exemple de table pour le calcul de propositions On voit l'extrême concision du calcul des propositions et son caractère automatique : il suffit d'appliquer les axiomes et les tables de règles. Voir aussi l'important complément [221]. 3.5.11.10.3 Calcul des prédicats Un prédicat est une proposition logique fonction d'une ou plusieurs variables. Exemples : P(x) et Q(y,z) (noter les majuscules pour les prédicats et les minuscules pour les variables). Selon les valeurs de ses variables, un prédicat prend la valeur 1 s'il est vrai, ou 0 s'il est faux. Le calcul des prédicats est le langage par excellence des raisonnements mathématiques. Il utilise : Tous les symboles du calcul des propositions, sauf les lettres minuscules qui désignent des propositions comme p et q ; Les nombres entiers non négatifs : 0 ; 1 ; 2 ;… et l'opérateur "successeur de", noté "s" faisant passer de l'un de ces entiers au suivant (exemple : 1=s0) ; Les variables comme x, y, z, qui peuvent être de type quelconque (scalaire, vecteur, variable logique, etc.) ; L'opérateur d'affirmation d'existence d'au moins 1 élément : ; exemple : x(x>5) (il existe un x qui est supérieur à 5) ; L'opérateur "quel que soit" : ; exemple : z(z2+3 k) (quel que soit z tel que z2+3 k) ; Exemple de prédicat fonction des variables entières non nulles x, y, z, n : le théorème de Fermat s'énonce : 241 x y z n [(n>2) (xn + yn zn)] On voit que grâce à son symbolisme et à sa rigueur, le calcul des prédicats est à la portée d'un ordinateur, notamment pour des démonstrations automatiques de théorèmes : on dit que les algorithmes de calcul des prédicats sont calculables. Voir aussi l'important complément [221]. 3.5.11.11 Problèmes insolubles. Théorème de Fermat. Equations diophantiennes On dit qu'un problème mathématique est insoluble lorsqu'on a démontré qu'il n'existe pas d'algorithme permettant de le résoudre. C'est le cas, par exemple, du problème de savoir si l'exécution d'un algorithme donné se termine en un nombre fini d'étapes, permettant d'obtenir son résultat (c'est-à-dire pour savoir s'il converge). Etant donné un problème, tant qu'on n'a ni trouvé de solution, ni démontré qu'il n'y en a pas, on ne peut rien affirmer en dehors d'éventuels cas particuliers. L'exemple le plus célèbre d'un tel problème, qui a fait le désespoir de nombreux mathématiciens depuis 1630 jusqu'en 1994, est le théorème de Fermat. En voici l'énoncé. En 1630, Fermat avait affirmé - sans donner de preuve - que l'équation xn + yn = zn, où les quatre variables x, y, z et n sont des entiers naturels n'a pas de solution non nulle pour n>2. (Pour n = 2, une solution connue est par exemple 3 2 + 42 = 52). Cette affirmation, appelée "théorème de Fermat" ou "grand théorème de Fermat" ou "dernier théorème de Fermat" n'a été démontrée qu'en 1994 par Andrew John Wiles. Pendant 364 ans on ne l'a vérifiée que dans des cas particuliers : certains mathématiciens obstinés l'avaient même vérifiée jusqu'à une puissance n voisine de 125 000, selon [91] page 135. Cette équation est un cas particulier d'équation diophantienne, nom qui désigne toute équation de la forme f(x1, x2,…, xp) = 0, où f est un polynôme à coefficients entiers dont on cherche les solutions, ensemble de p variables x1, x2,…, xp qui sont aussi des nombres entiers. Nous avons depuis 1970 une démonstration du fait qu'il n'existe pas d'algorithme universel permettant de savoir en un nombre fini d'opérations si une équation diophantienne donnée a ou non une solution en nombres entiers. Il existe donc des problèmes qui ont à coup sûr une solution calculable et d'autres qui n'en ont pas. Parmi ces derniers, certains ont une solution dont l'existence est prouvée, même si on ne sait - ou on ne peut - la calculer. (Exemple) Concernant le déterminisme, lorsqu'un problème a été « mis en équation », tous les cas précédents peuvent se produire. 242 3.5.11.12 Certitude de l'existence d'une démonstration dans une axiomatique Dans une axiomatique [67], soit une proposition P formée selon les règles (donc dite « syntaxiquement correcte »). Tous les théorèmes possibles dans cette axiomatique peuvent être générés automatiquement en combinant les divers axiomes et théorèmes précédemment démontrés selon les règles de déduction. En pratique, il faut se fixer une limite aux nombre de d'étapes déductives permettant la construction de théorèmes, car rien ne permet de limiter a priori la longueur d'un raisonnement déductif. On doit aussi vérifier, dans le processus de génération de déductions, qu'on ne génère pas une sous-arborescence déjà construite. Le raisonnement qui suit est donc théorique. Avec cette génération automatique, s'il existe un théorème (enchaînement déductif de propositions) prouvant que la proposition P est vraie ou qu'elle est fausse, il sera trouvé et démontré. S'il existe, car nous savons d'après les théorèmes d'incomplétude de Gödel [6], que certaines propositions sont indécidables, c'est-à-dire indémontrables parce qu'il n'existe pas (et ne peut exister) de théorème pour en prouver la véracité ou la fausseté. 3.5.11.13 Génération de nombres "aléatoires" avec une formule déterministe Considérons la suite xn+1 = axn(1-xn) que nous avons rencontrée plus haut à propos de la dynamique des populations, et choisissons x1 = 0.7 et a = 4. La suite des valeurs de xn pour n entre 100 et 500 est représentée par le graphique ci-dessous : Suite xn+1 = axn(1-xn) pour x1=0.7, a=4 et 100 ≤ n ≤ 500 La succession de valeurs de cette suite semble n'avoir aucune régularité, elle paraît imprévisible, donc aléatoire. Elle est pourtant générée par un algorithme parfaitement déterministe, et à résultats prévisibles puisqu'on peut calculer chaque élément x n+1 de la suite connaissant le précédent, xn. Cet exemple montre qu'une évolution irrégulière peut résulter de l'itération d'une formule déterministe. La trajectoire d'une molécule animée d'un mouvement brownien dans un fluide est elle aussi irrégulière, car soumise à la loi d'innombrables rebonds. Il en va de même pour les numéros produits par une « machine de tirage du loto ». 243 La génération par calcul et sa prédictibilité n'entraînent donc pas forcément la régularité des suites générées. L'approche ci-dessus permet de générer des ensembles de nombres paraissant aléatoires si on ignore leur mode de génération ou qu'on les considère sur un intervalle large comme ci-dessus. Nous avons vu une autre méthode pour générer une suite de nombres "aléatoires". Il suffit de considérer la suite des nombres en base 2 dont celui de rang n vaut 1 lorsque la machine de Turing calculant sur n s'arrête, et 0 si elle ne s'arrête pas. Comme l'arrêt du programme correspondant ne peut être prévu par aucun algorithme, cette suite de chiffres binaires est aléatoire (au sens imprédictible). Mais cette méthode n'est pas exploitable en pratique, parce qu'il faudrait exécuter l'algorithme de la machine de Turing pour savoir si elle s'arrête… Par ignorance ou manque de rigueur, la plupart des gens qualifient d'aléatoire une suite imprédictible de valeurs, certains informaticiens la qualifiant de pseudo-aléatoire. 3.5.11.14 Attracteurs multiples Dans certaines conditions, les évolutions d'un processus chaotique peuvent converger, au bout d'un certain nombre d'étapes, pour se regrouper au voisinage de plusieurs points de l'espace des phases appelés attracteurs, notion que nous avons déjà présentée. Une fois dans le voisinage d'un attracteur, le système continue à évoluer mais ne peut s'en éloigner. C'est le cas de la suite précédente xn+1 = axn(1-xn) pour certaines valeurs de a. Le graphique ci-dessous illustre cette suite, commençant toujours avec x1 = 0.7, après remplacement de a = 4 par a = 3 : après adaptation de l'échelle et de l'origine de l'axe vertical, on voit l'apparition de deux attracteurs au voisinage de x = 0.655 et x = 0.678. Les attracteurs sont des points d'accumulation [101] de l'espace des phases. 244 Suite des valeurs xn+1 = 3xn(1-xn) où x1 = 0.7 et n varie de 1 à 251 : on voit les attracteurs au voisinage de x = 0.655 et x = 0.678 3.5.11.15 « Accidents » de la réplication du génome et évolution vers la complexité Voici un autre exemple important d'évolution avec attracteurs. L'existence de conséquences multiples d'un état initial peut aussi produire des « accidents » (par exemple des liaisons moléculaires à probabilité faible qui s'établissent néanmoins) notamment lors du mécanisme de réplication du génome d'un être vivant. Dans l'immense majorité des cas le génome est parfaitement répliqué, 245 mais il y a de temps en temps des accidents appelés mutations. Bien que rares, ces accidents sont la première explication de l'évolution des espèces. L'apparition d'une espèce nouvelle à partir d'une espèce précédente est si surprenante qu'elle est considérée par certains comme un phénomène non déterministe ; elle relève pourtant du déterminisme statistique, comme une mesure en physique quantique qui choisit un résultat dans un ensemble avec une certaine probabilité. (L'évolution des espèces se produit aussi par évolution de l'expression des gènes décrite plus bas). On a constaté que l'évolution des espèces se produit par mutations génétiques importantes et pas par petites variations : il y a alors discontinuité, pas continuité comme Darwin l'avait pensé à l'origine [42]. Cette évolution est illustrée par le graphique ci-dessous, résultat de travaux publiés par The New York Times du 16/11/2006 dans l'article [303] : Evolution des hominiens vers le néanderthalien et l'homme On voit (partie supérieure du graphique étiquetée "Hominid family tree") une première séparation des hominidés en homme + néanderthalien et chimpanzé il y a 6.5 millions d'années. La partie droite de ce graphique est dilatée en dessous ; elle représente la période à partir de -706 000 où hommes et néanderthaliens se croisaient, puis une divergence brusque entre hommes et néanderthaliens vers -370 000. Les néanderthaliens ont disparu vers -28 000. Les travaux du prix Nobel de chimie 1977 Ilya Prigogine sur les structures dissipatives loin de l'équilibre thermodynamique ont complété et justifié ceux de Darwin, en montrant que de multiples phénomènes de diffusion peuvent conduire à des probabilités plus fortes en certains points de l'espace des phases appelés attracteurs étranges, lorsque le système qui évolue dissipe de l'énergie (comme c'est le cas pour 246 les êtres vivants). Compte tenu des mutations génétiques, l'état du système converge alors vers ces attracteurs. Au lieu d'évoluer en se désorganisant, comme le prévoit le deuxième principe de la thermodynamique pour des systèmes isolés proches de l'équilibre, un système qui échange de l'énergie avec l'extérieur peut évoluer, par auto-structuration, vers plus de complexité. C'est pourquoi l'évolution des espèces a produit des êtres vivants de plus en plus complexes, ce qui a priori semblait contredire la thermodynamique et servait d'argument aux idéalistes adversaires de l'évolutionnisme matérialiste de Darwin. La diversification accompagne la complexification. Elle résulte du fait que chaque génome provient à parts égales du père et de la mère. La sélection naturelle produit, sur l'être vivant résultant, à la fois de la complexification et de la diversification. Détails supplémentaires. 3.5.11.16 Approche heuristique du déterminisme Approche axiomatique ou approche heuristique ? L'approche axiomatique [67] utilise une présentation structurée d'un domaine scientifique. A partir de cette présentation, elle établit un résultat en appliquant à des données fournies les axiomes et règles de déduction posés a priori, dont elle requiert donc la connaissance. Lorsqu'on ne peut structurer la description d'un domaine de connaissance avec la rigueur formelle d'une axiomatique, on peut parfois décrire un certain nombre de cas particuliers où la donnée des conditions initiales (la cause) permet de déterminer avec certitude le résultat final : on a ainsi une approche heuristique du déterminisme. Exemple : lorsque le botaniste Mendel a établi les lois de l'hybridation en 1865, il n'avait pas de connaissances en matière de génétique, science basée sur ces lois et apparue en 1906, le terme gène datant même de 1909. Les lois de Mendel décrivent des cas particuliers de descendance (première génération, générations suivantes) associés à des probabilités d'apparition ; elles ont été construites par induction, en généralisant une approche heuristique. Une approche heuristique examine tous les cas qui se présentent, un par un : Pour trouver celui ou ceux qui constituent la solution cherchée et éliminer ceux qui ne conviennent pas ; Ou pour décrire l'évolution de chaque situation initiale, et parfois aussi évaluer son résultat en fonction d'un critère d'intérêt ; Ou enfin pour vérifier l'absence de cas qui contredirait une théorie. Cette approche peut être intégrée à une approche axiomatique en posant comme axiomes des tables qui spécifient la décision à prendre ou le calcul à effectuer dans chacun des cas qui peuvent se présenter. Mais ce n'est pas parce qu'on ne sait décrire l'enchaînement des causes et des conséquences que dans les cas particuliers de l'heuristique que le déterminisme en 247 est modifié ; on est simplement en présence d'un domaine qui n'est pas complètement exploré, pour lequel on ne connaît pas de loi générale. 3.5.12 6e extension du déterminisme : irréversibilité thermodynamique La symétrie temporelle du déterminisme traditionnel est contredite par la thermodynamique, dont le deuxième principe (dit « Principe de Carnot » ou de CarnotClausius) exige que l'entropie d'un système isolé en évolution croisse jusqu'au maximum possible, atteint à l'équilibre thermique [25], donc que le temps s'écoule du passé vers l'avenir (on parle de « flèche du temps ») ; l'évolution du système est alors déterministe du présent vers l'avenir et interdite en sens opposé : nous devons étendre notre définition du déterminisme pour en tenir compte. Ce phénomène a été abordé au paragraphe "Comprendre le deuxième principe de la thermodynamique". Le deuxième principe de la thermodynamique s'applique en pratique chaque fois que les énergies des molécules sont distribuées selon une loi probabiliste de physique statistique, et il rend les évolutions des systèmes réels irréversibles ; une transformation réversible n'est possible que si l'entropie totale du système qui se transforme est constante : si elle croît ou décroît, la transformation est irréversible ; ainsi, puisque effacer les données d'une zone mémoire d'un ordinateur en les remplaçant par d'autres est une opération irréversible, elle génère nécessairement de la chaleur. Le principe thermodynamique de croissance de l'entropie (c'est-à-dire de la désorganisation obligatoire [25]) constitue une condition de possibilité statistique : un gramme de sel en cristaux ne peut se dissoudre dans un litre d'eau pure que parce que l'entropie de l'eau salée résultante est supérieure à celle du système où l'eau et le sel sont séparés ; et l'eau salée ne se sépare pas spontanément en eau pure et sel parce que l'entropie décroîtrait (exactement : la probabilité d'observer une telle séparation, théoriquement possible, est extrêmement faible). La dissolution du sel dans l'eau pure est un exemple d'irréversibilité. La radioactivité en est un autre exemple abordé ci-dessous. Il ne faut pas déduire de ce qui précède que l'irréversibilité d'un processus ne peut résulter que du deuxième principe de la thermodynamique. Une onde électromagnétique sphérique émise par un point P de l'espace à l'instant t1 s'éloigne de P dans toutes les directions à la vitesse de la lumière, c ; à l'instant t2 elle a atteint tous les points d'une sphère S de centre P et de rayon c(t2-t1). Ce phénomène n'est pas réversible tout simplement parce qu'il n'existe pas de moyen physique de l'inverser, d'obliger la sphère S (sur laquelle l'énergie initiale est répartie) à se contracter jusqu'à se réduire au point P, ou de contracter tout l'espace comme lors de l'hypothétique "Big Crunch" de l'Univers. Par contre, en « passant le film des événements à l'envers » on verrait la sphère se contracter : on voit là un exemple de la différence entre réversibilité (ici physiquement impossible) et changement de sens du temps (changement de t en -t dans les équations de propagation). Complément : lien entre variation d'entropie et échange d'information [366]. 3.5.12.1 Evolution unidirectionnelle du temps Comprendre la raison de l'évolution unidirectionnelle du temps est essentiel à la compréhension du principe de causalité. Voici deux exemples de théories à ce sujet. 248 Attribution à l'expansion de l'Univers Selon certains cosmologistes comme Hermann Bondi, cité par [249], l'évolution du temps n'est possible que dans un seul sens, du présent vers le futur, parce que l'Univers est en expansion. C'est ainsi que lorsque deux corps à des températures différentes sont mis en contact, l'égalisation de leurs températures serait un processus irréversible du fait de l'expansion de l'Univers. La croissance continue de l'entropie de l'Univers serait aussi une conséquence de son expansion. Depuis la fin de l'inflation, l'expansion se fait sans créer de matière ou d'énergie, comme une bulle de savon qui se dilate à masse de savon constante : cette certitude résulte aujourd'hui du succès de la théorie du Big Bang. Attribution à la structure de l'espace-temps Une théorie cosmologique moderne [276] attribue le caractère unidirectionnel de la flèche du temps à une nécessité structurelle de l'espace-temps, lorsqu'on essaie de rendre sa structure compatible à la fois avec la Mécanique quantique et la Relativité Générale [328] dans le cadre d'une géométrie fractale à l'échelle atomique. Complément : lien entre variation d'entropie et échange d'information [366]. 3.5.12.2 Radioactivité naturelle et stabilité des particules atomiques ou nucléaires Le noyau atomique de certains éléments peut se décomposer spontanément en plusieurs noyaux, en émettant de l'énergie sous forme de photons [117] et autres particules : on dit alors qu'il est radioactif. La radioactivité traduit un état d'énergie instable d'un noyau, état qui a tendance à évoluer vers plus de stabilité. Cette évolution est irréversible. Exemple : l'uranium de masse atomique 238, élément n°92 de la classification de Mendeleev parce que son noyau a 92 protons, se décompose en thorium 234 (élément 90) en émettant une particule alpha (atome d'hélium ionisé) et en dégageant une énergie Q = 4.268 MeV (1 MeV = 1.6021 .10-13 joule), réaction symbolisée par : 238 92U → 234 90Th + 42He (Q = 4.268 MeV) 234 Par la suite, le thorium 234 90Th se décompose à son tour en protactinium 91Pa (oui, 234 même masse atomique 234 que 90Th mais avec 1 proton en plus, résultant de la décomposition d'un neutron du noyau en un proton, un électron et un antineutrino) ; la décomposition émet un électron e -, un antineutrino * et 0.263 MeV d'énergie : 234 90Th → 234 91Pa + e− + ∗ (Q = 0.263 MeV) La décomposition d'un noyau peut aussi se produire sous l'action d'un choc, par exemple lorsqu'un neutron rapide percute un noyau d'uranium si violemment que celuici se déforme puis se brise ; c'est ce qui se produit dans le processus de fission des bombes atomiques, en libérant une énergie dévastatrice et des atomes d'éléments plus légers, parfois eux-mêmes radioactifs, ainsi que des rayonnements électromagnétiques extrêmement dangereux. 249 Mais dans le phénomène naturel de radioactivité cette décomposition se produit spontanément, sans cause externe ; cette spontanéité est expliquée dans la présentation de l'ouvrage et dans [23]. Les physiciens russes Flerov et Petrzhak ont découvert en 1941 que l'uranium 238 se décompose spontanément. En fait, dans un échantillon d'uranium 238, la moitié des atomes se décomposent en 4.5 milliards d'années : on dit que la demi-vie de l'uranium 238 est 4.5 109 ans. Cette durée est extrêmement longue (environ 1/3 de l'âge de l'Univers, qui est de 13.8 109 ans). Mais le nombre d'atomes d'uranium 238 dans un petit échantillon de 1 milligramme étant de l'ordre de 3 1017, on observe environ 1 décomposition spontanée par seconde, assez pour faire réagir un compteur de particules. La décomposition spontanée est constatée dans plusieurs éléments lourds de masse atomique égale ou supérieure à 230. Certains éléments lourds ont une demi-vie bien plus brève que l'uranium 238 : le fermium 256, par exemple, a une demi-vie de l'ordre de 3 heures. La décomposition spontanée se produit aussi pour des particules élémentaires. C'est ainsi que la demi-vie d'un neutron non soumis à un champ quelconque est de l'ordre de 13 minutes. Heureusement pour la stabilité de la matière de l'Univers, les neutrons sont presque toujours soumis à un champ et sont stables, sans quoi nous ne pourrions pas exister ! Et de leur côté les protons sont bien plus stables, puisque leur demi-vie est estimée à au moins 1032 ans. En revanche, certaines particules ont une demi-vie extrêmement brève, champ externe ou pas : le méson appelé 0 (pion zéro) a une demi-vie de l'ordre de 10-16 seconde. Cette décomposition spontanée résulte d'une instabilité énergétique, elle-même propriété intrinsèque des noyaux et particules atomiques [23]. Du point de vue causalité, il nous faut admettre que la nature crée à l'occasion des noyaux et particules instables, et que l'homme sait en créer aussi lorsqu'il fabrique des éléments transuraniens comme le fermium ou des particules comme les mésons. Le déterminisme naturel peut donc se manifester par de l'instabilité, où l'état présent évoluera sans cause externe vers un état plus stable au bout d'un temps plus ou moins long, un phénomène expliqué en Mécanique quantique par le Principe d'incertitude. Conséquences pour le déterminisme Nous devons donc en conclure qu'en plus de l'irréversibilité qu'il manifeste parfois, le déterminisme peut être : Multiétapes (lorsque des évolutions s'enchaînent comme celles qui se terminent par une décohérence) ; en fait tout système naturel évolue, et évoluera jusqu'à la fin des temps, les étapes n'étant que des abstractions humaines… Plus ou moins rapide en ce qui concerne la durée d'une évolution-conséquence (et la durée est elle-même relative, puisque variant de manière relativiste avec la vitesse de l'observateur : une horloge en mouvement rapide semble tourner plus lentement qu'une horloge au repos) ; Stochastique, en ce sens que nul ne peut prédire l'ordre dans lequel les noyaux d'un objet se décomposeront, ni l'instant où un noyau donné se décomposera. 250 La causalité qui agit dans la décomposition de noyaux ou de particules ne s'explique pas parfaitement de nos jours [23]. L'instabilité énergétique n'est pas une cause agissante [39], c'est une propriété ; et la conséquence - qui n'apparaît qu'au bout d'un certain temps, d'ailleurs variable - n'agit pas sur un noyau ou une particule donnée, mais statistiquement sur un nombre de noyaux ou de particules. Nous touchons là aux limites des postulats de causalité et de déterminisme, certaines propriétés des évolutions-conséquences étant imprévisibles au niveau atomique. Plus exactement, certains effets déterministes ne peuvent être décrits correctement que de manière statistique portant sur toute une population, pas sur une particule individuelle. Même si cet aspect global du déterminisme nous choque, nous devons l'accepter dans le cadre du déterminisme étendu parce que c'est une réalité objective. 3.5.12.3 L'irréversibilité est une réalité, pas une apparence D'après [26] pages 29-30, de grands savants comme le prix Nobel de physique 1969 Murray Gell-Mann (auteur de la théorie des quarks), ont soutenu que l'irréversibilité n'était qu'une apparence, un résultat de notre connaissance insuffisante des phénomènes. Cette opinion était basée sur le fait que l'entropie mesure effectivement un manque d'information [25], manque qui pourrait cesser - espéraient-ils - avec les progrès de la science. Einstein avait fait la même erreur en considérant les théories probabilistes de la Mécanique quantique comme une représentation provisoire des phénomènes masquant notre ignorance, représentation destinée selon lui à être remplacée un jour par une modélisation non probabiliste ; l'évolution des systèmes par fonctions d'onde est une image fidèle de la réalité, pas un artifice. L'irréversibilité est une propriété réelle de certains processus naturels. Dans certains phénomènes physiques, la croissance de l'entropie traduit une évolution naturelle de l'ordre vers le désordre, évolution irréversible bien réelle qu'aucun progrès de nos connaissances ne saurait interpréter différemment. C'est le cas, par exemple, de la radioactivité naturelle dont nous avons parlé. Une évolution réversible ne peut exister que dans un système théorique, idéal et stable, car proche de son équilibre thermodynamique où il n'y a plus d'échange extérieur d'énergie. Mais un système réel est instable, évolutif. La croissance de l'entropie n'y est pas inéluctable, et l'irréversibilité peut exister même si l'évolution du système le conduit vers plus d'ordre, plus d'organisation. La flèche du temps, dans l'évolution naturelle irréversible de systèmes qui échangent de l'énergie avec leur environnement, peut dans certains cas conduire à moins d'entropie, c'est-à-dire plus d'organisation (exemple ci-dessous). Concernant la flèche du temps, voir aussi la discussion sur la Relativité et l'écoulement du temps. 3.5.12.4 Décroissance de l'entropie. Structures dissipatives. Auto-organisation Voici un exemple, cité par [26] page 31, de système qui échange de la chaleur avec son environnement et évolue de manière irréversible vers plus d'organisation, c'est-àdire moins d'entropie [25] - contrairement à ce qu'une compréhension superficielle du déterminisme thermodynamique pourrait croire possible. 251 Considérons un système de deux boîtes closes reliées par un tuyau (figure cidessous). Mettons-y au départ un mélange de deux gaz, hydrogène H 2 et azote N2. Ces deux gaz se mélangent jusqu'à ce qu'il y ait, dans chaque boîte, la même proportion d'azote par rapport à l'hydrogène et la même température T, opération qui fait croître l'entropie jusqu'à un maximum obtenu à l'équilibre thermique. T1 T2 Chauffons alors la partie gauche de la boîte à la température T 1 tout en refroidissant l'autre à la température T 2 < T1. Le flux de chaleur, phénomène irréversible, détruit l'homogénéité du mélange, diminuant ainsi l'entropie et augmentant l'organisation : la concentration en hydrogène devient plus élevée dans la partie chaude, et la concentration en azote plus élevée dans la partie froide (explication : [27]). Conclusion : un échange de chaleur avec l'extérieur peut faire évoluer un système vers plus d'organisation (moins d'entropie) ; l'irréversibilité peut avoir un rôle constructif ! Le déterminisme peut, selon le cas, conduire vers moins ou davantage de désordre. Comme le souligne [26] page 32, les processus irréversibles jouent un rôle constructif dans la nature, ce qu'une mauvaise compréhension de la thermodynamique fait considérer comme impossible. Loin de son équilibre thermique, et notamment si un système échange de l'énergie et de la matière avec son environnement (système dissipatif) et s'il est non linéaire, la croissance de son entropie n'est plus obligatoire, l'entropie peut décroître et le système peut évoluer vers plus d'organisation : c'est ce que nous apprennent les travaux d'Ilya Prigogine sur la convergence dans l'espace des phases vers des points attracteurs. (De toute manière l'entropie du système global, comprenant le système qui échange de l'énergie et son environnement, doit croître : une création d'ordre quelque part est toujours compensée par une création au moins aussi grande de désordre ailleurs, c'est une loi thermodynamique.) Voici des extraits de [26] pages 76 à 78, qui illustrent le comportement de certaines réactions chimiques loin de l'équilibre thermodynamique : "…un ensemble de nouveaux phénomènes se produit : nous pouvons avoir des réactions chimiques oscillantes, des structures spatiales de non-équilibre, des ondes chimiques. Nous avons nommé « structures dissipatives » ces nouvelles organisations spatio-temporelles." 252 "…les structures dissipatives augmentent généralement la production d'entropie." "Je ne décrirai pas ici cette réaction. Je veux seulement évoquer notre émerveillement lorsque nous vîmes cette solution réactive devenir bleue, puis rouge, puis bleue à nouveau […] Des milliards de molécules évoluent ensemble, et cette cohérence se manifeste par le changement de couleur de la solution. Cela signifie que des corrélations à longue portée apparaissent dans des conditions de non-équilibre, des corrélations qui n'existent pas à l'équilibre." (Lorsque des milliards de molécules évoluent ensemble, leur synchronisme témoigne d'un déterminisme global, à longue portée, phénomène dont nous avons déjà donné des exemples.) Ces citations montrent une possibilité d'auto-organisation des composants d'une solution chimique, auto-organisation qui peut, par exemple, être oscillante ou traversée par des ondes de réaction chimique… L'oscillation rappelle alors celle que nous avons constatée dans l'exemple mathématique des attracteurs multiples. Voici un dernier extrait de [26] page 79, qui montre que les structures dissipatives de non-équilibre sont un phénomène très général, une caractéristique du déterminisme étendu appliqué aux processus irréversibles : "…les structures dissipatives de non-équilibre ont été étudiées dans beaucoup d'autres domaines, par exemple en hydrodynamique, en optique ou dans les cristaux liquides." 3.5.12.5 Programme génétique et déterminisme Chaque cellule d'un corps humain comprend 23 paires de chromosomes, chaînes de molécules responsables de l'hérédité et comprenant des sous-chaînes appelées gènes. Dans chaque paire, un des chromosomes provient de la mère et l'autre du père. Les gènes sont des longues chaînes d'acides aminés porteurs des instructions (au sens programme informatique) de fabrication d'environ 100 000 protéines différentes intervenant dans la vie cellulaire. Chacun des quelque 25 000 gènes humains (constitué par des millions de paires de bases formant un segment d'ADN) participe à un ou plusieurs caractères héréditaires, dont il contribue à la transmission. La structure et les fonctions de chaque cellule sont définies par un programme génétique dont les instructions et données sont stockées dans les structures de molécules d'ADN des chromosomes, des plasmides, des mitochondries et des chloroplastes. Le génome peut être considéré comme un programme dont l'exécution (un informaticien préciserait : l'interprétation) crée des protéines et des cellules vivantes par l'intermédiaire de mécanismes appropriés mettant en jeu l'ARN [85]. L'existence et le fonctionnement de ce programme génétique font de la création de ces protéines et cellules vivantes un phénomène déterministe. Toutes les cellules d'un individu donné possèdent le même génome, provenant d'une seule cellule initiale, l'œuf. Mais un mécanisme de différenciation irréversible permet, avec ce même génome, la création d'un grand nombre de types différents de cellules, environ 200 chez l'homme. Chaque type est spécialisé et présente une morphologie et un fonctionnement propres. 253 L'hérédité fait, par exemple, que des chats engendrent des chats de la même espèce : le programme génétique est donc transmis à la fois chez un même individu à partir de l'œuf initial, et d'un individu à ses descendants par hérédité. Il y a donc un déterminisme inscrit dans le programme génétique qui garantit la reproductibilité de ces deux types de transmissions, ainsi que la différenciation en types spécialisés de cellules. Le programme génétique ne peut s'exécuter correctement que dans certains contextes. Ainsi, par exemple, certaines protéines ne sont synthétisées que si certaines parties du programme se sont déjà déroulées correctement auparavant. Le programme génétique a donc pour fonction de générer des protéines. Mais cette génération elle-même exige la présence de certaines protéines. On peut donc se poser la question du type « qui fut le premier, de la poule ou de l'œuf ? » : est-ce l'ADN qui est apparu avant les protéines, ou le contraire ? Des scientifiques travaillent sur ce sujet. [85] [86] 3.5.12.5.1 Gènes et comportement humain Chaque mois qui passe, les chercheurs découvrent de nouvelles propriétés des gènes concernant leur influence sur le comportement humain. Parfois un seul gène est associé à un comportement, parfois il en faut plusieurs [51]. La terrible maladie de Huntington est associée à un seul gène, la mucoviscidose aussi. L'ouvrage [154] pages 130-131 cite le gène D4DR, situé sur le chromosome 11 : le nombre d'occurrences de ce gène sur le chromosome détermine le niveau de production de dopamine, un neurotransmetteur [176] dont nous décrirons le rôle en matière de de désir, d'anticipation agréable plus bas. Dans ce paragraphe, il nous suffit de savoir que la dopamine stimule l'activité de l'organisme : son absence ou un trop faible niveau entraînent la léthargie, tandis qu'une surabondance entraîne la suractivité, la recherche de la nouveauté, le désir et la prise de risques. Exemple cité par [230] : des mésanges qui font preuve de plus de curiosité que les autres ont la même forme particulière du gène D4DR que les humains particulièrement curieux. Mais il ne faut pas penser que les séquences de gènes D4DR expliquent à elles seules la tendance d'une personne à rechercher ou non la nouveauté et à être ou non hyperactive ; elles n'en expliquent qu'une petite partie. Dans la plupart des expériences sur la relation entre gènes et comportement, on trouve des explications partielles, des corrélations, et il faut plusieurs gènes pour expliquer un comportement. Plus généralement, la génétique intervient pour une partie du caractère inné d'un trait de personnalité ou d'une aptitude, mettons 20 % à 60 % de la variance ([51] page 4), et l'acquis culturel pour le reste. Et la proportion varie avec le trait considéré et l'individu. (Voir les exemples [228] et [231]). Un individu donné n'est donc que partiellement déterminé par son hérédité génétique à sa naissance. Si un savant surdoué mais laid épouse une reine de beauté sotte il n'est pas certain que leur progéniture ait l'intelligence du père et la beauté de la mère. Cela peut arriver, mais il peut aussi arriver qu'un de leurs enfants ait la beauté du père et l'intelligence de la mère, en plus de caractères hérités de grands-parents… 254 3.5.12.5.2 Renouvellement biologique et persistance de la personnalité Pendant la vie d'un homme la plupart des cellules de son corps se renouvellent plusieurs fois. On appelle renouvellement biologique le phénomène continu du vivant d'apparition, de disparition ou de modification de cellules. Selon les cellules, chez l'homme, le renouvellement peut avoir lieu, par exemple, au bout de quelques jours ou de quelques mois. Le renouvellement biologique est accompagné d'échanges de matière et d'énergie du corps avec son environnement. Le renouvellement d'une cellule donnée peut concerner une fraction de son cytoplasme. Il peut aussi concerner la cellule entière, en remplaçant une cellule éliminée par une autre, résultant d'une mitose (division d'une cellule-mère en deux cellules). Incapables de mitose, certaines cellules ne se renouvellent pas. C'est le cas, par exemple, des cellules cardiaques et des cellules nerveuses [138]. L'absence de mitose - qui n'empêche pas la génération ou le renouvellement cellulaire (par exemple, pour les neurones, par renouvellement du neuroplasme) - a un avantage : les cellules correspondantes ne peuvent être cancéreuses. Le renouvellement d'une molécule complexe peut remplacer toute la molécule ou seulement un de ses constituants. Mais - et c'est là une des propriétés fondamentales de la physique - une molécule de formule et structure données (par exemple la molécule d'eau H2O) est exactement la même, qu'elle soit dans un corps humain ou dans l'eau d'un lac, qu'elle ait été produite par un mécanisme biologique ou une réaction de chimie minérale. Et les constituants de la matière que sont les atomes et leurs protons, neutrons et électrons sont exactement les mêmes dans un être vivant terrestre ou de la matière interstellaire ; un atome de fer 56Fe est parfaitement identique dans un poisson et dans une portière de voiture. On pourrait donc changer atome par atome tous les atomes d'un être humain vivant (si on savait le faire) sans aucune modification visible de son corps ou de sa personnalité - à condition de respecter les niveaux d'énergie des atomes et les structures moléculaires. Les caractéristiques statiques et de comportement d'un être vivant ne sont donc pas dues à des propriétés de ses atomes, mais à la structure de ses molécules (ordre de ses atomes et de leurs liaisons moléculaires), qui constitue l'ensemble "logiciel+données" responsable de toutes ses caractéristiques. (Voir remarques [96] et [51]). Nous reviendrons à plusieurs reprises plus bas sur la modélisation des êtres vivants par un ordinateur et son logiciel. Malgré le renouvellement biologique et les réparations du génome (évoquées plus bas et dans [32]), malgré les divers mécanismes d'adaptation de l'organisme à son environnement et son mode de vie, beaucoup de caractéristiques externes d'un organisme sont persistantes. Exemples : la couleur des yeux ne change que rarement après les premières années, la personnalité de l'individu est assez stable, et le renouvellement biologique ne lui fait pas perdre la mémoire. Cette persistance illustre l'importance du code génétique, ce "logiciel" de l'homme si stable qu'il transmet les caractéristiques d'un individu par hérédité. Comme un ordinateur dont le fonctionnement perceptible de l'extérieur dépend de son logiciel et pas de son matériel (à part la performance), la personnalité de l'homme dépend (en 255 plus de son acquis) de son logiciel génétique et pas des cellules de son corps. C'est pourquoi l'application de la doctrine matérialiste à l'homme ne peut se contenter d'expliquer son comportement dans un contexte donné à partir de ses seules cellules (correspondant au matériel d'un ordinateur), elle doit prendre aussi en compte son logiciel génétique et les conséquences psychiques de ce qu'il a appris. [339] En matière de personnalité humaine le déterminisme est à la fois génétique (l'inné), et adaptatif (l'acquis), comme nous allons le voir [51]. 3.5.12.5.3 Evolution du programme génétique Au fur et à mesure du développement de l'individu (ontogenèse [78]) et des circonstances de sa vie, et au fur et à mesure qu'on passe d'une génération à sa descendance, certains mécanismes de création de protéines et de création cellulaire peuvent se modifier : une partie du programme génétique est capable de se modifier et de s'adapter par autoprogrammation. Cette adaptation par autoprogrammation génétique a été mise en évidence par les recherches citées dans [258], dont voici une citation : "Il ne faut que 15 générations pour que le génome de certaines mouches évolue dans un sens qui leur permettre d'apprendre plus vite. Au début de l'expérience, il faut beaucoup d'heures aux mouches pour apprendre la différence entre deux types d'aliments dont l'odeur est appétissante, mais dont l'un est nocif. Les mouches dont le génome s'est adapté à un apprentissage rapide n'ont besoin que de moins d'une heure." Autre exemple d'adaptation génétique, voici des extraits de [80] : "Vers les années 1946-1948, Boris Ephrussi observait qu'une culture de levure diploïde ou haploïde donne après repiquage, dans les quelques jours qui suivent, une colonie identique aux cellules mères sauf, dans quelques cas, 1 à 2 % de cellules plus petites. Les mutants « petite colonie » ne donnent que des petites colonies. La mutation est irréversible. Le traitement des cellules de la souche sauvage par l'acriflavine fait passer le taux de mutation de 1-2 % à 100 %. Ces mutants poussent lentement car ils ne peuvent respirer, leur métabolisme est uniquement fermentaire, ils ont perdu la capacité de synthétiser un certain nombre d'enzymes respiratoires." "Ephrussi devait arriver à la conclusion que la souche sauvage et les mutants « petites colonies » diffèrent par l'absence, dans le dernier cas, d'unités cytoplasmiques requises génétiquement pour la synthèse de certains enzymes respiratoires." "En 1968, on devait démontrer que la mutation « petite colonie » est due à une altération importante de l'ADN mitochondrial. Cette molécule contient 75 000 paires de bases… la mutation « petite colonie » correspondrait à une excision et amplification de fragments d'ADN terminés par des séquences CCGG, GGCC." Ces modifications, appelées mutations, sont parfois dues à des accidents, comme nous l'avons vu. D'autres sont dues à des agressions de l'environnement, comme l'absorption de substances chimiques nocives ou l'action de rayonnements ionisants (rayons X ou ultraviolets, par exemple). Souvent, les mutations sont inopérantes et 256 leurs conséquences néfastes sont annulées par des mécanismes réparateurs de l'ADN comme les enzymes du « système S.O.S. » [32]. D'autres mutations sont nécessaires à l'adaptation de l'individu à son environnement, comme celles qui produisent des anticorps de résistance à une infection. Autres exemples de mutations : L'adaptation de nombreux insectes aux pesticides, la résistance croissante de nombreuses bactéries aux antibiotiques et les mutations de virus. Les habitants des pays asiatiques qui ont depuis des siècles une alimentation plus riche en amidon que celle des Européens, ont dans leur génome des copies supplémentaires d'un gène facilitant la digestion de l'amidon, alors que les Européens n'ont pas ces copies : le génome s'adapte à des habitudes de vie et ces adaptations se transmettent entre générations. 3.5.12.5.4 Evolution d'une population Une population évolue quand des individus porteurs de certains caractères (exemple : la taille) ont une descendance plus nombreuse que les autres individus ; ces caractères deviennent alors plus fréquents dans les générations suivantes. Lorsque les caractères génétiques d'une population se modifient avec le temps, on dit que cette population subit une évolution biologique. Lorsqu'une telle évolution correspond à une amélioration des capacités de survie ou de reproduction, on parle d'adaptation de cette population à son environnement. La sélection naturelle (étudiée par Darwin [42]) favorise la survie et la multiplication des populations les mieux adaptées et défavorise les autres. Lorsque l'évolution d'une espèce vivante A produit des individus suffisamment différents de ceux de cette espèce, mais suffisamment semblables entre eux pour constituer une espèce B, on dit qu'il y a spéciation. Ce phénomène s'explique par l'existence d'attracteurs multiples. Les individus de l'espèce B ont de nombreux points communs avec leurs ancêtres de l'espèce A. La biodiversité résulte de nombreuses spéciations successives. Remarque : il est faux d'affirmer que « l'homme descend du singe » : la vérité est qu'ils ont un ancêtre commun. La théorie darwinienne de l'évolution est prouvée par : La paléontologie, qui montre qu'il a existé des espèces intermédiaires entre celles d'aujourd'hui et d'autres, plus anciennes ; Les caractéristiques physiologiques et génétiques communes à des espèces ayant un ancêtre commun ; L'observation de modifications génétiques dans une même population, notamment lors d'un croisement d'espèces provoqué par l'homme ; La séparation et la dérive des continents, qui explique : L'existence d'une même espèce ou d'espèces ayant un ancêtre commun dans des masses continentales distinctes qui se sont séparées il y a environ 200 millions d'années ; 257 La présence en certains endroits seulement d'espèces ayant évolué après cette séparation. Une des rares erreurs de Darwin a été de croire que les mutations produisant des spéciations étaient progressives : nous savons aujourd'hui qu'elles produisent des sauts assez importants. Mais cette erreur ne met en cause ni les fondements de la théorie de l'évolution que sont les mutations génétiques, ni la sélection naturelle. Nous verrons cela plus en détail un peu plus bas. 3.5.12.5.5 Evolution due à une modification de l'expression de gènes L'article [89] décrit les résultats de recherches récentes qui montrent que l'évolution darwinienne par mutations génétiques, qui agit à long terme (sur des milliers d'années), est accompagnée d'une évolution due à une mutation de l'expression de gènes, c'est-à-dire de la manière dont la machinerie cellulaire interprète les gènes pour fabriquer des protéines. Cette mutation de l'expression provient parfois d'un processus très simple affectant un seul gène, et produisant un résultat dès la génération suivante, voire au bout de quelques mois ; parfois la mutation concerne un ensemble de gènes ; parfois même elle agit immédiatement [227]. Le compte-rendu de recherches récentes [243] confirme qu'il suffit parfois qu'un simple radical méthyle (CH3, 4 atomes seulement) se lie à un gène pour inhiber l'expression de celui-ci, produisant alors des effets considérables sur l'organisme. Il existe ainsi plusieurs types de "commutateurs chimiques" qui déclenchent ou inhibent l'expression d'un gène, avec des effets importants sur la plupart des affections non infectieuses (cancer, obésité, désordres neurologiques, etc.) Ces déclenchements ou inhibitions peuvent avoir un effet pendant toute la vie de l'organisme ou seulement pendant un temps. Ce sont des effets "tout-ou-rien", parfaitement déterministes et analogues aux effets de commutateurs logiciels sur des programmes informatiques. Le développement d'un organisme par ontogenèse [78] est déterminé par une hiérarchie de gènes, dont chaque niveau commande le niveau inférieur. Cette hiérarchie fonctionne en favorisant l'évolution de certaines formes d'organes et en interdisant certaines autres. Une hiérarchie de gènes donnée est le plus souvent héréditaire, conduisant à ce qu'à partir de la génération suivante tous les descendants aient la même hiérarchie, commandant la même expression de ses gènes. Exemple 1 : les gènes de la famille PAX6 déterminent le développement des yeux dans des êtres aussi différents que l'homme et la mouche. Exemple 2 : aux îles Galápagos, tous les fringillidés (oiseaux de la famille des pinsons, bouvreuils et chardonnerets) descendent d'un même ancêtre venu du continent. Mais ils sont très différents des fringillidés continentaux, par la forme et la taille de leur bec (adapté aux nourritures disponibles dans ces îles), ainsi que par la taille générale de certains oiseaux, nettement plus importante et procurant plus de robustesse, et par d'autres caractéristiques témoignant d'une adaptation. Extrait traduit : "En 30 ans, la mesure annuelle des fringillidés a montré que les tailles du bec et du corps ont toutes deux évolué de manière significative. Mais elles n'ont pas varié d'une manière continue et progressive ; la sélection naturelle a tâtonné, changeant souvent de sens d'évolution d'une année sur l'autre." 258 Les chercheurs ont découvert que toutes ces évolutions s'expliquaient par une expression plus importante du gène BMP4, qui produit une quantité de protéine (appelée aussi BMP4) proportionnelle à l'expression du gène. En augmentant artificiellement la production de cette protéine dans des embryons de poulets, ils obtinrent des poulets plus grands avec des becs nettement plus forts, ce qui confirmait que c'est bien le BMP4 qui est à l'origine de ces évolutions rapides. La découverte de l'importance de l'expression des gènes dans l'évolution, et le fait qu'une modification d'expression (parfois d'un seul gène) peut déterminer une évolution à très court terme, constituent un développement récent fondamental de la théorie de l'évolution, qui ne considérait jusqu'à présent que la mutation du génome, avec ses effets à long terme. Nous savons aujourd'hui que de nouvelles espèces d'êtres vivants peuvent apparaître à la suite d'une évolution de l'expression de gènes existants, non mutés. Des scientifiques ont découvert que les gènes nécessaires à l'apparition des pattes et des doigts, indispensables pour qu'un animal aquatique puisse sortir de l'eau et se déplacer sur la terre ferme, existaient depuis longtemps dans de très anciens poissons (les Tiktaalik) lorsqu'une évolution dans leur expression a permis la croissance de ces nouveaux types d'organes et la sortie de l'eau des nouveaux animaux, les tétrapodes [90]. Nous savons aussi qu'une habitude de vie, un changement important de mode de vie ou un entraînement intensif conduisent à une adaptation de l'organisme par modification de l'expression de gènes chez l'individu concerné. Cette modification a des conséquences comme : L'adaptation de certains neurones, qui peuvent par exemple se multiplier et multiplier leurs synapses [268] pour adapter l'organisme à une pratique fréquente (pianiste qui s'exerce 8 heures par jour, athlète qui s'entraîne fréquemment, etc.) L'adaptation d'organes (muscles, os, etc.). 3.5.12.5.6 Conclusion sur le déterminisme génétique Le déterminisme existe bien dans le domaine du vivant sous la conduite du programme génétique. Certains mécanismes déterministes assurent la vie des cellules, d'autres la réplication héréditaire, d'autres la résistance aux agressions de l'environnement, d'autres encore l'adaptation à des conditions de vie qui changent. Le programme génétique est auto-adaptatif dans certaines limites, cette auto-adaptation étant une caractéristique du déterminisme dans le cas des êtres vivants. Nous approfondirons ce sujet, qui impacte fortement la définition du déterminisme étendu, plus bas. Mais d'ores et déjà nous pouvons affirmer que les êtres vivants sont soumis à un déterminisme génétique, qui est adaptatif et agit à long terme par mutation du génome dans l'hérédité, ou à court terme par modification de l'expression de gènes dans l'adaptation aux conditions de vie. Voir aussi les universaux [168], à l'origine d'une part importante du déterminisme humain. 259 3.5.12.6 Vie, organisation, complexité et entropie En recourant à un dualisme [95] simple, la vie est caractérisée par deux sortes d'organisations, dont l'ordre s'oppose au désordre (ou à l'ordre très simple) de la matière inanimée : L'organisation architecturale, statique : du code génétique, où l'ordre des molécules constitue un programme dont la logique détermine des fonctions comme la spécialisation des enzymes ; des cellules, dont il existe de nombreux types spécialisés différents (les cellules du sang sont d'un type différent de celles des neurones…). L'organisation fonctionnelle, dynamique, qui coordonne par exemple les milliers de réactions chimiques des fonctions vitales de l'être vivant. Dans cette organisation, on trouve aussi bien des rythmes réguliers, périodiques, comme celui du cœur, et des mécanismes arythmiques comme les processus neurologiques du cerveau. Ces deux sortes d'organisations sont intimement liées, chacune conditionnant l'autre. Voir aussi : Ensemble de définition d'une loi déterministe. Tout être vivant est un système dissipatif : il échange constamment de la matière et de l'énergie avec son environnement, ce qui prouve son instabilité permanente (thermodynamique et chimique), instabilité et échanges qui ne prennent fin qu'avec la mort. Pendant toute sa vie, des parties de cet être sont détruites et crées, l'instabilité étant une condition nécessaire du fonctionnement de ses processus vitaux et de l'autoorganisation qui lui permet de s'adapter constamment à son environnement [33]. L'élaboration d'un être vivant à partir de molécules (quand il se nourrit ou se développe) constitue une complexification, un progrès vers l'organisation de la matière. Cette complexification diminue l'entropie [25] de l'être vivant qui s'organise, en augmentant celle de son environnement. Le deuxième principe de la thermodynamique (augmentation de l'entropie du système global) est bien respecté, mais la diminution d'entropie de sa partie être vivant résulte d'un processus particulier : la dissipation d'énergie et l'échange de matière par l'être qui vit et se trouve loin de l'équilibre thermodynamique et chimique. En somme, la complexification des êtres vivants résulte d'une succession d'instabilités, sans lesquelles la vie ne peut subsister. Notre conception du déterminisme doit donc tenir compte des exigences d'instabilité et de dissipation d'énergie et de matière de la vie. 3.5.12.6.1 Apparition de la vie et évolution des espèces A une échelle de temps assez grande, de l'ordre du million d'années, l'évolution des espèces étudiée par Darwin peut aussi progresser vers la complexité. Mais cette fois ce sont les mutations génétiques accidentelles qui sont responsables, et la sélection naturelle favorise les espèces les mieux adaptées ; les variations d'expression de gènes favorisent bien plus l'adaptation que la complexification. Nous avons vu que, contrairement à l'hypothèse de Darwin, qui pensait que l'évolution d'une espèce se fait de manière quasi continue, « par petites touches » ne modifiant que très peu à la fois de l'être vivant concerné, la présence d'attracteurs étranges fait que l'évolution se produit par changements importants, 260 tels que l'apparition soudaine d'une espèce nouvelle comme l'homme de Neanderthal. Schématiquement, les étapes qui conduisent aux mutations génétiques pérennes sont les suivantes : Le système vivant subit les contraintes de son milieu, contraintes qui déterminent des seuils d'instabilité dans l'espace des phases ; Certaines fluctuations sont amplifiées au voisinage d'un seuil, d'où des bifurcations et des évolutions vers tel attracteur de l'espace des phases plutôt que tel autre. Il n'y a pas de hasard dans ce processus, mais seulement amplification ou non d'une fluctuation au voisinage d'un point critique. 3.5.12.6.2 Preuves de l'évolution darwinienne des espèces Il s'agit ici des preuves de l'évolution du programme génétique vue plus haut. Une théorie scientifique est considérée comme prouvée lorsque : 1. Elle explique des faits constatés et non expliqués avant elle, ou mal expliqués ; 2. Ou elle prédit des faits précédemment inconnus, ses prédictions étant vérifiées ; 3. Et elle n'est pas contredite par des conséquences qu'on en tire ou des faits avérés, bien qu'elle ait été soumise à la communauté scientifique pour accord consensuel ou réfutation. (Pour plus de détails, voir "Définition d'une théorie appliquée à un domaine pratique" et "Critères à respecter pour qu'une théorie scientifique soit acceptable"). L'évolutionnisme de Darwin répondait aux conditions 1 et 3 depuis la publication de son ouvrage "De l'origine des espèces", en 1859 [42]. Son interprétation génétique, plus récente, est basée sur des mutations génétiques accidentelles, nous venons de le voir. Ces mutations sont dues à des liaisons moléculaires au niveau du génome qui parfois s'établissent alors qu'elles ne le font pas en général, ou parfois ne s'établissent pas alors qu'elles s'établissent le plus souvent. La probabilité de ces accidents résulte directement de la Mécanique quantique. L'article [192] montre que la condition 2 ci-dessus est remplie depuis les années 1920 : on a montré à l'époque qu'en favorisant les perturbations accidentelles de l'énergie de liaison moléculaire du génome de l'orge au moyen de rayons X on provoquait de multiples mutations artificielles. On a ainsi obtenu des plantes de couleur blanche, jaune pâle ou à bandes de couleurs alternées. Depuis cette date, des mutations artificielles sont déclenchées dans de nombreux pays, pour obtenir des espèces nouvelles de plantes ayant des propriétés intéressantes. On a ainsi obtenu des espèces plus résistantes et d'autres donnant de meilleurs rendements. La différence entre cette technique de mutation artificielle (par perturbation des liaisons moléculaires du génome sous l'influence de rayonnements X ou gamma) et les manipulations génétiques produisant des "organismes génétiquement modifiés" est simple : la mutation due au rayonnement agit comme la nature en modifiant un génome, alors que l'approche OGM ajoute délibérément un gène étranger à un organisme. La mutation artificielle se contente de rendre plus fréquents les accidents 261 peu probables affectant des liaisons moléculaires ; l'homme n'a plus qu'à tester les propriétés des nouvelles espèces produites et à retenir celles qui lui sont utiles. C'est ainsi que, de nos jours, environ la moitié du riz cultivé en Californie provient d'un mutant artificiel appelé Calrose 76, et que les trois quarts des pamplemousses qui poussent au Texas proviennent de deux variétés mutantes de couleur rouge, Star Ruby (créée en 1971) et Rio Red (créée en 1985). La technique d'obtention de plantes nouvelles par mutation artificielle est aussi utilisée en Europe et en Asie. Comme la création d'espèces nouvelles par mutation est un processus naturel simplement déclenché ou accéléré, cette technique n'a jamais provoqué d'incident ni fait l'objet de protestations, contrairement à celle des OGM. 3.5.12.6.3 L'obstination des tenants du créationnisme Voilà donc environ 80 ans que l'apparition d'espèces par mutation génétique est prouvée et que l'homme sait s'en servir à volonté. Il est donc ahurissant de constater qu'il reste tant de personnes qui nient la réalité de l'évolutionnisme au nom du respect de la vérité biblique, qui prétend que Dieu a fait chaque espèce telle qu'elle est de nos jours. Aux Etats-Unis il y avait fin 2005 au moins 16 états où un débat sur la théorie qu'il fallait enseigner (l'évolutionnisme, le créationnisme, ou les deux bien qu'elles s'excluent mutuellement) faisait rage, l'évolutionnisme étant parfois présenté comme l'une des théories, l'autre étant le créationnisme de la Bible [244]. Et nous avons vu dans la 1ère partie de cet ouvrage qu'en 2005 un porte-parole on ne peut plus officiel de l'Eglise catholique, Mgr. Schönborn, cardinal-archevêque de Vienne et proche du pape Benoît XVI, a écrit au New York Times pour rappeler que l'Eglise catholique considère l'évolutionnisme comme une théorie fausse : il n'y a pire sourd que celui qui ne veut pas entendre ! Heureusement, le pape Benoît XVI, son supérieur dans la hiérarchie de l'Eglise catholique, a admis l'évolutionnisme et affirmé seulement que l'origine du monde est la volonté créatrice de Dieu [D7]. Le grand philosophe Kant définissait les organismes vivants par leur capacité à posséder des finalités internes, résultant d'une intelligence supérieure qui oriente les phénomènes de la vie vers des objectifs finaux. Cette explication téléologique, due à sa foi en Dieu et à l'absence à son époque de connaissances scientifiques contredisant le finalisme, a été démentie par les théories modernes d'auto-organisation, qui montrent comment les structures et fonctions complexes du vivant résultent de phénomènes naturels déterministes. Nous avons vu cela dans la première partie, à la section "Faiblesse des preuves téléologiques". 3.5.12.7 Effondrement gravitationnel et irréversibilité. Trous noirs L'effondrement gravitationnel d'une étoile est un exemple d'irréversibilité qui a des conséquences particulières sur notre définition du déterminisme. Voici d'abord un résumé du phénomène d'effondrement gravitationnel. Evolution d'une étoile Pendant la plus grande partie de sa vie, une étoile est stable. La fusion thermonucléaire de l'hydrogène en hélium dans son cœur y dégage du rayonnement électromagnétique au prix d'une légère perte de masse, et la pression de radiation de ce rayonnement sur les couches extérieures de l'étoile suffit à équilibrer l'attraction gravitationnelle de ces couches. Mais peu à peu le « combustible » nucléaire qu'est 262 l'hydrogène s'épuise : notre soleil (désigné ci-dessous par le caractère et sa masse par M) perd chaque seconde 4.3 millions de tonnes d'hydrogène transformé en rayonnement. (Sa masse est si colossale - M = 2 1030 kg - qu'il pourra continuer à se permettre ce niveau de perte de masse pendant des milliards d'années). L'hydrogène du se transformant progressivement en hélium plus dense, la masse du cœur de l'étoile augmente peu à peu tandis que son diamètre diminue sous la pression de la force de gravitation. En même temps, la température du cœur et des couches externes augmente, l'étoile se dilate et devient une géante. La température du cœur du passera ainsi de 15 millions de degrés K aujourd'hui à 120 millions de degrés K dans quelques milliards d'années, température suffisante pour que l'hélium lui-même se transforme par fusion en éléments plus lourds comme le béryllium, l'oxygène, le silicium et le carbone. L'étape finale est une transformation du noyau de l'étoile en fer, élément le plus stable, incapable de subir d'autres réactions de fusion. A force de se dilater, les couches externes de l'étoile se refroidissent et sa couleur vire au rouge : elle devient une géante rouge. Dans environ 5 milliards d'années, notre enflera, son diamètre actuel de 1.4 million de km devenant 100 à 250 fois plus grand, arrivant ainsi peut-être à englober l'orbite de la Terre. L'épuisement de son combustible nucléaire se poursuivant, la géante rouge se contracte jusqu'à ce qu'il ne reste plus que son cœur, d'un rayon voisin de celui de la Terre (6378 km), ce qui est très petit pour une étoile : celle-ci est alors devenue naine. Comme sa température élevée la fait briller d'un éclat blanc, on dit que l'étoile est une naine blanche. La densité d'une naine blanche est très élevée, correspondant à la grande majorité de la masse initiale de l'étoile dans un diamètre 200 fois plus petit, donc un volume 6 millions de fois moindre ; elle est de l'ordre de 108 à 1012 kg/m3, c'est-à-dire entre 100 000 et 1 milliard de fois celle de l'eau liquide. La pression gravitationnelle atteinte dans la matière d'une naine blanche est donc fantastique. Comment la matière fait-elle pour résister à de telles pressions ? Il y a deux « lignes de défense » successives, toutes deux basées sur un important théorème de Mécanique quantique connu sous le nom de principe d'exclusion de Pauli. 3.5.12.7.1 Principe d'exclusion de Pauli Ce principe affirme que deux particules distinctes de type fermion (comme des électrons ou des protons) ne peuvent être dans le même état quantique, décrit par la même fonction d'onde, alors que deux particules de type boson le peuvent. Cela veut dire, par exemple, que deux électrons (tous deux fermions) ne peuvent être au même endroit en même temps s'ils ne diffèrent pas par une autre variable d'état, par exemple le spin [22]. Par contre, un nombre quelconque de particules de type boson (comme le photon ou un noyau d'atome d'hélium) peuvent être en même temps dans le même état quantique : un nombre quelconque de telles particules peuvent être au même endroit en même temps, propriété surprenante ! Ces particules peuvent être, par exemple : 263 Des photons de même fréquence, propriété utilisée dans un laser. Des noyaux d'hélium, dont on explique ainsi la superfluidité de la phase de très basse température appelée hélium II : écoulement sans frottement, liquide qui escalade les parois de son récipient, conductibilité thermique très grande, etc. 3.5.12.7.2 La masse limite de Chandrasekhar - Supernova Le physicien indien Chandrasekhar a démontré que lorsque la masse du cœur d'une étoile est devenue du fer par fusion et dépasse 1.44 M (masse dite "de Chandrasekhar"), la pression gravitationnelle sur ses atomes devient si élevée que leur résistance mécanique due au principe d'exclusion de Pauli appliqué aux électrons ne suffit plus : ceux-ci n'arrivent plus à rester à l'écart des noyaux des atomes. Ils fusionnent alors avec leurs protons, qui deviennent des neutrons. La première ligne de défense de l'étoile contre la pression gravitationnelle vient alors de céder : les protons et électrons des noyaux des atomes du cœur forment des neutrons ; l'étoile est devenue une étoile à neutrons, ou même un trou noir si sa masse dépasse quelques M. Les couches externes de l'étoile attirées par le cœur n'étant plus soumises à une pression de radiation s'effondrent environ 1 seconde après et, tombant de milliers de km de haut, rebondissent sur le noyau en créant une onde de choc. Cette onde se propage alors vers l'extérieur avec une explosion extrêmement violente nommée supernova, dont l'éclat lumineux peut dépasser pendant plusieurs jours celui d'une galaxie entière comptant 100 milliards d'étoiles. Cette explosion éjecte une partie de la masse de l'étoile sous forme d'un nuage de gaz chaud qui s'étend rapidement, à une vitesse de l'ordre de 10 000 km/s [285]. La photo ci-dessous représente un tel nuage, la nébuleuse de la constellation du Crabe, au centre duquel on voit encore aujourd'hui l'étoile à neutrons du cœur initial. Il existe un autre mécanisme d'explosion en supernova [285]. Il se déclenche spontanément lorsque le noyau d'une naine blanche, susceptible de fusionner, atteint une masse critique, notamment lorsque la masse de la naine blanche augmente par accrétion de matière d'une étoile voisine formant avec elle un système binaire. C'est une colossale explosion thermonucléaire due à la fusion des couches carbone et oxygène de l'étoile en nickel radioactif, fusion qui dégage une énergie énorme. Cette énergie se propage de manière explosive vers l'extérieur de l'étoile, qui est complètement détruite. Les restes gazeux de l'explosion sont alors éclairés pendant des semaines ou des mois par le rayonnement de décomposition radioactive du nickel. 264 Nébuleuse du Crabe formée par explosion thermonucléaire, observée en 1572 [131] Pour la plupart des étoiles, qui comme notre ont une masse inférieure à 1.44 M, cette explosion ne se produira pas : après avoir été géantes rouges elles deviendront des naines blanches qui finiront par « s'éteindre » (se refroidir) lorsque leur combustible nucléaire sera épuisé. 3.5.12.7.3 Les étoiles à neutrons Le résultat de l'effondrement gravitationnel d'une étoile dont le cœur pèse un peu plus de 1.44 M est appelée étoile à neutrons. Ses atomes sont devenus des neutrons, serrés les uns contre les autres de manière si dense que son rayon est d'une dizaine de km. La densité d'une telle étroite défie l'imagination, puisqu'elle est de l'ordre de 100 millions de fois celle d'une naine blanche, déjà énorme ! Les neutrons de l'étoile sont si serrés qu'ils se comportent comme un noyau atomique unique géant. L'étoile à neutrons concentre tout le moment cinétique du noyau stellaire dont elle est née dans un rayon environ 1000 fois plus petit ; conformément au principe de la conservation du moment cinétique, elle tourne très vite autour de son axe, 30 fois par seconde dans le cas de l'étoile à neutrons du centre de la nébuleuse du Crabe. Cette rotation est accompagnée d'émissions de rayonnements électromagnétiques de fréquence extrêmement stable, qui a fait donner à ces étoiles le nom de pulsars. 265 3.5.12.7.4 Les trous noirs L'effondrement gravitationnel d'une étoile à neutrons peut être arrêté par une deuxième ligne de défense, due elle aussi au principe d'exclusion de Pauli, mais appliqué cette fois aux neutrons, dont deux ne peuvent partager le même état quantique car ce sont des fermions. Mais cette ligne de défense peut céder, elle aussi, lorsque la masse résiduelle de l'étoile à neutrons après l'explosion en supernova dépasse quelques M. Les calculs théoriques montrent alors que plus rien ne peut arrêter l'effondrement gravitationnel : la totalité de la masse-énergie de l'étoile à neutrons s'effondre jusqu'à ce que son diamètre soit infiniment faible : l'étoile est devenue un trou noir. Ici intervient la Relativité Générale, qui associe à chaque densité de masse en un point de l'Univers une courbure de l'espace-temps environnant [328]. La masse d'un trou noir pouvant atteindre, voire dépasser, 20 milliards de M (le trou noir NGC 4889, à 336 millions d'années-lumière, pèse 23 milliards de M), l'espace au voisinage est très fortement courbé, il a une géométrie sphérique [109]. Dans cet espace courbe, les géodésiques (lignes de plus courte distance entre deux points) ne sont plus droites. Bien que la vitesse de la lumière, c, reste la même, les cônes de lumière le long d'une ligne d'univers représentant de la matière en effondrement gravitationnel sont penchés en direction du centre de l'étoile. Lorsque la matière qui s'effondre atteint une certaine distance du centre appelée horizon ou rayon de Schwarzschild, R, l'inclinaison du cône de lumière par rapport à l'axe vertical ct du diagramme d'espace-temps de Minkowski devient telle qu'aucune particule ne peut plus s'écarter du centre, qu'elle ait ou non de la masse : la particule est alors piégée dans le trou noir, dont elle ne peut plus sortir. L'espace au voisinage du trou noir est si courbé que rien, même la lumière, ne peut plus en sortir ; le nom de trou noir vient de ce qu'on ne peut le voir, puisque aucune lumière n'en sort et aucune ne le traverse. Si on ne peut voir un trou noir, sa présence se signale par : De la matière qui tourne autour, par exemple une étoile satellite du trou ; Du gaz interstellaire qui tombe en spirale dans le trou, où il disparaît par absorption (voir schéma). Ce phénomène peut être d'une luminosité fantastique, le trou noir avec sa spirale étant alors appelé quasar (de l'anglais "quasi-stellar object") et produisant - à des milliards d'années-lumière de distance - mille fois plus de lumière à lui seul qu'une galaxie entière comme la nôtre (environ 100 milliards d'étoiles, largeur 100 000 années-lumière) ; Deux jets d'électrons, dits relativistes car ils sont accélérés à une vitesse proche de celle de la lumière, qui créent des lobes immenses (parfois plus d'une année-lumière de longueur) de part et d'autre du quasar ; Des particules accélérées par leur rencontre avec la sphère horizon du trou, en rotation rapide, et qui s'éloignent à grande vitesse. Enfin, la formation d'un trou noir ou son absorption d'un autre astre se signalent par des ondes gravitationnelles que les scientifiques espèrent détecter [313]. Lorsqu'une galaxie contient un trou noir (ce qui est très fréquent), celui-ci dévie les rayons lumineux provenant d'une éventuelle galaxie située derrière lui et qui passent 266 à proximité dans leur chemin vers la Terre, en suivant les géodésiques courbes de l'espace voisin (espace d'autant plus courbé que l'on est près du trou noir). Les rayons passant d'un côté du trou noir et ceux passant de l'autre côté (ou au-dessus et audessous) donnent des images différentes et distinctes de la même galaxie cachée, images multiples qui constituent un mirage gravitationnel. Une galaxie lointaine, ponctuelle vue de la Terre, a le même effet de « lentille gravitationnelle » qu'un trou noir pour l'image d'une autre galaxie située derrière. Horizon des événements d'un trou noir - Rayon de Schwarzschild Si la dimension du trou noir proprement dit est infiniment faible, la portion sphérique d'espace environnant dont rien ne sort a un rayon fini appelé horizon des événements du trou noir (ou simplement horizon). En pratique, toute matière ou tout rayonnement intérieur à cet horizon étant invisible à l'extérieur, tout se passe comme si le trou noir avait un rayon R égal à cet horizon, donné par la formule : R 2GM c2 où : G est la constate universelle de gravitation, G = 6.67 .10-11 Nm2/kg2 ; M est la masse du trou noir ; (la masse du soleil est M = 2 1030 kg) ; c2 est le carré de la vitesse de la lumière, approximativement 9 1016 m2/s2. Le rayon R ci-dessus est appelé « rayon de Schwarzschild », « rayon gravitationnel » ou simplement rayon du trou noir. Ce rayon augmente avec sa masse ; pour un trou de 10 M, le rayon est d'environ 30 km. Dans une sphère de rayon R, un trou noir se forme : dès que la masse de matière qu'elle contient dépasse c2R/2G, ou dès que sa densité dépasse 3c2/8GR2. Un trou noir peut donc se former même avec une masse modeste, lorsqu'elle est concentrée dans une sphère suffisamment petite, de rayon R < 2GM/c2. 3.5.12.7.5 Masses et dimensions dans l'Univers Nous avons jusqu'ici présenté le phénomène de formation d'un trou noir comme lié à l'effondrement d'une étoile de masse supérieure à quelques M. En fait il peut se produire chaque fois que, dans une région de l'espace, la densité (masse par unité de volume) est suffisante pour entraîner un effondrement gravitationnel. Le diagramme ci-dessous, issu de [132], caractérise divers objets allant d'un noyau atomique à un amas de galaxies et l'Univers observable [111] tout entier, par leur masse (en abscisse) et leur dimension (en ordonnée). 267 Le coin en bas à droite, délimité par la droite du rayon gravitationnel, est la plage de formation de trous noirs. Comme un trou noir commence à se former lorsque la densité de matière environnante est suffisante il peut se former pour de tout petits objets très denses. Un noyau atomique d'un diamètre de l'ordre de quelques fermis (1 fm = 10-15 m) a une densité de l'ordre de 2.7 .1017 kg/m3, donc supérieure à la densité de la sphère horizon du trou noir de 10 M (1.8 .1017 kg/m3) : on ne pourrait pas le comprimer beaucoup avant qu'il ne s'effondre en trou noir. 3.5.12.7.6 Attraction gravitationnelle au voisinage d'une étoile effondrée Effondré ou non, un astre de masse M attire un corps de masse M' situé à une distance d de son centre en exerçant une force F = GMM'/d2. Cette force applique à la masse M' une accélération a donnée par F = M'a. Donc GMM'/d2 = M'a, d'où l'accélération due à l'attraction de l'astre de masse M à la distance d : a GM d2 Chiffrons cette accélération sur des exemples : A la surface de la Terre, l'accélération de la pesanteur est g = 9.8 m/s2. 268 Située à environ 150 millions de km du , la Terre est soumise de sa part à une accélération de 0.006 m/s2, 1600 fois plus faible que g. A 10 000 km du centre d'une étoile naine blanche de masse 1 M (c'est-à-dire près de sa surface), l'accélération est 1.3 .106 m/s2, c'est-à-dire 130 000 fois la pesanteur terrestre g. A 10 km du centre d'une étoile à neutrons de masse 2 M (là aussi près de sa surface), l'accélération est 26.7 .1011 m/s2, c'est-à-dire 272 milliards de fois la pesanteur terrestre g. A 1 million de km d'un trou noir de masse 10 M (distance 33 000 fois supérieure à son horizon) l'accélération est 1340 m/s2, c'est-à-dire 140 fois la pesanteur terrestre g. On voit qu'un astre mort attire fortement toute matière située dans son voisinage. Cette matière finit par tomber sur lui et fusionner avec lui. Etoiles binaires Dans un système stellaire binaire, deux étoiles tournent l'une autour de l'autre, chacune tournant en fait autour de leur centre de gravité commun. Cette configuration est très fréquente, la moitié environ des étoiles de l'Univers formant des systèmes binaires avec une voisine ; notre est une exception. Lorsque l'une des étoiles est une étoile ordinaire, naine comme le ou plus grande, que les deux étoiles sont proches, et que l'autre étoile est une naine blanche, une étoile à neutrons ou un trou noir, l'étoile très dense attire si fortement la matière de l'étoile ordinaire qu'elle en détache continuellement des morceaux qui tombent sur elle en décrivant une spirale : elle « dévore » l'étoile normale, grossissant de ce fait continuellement. Le schéma ci-dessous, dû à la NASA http://antwrp.gsfc.nasa.gov/apod/image/9912/accretiondisk_hst_big.gif, illustre ce phénomène. A force de grossir, une naine blanche peut finir par s'effondrer en étoile à neutrons, et une étoile à neutrons peut s'effondrer en trou noir. 269 Etoile très dense d'un système binaire « mangeant » sa compagne : la matière arrachée tombe en formant un disque d'accrétion Cisaillement gravitationnel La force d'attraction exercée par un astre effondré sur un corps voisin varie très rapidement d'un point à l'autre de ce corps. Un corps pesant M' kg situé à x mètres du centre de gravité d'un astre effondré pesant M kg subit une force d'attraction F(x) = GMM'/x2. Lorsque la distance x varie, la force varie comme la dérivée de la fonction F(x) précédente, dF/dx = -2GMM'/x3, fonction en "1/d3". Exemple : supposons un homme qui franchit les pieds en avant l'horizon d'un trou noir de masse M = 10 M, situé à x = 30 km de son centre. Entre ses pieds et sa tête, sur une distance de 1.7 m, chaque kg de son corps subit une différence de force d'attraction donnée par dF = (-2GM/x3)dx = 1.7 107 kgf, c'est-à-dire 17 000 tonnes ! La traction gravitationnelle étant supérieure sur les pieds à ce qu'elle est sur la tête, le pauvre homme est littéralement déchiqueté par étirement. Et il est aussi écrasé par compression dans les deux directions perpendiculaires à son déplacement, son volume total demeurant constant. Heureusement (si l'on peut dire dans ces circonstances tragiques !) la torture du pauvre homme est de courte durée, car sa chute dans le trou est extrêmement rapide du fait de l'énorme attraction gravitationnelle, environ 150 milliards de g ! On appelle ce phénomène cisaillement gravitationnel. Il détruit toute matière tombant sur un astre effondré, y compris chaque molécule, chaque atome et même chaque noyau atomique, incapables d'y résister. Ce phénomène est le même, à l'ampleur près, que celui des marées terrestres, où l'attraction de la Lune (ou du ) est plus forte sur la mer du côté Lune (ou ) que sur la Terre, elle-même plus attirée que la mer du côté 270 opposé. En exagérant l'effet de ces différences d'attraction, on obtient le schéma suivant : Mer Lune ou soleil Terre 3.5.12.7.7 Déroulement dans le temps de la chute d'un corps vers un trou noir En oubliant le cisaillement ci-dessus, un observateur A en train de tomber dans un trou noir ne remarquerait rien de particulier sur la montre qu'il porte lors du franchissement de l'horizon. Par contre, un observateur B extérieur à l'horizon verrait A qui tombe se déplacer de plus en plus lentement, et devenir immobile en arrivant sur l'horizon, car sur cette surface le temps vu de l'extérieur ne s'écoule plus. Ainsi, pour l'observateur extérieur B, rien n'entre dans un trou noir, tout s'arrête sur son horizon : c'est un des paradoxes de la Relativité Générale [328]. En fait, l'image que A donnerait à B lors du franchissement de l'horizon deviendrait rapidement de moins en moins lumineuse et nette pour B, car elle proviendrait d'une partie de plus en plus petite de l'image de A, restée à l'extérieur de l'horizon : B verrait A disparaître par affaiblissement de son image ; et comme le trou noir est invisible, B ne verrait bientôt plus rien, ou seulement le rayonnement émis par la matière qui continue à tomber en spirale dans le trou noir et s'échauffe par compression et frottement en tournant autour de son horizon. 3.5.12.7.8 Irréversibilité des fusions stellaires et d'un effondrement gravitationnel La fusion de l'hydrogène en hélium dans une étoile est irréversible, car une éventuelle fission de l'hélium en hydrogène serait contraire à l'exigence thermodynamique de croissance de l'entropie. En fait, si la masse disponible et la température atteinte le permettent, une étoile est le siège de fusions successives se terminant par un noyau de fer, élément si stable que la nature ne peut en créer de plus lourds en dehors des colossales énergies des explosions de supernova. Donc toutes les réactions nucléaires de la vie d'une étoile sont irréversibles, y compris celle de son éventuelle explosion en supernova. Un effondrement gravitationnel est à l'évidence aussi irréversible. Une naine blanche, une étoile à neutrons ou un trou noir ne peuvent que grossir tant qu'il y a de la matière 271 à "dévorer" à proximité, et "attendre" indéfiniment quand il n'y en a pas (on parle alors d'état stationnaire). Deux de ces astres peuvent aussi fusionner lors d'un choc. L'irréversibilité du phénomène d'effondrement gravitationnel respecte les lois de conservation : La masse-énergie de l'astre effondré est celle de la matière d'origine (compte tenu de son énergie cinétique et de son énergie potentielle de gravitation) moins l'énergie perdue par rayonnement lors de l'effondrement, dans le disque d'accrétion et par ondes gravitationnelles ; Le moment cinétique de l'astre effondré est celui de l'astre ou de la matière absorbée d'origine ; mais comme l'astre effondré a un diamètre beaucoup plus petit que l'étoile d'origine, il tourne sur lui-même beaucoup plus vite ; La charge électrique de l'astre effondré est celle de l'astre ou de la matière absorbée d'origine, aux atomes éventuellement ionisés. 3.5.12.7.9 Caractéristiques d'un trou noir En principe, un trou noir stationnaire (c'est-à-dire qui n'est pas en train d'absorber de la matière) se contente de 3 paramètres pour sa description : deux nombres réels représentant sa masse et sa charge électrique, et un vecteur représentant son moment cinétique. Donc lorsqu'un trou noir atteint la stabilité après absorption d'une masse de matière, il ne garde aucune mémoire de celle-ci en dehors de la variation de ces 3 paramètres : on ne sait plus rien de la forme, la couleur, la nature des atomes, molécules, etc. des corps et rayonnements qui ont traversé son horizon ! Cette simplicité d'un trou noir est rappelée par un dicton bien connu des physiciens : "Un trou noir n'a pas de cheveux" Ce dicton veut dire qu'en principe un trou noir n'a pas de paramètre descriptif supplémentaire (de cheveu) en plus des trois cités. Deux trous noirs de mêmes masses, charge électrique et moment cinétique sont identiques. D'après la thermodynamique, un corps à une température absolue non-nulle devrait rayonner ; inversement, s'il rayonne sa température absolue est non-nulle. Température d'un trou noir D'après ce qui précède, un trou noir absorbe tout, matière et rayonnement, et ne restitue rien ; en particulier il ne rayonne pas. D'après la thermodynamique, sa température doit donc être très proche du zéro absolu. C'est le cas, en effet, pour un observateur très éloigné de son horizon : celui-ci mesure sur cet horizon une température absolue inversement proportionnelle à la masse M du trou noir. Plus un trou noir est lourd, plus il est froid et plus il absorbe tout rayonnement, car par rapport à lui toute matière est plus chaude. Mais plus l'observateur s'approche de l'horizon, plus la température qu'il mesure augmente, et sur l'horizon elle est infinie ! Entropie très élevée d'un trou noir En thermodynamique classique (où on néglige l'effet de la gravitation), lorsque de la matière se concentre en une dimension plus petite (exemple : lorsqu'un gaz se liquéfie) et que sa structure se simplifie, son entropie diminue. Dans le cas de l'effondrement 272 de matière vers un trou noir, c'est l'inverse : l'entropie du trou noir augmente. C'est là un effet de sa masse et de l'énergie cinétique due à la gravitation. Cet effet est conforme au 2ème principe de la thermodynamique, qui veut que toute transformation irréversible s'accompagne d'une croissance de l'entropie. En effet, la matière qui s'effondre dans un trou noir y apporte, en plus de son énergie de masse E = mc2, une énergie cinétique due à la transformation de son énergie potentielle de gravitation lors de la chute. En principe cette énergie ne peut plus s'échapper du trou noir, par rayonnement ou autrement ; en fait nous verrons qu'elle s'échappe par rayonnement de Hawking. La sphère horizon d'un trou noir ne peut que croître lorsque celui-ci absorbe de la matière. Du fait de cette matière absorbée, l'entropie d'un trou noir est très élevée. Cela rend sa formation irréversible, dans la mesure où elle devrait augmenter encore pour qu'il se désagrège tout en respectant le deuxième principe de la thermodynamique. [25] Précisons tout cela avec quelques formules. Selon [133], la notion d'entropie d'un trou noir peut être interprétée comme suit : C'est le nombre de ses états internes de matière et de gravitation ; C'est l'entropie de la relation entre degrés de liberté à l'intérieur et à l'extérieur de la sphère horizon ; C'est le nombre d'états gravitationnels de la sphère horizon ; etc. Quelques formules d'un trou noir L'aire de l'horizon d'un trou noir sphérique augmente comme le carré du rayon R du trou noir, lui-même proportionnel à la masse. Donc l'aire de la sphère horizon d'un trou noir sphérique augmente comme le carré de sa masse. Donc l'entropie du trou noir, proportionnelle au quotient de la masse par la température, doit être proportionnelle à l'aire de son horizon. La formule exacte reliant l'entropie S d'un trou noir et l'aire A de son horizon est, d'après [133] : A kc3 S ( ) 4 G Dans cette formule, à part l'aire A, il n'intervient que des constantes : k est la constante de Boltzmann, k = 1.38066 .10-23 joule par degré K ; c est la vitesse de la lumière, c = 299 792 458 m/s ; ä = h/2 = 1.05 .10-34 joule.seconde, où h est la constante de Planck. G est la constante universelle de gravitation, G = 6.67 .10-11 Nm2/kg2 ; Dans le cas d'un trou noir à horizon sphérique, A = 4R2, où R est le rayon de l'horizon, donc l'aire A se calcule en fonction de la masse M par la formule : 8G 2 2 A 4 M c 273 Donc l'entropie S du trou noir se calcule en fonction de sa masse par la formule : S 2kG 2 M c Lorsqu'un trou noir absorbe de la matière son entropie augmente ; quand il rayonne elle diminue. La formule ci-dessus montre que lorsque deux trous noirs se rencontrent et fusionnent, l'entropie résultante est supérieure à la somme de leurs entropies respectives, puisqu'elle est proportionnelle au carré de la somme de leurs masses. Lorsqu'au centre d'une galaxie il y a un énorme trou noir de 1 milliard de M, son entropie S est 1 milliard de milliards de fois celle d'un trou noir de 1 M, et son entropie par unité de masse S/M - qui est proportionnelle à la masse M - est 1 milliard de fois celle du trou noir de 1 M. En fait, la perte d'information lorsque de la matière ou du rayonnement franchit l'horizon d'un trou noir est affectée par la Relativité Générale : Pour un observateur tombant dans le trou, le temps s'écoule comme d'habitude, il n'y a pas de perte d'information. Pour un observateur à l'extérieur de l'horizon, toute chute de matière ou absorption d'onde électromagnétique semble s'arrêter à l'horizon. Elle est irréversible. Il y a croissance de la masse, du rayon d'horizon et de l'entropie du trou noir. Mais l'information d'origine de ce qui est tombé n'est pas perdue, elle est incorporée à celles tombées précédemment : nous pensons aujourd'hui que l'information d'un trou noir est stockée sur sa sphère d'horizon, conformément au principe holographique [304]. Lors de la chute dans un trou noir, le déterminisme d'un observateur qui participe à la chute n'est pas le même que pour un autre qui reste à l'extérieur de l'horizon : les événements s'enchaînent différemment, les situations décrites par leurs états sont tout autres. C'est là un effet de la Relativité Générale. Remarque On connaît des propriétés d'ensemble d'un trou noir, comme la proportionnalité entre l'aire de son horizon et son entropie. Mais on ne sait en déduire le détail. Tout se passe comme si, dans l'exemple du lanceur à 10 000 pièces d'importance vitale, on savait que l'entropie est un nombre de 31 chiffres en base 10 sans connaître sa valeur, donc celles des bits qui décrivent l'état de chacune des10 000 pièces. C'est pourtant ces bits-là qu'il faut connaître pour décider où il faut œuvrer pour améliorer les chances de succès du lanceur. 3.5.12.7.10 Et en plus, un trou noir s'évapore ! Source : [327] pages 283 et suivantes. Les travaux de Stephen Hawking et quelques autres chercheurs ont montré que des particules s'échappent d'un trou noir selon le mécanisme d'apparition de paires de particules, qui emprunte de l'énergie au trou noir selon le principe d'incertitude de 274 Heisenberg. Mais contrairement au premier cas des fluctuations particule-antiparticule que nous avons étudié, un phénomène de fluctuations d'énergie cinétique existe aussi et explique qu'un trou noir "s'évapore" : on dit qu'il émet un rayonnement de Hawkins. Un trou noir n'est donc pas complètement noir ! Lorsque le trou noir s'évapore ainsi peu à peu, il restitue de l'information qu'il détenait à partir de matière et d'énergie absorbée et son entropie diminue. En fait, cette évaporation est extrêmement lente, pouvant durer des centaines de milliards d'années, et n'accélère que lorsque le trou noir est devenu très petit. En outre, les particules émises par un trou noir s'en éloignent en s'opposant à son formidable champ gravitationnel. Pour un observateur éloigné leur longueur d'onde augmente, il les voit donc d'autant plus froides que la masse du trou noir est grande ; c'est ainsi qu'un trou noir de la masse du est vu, de loin, avec une température de moins de 10-6 degré K, inférieure aux 2.7 degrés K du fond diffus cosmologique. Nous sommes loin du déterminisme de Newton et Laplace ! 3.5.12.7.11 Quantité d'information dans un volume délimité par une surface Source : [327] pages 289 et suivantes Considérons un volume quelconque, de taille fixe et contenant une quantité de matière fixe sous n'importe quelle combinaison de formes : objets solides, liquides et gaz. Soit S0 l'aire de la surface qui l'enveloppe. Exprimons les aires en unités de Planck (carrés dont le côté est égal à la distance de Planck, 1.6 .10-35 m). Puisqu'un tel carré est la plus petite surface qui a un sens dans notre physique, admettons qu'il puisse contenir la plus petite quantité d'information possible, 1 bit. Et puisque l'entropie d'un trou noir est proportionnelle à l'aire S de sa sphère horizon (et non pas au volume de cette sphère), admettons qu'exprimée en bits elle est égale à S en unités de Planck. Lorsqu'un trou noir se forme par effondrement de matière, le volume de sa sphère horizon est nécessairement plus petit que le volume initial de cette matière ; et l'aire de la sphère horizon, S, est inférieure à celle, S0, de l'enveloppe du volume initial. Or, d'après le 2ème principe de la thermodynamique, l'entropie du trou noir est supérieure à celle de la matière dont il est issu. D'où le théorème : La quantité d'information contenue dans une région de l'espace est inférieure à celle de l'horizon du trou noir virtuel (mesurée en unités de Planck) que sa matière pourrait créer en s'effondrant. (La taille minuscule de la distance de Planck fait qu'un bit d'information occupe 2.5 .10-70 m2 de la sphère horizon. Une telle sphère a donc une capacité de stockage colossale, même pour de petits volumes de matière : l'information d'un disque d'ordinateur de 1 TB, contenant environ 1013 bits, tiendrait dans une sphère d'aire 2.5 .10-57 m2.) Puisque toute l'information d'un volume d'espace tient dans la sphère horizon d'aire S de son trou noir virtuel, elle peut à fortiori tenir dans la surface d'aire S0 qui l'enveloppe, car S0 > S. D'où un deuxième théorème : L'information contenue dans une région de l'espace tient dans toute surface qui l'enveloppe. 275 3.5.12.7.12 Surface nécessaire pour décrire une évolution - Principe holographique Pour décrire l'évolution d'un objet physique, il faut décrire toutes les informations de son état initial à l'instant t0 et les lois d'évolution qui s'appliquent. Considérons l'état qui résulte de cette évolution à l'instant t1 > t0. Si toutes les informations sont codées sous forme numérique et les lois d'évolution sont décrites par des programmes d'ordinateur, l'évolution de l'objet est représentée par l'exécution informatique de ces programmes. (Nous supposons pour cela que toutes les lois physiques étant déterministes, on peut les modéliser parfaitement sur un ordinateur. C'est une position théorique, qui suppose que toutes lois physiques sont connues ainsi que les programmes correspondants et des méthodes de représentation numérique convenables, qu'il n'y a pas de situation de non-calculabilité ou d'imprécision comme le chaos, et qu'on ne tente pas de représenter des phénomènes non déterministes comme les fluctuations quantiques.) L'ensemble des informations qui décrivent l'évolution entre les instants t0 et t1 est alors celui d'un certain volume minimum d'espace physique V contenant l'objet dans tous les états nécessaires. D'après les théorèmes précédents, ces informations peuvent être contenues dans une surface S entourant le volume, surface qui constitue le domaine de définition des données du modèle. Calculer l'évolution avec les lois physiques habituelles appliquées dans le volume physique réel V peut donc, en théorie, être remplacé par un calcul dans une surface S contenant les données-images en format numérique. La projection de l'espace V sur la surface S ressemble à une projection holographique d'une image 3D d'un volume sur une plaque photographique 2D. La validité théorique de cette projection est postulée par le Principe holographique [304]. Selon [327] page 300 et suivantes, la Théorie des cordes met en œuvre explicitement le Principe holographique pour simplifier les calculs. Cette théorie est très prometteuse, mais pas encore vérifiée par des mesures physiques en 2014. 3.5.12.8 Le Big Bang, phénomène irréversible Depuis l'invention du terme, on a appelé « Big Bang » le commencement de l'Univers, il y a 13.8 milliards d'années. Il était alors très petit et il a commencé son expansion, croissance de son diamètre qui se poursuit toujours. On pensait que le Big Bang avait été suivi, une fraction de seconde après, par une très courte période d'expansion explosive des milliards de fois plus rapide, l'inflation, ellemême suivie par l'expansion actuelle, bien plus lente. Nous savons depuis peu qu'il n'en est rien : l'inflation a précédé le Big Bang (détails : [313]). Dans ce texte et par respect des habitudes, l'expression Big Bang désignera toujours le début de l'expansion actuelle il y a 13.8 milliards d'années, car la véritable naissance de l'Univers, avant l'inflation, n'a pas de nom particulier et la durée entre cette naissance et le Big Bang est extrêmement courte. L'expression Big Bang est tellement connue - et la phase d'inflation si peu connue et si courte - que la plupart des auteurs qui connaissent l'inflation la considèrent comme le début du Big Bang et ne parlent donc que de ce dernier. 276 L'inflation (Important : pour comprendre la suite voir : [313]) Nos connaissances de physique (2015) nous permettent de comprendre, après l'instant initial de l'Univers, l'enchaînement de l'inflation, puis du Big Bang, puis de l'expansion de l'Univers. Entre le temps zéro et l'inflation, nos lois physiques ne s'appliquent pas, par exemple parce que la force de gravitation est discontinue et quantifiée. Il y a eu, avant le Big Bang, un très court moment (de l'ordre de 10-35 seconde) appelé inflation, pendant lequel la dimension de l'Univers a augmenté infiniment plus vite que la vitesse de la lumière, son diamètre étant multiplié par un facteur colossal de l'ordre de 10 78 ! Et pendant cette croissance exponentielle, de la matière-énergie s'est créée à partir d'une baisse de l'énergie potentielle de l'espace. Sa taille croissant après le Big Bang l'Univers s'est refroidi, tout simplement parce que sa densité d'énergie a diminué. La longueur d'onde des photons lumineux porteurs d'énergie en train de se déplacer a augmenté du fait de la dilatation de l'espace (ils se sont « dilatés »). Voici une interprétation du Big Bang proposée par Ilya Prigogine dans [26] page 191 : "Nous considérons le Big Bang comme le processus irréversible par excellence. L'irréversibilité résulterait de l'instabilité du pré-univers, instabilité induite par les interactions entre la gravitation et la matière. Dans cette perspective, notre univers serait né sous le signe de l'instabilité." Bibliographie : trous noirs et Big Bang : [136] ; théorie de la gravitation quantique. 3.5.12.9 Univers à plus de 4 dimensions Notre Univers a trois dimensions d'espace et une de temps formant le continuum espace-temps décrit par la Relativité Générale. Certaines théories supposent que l'Univers a d'autres dimensions, 10 ou 11 en tout notamment. Mais notre cerveau et nos instruments étant incapables de « voir » ces autres dimensions, nous ne pourrions avoir de leur existence que des preuves indirectes, de la même nature que les preuves mathématiques données par la Mécanique quantique et l'électrodynamique quantique concernant les invisibles particules atomiques et subatomiques, et leur évolution. Si une théorie décrivant un Univers à plus de 4 dimensions faisait une prédiction physique vérifiable dans notre Univers et que rien ne contredit, nous pourrions la considérer comme vraie jusqu'à plus ample informé. C'est ainsi qu'une théorie actuelle tente d'expliquer la conversion automatique de neutrinos-électrons en neutrinos-muons et réciproquement par un parcours à travers une dimension externe à notre Univers classique. Si une expérience physique confirme cette théorie alors qu'aucune de ses prédictions et aucune autre expérience ne la contredit, elle peut être considérée comme vraie au moins provisoirement. Du point de vue philosophique, il faut donc interpréter l'affirmation « nous ne saurons jamais rien sur l'extérieur de notre Univers » en précisant que le mot « extérieur » désigne une région de l'espace-temps « dont le contenu n'a, avec l'Univers qui nous est accessible, aucune relation de causalité décrite par une loi » ; il n'y a pas, par exemple, de transmission d'onde électromagnétique ou gravitationnelle susceptible de transmettre de l'information. 277 3.5.13 7e extension du déterminisme : Relativité, écoulement du temps Ecoulement du temps La notion même de déterminisme régissant les évolutions repose sur l'écoulement du temps, sans lequel elle ne se conçoit pas. Or la Relativité Restreinte [49] nous apprend que pour deux observateurs en mouvement l'un par rapport à l'autre le temps s'écoule à des vitesses différentes et la notion de simultanéité n'a plus la signification habituelle. Plus grave encore, il y a des situations où, pour un observateur situé au point M, l'événement A précède l'événement B, alors que pour un observateur situé en un autre point, P, c'est l'événement B qui précède l'événement A. Lorsque l'observateur en M aura connaissance de l'événement A il ne saura pas encore que B aura lieu, alors que lorsque l'observateur en P saura que B a eu lieu il ne saura pas encore que A aura lieu ! (Explication). Dans ces conditions, que deviennent la causalité et le déterminisme ? Ne pourraiton considérer que la dimension temps joue le même rôle que les trois dimensions d'espace dans le continuum espace-temps de la géométrie de Minkowski, et donc que la certitude des deux événements A et B était acquise d'avance pour un observateur extérieur à cet espace à 4 dimensions ? C'est ce qu'Einstein avait conclu selon [130], admettant alors le déterminisme philosophique [200], qui prétend que la totalité du passé et de l'avenir forme une chaîne de causalité unique et qu'il n'existe aucun écoulement objectif du temps. Mais pour Kant, pour moi, comme pour beaucoup d'autres la réponse est non : se placer à l'extérieur de l'espace-temps est comme se mettre à la place de Dieu, c'est une spéculation pure, qu'aucun raisonnement rationnel ne peut justifier, exactement comme l'existence de Dieu ; nous savons cela depuis Kant. En outre, l'irréversibilité prouvée de certains phénomènes comme la croissance de l'entropie impose d'admettre que le temps s'écoule. De son côté, le principe si intuitif de l'additivité de deux vitesses [36] est de moins en moins valable au fur et à mesure qu'une au moins des vitesses approche celle de la lumière. Enfin, la vitesse d'un corps matériel pesant accéléré peut approcher celle de la lumière, c, mais ni la dépasser ni même l'atteindre, tant pis pour les auteurs de science-fiction ; seules les particules sans masse comme les photons se déplacent à la vitesse de la lumière - et elles ne peuvent jamais aller moins vite ou plus vite. (Remarque : la vitesse de la lumière dépend du milieu où elle se propage ; celle qu'on désigne habituellement par c est la vitesse dans le vide.) De son côté, la Relativité Générale [328] montre que lorsqu'un mouvement entre deux points A et B traverse un champ gravitationnel, la vitesse d'écoulement du temps change par rapport à un mouvement entre les mêmes points ne traversant pas un tel champ, car sa trajectoire est autre. En outre, la courbure de l'espace changeant du fait du champ, la lumière s'y propage selon une trajectoire différente et l'unité de longueur en un point change avec le champ de gravitation en ce point. On cite souvent le « paradoxe des jumeaux », appelé aussi « paradoxe du voyageur de Langevin ». Considérons deux jumeaux, Pierre et Paul. Pierre reste sur Terre pendant que Paul part (et voyage à une vitesse inférieure à celle de la lumière, bien entendu). Paul décrit une certaine trajectoire (ligne d'univers dans l'espace-temps de Minkowski) qui finit par le ramener au point de départ sur Terre, 278 où Pierre l'attend. Les deux jumeaux constatent alors que Paul, le voyageur, a vieilli moins que Pierre : le temps s'écoulait plus lentement pour Paul que pour Pierre ! (Voir le raisonnement et le dessin explicatif.) La différence de vitesse d'écoulement du temps entre deux observateurs en mouvement l'un par rapport à l'autre est une caractéristique importante du déterminisme due à la Relativité. Equivalence masse -énergie La Relativité fournit une équation que tout le monde connaît : E = mc2 Cette formule pose l'équivalence de la masse et de l'énergie, qui sont deux aspects distincts d'une même réalité. La masse peut se transformer en énergie dans une bombe atomique et dans la chaîne de réactions qui transforment de l'hydrogène en hélium dans le Soleil, en convertissant de la masse en énergie calorifique (agitation thermique) et lumineuse (photons). Et à part dans les particules de masse nulle comme le photon [117], porteuses d'énergie et toujours en mouvement à la vitesse de la lumière, l'énergie a aussi, toujours, une masse associée : selon l'expérience, on mettra en évidence la masse, l'énergie ou les deux. Exemple : considérons un ressort au repos, c'est-à-dire ni comprimé ni tendu. Pesons-le avec une grande précision : nous trouvons une masse m. Comprimonsle en y emmagasinant une énergie mécanique potentielle E, qui pourrait se libérer en poussant un autre corps si on lâchait le ressort. Après compression, une seconde pesée très précise du ressort fait apparaître une masse m' telle que : m' m E c2 La masse m' est plus lourde que m ; l'énergie potentielle E emmagasinée dans le ressort est détectée par la balance sous forme de masse supplémentaire ! Pour comprendre pourquoi on ne s'était pas aperçu expérimentalement de cette équivalence entre énergie et masse avant la publication de la théorie de la Relativité Restreinte par Einstein en 1905 [49], il faut savoir qu'un gros ressort de suspension de train, comprimé de 10 cm par une force de 1 tonne ne voit sa masse augmenter que de 10-5 microgramme. Mais à une échelle plus grande, le Soleil (diamètre : 1.4 million de km, masse : 2 1027 tonnes) perd chaque seconde environ 4.3 millions de tonnes d'hydrogène transformé en rayonnement. L'équivalence de la masse et de l'énergie, qui n'a rien d'intuitif, est une raison supplémentaire d'enrichir la définition du déterminisme pour prendre en compte la Relativité. Elle nous oblige à reformuler le principe de conservation de la masse de la physique newtonienne en conservation de la somme masse + énergie. Pour plus de détails, notamment la conservation de l'impulsion, voir plus bas. La Relativité affecte aussi la masse d'un corps, qui n'est pas la même pour un observateur fixe par rapport à lui ou un observateur en mouvement. Elle affecte 279 également la durée de vie d'une particule instable en mouvement, qui paraît plus courte pour un observateur accompagnant la particule que pour un observateur fixe. Sans la théorie de la Relativité, nous n'aurions ni l'énergie atomique (E = mc2), ni une astronomie précise, ni le positionnement GPS à quelques centimètres près, ni même une compréhension du magnétisme (qui est un effet relativiste d'un champ électrique sur des charges en mouvement)… On peut multiplier ce genre d'exemples. Or le déterminisme traditionnel suppose un espace homogène et isotrope sans courbure. Il suppose aussi un temps absolu, le même pour tous les observateurs, fixes ou en mouvement, champ gravitationnel ou pas. Ce déterminisme est celui des lois de Newton [103] [110] et de la philosophie de Kant ; il convient pour la plupart des phénomènes de la vie courante, mais doit être étendu pour avoir de la précision dès que les vitesses, les accélérations ou les champs de gravitation exercent une influence mesurable, c'est-à-dire dès que la Relativité s'impose. L'extension du déterminisme imposée par la Relativité traduit le fait que la causalité elle-même est extrêmement différente de celle dont on a l'habitude, selon la manière dont la distance physique entre deux événements se compare au temps mis par la lumière à la parcourir : l'explication, simple à comprendre, est donnée plus bas. Les notions de temps, de longueur, de masse, de plus court chemin (qui n'est une ligne droite que dans un espace à courbure nulle, espace qui suppose l'absence de champ gravitationnel) sont relatives, pas absolues. Contrairement à l'intuition et au déterminisme traditionnel, les mesures correspondantes changent avec le lieu et la gravité qui y règne, ainsi qu'avec le déplacement relatif de l'observateur. 3.5.13.1 Relativité et irréversibilité Nous avons d'innombrables preuves, factuelles et incontestables, de l'existence de phénomènes irréversibles, dont la Relativité ne remet pas en cause l'irréversibilité. Exemple : la décomposition radioactive d'un atome, dont la Relativité peut mettre en cause (pour les préciser) la position et l'instant, mais pas le fait qu'une fois décomposé l'atome ne se reconstitue jamais. Concernant une éventuelle relation entre Relativité et irréversibilité, voici ce qu'on lit dans [26] page 193 : "…la révolution associée à la relativité n'affecte pas nos conclusions précédentes. L'irréversibilité, le flux du temps, conserve sa signification dans la cosmologie relativiste. On pourrait même soutenir que l'irréversibilité joue un rôle d'autant plus important que nous allons vers des énergies plus élevées, c'est-àdire vers les premiers moments de l'Univers." 3.5.13.2 Particules virtuelles. Electrodynamique quantique La Mécanique quantique est non relativiste, en ce sens qu'elle suppose que la gravitation et la vitesse relative n'ont pas d'effet sur les masses, que les particules ne peuvent être ni créées ni détruites et que leurs vitesses restent suffisamment faibles pour que l'espace et le temps ne soient pas relativistes. Pour lever cette hypothèse, on a créé l'électrodynamique quantique. 280 L'électrodynamique quantique fait la synthèse de Relativité Restreinte et des équations de Maxwell [123]. Cette théorie décrit mathématiquement les chargées électriquement (électron, proton…) avec avec d'autres particules chargées. la Mécanique quantique, de la de l'électrodynamique classique interactions [18] des particules un champ électromagnétique et L'électrodynamique quantique constitue une des vérifications les plus précises des postulats et méthodes mathématiques de la Mécanique quantique. Elle a été vérifiée avec une précision extraordinaire dans de nombreuses expériences, par exemple en fournissant la valeur du moment magnétique d'un électron avec une précision relative de 10-8 [104]. Cette précision est celle qu'aurait une mesure de la distance Paris-New York à quelques centimètres près ! Non seulement cette précision est une caractéristique intéressante du déterminisme étendu en matière de physique quantique, mais l'électrodynamique quantique met en lumière aussi d'autres aspects de la physique quantique. Ainsi, par exemple, l'interaction entre deux particules chargées se fait par échange de « photons virtuels », chacun représentant un quantum d'énergie. Ces photons [117] sont virtuels car il n'existe aucun moyen de les capturer pour les voir. Ils se manifestent en agissant comme des forces quantifiées qui transmettent leur énergie entre deux particules mobiles en interaction, et dont le vecteur vitesse change de direction et de grandeur lorsqu'elles émettent ou absorbent un tel photon. Ainsi donc, une force peut agir entre deux particules, par exemple lors d'un choc, en transmettant un quantum d'énergie ou plusieurs, et cette action est parfaitement déterministe dans le cadre d'un déterminisme étendu prenant en compte des discontinuités quantifiées. Autre ajout à la Mécanique quantique, l'électrodynamique quantique introduit, pour chaque particule, une antiparticule de même masse et même spin, mais avec des propriétés de charge électrique, moment magnétique et saveur opposées : le positon correspond ainsi à l'électron, l'antiproton au proton, etc. Une particule qui rencontre son antiparticule peut s'annihiler avec elle en libérant une énergie égale à la masse disparue, conformément à la Relativité (ΔE = Δmc2). Inversement, un photon d'énergie électromagnétique peut parfois se transformer en matière, par exemple en une paire électron-positon. Enfin, un électron et un positon peuvent s'associer en un atome appelé positronium, où le positon constitue le « noyau » autour duquel tourne l'électron. Mais, hélas, l'électrodynamique quantique est une science inachevée. Il y a des cas où elle prédit des valeurs infinies, physiquement inacceptables. Ce problème a été résolu dans des cas particuliers par une méthode appelée renormalisation, qui consiste à prendre en compte l'interaction d'une particule chargée avec son propre champ électromagnétique et à utiliser certaines astuces mathématiques. Le problème de fond est que, malgré les succès et la précision de la partie achevée de cette science, il reste des phénomènes inexpliqués sur lesquels les théoriciens travaillent, notamment une théorie quantique de la gravitation. 3.5.14 Attitude face au déterminisme Nous avons vu depuis le début de ce texte à quel point le déterminisme scientifique traditionnel doit nécessairement être étendu lorsqu'il s'agit de physique, et à quel point il peut alors nous surprendre. Souvent, les raisonnements imposés par le 281 déterminisme étendu contredisent notre intuition ou nous obligent à comprendre le monde à travers des équations ; souvent ils permettent plusieurs conséquences à partir d'une cause unique, voire plusieurs conséquences distinctes existant simultanément en superposition ; certains phénomènes sont réversibles, d'autres non ; certains ont des modèles permettant l'inversion du sens du temps ; si on refuse l'interprétation de Hugh Everett la décohérence fait intervenir une probabilité, et il y a des indéterminations, des instabilités et des précisions limitées. Enfin, parce que notre connaissance a tant de lacunes, et parce que dans le domaine du vivant la pensée n'est que partiellement déterministe, certains phénomènes sont inexplicables. La discussion de certaines extensions du déterminisme traditionnel nécessaires pour prendre en compte les avancées de la science est résumée ci-dessous. Voir aussi le résumé des cas d'imprédictibilité. On voit à présent pourquoi l'attitude honnête vis-à-vis des faits scientifiques représentée par le déterminisme étendu dérange, en nous obligeant à remettre en cause ce que nous croyons savoir, et en éloignant souvent notre représentation de la réalité de ce que nos sens nous permettent d'appréhender et d'accepter intuitivement. Cette conclusion s'applique au déterminisme des sciences physiques, le seul que nous ayons approfondi jusqu'ici. Mais une certaine forme de déterminisme régit aussi les sciences de la vie et des sciences sociétales comme l'économie. Comme il s'agit de sciences moins exactes, où les situations plus complexes mettent en jeu plus de niveaux d'abstraction, plus d'interactions, plus de variables à chaque niveau et plus d'imprécision pour chaque variable, et où les conclusions sont donc moins nettes et la causalité elle-même plus floue, nous pouvons nous attendre à trouver ci-dessous d'autres types de déterminisme. Dans notre quête d'une meilleure compréhension du déterminisme, nous verrons d'abord qu'on peut formuler des recommandations sur l'attitude à adopter face au déterminisme étendu. Ces recommandations concluront cette première partie, consacrée au déterminisme en physique. Après quelques réflexions sur les niveaux d'abstraction, nous aborderons le déterminisme du vivant puis celui de la société humaine. 3.5.14.1 Conséquences des lois de la nature sur le déterminisme 3.5.14.1.1 Validité des lois de la Mécanique quantique à l'échelle macroscopique La Mécanique quantique, conçue à l'origine en tant qu'outil mathématique pour modéliser les phénomènes de la physique à l'échelle atomique, est valable même à l'échelle macroscopique (exemple de système de 144 km de long : [10]). A cette échelle-là, les différences d'énergie entre états voisins sont minimes, du fait de la petitesse de h et du quantum d'échange d'énergie par photon interposé h, ce qui fait paraître continus la plupart des phénomènes. En outre, à l'échelle macroscopique où les masses sont des millions ou des milliards de fois plus importantes que la masse d'une particule atomique, les longueurs d'onde de de Broglie = h/mv et de Compton = h/mc sont si petites que l'indétermination sur les positions, vitesses, durées et énergies disparaît au profit du comportement précis qui en est la limite, et que les fluctuations quantiques sont négligeables. Les lois de Mécanique quantique sont valables aussi au niveau macroscopique, comme le 282 montre [313] et l'interprétation Multivers de Hugh Everett qui élimine le phénomène non déterministe de décohérence ; elles sont remplacées par les lois de la physique macroscopique qui s'en déduisent (voir le principe de correspondance). Il ne faut donc pas invoquer les fluctuations quantiques ou le principe d'incertitude de Heisenberg pour expliquer que des neurones puissent s'exciter de manière aléatoire, puis en déduire le caractère imprévisible de la pensée humaine et son libre arbitre : à l'échelle d'un neurone, les phénomènes quantiques sont si petits qu'ils sont négligeables. L'imprévisibilité de la pensée vient d'abord de l'intervention de l'inconscient [353], ensuite de la complexité des situations de la vie. Il est regrettable, par exemple, qu'un physicien se soit ridiculisé et ait abusé de la crédibilité de certains en affirmant que la physique quantique confirme la mystique orientale [175] ! Si on refuse l'interprétation de Hugh Everett, la Mécanique quantique a un problème systématique de validité à l'échelle macroscopique, où des états superposés ne peuvent exister, alors qu'ils le peuvent à l'échelle atomique tant qu'une mesure - ou le temps (très court) qui passe - n'en a pas choisi un en éliminant les autres. A l'heure actuelle, le comportement des mesures, qui ne retiennent à chaque fois qu'une possibilité avec une certaine probabilité parmi les éléments d'un ensemble prédéfini, est postulé par les axiomes 3 et 4 de la Mécanique quantique. Ce choix arbitraire est légitimé à l'échelle atomique par d'innombrables expériences et prévisions, mais seulement à cette échelle-là. La théorie qui explique l'absence d'états superposés à l'échelle macroscopique est celle de Hugh Everett. Il y a des expériences qui constatent le temps très court nécessaire à notre échelle pour réduire la superposition à un état unique, soit par décohérence due au jeu naturel d'interactions entre le système et son environnement [1], soit par basculement de l'univers de l'expérimentateur dans l'état unique qu'il constate en fin d'expérience. L'absence d'états superposés à l'échelle macroscopique ne nous permet cependant pas de remettre en cause l'équation d'évolution fondamentale de Schrödinger, déterministe au sens scientifique traditionnel. Nous pouvons simplement postuler, conformément aux expériences comme [1], que la décohérence qui affecte les expériences où apparaissent des états superposées existe, est automatique et très rapide. La conclusion, du point de vue déterminisme, est donc la possibilité, dans certains cas, qu'une cause unique ait plusieurs conséquences possibles, dont après un certain temps une seule se réalisera ou sera constatée à notre échelle. Voir aussi l'interprétation arborescente du déterminisme de Hugh Everett. Nous n'avons pas (en tout cas pas encore) de théorie satisfaisante pour prédire combien de temps s'écoulera avant une décohérence ou un basculement d'univers : nous ignorons où est située la frontière entre physique macroscopique et physique quantique - s'il y en a une, nous avons seulement des exemples comme [1] et [10]. Nous savons aussi qu'à l'échelle macroscopique certains phénomènes ou comportements observés à l'échelle atomique sont négligeables ou de durée trop faible pour être observables [117] ; les équations et outils de la Mécanique quantique peuvent alors être remplacés par ceux de la physique macroscopique, établis directement ou qui s'en déduisent par passage à la limite, mais sont bien plus pratiques à utiliser. 283 Exemple d'équivalence de loi de physique macroscopique et de théorèmes de Mécanique quantique : dans sa thèse de 1942, le physicien prix Nobel Feynman a montré l'équivalence du principe macroscopique de moindre action [62], parfaitement déterministe au sens classique, et des théorèmes probabilistes sur les fonctions d'onde de Mécanique quantique. Principes de correspondance et de complémentarité Il y a, entre les lois de la Mécanique quantique et les lois de la physique classique (macroscopique) qui s'en déduisent, un principe de compatibilité appelé « principe de correspondance ». Selon ce principe, lorsque le système considéré est assez grand pour que les effets quantiques soient négligeables, les prédictions de la Mécanique quantique doivent être les mêmes que celles de la physique classique pour toutes les variables mesurables (appelées « observables ») de la Mécanique quantique qui ont un équivalent limite en physique classique. La continuité de passage entre Mécanique quantique et mécanique classique est due à l'élimination progressive des imprécisions probabilistes de la Mécanique quantique par l'effet du nombre de particules prises en compte, leurs variations se compensant de mieux en mieux. Ce principe de correspondance est une conséquence : De l'uniformité de la nature ; Du fait que la nature ignore le concept d'échelle, abstraction humaine utilisée pour représenter et comprendre les phénomènes. Il y a aussi des règles mathématiques permettant de passer d'équations de la physique classique à des équations à opérateurs non commutatifs de la Mécanique quantique. Remarques L'existence du principe de correspondance n'interdit pas que certains phénomènes n'apparaissent qu'en physique quantique. Cela n'a rien d'étonnant : lorsqu'on regarde un objet au microscope, certains détails n'apparaissent qu'audelà d'un grossissement minimum ; en deçà, ils existent mais sont négligeables. Exemple : la longueur d'onde de de Broglie = h/mv devient trop petite pour que son existence compte dès que la quantité de mouvement mv est celle de quelques milliers d'atomes en mouvement. Il y a des limites de précision en physique quantique sous des formes comme la largeur d'un paquet d'ondes et la longueur d'onde de Compton, qui imposent un caractère flou à certaines variables. Il y en a aussi en physique macroscopique, par exemple en optique sous la forme du pouvoir séparateur d'un instrument [211]. Le principe de correspondance est complété par le principe de complémentarité, découvert en 1928 par Niels Bohr. Selon ce principe, le comportement de phénomènes comme les électrons ou la lumière est tantôt corpusculaire, tantôt ondulatoire, selon l'expérience ; il y a donc une dualité onde-particule. On ne peut observer à la fois un comportement corpusculaire et un comportement ondulatoire, ces deux comportements s'excluant mutuellement et constituant des descriptions complémentaires des phénomènes auxquels ils s'appliquent. 284 Sensibilité de requins, raies et autres chondrichthyens aux champs électriques Les comptes-rendus de recherches [234] montrent que certains poissons du groupe des chondrichthyens ont un organe sensoriel permettant de détecter d'éventuelles proies grâce au champ électrique émis par leurs cellules dans l'eau de mer. Cet organe fonctionne même dans l'eau boueuse et dans l'obscurité. Sa sensibilité est extraordinaire, puisque les chercheurs ont prouvé qu'il réagit parfois à des champs d'environ 1 microvolt/mètre, et à des champs de moins de 1 microvolt/cm qui durent au moins 2 millisecondes. Cette sensibilité est si considérable que nos appareils électroniques modernes peinent à l'égaler. Le champ électrique détectable par ces poissons équivaut à celui d'une pile de 4.5 volts dont un pôle tremperait dans l'océan Atlantique en France et l'autre aux Etats-Unis. Réponse d'une rétine à un photon unique Les expériences citées dans [139] montrent qu'un seul photon de lumière visible, avec son énergie incroyablement faible, suffit à provoquer une réponse rétinienne chez un crapaud ou un homme. Le courant électrique correspondant à l'influx nerveux est de l'ordre de 1 picoampère (1 pA = 10-12 A), suffisant pour que l'animal ou l'homme ait conscience d'avoir vu l'éclair lumineux. De temps en temps, chez l'homme, l'information n'est pas transmise par la rétine parce qu'un seuil empêche la prise de conscience de la lumière d'un photon unique, qui pourrait être due à un « bruit », mais à partir de 7 photons environ la transmission est systématique. Ces expériences montrent que parfois un phénomène d'énergie minuscule, relevant de la physique quantique, peut être amplifié par un mécanisme physiologique jusqu'à une échelle macroscopique permettant sa prise en compte par un être vivant. On peut aussi rappeler l'existence de dispositifs artificiels permettant de détecter des lumières très faibles : les grands télescopes munis de cellules photoélectriques peuvent donner des images de galaxies qui voyagent depuis plus de 13 milliards d'années-lumière, bien que l'énergie électromagnétique reçue diminue comme le carré de la distance. Conclusion D'une part, la Mécanique quantique est valable même pour des systèmes grands et complexes ; d'autre part, la nature amplifie certains phénomènes à l'échelle atomique jusqu'au niveau macroscopique. Conséquence philosophique : le déterminisme étendu de la Mécanique quantique s'applique également aux processus à l'échelle humaine. Nous en avons vu un exemple : les « accidents » de réplication du génome (simples choix de solutions de faible probabilité dans la création de liaisons moléculaires) produisent de temps en temps des espèces vivantes nouvelles, qui perdurent lorsqu'elles s'avèrent viables dans leur environnement. Nous en avons aussi une explication, pour le seul cas où le hasard semblait intervenir dans le choix d'une solution dans une superposition, l'interprétation Multivers de Hugh Everett. 3.5.14.1.2 Le déterminisme étendu peut abolir les distances et les durées L'expérience de séparabilité relatée dans [10] a une conséquence importante en matière de déterminisme étendu : l'abolition possible des distances et des durées dans certaines circonstances. 285 En effet, le devenir de deux photons intriqués A et B, produits ensemble et décrits par un état quantique commun, est déterminé en commun, en ce sens que ce qui arrive à l'un ne peut pas ne pas retentir sur l'autre, quelle que soit sa distance : la conséquence d'une mesure du photon A (mesure qui le détruit obligatoirement par absorption) est propagée instantanément au photon B, à une vitesse infinie - donc plus rapide que celle de la lumière. On peut interpréter cela comme le fait que les deux photons intriqués distants forment un système global (il y a non-séparabilité), parce qu'ils ont et conservent un état quantique commun ; en cas de non-séparabilité, tout se passe comme si le déterminisme agissait à distance en un temps nul et avec un transfert d'énergie nul. L'action déterministe à distance par non-séparabilité ne propage pas, non plus, d'information : elle ne peut servir à transmettre instantanément un message ; la corrélation préservée se constate seulement après coup. Sachant que dans une des expériences [10] la distance entre les photons A et B a été de 144 km, chacun est en droit d'être stupéfait et de se sentir obligé de remettre en question quelques-unes de ses représentations mentales du monde et de ses lois… La non-séparabilité est une conséquence de l'absence de variables cachées, c'est-àdire du fait que l'état quantique d'un système décrit tout ce qu'on peut en savoir ; et quand un système de particules fait un tout son unité n'est pas détruite par sa déformation, mais seulement par une action irréversible sur l'une des particules. 3.5.14.1.3 Multiplicité des conséquences possibles Cas de la nature Une situation de départ donnée ("cause", représentée par son vecteur d'état en Mécanique quantique ou un point dans son espace des phases) peut produire une, plusieurs, ou une infinité de situations à l'arrivée ("conséquences") ; celles-ci sont équiprobables ou non, et une seule est ensuite choisie au hasard, immédiatement ou non. Ce phénomène bien connu à l'échelle atomique existe aussi à l'échelle macroscopique (existence d'attracteurs et convergence d'états vers eux). En suggérant une unicité avant ou après une évolution, les termes « situation » et « état » d'un système sont trompeurs. La multiplicité des conséquences doit aussi être interprétée pour un système comme une pluralité des comportements possibles, entre lesquels la nature opère un choix, immédiatement ou non. Le rôle du hasard probabiliste est réduit au choix d'un état final dans l'ensemble de ceux que les équations déterministes rendent possibles (et qu'on appelle en Mécanique quantique "valeurs propres" de l'opérateur qui les représente [278]). Et si on admet l'interprétation multiunivers de Hugh Everett, il n'y a jamais ni hasard ni décohérence : chaque expérimentateur perçoit un seul système en fin d'expérience, le même qu'au début. Exemples de pluralité de comportements possibles : convergence vers des attracteurs multiples, notamment lorsque des espèces vivantes apparaissent en tant que descendantes d'autres espèces ; existence d'états cohérents multiples superposés. 286 Cas de l'homme : le libre arbitre Il est impossible de distinguer entre une liberté transcendante à la disposition de Dieu ou de l'homme (c'est-à-dire affranchie du déterminisme des lois de la nature), et le choix sous influence d'un homme soumis à la réalité matérialiste et déterministe du monde (sujet développé plus bas), notamment par l'intermédiaire de son inconscient. Face à des choix multiples, si un homme a l'impression d'être libre malgré l'influence de son inconscient [353], on ne peut lui prouver qu'il a tort ; même conclusion s'il a l'impression d'être esclave de contraintes externes ou d'une volonté divine. L'affirmation par les idéalistes « l'homme a un libre arbitre » suppose qu'il a un esprit transcendant, immatériel et indépendant des lois physiques. Elle est comme l'affirmation « Dieu existe » : infalsifiable [203], inutilisable rationnellement. 3.5.14.1.4 Imprévisibilité de l'évolution et de l'état final L'état résultant d'une évolution déterministe peut être imprévisible ou imprécis, par exemple du fait : De l'existence pour chaque variable mesurée (appelée observable, opérateur auto-adjoint) d'un ensemble prédéfini de valeurs possibles (les valeurs propres de l'observable [278]) entre lesquelles la nature fait un choix probabiliste ; De la multiplicité des solutions probabilistes des équations d'évolution de Schrödinger, qui ont pour résultat des paquets d'ondes à l'origine d'imprécisions sur des positions, des vitesses, etc. ; D'une sensibilité aux conditions initiales (exemples) ; Du franchissement par un paramètre d'une valeur critique entraînant un changement de loi d'évolution par bifurcation dans l'espace des phases. Voir : Définition par rencontre de chaînes de causalité indépendantes - Hasard par ignorance. "Résumé des cas d'imprédictibilité" en fin de texte. 3.5.14.1.5 Difficulté de préciser la situation de départ ou le processus Nous avons vu sur plusieurs exemples que le déterminisme peut agir à une échelle locale ou globale ; toute prédiction basée sur le déterminisme doit donc tenir compte de l'échelle à prendre en compte. (Rappel : la notion même d'échelle est une abstraction humaine.) Mais une difficulté apparaît pour appliquer les lois qui régissent le phénomène pris en compte : il est souvent difficile et hasardeux de définir les circonstances constituant la situation de départ et le processus d'évolution du système, circonstances qui influent sur le choix de la loi d'évolution ou ses paramètres. Exemple : les lois de la thermodynamique s'appliquent à un phénomène global prenant en compte les milliards de molécules du gaz d'un cylindre, fermé par un piston, qui peut échanger avec l'extérieur de la chaleur et du travail lors d'une compression par déplacement du piston. Selon l'évolution qu'on prend en compte du fait de la connaissance qu'on a du système et de ses échanges, on appliquera, par exemple, une loi adiabatique (sans échange de chaleur) ou une loi isotherme (à température constante), et l'évolution résultante prévue ne sera pas la même. 287 3.5.14.1.6 Impossibilité de remonter l'arborescence de causalité Il est souvent impossible, en pratique, de remonter d'un état final à un état initial comme le voudrait le déterminisme philosophique, par exemple pour la trajectoire d'une molécule de gaz dans un récipient. Et l'irréversibilité est une autre cause d'existence d'une flèche du temps. En outre, il est souvent impossible, lorsqu'un phénomène paraît aléatoire comme celui de l'exemple xn+1 = 4xn(1-xn) ci-dessus, de l'attribuer à une loi permettant des prédictions, faute de pouvoir la deviner ou la déduire d'un raisonnement. Par manque d'informations il est en général impossible, en pratique, à partir d'une situation constatée, de reconstituer en pensée la situation dont elle est la conséquence et l'évolution qui s'est produite. On connaît certains paramètres et certaines règles de transformation, mais pas assez pour comprendre ce qui s'est passé et pouvoir, à l'avenir, prédire les conséquences de causes similaires. Dans son besoin inné de sens qui fait qu'il a horreur des incertitudes et du hasard (qui l'inquiètent), l'homme a alors tendance à inventer une explication des évolutions et des situations qu'il ne comprend pas. Il les attribue parfois à la volonté de Dieu, parfois à une liberté prêtée à la nature d'agir sans cause ou sans respecter de loi, parfois au libre arbitre de l'homme considéré comme non déterministe, etc. C'est ainsi, par exemple, que naissent les idées préconçues et les superstitions. L'exemple de la polémique à propos de l'évolution des espèces illustre cette attitude : il y a encore de nos jours des millions de personnes qui nient l'évolutionnisme darwinien et croient au créationnisme ; heureusement, le pape Benoît XVI a reconnu le caractère scientifique de l'évolutionnisme, réservant le rôle de Dieu à la création initiale du monde. 3.5.14.1.7 Irréversibilité La radioactivité naturelle est un exemple de phénomène intrinsèquement irréversible, contredisant par là le déterminisme philosophique. Il est pourtant inéluctable et présente toutes les caractéristiques du déterminisme étendu : C'est un phénomène prévisible à l'échelle globale d'un ensemble d'atomes ; Condition nécessaire et suffisante : l'instabilité énergétique du noyau de chaque atome, due à l'application des lois de la Mécanique quantique ; Stabilité de la loi : le phénomène de radioactivité d'un élément de la classification périodique (type d'atomes) est le même partout et à tout moment. Le déterminisme philosophique est faux, et le déterminisme scientifique traditionnel doit tenir compte de l'irréversibilité de certains phénomènes. Irréversibilité en Mécanique quantique et dans les systèmes macroscopiques Nous avons déjà signalé qu'en physique quantique toute mesure est irréversible ; elle augmente l'entropie [25] du système mesuré. Il y a là une contradiction, puisque l'approche même de la Mécanique quantique, basée sur son équation fondamentale d'évolution déterministe, ne laisse aucune place à l'irréversibilité de la décohérence ; l'équation de Schrödinger est valable du début à la fin d'une expérience, à condition d'inclure dans le système observé l'expérimentateur et ses instruments (Hugh Everett). 288 Dans [26], Ilya Prigogine a étudié l'irréversibilité en faisant appel à la théorie des résonances d'Henri Poincaré et une extension de la Mécanique quantique basée sur des statistiques d'état. Ce sujet est trop difficile pour être abordé dans ce texte, mais ces travaux imposent une conclusion : l'irréversibilité donne au déterminisme une définition et un comportement particulièrement complexes et non intuitifs, qui handicapent les raisonnements scientifiques au point de les mettre souvent hors de portée des non-spécialistes. Nous avons vu, par exemple, qu'il peut y avoir autoorganisation à l'échelle macroscopique, avec un choix imprévisible de structure. 3.5.14.1.8 Relativité Nous avons vu ci-dessus et expliquerons plus en détail plus bas que la causalité à la base du déterminisme traditionnel est fortement affectée par la Relativité ; sans l'extension correspondante du déterminisme, certains raisonnements pourraient être faux. Il est nécessaire que le déterminisme de l'équation de Schrödinger, équation fondamentale de la Mécanique quantique, soit complété par une théorie relativiste faisant intervenir la gravitation, nous l'avons déjà signalé. 3.5.14.1.9 Matérialisme et déterminisme des lois du vivant En plus de leur besoin psychologique de sens, beaucoup de personnes ne peuvent accepter l'idée que leur corps est une machine soumise au déterminisme matérialiste, idée qui suppose aussi que leur pensée n'est pas libre mais esclave des contraintes de l'environnement et des mécanismes psychiques (notamment l'inconscient [353]), eux-mêmes soumis aux lois de la biologie moléculaire, elles-mêmes déduites des lois physiques. Elles font un blocage psychologique sur ce point et souffriraient beaucoup d'une éventuelle preuve qu'ils se trompent. Nous verrons plus bas en analysant le déterminisme des êtres vivants que leurs mécanismes physiologiques ne peuvent être modélisés à partir des seules lois physiques, comme certains matérialistes le proposent du fait de leurs connaissances scientifiques dépassées ; un modèle correct est plutôt de type informatique, où une hiérarchie de logiciel (construite au-dessus des mécanismes cellulaires interprétant le génome et prenant en compte les interactions entre processus) pilote le matériel cellulaire pour régir les comportements du vivant, avec ses fonctions d'alimentation, de mouvement, d'acquisition d'expérience, de reproduction, de pensée et d'adaptation permanente à l'environnement [51]. La nécessité d'un tel modèle résulte du fait que « Le tout est plus riche que la somme des parties ». De leur côté, certains mécanismes de la pensée qui sont conscients et logiques sont déterministes, alors que les mécanismes inconscients [353] ne sont ni modélisables ni prévisibles, sinon en grandes lignes. 3.5.14.2 Attitude recommandée face au déterminisme Rappelons d'abord nos objectifs. Le déterminisme sert à chacun de nous à comprendre le monde qui l'entoure - et dans les cas très simples à se comprendre luimême [339] - puis à prévoir l'évolution des situations pour décider ce qu'il va faire. La compréhension et son expression sous forme de lois, doivent : Respecter les faits objectifs connus dans le cadre d'une attitude scientifique ; 289 N'être considérées comme dignes de confiance (c'est-à-dire vraies) qu'après avoir été soumises à des tentatives de contradiction avec des faits réels ou imaginaires mais en tout cas plausibles, et après avoir été approuvées par la communauté scientifique, notamment après vérification expérimentale. Une décision basée sur ces faits et lois doit être conforme à la logique, dans la mesure où les éventuelles connaissances insuffisantes et incertitudes le permettent ; quand c'est nécessaire, ses hypothèses doivent être assorties de mises en garde ou de probabilités. Nous avons vu qu'il y a en physique beaucoup de lois surprenantes, et les domaines du vivant et du sociétal nous surprendront encore plus et nous conduiront à étendre encore davantage la définition du déterminisme. Une première recommandation à chacun de nous, après celle (évidente) d'une pensée objective, logique et sans émotion, est donc d'avoir la meilleure culture générale possible en matière de sciences exactes, ainsi que de sciences de l'homme et de la société. C'est tout aussi évident, même si c'est plus facile à recommander qu'à faire, et si les hommes ne seront jamais égaux face à la connaissance et à l'aptitude à réfléchir. Et comme nul ne peut savoir seul tout ce qu'il faut, il doit faire l'effort de chercher l'information, de communiquer avec d'autres et de travailler en équipe. La France souffre d'une baisse constante du niveau de connaissances dispensé par l'enseignement primaire et secondaire [177], et d'une dévalorisation du savoir dans la société. 3.5.14.2.1 Critique des méthodes de réflexion de quelques philosophes français En discutant du sujet et des idées de cet ouvrage avec trois philosophes français connus du grand public, j'ai été surpris de découvrir que leur culture littéraire considérable était associée à un manque regrettable d'entraînement dans l'art de penser de manière logique et rigoureuse. Ces personnes extrêmement intelligentes raisonnaient pour l'essentiel par intuition. Souvent, après avoir trouvé une première réponse intuitive à un problème posé, ils essayaient de la justifier à l'aide d'analogies ou d'arguments d'autorité (références à l'opinion de personnages respectés), mais en faisant assez peu appel à la déduction logique. La plupart du temps, ils violaient le premier précepte de Descartes [4] en tenant pour vraie une proposition qui n'était qu'une intuition non démontrée et non contredite [316] ; et ils violaient ce cinquième précepte que je suggère d'ajouter aux quatre de Descartes : "Ne rien tenir pour faux ou impossible qui ne le soit démontré". Penser avec rigueur et logique demande un entraînement comme celui qu'on obtient par la pratique des mathématiques ou du développement de logiciel informatique. Une telle pensée ne nie pas l'utilité de raisonnements par intuition, induction ou analogie, elle les discipline et les rend plus sûrs. Il est impossible d'empêcher son esprit d'avoir des idées, mais avec un peu d'entraînement on peut s'habituer à soumettre chacune au moins à des tests de plausibilité et d'exhaustivité des hypothèses. Il y a aussi le 290 problème du respect des lecteurs et de l'opinion qu'ils peuvent se forger sur un auteur : un seul niveau de qualité est acceptable pour un auteur sérieux, le meilleur possible. Enfin, j'ai constaté que ces philosophes étaient assez sûrs de la rigueur de leur pensée pour oublier souvent de prendre en compte des connaissances et des lois physiques dont ils n'avaient pas entendu parler : victimes du syndrome de Kahneman "What You See Is All There Is" ils raisonnaient alors faux [316]. Exemples de manque de rigueur Un philosophe a critiqué le fait que mon travail, très marqué par le matérialisme, ne laissait pas assez de place au scepticisme, par exemple en refusant de réfléchir à des Univers externes et à la période qui a précédé l'inflation et le Big Bang. J'ai dû lui faire observer qu'il s'agissait là de pures spéculations, qui ne pouvaient apporter quoi que ce soit à une réflexion rigoureuse. Un autre philosophe a refusé de continuer à discuter avec moi lorsqu'il a appris que je n'étais pas, comme lui, partisan du principe anthropique, erreur que je dénonce plus bas. Coopération entre philosophes et scientifiques Enfin, je suggère aux philosophes qui veulent penser au-delà de la science conformément à la vocation de la philosophie, et même si cela introduit des risques d'erreur - de travailler en équipe avec des scientifiques, chacun ouvert à l'approche intellectuelle des autres ; c'est aussi en pensant à ces philosophes - et plus généralement aux intellectuels - que j'ai écrit ce texte à partir de ma formation scientifique. 3.5.14.2.2 La liberté d'esprit et d'expression Voici une citation extraite de [209] page 80 : "A quelles conditions enfin le progrès scientifique pourrait-il être menacé ? Etant donné le caractère infini de notre ignorance, la science peut en droit progresser indéfiniment. Les seules forces qui la menacent sont extérieures : psychologiques - le manque d'imagination théorique ; méthodologiques - l'excès d'importance accordé à la précision et à la formalisation. Surtout les conditions sociales ont une grande importance : pour s'épanouir la science a besoin de conditions économiques (une aisance minimale), et culturelles : les modes, l'esprit de secte, l'excès de spécialisation, la soumission excessive à des impératifs technologiques peuvent menacer l'esprit critique et atténuer sa rigueur. Enfin, et par-dessus tout, l'attitude critique dépend des conditions politiques : l'autoritarisme et les dictatures détruisent complètement la science." Je pense aussi que le progrès de la science a toujours souffert d'un régime autoritaire, en particulier s'il est aussi totalitaire et soumis à une idéologie officielle. Ce fut le cas sous le régime nazi en Allemagne et le régime soviétique en URSS, régimes où les scientifiques avaient des obligations concernant le but de leurs recherches (soumis à la politique), le refus de résultats (la science « juive » d'Einstein, Fermi, Freud et Husserl était niée en Allemagne nazie), le droit d'être chercheur sans être membre du Parti et la difficulté de communiquer avec des savants étrangers (URSS), le filtrage des accès Internet en Chine, etc. 291 La science a des retombées qui sont des instruments de prestige et de pouvoir qu'un régime totalitaire ne peut ignorer ; c'est pourquoi en URSS les grands savants étaient comblés d'honneurs et d'argent, tout en étant astreints à faire les recherches approuvées par les politiciens et à nier la vérité scientifique quand elle dérangeait ces derniers. 3.5.14.2.3 L'ouverture d'esprit Nous avons vu, à propos de la physique, beaucoup de concepts nouveaux et de méthodes de pensée nouvelles. Mais il y en a beaucoup d'autres, j'en cite ci-dessous des exemples qui sont si éloignés des concepts et méthodes de pensée habituels qu'ils obligent à remettre en question certaines habitudes mentales ; je pense d'abord aux personnes de culture essentiellement littéraire, plus à l'aise dans l'apriori, l'intuition et l'originalité que dans la rigueur, l'objectivité, la soumission aux faits et la reconnaissance de l'ignorance ; je pense ensuite aux nombreuses personnes qui, croyant savoir ce qu'est le déterminisme sans y avoir jamais réfléchi, estiment n'avoir rien à apprendre sur ce sujet. Conséquences scientifiques du déterminisme exigeant de l'ouverture d'esprit Nous connaissons tous les propriétés élémentaires de la matière que sont la masse ou la charge électrique, par exemple. Mais la physique quantique impose la prise en compte d'autres propriétés tout aussi élémentaires et fondamentales. Exemples : Le spin [22], représenté par le vecteur moment cinétique d'une particule (électron, proton, etc.). Celle-ci se comporte comme une masse tournant sur elle-même, même si cette image intuitive du spin n'est pas conforme à la réalité physique. Comme on pouvait s'y attendre, le spin est quantifié, il ne peut prendre que des valeurs entières ou demi-entières multiples du quantum d'action ä. La saveur, caractéristique d'un quark ou d'un lepton qui mesure sa réaction aux interactions faibles [18]. Il y a 4 saveurs : charme, étrangeté, bottom et top. Il y a 6 quarks : up, down, charme, étrangeté, top, bottom. Il y a 6 leptons : l'électron, le muon, le tau, le neutrino-électron, le neutrinomuon et le neutrino-tau. La couleur, autre nombre quantique, caractéristique fondamentale des quarks et des gluons [18], qui existe en trois types : rouge, vert et bleu (types aussi symboliques que la couleur elle-même, que jamais personne n'a vue ou ne verra). La couleur mesure la réaction d'une particule aux interactions fortes [18]. Les antiquarks ont des anticouleurs : antirouge, antivert et antibleu. Les hadrons n'ont pas de couleur : on les dit « blancs ». L'hélicité, composante du spin le long du vecteur impulsion [20] d'une particule qui caractérise l'asymétrie fondamentale de la matière. L'hélicité peut être à droite lorsque la particule se déplace dans le sens de son spin, ou à gauche lorsqu'elle se déplace dans le sens opposé. Le photon possède deux états d'hélicité, +1 et -1, et c'est par abus de langage qu'on dit qu'il a un spin 1. Toutes ces propriétés - et il y en a d'autres - n'apparaissent que dans les calculs, parce qu'elles concernent des particules minuscules. On ne peut se les représenter 292 intuitivement parce qu'elles ne ressemblent à aucun concept de notre expérience familière. Elles n'en sont pas moins réelles et impossibles à ignorer, et il faut une certaine ouverture d'esprit pour les prendre en compte à travers des équations en refoulant notre intuition. L'ouverture d'esprit concerne aussi des méthodes de pensée, nous en avons vu des exemples comme le vide plein d'énergie, la pluralité des états finaux, l'imprécision limitant la précision, l'indétermination, les fluctuations d'énergie et la généralité des phénomènes discontinus (vibrations, frottements...). Nous devons prendre l'habitude, chaque fois que quelque chose ne s'explique pas par des raisonnements et un déterminisme classiques, d'ouvrir notre esprit à des possibilités nouvelles en matière de faits ou de méthodes de pensée. C'est pourquoi j'ai suggéré ci-dessus d'ajouter un cinquième aux quatre préceptes de Descartes [4] : "Ne rien tenir pour faux ou impossible qui ne le soit démontré". Cela demande une attitude de modestie, de soumission aux faits, de reconnaissance de ses erreurs, d'adaptation permanente des méthodes de pensée . L'ouverture d'esprit est aussi indispensable aux chercheurs, à la fois pour rêver et espérer des découvertes et pour accepter celles des autres [153]. Elle est aussi nécessaire aux entrepreneurs pour espérer, risquer et investir. Enfin, quelle joie pour un intellectuel d'apprendre quelque chose de neuf ! C'est la même joie que celle d'un sportif dont l'effort est récompensé par la performance. 3.5.14.2.4 Une loi est toujours vraie, elle ne peut être probable Supposons que j'affirme « un lancer de dé donne un 6 », en ajoutant que ce sera vrai une fois sur 6, c'est-à-dire que c'est une "loi" dont la probabilité d'être exacte est 1/6. Le problème est alors qu'il existe des cas où la loi est fausse, tous ceux où sort un chiffre autre que 6. La loi « un lancer de dé donne un 6 » peut donc être prise en défaut. Elle doit donc être considérée comme fausse, car une loi ne peut pas être assortie d'une probabilité, c'est un prédicat dont les seules valeurs possibles sont « toujours vrai » et « toujours faux ». Si je prends en compte cette objection en formulant la loi sous la forme « un lancer de dé donne un des six nombres de 1 à 6, chacun ayant une probabilité de sortir de 1/6 », la loi est toujours vraie, on ne peut la prendre en défaut. Une loi ou une théorie peut donc donner un résultat probabiliste, mais son énoncé doit être valable dans tous les cas, sans contre-exemple. Une loi est toujours déterministe, même avec des résultats probabilistes, nous l'avons déjà vu. Une loi ne peut donc pas être considérée comme valable si « elle n'a que de rares exceptions ». La liste des éventuelles exceptions doit faire partie de son énoncé et être exhaustive ; et pour chaque exception il faut justifier pourquoi elle ne contredit pas la loi. Tout ensemble de résultats d'expériences dans des cas particuliers n'est que cela, un ensemble de cas particuliers ; il ne constitue pas une loi générale, même si le nombre de cas est élevé, car il pourrait exister un contre-exemple. Nous compléterons cette réflexion en décrivant le rationalisme critique de Popper. 293 3.5.14.2.5 Le « principe anthropique » Les physiciens ont remarqué des coïncidences troublantes entre diverses constantes de l'Univers et la possibilité d'une vie terrestre (voir [242] et [136] Tegmark pages 138 et suivantes). En voici deux parmi bien d'autres (concernant l'âge de l'Univers, la masse et la charge du proton et de l'électron, la constante de gravitation G, etc.) : L'astronome anglais Fred Hoyle a remarqué qu'une valeur à peine différente de l'intensité de l'interaction nucléaire [18] aurait pratiquement réduit à néant la génération de carbone dans les réactions de fusion stellaires, les seules dans l'Univers à en fabriquer. Puisque sans carbone la vie telle que nous la connaissons est inconcevable, il semble que l'interaction nucléaire ait "juste la force de champ qu'il faut" pour que la vie apparaisse dans l'Univers. Pour les tenants du principe anthropique, cela ne peut s'expliquer que par l'influence de la volonté d'un Créateur, si l'on tient compte du fait qu'il y a de nombreuses coïncidences comme celle-là. Le physicien prix Nobel Steven Weinberg a remarqué dans son livre [145] qu'il y a un rapport entre la valeur de la constante cosmologique [146] et l'existence de la vie sur la Terre. Une valeur trop élevée de cette constante (source de gravitation négative) aurait empêché toute formation de galaxie, donc aussi la formation du système solaire. Sa valeur connue est compatible avec la répartition de matière observée et l'expansion de l'Univers, donc la vie terrestre. Ces coïncidences sont si nombreuses et si troublantes que des physiciens comme Robert Dicke ont postulé l'existence d'un « principe anthropique », selon lequel elles ne sont pas le fruit du hasard. Ce principe postule que ces constantes ont exactement « les bonnes valeurs » pour que la vie apparaisse et évolue vers la complexité que nous constatons dans l'homme, sans avoir besoin de la sélection naturelle de Darwin. Tout se passe comme si l'Univers était soumis à un déterminisme global, comme si une volonté téléologique externe à l'Univers l'avait fait tel qu'il est, avec les lois qu'il a, pour que la vie apparaisse et évolue en complexité jusqu'à l'homme qui l'observe aujourd'hui. Le principe anthropique est donc une forme moderne de la « preuve » téléologique de l'existence de Dieu, que nous avons décrite dans la première partie de cet ouvrage. Discussion Le principe anthropique est-il un déterminisme divin ? Les coïncidences de valeurs de constantes ci-dessus étant réelles, chacun est libre de les interpréter comme il veut, notamment en postulant l'existence à l'échelle de l'Univers d'un déterminisme de niveau supérieur à tous les autres. Ce déterminismelà régirait les divers déterminismes des lois physiques, comme le Principe de moindre action de Maupertuis [62] détermine globalement un choix de trajectoire au lieu de la détermination de proche en proche résultant du déterminisme ponctuel des lois de Newton ; on peut aussi y voir une manifestation du dessein d'un Créateur. Il faut rappeler le principe d'identité Le principe d'identité [16], fait que la réalité à un instant donné est ce qu'elle est et ne peut être autre, même si notre esprit s'en étonne, le regrette ou y trouve des coïncidences. Considérons alors les diverses constantes et lois de l'Univers telles que 294 si l'une était un tant soit peu différente l'homme ne pourrait exister. Sachant qu'il existe, il est impossible de trouver le moindre fait qui contredise cette existence ; si on en trouvait un, ce serait à coup sûr une erreur ! Toutes les valeurs de constantes et lois physiques remarquables associées par certains à l'existence de l'homme n'auraient pu être différentes, du fait du principe d'identité. S'étonner, alors, que telle constante ait une valeur très proche d'une limite qui rendrait la vie impossible est humain, mais ne prouve rien car elle ne peut avoir que la valeur exacte qu'elle a. Pour la nature, la notion de proximité d'une valeur n'a pas de sens ; à un instant donné une grandeur physique a la valeur exacte qu'elle a. Juger qu'elle est proche d'une autre valeur, ou qu'une différence relative d'un millionième changerait la face du monde sont des réactions humaines sans rapport avec les lois physiques. Des probabilités qui n'ont pas de sens Un autre argument faux que j'ai vu en faveur du principe anthropique fait intervenir une probabilité pour qu'une constante de l'Univers importante pour l'existence de l'homme ait (ou n'ait pas) la valeur précise qu'elle a. La probabilité d'une situation étant le rapport du nombre de cas favorables au nombre de cas possibles (cas tous équiprobables), on ne peut la calculer que si l'on connaît ces deux nombres ; par exemple, la probabilité pour qu'un lancer de dé donne un 3 est calculable, car ce cas "favorable" unique fait partie de 6 cas "possibles" équiprobables. On calcule aussi, par exemple, une telle probabilité en Mécanique quantique, lorsque la valeur d'une variable mesurée est une valeur propre d'un ensemble (le spectre de l'observable [278]) qui en a un nombre fini connu, chacune assortie d'une probabilité calculable. Lorsque la constante considérée de l'Univers est un nombre réel, le nombre de cas possibles est infini. La probabilité d'une valeur donnée n'a alors de sens que pour un certain intervalle autour de cette valeur et si l'on connaît la loi de densité de probabilité de la constante [28] ; sans cette densité de probabilité, la notion de « faible différence entre une variable et une valeur critique » n'a pas de sens. Or je n'ai jamais vu qu'un partisan du principe anthropique, qui s'étonne de la proximité d'une valeur de constante avec une valeur critique pour l'existence de la vie, ait pris soin de citer la densité de probabilité dans leur voisinage ; et je ne l'ai pas vu parce que la loi de densité de probabilité d'une constante n'existe pas ! Ce que j'ai vu, en revanche, c'est l'argument qu'une constante « a une valeur contingente car elle aurait pu en avoir une autre ». C'est là une spéculation pure, puisque la constante ne peut pas, justement, avoir une valeur autre que celle qu'elle a, du fait du principe d'identité. Tout calcul de la probabilité pour qu'une situation qui s'est produite se soit effectivement produite car on peut imaginer qu'elle ne se fut pas produite, est une spéculation sans valeur lorsqu'il est impossible de connaître ou de dénombrer toutes les évolutions qui ont fait qu'elle s'est produite et toutes celles qui auraient pu se produire. De même, calculer la probabilité de non-survenance d'un événement du passé qui ne s'est pas produit est absurde. 295 Le besoin de l'homme que l'Univers ait un sens conforme aux valeurs morales Le principe anthropique a souvent été utilisé par des idéalistes, pour qui l'idée matérialiste que l'homme est le produit d'un Univers dominé par des forces aveugles et indifférentes est insupportable. Certains rejettent cette idée parce qu'elle ne permet pas de justifier l'origine des valeurs morales, origine qui pour eux ne peut être que divine parce que ces valeurs sont par essence universelles et éternelles, conformément (par exemple) à l'enseignement de Saint Thomas d'Aquin. Les matérialistes répondent à cette objection que les scientifiques savent aujourd'hui – preuves ethnologiques à l'appui - que les principes de morale humains sont des conséquences de l'évolution des sociétés humaines, qui les ont définis progressivement siècle après siècle [154]. Ils reprochent aux idéalistes : d'avoir inventé le concept d'un Dieu sacré pour pouvoir Lui attribuer sans justification les principes de morale auxquels ils tiennent et qu'ils veulent faire respecter ; de ne pas expliquer pourquoi Dieu, si moral, a permis l'existence de barbares comme Hitler, Pol Pot et Ben Laden, dont l'éthique est à l'évidence peu conforme à celle des textes sacrés ; est-ce une erreur de Sa part, un pouvoir insuffisant, une punition pour les autres hommes ? (Voir « Problème du mal »). Origine de la supériorité de l'homme sur les autres êtres vivants Pour sa part, Darwin répond aux idéalistes dans [42] page 448 en attribuant la noblesse de la lignée humaine à son ancienneté, à qui des centaines de milliers d'années de perfectionnements successifs ont permis de résister à la sélection naturelle. Pour lui, la morale humaine, indissociable de sa pensée, est consubstantielle à l'être social qu'est l'homme. Elle représente une des supériorités de son espèce, qui ont permis sa survie et finalement sa domination. Il écrit : "Lorsque je considère tous les êtres, non plus comme des créations spéciales, mais comme les descendants en ligne directe de quelques êtres qui ont vécu longtemps avant que les premières couches du système cambrien aient été déposées, ils me paraissent anoblis. […] Or, comme la sélection naturelle n'agit que pour le bien de chaque individu, toutes les qualités corporelles et intellectuelles doivent tendre à progresser vers la perfection." Chaque homme est unique Chez un homme donné, quelques centaines de caractéristiques de sa « signature ADN » plus ses empreintes digitales permettent d'en faire un être unique dans l'Humanité : la moindre variation d'une de ces caractéristiques l'aurait fait autre. On peut s'étonner de l'exigence de précision de ces paramètres, penser qu'elle ne peut être due au hasard, voire attribuer l'existence et l'unicité de notre homme à Dieu comme on le faisait au Moyen Age : ce raisonnement serait le même que celui des tenants du principe anthropique. On ne le fait pas parce qu'il y a plus de 7 milliards d'hommes, chacun avec des caractéristiques qui diffèrent au moins un peu de celles de tout autre, chacun unique à sa façon. Pour chaque homme, si remarquablement unique, le principe d'identité s'applique : il est comme il est, il ne pourrait être différent que dans notre imagination ou en étant un autre homme. Notre étonnement ou 296 l'attribution de cet homme à un Dieu créateur répondent à un besoin psychologique d'une cause et d'une volonté créatrices, mais échappent à toute rationalité. Un principe infalsifiable Le principe anthropique est comme l'existence de Dieu, un énoncé infalsifiable [203] ; en vertu du rationalisme critique il n'a donc rien de scientifique. C'est donc un émerveillement d'idéaliste et le fruit de l'imagination. On peut toujours spéculer que, dans un autre Univers où les lois seraient différentes, l'homme n'aurait pu apparaître, mais c'est là pure spéculation métaphysique [371] et il n'y aura jamais d'avancée scientifique permettant de le savoir ; nous ne saurons jamais rien de scientifique concernant un hypothétique espace extérieur à l'Univers ou l'ayant précédé. Conclusion Le principe anthropique est une spéculation idéaliste irrationnelle qui introduit un déterminisme divin, finalité destinée à combattre le déterminisme matérialiste. La recherche d'exoplanètes On peut cependant interpréter l'existence d'un ensemble de conditions à satisfaire pour que la vie apparaisse pour délimiter des régions, au voisinage d'autres étoiles que le Soleil, où une vie telle que nous la connaissons serait possible. Dans une telle région, par exemple, la température doit permettre l'existence de l'eau à l'état liquide, l'étoile ne doit pas émettre de rayonnement mortel, etc. Sous cette forme-là (ensemble de conditions d'une vie comme la nôtre) le principe anthropique est utile aux astronomes qui cherchent des planètes (appelées exoplanètes) où la vie pourrait exister. 3.6 Le déterminisme humain Nous venons d'étudier le déterminisme étendu, défini comme réunissant le déterminisme scientifique et le déterminisme statistique de la nature, déterminismes régissant respectivement les lois d'évolution non probabilistes et probabilistes. Restant dans le cadre de la contribution à la pensée rationnelle du sous-titre de cet ouvrage, nous allons maintenant nous intéresser au déterminisme humain, ensemble de règles plus ou moins précises et générales qui régissent la pensée humaine. Premier point de vue sur la pensée : son caractère rationnel ou irrationnel La pensée rationnelle : A pour siège la conscience, où elle ne peut exister sans mots ; ce qui est inexprimable avec des mots (indicible ou ineffable) est seulement ressenti, ce n'est pas une pensée rationnelle mais une émotion, un sentiment, une impression. Se déroule conformément à la logique, à l'aide de déductions basées sur des prémisses (hypothèses) d'origine expérimentale ou abstraite. Les règles du déterminisme de la pensée rationnelle sont celles de la logique, sur lesquelles il n'est pas nécessaire de s'appesantir. La pensée irrationnelle : 297 A pour siège la conscience lorsqu'elle manipule des mots, l'inconscient [353] lorsqu'elle ne comprend que des images ou des émotions (indicibles ou ineffables. Ne suit pas toujours les règles logiques de déduction ; sa cause est donc parfois injustifiable ou relevant d'une analyse psychologique ; Raisonne parfois sur des prémisses fausses, incertaines ou incomplètes ; Ignore parfois un ou plusieurs principes de logique (voir aussi [99]) ; Second point de vue sur la pensée : son caractère volontaire ou involontaire La plupart des pensées sont involontaires, résultant par exemple de perceptions des sens ou de jugements de valeur irréfléchis. Elles arrivent à l'esprit automatiquement, sans qu'il puisse les empêcher ; il peut seulement y réfléchir lorsqu'il en a pris conscience et en éprouve le besoin. Une pensée involontaire a pour origine l'inconscient [353] du sujet ; elle n'est donc pas nécessairement rationnelle. Pourtant, lorsqu'elle est consciente, elle paraît souvent si prégnante que le sujet cherche à la justifier ou à vérifier sa vraisemblance. Objectifs du texte qui suit sur le déterminisme humain Ce texte est ce qu'on appelle un essai en littérature : il évoque certains aspects du sujet sans l'ambition d'être exhaustif. Il décrit certaines fonctions psychiques conscientes et certaines conditions qui les empêchent d'être rationnelles. 3.6.1 Niveaux d'abstraction et déterminisme Le déterminisme fournit des principes pour guider la pensée lorsque celle-ci se veut rationnelle et objective. Pour raisonner juste, il faut souvent réussir à comprendre des choses abstraites ou complexes, et à les formuler clairement pour bien se les représenter et les faire comprendre à autrui. Le texte qui suit présente quelques aspects du fonctionnement de la pensée pour comprendre et représenter quelque chose d'abstrait ou complexe, après deux définitions importantes : représentation et concept. 3.6.1.1 Définition d'une représentation - Différences avec une essence Le mot « représentation » a deux significations : Acte par lequel l'esprit du sujet se représente quelque chose (son objet) tel qu'il est à un instant donné. C'est une mise en relation de l'objet avec une abstraction, l'ensemble de données mentales qui le représente dans l'esprit du sujet. Résultat de cet acte : l'ensemble de données mentales précédent. Cet ensemble décrit en général l'objet d'une manière synthétique, schématique, en ne retenant de ses propriétés que celles jugées utiles par l'inconscient [353] : Celles qui décrivent l'objet le plus objectivement possible, sa photographie en quelque sorte : forme, couleur, taille, etc. Celles qui en décrivent la signification pour l'homme dans toute sa richesse : une porte est "vue" avec ce qu'elle permet, un passage ; une personne aimée est reconnue et vue avec l'émotion d'amour qu'elle suscite. 298 Si l'objet évolue (exemple : un footballeur voit le ballon qui arrive) sa représentation évolue automatiquement, comme les photos successives d'un film. L'esprit de l'homme ne peut accéder à un objet lui-même, il n'accède qu'à sa représentation abstraite, dont la signification (description matérielle et sens psychologique) devient celle de l'objet, de l'objet entier et seulement de cet objet. Pour l'esprit, la représentation EST l'objet réel. Construction de la représentation d'un objet C'est l'intuition - et elle seule - qui produit une représentation mentale à partir d'un objet. Cette intuition résulte d'une opération d'attention à l'objet, opération qui produit les informations (données) constituant la représentation proprement dite de l'objet. La construction de la représentation se déroule dans l'inconscient, où elle est déclenchée automatiquement par l'attention. (Sur la conscience et l'inconscient voir [339]) Différence entre représentation et essence d'un objet La représentation d'un objet est son image dans un esprit humain. C'est une notion psychologique, subjective, qui peut différer d'une personne à une autre et d'un moment à l'autre. Elle comprend aussi bien des propriétés physiques de l'objet (celles que la personne a présentes à son esprit) qu'une signification psychologique (le sens que la personne lui attribue avec sa dimension émotive). L'objet peut être physique ou abstrait (exemple : représentation du gouvernement). L'essence d'un objet est une notion philosophique objective (partageable par plusieurs personnes). C'est l'ensemble de ses propriétés constitutives et fonctionnelles, en quelque sorte le « cahier des charges » de sa conception considéré indépendamment de son existence. 3.6.1.2 Définition d'un concept Un concept est une abstraction représentant une collection d'objets nommables ayant des propriétés communes. Les concepts sont indispensables aux raisonnements logiques. Exemple : concept de « chien », représentant tous les chiens par des propriétés communes : quadrupède, mammifère descendant du loup, etc. Il est nommable : on lui a donné le nom « chien ». L'esprit humain ne peut raisonner que sur des idées nommables, ce qui n'est pas nommable demeurant à l'état ressenti. Le concept est la forme la plus élémentaire de la pensée, à distinguer de formes plus élaborées comme le jugement. C'est une idée générale, une classe, un ensemble, par opposition à la représentation, image mentale personnelle. Ex : concept de « mère ». Le concept est le produit d'un processus réducteur conscient de l'intelligence comprenant comparaison, réflexion et abstraction ; il s'oppose à l'intuition et ne doit pas être confondu avec l'essence. Il y a deux types de concept : empirique (déduit de l'expérience) ou pur (transcendantal, existant a priori dans l'intelligence humaine). 299 Contrairement à une représentation qui est une « photographie à un instant donné », un concept est un modèle réutilisable aussi souvent et longtemps que nécessaire. Un concept peut se comprendre de 2 façons : En compréhension, avec la liste de toutes les conditions nécessaires et suffisantes que doit satisfaire un objet nommable pour faire partie de la classe générale définie par le concept. En extension, avec la liste de tous les objets ayant toutes les propriétés cidessus (mais aussi peut-être d'autres, considérées comme non significatives). Construction du concept d'un objet Le concept d'un objet (les propriétés partagées de sa classe) est construit par l'intelligence, par comparaison, réflexion et abstraction à partir d'une ou plusieurs représentations initiales de l'objet, dont on ne retient que les propriétés partagées. Ces représentations initiales sont obtenues soit par intuition empirique (exemple : une chose vue), soit à partir de concepts d'origine ; un concept ne peut provenir directement de l'objet : il faut au moins une représentation initiale de celui-ci pour généraliser ses propriétés. La représentation initiale peut être un « concept pur de l'entendement » (concept dit transcendantal), que tous les hommes connaissent intuitivement sans pouvoir les expliquer à partir d'idées plus simples, comme les concepts de temps, d'espace et de nombre entier. 3.6.1.3 Densité et profondeur d'abstraction Problèmes posés par la densité et le niveau d'abstractions Supposons que je dise (forme A) : « Comme tous les petits chats, le mien aime jouer avec une balle. Il lui donne des coups de patte. En jouant, il s'entraîne à poursuivre des souris. » Ce discours est clair (j'espère !). Si maintenant je dis (forme B) : « Tous les félidés qui n'ont pas encore atteint le stade adulte utilisent des passetemps ludiques pour assimiler les aptitudes nécessaires à un prédateur de rongeurs. » Dans la forme B il y a des mots et concepts plus abstraits que ceux de la forme A : félidés, stade adulte, ludique, prédateur et rongeurs. Chaque fois que j'utilise un mot rare ou abstrait je prends le risque d'être incompris, pour deux raisons : Dans mon auditoire certaines personnes peuvent ne pas connaître un ou plusieurs de ces mots ou concepts, ou les confondre avec d'autres ; et plus ces mots ou concepts abstraits sont nombreux dans mon texte, plus ce risque est élevé. Le risque augmente non seulement avec le nombre de mots rares ou abstraits, mais aussi et surtout avec leur densité, c'est-à-dire la proportion de ces mots dans l'exposé. Cette croissance de la difficulté de comprendre avec la densité d'abstractions vient de ce que le processus de compréhension de l'esprit utilise des rapprochements de mots ; par exemple, si je ne suis pas sûr du sens de "prédateur" mais que je connais celui de "rongeurs", je peux deviner qu'un prédateur est un être qui 300 attrape, dévore ou maltraite des rongeurs. Donc plus la densité de termes abstraits est élevée, plus on risque de tomber sur des associations de mots incompris ou mal interprétés. Certains mots abstraits peuvent être définis, donc compris, connaissant un ou plusieurs mots du langage courant. C'est ainsi que le mot "prédateur", qui peut être défini avec la phrase "Animal ou plante qui se nourrit d'autres animaux ou plantes", peut se comprendre à partir des concepts courants que sont "animal", "plante" et "se nourrir". Nous dirons que le mot "prédateur" est une abstraction de niveau 1. Le mot "félidé", qui désigne un membre de la famille des mammifères carnassiers digitigrades, nécessite pour être compris de connaître le sens de "mammifère", "carnassier" et "digitigrade", qui sont des abstractions de niveau 1 : nous dirons que "félidé" est une abstraction de niveau 2. Le risque de mal comprendre une abstraction comme "félidé" est double : D'une part, en tant qu'abstraction d'abstraction, ce qui demande un effort conceptuel plus grand et entraîne donc un risque d'incompréhension ou de mauvaise interprétation plus grand. D'autre part, parce qu'il faut connaître trois abstractions distinctes pour le comprendre : "mammifère", "carnassier" et "digitigrade" ; il y a un risque de ne pas les connaître toutes les trois, et un risque de mal en interpréter au moins une. Ce second risque est en fait de type densité d'abstraction, puisque les trois abstractions de niveau 1 "mammifère", "carnassier" et "digitigrade" apparaissent côte à côte dans la définition de l'abstraction de niveau 2 "félidé". Conseils de représentation et de communication concernant les abstractions Eviter les abstractions et les mots rares, ou au moins prendre soin de les définir dès leur première apparition. C'est ainsi que la phrase "L'épicurisme est un eudémonisme", apparue à la lecture d'un cours de philosophie où « eudémonisme » n'est défini nulle part, pose problème à tous ceux (dont j'étais) qui n'avaient jamais entendu parler d'eudémonisme et lisaient le cours pour apprendre la philosophie. (Pour ne pas que vous m'accusiez d'utiliser un mot rare et abstrait sans l'expliquer, vous trouverez la définition de mon dictionnaire résumée dans [3].) Lorsqu'on a besoin de réutiliser un terme abstrait dans la suite de l'exposé, on peut faire suivre sa première apparition d'une explication. C'est ce que j'ai fait délibérément ci-dessus en expliquant le mot eudémonisme tout de suite après l'avoir utilisé, dans le renvoi [3]. On peut aussi (nous sommes à l'ère des textes présentés en langage HTML !) fournir un lien hypertexte donnant accès direct (dans le même texte ou sur Internet) à chaque définition depuis tous les endroits où elle peut être utile. A moins de s'adresser à des spécialistes, il faut résister à la tentation d'utiliser les mots savants compris seulement d'eux seuls, même si ces mots sont plus précis qu'une périphrase. Je connais des universitaires qui utilisent le maximum de mots savants et s'expriment dans les termes les plus généraux possibles, pour qu'on admire leurs connaissances, oubliant que le premier devoir d'un enseignant est de se faire comprendre de ses étudiants. 301 Diminuer au maximum la densité d'abstractions. On peut recourir à des phrases courtes. On peut aussi insérer des définitions, des périphrases ou des exemples. Voici un exemple de ce qu'il ne faut pas faire, attribué à un « formateur en sciences de l'éducation » dans le blog "Bonnet d'âne" de M. Jean-Paul Brighelli [178] : "…décontextualiser les évaluations certificatives à références critériées en les plaçant dans un référentiel distancié que l'on doit recontextualiser dans un cadre fonctionnel intégratif, etc. " En voici un autre, attribué à un enfant surdoué de 11 ans qui demande à sa mère, agrégée de mathématiques qui se découvre alors un abîme d'ignorance : "Maman, comment peut-il se faire que le concept de déité anthropomorphique capable de jugements de valeur humanistiques puisse subsister à notre époque, alors que de tels postulats subjectifs auraient dû depuis longtemps être éliminés des réflexions sérieuses des intellectuels par la philosophie positiviste et le matérialisme dialectique ?" Eviter au maximum les abstractions de niveau supérieur à 1. Plus on y recourt, plus on décourage son public, plus on risque d'être mal compris. Un exemple de ce qu'il faut éviter nous est fourni par les textes des philosophes Husserl ou Hegel : la densité d'abstractions y est élevée, il y a de nombreuses abstractions de niveau deux ou plus, les phrases sont longues, les exemples rares. Ces textes se lisent à la vitesse d'une page mal comprise à l'heure. On peut être un très grand penseur et ne pas savoir partager sa pensée. Quelle différence avec Aristote, Descartes ou Pascal ! S'il ne s'agit pas d'un texte littéraire, éviter les métaphores, les sous-entendus et le besoin pour le lecteur de lire entre les lignes. N'écrivez pas comme Nietzsche [343]. Soyez clair et n'hésitez pas à vous appuyer sur des exemples. Les règles ci-dessus sont résumées aux Etats-Unis par le sigle KISS : "Keep It Simple, Stupid!" Donner des exemples. Un exemple permet de vérifier au moins dans un cas que ce qu'on dit est plausible, et d'aider le lecteur à vous comprendre. Non seulement l'homme comprend mieux un sujet abstrait ou complexe à partir d'un exemple concret et simple, mais il comprend mieux si on expose un ou deux cas particuliers avant le cas général : notre esprit a besoin de s'habituer à une idée nouvelle, de la situer par rapport à des connaissances qu'il a déjà, d'en évaluer les conséquences sur ce qu'il sait déjà ou les questions qu'il se posait. Un exposé qui commence par une définition extrêmement générale et abstraite submerge notre faculté de compréhension, qui ne peut rattacher ses nouveaux concepts à des concepts déjà maîtrisés. D'où ce dernier conseil : Expliquer un sujet en augmentant le niveau d'abstraction progressivement, en commençant si nécessaire par un cas particulier pris pour exemple. Nous allons à présent utiliser ces idées. 302 3.6.1.4 Compréhension par niveaux d'abstraction Notre esprit ne peut comprendre quelque chose de niveau de complexité élevé à partir de notions de niveau très inférieur. C'est ainsi que je ne peux comprendre une fonction physiologique animale comme l'assimilation de nourriture à partir de notions de chimie organique. Voici pourquoi. Pour comprendre l'assimilation, j'ai besoin de comprendre d'abord les processus de niveau d'abstraction immédiatement inférieur que sont les mécanismes sous-jacents d'hydrolyse des molécules organiques (qui transforme les nutriments sous une forme leur permettant de traverser les membranes des épithéliums digestifs), de transport des nutriments (glucose, acides aminés, acides gras) dans l'organisme, et de construction des macromolécules de l'organisme conformément à son code génétique. Le niveau d'abstraction des trois processus ci-dessus est inférieur à celui de l'assimilation, mais encore trop élevé pour faire partie de la chimie organique. J'ai donc aussi besoin de comprendre chacun des trois processus élémentaires de l'assimilation à partir de notions encore moins abstraites. L'hydrolyse, par exemple, est un processus mettant en œuvre des enzymes de la famille des hydrolases, qui réalisent l'ouverture par l'eau de liaisons C-O ou C-N ; comprendre cela demande des connaissances sur le rôle des hydrolases dans les processus de chimie organique d'ouverture des liaisons… L'exemple ci-dessus illustre l'impossibilité de sauter des niveaux d'abstraction lorsqu'on veut comprendre quelque chose de complexe. Un niveau supérieur prend en compte des interactions internes et externes des niveaux inférieurs, interactions qui ne peuvent être déduites des propriétés de chacun : le tout est plus riche que la somme des parties. Notre esprit a besoin de représentations hiérarchisées, construites avec des processus mentaux élaborés qu'il met parfois des années à assimiler. A chaque montée de niveau, notre esprit schématise la réalité pour la simplifier. Il néglige ainsi des détails qui risqueraient de l'encombrer. Cette simplification peut aller jusqu'au réductionnisme [179]. Mais il ne suffit pas de comprendre chacun des concepts de niveau N-1 qui définissent un concept de niveau N, il faut aussi comprendre comment ces concepts sont associés pour définir le concept de niveau supérieur ; en d'autres termes, il faut à la fois une connaissance des composants sous-jacents du niveau N et une compréhension de leurs relations entre eux et avec N. On reconnaît dans la démarche ci-dessus l'approche analytique du célèbre "Discours de la méthode" de Descartes [4]. Remarques En pratique, il ne faut pas nécessairement limiter la structure de niveaux nécessaire à une représentation correcte à une arborescence relationnelle stricte (structure où chaque nœud "fils" de niveau N-1 a un "père" et un seul au niveau N) ; il peut aussi exister des branches reliant directement des niveaux comme N et N-p (où p>1) par une sorte de raccourci. On doit aussi recourir à des représentations non hiérarchisables, par exemple pour tenir compte de pensées nées dans l'inconscient sans relation avec les processus psychiques conscients, pensées qui paraissent donc transcendantes. 303 3.6.1.5 Penser par niveaux d'abstraction Comprendre quelque chose c'est s'en créer une représentation mentale qu'on estime satisfaisante. Il y a là une difficulté : une compréhension satisfaisante pour un individu peut ne pas l'être pour un autre. Certaines personnes ont une pensée peu rigoureuse en matière d'adéquation d'une représentation avec la réalité vérifiable, d'autres sont si exigeantes qu'elles s'attardent à préciser et vérifier trop de détails. Et certaines personnes ont tendance à tenir pour vraies des représentations construites par leur intuition ou par analogie qui ne satisfont guère la raison, c'est-à-dire à penser faux ; on en trouve des exemples en interrogeant des électeurs sur les raisons de leur choix entre des politiciens candidats et leurs programmes. Enfin, nous verrons qu'il y a des différences entre les représentations mentales que des personnes différentes se font d'une même réalité. En plus de comprendre des situations ou des phénomènes, nous devons souvent construire des concepts, des raisonnements ou des algorithmes de résolution de problèmes [69]. Et comme dans le cas de la compréhension, notre processus de construction doit parfois recourir à une hiérarchie de niveaux. 3.6.1.6 Introduction à la Théorie informationnelle du psychisme Pour simplifier la représentation et la compréhension des mécanismes de la pensée nous allons recourir à un modèle de plus en plus utilisé, la Théorie informationnelle du psychisme ("psychisme" est défini dans [347]) ; cette théorie (en anglais : Computer Theory of Mind) décrit les fonctions psychiques à l'aide des informations qu'elles manipulent, comme les représentations. A titre d'introduction à ce modèle, voici quelques rappels de notions d'informatique. 3.6.1.6.1 La machine de Turing Rappel : que fait un ordinateur ? (sautez ce paragraphe si vous le savez bien) Un ordinateur est une machine qui exécute des opérations d'entrées et sorties de données, de stockage et effacement de données, de déplacement de données dans sa mémoire, de calcul de données, de comparaison de données et de choix de l'opération suivante à exécuter en fonction de données dans sa mémoire. Langage machine - Ces opérations sont décrites dans un langage (c'est-à-dire des conventions de représentation des données et opérations) que son organe de calcul (le processeur) comprend, langage appelé « langage machine », et qu'il exécute électroniquement. Par convention, ce langage est de niveau d'abstraction minimum, 1. Et le programme qui décrit les opérations est introduit et enregistré dans la machine exactement comme des données. Les programmes constituent la classe du logiciel (en anglais software), alors que les ordinateurs font partie du matériel (hardware). Le génial mathématicien anglais Alan Turing a montré que n'importe quel raisonnement logique à étapes, c'est-à-dire n'importe quel algorithme de décision ou de calcul - même complexe [69] - peut être représenté par une suite d'opérations élémentaires extrêmement simples, exécutables par un ordinateur théorique simplissime appelé depuis "machine de Turing". 304 Description succincte du principe de la machine de Turing La machine comprend une mémoire linéaire (exemple : ruban perforé) de longueur infinie. Une tête de lecture-écriture accède à cette mémoire en exécutant le jeu d'instructions personnalisable de son mécanisme de contrôle. La tête peut se déplacer d'une position mémoire à la suivante ou la précédente pour y lire, effacer ou écrire un caractère. Le jeu d'instructions commandant la tête constitue un programme ayant un certain nombre d'états prédéfinis ; à tout instant, le programme est dans un de ces états et l'instruction suivante qu'il exécute le fait passer à un autre état en tenant compte du dernier caractère que la tête a lu sur la bande. Le résultat d'une exécution est disponible lorsque la machine s'est arrêtée - et seulement à ce moment-là ; dans certains cas (exemple : les propositions indécidables [6] de Gödel) le programme ne s'arrête jamais. Compléments : [369] 3.6.1.6.2 Hiérarchie des langages de l'informatique Rappel succinct : traduction d'un programme assembleur en langage machine L'écriture de programmes utiles à l'homme (dits programmes d'application) en langage machine serait trop fastidieuse ; on a donc imaginé un « langage assembleur » de niveau 2, sorte de sténo dont chaque instruction provoque l'exécution de plusieurs (parfois des milliers) d'instructions en langage de niveau 1. Dans un tel langage de niveau 2, l'écriture de programmes utiles à l'homme est plus concise, simple et rapide que dans le langage de niveau 1. Après écriture, un programme en langage de niveau 2 est traduit automatiquement en langage de niveau 1 par un logiciel spécial appelé « compilateur », et c'est le programme traduit que l'ordinateur comprend et exécute dans son processeur. On a aussi imaginé des programmes spécialisés sous-traitants du programme principal (les sous-programmes), écrits en langage de niveau 2 ou parfois de niveau 1, pour effectuer certains calculs ou prendre certaines décisions. Enfin, dans de nombreux cas, on utilise pour gagner en concision et simplicité des langages de niveau 3, encore plus concis, écrits en langage de niveau 2 et adaptés à une application particulière ou aux problèmes d'un métier particulier… Les hiérarchies de langages de programmation On voit donc comment l'informatique construit des programmes : elle utilise une hiérarchie de langages qui élève progressivement le niveau d'abstraction depuis le niveau « machine » exécutable par l'électronique jusqu'à celui de l'homme et de ses applications. Grâce à Turing, nous savons que les programmes les plus complexes peuvent être écrits en langage de niveau d'abstraction élevé adapté au programmeur, puis traduits automatiquement dans l'ordinateur et enfin exécutés. Remarque : un langage de niveau supérieur a des concepts plus proches de la pensée de l'homme qu'un langage de niveau inférieur, et l'écriture des programmes y est plus concise. Exemple de logiciel complexe : un système d'exploitation pour PC comme Windows comprend plus de 50 millions de lignes de langage de niveau 3 ; il a nécessité le travail de centaines de programmeurs pendant de longues années. 305 En plus des niveaux d'abstraction de langage on peut classer les logiciels selon le niveau technique, en allant du plus technique (le plus proche des processus informatiques) au plus applicatif (le moins technique, mais le plus proche des applications de l'utilisateur). Exemple de logiciel technique : un compilateur, qui traduit un langage en un autre de niveau inférieur ; exemple de logiciel applicatif : un programme de comptabilité ; exemple de logiciel de niveau intermédiaire : un sousprogramme de calcul de la durée en jours entre deux dates, nécessaire à des applications comptables de niveau supérieur pour calculer des intérêts, des dates d'échéance, etc. Cette méthode de classement selon le niveau technique s'applique à tous les domaines de la pensée où la complexité impose d'organiser les outils et les méthodes par niveaux de technicité ou d'adéquation aux problèmes. Exemple : un raisonnement d'économie (niveau applicatif élevé) utilise des méthodes statistiques (niveau applicatif intermédiaire) qui s'appuient sur des méthodes mathématiques (niveau applicatif faible). Remarque : plus le niveau applicatif est élevé, plus les concepts et méthodes sont spécialisés (par exemple en économie) ; plus le niveau technique est élevé, plus les concepts et méthodes sont d'usage général (par exemple les mathématiques). Une machine à café a une application spécialisée, tandis que la résistance qui y chauffe l'eau est un objet technique d'usage plus général. 3.6.1.6.3 Penser la complexité par niveaux hiérarchiques En informatique comme dans tout autre domaine, la construction de concepts et de raisonnements complexes exige de passer par une hiérarchie de concepts et raisonnements dont les niveaux vont du plus général au plus spécifique. La construction de concepts et raisonnements complexes exige de commencer par construire des concepts et méthodes de raisonnement de haut niveau ou de grande généralité, qui négligent de nombreux détails. Une fois le problème résolu (en principe) à ce niveau, on reprend un par un chacun de ses concepts et méthodes et on en détaille le contenu, créant ainsi un niveau de complexité intermédiaire. Puis on détaille de nouveau chaque élément de niveau intermédiaire, etc. Cette méthode analytique est qualifiée de "descendante" (les Anglais disent "top-down") ; c'est la méthode recommandée par Descartes dans son deuxième précepte [4]. En pratiquant cette méthode il faut essayer, à n'importe quel niveau et chaque fois que c'est possible, d'utiliser des concepts et méthodes de raisonnement déjà connus. Non seulement on évite ainsi de « réinventer la poudre », mais on recourt à des concepts et méthodes éprouvés ; et en matière de logiciel, on économise de la place en mémoire et du temps de développement. Cette approche permet aussi d'adapter le niveau fonctionnel d'une solution à des moyens techniques de niveau inférieur, dispensant ainsi l'utilisateur de la solution de la prise en compte - et même de la connaissance - de détails techniques superflus. Exemples : Dans un téléphone portable, des menus, pictogrammes et touches de fonction lancent des processus parfois complexes à partir d'actions humaines simples ; 306 Dans une voiture moderne, des ordinateurs embarqués adaptent les actions de l'homme sur le volant et les pédales aux conditions de route, en gérant la transmission automatique, les « freins ABS », la « suspension pilotée », les dispositifs antidérapage basés sur des accéléromètres, etc. 3.6.1.6.4 Processus d'abstraction et de mémorisation Les comptes-rendus de recherches [237] et surtout [339] nous apprennent que les processus mentaux d'abstraction et de mémorisation des animaux comme l'homme et la souris fonctionnent par niveaux hiérarchiques. Au lieu de mémoriser chaque objet ou chaque événement de manière holiste (comme un tout sans rapport avec d'autres objets ou événements semblables) le cerveau les mémorise sous forme hiérarchique en réutilisant à chaque niveau le maximum d'informations déjà mémorisées. La structure des informations en mémoire est en fait un réseau, et non une hiérarchie. Un objet peut inclure des sous-objets, comme dans une hiérarchie, avec autant de niveaux successifs que nécessaire. Mais un objet peut aussi appartenir à de nombreuses hiérarchies simultanément, chacune correspondant à un critère de relation distinct. Une maison peut ainsi contenir une chambre, qui peut contenir une table et des chaises. Une de ces chaises peut appartenir à mes souvenirs d'hier midi, lorsque je m'y suis assis, et l'ensemble table + chaises peut avoir en commun le prix d'achat de cette "salle à manger" et le magasin qui me l'a vendu… Représentations mentales La représentation de ces hiérarchies dans le cerveau utilise des ensembles de neurones appelés « cliques » qui travaillent de concert [251]. Certaines cliques représentent des informations très générales comme "événement inquiétant", d'autres des détails comme la nature du local. C'est ainsi que, lorsqu'un homme pénètre pour la première fois dans une chambre d'hôtel, il peut reconnaître en tant que lit un lit particulier qu'il n'a jamais vu ; il utilise pour cela des caractéristiques générales et particulières permettant d'identifier l'objet en tant que meuble, puis par ses propriétés de taille, horizontalité et présence dans une chambre à coucher, comme un lit. Une opération de mémorisation ou de recherche dans la mémoire met en jeu des échanges électriques et chimiques entre neurones passant par des synapses [268]. Ces échanges peuvent être détectés et convertis automatiquement en données numériques, permettant ainsi de modéliser en ordinateur les opérations psychiques correspondantes et d'en donner des représentations graphiques. Le modèle "Réseau d'ordinateurs autonomes interconnectés" du psychisme La pensée humaine se déroule à deux niveaux : la conscience et l'inconscient [353], dont l'ensemble constitue le psychisme [347]. (Détails : [339] et [345]) La conscience d'un homme se comporte comme un ordinateur indépendant, qui ne peut penser qu'à une seule chose à la fois. L'homme peut en orienter l'exécution en jugeant la valeur des pensées et en choisissant celle sur laquelle il veut se concentrer. L’inconscient se comporte comme un ensemble d'ordinateurs autonomes fonctionnant simultanément, dont l'interconnexion permet la transmission de 307 messages-événements. D'autres mécanismes de connexion permettent l'interaction entre la conscience et l’inconscient ; ils le font, par exemple, en « censurant » certaines communications pour trouver un équilibre entre des fonctions psychiques qui s'opposent (l'une « voulant » et l'autre « ne voulant pas et n'arrivant pas à l'exprimer »). Tous ces « ordinateurs psychiques » sont sujets à erreurs et approximations. Ils peuvent entretenir des croyances a priori (héritage génétique d'archétypes ou acquisitions après la naissance) et refuser d'exprimer verbalement certaines pensées. La modélisation du psychisme humain par un réseau d'ordinateurs autonomes interconnectés est donc théorique. Elle n'a pour intérêt que de décrire le principe de fonctionnement de l'inconscient [353] comme ensemble de processus psychiques autonomes, interconnectés avec le processus qu'est la conscience, ces interconnexions échappant le plus souvent à la conscience. Conclusion Le cerveau humain possède des capacités d'abstraction permettant de mémoriser le résultat d'émotions, de perceptions, de raisonnements, de structures, etc. sous forme de hiérarchies évitant la redondance. Le parcours (par activation de cliques de neurones) d'une telle hiérarchie permet ultérieurement de retrouver une information, en fait de la reconstruire. (Détails : [339]) L'existence de ces capacités natives d'abstraction et de représentation hiérarchisée constitue une raison de plus de penser la complexité par niveaux hiérarchiques. Enchaînement de pensées et attribution de sens L'existence de ces hiérarchies explique aussi l'enchaînement de pensées, la formation d'analogies ou d'intuitions. Lorsque je pense à un sujet qui a une certaine propriété P, le processus de mémorisation à long terme rattache ce sujet, par l'intermédiaire de P, à d'autres sujets qui ont la même propriété. Si, par la suite, un cheminement de pensée atteint P, il pourra se poursuivre sur un autre sujet déjà mémorisé avec P. Exemple : la vision d'une voiture de couleur rouge vif pourra faire ressurgir dans mon esprit le souvenir d'une femme qui portait une robe rouge vif. Le sens psychologique d'une représentation (ce qu'elle implique de bon/mauvais ou prometteur/redoutable pour l'individu) est formé automatiquement, sans effort conscient, au fur et à mesure qu'une représentation est construite : l'homme ne peut s'empêcher de juger, d'évaluer tout ce qui lui passe par l'esprit ; il peut seulement réfléchir consciemment, après coup, à un jugement qu'il s'est construit a priori. Et ce sens psychologique devient une propriété de l'objet représenté (comme ses propriétés physiques, par exemple), stockée en mémoire avec ses autres propriétés ! [339] 3.6.1.7 Niveaux d'information biologique et déterminisme génétique On explique de nos jours certains mécanismes vitaux, par exemple chez l'homme, par un modèle qui s'est avéré très fécond : les traitements d'information qui leur sont associés. Au niveau le plus élevé et en première approximation, notre esprit fonctionne comme un programme dans un ordinateur qui est notre cerveau. Penser, c'est traiter de l'information. Tout processus mental conscient peut être décrit sous forme du 308 traitement d'information dont il est indissociable, qu'il s'agisse de lire un livre, de réfléchir avant de choisir un produit acheté, de faire des mathématiques, d'écouter de la musique, etc. C'est là une description de première approximation, assez déterministe, que nous compléterons plus bas par des fonctionnements non déterministes ou non prévisibles. Remarque : le fonctionnement du programme-esprit dans le cerveau est assez robuste : dans une certaine limite, des neurones peuvent mourir ou perdre des connexions sans que le programme et ses résultats en soient affectés. 3.6.1.7.1 L'information du logiciel génétique Au niveau ADN, le traitement de l'information met en jeu des structures moléculaires complémentaires : une molécule donnée ne peut interagir qu'avec une molécule dont la structure lui est complémentaire, c'est-à-dire qui peut former des liaisons chimiques avec elle. La structure d'une molécule définit donc les autres molécules avec lesquelles elle peut interagir : la structure définit la fonction, qui définit le programme que la molécule peut exécuter. Une hiérarchie de structures et de fonctions apparaît ainsi, de haut en bas : Toute cellule contient un noyau (diamètre de l'ordre de 6m, soit 6 .10-6 m) dans lequel on trouve des chromosomes (23 paires chez l'homme), dont la structure porte l'information contrôlant les fonctions biologiques. Un chromosome humain mesure environ 8m de long pour un diamètre de 0.5m. Un chromosome contient environ la moitié de son poids d'ADN (acide désoxyribonucléique). La molécule d'ADN, géante, a une forme de double hélice comprenant environ 3 milliards de paires de bases chez l'homme. Chacune des hélices est copie exacte de l'autre, redondance qui permet de réparer d'éventuelles "erreurs" lors de la reproduction de cellules. La molécule géante d'ADN contient des séquences de bases (segments) appelés gènes, molécules plus petites dont la structure (l'ordre d'apparition des bases dans un parcours de la séquence) représente l'information nécessaire à toutes les fonctions biologiques, comme les instructions d'un programme et leur ordre définissent la logique de ce programme. Le langage dans lequel est codée l'information génétique est extrêmement simple : son vocabulaire n'a que 4 « mots » de base, avec lesquels on écrit les « instructions » des séquences des gènes. Ces mots sont 4 bases azotées appelées adénine (C5N5H5), cytosine (C4N3H5O), guanine (C5N5H5O) et thymine (C5N2H6O2), représentées par les lettres A, C, G, T. Chaque brin de la double hélice de l'ADN est une chaîne d'unités élémentaires appelées nucléotides. Un nucléotide est constitué d'un sucre, d'un groupe phosphate et d'une des bases azotées A, C, G ou T. Les deux brins sont reliés par des liaisons hydrogène entre une base de l'un des brins et une base complémentaire de l'autre. Une base A est toujours associée à une base T, et une base C est toujours associée à une base G. Une séquence de code génétique peut, par exemple, contenir la chaîne de mots ATTCGCA, et une chaîne peut être extrêmement longue, suffisamment pour décrire une logique aussi complexe que l'on voudra. 309 Les gènes font construire des protéines par l'ARN (acide ribonucléique) selon les programmes codés dans leur structure ; on peut les considérer comme de minuscules ordinateurs qui pilotent la formation de protéines par la machinerie cellulaire. Les protéines sont les constituants des muscles, des poumons, du cœur, des os, etc. Tous les mécanismes de notre corps mettent en jeu des protéines. La modélisation des mécanismes vitaux non psychiques par des traitements d'information effectués par des programmes est si satisfaisante que ces mécanismes apparaissent aussi déterministes qu'un logiciel informatique. La complexité des processus vitaux et celle d'un logiciel peuvent être considérables sans impacter leur parfait déterminisme, qui n'en dépend nullement ; nous avons vu précédemment que des processus déterministes complexes produisent en général des résultats imprévisibles. Dans le fonctionnement cellulaire, la biologie moléculaire nous apprend que l'information génétique est transmise dans un sens unique, des séquences ADN vers les protéines, et que ce processus est parfaitement déterministe dans sa manière d'enchaîner les événements à partir de leurs causes [55]. Il y a donc chez les êtres vivants un déterminisme génétique qui contrôle toutes les fonctions vitales. 3.6.1.7.2 Etres vivants artificiels définis à partir de leur seul code génétique L'article [120] illustre la séparation entre le logiciel génétique qui régit le comportement d'une cellule et la cellule elle-même. Des scientifiques ont remplacé le génome d'une cellule de bactérie de l'espèce A par celui d'une autre espèce de bactérie, B, en transplantant la totalité de l'ADN d'une bactérie B dans un noyau de cellule de bactérie A. La bactérie A s'est alors mise à se comporter exactement comme les bactéries B. Cette expérience ouvre la voie à la propagation de génomes totalement ou partiellement synthétiques, c'est-à-dire à de nouveaux types d'êtres vivants définis à partir de leur seul code génétique. Le compte-rendu de recherches [248] annonce la création du premier génome artificiel complet de bactérie, comprenant 582 970 paires de bases. L'équipe travaille à présent à créer une cellule de bactérie vivante entièrement synthétique. Voir aussi la modélisation logicielle complète d'un petit organisme vivant [279]. 3.6.1.8 Objections idéalistes et leur réfutation Les idéalistes refusent de croire que la matière biologique (cellules avec leur structure - quelle qu'elle soit - et leurs processus vitaux) peut à elle seule engendrer et supporter la vie sans intervention transcendante (divine ou autre, mais en tout cas échappant au déterminisme naturel). Ils pensent qu'il y a une essence, un principe vital, une sorte de « cahier des charges » immatériel, non déterministe et résultant d'une finalité qui préexiste à l'être vivant et en définit les caractéristiques. La raison de leur refus est que le modèle matérialiste traditionnel, qui fait de la vie une conséquence de la matière, leur paraît incapable de rendre compte de la richesse, de la beauté et de la liberté qu'ils associent à l'essence de la vie. Nous savons aujourd'hui que le modèle correct comprend du logiciel en plus de la matière biologique dans 310 laquelle ce logiciel exécute son code génétique, et que c'est ce logiciel à base de code inscrit dans les gènes (c'est-à-dire cette information) qui détermine toutes les manifestations de la vie : Echanges avec l'extérieur de nourriture, de déchets, de chaleur, d'énergie mécanique et d'informations (perceptions) ; Réplication et réparation de code génétique endommagé ; Différenciation cellulaire permettant la création de cellules spécialisées à partir de cellules souches ; Adaptation aux évolutions et agressions de l'environnement, etc. C'est ce logiciel - les données et la logique du code génétique - qui constitue précisément l'essence de l'homme [51]. Une des raisons qui font que les matérialistes n'arrivent pas à convaincre les idéalistes est que, dans leur modèle du vivant, les matérialistes oublient de citer ce niveau logiciel entre le niveau de la matière biologique et celui des fonctions nobles comme l'esprit ; cet oubli leur interdit d'expliquer la richesse, la complexité et l'imprévisibilité du vivant. Nous savons aujourd'hui que les fonctions psychiques comme la conscience et la conscience de soi sont correctement décrites par des mécanismes de logiciel [339]. De leur côté, les idéalistes, pour qui l'essence de l'homme est spirituelle – pas logicielle - n'acceptent pas de réduire l'homme à ses cellules, objets purement matériels. Voir aussi : La modélisation logicielle complète d'un petit organisme vivant [279] ; Les universaux [168], qui représentent une part importante de l'inné humain. Nous compléterons ci-dessous les raisons de la difficulté d'expliquer une constatation au niveau macroscopique à partir de connaissances au niveau atomique. Nous verrons aussi l'existence de pensées non déterministes. 3.6.1.8.1 Un vieux débat : la conscience est-elle transcendante ? La présentation du livre récent sur la conscience [349] commence par : « Ce livre renouvelle le débat séculaire sur la possibilité de réduire la conscience à un processus neuronal. » Directeur de recherches au CNRS, l'auteur sait de quoi il parle : voilà des siècles que des philosophes se demandent si l'esprit humain, avec sa conscience du monde et sa conscience de soi, est une conséquence du seul fonctionnement physique du cerveau. La conscience ne résulte-t-elle pas aussi (comme le croyait Descartes) de quelque chose d'immatériel, comme l'âme ? Puisque lors d'un rêve notre pensée vagabonde sans cause matérielle, comment ne pas supposer qu'elle est d'une nature transcendante ? Descartes, méfiant des interprétations de son esprit : "Je suis une chose qui pense" Au XVIIe siècle, Descartes savait que l'homme n'est pas conscient de la réalité, mais seulement des idées de son esprit. Sachant qu'il pouvait se tromper, et désirant malgré cela trouver la vérité sur la nature de son être fait d'un corps et d'un esprit, il commençait par mettre ses interprétations en doute dans ses Méditations métaphysiques [D3] : « Je suppose donc que toutes les choses que je vois sont fausses ; je me persuade que rien n'a jamais été de tout ce que ma mémoire remplie de 311 mensonges me représente ; je pense n'avoir aucun sens ; je crois que le corps, la figure, l'étendue, le mouvement et le lieu ne sont que des fictions de mon esprit. Qu'est-ce donc qui pourra être estimé véritable ? » Bien que doutant de tout, Descartes était certain d'exister au moins en tant que "chose qui doute" : « De sorte qu'après y avoir bien pensé, et avoir soigneusement examiné toutes choses, enfin il faut conclure, et tenir pour constant que cette proposition : Je suis, j'existe, est nécessairement vraie, toutes les fois que je la prononce, ou que je la conçois en mon esprit. » Descartes finit par conclure qu'en plus d'avoir un corps matériel, "substance corporelle, étendue", il avait aussi un esprit (une âme) "substance pensante, intelligente" : « Mais qu'est-ce donc que je suis ? Une chose qui pense. Qu'est-ce qu'une chose qui pense ? C'est-à-dire une chose qui doute, qui conçoit, qui affirme, qui nie, qui veut, qui ne veut pas, qui imagine aussi, et qui sent. » Dans les deux passages précédents, le "je" de "je suis" désigne à l'évidence l'objet de la conscience de soi, expression que Descartes n'utilise pas. Mais hélas, en se contentant de qualifier sa conscience de substance pensante, Descartes ne l'expliquait pas ; et en attribuant toutes choses à Dieu, il en admettait la transcendance. Un professeur : « Aucune cause physique n'explique les abstractions humaines » De nos jours, dans le cours de philosophie d'un professeur agrégé et normalien, l'auteur enseigne que « La nature abstraite de la pensée humaine l'empêche de résulter d'un phénomène exclusivement physique : aucun phénomène matériel ne crée d'abstraction ; quel que soit leur fonctionnement, les neurones ne suffisent pas pour expliquer la conscience humaine, il faut en plus quelque chose de transcendant. » 3.6.1.9 Les pensées ne sont que des interprétations de l'état du cerveau La pensée de notre cerveau est incapable de manipuler des objets physiques. Elle ne manipule que des abstractions qui les représentent, et celles-ci n'ont que deux origines possibles : celles dont nous avons hérité de nos ancêtres en naissant, par notre génome, et celles que nous nous sommes construites depuis - notamment en nous représentant mentalement le monde que nous percevons. Dans mon esprit, c'est une abstraction appelée représentation qui tient lieu d'objet réel. Mon esprit ne voit pas ma maison physique, il voit sa représentation et la considère comme réelle ; et c'est sur cette représentation, sur ce qu'il en voit comme sur ce qu'il en imagine, qu'il raisonne si nécessaire. D'ailleurs si personne ne m'avait parlé des représentations d'objets, je n'aurais pas su qu'elles ne sont qu'une image de la réalité. Platon avait déjà décrit tout cela dans le Mythe de la caverne. Cette constatation réfute donc l'argument précédent « Aucune cause physique n'explique les abstractions humaines »: c'est bien une cause physique, le fonctionnement de notre cerveau, qui explique notre pensée, avec sa conscience et ses abstractions. Des processus du cerveau interprètent continuellement l'état de ses neurones, ainsi que les signaux qu'ils se transmettent à travers leurs interconnexions. Quand je vois ma maison, en fait je construis puis j'interprète sa représentation. 312 Voilà donc le lien que certains philosophes ignorent lorsqu'ils croient qu'aucune cause matérielle ne peut expliquer la pensée : ils font comme s'il devait exister une transformation physique de matière ou énergie en pensée ; ils oublient que notre pensée est une perception du fonctionnement physique de notre cerveau : l'interprétation de son propre état par lui-même. Ainsi : Lorsque j'écris ce texte, T, je suis conscient de lui, il est dans mon esprit sous forme d'une représentation R(T), résultat d'une interprétation inconsciente. Lorsque je pense que je suis conscient d'écrire ce texte, je suis conscient de moi-même, de ma conscience d'écrire un texte. La conscience de moi-même, C, est en fait une conscience de la représentation de T, représentation R(T) que mon esprit traite comme il a traité l'objet "texte" pour construire T ; c'est une représentation de représentation, une fonction de fonction : C = R(R(T)) Lorsqu'un ordinateur exécute un programme il interprète continuellement des données de sa mémoire, données dont son propre code peut faire partie à l'occasion. Les résultats que l'interprétation produit sont aussi des données en mémoire ; le programme peut, par exemple, les imprimer. Lorsque j'écris ce texte c'est une représentation que j'en perçois, des données qui le décrivent dans mon esprit ; nous verrons plus bas que ce sont de telles données qui constituent la conscience. Notre conscience est un résultat d'interprétation d'états de neurones et de signaux entre eux, ni plus ni moins ; nos abstractions sont également des interprétations. Ce texte explicite cette affirmation à la section La conscience. 3.6.1.10 A chaque niveau fonctionnel son niveau logiciel Même si tout phénomène du vivant est supporté par des processus matériels dans les cellules, des fonctions de niveau supérieur comme l'adaptabilité à un environnement qui change ; la conscience, avec son aptitude aux jugements de valeur ; l'initiative et les autres fonctions nobles du vivant, ne s'expliquent que si l'on tient compte des fonctionnalités du logiciel génétique - et même alors l'explication est incomplète. Le logiciel génétique ne fonctionne qu'à l'aide de processus matériels dans les cellules, condition nécessaire ; mais on ne peut réduire les fonctions de niveau supérieur à ces processus de bas niveau, de même que le fonctionnement d'un ordinateur ne se réduit pas au déroulement des instructions de son processeur, car il est structuré par les algorithmes de niveau supérieur du logiciel. Il y a dans cette impossibilité de réduire les phénomènes de la vie aux seules fonctions cellulaires une analogie à celle qui consisterait à modéliser les phénomènes de physique atomique avec les seuls effets des quatre interactions fondamentales [18] : il manquerait la Mécanique quantique, immatérielle comme un logiciel, dont les mathématiques sont indispensables pour représenter, expliquer et prédire ce qui se passe. Mais ajouter le logiciel génétique ne suffit pas : un idéaliste objectera avec raison à ce modèle conceptuel dual cellules + code génétique que son modèle d'origine ordinateur + logiciel n'est pas conforme au vivant, parce qu'il ne sait ni se reprogrammer pour s'adapter, ni évoluer génération après génération comme l'ont fait 313 les espèces vivantes, ni surtout avoir une conscience qui formule des jugements à tout instant. Un ordinateur exécute sans émotion un programme absurde avec des données correctes, ou un programme correct avec des données absurdes : indifférent aux conséquences de ses calculs, il n'a aucune finalité comme la préservation de la vie ou de l'espèce, aucune valeur comme le courage ou l'équité, aucune conscience intelligente capable de rédiger l'algorithme qui résoudra un problème pratique. Et pourtant, notre conscience s'explique par des considérations informatiques en plus des mécanismes neurophysiologiques [339]. Voir aussi [345]. Une évaluation permanente Notre code génétique et notre psychisme [347] sont des logiciels (de niveaux différents) munis de fonctions qui évaluent en permanence les situations et représentations résultant de perceptions physiologiques ou de pensées, conscientes ou non ; ils les évaluent en fonction de valeurs qu'ils possèdent par héritage (« l'inné ») ou mémorisation (« l'acquis »), en leur associant un sens : quantité psychologique de « Bien » ou de « Mal ». Cette évaluation a pour conséquence des besoins physiques ou des désirs psychiques que l'homme va chercher à satisfaire, consciemment ou non ; il cherchera aussi à les satisfaire par une modification ou même une évolution de son code génétique, de l'expression de ce code, et de ses processus psychiques conscients et inconscients pour s'adapter à un contexte qui évolue - notamment à des agressions, à des changements de l'environnement ou à des habitudes de vie nouvelles. [345] Voilà en quoi notre programme génétique - et au-dessus de lui notre système nerveux central et notre psychisme - répondent au cahier des charges de la vie, voilà comment les résultats d'évaluation constituent des finalités qui guident en permanence l'organisme [51]. Voyons cela plus en détail. 3.6.1.11 Critères de valeur et d'efficacité, et mécanismes d'évaluation Le cerveau de tous les animaux est doté de mécanismes d'évaluation pour effectuer des choix selon des critères de valeur et d'efficacité à court et long terme. Les individus qui font les meilleurs choix sont les plus aptes à survivre, à se reproduire, et à profiter de la sélection naturelle. Exemple 1 : les choix d'un animal concernant sa nourriture impliquent des critères d'énergie, la recherche de la conduite la plus efficace pour se procurer de l'énergie alimentaire, la stocker et la réutiliser. Les individus les plus efficaces selon ce critère ont le plus de chances de survivre, de prospérer et d'assurer leur descendance de préférence à des concurrents. C'est pourquoi les prédateurs choisissent les proies auxquelles ils vont s'attaquer en fonction du rapport entre dépense énergétique probable pour les capturer et apport énergétique de leur consommation. Un lion mâle, par exemple, est trop lourd (170 à 250 kg) pour courir après des gazelles, forme de chasse qui risque de lui faire dépenser trop de calories par rapport au bénéfice alimentaire escompté. Une lionne, au contraire, poursuivra ce genre de proie : plus légère (120 à 180 kg), elle peut se permettre de risquer plus souvent d'échouer (en moyenne 3 fois sur 4) avant d'attraper une gazelle. Un guépard, enfin, à la fois léger (35 à 70 kg) et rapide, chasse en forçant les gazelles à la course. Exemple 2 : tant que les hommes primitifs ne savaient que chasser et cueillir, leur quête de nourriture était inefficace et peu fiable, et permettait à peine de survivre. 314 Avec la pratique de la culture et de l'élevage, la production de nourriture est devenue bien plus efficace et fiable, et la population a pu se mettre à augmenter. Ces deux exemples permettent de définir l'efficacité alimentaire comme le rapport de l'énergie consommable à l'énergie dépensée pour l'obtenir. Lorsqu'on compare deux stratégies au point de vue de cette efficacité, les énergies correspondantes doivent être évaluées en probabilité [77] - à court et à long terme. Nous verrons ci-dessous que ces évaluations se font automatiquement et en permanence dans notre cerveau, adapté par l'évolution et la sélection naturelle à cette fonction indispensable. Dans notre psychisme [347], la réponse du mécanisme d'évaluation à un choix envisagé, est un affect [253], une récompense accompagnée d'une émotion : sensation agréable ou non, peur, fierté ou honte, etc. Les sensations positives de désir, d'euphorie, etc. sont régulées dans le cerveau humain par une molécule, la dopamine, dont nous avons déjà parlé ; (ne pas confondre désir et plaisir : ce dernier utilise d'autres mécanismes que le premier). Les sensations négatives sont associées à l'acétylcholine, neurotransmetteur [176] qui a des effets vasodilatateurs sur le système cardiovasculaire et agit sur le rythme cardiaque, des effets sur le système gastro-intestinal, des effets inhibiteurs sur l'activité du système nerveux central, etc. Retenons aussi que dans notre cerveau, la comparaison à une valeur produit la présence détectable et l'abondance mesurable d'une molécule organique. La création de valeur en tant que conséquence d'une perception (ou - nous le verrons plus bas de pensées) et son utilisation dans les comparaisons nécessaires aux jugements, sont des phénomènes physiques automatiques, inévitables - bref déterministes - expliqués sans aucune intervention transcendante. 3.6.1.12 Une signalisation permanente dans le cerveau En même temps que les perceptions de nos sens, notre cerveau reçoit en permanence des signaux de besoin : faim, sommeil, désir sexuel, etc. Pour un homme, le fait même de vivre et d'avoir une conscience et un inconscient [353] engendre un déséquilibre permanent : nous trouvons sans cesse des besoins à satisfaire, même après en avoir satisfait un ou plusieurs. Ces besoins constituent le « manque d'être » dont parle Sartre [252], manque d'être qui fait de l'homme un perpétuel insatisfait. Et la conscience de l'homme ne se contente pas de recevoir de l'inconscient et de créer à jet continu des besoins à satisfaire, elle suggère aussi des actions pour y parvenir. C'est la présence permanente de suggestions d'action dans la conscience de l'homme qui lui donne l'impression d'avoir toujours quelque chose à faire pour être plus heureux et d'être toujours libre de choisir quoi faire. Pour un matérialiste cohérent cette impression de liberté est illusoire du fait du déterminisme, nous le verrons plus bas. A un instant donné, l'ensemble des signaux de besoin présents dans le cerveau (et de certains signaux qui existent dans le corps en n'atteignant - par exemple - que la moelle épinière ou le cervelet sans atteindre le cerveau) est comparé aux valeurs de référence innées ou acquises, comparaison qui définit les finalités vers lesquelles l'individu ou son organisme vont tendre. 315 A l'aide de la machinerie cellulaire, le code génétique interprète ces signaux et agit de manière à satisfaire ces finalités. C'est un mécanisme déterministe dont le principe est bien connu, mais dont la complexité (le nombre de processus possibles essentiellement dans l'inconscient - et leurs interactions) fait qu'on en ignore encore beaucoup de détails. Au-dessus du niveau génétique, le système nerveux s'adapte parfois, en modifiant sa structure pour tendre vers les nouvelles finalités ; les neurones s'adaptent et adaptent leurs connexions. Au niveau le plus élevé, la conscience ellemême adopte la nouvelle finalité et il arrive que certaines de ces adaptations soient irréversibles (exemple : l'addiction à une drogue) [51]. Enfin, notre mécanisme de couches logicielles complète ces mécanismes sousjacents pour créer notre pensée. Recherches récentes : [317] - [339] - [344]- [345]. 3.6.1.13 Hiérarchie logicielle de la pensée - Modélisation informationnelle La modélisation informationnelle de la pensée (représentation des fonctions psychiques par des processus qui manipulent des informations, notamment celles des représentations) est de plus en plus précise aujourd'hui. Elle utilise une « hiérarchie » logicielle dont les niveaux d'abstraction croissent depuis les processus neuronaux jusqu'à ceux de la conscience, en passant par ceux de la mémoire. Chaque module logiciel peut être activé par un processus neuronal ou d'autres modules, l'activation transmettant alors des « données » sous forme de messages chimiques ou électrochimiques. Les divers modules partagent les données de la mémoire à long terme. La compréhension du fonctionnement de la pensée et la prédiction des pensées progresse, à l'aide de capteurs électroniques, d'instruments d'imagerie cérébrale et d'ordinateurs [344]. La complexité des mécanismes mettant en jeu de nombreux modules logiciels dépasse les possibilités de représentation d'un homme, mais de moins en moins celle de systèmes informatiques. Il restera néanmoins toujours l'influence imprévisible de l'inconscient [353], qui fait des associations d'images mentales basées sur des critères sans contrainte logique comme « couleur dont le nom commence par la même lettre que celui d'un ami ». Pensée, déterminisme et prévisibilité Le caractère imprévisible de la pensée humaine ne vient pas d'une quelconque transcendance qui contredirait le postulat de causalité à la base du déterminisme, ni de l'impossibilité de connaître les processus du vivant au niveau neuronal [344]. Il vient d'abord de la complexité des processus de haut niveau d'abstraction qui nous intéressent, que nous commençons seulement à savoir modéliser avec une hiérarchie de modules fonctionnels interagissants et fonctionnant simultanément. Il vient ensuite de l'inconscient, dont les mécanismes automatiques nous échappent par définition, et par leur mépris de la logique. En pratique, donc, le libre arbitre d'un homme est une réalité, ainsi que son incapacité à choisir les valeurs qui régissent ses décisions - rendant son libre arbitre illusoire. Un homme est imprévisible parce qu'il est trop complexe, pas parce que le déterminisme est erroné et qu'une transcendance intervient. 316 3.6.1.14 Reconnaissance de formes, structures, processus et intentions Des expériences ont montré que lorsqu'un homme reconnaît une forme géométrique qu'il voit, par exemple un carré, son esprit ne procède pas par étapes telles qu'une reconnaissance du fait que c'est une figure polygonale, que les côtés sont droits et au nombre de quatre, qu'ils sont égaux et qu'il y a quatre angles droits, ensemble de propriétés qui définissent un carré. Il n'utilise une telle approche progressive que pour les formes ou images qu'il ne reconnaît pas d'emblée, parce qu'elles sont nouvelles pour lui ou complexes. Reconnaissance des formes et des images La reconnaissance des formes et des images par l'esprit humain est un phénomène automatique, instantané, basé sur des fonctions inconscientes spécialisées de son cerveau. C'est ainsi qu'un homme reconnaît plus facilement et plus vite un visage qu'un mot de sept lettres : son cerveau est adapté à une telle reconnaissance, sa mémoire à long terme et la manière dont elle est utilisée le prédisposent à une remarquable performance en ce domaine. Un homme peut même reconnaître une personne dont certains traits ont changé : port de lunettes, coiffure différente, etc.: l'association d'une perception visuelle à une forme mémorisée fonctionne même en présence de caractéristiques absentes ou modifiées, se contentant souvent d'une certitude approximative. [364] Reconnaissance de structures La reconnaissance de forme peut s'appuyer sur la faculté de l'esprit de se créer des représentations abstraites et de les manipuler. Un homme peut ainsi se représenter une organisation hiérarchisée sous forme d'une arborescence ; il peut aussi se représenter des configurations de pièces dans un jeu d'échecs pour reconnaître certaines situations de jeu. Le recours à des structures abstraites permet de remplacer la mémorisation de nombreuses formes particulières par celle d'un nombre plus réduit de types de structures, que l'esprit pourra mémoriser et reconnaître, et à qui il pourra attribuer des propriétés particulières. Reconnaissance de processus L'esprit humain peut aussi mémoriser les étapes d'un processus. Cette faculté est d'abord utilisée pour automatiser et simplifier des processus de la vie courante, tels que marcher ou courir : l'ordre dans lequel les nombreux muscles impliqués doivent agir et leur coordination sont mémorisés, puis chaque pas est déclenché et se déroule sans effort mental. Cette faculté sert ensuite à mémoriser des processus complexes comme les gestes d'un métier, ou ceux de la manipulation d'un instrument de musique pour obtenir un son particulier. Mais l'esprit humain est aussi capable de reconnaître un processus, par exemple lorsqu'une autre personne effectue un geste. C'est ainsi que nous savons reconnaître et apprécier les gestes d'un mime qui fait semblant d'effectuer des actions de la vie courante. L'esprit humain reconnaît instantanément, automatiquement et sans effort, une suite d'étapes, aussi facilement qu'il reconnaît une structure. En mathématiques, on reconnaît souvent un type de raisonnement, caractérisé par un enchaînement d'étapes bien particulier. Et, comme en matière de reconnaissance de forme, l'esprit humain reconnaît souvent des processus même lorsqu'une étape manque ou a changé. 317 Reconnaissance d'intention La reconnaissance de formes et de processus a été utile aux hommes primitifs comme à de nombreux animaux. L'homme qui voyait une silhouette de lion reconnaissait cet animal dangereux, et il pouvait aussi reconnaître si le lion s'approchait de lui ou non. De manière générale, l'homme a la possibilité de prévoir les conséquences de la présence et du comportement d'autres hommes, d'animaux et d'objets, les conséquences potentielles étant mémorisées sous forme d'associations avec des formes et des processus connus. L'homme primitif savait reconnaître une intention hostile chez d'autres hommes ou chez des animaux. Nous savons reconnaître la signification d'un ton de voix, d'une expression, d'une suite de gestes, et nous le faisons instinctivement ; en fait, nous ne pouvons même pas nous empêcher de reconnaître l'intention ou le caractère général d'une personne quand nous la voyons pour la première fois. Cette reconnaissance est si automatique, si rapide, qu'il faut un effort pour s'empêcher de juger la personne d'après son aspect et son comportement lors d'une première rencontre. [339] Beaucoup de gens ne font pas cet effort si le jugement n'entre pas en conflit avec l'éventuelle opinion qu'ils ont déjà. Beaucoup de citoyens votent pour un candidat qui leur a fait instinctivement une bonne impression, mais dont ils n'ont pas analysé les propositions et promesses en réfléchissant à leur réalisme, leur faisabilité et leur pertinence. Conclusion Chaque fois que l'enjeu est important, une pensée rigoureuse exige donc une attitude de remise en cause de notre jugement, pour en identifier les apriori et examiner aussi les faits qui le contredisent et qui prouveraient notre erreur. 3.6.1.15 Intuition d'abord, justification après L'approche intuitive, irraisonnée, est très fréquente. C'est même celle de beaucoup de personnages publics au pouvoir, malgré leurs responsabilités. Ces personnes se forment souvent une opinion a priori, par intuition ou jugement de valeur basé sur un critère de morale, d'idéologie ou d'intérêt personnel, opinion que leur esprit ne cherche ensuite qu'à justifier à posteriori, par des raisonnements plus ou moins rigoureux. Il suffit de suivre à la télévision des débats ou des interviews de politiciens pour s'apercevoir à quel point la plupart basent leurs jugements politiques sur des intuitions justifiées à posteriori ou même des illusions, au lieu de les baser sur des analyses chiffrées et des raisonnements structurés ; quelle confiance accorder alors à leurs propositions ou leurs décisions ? Notre cerveau évalue en permanence, automatiquement, les informations issues de ses sens ou de son imagination, en leur associant un affect [253] agréable ou désagréable. C'est le cas notamment pour le visage d'une personne : dans la seconde qui suit l'instant où nous l'avons vue pour la première fois, notre cerveau s'est fait une première opinion sur la personne, opinion basée sur une analogie avec des visages ou expressions semblables déjà vus et une forte dose d'intuition. Après le visage, la voix et les gestes nous influencent de la même façon. La plupart des gens en restent à cette première opinion, hélas superficielle ; et lorsque le besoin de juger la personne devient conscient - par exemple s'il s'agit d'un politicien qui sollicite leur vote – ils essaient de construire un raisonnement qui justifie leur première impression, en cherchant les informations conscientes qui la confirment et 318 en ignorant les informations qui la contredisent lorsqu'elles ne sont pas trop prégnantes. Ce phénomène a été étudié en détail par Daniel Kahneman, prix Nobel d'économie 2002, dans un livre facile à lire qui a connu un grand succès [316]. Si un objet me plaît au point de vouloir l'acheter, je cherche à justifier l'effort financier par un raisonnement qui confirme mon désir, apparu sans justification ; je ne suis pas objectif ! Dans la plupart des situations où il est important qu'ils aient une opinion motivée, la majorité des gens s'en tiennent, hélas, à cette approche en deux temps : opinion basée sur une apparence, des apriori, un affect ou une intuition, puis raisonnement pour la justifier. Ils ne font que rarement l'effort de chercher des arguments contraires. 3.6.1.16 Evaluation permanente parallèle de situations hypothétiques L'esprit humain ne se contente pas d'évaluer les seules situations réelles, représentations issues directement de ses perceptions ou des réflexions basées sur celles-ci. Il évalue aussi en permanence des situations imaginaires : si je vois un jeune enfant seul au bord d'une piscine, j'imagine qu'il peut y tomber et se noyer, et je juge cette possibilité inquiétante. Ces situations imaginaires peuvent concerner l'avenir, mais aussi le passé (« Ah, si je ne m'étais pas trompé hier ! »). Elles sont en général multiétapes, chaque situationconséquence envisagée et évaluée ayant elle-même des conséquences hypothétiques construites et évaluées. Ce processus peut se poursuivre jusqu'à ce qu'une situation paraisse par trop improbable, ou psychologiquement inacceptable même si elle peut se produire. Il est analogue à la réflexion d'un joueur d'échecs qui évalue les mouvements possibles plusieurs coups à l'avance. Le cerveau effectue aussi, en général, consciemment ou non, plusieurs évaluations de situation en même temps, en parallèle. Enfin, profitant de sa vaste mémoire et désirant faire l'économie de la réévaluation de situations déjà évaluées, il mémorise ses résultats d'évaluation. 3.6.1.17 "Le monde comme volonté et représentation" de Schopenhauer Dans la préface du monumental ouvrage portant ce titre [202], œuvre majeure du philosophe et essayiste Schopenhauer, on lit page 16 : "La raison, les concepts, ne constituent qu'une mince pellicule recouvrant un fonds primitif, obscur : la volonté. [Celle-ci est] sans fondement, c'est-à-dire radicalement hétérogène au principe de raison, qui régit l'usage du concept. Voilà pourquoi d'ailleurs l'instinct, qui rapproche l'homme de la bête, est toujours plus fort que la raison qui les distingue. Quand l'instinct parle, la raison doit nécessairement se taire ou alors se mettre à son service." Pour Schopenhauer, il existe à tout moment chez un homme une volonté instinctive d'agir pour laquelle la raison n'est qu'un outil ; pour lui, dans la nature l'évolution de chaque situation est gouvernée par une « volonté naturante ». C'est un déterminisme sur lequel son disciple Nietzsche basera sa « volonté de puissance » [343]. Deux ans après avoir, pour la première fois, publié ce livre-ci sur Internet, j'ai pris connaissance du livre de Schopenhauer. Je suis frappé de la forte analogie existant 319 entre son concept moniste de « volonté régissant toutes les lois de la nature naturante » et mon propre concept moniste de déterminisme étendu. Mais alors que Schopenhauer est parti d'une intuition métaphysique [371], la volonté, dont il justifie à grand peine dans son livre qu'elle régit la nature (donc le Monde) comme la volonté d'un homme régit ses actes, je suis parti des lois objectives de la physique pour définir leur principe d'application universel, le déterminisme étendu. 3.6.1.18 Mémorisation et acquisition d'expérience - Déterminisme culturel Un autre mécanisme intervient pour perfectionner encore plus les pensées et décisions : le cerveau mémorise automatiquement les représentations, les actions (et les pensées) et leur résultat psychologique, de façon à acquérir de l'expérience. [339] 3.6.1.18.1 Mécanismes physiologiques de la mémoire Sur le plan physiologique, la mémorisation est une création ou une modification de certaines synapses (éléments de contact entre deux neurones). Lorsqu'un neurone émetteur envoie un signal à un neurone récepteur, ce signal passe par une synapse [268]. Le signal lui-même est une émission chimique de molécules qui excitent ou inhibent la synapse, agissant ainsi sur le neurone récepteur. [344] Il y a deux catégories de mécanismes de mémoire : La mémoire à court terme, de capacité limitée et à oubli rapide. Le nombre d'éléments (nombres, mots, phrases, etc.) qu'elle retient est limité à 7 en moyenne chez un homme, et leur durée de mémorisation ne dépasse pas quelques secondes [287]. L'enregistrement dans cette mémoire se fait par augmentation de la quantité de molécules excitatrices transmises. La mémoire à long terme, de grande capacité et à oubli progressif (souvent sur des années). Cette mémoire fonctionne par fabrication de nouvelles synapses, un seul neurone pouvant se relier par synapses à plus de 1000 autres neurones. Et il y a deux sortes de mémoires à long terme : la mémoire consciente et la mémoire inconsciente, qui stocke des automatismes. Un apprentissage délibéré (par exemple par stimulations répétées) donne lieu à une mémorisation à long terme, où chaque signal reçu par une synapse est transmis au noyau du neurone récepteur. Les chromosomes de celui-ci activent des gènes capables de déclencher à leur tour la formation de nouvelles synapses [268]. Chaque souvenir est donc une modification de connexions du cerveau. Les contacts synaptiques se font et se défont en fonction des signaux électriques et chimiques qui les animent ([272] page 22). Il faut aussi savoir que le contenu de la mémoire humaine à long terme se transforme continuellement, contrairement à une mémoire magnétique ou flash où une information perdure jusqu'à son effacement délibéré. La transformation résulte d'une part de l'ontogenèse [78], d'autre part de l'organisation des informations par l'esprit. Cette organisation est en fait une réorganisation continue, qui adapte en permanence les connaissances de l'homme à son environnement, automatiquement. Elle n'est exempte ni d'erreurs (qui provoquent oublis ou déformations de l'information stockée) ni de perfectionnements (qui expliquent certaines améliorations surprenantes de la qualité des souvenirs après plusieurs mois). 320 Selon [113], il existe dans le cortex préfrontal du cerveau un mécanisme automatique d'effacement de souvenirs, actif notamment pour les souvenirs désagréables. Pour un tel souvenir, ce mécanisme efface d'abord les perceptions sensorielles, puis ceux de ses processus de mémorisation et enfin ceux qui concernent les émotions associées. Cet oubli se produit de manière involontaire : un homme ne peut pas effacer volontairement sa mémoire comme le ferait un ordinateur. Mais il arrive qu'un souvenir oublié laisse des traces dans l'inconscient [353] (Freud parlait de mémoire réprimée, qui peut être à l'origine de névroses). L'oubli d'événements traumatisants permet à l'homme de continuer à vivre, à espérer et à agir sans se laisser arrêter par trop de souvenirs douloureux. Mais il a aussi l'inconvénient de rendre la mémoire sélective… Du point de vue déterministe, un cycle d'utilisation de la mémoire à long terme, avec ses phases successives de stockage, transformation, « lecture » pour utilisation et parfois oubli, a donc un caractère partiellement imprévisible et peu fiable. Le rôle du sommeil Pendant son sommeil, un sujet réorganise et associe les informations enregistrées dans sa mémoire. Pendant les phases de sommeil profond, la réorganisation associe des paires d'informations (exemple : un mot avec un objet). Pendant les phases de sommeil paradoxal, la réorganisation crée des structures permettant par exemple la reconnaissance de formes, de schémas mentaux, de suites d'étapes. Ces phénomènes de réorganisation sont de mieux en mieux connus. Ils expliquent notamment pourquoi, au réveil, certains sujets ont des intuitions concernant la solution d'un problème avec lequel ils se battaient jusque-là sans succès : voir le paragraphe "Mécanismes de l'intuition", [284] - [229] - [346] . 3.6.1.18.2 Acquisition d'expérience Le mécanisme naturel d'acquisition d'expérience est assez bien compris pour être mis en œuvre dans des logiciels d'application, dits d'« intelligence artificielle » mais parfaitement déterministes, appelés « réseaux neuronaux ». Réseaux neuronaux Voici un exemple d'application de réseau neuronal. La reconnaissance des billets de banque (exemple : billets de 100 €) pour déterminer s'ils sont vrais ou faux est effectuée par un appareil comprenant un scanner (qui numérise l'image de billets qu'on lui présente), un ordinateur (qui exécute l'application de reconnaissance) et un voyant qui affiche le résultat : vert si le billet est vrai, rouge s'il est faux. Pour l'apprentissage, on fait numériser par l'appareil de nombreux billets en lui donnant à chaque fois le diagnostic humain : vrai ou faux. Plus on lui donne de tels exemples, plus il accumule d'expérience et moins il se trompe par la suite en déclarant faux des billets vrais ou vrais des billets faux. Avec une expérience de quelques milliers de billets on arrive à des taux d'erreur très faibles, même en présence de billets usagés ou sales. L'appareil a appris par accumulation d'expérience ; à aucun moment on ne lui a donné de règle de raisonnement explicite. Ce mode de fonctionnement est celui de la mémoire associative de l'homme, où les associations se font automatiquement grâce à l'aptitude du cerveau à trouver des analogies entre informations mémorisées, à les évaluer, et à relier les informations 321 associées utiles en une relation mémorisée à son tour. Il y a là une auto-organisation des informations, capable, par exemple, de corriger des informations erronées, de compléter des informations incomplètes, de généraliser par induction à partir d'un nombre de cas limités et de reconnaître des formes ou des situations pour pouvoir ensuite les évaluer à leur tour. Nous sommes là dans un cas de déterminisme particulier : l'algorithme déterministe du réseau neuronal construit ses règles de calcul de la conséquence d'une cause par apprentissage de cas d'espèce, et les applique avec une marge d'erreur de type statistique due aux inévitables erreurs de la numérisation et de la comparaison. Acquisition d'expérience par un homme L'apprentissage des cas d'espèce est un processus à étapes. Chaque étape commence par une perception, une expérience ou un essai, puis analyse son résultat en fonction des valeurs existantes, en déduit les erreurs de pensée ou de comportement lorsque la qualité du résultat s'éloigne de l'objectif, corrige ces erreurs et passe à l'étape suivante. A chaque étape qu'il réussit à franchir, le cerveau a une sensation de récompense : le plaisir correspondant est sa manière de savoir qu'il a réussi quelque chose. Exemples : C'est ainsi qu'un jeune enfant apprend à marcher : d'abord il apprend à se tenir debout et à effectuer sans y penser les efforts musculaires nécessaires à cette station debout, puis il apprend à rompre cet équilibre pour déplacer une jambe, etc. Tout le monde connaît les expériences de Pavlov, sur les « réflexes conditionnés » acquis par un animal suite à des expériences vécues. L'animal peut ainsi apprendre à associer l'audition d'un bruit à l'apparition de nourriture qui le fait saliver ; par la suite, même si le bruit apparaît sans nourriture, l'animal salive quand même. Pavlov est ainsi parvenu à préciser des aspects de l'activité nerveuse supérieure qui concernent l'excitation et l'inhibition. Lorsqu'un étudiant apprend une théorie scientifique nouvelle, il se représente ses divers aspects (concepts, méthodes…) au moyen d'abstractions, qu'il complète et précise progressivement au vu des textes qu'il lit et des exercices qu'il fait, jusqu'à ce qu'il ait le sentiment d'avoir compris. Il s'est ainsi construit progressivement des représentations abstraites, et des processus mentaux qui les relient de manière plus ou moins automatique. Une fois habitué aux nouvelles représentations et processus, il trouve la théorie bien moins abstraite. Apprendre ainsi présente d'immenses avantages : l'adaptabilité à toutes sortes de situations nouvelles, et la prise de décisions malgré des informations incomplètes ou partiellement contradictoires. S'il ne savait appliquer que des recettes toutes faites, comme un robot, l'homme ne pourrait vivre que dans un environnement précis, celui pour lequel ces recettes ont été faites ; il n'aurait pas survécu dans la compétition des espèces où seuls les meilleurs survivent. L'adaptabilité est une caractéristique de l'intelligence : l'homme est plus capable d'adaptation que les animaux parce qu'il est plus intelligent, ou il peut être qualifié de plus intelligent parce qu'il s'adapte mieux. Chaque homme profite de l'expérience qu'il a acquise lui-même, mais aussi de celle que lui ont transmise les autres hommes ; et l'invention de l'écriture, puis des 322 techniques de communication, a fortement amplifié l'accumulation et la transmission des connaissances. Pendant qu'il apprend et mémorise, le cerveau (aidé par le cervelet) se construit des raccourcis lui permettant de représenter et de déclencher des procédures multiétapes avec un seul signal, comme la pression sur une touche de fonction de téléphone portable déclenche toute la procédure d'appel d'un correspondant. Ces procédures, enregistrées dans la mémoire, permettent de gagner du temps en remplaçant des étapes précédées chacune d'une réflexion par une procédure multiétapes devenue une habitude. L'entraînement d'un danseur, d'un instrumentiste ou d'un sportif consiste notamment à construire ces habitudes pour en faire des automatismes. Voir aussi "Importance des automatismes dans la pensée humaine". L'acquisition d'expérience détermine l'évolution de chaque homme, de chaque peuple et de l'humanité. Un de ses aspects les plus importants est la culture, transmise de génération en génération. Une fois incorporée à l'inconscient [353] par un homme, la culture l'influence tellement qu'elle engendre un déterminisme culturel (exemple : [12]). 3.6.1.18.3 La mémoire sélective Toute information susceptible d'être enregistrée en mémoire à long terme est automatiquement évaluée : le cerveau l'associe à une valeur (positive ou négative) et attribue à cette association un poids (c'est-à-dire une importance psychologique). [364] Les informations associées à certaines valeurs de trop peu de poids sont alors ignorées, et leur mémorisation n'a pas lieu. Cela permet à la mémoire de ne pas se charger d'informations inutiles, mais de temps en temps cela provoque des refus d'enregistrement néfastes. En effet, le poids attribué peut dépendre du contexte psychologique, très subjectif ; il arrive alors, par exemple, qu'on refuse inconsciemment la mémorisation d'informations déplaisantes [346]. Ainsi, comme je n'aime pas accompagner ma femme au marché, il arrive qu'elle me demande de l'accompagner le lendemain pour porter des achats lourds, que je lui réponde « oui », et que j'oublie aussitôt ma promesse comme si je ne l'avais jamais faite ! Il arrive aussi que, dans la transformation continuelle des informations stockées en mémoire à long terme, une information considérée comme peu importante ou déplaisante soit inconsciemment effacée, remplacée ou déformée. 3.6.1.19 Désirs et satisfaction artificiels. Drogues Les mécanismes physiologiques de besoin, de désir et de choix peuvent être détournés au profit de drogues : une drogue qui crée une dépendance modifie un mécanisme de choix de l'organisme, en créant un besoin de cette drogue et en procurant une récompense agréable lorsqu'on le satisfait. Le tabac, l'alcool et l'héroïne sont des exemples connus de drogues créant une dépendance. Et d'après les recherches expérimentales [54], une boisson comme le Coca-Cola ou une substance comme la caféine agissent sur la sécrétion de dopamine par l'intermédiaire du noyau accumbens [254] du cerveau, connecté au cortex préfrontal qui est un de ses centres de décision ; elles stimulent ainsi le besoin 323 (l'anticipation de plaisir) d'en absorber, sans pour autant créer une dépendance comme la cocaïne, drogue extraite de la coca. 3.6.1.20 Des pensées peuvent aussi se comporter comme des drogues Il est important de comprendre que des pensées ou des affects [253] peuvent aussi se comporter comme des drogues - en suscitant des désirs et en promettant des récompenses, ou en suscitant des craintes - en réponse à certains choix d'action. Du point de vue physiologique, dans le cerveau, l'effet de ces désirs et craintes passe par des neurotransmetteurs comme pour les perceptions physiques. Ces idées et affects purement psychiques [347] peuvent aller, dans le cas de terroristes, jusqu'à des inversions de valeurs, des pulsions de mort et des promesses de récompense du suicide, ou de la souffrance gratuite infligée à autrui. Les récompenses promises sont associées à la satisfaction de valeurs morales incorporées à l'inconscient, comme l'altruisme, l'équité ou la fierté, valeurs dont nous sommes ou non conscients. Ces valeurs peuvent faire partie de notre culture et nous avoir été transmises par nos parents, notre éducation ou notre vie en société. Elles peuvent aussi nous avoir été inculquées par la pression sociale, la culture du groupe auquel nous appartenons. Elles peuvent, enfin, résulter d'une autosuggestion et/ou d'une amplification par l'imagination, amplification qui peut aller jusqu'à l'obsession. C'est ainsi qu'on peut expliquer l'endoctrinement de jeunes hommes et femmes, dont des manipulateurs font des terroristes au nom de principes religieux mal interprétés, de principes de solidarité entre peuples obligeant des musulmans à tuer des juifs et des chrétiens pour venger des coreligionnaires Palestiniens, etc. C'est ainsi qu'une sous-culture de banlieue produit des casseurs en révolte contre la société française [169], casseurs qui attaquent des infirmières et des pompiers venus secourir leurs voisins, ou brûlent des voitures, le tout pour défendre le « territoire » où des voisins trafiquent contre ces représentants de l'ordre social républicain. Les valeurs incorporées à l'inconscient font partie de la culture et ne peuvent évoluer que lentement. Chez un peuple entier, cette évolution peut demander un siècle ou plus. Preuve : la laïcisation [336] de la Turquie, commencée par Atatürk en 1924 et poursuivie depuis avec l'aide musclée de l'armée, n'a pas encore fini d'imposer des idées démocratiques à l'ensemble de la population turque [13]. La culture musulmane de ce peuple est encore bien présente et regagne en ce moment de plus en plus de terrain, avec ses valeurs d'inégalité des femmes, ses crimes d'honneur, la substitution de la loi islamique à la loi laïque, etc. [87] Par contre, la forte influence d'une campagne de publicité habile sur les décisions des consommateurs ou les votes des électeurs montre qu'on peut influencer les opinions des gens en quelques jours ou quelques semaines, au point qu'ils agissent en fonction de ces nouvelles opinions, contrairement à des valeurs plus anciennes qu'ils avaient et qu'ils se mettent à transgresser. 324 3.6.2 3.6.2.1 Mécanismes psychiques non algorithmiques ou imprévisibles Définitions 3.6.2.1.1 Mécanisme psychique algorithmique Je définis un mécanisme psychique comme algorithmique ou calculable s'il peut être simulé par un ordinateur. C'est le cas, par exemple, du calcul mental arithmétique, et aussi du raisonnement déductif pur simulable par calcul des propositions ou des prédicats. Il existe dans le psychisme [347] : Des nombres et des problèmes non calculables, au sens précis donné plus haut ; Des mécanismes non algorithmiques, parfois inconscients, tels que : Retrouver un souvenir dans sa mémoire ; L'intuition [141] ; Les affects [253] ; La reconnaissance automatique d'images, de structures ou de procédures ; Les associations d'idées effectuées consciemment ou non, permettant des raisonnements par analogie, des intuitions et l'apparition inexplicable de pensées, de certitudes ou d'affects ; Les représentations de réalités telles que des images ou des procédures, et les représentations d'abstractions. Au plus bas niveau, ces mécanismes psychiques sont déterministes, car comprenant exclusivement des mécanismes de biologie moléculaire sous-jacents déterministes. Mais en pratique ils peuvent être impossibles à décrire par un algorithme parce qu'on n'en connaît pas assez les mécanismes d'interaction (notamment ceux qui sont inconscients), et parce que l'effort de rédaction de l'algorithme serait démesuré par rapport à son intérêt. Nous avons déjà vu que le caractère structurellement déterministe d'un processus n'entraînait pas nécessairement la prédictibilité de son résultat. Ainsi, à partir des mêmes souvenirs d'une personne, un rapprochement d'idées, une intuition ou une certitude peuvent naître de son état du moment : santé, sensation de faim ou soif, affect récent, etc. L'instant d'avant ou l'instant d'après, dans un contexte un peu différent, les pensées seraient autres. Nous avons aussi vu que l'inconscient entretient constamment des pensées qui échappent à tout contrôle de la conscience et à toute origine rationnelle. Des définitions et processus mentaux déterministes mais non calculables. Je considère comme algorithmiques les fonctionnements suivants d'un ordinateur : Les logiciels d'application : gestion, calculs scientifiques ou techniques, gestion de processus industriels, automates et pilotes automatiques, télécommunications (routeurs, autocommutateurs…), etc. ; Les logiciels système et outils de développement de programmes : systèmes d'exploitation, compilateurs, générateurs d'application et interpréteurs, etc. 325 Le calcul parallèle, qu'il porte en même temps sur plusieurs problèmes distincts ou sur plusieurs groupes distincts de données d'un même problème, comme dans les traitements d'images ou les calculs matriciels ; Un être humain ne peut pas, consciemment, réfléchir à plusieurs choses en même temps, mais son inconscient le peut et le fait. L'intelligence artificielle, application de calcul des prédicats correspondant à une activité donnée dont l'homme fournit les axiomes et règles de déduction, ainsi que des applications spécifiques associées à certains prédicats (diagnostic médical…) La logique floue et l'autoapprentissage limités à un problème précis, avec un logiciel de réseau neuronal (reconnaissance d'images numérisées de visages ou de plaques d'immatriculation…) ; Exemple : [331] La génération automatique de programmes sur-mesure, à partir de jeux de données fournis et avec un logiciel générateur écrit à l'avance par un programmeur. 3.6.2.1.2 Mécanisme psychique déterministe Conformément à la définition du déterminisme scientifique traditionnel, je définis un mécanisme psychique comme déterministe chez une personne donnée, si : Il résulte à coup sûr d'une cause connue sans laquelle il ne peut se déclencher chez cette personne ; Et si son déroulement à partir d'une même cause est reproductible (donc stable dans le temps). Cette définition contraignante exclut la possibilité de conséquences multiples d'une cause donnée et la possibilité de résultats imprévisibles. En voici une critique. Comparaison et critique Tout mécanisme psychique algorithmique est déterministe, mais inversement, tout mécanisme psychique déterministe n'a pas nécessairement des résultats prévisibles. La définition ci-dessus d'un mécanisme psychique déterministe est en général trop rigoureuse pour s'appliquer à une personne donnée, notamment parce qu'elle exclut les mécanismes inconscients. Une personne utilisera plus souvent soit des mécanismes psychiques algorithmiques mis en œuvre dans des cas simples comme le calcul de 2 + 2, soit des raisonnements à résultat imprédictible. C'est pourquoi nous allons étudier des aspects du déterminisme psychique à travers quelques caractéristiques de la conscience. 3.6.3 La conscience Sources : [339] et [348]. Le mot français « conscience » a 3 significations : conscience morale, conscience de, et conscience tout court. 326 3.6.3.1 Conscience morale On parle de conscience morale pour désigner la fonction psychique permettant à l'homme d'apprécier la différence entre le bien et le mal, donc d'exercer son libre arbitre. Ce sens n'apparaîtra pas dans ce texte. 3.6.3.2 Conscience de On parle de conscience de… pour désigner les mécanismes psychiques par lesquels l'homme connaît un objet, ou se connaît lui-même par introspection. On en parle avec les verbes avoir et être : Quand j'ai conscience d'un objet, il est dans mon esprit, je peux en parler. Quand je suis conscient d'une situation, elle est présente à mon esprit. 3.6.3.2.1 La conscience de, ETAT du psychisme La conscience de est un état instantané du psychisme, une « photo ». Il change automatiquement au fur et à mesure que l'objet de conscience change : lorsque je suis conscient qu'un ballon vient vers moi, son image dans mon esprit (sa photo) change au fur et à mesure de son déplacement. Dans mon esprit, l'état d'un objet à un instant donné (l'ensemble des informations à son sujet dont je suis conscient) figure sous forme d'un ensemble de données. Cet ensemble en représente à la fois les caractéristiques objectives et la signification qu'il a pour moi, propriétés que je peux décrire et dont je peux parler. Cet ensemble abstrait est la seule façon dont je peux appréhender l'objet, puisque mon cerveau ne peut manipuler que des abstractions. L'état psychique conscience de se confond donc avec cet ensemble de données ; lorsque je me souviens d'avoir eu conscience de quelque chose, ce sont des données que j'extrais de ma mémoire. Appelons C l'ensemble de données de la représentation psychique d'une conscience d'objet à un instant donné. Justification : une conscience de est nécessairement un ensemble de données 1ère raison : l'état d'un système est décrit par un ensemble de variables dont la valeur est constante à un instant donné. Si le système évolue dans le temps (en se déplaçant, en se transformant…) son état change, et certaines des variables qui le décrivent peuvent changer de valeur. Or la conscience de est un état psychique à un instant donné, résultat pour un individu de l'état de certains de ses neurones et des excitations (signaux transportant des informations) qu'ils se sont transmis. A un instant donné, la conscience de est donc décrite par un ensemble de données : l'ensemble qui décrit l'état des neurones correspondants et des excitations émises et reçues. Il y a donc un « code conscient », propre à chaque individu, qui décrit la représentation dont il a conscience à un instant donné. Selon [344] page 205 : « La distribution des cellules actives et inactives compose un code interne qui reflète fidèlement le contenu de la perception subjective. Ce code conscient est stable et reproductible : ce sont toujours les mêmes neurones qui déchargent dès que le patient pense à Bill Clinton. Il suffit, pour les activer, d'imaginer le visage du président : la plupart des neurones du cortex temporal antérieur répondent avec la même sélectivité aux images réelles et aux images mentales. La mémoire suffit également à les réactiver. » 327 2ème raison : lorsque je suis conscient de quelque chose (et seulement si j'en suis conscient, ce qui implique que j'y fais attention), je peux en parler. Or les muscles qui agissent pour parler (ceux de la bouche, etc.) sont commandés par des neurones moteurs. Comme tous les neurones, ceux-ci sont activés par des signaux d'excitation et seulement de cette manière-là ; ils sont donc activés par des données, celles des signaux reçus, elles-mêmes provenant d'autres neurones, etc., l'origine de la chaîne de neurones étant la conscience de. Pour activer une chaîne de neurones se terminant par les neurones moteurs de la parole, la conscience de ne peut donc être qu'un ensemble de données. Si l'origine des signaux activant la parole était une fonction autonome et inconsciente du psychisme elle ne pourrait pas émettre des signaux aboutissant à des paroles cohérentes, fonction du seul contenu de la conscience de. Données et structure d'une représentation On comprend le sens d'un texte français à partir de deux notions : les lettres avec lesquelles on écrit les mots, et les associations de ces lettres en mots et des mots en phrases. La compréhension n'est obtenue qu'avec une lecture suivie d'une interprétation par l'esprit des images reçues. L'interprétation est un processus actif d'analyse de la structure de ces images : quels mots, dans quel ordre, avec quels signes de ponctuation, etc. En résumé, le sens d'un texte est dans sa structure, les quelques dizaines de signes de l'alphabet et de la ponctuation ne suffisent pas à le décrire. Représentation = objet + sens psychologique De même, le contenu d'une représentation (objet et sens psychologique) n'est pas dans les seuls neurones qui la stockent ; il est porté par la structure de leurs interconnexions et des signaux transmis, il n'est dégagé que par un processus actif d'interprétation par le psychisme. Il y a là une analogie avec la machinerie cellulaire du corps : ses processus chimiques et biologiques suivent les règles d'un code informatique stocké dans la structure des 4 bases ACGT de l'ADN et de l'ARN. Représentation propre d'un objet Un objet figure dans l'esprit sous forme d'une représentation propre (désignée par X) qui en décrit les caractéristiques à un instant donné : forme, couleur, signification, etc. Nous verrons que la conscience d'un objet, C, comprend aussi d'autres données que cette représentation d'objet X : X est un sous-ensemble de C. 3.6.3.2.2 La prise de conscience de, ACTION du psychisme A l'évidence, prendre conscience d'un objet dont on n'avait pas conscience auparavant est une action ; une fonction psychique agit : nous l'appellerons attention. Pour avoir conscience de quelque chose, je dois y faire attention. L'attention est donc une fonction psychique qui a pour résultat une conscience de ; c'est cette fonction qui produit l'ensemble de données C de cette conscience de. (Voir aussi : Seuil de conscience) Mais une opération d'attention (action psychique) ne permet pas, à elle seule, de penser consciemment à l'objet de l'attention ou d'en parler : c'est sa conséquence, la conscience de l'objet (état psychique et ses données associées, C), qui déclenche la pensée consciente. 328 Mémorisation des étapes d'une action - Schéma d'attention L'esprit se souvient de la suite d'étapes d'une action qu'il vient de réaliser. Je me souviens de la manière de dévisser le couvercle d'un pot de configure : je prends le pot dans ma main gauche, je mets la main droite sur le couvercle, je tourne ce couvercle dans le sens inverse des aiguilles d'une montre en le serrant dans ma main, et quand je ne sens plus d'effort je soulève le couvercle. Mon esprit a enregistré cette suite de gestes. IRMf Les appareils d'IRMf (imagerie fonctionnelle par résonnance magnétique) enregistrent l'activité des diverses zones du cerveau lors de certaines actions : à une même suite d'actions correspond une même suite de zones cérébrales activées ; ainsi, lors d'un parcours, chaque lieu atteint correspond en mémoire à une région cérébrale particulière. Des expériences ont montré que l'action de prendre conscience, l'attention, active certaines zones bien définies du cerveau, dont la succession est enregistrée en mémoire. Cet enregistrement d'une suite d'actions, gestes ou pensées, permet ultérieurement de les répéter avec peu d'effort de réflexion : il y a eu apprentissage d'une procédure. Le schéma d'attention Des expériences de neuropsychologie ont montré que l'action d'attention visuelle à un objet est mémorisée automatiquement. A sa propre initiative, mon inconscient mémorise le contexte de l'action (lieu, date…), mon état d'esprit lors de son déclenchement (à quoi je voulais faire attention…), la suite des ordres à donner aux nerfs qui commandent des muscles nécessaires à la vision, et d'autres renseignements analogues sur l'attention. Cette mémorisation produit un ensemble de données A appelé schéma d'attention, qui constitue une description de la procédure d'attention, avec son contexte et ses étapes psychiques. Aussitôt produit, ce schéma d'attention est associé automatiquement par l’inconscient à la représentation X de l'objet de l'attention, puis ce couple d'ensembles de données liés A + X est mémorisé en mémoire de travail (mémoire de court terme) : tout ceci est très rapide, bien plus rapide qu'une réflexion consciente sur un sujet quelconque. Et si l'objet de l'attention évolue (ballon qui bouge, par exemple), sa représentation et son schéma d'attention évoluent automatiquement en même temps, de manière synchronisée. Toute représentation d'objet X présente à l'esprit (dont il a conscience) est donc accompagnée de son schéma d'attention A. Que cette représentation provienne d'une perception (visuelle, etc.), ou d'une réflexion qui l'a construite en utilisant la mémoire et diverses fonctions psychiques, elle est toujours accompagnée de son schéma d'attention lorsque l'esprit en a conscience. Etapes de la mémorisation d'objets composés et leur structure Souvent, l'attention à un objet ne le voit pas du premier coup d'une manière satisfaisante pour l'inconscient : soit elle voit autre chose à proximité ; soit elle voit un détail de l'objet, alors qu'elle voudrait le voir tout entier ; soit elle voit successivement diverses parties de l'objet et l'esprit doit en faire la synthèse pour être satisfait d'avoir reconnu l'objet qui l'intéresse, etc. Une opération d'attention comprend des étapes. 329 Non seulement l'attention mémorise dans son schéma d'attention A toutes les étapes de la procédure nécessaires pour construire une représentation satisfaisante, X, de l'objet, mais en plus elle représente X comme une somme de représentations de parties de l'objet, X = X1 + X2 + X3…. L'esprit a donc conscience d'un objet composé C = A + X1 + X2 + X3…., et c'est cet ensemble-là qu'il mémorise pour l'objet donné. Donc à part les rares objets si simples qu'ils se contentent d'une représentation d'un seul tenant, un objet est toujours mémorisé comme somme d'objets élémentaires. Lorsque la conscience le retrouvera et l'extraira de la mémoire, elle devra en reconstituer la représentation à partir de ses composantes X 1 + X2 + X3… en suivant les étapes de la procédure A. Elle le fera automatiquement et rapidement, grâce à une fonction inconsciente de reconstitution. La méthode de représentation d'un objet composé E par objets composants à réassembler a deux avantages : Les représentations des parties d'un objet déjà connues n'ont pas à être mémorisées à nouveau, il suffit pour chacune que le schéma d'attention A contienne un lien (référence) permettant de le retrouver. Ceci permet une économie de place mémoire. Les nombreuses interconnexions de références permettent de retrouver un objet composé connaissant une partie seulement de ses composants. Exemple : je viens de réécouter la 38ème symphonie de Mozart. Je me souviens que le compositeur lui avait attribué un nom propre ayant un rapport avec l'Europe centrale, nom que j'avais entendu lors de l'écoute précédente. Ma fonction mémoire retrouve ce nom en le reconstruisant grâce aux propriétés de cet objet dont je me souviens (Mozart + symphonie + Europe centrale) et des relations entre eux : c'est "Prague", la symphonie "Prague". Le travail non conscient de reconstruction critique de la conscience A la fin de la phase d'attention, la conscience de comprend un assemblage automatique et non conscient de représentations composantes avant franchissement du seuil de conscience, y compris en prenant en compte des images subliminales. En outre, cet assemblage non conscient comprend une évaluation, à la fois sémantique et affective, de la représentation construite, évaluation terminée par un jugement de validité ; et si cette représentation déplaît parce qu'elle est incohérente, qu'elle contredit une information présente à l'esprit ou qu'elle entraîne un rejet affectif par un côté choquant, l'inconscient tente automatiquement un autre réassemblage à la recherche d'une représentation « meilleure ». Cette phase d'assemblage critique de représentations composantes permet, par exemple, de reconnaître un visage même si certains traits ont changé ; il permet de reconnaître un mot malgré une faute d'orthographe, etc. Dans [344] pages 99-100 on lit : « … le cerveau évalue inconsciemment tous les sens possibles d'un mot ambigu, même ceux qui ne sont pas pertinents dans le contexte. » « Les aires [cérébrales] du langage sont d'une telle efficacité qu'elles parviennent à retrouver en mémoire, inconsciemment et simultanément, toutes les 330 associations sémantiques d'un mot, même s'il est ambigu et même lorsque seul l'un d'entre eux convient au contexte. L'inconscient propose, le conscient choisit. » 3.6.3.2.3 La conscience de est un couple {Objet + Schéma d'attention} A un instant donné, l'état psychique conscience d'un objet étant associé à un couple d'ensembles de données indissociables {objet X + schéma d'attention A}, il est confondu avec l'ensemble des données de ce couple : c'est la seule manière dont l'esprit peut en avoir connaissance, il ne connaît rien de plus et rien de moins. On écrit symboliquement : C = X + A. N'ayant pas accès aux objets physiques, le cerveau humain ne manipule que des abstractions. Certaines sont des représentations, « images » d'objets réels perçus par nos sens : vue, ouïe, etc. D'autres sont des représentations a priori, que nous héritons de nos ancêtres en naissant ; exemples : le concept géométrique de point, les concepts de temps ou d'espace. D'autres enfin, sont des constructions de notre esprit, abstractions construites à partir d'autres abstractions ; exemples : représentations d'objets composés, procédures de raisonnement comme la méthode d'addition de deux nombres. L'esprit d'un individu n'ayant accès qu'à des abstractions construites par lui ou reçues par héritage génétique, il ne peut connaître le monde que par rapport à luimême, en tant que phénomènes. Toute conscience de est prise en compte instantanément Toute conscience de présente à l'esprit à l'état d'éveil y déclenche automatiquement et instantanément les fonctions psychiques qui la prennent en compte ; aucun effort de volonté n'est nécessaire et la conscience n'a aucun moyen d'empêcher cette prise en compte. Exemple : lorsque j'aperçois une autre personne (lorsque j'en ai conscience parce que j'ai dans l'esprit le couple C = X + A correspondant) ma fonction psychique de reconnaissance d'image se déclenche, reconnaît qu'il s'agit d'une personne, retrouve son couple de représentations associé dans ma mémoire, et me produit une impression de personne connue. La détection automatique de valeurs de données (distincte de celle "tout-ou-rien" de la mise sous tension d'un mécanisme) est possible dans le psychisme. Cette détection instantanée a été confirmée expérimentalement. Selon [344] pages 181, 228 et 232 : « …la conscience [de] est riche de conséquences. Dès que nous prenons conscience d'un fait, des myriades de possibilités s'offrent à nous. Nous pouvons le rapporter à d'autres, en mots ou en gestes. Nous pouvons le stocker en mémoire et le rappeler ensuite. Nous savons l'évaluer et l'utiliser pour guider nos actions. Tous ces processus deviennent disponibles au moment même où l'information accède à notre conscience… » « …la conscience [de] n'est rien d'autre que la diffusion globale d'une information à l'échelle de tout le cerveau. » « Dès que nous prenons conscience d'une information, celle-ci devient capable d'influencer nos décisions et nos actions volontaires, en nous donnant le sentiment qu'elles sont sous le contrôle de notre volonté. » 331 Conscience de, Présence à l'esprit et Sens Nous avons vu qu'une conscience de (état psychique C = X + A) commence nécessairement par une action d'attention (schéma d'attention A), qui choisit un objet unique (représentation X) parmi ceux que fournissent les perceptions et ceux qui sont déjà en mémoire. La conscience de C est formée par l'attention dans l'espace de travail neuronal global (notion proposée par [344] pages 228-229), zone cérébrale d'échange entre tous les processus psychiques, la mémoire de travail et la mémoire à long terme. C'est l'espace où se forment les pensées et les représentations, où arrivent les perceptions et d'où partent les stimulations des systèmes nerveux moteurs (ceux qui actionnent les muscles). Dès son arrivée dans l'espace de travail, une conscience de est perçue par la conscience tout court, qui lance alors le premier des processus nécessaires pour traiter ses données. L'objet X est alors présent à l'esprit : en plus d'en avoir conscience, le sujet y pense. Rappelons que toute représentation d'objet comprend un sens, implication psychique avec son jugement de valeur (bien/mal, juste/injuste, beau/laid, etc.) qui ne sera pris en compte consciemment que si son importance est jugée suffisante pour distraire la conscience de son enchaînement de pensées unique à un instant donné. A l'occasion, un objet dans l'espace de travail peut devenir présent à l'esprit (être pris en compte par une pensée) sans passer par une conscience de (sous l'action d'une autre pensée ou suite à une extraction de la mémoire) longtemps après avoir qu'une attention initiale eut provoqué une conscience de lui. On voit que les expressions "conscience de" et "présence à l'esprit" n'ont pas la même signification. A toutes fins utiles, voici leurs traductions en anglais : Attention : attention ; Conscience de : awareness ; Présence à l'esprit : sentience ; Sens psychologique : meaning. L'adjectif anglais "conscious" indique à la fois une conscience de et un sens donné à l'objet de la conscience de. 3.6.3.2.4 Le champ d'attention A un instant donné, un sujet perçoit son environnement par tous ses sens à la fois : vue, ouïe, toucher, etc. Un sens donné, la vue par exemple, a dans son champ propre plusieurs objets possibles : pour un footballeur, il y a d'autres joueurs, le ballon, le but adverse, etc. Tous les objets du champ d'attention, perçus par tous les sens, ont chacun un « poids » mesurant son importance, attribué automatiquement par l'inconscient, et qui varie constamment pour s'adapter à la situation qui évolue. Choix de l'objet du champ d'attention dont le sujet est conscient Les objets du champ d'attention d'un sujet sont constamment en concurrence pour être communiqués à sa conscience de. Leurs poids sont continuellement comparés 332 par le processus d'attention. A un instant donné, seul celui qui a le poids le plus important franchit le seuil de conscience et devient « l'objet auquel le sujet fait attention » ; les autres objets restent perçus par l'inconscient sans interrompre la fonction psychique en cours d'exécution de la conscience (ce 3ème sens de conscience est défini plus bas). Un objet auquel un sujet fait attention peut sortir du champ de sa conscience pour y être remplacé par un autre objet jugé plus important. Un footballeur qui regarde (fait attention à) un autre joueur peut, du coin de l'œil, apercevoir le ballon qui vient vers lui : sous l'influence instantanée de son inconscient son attention se détourne alors automatiquement vers le ballon, dont le« poids » est devenu prépondérant. 3.6.3.2.5 La conscience de soi Comme tout objet abstrait en mémoire, l'ensemble C = X + A (conscience de l'objet cible de l'attention) peut lui-même faire l'objet d'une opération d'attention. La conscience de résultante, appelée S, est la « conscience du sujet d'avoir conscience d'un objet » : c'est une conscience de soi. Et comme C lui-même, S comprend une description Xs et un schéma d'attention As de l'objet source C initial, description notée S = Xs + As. Une conscience d'avoir conscience s'appelle métaconscience ; c'est une pensée sur sa propre pensée, une métacognition. (Remarque : [344]) 3.6.3.2.6 Conscience d'un objet quelconque Le cerveau humain a un mécanisme d'attention à n'importe quelle représentation R en mémoire, quelle que soit la manière dont R a été construite. Ce mécanisme génère les données d'une conscience de cette représentation, un couple (schéma d'attention + R). Nous avons évoqué ce sujet ci-dessus. Avoir conscience de soi-même est possible par le même mécanisme psychique qu'avoir conscience d'un objet, car la représentation de celui-ci peut résulter d'une opération précédente de la conscience comme d'une perception des sens. Enfin, le cerveau à l'état d'éveil peut faire attention à un objet abstrait comme un concept, ou complexe comme la suite des étapes d'un raisonnement ou une suite de déclenchements de gestes physiques. L'opération d'attention créera une représentation et un schéma d'attention de cet objet, permettant à l'esprit d'en avoir conscience. Toute connaissance de conscience de est une connaissance immédiate et directe d'une sensation, d'un désir, d'une crainte, d'une volonté ou d'une représentation d'objet ; voilà pourquoi vous les connaissez parfaitement, vous pouvez les observer et les décrire avec certitude, dans tous leurs modes, toutes leurs nuances, tous leurs caractères relatifs ou particuliers, fugitifs ou permanents. Cette conscience de génère automatiquement et immédiatement, dans le subconscient [356] du sujet, une première émotion, agréable ou désagréable, qu'il ne peut s'empêcher d'éprouver mais qu'il peut ensuite transformer en jugement de valeur en y réfléchissant. Quand j'entends quelques notes d'une symphonie de Mozart j'éprouve un sentiment esthétique : je trouve cette musique belle ; j'éprouve cette émotion immédiatement, instinctivement, sans réflexion aucune. 333 3.6.3.2.7 Modèle prévisionnel de l'évolution d'un objet - Intention d'agir Lorsque l'esprit a conscience d'un objet pendant un temps suffisant, l'inconscient en construit automatiquement un modèle de son évolution permettant de prévoir celle-ci dans l'avenir proche. Le gardien de but qui suit des yeux un ballon en prévoit la trajectoire, et son subconscient [356] « calcule » le geste nécessaire pour l'arrêter ; la conscience n'intervient pas avant le geste réflexe, faute de temps, mais après, pour évaluer la situation. Parfois, une intention d'agir (décision d'action) est inconsciente et intervient instinctivement très vite, avant prise en compte par la conscience ; dans ce cas, l'impression de conscience de qui s'est formée après décision d'action ne fait que "mettre au courant" la conscience de la décision prise instinctivement, peut-être pour la justifier rationnellement par souci de cohérence entre inconscient et conscience. Parfois l'intention d'agir intervient après la conscience d'une certaine cause (c'est-àdire après la réflexion qui suit la prise de conscience). 3.6.3.2.8 Conscience d'autrui - La Théorie de l'esprit Un individu peut avoir conscience d'une autre personne comme il a conscience de soi. Il fait attention à l'autre, est conscient de l'expression de son visage et de ses gestes, etc. Une fonction psychique « sociale » permet à tout individu A de se construire un modèle de l'esprit d'un autre qu'il observe, B, pour essayer de deviner de quoi B a conscience, ce qu'il pense, l'émotion qu'il ressent, ce qu'il désire et ce qu'il va faire. Avoir conscience de B a une signification pour A, qui en éprouve une émotion (agréable ou désagréable) ; la description de cette émotion fait partie des données de la conscience de B dans l'esprit de A. La connaissance scientifique actuelle sur ce sujet fait l'objet de la Théorie de l'esprit (Theory of Mind) [357]. 3.6.3.3 Conscience La conscience (tout court) est l'ensemble des phénomènes psychiques permettant la connaissance du monde et de soi-même à l'état d'éveil : attention, conscience des autres et de soi, fonctions psychiques, représentations et affects [253]. Les fonctions psychiques manipulent des données abstraites (les représentations) pour les mémoriser, raisonner sur elles et commander des actions musculaires. Du point de vue physiologique les fonctions résultent d'états et d'excitations de neurones. Appareil conscient - Appareil inconscient On se représente parfois cette forme de conscience sous forme d'appareil psychique virtuel regroupant des fonctions psychiques ; on dit par exemple : « les fonctions nécessaires à l'entendement sont dans la conscience ». On parle aussi d'appareil inconscient pour le dispositif virtuel où se produisent les phénomènes inaccessibles à la conscience : « la reconnaissance des visages fait partie de l'inconscient ». Freud a montré que l'inconscient [353] humain ignore systématiquement les principes de logique et le déterminisme. Il peut par exemple, sans intervention de la conscience, transformer une image (représentation) en une autre grâce à des associations d'idées basées sur les critères les plus inattendus (existence au même endroit, noms commençant par une lettre commune, etc.) 334 Comparaison des fonctions inconscientes et des fonctions conscientes Les fonctions inconscientes opèrent rapidement, à l'insu du sujet. Il s'agit de : perceptions, assignations de poids aux objets du champ d'attention, décisions et actions basées sur ces poids, intuition, compréhension du langage [19], etc. Les processus qui gèrent les diverses fonctions inconscientes peuvent fonctionner en parallèle. Par rapport à la conscience, ils sont parfois autonomes, parfois déclenchés ou influencés par elle ; ainsi, la conscience peut biaiser la concurrence entre les objets du champ d'attention pour orienter son choix. Les fonctions conscientes agissent lentement sur une vision réduite et schématisée du monde. Il s'agit de : Pensée logique ou affective ; Synthèse de perceptions inconscientes ou subconscientes pour en offrir une représentation globale cohérente ; Compréhension de phrases ayant plusieurs sens possibles ou des sousentendus ; Gestion de la mémoire de travail pour pouvoir garder présentes à l'esprit les représentations qui l'intéressent (et seulement celles auxquelles il veut faire attention) pendant tout le temps nécessaire. Cette fonction permet la construction de modèles d'évolution des objets d'attention. Contrairement à l'inconscient, la conscience ne peut faire qu'une chose à la fois Cette certitude expérimentale est affirmée avec force dans [344] pages 173 et 177 : « L'accès à la conscience fonctionne en tout-ou-rien et bascule dans l'état "on" ou dans l'état "off". » « Notre cerveau conscient ne peut pas connaître deux embrasements en même temps, il ne nous laisse percevoir qu'un aspect de réalité à la fois. » « Le simple fait de se concentrer sur un objet de pensée nous empêche d'en percevoir un second. […] Avant qu'un objet ne pénètre notre conscience, il doit d'abord attendre que celle-ci se libère. » La pensée consciente réagit avec retard et sa vitesse est limitée Selon [344] pages 177 à 179, notre conscience est en retard sur les événements. Il lui faut au moins 1/3 de seconde pour traiter un volume suffisant d'informations sur l'objet de son attention, transformant cet objet en une représentation cohérente. Lorsque ces informations lui parviennent avec un débit insuffisant (d'une image difficile à distinguer, par exemple) l'esprit prend le temps d'en accumuler et analyser suffisamment avant qu'elles franchissent le seuil de conscience et soient prises en compte. Enfin, lorsque la conscience est occupée à penser à un certain sujet et qu'elle doit en changer d'urgence, la prise en compte de ce nouveau sujet doit attendre la fin de celle du précédent ; c'est pourquoi, lorsqu'il doit freiner rapidement pour éviter un accident, un conducteur en train de téléphoner réagit moins vite que s'il ne pensait qu'à conduire. Heureusement, l'homme dispose de deux moyens de compenser automatiquement le délai imposé par la conscience. Il y a d'abord les réactions réflexes commandées par le seul inconscient. Il y a ensuite notre fonction d'anticipation des 335 événements, basée sur le modèle prévisionnel de l'évolution de notre contexte de vie construit automatiquement par l'esprit. Pour les scientifiques il n'y a plus, aujourd'hui, de mystère de l'expérience subjective Selon [344] page 207 : « En un mot, le mystère de l'expérience subjective est aujourd'hui éventé. Au cours de la perception consciente, les neurophysiologistes n'ont aucune difficulté à enregistrer des décharges neuronales spécifiques d'une image ou d'un concept, et ce dans plusieurs régions du cerveau. Ces cellules déchargent si et seulement si la personne déclare avoir vu l'image - peu importe que cette perception soit authentique ou imaginaire. Chaque scène visuelle consciente est codée par un état d'activité neuronale reproductible et qui reste stable pendant au moins une demi-seconde, tant que la personne la voit. » Non seulement la conscience de est associée à des décharges neuronales, toujours les mêmes chez une personne donnée pour une image ou un concept donné, mais réciproquement l'arrivée d'une image perçue entraîne sa prise en compte par la conscience sous forme d'une représentation. On lit dans [344] pages 211 et 214-215 : « …chaque paramètre de la scène visuelle se projette en un point donné du cortex. Différents secteurs du cortex occipital abritent des mosaïques de neurones sensibles à la forme, au mouvement ou à la couleur. La stimulation cérébrale démontre que cette relation entre la perception et les décharges neuronales est causale. » « Ce n'est pas l'activité neuronale locale qui suscite la conscience [de], mais sa propagation à des régions distantes du cortex. […] La conscience [de] réside dans les boucles du cortex : c'est la réverbération de l'activité neuronale dans les méandres des connexions corticales qui cause chacune de nos sensations conscientes. » 3.6.3.4 Conclusion sur la conscience Répétons-le une dernière fois : le fonctionnement de la conscience, de la conscience de et de la conscience de soi résulte d'une interprétation par notre psychisme d'états de nos neurones [355] ; cette interprétation produit toutes nos pensées, sans exception : représentations, fonctions psychiques, émotions, etc., y compris celles qui sont dans l'inconscient ou le subconscient [356]. La transcendance intervient seulement lorsque, ignorant ce fonctionnement et redoutant cette ignorance, nous en imaginons un. 3.6.3.5 Théorie informationnelle du psychisme Source : [345] L'Homme n'a pu comprendre pourquoi un corps pesant tombe lorsqu'on le lâche, et quelle hauteur verticale il aura ainsi parcouru en fonction de la durée de sa chute, qu'en faisant appel à des lois de la physique, les lois de Newton. Depuis, notre compréhension est celle d'équations mathématiques. Dans notre esprit, le passage de la réalité physique perçue à l'abstraction que constitue sa compréhension (à l'entendement du phénomène, comme disent les philosophes) est accompli par la modélisation du phénomène physique au moyen de formules de calcul. 336 C'est par un processus analogue de modélisation que nous comprenons aujourd'hui le fonctionnement de l'esprit humain. Ce modèle est la Théorie informationnelle du psychisme (c'est-à-dire de l'esprit), modèle qui généralise celui que nous venons de décrire pour la conscience. En voici un résumé. En se connectant et en se transmettant des signaux, les neurones du cerveau constituent un organe de traitement d'informations, l'appareil psychique. C'est un processeur d'informations : représentations, impressions et archétypes (modèles de représentation et de raisonnement) de l'inconscient, et pensées diverses ; le terme processeur a été choisi par analogie à un ordinateur, qui a des buts analogues : traiter de l'information. Rappelons que les représentations concernent autant des objets physiques, des objets abstraits, des séquences d'événements et des sens psychologiques : désirs, croyances, appréciations… ; les impressions sont associées à des images de l'inconscient qui se sont formées et sont manipulées hors du champ de la conscience, mais qui ont aussi un sens psychologique, agréable ou désagréable. La Théorie informationnelle du psychisme nous permet de représenter les informations psychiques sous forme de données, et de raisonner sur les fonctions psychiques sous forme de processus de traitement de ces données. La complexité des traitements (le nombre de processus qui peuvent exister et fonctionner simultanément) est représentée par une multitude de processus spécialisés qui communiquent et interagissent. Informations et traitements sont visualisables, mesurables et enregistrables par des appareils qui captent l'activité des neurones, et avec une précision croissante. La théorie n'affirme nullement que l'esprit humain est un ordinateur ; mais on a démontré que toutes les opérations rationnelles de la conscience humaine (calculs mathématiques, décisions et démonstrations logiques) peuvent être effectuées par un ordinateur lorsque leurs informations sont représentées par des chiffres et lettres. La théorie représente tout raisonnement logique humain par un algorithme calculable équivalent. Par contre, les processus, archétypes et images de l'inconscient ne sont pas simulables par des traitements informatiques ; ils sont donc hors du champ de la théorie. L'existence, la précision et la fidélité de la modélisation de l'esprit apportées par la Théorie informationnelle du psychisme nous permettent de comprendre le passage de la réalité physique à sa représentation abstraite et à sa signification psychologique. Ce passage, purement physique et déterministe, a lieu lors d'interprétations de données par des mécanismes d'interconnexion et transmission des neurones fonctionnant comme un ordinateur. 3.6.3.6 Considérations philosophiques sur la conscience Par définition, la conscience est une relation entre un sujet et un objet : le sujet a conscience de l'objet. L'objet de sa conscience est une chose, une personne, le sujet lui-même ou une idée. Quel que soit son objet, toute conscience est en même temps conscience de soi, comme sujet, comme centre de la conscience, comme acte de conscience en train de se faire. La conscience est donc aussi réflexive : dans la 337 représentation de la réalité que chacun a à chaque instant il y a une représentation de soi-même, et de ses interactions avec cette réalité. La perception physiologique des phénomènes est l'origine de toutes les autres formes de connaissance du monde physique. A l'exception de domaines scientifiques précis comme la physique quantique, décrire un phénomène c'est décrire une perception ; toute conscience est, par essence, de nature perceptive. Les mécanismes psychiques de la conscience ont une dimension neurologique, visible lorsqu'on enregistre les signaux électriques du cerveau, et une pathologie affectant les neurones affecte la conscience des individus atteints. Le sujet qui prend conscience du monde qui l'entoure organise ce monde en s'en faisant une représentation, modèle mental de sa structure et de son fonctionnement. La perception du monde est par essence subjective, différente avec chaque sujet. Elle a aussi une dimension affective personnelle, très importante car le moteur de la relation de conscience est l'affectivité. Ce point est très important : nous ne nous intéressons à une chose que dans la mesure où nous y trouvons un intérêt, c'est-à-dire si par sa présence ou absence, son action, etc., elle nous concerne de manière positive (agréable, prometteuse) ou négative (désagréable, redoutable). Toute conscience est donc accompagnée d'un jugement de valeur par le sujet sur l'impact réel ou potentiel de l'objet sur lui ou sur une chose à laquelle il attribue une valeur. Les deux modes du sentiment - aimer ou détester - avec l'émotion correspondante, structurent le monde perçu par un sujet. Un sujet peut s'intéresser à un objet parce qu'il suscite une émotion, ou simplement par curiosité (le sujet espère tirer satisfaction du fait d'en savoir plus sur l'objet ou de le comprendre). Le contraire de l'intérêt est l'indifférence : le sujet ne voit pas ce que l'objet peut lui apporter sur le plan psychologique, donc quel sens il a. Je ne peux connaître du monde qu'une extension de ce que je suis déjà, car toute nouvelle représentation que ma conscience m'en construit est nécessairement basée sur des connaissances, des apriori et méthodes de pensée antérieures. Mais la prise de conscience apporte une relation nouvelle. En même temps, elle corrige ce que je croyais du monde extérieur ou ce que j'espérais être, et qui s'avère contradictoire avec mon expérience ou mon opinion, ou au moins différent. Elle m'oblige à me remettre en cause, même si cela me déplaît parce que je dois admettre que j'étais moins bon que ce que j'aurais voulu. En fait, je dois même adopter une attitude de vigilance vis-à-vis de mes erreurs ou insuffisances, pour reconnaître très vite une différence entre ce que je croyais et la réalité, pour l'admettre et trouver comment m'améliorer. Agir en personne raisonnable et responsable comprend toujours une résistance à la subjectivité, par détection puis rejet de ses idées préconçues et illusions. Conscience, objectivité et vérité La conscience est individuelle, mais la connaissance qui peut en résulter n'est pas nécessairement subjective. Elle peut être partagée par communication avec des tiers : un texte que j'écris peut être lu par d'autres. Si tous ceux qui ont communication d'une connaissance l'examinent et qu'aucun ne la réfute, cette connaissance devient objective ; ils sont alors d'accord avec les faits ou les opinions exprimés (Voir [220] et la définition d'une théorie scientifique objective). 338 L'objectivité est indispensable à la vérité, qui est (pour le moment, nous reviendrons sur ce point) l'accord d'un énoncé avec les faits ; si une affirmation n'est vraie que pour moi et fausse pour les autres, il y a un risque de non-objectivité et d'erreur. Les sciences existent et produisent des vérités universellement acceptées ; il y a donc bien des méthodes et des exigences susceptibles de produire des discours qualifiés de véridiques parce qu'ils recueillent un large consensus (le consensus et l'absence de preuve d'erreur constituent la base du rationalisme critique, présenté plus bas). La subjectivité a pourtant un intérêt, celui de filtrer l'information qu'une personne prend en compte, lui évitant de s'encombrer de connaissances sans intérêt. Ce filtrage est un jugement de valeur de la connaissance, dans son rapport à celui qui juge. Mon jugement est basé sur mes connaissances, mon expérience, mon raisonnement, mes illusions et surtout mes émotions, mais c'est ma seule manière de juger de la vérité. Conscience et action de l'esprit sur la matière Idéalistes, de nombreuses personnes pensent que l'esprit humain, avec sa conscience, peut commander aux muscles - donc agir sur la matière. Elles y voient la preuve d'une transcendance, de la possibilité que l'esprit immatériel agisse sur la matière et la domine, bien que cette opinion viole le principe d'homogénéité. Matérialiste, je ne les suivrai pas. Je considère que la conscience n'est que notre perception du fonctionnement physique du cerveau, d'où elle commande au corps par des mécanismes physiologiques passant par le système nerveux et connus de mieux en mieux. Tout être vivant : animal, plante, champignon, etc. a une conscience d'un niveau au moins suffisant pour réagir à son environnement et agir sur lui à sa manière, la conscience spontanée ; l'homme a en plus une conscience réfléchie et une conscience morale. L'action du psychisme [347] humain sur le corps est tout à fait analogue à celle du logiciel sur le matériel d'un ordinateur, et pas plus étonnante, merveilleuse ou transcendante que lui ; cette action peut même de plus en plus être modélisée par du logiciel. Exemples : Un détecteur de mouvements oculaires peut aider un pilote d'avion à désigner une cible ou un dispositif sur lequel il veut agir, en contournant le contrôle de certains muscles par son cerveau. Le même détecteur est utilisé par des personnes paralysées pour agir sur des dispositifs qui parlent à leur place, manipulent un ordinateur, ou contrôlent leur fauteuil électrique. Un dispositif d'aide aux malentendants (prothèse auditive) corrige l'interprétation du son par le cerveau – auquel elle parviendrait déformée ou à un niveau acoustique trop faible – et génère un son adapté à l'oreille malade. 3.6.3.6.1 Conscience et pensée non algorithmique Je ne sais pas séparer chez l'homme conscience (réfléchie) et intelligence : chacune suppose l'autre et ne peut exister sans elle. Nous verrons ci-dessous que le fonctionnement de l'esprit humain ne peut se ramener aux seuls mécanismes physiques, biologiques ou génétiques dont il résulterait : sa description suppose des informations complémentaires, qu'on peut représenter par un modèle logiciel à couches et qui font l'objet de la Théorie informationnelle du psychisme. 339 Voici un ensemble de fonctions psychiques non algorithmiques, c'est-à-dire dont un esprit humain intelligent est capable alors qu'un ordinateur ne l'est pas du tout ou l'est beaucoup moins bien. L'entendement Voir sa définition et la discussion de la possibilité pour un ordinateur de comprendre. Résolution de problèmes L'ordinateur exécute des algorithmes, mais seul l'homme est capable de les écrire, c'est-à-dire de trouver la méthode permettant de résoudre un problème, méthode dont le calcul n'est qu'un des moyens. Les travaux de Gödel, Church, Turing, etc. ont montré qu'il n'existe pas d'algorithme général permettant de résoudre tous les problèmes, même déjà formulés en termes précis dans un langage formel à la portée d'un ordinateur. Seul l'homme peut se construire une représentation mentale d'un problème (c'est-à-dire le poser), trouver les étapes de sa résolution, et enfin mettre sous forme calculable celles qui relèvent d'une décision déductive ou du calcul mathématique. Un ordinateur peut quand même démontrer des théorèmes lorsqu'il lui suffit d'essayer toutes les combinaisons de déductions logiques possibles formant des suites de moins de N étapes, où N est un nombre entier donné. Jugements de valeur L'ordinateur n'est capable d'évaluer la qualité ou la valeur d'un résultat que dans la mesure où cette évaluation a été programmée par un homme, et que le programme a été lancé avec les données nécessaires. L'homme, au contraire, évalue automatiquement toutes les situations dont il a connaissance et toutes les pensées qui lui traversent l'esprit : Evaluation de véracité, c'est-à-dire d'adéquation d'une représentation avec la réalité. Cette évaluation peut même être nuancée ou assortie d'un doute, la vérité pouvant (pour un homme, pas dans l'absolu) être partielle ou approchée. On a démontré que, même dans le cadre d'une axiomatique précise [67] : Il n'existe pas de méthode générale de preuve d'une affirmation ; Il existe des propositions indécidables (qu'on peut écrire, mais dont la véracité ou la fausseté ne peut être prouvée logiquement [6]). Un ordinateur ne peut donc pas évaluer la qualité et les implications de ses résultats sans logiciel ad hoc fourni par l'homme ; il ne peut même pas évaluer la cohérence et la pertinence des données qu'il reçoit sans les règles algorithmiques correspondantes, elles aussi fournies par l'homme. Ce grave problème a pour origine le caractère arbitraire, postulé par l'homme, des axiomes d'une axiomatique, situation nécessaire à jamais irrémédiable. Evaluation du résultat d'un calcul, d'un raisonnement, d'une action en fonction du but prédéfini, avec là aussi possibilité de nuancer l'appréciation. Il est remarquable que de nombreux scientifiques considèrent qu'une théorie ou une formule a plus de chances d'être vraie si elle est élégante [143]. L'élégance scientifique est donc pour eux un critère de vraisemblance pris en compte dans 340 leur évaluation. C'est une qualité esthétique exprimant par exemple de la concision, de la simplicité, de la symétrie ou de la généralité. Il est clair qu'un homme peut formuler une opinion sur l'élégance, certes personnelle et subjective, alors qu'un ordinateur… Il faut cependant reconnaître que certaines démonstrations sont correctes bien qu'étant tout sauf concises et simples. Exemple : la démonstration du théorème de Fermat par Wiles représente 109 pages difficiles [144]. Bien que, comme tout le monde, je préfère une démonstration simple et concise à une démonstration longue et compliquée, je pense que l'élégance et l'esthétique sont des appréciations subjectives sans plus de valeur scientifique que le principe anthropique auquel certains croient pour expliquer l'Univers. Prédiction des évolutions possibles d'une situation, avec évaluation de la probabilité de chacune et de ses conséquences. Ces prédictions sont basées sur l'aptitude de l'homme à reconnaître des modèles mentaux à partir de concepts dont il dispose : Reconnaissance d'images (photo d'une personne, etc.), que les ordinateurs commencent à savoir bien faire ; Reconnaissance d'une attitude (par exemple hostile ou amicale) à partir de perceptions diverses ; les ordinateurs commencent à disposer de logiciels de stratégie permettant d'évaluer une situation (par exemple militaire ou économique) à partir de paramètres donnés, en utilisant des algorithmes d'évaluation programmés par l'homme ; certains logiciels prétendent aussi prévoir l'évolution d'un cours de bourse ou calculer le risque qu'il y a à détenir un titre, mais ils se trompent – et souvent gravement [301-a]. Reconnaissance d'une méthode de pensée, de représentation, de résolution d'un problème, etc., possibilités hors de portée d'un ordinateur. Après évaluation, l'homme peut reconnaître ses erreurs ou insuffisances et se corriger ; un ordinateur ne peut reconnaître que des situations pour lesquelles un homme lui a fourni le programme de reconnaissance ; il ne peut se reprogrammer qu'avec une logique d'autoprogrammation fournie par un homme. Jugement avec prise de risque. La plupart de nos décisions doivent être prises avec des informations insuffisantes ou incertaines. L'homme est conscient des risques, s'efforce de les évaluer et de décider au mieux, souvent après concertation avec d'autres hommes. L'ordinateur ne sait pas évaluer ses informations dans des situations non préprogrammées et ne sait pas avec qui et comment se concerter. Autoapprentissage progressif. Un enfant ou un apprenti apprend peu à peu, en accumulant des faits mémorisés et en construisant des méthodes de pensée ; il évalue au fur et à mesure ce qu'il voit, qu'il sait, qu'il fait. Il profite aussi des connaissances et de la culture accumulées depuis des générations par la société où il vit. Adaptabilité de l'être humain. Nous avons déjà vu qu'un être humain s'adapte peu à peu : ses organes s'adaptent, ses mécanismes physiologiques s'adaptent et l'expression de ses gènes s'adapte progressivement à partir de sa naissance. 341 En outre, les hommes se transmettent les connaissances, chacun progressant avec l'aide des autres, et l'évolution des gènes et de leur expression améliorent peu à peu l'adaptation de l'homme à son mode de vie. Génération continue dans la conscience de besoins à satisfaire et proposition d'actions pour y parvenir, sujet déjà abordé. Autres aspects de l'intelligence et de la conscience L'homme est plus ou moins conscient de ses propres émotions, donc des risques d'évaluation biaisée et de motivations inavouées. Chacun étant plus perspicace et plus objectif sur un autre que sur soi-même, chaque homme peut se faire conseiller par des psychologues, des philosophes, des consultants spécialisés, des amis, etc. L'homme dispose de méthodes de communication multiples avec ses semblables : parole et ton employé, texte et images, expression du visage et du corps… Le nombre et la variété de ces moyens de communication n'ont d'égal que leur richesse de nuances. Chaque individu a conscience d'un autre individu en tant qu'homme. Il s'en fait une représentation qui modélise ses émotions et son comportement prévisible. L'homme adopte des attitudes et des comportements de tromperie, de ruse, d'amitié, d'aide, d'amour, etc. Un ordinateur qui joue aux échecs ne peut appliquer que des stratégies préprogrammées. L'homme a des intuitions inexplicables et soudaines [66], [141], qui lui apportent des hypothèses ou des certitudes n'ayant qu'un rapport lointain avec des faits avérés et des raisonnements logiques. Ce sont des pensées non déterministes : elles peuvent se construire dans l'inconscient à la suite d'associations illogiques d'idées ou d'images basées sur une proximité psychologique ; exemples : L'image ou l'archétype A induit un sens psychologique semblable à l'idée B ; Le modèle de représentation A a été utilisé par la conscience en même temps que l'objet B, qui n'a aucun rapport logique avec lui. Au niveau supérieur de la conscience s'ajoute le niveau sous-jacent de l'inconscient. La conscience ne réfléchit qu'à un problème à la fois, mais l'inconscient travaille sur de multiples sujets en parallèle, avant de choisir parfois d'en communiquer un à la conscience. La pensée (représentations, déductions, inductions, analogies) procède parfois par mots, parfois par schémas graphiques, etc. Les hommes ne pensent pas tous de la même façon ; un homme donné ne pense pas toujours de la même façon. Voir aussi : Le modèle informatique de l'homme ; Ordinateur et compréhension ; [168] pour les universaux, qui font partie du déterminisme de la conscience. 342 3.6.3.6.2 Conclusion sur le caractère non-algorithmique et non-déterministe de la pensée Il y a des pensées inconscientes dans le psychisme [347] humain qui ne peuvent provenir d'aucun algorithme et qu'aucun ordinateur ne pourra jamais simuler, tant pis pour les personnes qui espèrent que l'intelligence artificielle et les réseaux neuronaux finiront par rattraper l'homme ; leurs espoirs relèvent de la science-fiction et des robots humanoïdes du génial Isaac Asimov [140]. A ce point de l'exposé, la discussion sur le caractère algorithmique de la pensée humaine me paraît close, mais il reste un point qui intéresse les philosophes : la pensée est-elle déterministe parce qu'elle est toujours une conséquence de processus physiologiques, donc matériels ? Et si oui, est-elle prévisible ? L'imprévisibilité de certains raisonnements Il y a des pensées imprévisibles parce que leur contexte est non reproductible. Les processus physiologiques sous-jacents sont bien déterministes, donc à déroulement et résultat prévisibles, mais leurs circonstances initiales - notamment émotionnelles et leur contexte de déroulement peuvent trop varier d'une fois sur l'autre pour permettre la prédiction du résultat. Voici d'autres raisons d'imprédictibilité de certains raisonnements : Le nombre immense de variables d'une situation où l'homme réfléchit à une décision consciente : nous avons vu qu'un nombre très grand de processus déterministes simultanés pouvait produire un comportement global imprévisible (détails). Les imperfections de la mémoire, sujette à oublis, erreurs et inventions dans ses processus permanents de reconstitution des informations stockées. Les étapes de pensée qui se déroulent dans l'inconscient. Les intuitions [141] et associations d'idées qui naissent dans un cerveau par suite de proximité physique entre des synapses [268] ou des cliques, associations qui dépendent de seuils d'excitation chimique ou électrique susceptibles de varier avec le contexte physiologique et émotif du moment. Le cerveau humain est notamment capable de formuler (souvent par une intuition pure et inexplicable) des propositions indécidables (propositions dont il n'existe pas d'algorithme capable de prouver qu'elles sont justes ou fausses [6], [66]), mais dont il est persuadé (sans preuve) de connaître la justesse ! Le choix entre un raisonnement et un autre dépend toujours du contexte : lorsque je suis heureux et optimiste, je raisonne autrement que lorsque je suis malheureux et découragé. Je peux aussi entretenir des illusions… Voir aussi, en matière boursière, [301-a]. 3.6.3.6.3 La pensée naît-elle du corps avec son cerveau ? Nous savons déjà que la pensée n'existe pas en dehors de son support cérébral : voir [51] page 222. Nous n'avons jamais constaté objectivement l'existence d'une pensée non cérébrale, nous ne sommes pas près d'en créer une avec des ordinateurs, et nous postulons le matérialisme et refusons l'idéalisme. Mais ce n'est pas parce que le 343 cerveau est une condition nécessaire (exactement : un support indispensable) à la pensée, qu'il est aussi une condition suffisante et qu'un corps humain avec un cerveau vivant pense comme nous le faisons. Puisque la pensée apparaît et se développe automatiquement dans l'embryon humain, puis chez l'enfant et l'adulte, et qu'il n'existe pas d'être humain vivant qui ne pense pas, la pensée est une activité aussi inséparable du corps d'un homme vivant que la respiration, elle est consubstantielle à l'homme ; en outre elle n'existe pas par ellemême, avant l'homme, en vertu du postulat matérialiste. Les scientifiques savent que la pensée est l'interprétation par les mécanismes neuronaux de l'homme du fonctionnement de ces mêmes mécanismes. [332] 3.6.4 Le modèle informatique de l'homme La conclusion sur l'inséparabilité de l'homme physique et de sa pensée est cohérente avec la Théorie informationnelle du psychisme, modèle informatique de l'homme, dont la conscience est un effet du logiciel qui gouverne les processus non automatiques de la vie : la pensée est la perception par notre cerveau du fonctionnement de ce logiciel. 3.6.4.1 La pensée en tant que processus d'interprétation Nous savons maintenant que la pensée est la perception par le cerveau de son propre fonctionnement lorsqu'il interprète l'état de ses neurones et leurs connexions. C'est cette interprétation qui transforme un état matériel de neurones en un autre état perçu comme abstraction. Elle constitue la seule mise en relation entre concepts de genres différents qui ne viole pas le principe d'homogénéité. Selon la Théorie informationnelle du psychisme, le cerveau fonctionne un peu comme un ordinateur, dont : Le "matériel" serait son ensemble de neurones, avec leurs possibilités d'interconnexion, de transmission, de mémorisation et de raisonnement. Le "logiciel" serait l'ensemble des règles de fonctionnement du cerveau lorsqu'il manipule des abstractions qu'il a créées sous forme d'états neuronaux et d'interconnexions. Le "cerveau-ordinateur" interprète des états de ses neurones et des perceptions pour en tirer des états-conclusions, par raisonnement conscient ou non. Les règles de cette interprétation forment un "logiciel axiomatique" décrivant des états de neurones et des règles de combinaison d'états initiaux en états finaux. L'interprétation par ce logiciel est basée sur ces axiomes et règles et ne peut produire que des états neuronaux qui en résultent : nous ne pouvons concevoir, imaginer, mémoriser ou utiliser pour raisonner que des objets que ces règles-là peuvent déduire de nos axiomes, nous l'avons déjà noté. Les fonctions psychiques conscientes sont un ensemble d'interprétations, et rien que cela. Elles produisent des états de neurones que nous considérons comme ayant une signification : de ce que je sais et vois, je déduis que j'existe et les propriétés d'objets dont mon cerveau a construit des modèles (nécessairement réducteurs) - et seulement de tels objets. Ce modèle informatique de la pensée "cerveau-ordinateur" ci-dessus est conforme aux résultats expérimentaux [332]. 344 En reliant des abstractions l'esprit humain peut créer n'importe quelle relation, même fantaisiste ou absurde ; il suffit que certains groupes de neurones (des « cliques ») créent, modifient ou suppriment diverses connexions entre neurones. Le processus d'interprétation de notre pensée n'est pas déterministe, d'abord parce qu'il comprend des fonctions inconscientes, ensuite parce qu'il subit l'influence de conditions non conscientes (donc non maîtrisables) venues de nos perceptions, de notre état de santé du moment et des émotions qui apparaissent spontanément. 3.6.4.2 Modèle logiciel à couches du psychisme Par analogie avec un ordinateur et conformément à la Théorie informationnelle du psychisme, je propose pour modèle du psychisme [347] les niveaux de logiciel humain suivants, du plus élevé au moins élevé : Logiciel (en anglais : software) : La conscience ; L'inconscient ; Les processus automatiques du système nerveux (cervelet, moelle épinière, etc.) ; Microcode (en anglais : firmware) : le code génétique et son interprétation par la machinerie cellulaire : duplication et expression des gènes, fabrication et utilisation des protéines, etc. Le "matériel" sous-jacent, nécessaire à l'existence et au fonctionnement du logiciel, est l'ensemble des cellules du cerveau, avec leurs processus biologiques basés sur des protéines générées par interprétation du génome. Ce modèle logiciel ne peut se ramener à un modèle exclusivement physique, basé sur la biologie et/ou la génétique. C'est une description complémentaire, basée sur de l'information et des relations entre informations, ainsi que des générations, comparaisons et interprétations d'informations par notre esprit. Tenter de déduire des pensées dans un esprit humain de mécanismes exclusivement neuronaux est impossible. Ce n'est pas parce que la pensée est impossible sans un cerveau et ses mécanismes physiques qu'elle peut se réduire à eux : ils en sont une condition nécessaire, mais pas suffisante pour en décrire le déroulement. 3.6.4.3 Le fonctionnement du psychisme n'est pas souvent déterministe On peut répondre « En général non » à la question "Le psychisme fonctionne-t-il de manière déterministe ?" : L'esprit ne respecte pas toujours les exigences de causalité et de reproductibilité de la définition du déterminisme scientifique traditionnel, dans la mesure où : une partie d'une pensée, notamment son déclenchement et les émotions qui l'accompagnent et l'influencent, est dans l'inconscient ; des intuitions peuvent apparaître spontanément et paraître prégnantes [141] ; 345 des jugements de valeur peuvent être émis et des décisions peuvent être prises malgré des incertitudes et des informations insuffisantes, sur la base d'une inspiration ou d'une impression, et sans garantie de reproductibilité ; les circonstances entourant une prise de décision varient constamment du fait du nombre de variables dont la valeur peut changer à notre insu. Le psychisme est capable d'apprendre et de s'adapter, mais cela se produit dans des contextes qui ne respectent pas souvent l'exigence de reproductibilité. Exemple : l'apprentissage progressif d'un enfant, par essais et erreurs. L'inconscient fonctionne souvent de manière non algorithmique [353] : des pensées peuvent s'y former selon des critères irrationnels et non reproductibles, et se propager à la conscience ou en orienter le fonctionnement. Lorsque la conscience fonctionne de manière non déterministe, l'homme est nécessairement imprévisible. Nous avons vu aussi que même lorsqu'un phénomène complexe ne comprend que des processus déterministes, son résultat est en général imprévisible. 3.6.4.4 Autres raisonnements humains inaccessibles à un ordinateur Certains processus mentaux caractéristiques d'un être humain sont inaccessibles aux ordinateurs actuels. Ils utilisent des facultés humaines comme : L'aptitude à reconnaître des formes ou des lettres même lorsqu'elles sont déformées, qu'elles ont des parties absentes ou surabondantes ; L'aptitude à trouver des points communs sémantiques entre plusieurs dessins, photos ou mots ; etc. Ces processus sont aujourd'hui très utilisés dans des applications interactives Internet, pour empêcher des ordinateurs de se faire passer pour des humains ; voir la page du projet CAPTCHA [193]. Leur aptitude inaccessible à un ordinateur consiste à effectuer des rapprochements de représentations selon des règles approximatives et souvent créées à l'instant et dans le contexte où on en a besoin ; exemple : des analogies basées sur des critères illogiques, affectifs ou esthétiques. Ces rapprochements peuvent résulter d'efforts conscients ou d'intuitions indépendantes de la volonté. 3.6.5 Libre arbitre, imprévisibilité et transgressions Ne pas confondre comportements imprévisibles et libre arbitre Nous aborderons plus bas la nature du libre arbitre de l'homme compte tenu du déterminisme. Mais d'ores et déjà il faut remarquer qu'il n'y a pas de rapport entre l'éventuelle imprévisibilité irréductible d'une personne et sa volonté ou son refus de faire quelque chose, parce que cette imprévisibilité (si elle existe) est inconsciente. L'imprévisibilité d'un individu peut donner, à d'autres comme à lui-même, l'impression qu'il a son libre arbitre, mais nous verrons que cette impression est trompeuse. L'imprévisibilité vient parfois des lois physiques, nous l'avons vu plus haut, et parfois des mécanismes du psychisme humain. Mais elle vient aussi de l'ignorance de l'homme, de son incompréhension de ce qui se passe. C'est ce que Spinoza avait vu lorsqu'il écrivait dans "l'Ethique" [97] (partie II, proposition XXXV) : 346 "Les hommes se trompent en ce point qu’ils pensent être libres. Or, en quoi consiste une telle opinion ? en cela seulement qu’ils ont conscience de leurs actions et ignorent les causes qui les déterminent. L’idée que les hommes se font de leur liberté vient donc de ce qu’ils ne connaissent point la cause de leurs actions, car dire qu’elles dépendent de la volonté, ce sont là des mots auxquels on n’attache aucune idée. Quelle est en effet la nature de la volonté, et comment meut-elle le corps, c’est ce que tout le monde ignore…." Ne pas confondre aptitude à transgresser les règles et libre arbitre Un soldat prisonnier devient un héros lorsqu'il choisit de mourir sous la torture plutôt que de « parler ». Certains philosophes ont vu dans cette aptitude de l'homme une preuve de sa possibilité d'échapper au déterminisme, donc de sa liberté ; ils considèrent que le libre arbitre de l'homme est caractérisé par son aptitude à choisir contre son intérêt au nom de valeurs supérieures, même si celles-ci sont purement morales ou intellectuelles. Nous reviendrons plus bas sur le libre arbitre et la liberté de l'homme, mais je voudrais proposer ici une interprétation matérialiste de l'aptitude humaine à transgresser des règles. Tant qu'un homme est conscient, tant que sa souffrance physique, par exemple, ne l'empêche pas de penser et n'empêche pas sa pensée de maîtriser ses actes, il est soumis à la dictature des valeurs présentes dans son esprit. Or celles-ci sont ordonnées, certaines prenant le pas sur d'autres. Dans une situation donnée, tant que l'homme a la capacité de réfléchir, il agit en fonction de celles de ses valeurs qui s'appliquent et sont les plus influentes, parce que les règles de comportement issues de ses gènes le lui imposent. C'est pourquoi les méthodes de torture les plus raffinées essaient de réduire l'aptitude de l'homme torturé à penser, par exemple en le privant de sommeil. Je crois fermement que l'homme en mesure de penser n'est jamais libre de transgresser toutes ses valeurs, qu'il y en a au moins une à laquelle il obéira parce qu'aucune autre n'est plus importante à ses yeux à ce moment-là. Et tant qu'il lui reste au moins une valeur dominante, l'homme en est esclave. Noter que la raison n'est pas une valeur, contrairement à ce que croyait Descartes. Ce n'est qu'un outil utilisé par l'esprit pour trouver quoi faire pour satisfaire le mieux la valeur dominante du moment. Nous verrons plus bas que l'homme peut faire ce qu'il veut, mais il ne peut pas vouloir ce qu'il veut [224]. N'oublions pas que l'homme ne maîtrise pas son inconscient et que celui-ci intervient avec ses propres automatismes et ses propres valeurs instinctives, cachées. Il faut ajouter, ici, qu'à long terme toute valeur est susceptible d'être créée, rejetée, modifiée, ravalée à un rang inférieur ou promue à un rang supérieur. Une telle évolution peut provenir des expériences vécues par l'homme comme de ses réflexions. Une transgression de valeur dominante peut, après une telle évolution, s'expliquer par le respect d'une valeur désormais supérieure. Mais je ne vois toujours pas de besoin de postuler que l'homme jouit d'un libre arbitre, sachant que ce libre arbitre est illusoire. 347 3.6.6 Différences entre représentations mentales de personnes différentes J'avais toujours cru que l'homme ne pouvait penser consciemment qu'avec des mots, et que sans le mot ou la phrase nécessaires un concept ne pouvait exister, ou ne pouvait être assez clair pour être communiqué à autrui. Je pensais même qu'une pensée ne pouvait être organisée, structurée, que dans la mesure où le texte qui la représentait pouvait lui-même être structuré d'une manière hiérarchique avec des titres et sous-titres. C'était là ma propre façon de penser et je ne voyais pas pourquoi la conscience d'autres personnes fonctionnerait autrement. Et puis un événement m'a obligé à compléter ce modèle de support linguistique de la pensée consciente. J'étais alors étudiant en astronomie, enseignement que je suivais pour mon plaisir après la fin de mes études d'ingénieur. Chaque cours magistral durait deux heures et, dès le premier, j'avais remarqué avec ravissement à quel point le professeur, un normalien, expliquait clairement. Un jour il se surpassa : en deux heures il arriva à nous expliquer les cinq ou six premières approximations du mouvement de la Lune. Or ce mouvement par rapport à la Terre est si loin d'une orbite képlérienne, du fait de diverses perturbations, qu'il est un des problèmes les plus difficiles de mécanique céleste. En sortant du cours, j'étais certain d'avoir compris et retenu tout ce que le professeur avait expliqué, malgré le niveau scientifique du sujet et le nombre de détails. Je trouvais extraordinaire qu'il m'ait suffi d'écouter attentivement et de prendre quelques notes pour assimiler un tel sujet. J'avais déjà suivi les cours de dizaines de professeurs sans avoir jamais eu pareille impression. Aussi, à la fin du cours suivant, j'allai trouver le professeur, le remerciai pour la clarté de son enseignement et lui demandai son secret. Comme beaucoup de vrais savants, il était aussi modeste que génial. Il commença par m'indiquer des recettes simples, comme de regarder souvent dans les yeux de plusieurs élèves pour voir s'ils suivaient ; d'énoncer toujours avec soin le titre de chaque sujet qu'il allait traiter avant de le faire et sa conclusion à la fin ; de donner force exemples chiffrés, et de situer l'apport et l'intérêt de chaque étape par rapport à d'autres connaissances. Et comme il vit dans mes yeux que je voulais en savoir plus, il ajouta : "Les années passant, j'ai aussi appris à connaître les schémas mentaux de mes étudiants. Tenez, ce matin par exemple un étudiant m'a demandé de lui expliquer ce qu'est une surface développable. Je lui ai demandé quelles études il faisait, et il m'a répondu qu'il voulait devenir chimiste. Alors je lui ai demandé : « Savez-vous faire un filtre en papier ? ». Et comme il m'a répondu oui, je lui ai demandé de faire le geste de plier une feuille de papier pour en faire un filtre conique, ce qu'il a fait sans hésiter. « Eh bien », lui ai-je dit, « à partir d'une feuille plane vous venez de faire une surface conique développable. » J'ai pensé qu'un chimiste connaîtrait le modèle mental d'un filtre conique, et j'ai utilisé cette représentation-là pour lui expliquer son modèle mathématique. Au fil des années d'enseignement et des sessions d'examens j'ai ainsi appris à connaître quelques représentations mentales de mes étudiants, et je les utilise en priorité chaque fois que j'explique quelque chose." Le professeur avait d'autant plus raison que les gens ont des représentations différentes pour le même concept un peu abstrait ou général, et font des 348 enchaînements déductifs différents pour arriver à une même conclusion. En considérant alors ma propre manière de réfléchir, je m'aperçus qu'en plus des mots et des structures hiérarchiques d'idées, j'utilisais à l'occasion des schémas géométriques pour décrire des relations entre idées ou des enchaînements d'étapes de raisonnement. J'utilisais aussi des techniques de mémorisation de démonstrations complexes basées sur l'ordre des émotions éprouvées à diverses étapes importantes : généralité enthousiasmante d'un énoncé, élégance d'une déduction, surprise face à un résultat, concision d'une formule, etc. J'avais découvert ces techniques très personnelles en m'efforçant d'apprendre les questions de cours des programmes de maths et physique du baccalauréat, et je m'en sers depuis. Bien entendu, la base de la pensée reste toujours les mots représentant les concepts et les opérations sur eux. Plus tard, je découvris que certaines personnes associent des couleurs, des formes géométriques et des émotions à des chiffres, lettres ou mots, ce qui leur permet des performances en matière d'associations d'idées, de mémorisation ou de calcul mental hors de ma portée [280]. (Revoir si nécessaire les sections sur les représentations et la conscience de, qui décrivent la richesse des fonctions psychiques correspondantes.) Je pense aujourd'hui que les représentations mentales et l'enchaînement des étapes de raisonnement diffèrent tellement d'une personne à une autre qu'une communication efficace doit utiliser plusieurs techniques : textes, schémas, photos, vidéos, mais aussi exemples, analogies, synthèses, questions et réponses. Elle peut même recourir à des redites sous une forme différente, des anecdotes et de l'humour. Pour les personnes plus intuitives que les autres, il faut une expression suggestive qui profite de cette faculté. (Voir exemple d'intuition immédiate dans [141]). Pour les personnes qui ont besoin de comprendre l'essentiel avant d'accepter l'effort de lire les détails, il faut une structure de niveaux claire et (en notre XXIe siècle) des liens hypertexte pour pouvoir approfondir un détail situé en annexe pour ne pas encombrer le texte principal. Je me souviens aussi du conseil de Blaise Pascal, selon lequel convaincre l'esprit (la raison) ne suffit pas si on ne séduit pas aussi le cœur [239] : une communication efficace demande la mise en condition de la cible, dont les membres doivent avoir envie d'en recevoir le message et si possible sympathiser avec l'auteur. C'est pourquoi, pour combattre l'échec scolaire il ne faut pas tenter de convaincre les élèves que « c'est pour leur avenir », mais qu'ils peuvent réussir et en tirer une satisfaction ; leur absence d'effort vient d'une absence de sens psychologique provenant de succès. Les enchaînements du fonctionnement mental varient tellement d'un individu à un autre que la compréhension d'autrui (de ce qu'il dit, comme de ce qu'il ne dit pas mais devrait dire) est un art si personnel que chacun doit l'apprendre seul pour l'essentiel, les autres n'ayant guère le moyen de l'aider. C'est ainsi qu'il m'a fallu attendre l'âge de 25 ans avant d'apprendre le peu de pédagogie que le professeur d'astronomie a pu m'enseigner, après l'avoir lui-même trouvé tout seul. 349 3.6.7 Déterminisme des évolutions ou décisions selon le niveau ou l'échelle Il n'y a pas de loi générale, mais on peut distinguer deux cas selon le caractère naturel du contexte ou son caractère artificiel avec intervention humaine. Voyons des exemples. 3.6.7.1 Difficulté d'expliquer un comportement macroscopique à partir de phénomènes au niveau atomique Les objections des idéalistes au modèle matérialiste de la vie qui réduit celle-ci aux seuls mécanismes biophysiques s'expliquent aussi par une erreur de méthode : ils tentent de comprendre des structures, mécanismes et fonctions de haut niveau directement à partir de notions de bas niveau, c'est-à-dire de niveau moléculaire, en oubliant les interactions. Nous allons voir des raisons pour lesquelles c'est, en général, impossible pour un être humain. La difficulté de passer d'une représentation ou une modélisation de certains phénomènes à l'échelle moléculaire à une représentation ou une modélisation à l'échelle macroscopique provient d'une complexité qui se manifeste à la fois : Par le fait que l'action des gènes, basée sur des mécanismes de biologie moléculaire déterministes, porte sur des milliers de réactions chimiques qu'elle coordonne [268] ; sa complexité la rend donc en général imprévisible [51]. On a quand même réussi à modéliser de manière parfaite l'intégralité des fonctions vitales d'un micro-organisme avec 128 ordinateurs fonctionnant en parallèle [279]. Par l'impossibilité de passer directement des mécanismes cellulaires des êtres vivants à leurs mécanismes psychiques, même en tenant compte du logiciel génétique ([51] page 14). Nous devons prendre en compte le modèle informatique de l'homme, avec ses interactions entre processus du même niveau ou de niveaux différents. Par le nombre immense d'interactions possibles entre les variables physiologiques et psychiques intervenant dans la pensée humaine en même temps que les variables de son environnement (santé, activité, etc.). Conclusion sur le déterminisme lors d'un changement d'échelle Si l'on veut prendre des décisions - ou simplement comprendre les phénomènes psychiques humains - à l'échelle macroscopique à partir d'une compréhension des situations et des phénomènes à l'échelle moléculaire ou cellulaire, on se heurte à des difficultés insurmontables. Ce n'est pas le déterminisme qui est en cause en tant que principe, surtout si on en a étendu la définition comme suggéré dans ce texte, c'est la complexité intrinsèque des interactions entre processus des êtres vivants et du nombre de leurs variables. Cette complexité, déjà formidable pour les lois physiques et chimiques, est complètement inextricable pour les phénomènes irréversibles à la base de l'auto-adaptation et de l'évolution du vivant, et encore plus pour les lois du psychisme ou de la société ; notre esprit ne peut se la représenter à l'aide des seules connaissances à l'échelle microscopique. Toute compréhension ou décision à l'échelle humaine passe donc nécessairement par une hiérarchie de niveaux schématisant et simplifiant 350 progressivement les représentations ; dans son modèle informationnel, cette hiérarchie comprend des niveaux logiciels. Il est souvent préférable d'étudier et de modéliser le comportement humain en étudiant son psychisme [347] comme le font les psychologues, d'une manière holiste. Plus généralement, un même ensemble de lois physiques, adaptées à une échelle particulière (Relativité à l'échelle cosmologique, lois macroscopiques à l'échelle humaine, Mécanique quantique à l'échelle atomique...) ne permet pas, en pratique, de modéliser les comportements à une autre échelle ; on ne peut donc pas faire une suite de déductions ou prédictions de comportement en franchissant une limite d'échelle : nous l'avons vu à propos des Principes de correspondance et de complémentarité. Voir aussi Ensemble de définition d'une loi déterministe. 3.6.7.2 Niveau des phénomènes naturels Nous avons déjà vu qu'à l'échelle atomique la Mécanique quantique introduisait la possibilité de conséquences multiples d'une cause donnée, comme les multiples résultats possibles pour une mesure, ou les multiples états quantiques stables correspondant à une fonction d'onde donnée ; nous savons aussi que ces résultats multiples peuvent exister simultanément, en superposition ; nous savons enfin que le passage au niveau macroscopique peut faire apparaître comme continu un comportement déterministe discontinu du niveau atomique. Exemple : une quantité d'électricité, nécessairement discontinue car multiple entier de la charge (élémentaire) de l'électron (e = 1.6 .10-19 coulomb) au niveau atomique, paraît être une grandeur continue au niveau macroscopique, tant la charge élémentaire e est petite ; le déterminisme reliant cause et effet n'est pas tout à fait le même. Nous avons également vu que l'imprécision qui rend imprédictible et irréversible la trajectoire d'une molécule dans un liquide devient négligeable au niveau macroscopique où on ne s'occupe plus des molécules individuelles, mais seulement des propriétés statistiques du liquide dans son ensemble, c'est-à-dire des moyennes en un point donné de la température, de la pression, etc. En sens inverse, connaissant les lois de comportement macroscopiques, on n'a même pas pu deviner pendant des siècles qu'il existait un niveau moléculaire obéissant à des lois complètement différentes. Les lois physiques du niveau atomique sont apparues : En 1900 avec le quantum élémentaire d'action de Planck, h (h = 6.6261 .10-34 joule.seconde) ; En 1905 avec l'effet photoélectrique d'Einstein, qui explique pourquoi et comment la lumière peut avoir à la fois un comportement ondulatoire et un comportement corpusculaire. Ces deux découvertes ont valu des Prix Nobel à leurs auteurs, tant elles ont révolutionné la physique. 3.6.7.3 Niveau des phénomènes sociétaux L'économie, qu'on peut considérer comme « la science de l'allocation de ressources rares et chères » (main-d'œuvre, terre, eau, minerais, capital…) n'a de sens qu'à un niveau regroupant un certain nombre d'hommes. 351 Le comportement d'un individu isolé est en général peu prévisible lorsqu'il prend des décisions à caractère économique : quel produit choisir, combien en acheter, à quel prix, quand, à qui ; quel métier exercer, où, etc. [301] Au niveau individuel, le déterminisme est surtout un postulat philosophique matérialiste : l'homme a un comportement rationnel et égoïste déterminé par sa psychologie et son environnement présent et historique ; Sartre pense, en outre, que l'homme a son libre arbitre (voir aussi [81]).Les idéalistes, au contraire, pensent que toute action humaine est déterminée par Dieu ou des forces de l'esprit. Le comportement économique d'un groupe d'individus apparaît d'autant plus prévisible qu'ils sont plus nombreux et que la situation est moins exceptionnelle. Au niveau d'une entreprise, par exemple, (niveau considéré comme microéconomique) il existe des lois de production [64], de marketing, etc., traduisant un certain déterminisme lorsque leurs hypothèses réductrices et simplificatrices s'appliquent. Au niveau d'un pays ou d'un groupe de pays comme la zone euro (niveau considéré comme macroéconomique), il y a des lois déterministes plus ou moins quantitatives comme la « loi de l'offre et de la demande » [167], le modèle économique national de l'INSEE Mesange, ou les mécanismes de la mondialisation, que nous aborderons plus bas. Entre les niveaux micro et macroéconomique il y a des seuils dont le franchissement s'accompagne d'effets plus ou moins prévisibles. Ces effets concernent des phénomènes comme l'équilibre, la croissance, la sensibilité ou l'indifférence, l'asymétrie d'information, etc. Nous le verrons, la mondialisation est un phénomène inéluctable. Mais comme il est indifférent aux intérêts des individus et à leur souffrance, il a besoin d'une intervention humaine au niveau des Etats ou d'institutions internationales comme l'Union européenne et sa Banque centrale européenne ; la Banque mondiale ; le FMI [180] et l'OMC [52]. Une telle intervention modifie les mécanismes du déterminisme strictement économique et indifférent au bonheur humain de la mondialisation en fonction de considérations politiques, sociales ou même idéologiques. 3.6.7.4 Autonomie des niveaux et compréhension holistique Le "Discours de la méthode" [4] de Descartes recommande, après une décomposition analytique (processus « de haut en bas »), de comprendre un phénomène complexe « de bas en haut », en remontant progressivement depuis le niveau le plus bas (réputé le plus facile à maîtriser) vers le niveau le plus élevé. Nous avons vu que le niveau de complexité le plus bas n'est pas nécessairement le niveau atomique. La compréhension en remontant à partir d'un niveau donné est souvent limitée par un phénomène de changement d'échelle ; elle est même parfois impossible ou inextricable. En outre, l'approche « de bas en haut » n'est pas toujours possible en pratique, à la fois parce que dans de nombreux cas nous n'avons pas les connaissances nécessaires à un niveau donné et dans ses interactions avec les niveaux adjacents, et aussi parce que la lourdeur de la démarche la rend souvent impraticable. 352 Bien qu'on puisse déduire des lois importantes de la physique macroscopique de lois de la physique quantique (et inversement), la résolution de problèmes macroscopiques avec des méthodes de raisonnement et de calcul de la Mécanique quantique est inextricable. C'est pourquoi il vaut mieux, alors, étudier directement les phénomènes macroscopiques, notamment de manière expérimentale, et en considérant comme négligeables les phénomènes de physique quantique. Et c'est bien par étude directe, à la fois théorique et expérimentale, qu'on a réalisé depuis le XVIIe siècle des grandes avancées de la physique macroscopique comme les lois de Kepler, Galilée et Newton [103], [110]. Autre difficulté, l'unification des modèles physiques de l'infiniment petit, de l'échelle humaine et de l'infiniment grand astronomique défie les scientifiques depuis près d'un siècle : on n'a pas encore réussi à construire de théorie unifiant complètement la physique depuis l'échelle atomique (où dominent la Mécanique quantique et l'Electrodynamique quantique) jusqu'à l'échelle astronomique (où domine la Relativité). On en est souvent réduit à raisonner différemment à chacune de ces échelles, avec des équations différentes et des aspects différents du déterminisme. Un jour, peut-être… Dans le domaine des sciences du vivant, de la connaissance du psychisme humain, et des sciences de la société comme l'économie, la compréhension à partir des niveaux d'abstraction inférieurs est très limitée ; elle ne progresse vraiment que par étude directe des phénomènes à leur niveau le plus élevé. Voir aussi Ensemble de définition d'une loi déterministe. Conséquence On doit donc souvent travailler à comprendre chaque niveau de connaissance indépendamment des niveaux inférieurs et supérieurs, en ne reliant ces niveaux que lorsque c'est possible. Etudier un système comme un tout relève de l'holisme. 3.6.7.5 Holisme L'holisme est une méthode de représentation et de compréhension qui considère chaque phénomène ou entité comme un tout, sans déduire son comportement de ceux de toutes ses parties ou de quelques-unes, et sans tenir compte des interactions entre ces parties. Une représentation holiste est donc l'opposé d'une représentation analytique ou réductionniste, dont elle refuse le caractère simplificateur. Exemple : pour un holiste, l'explication du fonctionnement psychique de l'homme ne peut se déduire de l'analyse du fonctionnement de ses neurones; elle ne peut se déduire que d'observations de son comportement dans des circonstances données. La description holiste d'un objet complexe comprend nécessairement celle – statique de sa structure globale, et celle – dynamique - des comportements d'ensemble qui en résultent. La décomposition analytique d'un problème à résoudre recommandée par Descartes [4] implique donc une granularité optimale, consistant à considérer certaines parties du problème comme un tout non décomposable, abordé de manière holiste. 353 L'homme a une aptitude naturelle au holisme Comme tous les primates, l'homme est extrêmement doué pour mémoriser un visage et le reconnaître par la suite. Et cette reconnaissance ultérieure est si globale, si holiste, si automatique, que l'homme mémorise et identifie moins bien les détails d'un visage - ses défauts de symétrie par exemple - que le tout. [344] En fait, l'aptitude de l'homme à reconnaître des images est supérieure à celle de reconnaître des lettres ou des mots, et plus rapide. C'est pourquoi on utilise sur un écran d'ordinateur de petits pictogrammes appelés icônes pour représenter des programmes à lancer ou les données sur lesquelles ils travailleront : l'œil les reconnaît plus vite qu'un titre en toutes lettres. Nous reconnaissons facilement les traits d'un père dans ceux du visage de son fils, c'est-à-dire cette caractéristique impossible à préciser qu'est l'expression. Et nous continuons à reconnaître un visage connu malgré un changement dans sa coiffure, le port de lunettes ou une prise de poids. Des recherches récentes [151] ont montré que le cerveau possède un mécanisme qui complète très rapidement des informations fragmentaires pour permettre de retrouver en mémoire l'information complète, c'est-àdire un mécanisme de « déjà vu ». Ce mécanisme est complété par une fonction de discrimination permettant de ne pas reconnaître des informations mémorisées jugées trop différentes de celle qu'on recherche. Les recherches ont montré qu'on peut stimuler ou activer ces mécanismes chez la souris. 3.6.8 Complexité, ouverture d'esprit et causes occultes : discussion polémique Des remarques précédentes sur les approches analytique et holiste on peut conclure qu'une réalité complexe - notamment la description d'un être vivant ou d'un groupe humain - est plus que la somme de ses parties. La comprendre exige, en plus de la connaissance de celles-ci, de comprendre leurs interactions et l'interaction du système considéré avec son environnement, interactions présentes ou passées. Comprendre le comportement d'un phénomène irréversible, qui présente souvent comme nous l'avons vu des aspects imprévisibles, exige de l'ouverture d'esprit au moment d'accepter l'imprévisibilité, comme il en faut en Mécanique quantique pour « croire les équations ». Apprendre exige d'accepter la nouveauté, donc l'ouverture d'esprit L'ouverture d'esprit est nécessaire, en fait, pour une classe de sujets plus vaste que celui d'un système complexe à comprendre ; toute connaissance nouvelle qui nous oblige à remettre en cause ce que nous savons ou à y faire un ajout important exige, pour être assimilée, de l'ouverture d'esprit. Je me suis aperçu en discutant avec certains philosophes de mes idées sur le hasard et le déterminisme étendu – idées nouvelles et souvent dérangeantes pour eux – qu'ils n'avaient pas assez d'ouverture d'esprit pour essayer de les comprendre avant de les juger. Leur intuition, particulièrement prégnante chez les idéalistes et ceux dont la culture est essentiellement littéraire, leur faisait juger impossible l'extension de la notion (matérialiste) de déterminisme avant même d'avoir compris ce qu'elle recouvrait dans les idées que je proposais ; elle leur faisait aussi rejeter la réduction du rôle du hasard, qu'ils n'arrivaient pas à séparer de l'imprédictibilité. En lisant mes textes, ils cherchaient une confirmation de ce qu'ils croyaient déjà et rejetaient ce qui le contredisait. 354 Leur blocage psychologique concernait plus que le déterminisme et le hasard : toute approche basée sur une connaissance scientifique approfondie et la rigueur axiomatique déclenchait dans leur esprit à culture littéraire un rejet instinctif ; en fait, ils étaient victimes de dissonance cognitive. Comme il s'agissait de gens très instruits et ayant l'habitude de réfléchir à des sujets abstraits, je me suis mis à redouter la réaction face à la nouveauté intellectuelle ou à la rigueur de gens moins instruits et encore plus enfermés dans leurs idées toutes faites, encore plus habitués à une pensée peu rigoureuse… La complexité exige plus de rationalité, pas moins La complexité d'un comportement ne justifie pas qu'on l'interprète de manière superficielle ou approximative, par exemple en l'attribuant au hasard. Elle justifie encore moins qu'on l'interprète de manière surnaturelle, en invoquant une finalité divine, des forces occultes ou une essence spirituelle, comme le font des peuplades primitives. Tout raisonnement qui conduit hors du domaine de l'expérience possible, c'est-à-dire des lois de notre Univers, est nécessairement spéculatif ; il constitue un usage abusif de la raison s'il n'est pas reconnu comme tel. Or l'homme a une tendance naturelle à expliquer ce qu'il ne comprend pas de manière holiste, et à l'aide de faits et de règles imaginaires ; il le fait par exemple à l'aide de concepts inaccessibles à l'expérience comme les noumènes [318] de Kant. Il doit donc veiller à ne pas prendre pour des savoirs, des réalités et des vérités, des pensées qui ne peuvent être que des croyances, des préjugés ou des intuitions, et à ne pas utiliser dans un raisonnement non spéculatif des concepts non prouvés et de la pensée irrationnelle. Le comportement quotidien d'un homme, être physiquement complexe, ne peut se déduire des seules lois biologiques, elles-mêmes basées sur des lois chimiques et physiques, en oubliant sa complexité, son environnement et l'histoire. L'homme de l'instant présent a subi une structuration par l'évolution de l'espèce et l'hérédité qui ont précédé sa naissance, par ses expériences passées dans sa vie en société, et par la perception actuelle de son environnement issue de ses sens ; on peut même affirmer, avec Rousseau et Sartre, qu'il s'est en grande partie auto-structuré. Et on ne peut comprendre sa psychologie sans utiliser une hiérarchie logicielle au-dessus de la hiérarchie biologique et neurologique. La raison exclut les explications surnaturelles Mais l'obligation de tenir compte de cette complexité n'implique pas celle d'invoquer une finalité divine ou une liberté transcendante pour attribuer à l'esprit de l'homme, dans son cerveau, un fonctionnement échappant aux lois scientifiques, c'est-à-dire à la raison. Lorsque l'homme constate que plusieurs événements ou résultats d'expériences peuvent être reliés par une loi ou une cause commune, il a une impression d'ordre qui le rassure. C'est pourquoi il a tendance à généraliser des constatations faites, par induction, confondant ainsi l'habituel et le nécessaire ; car le nécessaire a une dimension de nature intime, d'essence, qui plaît et rassure. 355 Les idéalistes sont embarrassés quand l'ignorance de la cause d'un phénomène les oblige à l'attribuer (à tort) au hasard, car l'influence du hasard contredit leur croyance en une origine spirituelle, finaliste et organisée des phénomènes. Ils évacuent alors souvent ce conflit en donnant un nom à la cause inconnue ; c'est ainsi que les croyants attribuent certains phénomènes à un mystère : une affirmation comme « Les voies du Seigneur sont impénétrables » sert à faire accepter des croyances ou des révélations sans rapport avec la raison, à laquelle ils renoncent alors. Certaines personnes justifient leur croyance en des phénomènes physiquement impossibles comme la psychokinèse ou la guérison à distance par la pensée par des découvertes qui seront faites un jour, mais qu'ils tiennent déjà pour certaines ou au moins probables : c'est de la preuve par une démonstration espérée ! Comme le déterminisme philosophique traditionnel n'apporte pas de réponse rationnelle au problème philosophique de l'état initial, cause première à l'origine du monde [16], les hommes ont imaginé diverses réponses qui, toutes, demandent un acte de foi, c'est-à-dire qu'on les croie sans démonstration. Ces réponses sont des doctrines philosophiques basées sur des concepts transcendants (c'est-à-dire extérieurs au domaine des phénomènes physiques, l'Univers) tels que le Dieu créateur des religions monothéistes et le panthéisme de Spinoza. Kant a montré que tous les concepts transcendants sont nécessairement ou des spéculations sans rapport avec la réalité, ou des postulats applicables au monde réel mais dont on ne peut, rationnellement ou empiriquement, ni prouver la véracité, ni prouver l'erreur (postulats dits "infalsifiables" [203]). Soit on admet que Dieu existe, soit on admet qu'Il n'existe pas ; les deux affirmations sont des postulats acceptables mais indémontrables, et aucun des deux n'explique rationnellement le monde. La remarque précédente sur la tendance de certains hommes à recourir à une explication non scientifique de phénomènes complexes s'applique à une approche holiste comme à une approche analytique. Sa valeur est la même : l'explication transcendante et/ou finaliste peut toujours être invoquée, et toujours sans preuve ; et elle a toujours la même valeur au plan de la raison : nulle ; on ne pourra jamais prouver qu'elle est fausse, mais en l'invoquant, les idéalistes se dispensent de chercher une compréhension scientifique. L'attitude scientifique, au contraire, accepte l'inconfort psychologique de l'absence de compréhension et de sens. Elle accepte l'impossibilité de prouver que le matérialisme est une doctrine juste et que son opposé, l'idéalisme, est une doctrine erronée. Elle considère l'ignorance comme une raison de travailler à comprendre, pas comme une excuse pour attribuer ce qu'on ignore à un Etre suprême, une finalité qui nous dépasse ou des découvertes qui restent à faire. De culture scientifique, je ne peux accepter l'explication du monde enseignée par les religions révélées, explications intrinsèquement pleines de contradictions et dont Spinoza a montré l'absurdité. Par contre, j'admets et respecte les valeurs morales judéo-chrétiennes ; elles sont implantées dans mon inconscient depuis l'adolescence. Enfin, je suis profondément en accord avec les positions matérialistes défendues par André Comte-Sponville dans [5]. Compléments sur la complexité : [369] 356 3.6.9 Etre intelligent, déterminisme et prévisibilité Tout processus algorithmique [69] est calculable dans un ordinateur, donc déterministe. Mais comme nous l'avons vu, contrairement à un être intelligent, aucun ordinateur ne peut construire des valeurs ou des règles d'évaluation basées sur des faits ou une logique externes à la logique de son programme, aucun ne peut raisonner par intuition [141] ou analogie, aucun ne prend le risque comme l'esprit humain de généraliser une propriété à partir de cas particuliers (raisonnement par induction). Un être intelligent, et particulièrement l'homme, a donc parfois un comportement non déterministe, dans la mesure où son psychisme [347] peut créer et utiliser des informations et des règles de raisonnement sans base déterministe (cause identifiée nécessaire et suffisante, à effet stable). C'est ce que confirme [73] page 4, en citant plusieurs comptes-rendus de recherches confirmés dans [75] et [76] : "…living systems exhibit behavior that is apparently indeterminate" ("…les systèmes vivants présentent des comportements paraissant non déterministes") Tout mécanisme psychique de prise de décision fait partie du déterminisme qui régit le comportement humain lorsqu'il existe chez la plupart des hommes. La condition d'existence chez la plupart des hommes est difficile à satisfaire du fait des différences fréquentes de représentation et de mécanismes d'enchaînement de pensées entre individus distincts. Prudence : il faut se rappeler que les décisions humaines sont souvent entachées d'erreurs ; inhibées par des idées préconçues (par exemple culturelles) ou des intuitions irrationnelles ; affectées par des mécanismes de l'inconscient qui sont par définition non déterministes ; basées sur des illusions au lieu de faits avérés ; et non reproductibles, dans la mesure où une décision intuitive d'aujourd'hui risque demain soit d'être différente malgré un contexte apparemment identique, soit d'être remise en question parce que l'esprit de finesse aura pris en compte d'autres éléments de décision. Les processus humains de jugement et de décision font l'objet actuellement de nombreuses études ([54], [75] et [76]) au-delà des réflexions de Blaise Pascal [66]. Il s'en dégage une conclusion fondamentale : ces processus comprennent une part importante d'irrationalité et d'imprévisibilité par intervention de l'inconscient non maîtrisable, utilisation d'analogies, de généralisations abusives et d'intuitions, et tout simplement suite à des erreurs et des illusions de l'individu pensant. Exemple observé par moi en tant que méthode d'argumentation fréquemment utilisée par un politicien et qui trompe la plupart des auditoires : le politicien qui vient d'affirmer que « les Français sont dans le besoin » justifie son affirmation en citant un exemple de famille pauvre de sa circonscription ; les Français étant plus de 64 millions, un exemple portant sur quelques personnes ne prouve rien, seule une statistique nationale serait probante. Hélas, je n'ai jamais vu un journaliste intervieweur protester contre cette généralisation abusive, ce qui m'incite à penser que la rigueur intellectuelle est aussi peu répandue chez les journalistes que chez les politiciens… et leurs auditoires. 357 Juger une situation ou une proposition de décision est souvent extrêmement difficile, puisqu'il faut prendre en compte : Des informations incomplètes, ou qui peuvent varier dans le temps, ou dont la fiabilité est incertaine, ou qui sont contradictoires ; Des choix multiples, dont on a peut-être omis certains ; Des critères de choix ou des objectifs incertains ; La nécessité de décider vite, avant d'avoir eu le temps d'approfondir les informations, les choix disponibles, les critères de choix et les objectifs ; Le contexte émotif associé à certaines informations et aux conséquences de certains choix, contexte qui perturbe la rationalité du choix, etc. Donc, dans la vie courante, un jugement en vue de prendre une décision comporte en général une part d'incertitude. Et comme il dispose rarement de critères chiffrés de valeur (poids) assortis de probabilités [77], l'homme recourt souvent à son intuition, ou à une analogie avec des situations passées, ou plus généralement à son « esprit de finesse » [66] [141]. Le déterminisme d'un enchaînement cause-conséquences est clair et permet en général la prévision dans le domaine de la physique ; il est clair encore, même s'il est complexe, dans des domaines comme la génétique et le système nerveux. Il devient une simple corrélation dans celui du psychisme, voire une vague influence : le déterminisme n'y est plus du tout le même et la prévision y est très risquée. Le comportement de l'homme n'est donc que partiellement intelligible, et d'autant moins qu'il formule et tient pour vraies des propositions indémontrables ; et cette inintelligibilité rend son comportement en général imprévisible. Dans la mesure où l'homme fait partie de l'Univers, des philosophes qui cherchent des vérités caractérisant l'Univers tout entier ont affirmé que celui-ci n'est donc pas complètement intelligible et que l'effet de ses lois n'est pas complètement prédictible, affirmations qui choquent les matérialistes dogmatiques [206]. A mon avis, de telles affirmations philosophiques concernant l'Univers entier sont au mieux métaphysiques [371], donc spéculatives et sans utilité pour raisonner, au pire dénuées de sens ; je me contente de postuler que les lois physiques de l'Univers relèvent du déterminisme étendu, qui ne garantit pas la prédictibilité, et que le logiciel intermédiaire entre ces lois physiques et le psychisme humain [347] rend le fonctionnement de ce dernier souvent imprévisible. L'inintelligibilité partielle de l'homme rappelle que dans son cas l'effet simultané de nombreuses lois déterministes peut être imprévisible et que le résultat d'un phénomène déterministe n'est pas toujours prévisible. Et cette inintelligibilité partielle ne nous dispense pas de continuer notre recherche scientifique, et de refuser de considérer comme rationnelles une vérité révélée, une affirmation dogmatique [153] ou une spéculation métaphysique [371]. A titre d'exemple, voici un mécanisme de prise de décision basé sur des valeurs présentes chez chaque homme : l'équité et la coopération avec d'autres hommes. 358 3.6.9.1 Equité, confiance, coopération et déterminisme psychologique Des économistes, notamment aux Etats-Unis, étudient l'influence de la psychologie sur les décisions d'acteurs économiques (clients, fournisseurs, travailleurs, investisseurs, etc.) dans le cadre d'une nouvelle discipline appelée neuroéconomie [256], [57]. En économie classique, les comportements des acteurs économiques sont supposés rationnels et motivés par le seul intérêt de chacun. Or des expériences comme celle du jeu que nous allons présenter montrent que le comportement d'une personne est souvent irrationnel, en ce sens qu'elle fait passer certains critères de choix irrationnels et subjectifs (provenant de ses valeurs) avant le critère rationnel d'intérêt. 3.6.9.1.1 Le jeu "Prends ou laisse" Deux joueurs, l'offreur et l'accepteur jouent à un jeu d'argent. A chaque partie, l'offreur reçoit de la banque une somme fixe, 100€, dont il doit offrir une partie (entre 1€ et 99€) à l'accepteur. Si celui-ci accepte l'offre (par exemple 30€), il garde la somme et l'offreur garde le reste (70€) ; s'il refuse l'offre, les 100€ sont repris par la banque et aucun des deux joueurs ne garde quoi que ce soit. Le but du jeu est, pour chacun des joueurs, d'avoir gagné le maximum d'argent après un certain nombre de parties ; il n'y a pas de concurrence entre les joueurs pour savoir lequel gagnera le plus. Si l'accepteur a un comportement rationnel, à première vue il a intérêt à garder toute somme offerte par l'offreur, pour ne pas la perdre. Mais s'il agit ainsi et accepte une somme même très faible, 1€ par exemple, l'offreur s'apercevra qu'il accepte même un partage inéquitable des 100€ et lui offrira à chaque partie la somme minimum, gardant donc le maximum pour lui. L'accepteur a donc intérêt à refuser un partage par trop inéquitable des 100€, stratégie qui a en plus l'avantage psychologique de « punir » l'offreur. Celui-ci sera donc amené à offrir davantage pour que son offre soit acceptée et qu'il puisse avoir lui aussi quelque chose. Au bout de quelques parties, on constate qu'un accord de partage tacite s'instaure entre les deux joueurs, souvent sur la base d'un partage équitable des 100€. Ce jeu est basé sur l'aptitude, présente chez chaque homme, à anticiper la réaction d'un autre dans une situ